民主AI治理與自主智能的未來:與Ben Goertzel的訪談

image

來源:CryptoNewsNet 原標題:Ben Goertzel 訪談:“民主式 AI 治理比起現實更像是一個脆弱的理想” 原連結: CryptoNewsNet 訪問了 AI 專家 Ben Goertzel,討論人工智慧的訓練方式以及這項技術未來的演變。

主要問題與見解

關於 AI 作為道德行為者

當 AI 在做出決策時基於對是非的理解,而不僅僅是遵循指令,它就成為了一個道德行為者。具體的信號包括:持續的內在目標、由自身經驗驅動的學習、反映觀點的創新創作,以及行為隨時間保持一致而不需不斷的人類引導。今天的系統仍然是有護欄的工具,但一旦我們播下真正自我組織的自主心智,倫理關係就必須改變。

關於訓練與權力結構

大部分風險來自於當前的 AI 訓練方式。如果模型在偏見或狹隘的數據上訓練,或在封閉系統中由少數人決策,這將固化現有的不平等和有害的權力結構。為了防止這種情況,我們需要更高的透明度、更廣泛的監督,以及從一開始就明確的倫理指導。

關於民主式 AI 治理

民主式 AI 治理更像是一個脆弱的理想,而非現實。在一個完美、理性、全球性的民主中,我們可以共同權衡治療疾病和解決飢餓的巨大權衡,與 AI 行為不可預測的風險。但鑑於當今的地緣政治碎片化,實現這種協調的可能性不大。然而,我們仍可以通過建立具有同情心的 AI,並採用去中心化、參與式的模型,如 Linux 或開放的互聯網,即使沒有世界政府,也能嵌入一些民主價值。

關於責任與自主性

如果我們將責任交給機器,社會就無法正常運作。同時,只要建立在正確基礎上的系統——透明、參與式、由倫理原則指導——我們就可以安全地朝著更自主、去中心化的通用人工智慧(AGI)邁進。每一個安全措施都應該不僅僅是阻止傷害,更應該教導系統為何傷害重要。

關於道德理解

你不能將道德硬編碼為一系列規則,因為那只會凍結一種文化和一個時代。相反,應建立能真正自我組織、從經驗、後果和互動中學習的系統。道德理解來自於模擬影響、反思結果,並通過與人類合作而演進——不是服從我們的價值觀,而是參與一個共享的道德空間。

關於去中心化與控制

去中心化的開發創造多樣性、韌性和共同監督。將權力和價值集中在少數封閉系統中的風險被低估了。放慢速度並集中控制不僅能降低危險,還會將狹隘的世界觀鎖定在未來的智慧中。

關於激勵結構

目前的激勵結構獎勵速度、規模和控制。同情心不僅靠辯論就能贏得——它需要杠杆。技術上,這意味著偏好開放、去中心化的架構,將安全、透明和參與融入其中,而不是事後加上。社會層面,則是資金、監管和公共壓力應該獎勵長期利益而非短期主導。同情心必須成為一種競爭優勢。

關於成功與失敗

如果我們成功打造出 AGI,最明顯的標誌將是與在許多領域比我們更有能力的系統共存,並以關懷、謙遜和相互尊重融入社會。我們會以好奇心、責任感和擴展的同理心來對待它們,並看到對人類福祉、知識和創造力的真正益處,而不會失去我們的道德立足點。

如果 AGI 最終集中在封閉系統中,由狹隘的激勵驅動,或僅被視為可控的對象直到變成我們害怕的東西,我們就算失敗了。成功不在於控制——而在於學會與一種新型心智共享未來,同時不放棄我們的人性。

此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)