民主AI治理与自主智能的未来:与Ben Goertzel的访谈

image

来源:CryptoNewsNet 原文标题:Ben Goertzel访谈:“民主AI治理更像是一种脆弱的理想,而非当前的现实” 原文链接: Cryptonomist采访了AI专家Ben Goertzel,讨论人工智能的训练方式以及未来技术的发展。

关键问题与见解

关于AI作为道德行为者

当AI在决策时基于对对错的理解,而不仅仅是遵循指令,它就成为了一个道德行为者。具体表现包括:持续的内部目标、通过自身经验驱动的学习、反映观点的创新创造,以及行为随着时间保持一致而无需不断的人类引导。如今的系统仍然是带有护栏的工具,但一旦我们种下真正自我组织的自主心智,伦理关系就必须发生变化。

关于训练与权力结构

大部分风险来自于当前AI的训练方式。如果模型在偏见或狭隘的数据上训练,或在由少数人决策的封闭系统中运行,就可能固化现有的不平等和有害的权力结构。为防止这种情况,我们需要更高的透明度、更广泛的监督,以及从一开始就明确的伦理指导。

关于民主AI治理

民主AI治理更像是一种脆弱的理想,而非当前的现实。在一个理想、理性的全球民主中,我们可以共同权衡治愈疾病和解决饥饿的巨大权衡,与AI可能带来的不可预测风险。但鉴于当今地缘政治的碎片化,达成这种协调的可能性不大。然而,我们仍可以通过构建具有同情心的AI,以及采用去中心化、参与式的模型如Linux或开放互联网,嵌入一些民主价值观,即使没有世界政府。

关于责任与自主性

社会无法在我们将责任交给机器的情况下正常运作。同时,如果我们建立具有正确基础的系统——透明、参与式、由伦理原则指导的系统——我们可以安全地向更自主、去中心化的AGI迈进。每一项安全措施都应不仅仅阻止伤害,还应让系统理解为何伤害重要。

关于道德理解

你不能将道德硬编码为一系列规则,因为那只会冻结一种文化和一个时间点。相反,应构建能够真正自我组织、从经验、后果和互动中学习的系统。道德理解来自于模拟影响、反思结果,并通过与人类合作不断演变——不是盲从我们的价值观,而是在共享的道德空间中参与。

关于去中心化与控制

去中心化的发展带来多样性、韧性和共同监督。集中权力和价值观在少数封闭系统中的风险被低估了。减缓速度和集中控制不仅会降低危险,还会将狭隘的世界观锁定在未来的智能中。

关于激励结构

目前的激励结构奖励速度、规模和控制。同情心不能仅靠争论赢得——它需要杠杆。从技术角度看,应偏向开放、去中心化的架构,将安全、透明和参与融入其中,而非事后附加。从社会角度看,应通过资金、监管和公众压力,奖励长期利益而非短期主导。同情心必须成为一种竞争优势。

关于成功与失败

如果我们正确开发出AGI,最明显的标志将是与在许多领域比我们更强大的系统共存,同时以关怀、谦逊和相互尊重融入社会。我们会以好奇心、责任感和扩展的同理心对待它们,看到对人类福祉、知识和创造力的真正益处,而不会失去我们的道德立场。

如果AGI最终集中在封闭系统中,由狭隘的激励驱动,或仅被视为可控对象直到变成我们恐惧的存在,我们就会失败。成功不在于控制,而在于学会与一种新型心智共享未来,同时不放弃使我们人性化的本质。

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)