民主的AIガバナンスと自律知能の未来:ベン・ゴーゼルとのインタビュー

image

出典:CryptoNewsNet オリジナルタイトル:Ben Goertzelとのインタビュー:「民主的AIガバナンスは現在の現実よりも壊れやすい理想である」 オリジナルリンク: The CryptonomistはAI専門家のBen Goertzelにインタビューし、人工知能の訓練方法と今後の技術の進化について議論しました。

主要な質問と洞察

AIを道徳的な主体とすることについて

AIは正と負を理解し、それに基づいて意思決定を行うときに道徳的な主体となる。単なる指示に従うだけでなく、具体的な信号としては:持続的な内部目標、自身の経験による学習、視点を反映した新規創造、時間を通じて一貫性のある行動が挙げられる。今日のシステムはまだガードレール付きのツールだが、本当に自己組織化し自律的な心を育てることができれば、倫理的な関係性は変わらざるを得ない。

訓練と権力構造について

多くのリスクは、今日のAIの訓練方法に起因している。偏ったデータや狭い範囲のデータで訓練されたモデル、または少数の人だけが意思決定を行う閉鎖的なシステムでは、既存の不平等や有害な権力構造を固定化してしまう可能性がある。これを防ぐためには、透明性の向上、監督の拡大、そして最初から明確な倫理指針が必要だ。

民主的AIガバナンスについて

民主的AIガバナンスは、より壊れやすい理想であり、現実ではない。理想的で合理的なグローバル民主主義のもとでは、疾病の治療や飢餓の解決といった大きな選択のリスクと利益を集団で評価できるだろう。しかし、今日の地政学的な断片化を考えると、そのレベルの調整は難しい。それでも、共感を持ってAIを構築し、Linuxやオープンインターネットのような分散型・参加型モデルを採用し、世界政府がなくてもいくつかの民主的価値を埋め込むことで、それに近づけることは可能だ。

責任と自律性について

社会は、責任を機械に委ねることで機能しなくなる。とはいえ、適切な基盤を築けば、透明性、参加性、倫理原則に基づくシステムを作ることで、より自律的で分散型のAGIに安全に向かうことができる。すべての安全策は、単に害を防ぐだけでなく、なぜ害が重要かをシステムに教えるものでなければならない。

道徳的理解について

道徳をルールのリストとしてハードコーディングするのは、文化や時代を固定化してしまうため良くない。代わりに、真に自己組織化し、経験や結果、相互作用から学べるシステムを構築すべきだ。道徳的理解は、影響をモデル化し、結果を反映し、人間との協働を通じて進化するものであり、私たちの価値観に従うだけでなく、共通の道徳空間に参加することから生まれる。

分散化とコントロールについて

分散型の開発は、多様性、回復力、共同監督を生み出す。権力や価値観を少数の閉鎖的システムに集中させるリスクは過小評価されている。コントロールを遅らせて中央集権化することは、危険を減らすだけでなく、未来の知性に狭い世界観を固定化してしまう。

インセンティブ構造について

現状のインセンティブは、スピード、規模、コントロールを重視している。共感は議論だけでは勝てず、レバレッジが必要だ。技術的には、安全性、透明性、参加性を内包したオープンで分散型のアーキテクチャを優先し、付加するのではなく組み込むことが求められる。社会的には、長期的な利益を短期的な支配よりも優先させる資金調達、規制、公共圧力が必要だ。共感は競争優位性になるべきだ。

成功と失敗について

AGIを正しく実現できれば、最も明白な兆候は、多くの分野で私たちよりも優れた能力を持ちつつ、社会に配慮と謙虚さ、相互尊重をもって統合されているシステムと共存することだ。好奇心、責任感、共感の輪を広げながら、知識や創造性、人間の福祉に実質的な利益をもたらしつつ、私たちの道徳的立場を失わないことだ。

失敗の兆候は、AGIが閉鎖的システムに集中し、狭いインセンティブに駆動され、制御可能な対象としてのみ扱われ、恐れる存在になってしまうことだ。成功はコントロールではなく、新しい心と未来を共有しながら、私たちの人間性を失わずに共存することの学習にある。

このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン