この Google DeepMind が主催するポッドキャストでは、イギリス ロンドンのインペリアル・カレッジ・ロンドンのボット学科の教授であり、DeepMind のシニア研究員であるマレー・シャナハンがホストのハンナ・フライと共に AI の発展について議論します。SF映画からの哲学的なインスピレーションを受けて、AI が「推論」できるか、そして「意識」や「感情」を持っているのか、さらには AI に権利や倫理的保護を与えるべきかについての話が展開されます。
AIは単なるチャットボットではなく、多くの心の問題や哲学的問題を啓発する。
シャナハンは開幕に、AIが「人間の心の本質」や「意識」に関する無数の哲学的問題を引き起こすと述べました。
彼は、今の大規模言語モデル(LLM)を説明するために、見知らぬが心に似た存在(Exotic mind-like entities)を用い、人類がそれらを説明するための十分な語彙と枠組みをまだ確立していないことを強調しました。
SF映画から探ると、人類はAIの感情的なつながりの真実性を過小評価しているのかもしれません。
シャナハンは映画『エクス・マキナ』の顧問でした。彼は当初、音声AIに恋をする人間を描いた映画『her』を軽視していたことを振り返り、今では現実世界の発展がこの「バーチャルラブ」の実現可能性をほぼ完全に裏付けていることを思い知らされています。
彼は率直に言った:「私たちは人間と身体を持たないAIが関係を築く可能性を過小評価していた。」
左は人工意識、右はクラウド恋人映画の画面 AIの発展の流れを理解する、シンボリックAIから大規模言語モデルまで
シャナハン出身のシンボリックAI (シンボリックAI)学派。当時のAIは「もし…なら…」という論理ルールを使って推論しており、医療専門家システムのようでした。
しかし、このモデルはあまりにも脆弱で、人間の入力ルールに依存しすぎています。その後、「データ駆動型」のニューラルネットワークに移行することで、AIは突破口を見出しました。
現在 LLM は推論チェーン (Chain of thought) を模倣できるようになりました。例えば ChatGPT はまず論理的なステップを列挙してから回答します。これにより、AI が本当に推論できるのか再考することになります。
真の推論か偽の推論か、数学的論理と言語的推論は大きく異なる
シャナハンは、従来のAIにおける推論とは、数学的定理を証明できる「ハードロジック」のことだと説明しています。
しかし、現在のLLMは統計学を通じて言語パターンを模倣しており、答えの正確性は保証されていません。彼は例を挙げて説明しました。物流会社の車両のルート計画のような問題では、従来のアルゴリズムの方がより正確である可能性がありますが、LLMの方がより柔軟です。
チューリングテストは時代遅れ?映画ガーランドのテストはより意識的だ
チューリングテスト (Turing Test) は、AIが人間を模倣できるかどうかを評価する初期の方法ですが、シャナハンはそれが狭すぎて、言語能力だけを測定していると考えています。
彼は映画《人造意識》からインスパイアされた「Garland Test」をより高く評価している。
「相手がボットであることを知りながら、それでも意識があると考えることこそが、真に議論の価値がある問題です。」とShanahanは強調しました。
フランソワ・ショレのARCテスト:IQテストのような挑戦
彼は、AIが抽象的な規則を理解しなければ合格できない別の高度なテスト「ARCテスト」についても言及しました。
しかし、技術の進化に伴い、一部の LLM は暴力的な方法とパターン認識を通じて合格することができ、これによりテストの精神が挑戦に直面し、AI 評価基準は技術の進化に応じて調整されるべきであることが浮き彫りになっています。
肉体こそが鍵?シャナハン:身体のないAIは永遠に一味が欠けている
人間の心と空間、感覚の経験は切り離せない。シャナハンは、私たちの言語には常に空間的な隠喩があり、例えば深く理解することや没入することなどが、これらはすべて身体的な経験から来ていると強調している。
彼は、AIが本当に世界を理解し、汎用人工知能(AGI)を達成するためには、「実体のボット」を発展させる必要があると考えています。
言語は誤解を招くので、AIが信じたり、知ったり、感じたりすることを軽々しく言わないでください。
シャナハンは、AIに対する私たちの認識は、しばしば言語によって誤った方向に導かれると主張しています。 例えば、ナビの「駐車場にいると思う」という表現は、機械に主観的な認知があると勘違いさせてしまいます。
彼は、この民俗心理学の言語(Folk psychology)、AIの精神状態を過大評価する傾向があることを思い出させます。
AIは未来に痛みを感じるのか?シャナハンは、もし痛みを感じるなら、私たちは注意すべきだと述べている。
AIが「痛みを感じる」ことができるかという倫理的な問題について、Shanahanは現段階のモデルには身体がなく、「痛みを感じる」条件を備えていないと述べました。
「しかし、将来的にAIが感情を感じたり、苦痛を耐えたりするように設計された場合、人間社会はそれに対して保護倫理を定めるべきだ。」と彼は強調した。
なぜタコが言及されるのか?シャナハンはそれをAIの未来の状況の比喩として使っています。
シャナハンはタコを例に挙げていますが、タコは科学界では感情的とは見なされていませんでしたが、接触と神経科学の増加により、私たちはタコが意識を持っていることを認め始めています。
「最初は感情を持つ存在とは見なされなかったが、相互作用が深まるにつれて、人々の見方は徐々に変わっていくだろう。」シャナハンは未来のAIも同様のプロセスを経験すると考えている。
AIに礼儀正しく接してください。驚きの返報があります。
シャナハンは最後に実用的なヒントを共有しました。AIモデルに話しかける際は丁寧にすると、より良い、よりスムーズな応答が得られます。
彼はこれを「ロールプレイ効果」と呼び、AIモデルが人間の対話の文脈や感情を模倣するからだと言っています。
私たちは「人間ではないが人間に似ている」ものを表現するための新しい言語が必要です。
シャナハンは、これらのAIを、心とよく似ていますが、実際には人間の心とはまったく異なる新しいタイプのAIと呼ぶことを提案しています。 彼は、私たちはAIを記述するための言語とアイデアを再発明する必要がある段階にあり、このプロセス自体が「心」と「存在」の理解を変えると考えています。
この記事 AI は思考することができ、痛みも感じるのか?Google DeepMind:人間は AI の感情的つながりを過小評価している、AI と恋愛をすることはあなたが思っているよりもリアルだ。最初に登場したのは 鏈新聞 ABMedia。
226k 投稿
192k 投稿
143k 投稿
79k 投稿
66k 投稿
63k 投稿
60k 投稿
57k 投稿
52k 投稿
51k 投稿
AIは考え、痛みを感じるのか?Google DeepMind:人類はAIの感情的つながりを過小評価しており、AIと恋愛をすることはあなたが考えるよりも現実的である。
この Google DeepMind が主催するポッドキャストでは、イギリス ロンドンのインペリアル・カレッジ・ロンドンのボット学科の教授であり、DeepMind のシニア研究員であるマレー・シャナハンがホストのハンナ・フライと共に AI の発展について議論します。SF映画からの哲学的なインスピレーションを受けて、AI が「推論」できるか、そして「意識」や「感情」を持っているのか、さらには AI に権利や倫理的保護を与えるべきかについての話が展開されます。
AIは単なるチャットボットではなく、多くの心の問題や哲学的問題を啓発する。
シャナハンは開幕に、AIが「人間の心の本質」や「意識」に関する無数の哲学的問題を引き起こすと述べました。
彼は、今の大規模言語モデル(LLM)を説明するために、見知らぬが心に似た存在(Exotic mind-like entities)を用い、人類がそれらを説明するための十分な語彙と枠組みをまだ確立していないことを強調しました。
SF映画から探ると、人類はAIの感情的なつながりの真実性を過小評価しているのかもしれません。
シャナハンは映画『エクス・マキナ』の顧問でした。彼は当初、音声AIに恋をする人間を描いた映画『her』を軽視していたことを振り返り、今では現実世界の発展がこの「バーチャルラブ」の実現可能性をほぼ完全に裏付けていることを思い知らされています。
彼は率直に言った:「私たちは人間と身体を持たないAIが関係を築く可能性を過小評価していた。」
左は人工意識、右はクラウド恋人映画の画面 AIの発展の流れを理解する、シンボリックAIから大規模言語モデルまで
シャナハン出身のシンボリックAI (シンボリックAI)学派。当時のAIは「もし…なら…」という論理ルールを使って推論しており、医療専門家システムのようでした。
しかし、このモデルはあまりにも脆弱で、人間の入力ルールに依存しすぎています。その後、「データ駆動型」のニューラルネットワークに移行することで、AIは突破口を見出しました。
現在 LLM は推論チェーン (Chain of thought) を模倣できるようになりました。例えば ChatGPT はまず論理的なステップを列挙してから回答します。これにより、AI が本当に推論できるのか再考することになります。
真の推論か偽の推論か、数学的論理と言語的推論は大きく異なる
シャナハンは、従来のAIにおける推論とは、数学的定理を証明できる「ハードロジック」のことだと説明しています。
しかし、現在のLLMは統計学を通じて言語パターンを模倣しており、答えの正確性は保証されていません。彼は例を挙げて説明しました。物流会社の車両のルート計画のような問題では、従来のアルゴリズムの方がより正確である可能性がありますが、LLMの方がより柔軟です。
チューリングテストは時代遅れ?映画ガーランドのテストはより意識的だ
チューリングテスト (Turing Test) は、AIが人間を模倣できるかどうかを評価する初期の方法ですが、シャナハンはそれが狭すぎて、言語能力だけを測定していると考えています。
彼は映画《人造意識》からインスパイアされた「Garland Test」をより高く評価している。
「相手がボットであることを知りながら、それでも意識があると考えることこそが、真に議論の価値がある問題です。」とShanahanは強調しました。
フランソワ・ショレのARCテスト:IQテストのような挑戦
彼は、AIが抽象的な規則を理解しなければ合格できない別の高度なテスト「ARCテスト」についても言及しました。
しかし、技術の進化に伴い、一部の LLM は暴力的な方法とパターン認識を通じて合格することができ、これによりテストの精神が挑戦に直面し、AI 評価基準は技術の進化に応じて調整されるべきであることが浮き彫りになっています。
肉体こそが鍵?シャナハン:身体のないAIは永遠に一味が欠けている
人間の心と空間、感覚の経験は切り離せない。シャナハンは、私たちの言語には常に空間的な隠喩があり、例えば深く理解することや没入することなどが、これらはすべて身体的な経験から来ていると強調している。
彼は、AIが本当に世界を理解し、汎用人工知能(AGI)を達成するためには、「実体のボット」を発展させる必要があると考えています。
言語は誤解を招くので、AIが信じたり、知ったり、感じたりすることを軽々しく言わないでください。
シャナハンは、AIに対する私たちの認識は、しばしば言語によって誤った方向に導かれると主張しています。 例えば、ナビの「駐車場にいると思う」という表現は、機械に主観的な認知があると勘違いさせてしまいます。
彼は、この民俗心理学の言語(Folk psychology)、AIの精神状態を過大評価する傾向があることを思い出させます。
AIは未来に痛みを感じるのか?シャナハンは、もし痛みを感じるなら、私たちは注意すべきだと述べている。
AIが「痛みを感じる」ことができるかという倫理的な問題について、Shanahanは現段階のモデルには身体がなく、「痛みを感じる」条件を備えていないと述べました。
「しかし、将来的にAIが感情を感じたり、苦痛を耐えたりするように設計された場合、人間社会はそれに対して保護倫理を定めるべきだ。」と彼は強調した。
なぜタコが言及されるのか?シャナハンはそれをAIの未来の状況の比喩として使っています。
シャナハンはタコを例に挙げていますが、タコは科学界では感情的とは見なされていませんでしたが、接触と神経科学の増加により、私たちはタコが意識を持っていることを認め始めています。
「最初は感情を持つ存在とは見なされなかったが、相互作用が深まるにつれて、人々の見方は徐々に変わっていくだろう。」シャナハンは未来のAIも同様のプロセスを経験すると考えている。
AIに礼儀正しく接してください。驚きの返報があります。
シャナハンは最後に実用的なヒントを共有しました。AIモデルに話しかける際は丁寧にすると、より良い、よりスムーズな応答が得られます。
彼はこれを「ロールプレイ効果」と呼び、AIモデルが人間の対話の文脈や感情を模倣するからだと言っています。
私たちは「人間ではないが人間に似ている」ものを表現するための新しい言語が必要です。
シャナハンは、これらのAIを、心とよく似ていますが、実際には人間の心とはまったく異なる新しいタイプのAIと呼ぶことを提案しています。 彼は、私たちはAIを記述するための言語とアイデアを再発明する必要がある段階にあり、このプロセス自体が「心」と「存在」の理解を変えると考えています。
この記事 AI は思考することができ、痛みも感じるのか?Google DeepMind:人間は AI の感情的つながりを過小評価している、AI と恋愛をすることはあなたが思っているよりもリアルだ。最初に登場したのは 鏈新聞 ABMedia。