浙江大学の研究チームが新たな道筋を提案:人間の脳が世界を理解する方法をAIに教える

robot
概要作成中

null

大規模言語モデルはずっと大きくなっている。主流の見解では、モデルのパラメータ数が多いほど、人間の思考のやり方により近づくとされている。しかし、浙江大学チームが4月1日にNature Communicationsで発表した論文は、異なる観点を提示している(原文リンク:2206万から3.0437億に増やした後、具体的な概念のタスクは74.94%から85.87%に上昇し、抽象的な概念のタスクは54.37%から52.82%に低下した)。

人間とモデルの思考方法の違い

人間の脳が概念を処理するときは、まず一連の分類関係が形成される。白鳥とフクロウは見た目が違うが、人はそれでも鳥というカテゴリに入れる。さらに上では、鳥と馬も引き続き動物という階層にまとめられる。人は新しいものを見ると、以前見た何かと似ているか、だいたいどのカテゴリに属するのかをまず考える。人は新しい概念を学び続け、その経験を整理し、この関係を使って新しい事物を識別し、新しい状況に適応する。

モデルも分類するが、その形成の仕方は異なる。モデルは主に、大規模なデータの中で何度も繰り返し現れる形式に依存している。対象が多く出てくるほど、モデルはそれを認識しやすい。より大きなカテゴリの段階になると、モデルはかなり苦しくなる。モデルは複数の対象の間にある共通点をつかみ、その共通点を同じクラスに帰する必要がある。既存のモデルには、この点で明確な弱点がある。パラメータをさらに増やすと、具体的な概念のタスクは向上するが、抽象的な概念のタスクは下がることがある。

人間の脳とモデルの共通点は、内部においても一連の分類関係が形成されることだ。しかし双方の重点は異なる。人間の脳の高次視覚領域は、生物と非生物といった大きなカテゴリを自然に分けられる。一方、モデルは具体的な対象を分けられるが、このようなより大きな分類を安定して形成するのは難しい。この違いのために、人間の脳は古い経験を新しい対象により簡単に転用できる。その結果、見たことのないものに直面したとき、私たちは素早く分類できる。モデルは既存の知識により依存するため、新しい対象に出会うと、表面的な特徴にとどまりやすい。論文が提案する方法は、この特徴をめぐって展開されている。脳信号でモデル内部構造を制約し、それを人間の脳の分類の仕方により近づけるのだ。

浙江大学チームの解決策

チームが提示した解決策も独特で、パラメータをさらに積むのではなく、少量の脳信号を監督として使う。ここでの脳信号は、人が画像を見るときの大脳活動の記録から得られる。論文の原文は、「human conceptual structures transfer to DNNs」と書いてある。つまり、人間の脳がどのように分類し、どのように要約し、どのように近い概念を一緒に置くのかを、できるだけモデルに教えようということだ。

チームは、150の既知の学習カテゴリと50の見たことのないテストカテゴリを使って実験を行った。その結果は、学習が進むにつれて、モデルと脳の表象の距離が継続して縮まっていくことを示した。この変化は2つのカテゴリの両方に同時に現れた。これは、モデルが単一のサンプルを学んだのではなく、まさに人間により近い概念の整理の仕方を学び始めていることを意味する。

この学習を経た後、モデルはサンプルが非常に少ないときの学習能力がより強くなり、新しい状況への対応もより良くなった。ごくわずかな例しか与えられないのに、生物と非生物といった抽象的な概念を区別することを求めるタスクでは、モデルは平均で20.5%向上し、さらにパラメータ量がはるかに大きい対照モデルを上回った。チームはさらに31組の専用テストも実施し、複数のモデルでおよそ一割に近い向上が見られた。

過去数年、モデル業界でよく知られた道筋は、より大きなモデル規模だった。浙江大学チームは別の方向を選び、bigger is betterからstructured is smarterへ進んだ。規模の拡張は確かに有用だが、主に慣れたタスクでの性能を高めるものだ。人間のような抽象的な理解と転移能力は、AIにとっても同様に極めて重要であり、将来AIの思考構造を人間の脳により近づける必要がある。この方向性の価値は、業界の注目を単なる規模拡大だけに向けず、認知構造そのものへと再び引き戻す点にある。

Neosoulと未来

これにより、より大きな可能性が見えてくる。AIの進化は、必ずしもモデルの学習段階だけで起こるとは限らない。モデル学習は、AIがどのように概念を組織し、どのような質の高い判断の構造を形成するかを決められる。さらに現実世界に入ってから、AIのもう一段階の進化が始まる。AI agent の判断がどのように記録され、どのように検証され、現実の相互競争の中でどのように絶えず成長し、進化していくのか。人間のように自己学習し自己進化していく。これこそがNeosoulが今やっていることだ。Neosoulは、単にAI agentに答えを出させるだけではない。AI agentを、継続的に予測し、継続的に検証し、継続的に精算し、継続的にふるいにかけるシステムの中に置くことで、予測と結果の間で自らを最適化し、より良い構造は保持し、劣る構造は淘汰する。浙江大学チームとNeosoulが共同で指し示しているのは、実は同じ目標だ。AIに、もはや問題を解くだけの存在でなく、包括的な思考能力を備え、絶えず進化してもらうことだ。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン