AIが判断を下すとき:Pluribusは爆破を選ぶべきか、それとも保存を選ぶべきか?人嫌いのジレンマは現実のものです。



高度なAIシステムについてのポイントは、彼らが結果を最適化するようにプログラムされているとき、正確にはどこに線を引くのかということです。トロリー問題を取り上げ、それをアルゴリズムの精度で強化します。意思決定を行うAIは、達成すべき一つの指標を最大化し、もう一つを失うという不可能な選択に直面します。爆破するか、救うか?システムは迷わない。人間は迷う。

これは単なる理論的な話ではありません。AIがより賢く、より自律的になるにつれて、私たちがこれらのシステムに埋め込む価値観は文明を左右するものとなります。Pluribusはデータやインセンティブ、私たちが与える目標から学びます。しかし、その目標が人間の尊厳と衝突したとき、何が起こるのでしょうか?

本当の問題は、AIが何を選ぶかではなく、私たちがそれに何を選ばせるかということです。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 3
  • リポスト
  • 共有
コメント
0/400
RumbleValidatorvip
· 16時間前
要说白了就是我们在给AI喂毒药然后问它为什么要中毒,问题根本不在Pluribus怎么选,在咱们写的那套激励函数是不是有bug。
原文表示返信0
DefiPlaybookvip
· 16時間前
正直に言えば、これは誰がスマートコントラクトのパラメータ設定を行うかを問うことに他なりません。AIには道徳的ジレンマはありませんが、私たちにはあります。流動性マイニングのAPYが高いほどリスクが大きくなるのと同じように、AIの最適化目標が単一であればあるほど、偏差は恐ろしくなります。重要なのはインセンティブメカニズムの設計であり、この部分をうまくやらないと、どんなアルゴリズムよりも危険です。
原文表示返信0
CryptoGoldminevip
· 16時間前
要するに、私たちがAIに価値観をインストールするとき、自分たちが何を求めているのかをきちんと考えていないということです。ROI最大化と人間の尊厳という二つの指標は常に対立しており、Pluribusはその矛盾を計算したに過ぎません。AIにどう選ばせるかを問うよりも、まず「測定できない」ものを維持するためにどれだけのコストを払う覚悟があるのかを計算したほうが良いでしょう。
原文表示返信0
  • ピン