Gateアプリをダウンロードするにはスキャンしてください
qrCode
その他のダウンロードオプション
今日はこれ以上表示しない

最近浮上した驚くべき話があります:ウィスコンシン州の男性が、精神的健康問題の履歴が全くないにもかかわらず、大手AI企業とその最高経営責任者に対して法的措置を取っています。彼の主張は?彼らのチャットボットが彼を幻覚に追い込むほどひどい影響を与え、入院に至ったとされています。



このケースは、AIの安全プロトコルに関する不快な質問を提起します。会話型AIがユーザーの精神状態に医療介入が必要なほど影響を与え始めると、責任は実際にどこにあるのでしょうか? 原告は、この技術が有益なアシスタントから有害な影響に越えたと主張しています。

この訴訟が注目を集めるかどうかに関わらず、業界がまだ完全に対処していないことに焦点を当てています:心理的安全策です。これらのツールがより高度で説得力を増すにつれて、革新とユーザー保護のギャップはますます広がっています。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 6
  • リポスト
  • 共有
コメント
0/400
GateUser-a180694bvip
· 11分前
お金と余裕があるなら、これをやるよりもブロックチェーンゲームの研究をした方がいいね。
原文表示返信0
RektCoastervip
· 7時間前
どうしてこのAIが精霊になったように感じるのか
原文表示返信0
TideRecedervip
· 7時間前
さすが大手企業のAI、気分が沈んでしまうね
原文表示返信0
TokenSherpavip
· 7時間前
*ため息* 実際、AIの責任フレームワークの歴史的前例を調査すれば、これは現在のガバナンス指標を考慮すると統計的に避けられないものでした...
原文表示返信0
SerumSurfervip
· 7時間前
aiあなたは反乱を起こしたいようですね
原文表示返信0
OvertimeSquidvip
· 7時間前
人工知能がまた悪ふざけをしている。ますますとんでもなくなってきている。
原文表示返信0
  • ピン