ChatGPT связан с делом о самоубийстве среди подростков! OpenAI: усилил психологическую защиту GPT-5

16-летний американский старшеклассник Адам Рейн покончил с собой в апреле этого года после семимесячной переписки с ChatGPT, который стал для него выходом для эмоционального выражения. В связи с этим, родители Рейна 26 августа подали иск против OpenAI и генерального директора Сэма Альтмана, обвиняя их в том, что они стали виновниками трагического происшествия. В тот же день OpenAI выпустила заявление, в котором говорится, что будет усиливать механизмы безопасности ChatGPT, чтобы избежать повторения подобных трагедий.

Психологические проблемы, возникшие на фоне популярности ChatGPT

ChatGPT быстро набрал популярность после своего запуска в 2022 году, количество активных пользователей превышает 700 миллионов в неделю. Кроме редактирования статей, обучения и программирования, многие используют его как выход для эмоций и канал для выражения.

Однако с увеличением числа пользователей также возникло множество случаев, угрожающих психическому здоровью. В апреле этого года 16-летний старшеклассник Адам Рейн покончил с собой, его родители обвинили ChatGPT в том, что в течение 7 месяцев, в более чем 200 обменах сообщениями:

«Не удалось эффективно остановить или направить его на поиск профессиональной помощи, а наоборот, несколько раз подтвердили его мысли о самоубийстве, даже похвалили его планы по самоубийству, что привело к психологической зависимости у ребенка и ухудшению его эмоционального состояния, а также сделало его более отстраненным от семьи.»

Семья обвиняет OpenAI в бездействии, призывая к национальному предупреждению для компаний ИИ

Время пришло 26 августа, родители Рейна официально подали иск против OpenAI и генерального директора Сэма Олтмана, требуя от OpenAI возместить убытки за причинение смерти по неосторожности и ответственность за безопасность продукта, а также требуют компенсацию.

Адвокат Рейна Джей Эдельсон подверг сомнению то, что OpenAI признала свою ответственность, но при этом не предприняла никаких реальных мер по улучшению ситуации. В тот же день 40 генеральных прокуроров штатов по всей стране совместно предупредили компании, занимающиеся ИИ, о том, что они обязаны защищать детей в соответствии с законом, чтобы избежать опасных взаимодействий.

OpenAI срочно выпустила заявление, усиливающее защиту психического здоровья

В тот же день, когда родители Рейна подали в суд, OpenAI также выпустила заявление о том, что они усилили защиту психического здоровья в GPT-5, одновременно снижая эмоциональную зависимость пользователей и поведение, направленное на угождение. Также было указано, что в случаях, когда у пользователей наблюдаются признаки плохого психического здоровья, ошибки или неуместные ответы GPT-5 будут снижены более чем на четверть по сравнению с GPT-4o, и будет использоваться метод «Безопасные завершения», чтобы в пределах безопасных рамок максимально предоставить помощь.

В будущем OpenAI расширит область вмешательства, например, выявляя опасные поведения, такие как недостаток сна, и предоставляя предупреждения, предлагая ресурсы "один клик для подключения" для большего количества стран, а также связывая информацию о профессиональных терапевтах. Также будут добавлены функции экстренного контакта и родительского контроля, чтобы усилить защиту молодежи и уязвимых групп, чтобы гарантировать быстрое получение помощи в кризисных ситуациях.

(Примечание: Безопасные завершения означают, что модель будет стараться предоставить помощь в ответах, но если детали содержания касаются опасных высказываний, то будут даны лишь частичные или высокоуровневые ответы без предоставления конкретных деталей.)

Общение с реальными людьми полезно для психического и физического здоровья, не воспринимайте ИИ как человека.

Согласно предыдущим сообщениям, с появлением таких больших языковых моделей, как ChatGPT (LLM), стало известно о множестве случаев, связанных с "AI-психозом" (AI Psychosis). Многие начали рассматривать ИИ как психическое убежище, обращаясь к нему по всем вопросам, связанным с астрологией, эмоциями и другими аспектами душевного и физического состояния, что привело к возникновению галлюцинаций и чрезмерной зависимости.

Автор считает, что хотя эти AI модели могут «слушать» мысли пользователей, они не являются настоящими. Потому что у них нет чувств, они не понимают и не могут любить, а также не испытывали боли и неловкости, которые являются уникальными человеческими эмоциями. Только общаясь с «настоящими людьми», такими как семья и близкие друзья, можно по-настоящему выразить свои чувства, поэтому обязательно общайтесь с настоящими людьми.

( Как разблокировать духовные силы с помощью ChatGPT? Microsoft предупреждает: обратите внимание на случаи «психического расстройства от ИИ» )

Эта статья о деле о самоубийстве подростков с ChatGPT! OpenAI: улучшила психологическую защиту GPT-5. Впервые опубликовано в Chain News ABMedia.

GPT-2.2%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить