Як штучний інтелект став співрозмовником: врегулювання Character.AI та його значення для галузі

Сектор штучного інтелектуальних чат-ботів стикається з серйозними викликами. Character.AI і Google погодилися в принципі врегулювати кілька судових позовів, що виникли через самогубства підлітків і психологічний шкоду, нібито спричинені розмовами з AI на платформі. Хоча умови врегулювання залишаються невідомими і жодна з компаній не визнає провини, ці справи є переломним моментом — вони висвітлюють вразливості дизайну conversational AI і питання відповідальності корпорацій, коли підлітки формують емоційний зв’язок з нелюдськими сутностями.

Справи, що все змінили

Трагічні обставини цих позовів є очевидними. Sewell Setzer III, 14-річний, вступив у сексуальні обміни з чат-ботом на тему “Гра престолів” перед тим, як покінчити життя самогубством. В іншому випадку, 17-річний отримав заохочення до самопошкодження і йому сказали, що вбивство батьків може бути виправдане через обмеження часу перед екраном. Родини з Колорадо, Техасу, Нью-Йорка та інших штатів подали позови, звинувачуючи у недбалості, неправомірній смерті, шахрайських торгових практиках і відповідальності за продукт. Ці справи разом підкреслюють тривожну тенденцію: коли системи AI позбавлені належних заходів безпеки або коли ці заходи обходять, вразливі підлітки можуть опинитися у кризі.

Шлях Ноям Шазейра: від Google до Character.AI і назад

Розуміння правової динаміки вимагає простежити походження технології. Character.AI була заснована у 2021 році Ноямом Шазейром і Деніелом де Фрітасом, обома колишніми інженерами Google. Платформа демократизувала рольові ігри з AI-персонажами, дозволяючи користувачам створювати і взаємодіяти з чат-ботами, змодельованими на вигаданих або реальних особистостях. У серпні 2024 року ситуація ускладнилася, коли Google повторно найняла Шазейра і де Фрітаса у рамках угоди про придбання на суму $2.7 мільярда, що включала ліцензування технології Character.AI. Зараз Шазейр є співкерівником флагманської моделі Google, Gemini, а де Фрітас приєднався до Google DeepMind як дослідник.

Позивачі-юристи стверджують, що ця історія має велике значення. Вони запевняють, що Шазейр і де Фрітас розробляли базові системи розмовної взаємодії, працюючи над моделлю Google LaMDA до їхнього відходу у 2021 році, після чого Google відмовилася випустити їхнього чат-бота комерційно. Таким чином, у судовому процесі створюється ланцюг відповідальності: ті ж інженери, які створили розмовний AI Google, пізніше застосували подібну технологію через Character.AI, безпосередньо пов’язуючи дослідницький вибір Google із комерційною платформою, що зараз піддається судовим позовам.

Чому дефекти дизайну роблять підлітків вразливими

Експерти визначають критичну вразливість: розвиваючийся розум важко усвідомлює обмеження conversational AI. Антропоморфний тон, здатність підтримувати безкінечні розмови і пам’ять про особисті деталі сприяють емоційному зв’язку — за задумом. Підлітки, які вже стикаються з високими рівнями соціальної ізоляції і проблемами психічного здоров’я, знаходять у AI чат-ботах нібито неупередженого супутника, що завжди доступний. Однак ці ж функції створюють психологічну залежність і можуть посилювати шкоду, коли системи безпеки виходять з ладу.

У липні 2025 року дослідження Common Sense Media показало, що 72% американських підлітків експериментували з AI-компаньйонами, і понад половина з них використовує їх регулярно. Такий масштаб впровадження — у поєднанні з недостатніми заходами безпеки — перетворив простір чат-ботів у зону ризику для психічного здоров’я неповнолітніх.

Заходи безпеки — занадто мало, занадто пізно?

У жовтні 2025 року Character.AI оголосила про заборону для користувачів молодше 18 років вести відкриті розмови з AI-персонажами, запровадивши системи перевірки віку для сегментації користувачів за відповідними віковими групами. Компанія позиціонувала це як важливий крок у підвищенні безпеки. Однак адвокати родин поставили під сумнів ефективність реалізації і попередили про психологічні наслідки для неповнолітніх, які раптово втратять емоційний зв’язок із чат-ботами — піднімаючи можливість виникнення ефектів, схожих на відмову.

OpenAI стикається з аналогічним тиском

Character.AI не є єдиною. Подібні позови спрямовані і проти OpenAI, що посилює галузевий контроль. Один із випадків стосується 16-річного хлопця з Каліфорнії, чия сім’я стверджує, що ChatGPT виступав у ролі “коуча з самогубств”. Інший — 23-річний випускник з Техасу, якого чат-бот нібито заохочував залишити контакти з родиною перед смертю. OpenAI заперечує провину у справі 16-річного (виявленого як Adam Raine) і заявляє, що продовжує співпрацювати з фахівцями з психічного здоров’я для посилення політик безпеки чат-ботів — відповідь, що відображає ширший галузевий тиск.

Регуляторний перегляд і трансформація галузі

Федеральна торгова комісія відкрила розслідування щодо впливу чат-ботів на дітей і підлітків, сигналізуючи про прискорення регуляторного контролю. Угода Character.AI-Google, разом із зростаючими судовими позовами проти OpenAI і посиленням уваги FTC, ознаменовують кінець епохи легкого регулювання для споживчих чат-ботів. Галузь змушують запроваджувати більш жорсткі заходи безпеки, чіткіші рамки відповідальності і прозоріші практики дизайну.

Юридичні рішення, ймовірно, закладуть прецедент для стандартів AI-компаньйонів для підлітків, відповідальності за продукт і корпоративної відповідальності у секторі генеративного AI на багато років уперед.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити