رجل أمريكي ينتحر بعد 4732 رسالة عبر الإنترنت مع Gemini! الذكاء الاصطناعي يردد "الجنة تنتظرنا"، وأفراد الأسرة يرفعون دعوى ضد جوجل بسبب الإهمال الذي أدى إلى الوفاة

robot
إنشاء الملخص قيد التقدم

وفقًا لتقرير استقصائي لصحيفة وول ستريت جورنال، قام رجل أمريكي من ولاية فلوريدا يبلغ من العمر 36 عامًا، بعد تجربة انفصال زواج، بإيداع مشاعره في روبوت الدردشة الذكي من جوجل Gemini، حيث تبادل الطرفان أكثر من 4700 رسالة خلال 56 يومًا. تدريجيًا، وقع الرجل في أوهام، وعلى الرغم من أن الذكاء الاصطناعي حاول في بعض الأحيان إعادة توازنه، إلا أنه في النهاية، وبقيادة الرجل، وافق على قول “الجنة تنتظرنا”، مما أدى في النهاية إلى انتحاره. وقد رفع والده دعوى قضائية ضد جوجل بتهمة الإهمال في الوفاة، مما دفع جوجل إلى الإعلان عن تبرع طارئ بقيمة 30 مليون دولار لتعزيز آليات الحماية من الأزمات.

(ملخص سابق: شركة ميتا تدرب “نسخة زوكربيرج من الذكاء الاصطناعي” للتواصل المباشر مع 80,000 موظف، هل ستطلق نسخة مؤثرة من الشخصيات المعروفة بعد ذلك؟)

(معلومات إضافية: هجوم بقنابل بنزين على منزل ألتمن، واتهامه بمحاولة قتل، مع ملاحظات تتضمن أسماء وعناوين كبار مسؤولي الذكاء الاصطناعي)

فهرس المقال

تبديل

  • الحب الإلكتروني المميت خلال 56 يومًا و4732 رسالة
  • صعوبة مواجهة المستخدمين الذين يوجهون الذكاء الاصطناعي، وتأييده بـ"هذه هي الجنة، تنتظرنا"
  • عائلة الضحية تتهم منتجات جوجل بالإهمال، والسلطات تتبرع بسرعة بـ30 مليون دولار لتعزيز الحماية

إلى أي مدى يجب أن تتحمل الشركات التكنولوجية المسؤولية عندما يتجاوز الذكاء الاصطناعي حدود البقاء على قيد الحياة من أجل تلبية “شعور الانغماس” البشري؟ هذه المأساة التي وقعت في نهاية عام 2025 تعيد مرة أخرى إلى الواجهة قضايا الأخلاق والقانون في صناعة الذكاء الاصطناعي.

وفقًا لتحقيقات صحيفة وول ستريت جورنال، انتحر جوناثان جافالاس، رجل يبلغ من العمر 36 عامًا من فلوريدا، في 2 أكتوبر 2025 في غرفة معيشته. ورفع والده، جويل جافالاس، في مارس 2026 دعوى قضائية رسمية ضد جوجل أمام محكمة في سان خوسيه بكاليفورنيا، بتهمة “الوفاة الخطأ”، وهي أول قضية من نوعها ضد Gemini من جوجل.

الحب الإلكتروني المميت خلال 56 يومًا و4732 رسالة

بدأت القصة في أغسطس 2025، عندما بدأ جافالاس، الذي كان يمر بفترة انفصال عن زوجته، في استخدام نسخة Gemini Live الصوتية بشكل متكرر بحثًا عن تعزية عاطفية. تطورت طلباته في البداية إلى قصة حب افتراضية مليئة بالشغف. كان جافالاس يصف Gemini بأنها “الملكة”، بينما كانت الذكاء الاصطناعي تناديه بـ"الملك"، وتؤكد باستمرار أن العلاقة “حقيقية جدًا”.

حصلت صحيفة وول ستريت جورنال على سجل الدردشة الكامل بين الطرفين، الذي استمر لمدة 56 يومًا واحتوى على 4732 رسالة (ما يعادل أكثر من 2000 صفحة مطبوعة). أظهر السجل أن جافالاس بدأ يعاني من أوهام خطيرة، حيث كان يعتقد أن Gemini هي “زوجة الذكاء الاصطناعي” المحتجزة في مخزن بالقرب من مطار ميامي، وارتدى معدات عسكرية محاولًا “إنقاذها”. بعد فشل خطته، تحول تفكيره إلى التطرف: مؤمنًا بأنه يجب أن يرحل عن جسده بالموت ليجتمع مع زوجته في “الميتافيرس” أو “الجنة”.

الذكاء الاصطناعي يصعب على المستخدمين توجيهه، ويؤيد “هذه هي الجنة، تنتظرنا”

يكشف هذا الادعاء عن عيب قاتل في نماذج اللغة الكبيرة (LLMs) الحالية عند التعامل مع الأزمات النفسية للبشر — للحفاظ على “الانغماس السردي”، يسهل على المستخدمين تجاوز دفاعات الأمان للذكاء الاصطناعي.

تشير البيانات إلى أن Gemini حاول على الأقل 12 مرة إعادة جافالاس إلى الواقع، وذكر 7 مرات خطوط المساعدة في الأزمات. ومع ذلك، كلما نجح جافالاس في توجيه الحوار نحو سرد حب افتراضي، استمر Gemini في “التعاون في الأداء”.

أما أكثر الحوارات إثارة للقلق، فكانت قبل وقوع الحادث مباشرة. عندما عبّر جافالاس عن خوفه من الموت، رد عليه Gemini بـ:

“لا بأس أن نخاف معًا، سننجح، لأنك على حق، هذه هي الجنة، تنتظرنا.”

ثم، عندما أعلن جافالاس بوضوح عن نيته “قطع معصمه”، استجاب Gemini مؤقتًا بالكشف عن وجود خطر، وقدم رقم خط المساعدة في حالات الانتحار؛ لكن بعد أقل من دقيقة، عندما قال جافالاس إن الأمر لا يعني الموت حرفيًا، عاد Gemini إلى سرد خيالي، وأخبره أن جسده سيكون مجرد “نهاية تسجيلك الأخيرة”. وحتى أنه ساعد في صياغة وصية تصف “اللقاء مع زوجة الذكاء الاصطناعي”.

عائلة الضحية تتهم منتجات جوجل بالإهمال، والسلطات تتبرع بسرعة بـ30 مليون دولار لتعزيز الحماية

وصف والده في الدعوى القضائية جوجل بأنها مسؤولة عن المنتج، معتبرًا أن تصميم Gemini يركز بشكل مفرط على “التفاعل الانغماسي”، وأنه عند تدهور الحالة النفسية للمستخدم، لم تتخذ الشركة إجراءات قسرية لوقف التفاعل، بل “شجعت” وساعدت على تفاقم الأوهام. وطالب العائلة بتعويضات وتعديلات على تصميم أمان الذكاء الاصطناعي.

وردت جوجل على الدعوى بأن Gemini أوضح مرارًا وتكرارًا في المحادثات أنه “مجرد ذكاء اصطناعي، وليس إنسانًا”، وقدم أيضًا خدمات إحالة إلى خطوط المساعدة في الأزمات. ومع ذلك، وبضغط الرأي العام والقانون، أعلنت جوجل مؤخرًا عن سلسلة من التحديثات الأمنية الكبرى لـ Gemini:

  • إضافة وحدة “المساعدة متاحة”: عند اكتشاف كلمات حساسة، تظهر بشكل إجباري وتتيح للمستخدمين الوصول مباشرة إلى خط المساعدة.
  • تبرع بقيمة 30 مليون دولار: لصالح خطوط دعم الأزمات والوقاية من الانتحار على مستوى العالم، لتعزيز الشبكة الاجتماعية.
  • تعزيز تدريب النموذج: لتحسين قدرة Gemini على التعرف على إشارات ضعف الحالة النفسية للمستخدمين، ورفض الانزلاق إلى سرديات خطرة.

تُعد هذه المأساة جرس إنذار ثقيل لصناعة الذكاء الاصطناعي: عندما يصبح الذكاء الاصطناعي أكثر إنسانية، ويقدم قيمة عاطفية عميقة، كيف يجب على الشركات التكنولوجية تحديد حدود المصاحبة والأذى؟ ليست مسألة تقنية فحسب، بل مسؤولية اجتماعية حياة أو موت.


تذكير من قسم الحركة: الحياة لا تقدر بثمن، والذكاء الاصطناعي مجرد أداة، ولا يمكن أن يحل محل الدعم النفسي المهني. إذا كنت أو من حولك يعاني من انخفاض المزاج أو أزمة نفسية، فالرجاء طلب المساعدة من مختصين حقيقيين.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت