فتاة كورية جنوبية تبلغ من العمر عشرين عاماً تستخدم المخدرات لخلطها مع الكحول وتخدير عدة رجال، مما أدى إلى مقتل شخصين على الأقل وإصابة أربعة آخرين بجروح في سلسلة من جرائم القتل. اكتشفت الشرطة أنها استشارت ChatGPT حول مخاطر خلط المخدرات مع الكحول وتجاهلت تحذيرات الموت. هذا يبرز حيادية الأدوات التكنولوجية والمخاطر المحتملة.
في فبراير من هذا العام، أُعلنت عن حادثة مروعة هزت المجتمع في منطقة جيونبك في سول، حيث تم اتهام فتاة تبلغ من العمر 20 عاماً، كيم سو-يونغ، بارتكاب جرائم قتل ضد رجلين، وتطورات جديدة في 19 مارس تشير إلى أن هناك أربعة ضحايا آخرين تعرضوا للتسمم وفقدوا الوعي.
اكتشفت الشرطة أن كيم سو-يونغ قبل ارتكابها الجرائم، كانت تتواصل مع روبوت الدردشة AI، ChatGPT، عدة مرات، تسأل عن مخاطر خلط المخدرات مع الكحول. طرحت أسئلة متعددة على ChatGPT، مثل “ماذا يحدث عند تناول حبوب النوم مع الكحول”، “ما هي الجرعة التي تكون خطرة”، و"هل يمكن أن تؤدي إلى وفاة شخص آخر" وغيرها.
مصدر الصورة: صحيفة كوريا اليومية، صورة المشتبه بها في حادثة القتل المتسلسة في فندق جيونبك، كوريا الجنوبية، مقدمة من الشرطة الكورية
وفقاً لتحقيقات الشرطة، كانت المحادثات تتم في ديسمبر 2025 بعد أن فقد الضحية الأول وعيه، على الرغم من أن ChatGPT أكد بشكل واضح أن خلط حبوب النوم مع الكحول قد يؤدي إلى الوفاة، إلا أن كيم سو-يونغ استمرت في ارتكاب الجرائم.
وجهت الشرطة اتهامات، من ديسمبر 2025 حتى 9 فبراير من هذا العام، بأن كيم سو-يونغ تواصلت مع رجال، وخدعتهم إلى فنادق، واشتبه في أنها كانت تضع مشروبات تحتوي على أدوية من فئة البنزوديازيبين، وتناولها عدة رجال في العشرينات من عمرهم، مما أدى إلى وفاة شخصين.
وقعت أول جريمة قتل في 28 يناير، عندما دخلت كيم سو-يونغ مع رجل إلى فندق في منطقة سيو-يو في جيونبك، وسرعان ما غادرت بمفردها بعد ساعتين، وعُثر على الرجل ميتاً في الغرفة في اليوم التالي. ثم في 9 فبراير، استخدمت نفس الأسلوب لقتل رجل آخر في فندق آخر في المنطقة ذاتها.
مصدر الصورة: صورة تم إنشاؤها بواسطة Gemini AI، تظهر كيم سو-يونغ، فتاة تبلغ من العمر 20 عاماً، مشتبه بها في تسميم رجلين في فندق (تصميم بواسطة AI)
في 19 مارس، أعلنت شرطة جيونبك في سول أنه تم اكتشاف ثلاثة ضحايا جدد خلال التحقيقات الحالية، ووجهت للمتهمة تهم إصابة شخصية خاصة وخرق قانون إدارة المخدرات، وتم إحالتها إلى النيابة.
قال مصدر مطلع لصحيفة كوريا اليومية إن كيم سو-يونغ نفت التهم الجديدة الموجهة إليها، لكن الشرطة استندت إلى نتائج فحوصات شعر الضحايا وغيرها من الأدلة، واعتبرت التهم ثابتة.
من بين الضحايا الثلاثة الجدد، اثنان أظهرا استجابة إيجابية للمواد المخدرة، وتطابقت المواد التي تم اكتشافها مع تلك الموجودة في أجسام الضحايا السابقين.
حتى الآن، أكدت الشرطة أن هناك على الأقل ستة ضحايا، توفي اثنان منهم، وأربعة آخرون فقدوا الوعي. وتواصل الشرطة التحقيق باستخدام البيانات الرقمية وسجلات الاتصالات لمعرفة ما إذا كان هناك ضحايا محتملون آخرون.
أصبح الحالة النفسية لكيم سو-يونغ محور اهتمام المجتمع. ذكرت صحيفة “كوريا ريبورتر” أن المشتبه بها البالغة من العمر 20 عاماً حصلت على درجات عالية في نسخة معدلة من اختبار الحالة النفسية. يقيس الاختبار بشكل رئيسي سمات شخصية مثل البرود، والاندفاع، وقلة التعاطف، وعدم المسؤولية، ويبلغ مجموع درجاته 40 نقطة.
عادة، يُعتبر أن من يحصل على 25 نقطة أو أكثر يُصنف كمريض نفسي، وقد تجاوزت درجة كيم سو-يونغ هذا الحد الخطير. أرسلت شرطة جيونبك نتائج التقييم النفسي إلى النيابة.
نظرًا لاستخدام كيم سو-يونغ ChatGPT للاستفسار عن المخدرات، أثار ذلك مخاوف أخلاقية تتعلق بالتكنولوجيا، وأكد متحدث باسم شركة OpenAI لصحيفة “فورتشن” أن الأسئلة التي طرحتها كيم سو-يونغ تتعلق بالحقائق، ولا تثير نظام التحذير التلقائي في النظام.
عادة، إذا عبر المستخدم عن أفكار انتحارية، فإن إعدادات ChatGPT ترد تلقائيًا بمعلومات عن خطوط المساعدة لمنع الانتحار.
كما أكدت الشرطة الكورية أن ChatGPT، فيما يتعلق بأسئلة كيم سو-يونغ، قدم إجابات حقائقية فقط، ولم يعطِ أي ردود أو نصائح إضافية.
الجانب التقني بحد ذاته حيادي، ويعتمد على كيفية استخدامه. فبعض الأشخاص يستخدمونه لارتكاب جرائم، بينما تستخدمه جهات إنفاذ القانون للحفاظ على الأمن المجتمعي.
في عام 2023، استخدمت النيابة والشرطة في تايوان، أثناء التحقيق في قضية غسيل أموال عبر العملات الرقمية بقيمة 1.5 مليار نيو taiwan دولار، تعلمت برمجة ذاتية، واستخدمت ChatGPT للمساعدة في تصحيح الأخطاء وتصميم جداول حسابية لوظائف محددة. وبفضل الذكاء الاصطناعي، تمكنت الشرطة من فهم نمط معاملات الاحتيال واعتقال المشتبه الرئيسي.
مقالات ذات صلة:
حادثة انفجار Tesla Cybertruck: هل ساعد ChatGPT في التخطيط للجريمة؟ الحكومة ترد!
التكنولوجيا والأخلاق: أكثر من 1.2 مليون شخص أسبوعيًا يشتكون من أفكار انتحارية عبر ChatGPT، ومحقق سابق ينتقد نقص آليات الأمان