يدعي موظف تكنولوجيا معلومات في دلهي أنه استخدم ChatGPT لبناء موقع دفع وهمي تمكن من التقاط موقع وصورة scammer أثناء محاولة احتيال “تحويل عسكري”.
انتشرت منشورته على Reddit بعد أن أصيب المحتال بالذعر وتوسل للرحمة عندما تمت مواجهته ببياناته الخاصة.
قام مستخدمون آخرون على Reddit بتكرار التقنية وأكدوا أن الكود الذي أنشأه الذكاء الاصطناعي يعمل بالفعل، مما يبرز كيف تعيد الأدوات التوليدية تشكيل طرق اصطياد المحتالين بشكل ذاتي.
مركز ديكربت للفن، الموضة، والترفيه.
اكتشف SCENE
عندما ظهرت رسالة على هاتفه من رقم يدعي أنه من أحد معارفه القدامى في الجامعة، شعر محترف تكنولوجيا المعلومات المقيم في دلهي بالفضول في البداية. المرسل، الذي تظاهر بأنه ضابط في الخدمة الإدارية الهندية، ادعى أن لديه صديقًا في القوات شبه العسكرية يتم نقله ويحتاج إلى تصفية أثاث وأجهزة منزلية فاخرة “بسعر زهيد جدًا”.
كانت هذه عملية احتيال “تحويل عسكري” كلاسيكية، وهي حيلة رقمية واسعة الانتشار في الهند. لكن بدلاً من حظر الرقم أو الوقوع ضحية للمخطط، يدعي المستهدف أنه قرر قلب الطاولة باستخدام نفس التقنية التي غالبًا ما يُتهم الذكاء الاصطناعي نفسه بمساعدة المجرمين الإلكترونيين بها.
احتيال محتال
وفقًا لرواية مفصلة نُشرت على Reddit، استخدم المستخدم المعروف باسم u/RailfanHS، أداة ChatGPT من OpenAI لكتابة كود موقع تعقب. نجح الفخ في جمع موقع وصورة وجه المحتال، مما أدى إلى مواجهة رقمية درامية حيث قيل إن المحتال توسل للرحمة.
وبينما لم يتم التحقق من هوية مستخدم Reddit بشكل مستقل، ولا تزال شخصية الفرد مجهولة، فقد تم فحص وتأكيد الطريقة التقنية التي وصفها المنشور من قبل مجتمع المنصة من المطورين وعشاق الذكاء الاصطناعي.
تسلط الحادثة الضوء على اتجاه متزايد لما يعرف بـ"اصطياد المحتالين"—وهو نوع من العدالة الانتقامية حيث يغري الأشخاص المتمكنون تقنيًا المحتالين لإضاعة وقتهم أو فضح عملياتهم—وذلك مع تطورها بمساعدة الذكاء الاصطناعي التوليدي.
بدأت المواجهة، التي تم تداولها على نطاق واسع في الهند، بنص سيناريو مألوف. أرسل المحتال صورًا للبضائع ورمز QR، وطالب بدفع مقدم. مدعيًا وجود صعوبات تقنية في المسح، لجأ u/RailfanHS إلى ChatGPT.
أدخل للمحادثة مع روبوت الدردشة الذكي طلبًا لإنشاء صفحة ويب تعمل كموقع دفع وهمي. وُصف الكود بأنه “صفحة PHP من 80 سطرًا”، وكانت مصممة سرًا لالتقاط إحداثيات GPS للزائر، وعنوان IP، وصورة من الكاميرا الأمامية.
اعتمدت آلية التتبع جزئيًا على الهندسة الاجتماعية بقدر اعتمادها على استغلال برمجي. لتجاوز ميزات أمان المتصفح التي عادةً ما تمنع الوصول الصامت للكاميرا، أخبر المستخدم المحتال أنه يحتاج إلى رفع رمز QR على الرابط “لتسريع عملية الدفع”. عندما زار المحتال الموقع ونقر على زر رفع الصورة، طلب المتصفح الإذن بالوصول إلى الكاميرا والموقع—وهي أذونات منحها دون أن يدري في عجلة منه للحصول على المال.
صورة: RailfanHS على Reddit
“مدفوعًا بالطمع والتسرع وثقته الكاملة في مظهر بوابة الدفع، ضغط على الرابط”، كتب u/RailfanHS في منشور على منتدى r/delhi. “فورًا تلقيت إحداثيات GPS الحية الخاصة به، وعنوان IP الخاص به، والأكثر إرضاءً، صورة واضحة من الكاميرا الأمامية له وهو جالس.”
كان الرد سريعًا. أرسل محترف تكنولوجيا المعلومات البيانات التي جمعها إلى المحتال. ووفقًا للمنشور، كانت النتيجة حالة من الذعر الفوري. بدأ المحتال في الاتصال بالمستخدم بلا توقف، متبعًا ذلك برسائل تتوسل المغفرة وتعد بالتخلي عن حياة الجريمة.
“كان يتوسل الآن، مصرًا على أنه سيتخلى عن هذا العمل كليًا ويطلب بشدة فرصة أخرى”، كتب RailfanHS. “من غير الضروري القول إنه ربما سيحتال على شخص آخر في الساعة التالية، لكن يا لها من متعة أن تسرق من لص!”
مستخدمو Reddit يتحققون من الأسلوب
في حين أن القصص الدرامية عن العدالة عبر الإنترنت غالبًا ما تثير الشكوك، إلا أن الأسس التقنية لهذه العملية تم التحقق منها من قبل مستخدمين آخرين في نفس السلسلة. أبلغ مستخدم باسم u/BumbleB3333 عن نجاحه في تكرار “صفحة HTML وهمية” باستخدام ChatGPT. وأشاروا إلى أنه في حين أن الذكاء الاصطناعي لديه حواجز تمنعه من إنشاء كود خبيث للمراقبة الصامتة، إلا أنه ينتج بسهولة كودًا لمواقع تبدو شرعية وتطلب أذونات المستخدم—وهو بالضبط ما أوقع المحتال في الفخ.
“تمكنت من إنشاء نوع من صفحة HTML وهمية مع ChatGPT. إنها تلتقط الموقع الجغرافي عندما يتم رفع صورة بعد طلب الإذن”، علق u/BumbleB3333، مؤكدًا صحة الاختراق. وادعى مستخدم آخر باسم u/STOP_DOWNVOTING أنه أنشأ “نسخة أخلاقية” من الكود يمكن تعديلها لتعمل بشكل مماثل.
اعترف الناشر الأصلي، الذي عرّف نفسه في التعليقات بأنه مدير منتج ذكاء اصطناعي، أنه اضطر لاستخدام مطالبات محددة لتخطي بعض قيود الأمان الخاصة بـ ChatGPT. “أنا معتاد نوعًا ما على تجاوز هذه الحواجز بالمطالبات الصحيحة”، أشار، مضيفًا أنه استضاف السكربت على خادم خاص افتراضي.
يحذر خبراء الأمن السيبراني من أن مثل هذه “الهجمات العكسية” رغم أنها مرضية، إلا أنها تقع في منطقة قانونية رمادية وقد تنطوي على مخاطر. ومع ذلك، فإنها مغرية للغاية—وتجعل من الأمر رياضة ممتعة للمشاهدين.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
كيف استخدم خبير الذكاء الاصطناعي ChatGPT لقلب الطاولة على محتال
باختصار
مركز ديكربت للفن، الموضة، والترفيه.
اكتشف SCENE
عندما ظهرت رسالة على هاتفه من رقم يدعي أنه من أحد معارفه القدامى في الجامعة، شعر محترف تكنولوجيا المعلومات المقيم في دلهي بالفضول في البداية. المرسل، الذي تظاهر بأنه ضابط في الخدمة الإدارية الهندية، ادعى أن لديه صديقًا في القوات شبه العسكرية يتم نقله ويحتاج إلى تصفية أثاث وأجهزة منزلية فاخرة “بسعر زهيد جدًا”.
كانت هذه عملية احتيال “تحويل عسكري” كلاسيكية، وهي حيلة رقمية واسعة الانتشار في الهند. لكن بدلاً من حظر الرقم أو الوقوع ضحية للمخطط، يدعي المستهدف أنه قرر قلب الطاولة باستخدام نفس التقنية التي غالبًا ما يُتهم الذكاء الاصطناعي نفسه بمساعدة المجرمين الإلكترونيين بها.
احتيال محتال
وفقًا لرواية مفصلة نُشرت على Reddit، استخدم المستخدم المعروف باسم u/RailfanHS، أداة ChatGPT من OpenAI لكتابة كود موقع تعقب. نجح الفخ في جمع موقع وصورة وجه المحتال، مما أدى إلى مواجهة رقمية درامية حيث قيل إن المحتال توسل للرحمة.
وبينما لم يتم التحقق من هوية مستخدم Reddit بشكل مستقل، ولا تزال شخصية الفرد مجهولة، فقد تم فحص وتأكيد الطريقة التقنية التي وصفها المنشور من قبل مجتمع المنصة من المطورين وعشاق الذكاء الاصطناعي.
تسلط الحادثة الضوء على اتجاه متزايد لما يعرف بـ"اصطياد المحتالين"—وهو نوع من العدالة الانتقامية حيث يغري الأشخاص المتمكنون تقنيًا المحتالين لإضاعة وقتهم أو فضح عملياتهم—وذلك مع تطورها بمساعدة الذكاء الاصطناعي التوليدي.
بدأت المواجهة، التي تم تداولها على نطاق واسع في الهند، بنص سيناريو مألوف. أرسل المحتال صورًا للبضائع ورمز QR، وطالب بدفع مقدم. مدعيًا وجود صعوبات تقنية في المسح، لجأ u/RailfanHS إلى ChatGPT.
أدخل للمحادثة مع روبوت الدردشة الذكي طلبًا لإنشاء صفحة ويب تعمل كموقع دفع وهمي. وُصف الكود بأنه “صفحة PHP من 80 سطرًا”، وكانت مصممة سرًا لالتقاط إحداثيات GPS للزائر، وعنوان IP، وصورة من الكاميرا الأمامية.
اعتمدت آلية التتبع جزئيًا على الهندسة الاجتماعية بقدر اعتمادها على استغلال برمجي. لتجاوز ميزات أمان المتصفح التي عادةً ما تمنع الوصول الصامت للكاميرا، أخبر المستخدم المحتال أنه يحتاج إلى رفع رمز QR على الرابط “لتسريع عملية الدفع”. عندما زار المحتال الموقع ونقر على زر رفع الصورة، طلب المتصفح الإذن بالوصول إلى الكاميرا والموقع—وهي أذونات منحها دون أن يدري في عجلة منه للحصول على المال. صورة: RailfanHS على Reddit
“مدفوعًا بالطمع والتسرع وثقته الكاملة في مظهر بوابة الدفع، ضغط على الرابط”، كتب u/RailfanHS في منشور على منتدى r/delhi. “فورًا تلقيت إحداثيات GPS الحية الخاصة به، وعنوان IP الخاص به، والأكثر إرضاءً، صورة واضحة من الكاميرا الأمامية له وهو جالس.”
كان الرد سريعًا. أرسل محترف تكنولوجيا المعلومات البيانات التي جمعها إلى المحتال. ووفقًا للمنشور، كانت النتيجة حالة من الذعر الفوري. بدأ المحتال في الاتصال بالمستخدم بلا توقف، متبعًا ذلك برسائل تتوسل المغفرة وتعد بالتخلي عن حياة الجريمة.
“كان يتوسل الآن، مصرًا على أنه سيتخلى عن هذا العمل كليًا ويطلب بشدة فرصة أخرى”، كتب RailfanHS. “من غير الضروري القول إنه ربما سيحتال على شخص آخر في الساعة التالية، لكن يا لها من متعة أن تسرق من لص!”
مستخدمو Reddit يتحققون من الأسلوب
في حين أن القصص الدرامية عن العدالة عبر الإنترنت غالبًا ما تثير الشكوك، إلا أن الأسس التقنية لهذه العملية تم التحقق منها من قبل مستخدمين آخرين في نفس السلسلة. أبلغ مستخدم باسم u/BumbleB3333 عن نجاحه في تكرار “صفحة HTML وهمية” باستخدام ChatGPT. وأشاروا إلى أنه في حين أن الذكاء الاصطناعي لديه حواجز تمنعه من إنشاء كود خبيث للمراقبة الصامتة، إلا أنه ينتج بسهولة كودًا لمواقع تبدو شرعية وتطلب أذونات المستخدم—وهو بالضبط ما أوقع المحتال في الفخ.
“تمكنت من إنشاء نوع من صفحة HTML وهمية مع ChatGPT. إنها تلتقط الموقع الجغرافي عندما يتم رفع صورة بعد طلب الإذن”، علق u/BumbleB3333، مؤكدًا صحة الاختراق. وادعى مستخدم آخر باسم u/STOP_DOWNVOTING أنه أنشأ “نسخة أخلاقية” من الكود يمكن تعديلها لتعمل بشكل مماثل.
اعترف الناشر الأصلي، الذي عرّف نفسه في التعليقات بأنه مدير منتج ذكاء اصطناعي، أنه اضطر لاستخدام مطالبات محددة لتخطي بعض قيود الأمان الخاصة بـ ChatGPT. “أنا معتاد نوعًا ما على تجاوز هذه الحواجز بالمطالبات الصحيحة”، أشار، مضيفًا أنه استضاف السكربت على خادم خاص افتراضي.
يحذر خبراء الأمن السيبراني من أن مثل هذه “الهجمات العكسية” رغم أنها مرضية، إلا أنها تقع في منطقة قانونية رمادية وقد تنطوي على مخاطر. ومع ذلك، فإنها مغرية للغاية—وتجعل من الأمر رياضة ممتعة للمشاهدين.