أثار فيتاليك بوتيرين تحذيرًا جديدًا بشأن الذكاء الاصطناعي، وهذه المرة ركّز أقل على المبالغات الإعلامية وأكثر على الخصوصية. في منشور مدونة جديد، جادل المؤسس المشارك لإيثريوم بأن العديد من أدوات الذكاء الاصطناعي بُنيت على بنية تحتية عن بُعد يمكنها الوصول إلى بيانات المستخدمين الحساسة، ما يخلق مخاطر لا يراها معظم الناس بشكل كامل عند كتابة شيء ما في روبوت محادثة، أو تفويض مهمة، أو الاتصال بخدمة خارجية. وتتمثل المشكلة، كما يوضحها، في أنها لا تقتصر على نموذج واحد أو تطبيق واحد. إنها مشكلة بنيوية. تؤدي بنية الذكاء الاصطناعي عن بُعد إلى اتساع سطح الخصوصية يرى بوتيرين أن نقطته مباشرة إلى حد كبير. إذ يعتمد عدد متزايد من منتجات الذكاء الاصطناعي على بنية تحتية تقع خارج جهاز المستخدم وخارج سيطرة المستخدم. وهذا يعني أن الأوامر (prompts) والملفات وتفاصيل الحساب وأنماط الاستخدام يمكن أن تمر جميعها عبر أنظمة قد تقوم بتخزين البيانات أو معالجتها أو إعادة استخدامها بطرق لم يكن المستخدم ينويها. وقد حذّر من أن المشكلة لا تتوقف عند نماذج اللغات الكبيرة. فالتعاملات/الخدمات الخارجية المرتبطة بهذه الأنظمة يمكن أن تُدخل ثغراتها الخاصة، بدءًا من تسريبات البيانات البسيطة وصولًا إلى الاستخدام غير المصرح به للمعلومات الشخصية. وبعبارة أخرى، الخطر ليس النموذج وحده. إنه السلسلة بأكملها حوله. يهم ذلك لأن الذكاء الاصطناعي يُباع بشكل متزايد كطبقة مساعدة عبر التمويل وبرامج الحاسوب والاتصال والهوية الرقمية عبر الإنترنت. كلما أصبح أكثر فائدة، كلما أمكنه امتصاص سياق أكثر خصوصية. عمليات اختراق الاستغلال تحوّل الذكاء الاصطناعي من مساعد إلى عبء أشار بوتيرين أيضًا إلى هجمات اختراق الاستغلال (jailbreak) كتهديد محدد. تستخدم هذه الهجمات مدخلات خارجية للتلاعب بنموذج ليُظهر سلوكًا يتعارض مع مصالح المستخدمين، مما يحوّل المساعد فعليًا إلى شيء أقل موثوقية وأكثر احتمالًا أن يكون مؤذيًا. ويأتي هذا التحذير في وقت تتحرك فيه أدوات الذكاء الاصطناعي نحو التنفيذ، وليس مجرد المحادثة. ومع حصول هذه الأنظمة على إمكانية الوصول إلى الرسائل والمحافظ والمستندات والإجراءات الآلية، قد تتحول إخفاقات الخصوصية بسرعة إلى إخفاقات تشغيلية أيضًا. إن ما يشير إليه بوتيرين فعليًا هنا هو تحوّل في طبيعة المخاطر. لم يعد الذكاء الاصطناعي مجرد مسألة تتعلق بالقدرة. بل أصبح مسألة تتعلق بحدود الثقة: من يتحكم بالبيانات، وأين يعمل النموذج، وماذا يحدث عندما تفشل تلك الحدود.