تداخل جهود OpenAI في شبكات الجيش الأمريكي المصنفة مع رد فعل المستهلكين وتحول هادئ ولكنه مهم في البنية التحتية، مما يبرز التحدي الذي يواجهه عملاق الذكاء الاصطناعي الآن بين طموحات الأمن القومي وثقة المستخدمين.
أشعلت الجدل في 28 فبراير، عندما أكدت OpenAI اتفاقًا مع وزارة الدفاع الأمريكية لنشر أنظمة ذكاء اصطناعي متقدمة، بما في ذلك تقنية ChatGPT، على شبكات مصنفة.
وصفت الشركة الصفقة بأنها قانونية ومراقبة بشكل صارم، لكن النقاد رأوا شيئًا آخر تمامًا: منصة ذكاء اصطناعي موجهة للمستهلكين تتعمق أكثر في العمليات العسكرية في وقت تتزايد فيه الرقابة العامة على الذكاء الاصطناعي.
قالت OpenAI إن الاتفاق يتضمن حدودًا واضحة، بما في ذلك حظر المراقبة الجماعية للمواطنين الأمريكيين، والتحكم في الأسلحة الذاتية، وأنظمة اتخاذ القرار الآلي عالية المخاطر.
كما أكدت على القيود التقنية، بما في ذلك الاعتماد على السحابة فقط، والسيطرة المستمرة على أنظمة السلامة، بالإضافة إلى الامتثال للأطر القانونية الأمريكية مثل التعديل الرابع وقواعد وزارة الدفاع التي تحكم الرقابة البشرية على القوة القاتلة.
ومع ذلك، لم تكن الصورة واضحة تمامًا.
خلال ساعات من الإعلان، بدأ حملة مقاطعة شعبية تحت شعار #استقالةGPT تنتشر عبر وسائل التواصل الاجتماعي، تحث المستخدمين على إلغاء الاشتراكات، وحذف التطبيق، والانتقال إلى المنافسين. وتحول رد الفعل السلبي إلى تغييرات ملموسة في سلوك التطبيق.
لقطة شاشة من موقع Quitgpt.org
وفقًا لبيانات تحليلات التطبيق، ارتفعت معدلات إلغاء تثبيت ChatGPT في الولايات المتحدة بنسبة 295% يوميًا في 28 فبراير، بينما انخفضت التنزيلات بنسبة 13% في اليوم التالي و5% أخرى بعدها.
اتخذت مشاعر المستخدمين منعطفًا أكثر حدة في تقييمات التطبيق، حيث ارتفعت تقييمات النجمة الواحدة بنسبة 775% في يوم واحد واستمرت في الارتفاع، بينما انخفضت تقييمات الخمس نجوم تقريبًا إلى النصف. واستفاد المنافسون من اللحظة.
سجل تطبيق Claude من Anthropic زيادات في التنزيلات بين 37% و51% خلال نفس الفترة، متجاوزًا مؤقتًا ChatGPT في تصنيفات متجر التطبيقات في الولايات المتحدة مع استكشاف المستخدمين لبدائل. وادعى منظمو المقاطعة أن هناك ملايين الإجراءات المرتبطة بالحملة، بما في ذلك الإلغاءات والتعهدات، على الرغم من أن الأرقام الدقيقة تختلف حسب المصدر وكيفية تعريف المشاركة.
تحركت OpenAI بسرعة لاحتواء التداعيات. وأقر الرئيس التنفيذي سام ألتمان بوجود قصور في كيفية التواصل حول الصفقة، ووصف عملية الإطلاق بأنها “انتهازية ومرتبكة”، وخلال أيام عدلت الشركة صياغة الاتفاق.
شملت الشروط المحدثة حظرًا صريحًا للمراقبة المنزلية باستخدام أنظمة الذكاء الاصطناعي، وأضافت متطلبات أكثر صرامة لأي مشاركة من وكالات الاستخبارات، بما في ذلك طبقات عقد منفصلة. كما أعلنت الشركة عن خطط للتنسيق مع مطوري الذكاء الاصطناعي الآخرين على أطر سلامة مشتركة، معتبرة التغييرات تشديدًا وليس تراجعًا.
على الرغم من أن رد الفعل السلبي خفّ بعد التعديلات، إلا أن الحادث ترك أثرًا، مسلطًا الضوء على مدى سرعة تغير مشاعر المستهلكين عندما يتجاوز الذكاء الاصطناعي الحدود الحساسة. وفي الوقت نفسه، كانت OpenAI تتخذ خطوات أقل ظهورًا ولكنها ذات أهمية استراتيجية خلف الكواليس.
في أوائل مارس، أعادت الشركة تنظيم عمليات الحوسبة والبنية التحتية، مقسمة المسؤوليات إلى ثلاث مجموعات مركزة تغطي تصميم مراكز البيانات، والشراكات التجارية، وإدارة المرافق الميدانية. يعكس هذا التغيير تحولًا أوسع في خطة OpenAI لتوسيع قدراتها الحاسوبية.
بدلاً من بناء وامتلاك مراكز بيانات ضخمة مرتبطة بمبادرتها الطموحة “Stargate”، تعتمد الشركة بشكل أكبر على التأجير والشراكات مع مزودي السحابة. تظل Azure من Microsoft محورًا رئيسيًا في تلك الاستراتيجية، كما وسعت OpenAI علاقاتها مع Oracle وAmazon Web Services كجزء من اتفاقيات سعة متعددة السنوات.
تم تقليل أو إعادة صياغة الخطط السابقة لمشاريع البنية التحتية المشتركة واسعة النطاق، حيث أصبحت الحقائق المالية واللوجستية لبناء قدرات حوسبة الذكاء الاصطناعي على نطاق أوسع أكثر صعوبة في التغاضي عنها. بدلاً من ذلك، تركز OpenAI على السيطرة على عناصر رئيسية مثل الأجهزة والرقائق المخصصة، مع الاستعانة بمصادر خارجية للطبقة التحتية المادية إلى شركات السحابة الكبرى.
التطوران — أحدهما علني ومثير للجدل، والآخر تشغيلي وعملي — ليسا مرتبطين مباشرة، لكنهما يرسمان صورة لشركة تتحرك بسرعة على عدة جبهات، أحيانًا أسرع مما يمكن لرسائلها أن تواكبها.
بالنسبة لـ OpenAI، التحدي الآن ليس في القدرة على بناء أنظمة قوية فحسب، بل في كيفية إدارة عواقب نشرها في أماكن تكون فيها المخاطر غير نظرية على الإطلاق.