أوقف قاضٍ اتحادي مؤقتًا وزارة الدفاع الأمريكية (البنتاغون) عن إدراج شركة Anthropic في القائمة السوداء، معتبرًا ذلك انتقامًا غير دستوري؛ وتستمر خطة طرح عملاق الذكاء الاصطناعي للاكتتاب العام (IPO) بقيمة 3,800 مليار دولار.
شهدت صناعة الذكاء الاصطناعي في الولايات المتحدة مؤخرًا انتصارًا قضائيًا بارزًا. ففي يوم الخميس الماضي (3/26)، أصدر القاضي الفيدرالي في كاليفورنيا ريتا لين (Rita Lin) أمرًا زجريًا أوليًا رسميًا، لمنع إدارة ترامب من إدراج عملاق الذكاء الاصطناعي Anthropic ضمن قائمة مخاطر سلسلة التوريد السوداء. وقد تحدّت هذه الخطوة مباشرةً تعليمات البنتاغون ووزير الدفاع بيتر هيغستس (Pete Hegseth). واستخدم القاضي في حيثيات الحكم تعبيرات شديدة اللهجة، مشيرًا إلى أن قيام الحكومة بلصق شركة أمريكية محلية تهمتي «خصم محتمل» و«مخرّب» يحمل قدرًا كبيرًا من السخرية.
أكّدت ريتا لين أن الإطار القانوني الحالي لا يدعم منطق الإدارة هذا من نوع «الأورويليّة (Orwellian)». لا يمكن لنظام إداري أن ينظر إلى شركة على أنها تهديد أمني للدولة لمجرد أن موقفها يختلف عن موقف الحكومة فيما يتعلق بتعبيرها؛ فهذا يتجاوز بوضوح حدود التفويض. وتطلب المحكمة من الحكومة الفيدرالية التوقف فورًا عن تنفيذ القيود ذات الصلة، وتقديم تقرير امتثال قبل 6 أبريل/نيسان يوضح الطريقة المحددة لتنفيذ إلغاء أمر المنع.
تتمحور القضية القانونية حول ما إذا كانت الحكومة تستخدم اسم الأمن القومي كغطاء للتشفّي من المواقف التصريحية. وفقًا للمواد التي كشفتها المحكمة، فإن معاقبة وزارة الدفاع (ويُشار إليها أيضًا باسم «وزارة الحرب») لشركة Anthropic تستند إلى حد كبير إلى التصريحات العلنية التي أدلت بها الشركة في وسائل الإعلام، دون إجراء تقييمات تقنية صارمة لأمنها. وأشار القاضي إلى أن معاقبة Anthropic أدت إلى لفت انتباه الجمهور لمواقف الحكومة تجاه العقود، وهو سلوك انتقامي ينتهك التعديل الأول للدستور الأمريكي. وفي جلسة الاستماع التي عُقدت يوم الثلاثاء في سان فرانسيسكو، شككت ريتا لين في أن عتبة تعريف الحكومة للشركات على أنها «تهديد» منخفضة للغاية.
وترى أنه إذا كانت لدى البنتاغون شكوك بشأن التحكم التقني، فيمكنها ببساطة إيقاف استخدام نموذج Claude. أما وسمه «بمخاطر سلسلة التوريد» بما يتضمن الإذلال والطابع التدميري، فليس أمرًا مناسبًا. وقد أعادت هذه القرارات مؤقتًا وضع التعاون بين Anthropic والمقاولين الفيدراليين، ووضع مظلة حماية قانونية لعمليات شركات الذكاء الاصطناعي مستقبلًا عند مواجهة ضغوط الحكومة.
تعود شرارة هذا النزاع إلى عقد بقيمة 200 مليون دولار تم توقيعه في يوليو 2025 بين Anthropic والبنتاغون. في ذلك الوقت، اتفق الطرفان على أن يصبح Claude أول نموذج ذكاء اصطناعي رائد يُسمح بتشغيله على شبكة سرية.
غير أن علاقة التعاون بينهما انهارت في فبراير 2026. حاولت وزارة الدفاع إعادة التفاوض على شروط العقد، مطالبةً Anthropic بإلغاء جميع القيود، والسماح للجيش باستخدام Claude لجميع الأغراض القانونية. ومن جانبها، التزمت Anthropic التي دأبت على إبراز التزامها بأمن الذكاء الاصطناعي بخط أحمر، ورفضت تطبيق تقنيتها في أنظمة أسلحة ذاتية قاتلة، وكذلك في أنشطة مراقبة داخلية واسعة النطاق تستهدف المواطنين الأمريكيين. وتعتقد قيادات الشركة أن نماذج الذكاء الاصطناعي الحالية لا تزال تفتقر إلى درجة كافية من الأمان والدقة في هذه الصناعات الحساسة؛ وأن الدفع بها فجأة إلى ساحة المعركة أو استخدامَها في المراقبة سيؤدي إلى عواقب كارثية.
ثم تصاعدت الأمور بسرعة. فقد أظهرت ردود جهاز الإدارة طابعًا واضحًا من العاطفة الشخصية. ففي 24 فبراير، أصدر وزير الدفاع هيغستس (Hegseth) في اجتماع إنذارًا نهائيًا بشأن Anthropic، مهددًا بتنفيذ عقوبات فورًا إذا لم تُلغِ القيود. وبعد رفض Anthropic التوصل إلى حل وسط، نشر الرئيس الأمريكي ترامب في 27 فبراير على Truth Social هجومًا علنيًا على الشركة، واصفًا إياها بأنها «يسارية متطرفة وشركة مستيقظة»، موجهًا الاتهام إليها بمحاولة ترهيب وزارة الدفاع، ثم أصدر فورًا أمرًا لجميع الوكالات الفيدرالية بالتوقف عن استخدام منتجات Anthropic.
بعد ذلك مباشرةً، وصفت هيغستس موقف Anthropic بأنه «تحفة متعالية وخائنة»، وأصدر رسميًا وسم «مخاطر سلسلة التوريد». وهذه الوسيلة المتطرفة، التي كان يُحتفظ بها عادةً لوكالات الاستخبارات الأجنبية أو المنظمات الإرهابية، تم تطبيقها لأول مرة على شركة تقنية أمريكية محلية. ويعتقد الخبراء أن هذا التصرف الذي يحوّل القانون إلى سلاح يعكس تسرع جهاز الإدارة في مواجهة تحديات أخلاقيات التقنية.
على الرغم من تعرضها لعاصفة من السياسة والقانون، تظل أداء Anthropic في أسواق رأس المال قويًا، ما يعكس مرونة كبيرة. ووفقًا لبيانات حتى عام 2025، بلغت حصة Anthropic في سوق ذكاء اصطناعي للشركات 32%، متقدمةً على 25% لدى OpenAI، ومحتلةً صدارة الصناعة. وفي جولة تمويل بقيمة 30 مليار دولار اختُتمت للتو في شهر فبراير من هذا العام، ارتفع تقييم هذه الشركة النجمية في مجال الذكاء الاصطناعي إلى 3,800 مليار دولار؛ وكانت هذه الجولة بقيادة صندوق الثروة السيادية MGX.
وفي الوقت نفسه، أقامت عمالقة التكنولوجيا مثل Google التابعة لـ Alphabet وAmazon وMicrosoft وNvidia شراكات عميقة مع Anthropic، وبلغت قيمة استثماراتهم وتعاملاتهم المتعلقة بالبنية التحتية مئات المليارات. إن دعم «عمالقة السيليكون فالي» هؤلاء يمنح Anthropic أساسًا ماليًا لمواجهة الضغوط السياسية.
أتاحت أحدث قرارات المحكمة لـ Anthropic تمهيد الطريق أمام الأسواق العامة. وكشف مصدرون أن Anthropic تسرّع من دفع خطة الاكتتاب العام (IPO) (الطرح الأولي)، وقد تسجل إدراجًا في أسرع حال في أكتوبر 2026، ومن المتوقع أن تتجاوز الأموال التي ستُجمع 60 مليار دولار. وفي الوقت الحالي، تم إدراج بنوك استثمار من الصف الأول مثل Goldman Sachs وJPMorgan وMorgan Stanley كمستشارين محتمَلين للاكتتاب.
يشير خبراء قانونيون إلى أنه إذا استمر أمر الحظر في القائمة السوداء من جانب الحكومة، فسيؤدي ذلك إلى انخفاض كبير في حصة Anthropic في السوق، ما سيضرب ثقة المستثمرين بشدة. أما الآن، فقد قضت المحكمة بأن أمر المنع غير دستوري، مما يحمي المصالح التجارية للشركة. كما يرسل ذلك إشارة إلى السوق: تمسك الشركات بأخلاقيات أمان الذكاء الاصطناعي ينبغي أن يحظى بحماية قانونية، وليس أن يتحول إلى ذريعة لقمع الحكومة.
بعيدًا عن ساحة المعارك القانونية والسياسية، لا تتوقف خطوات التوسع في البنية التحتية لدى Anthropic. إذ تعمل Google على دعم مشروع مركز بيانات في تكساس تبلغ تكلفته 5 مليارات دولار، وسيتم تأجيره بالكامل لشركة Anthropic لاستخدامه. وسيتم تشغيل هذا الموقع الذي تبلغ مساحته 2,800 فدان من قبل Nexus Data Centers، ومن المتوقع أن يوفر نحو 500 ميغاواط (MW) من القدرة الكهربائية بحلول نهاية 2026، وهو ما يكفي لدعم احتياجات الكهرباء لـ 500,000 منزل. وفي المستقبل، تتوفر إمكانية توسيع القدرة إلى 7.7 جيغاواط (GW). يتمتع المشروع بموقع جغرافي متميز، قريبًا من خطوط أنابيب الغاز الطبيعي الرئيسية، ما يسمح بالاستفادة من توربينات الغاز المستقلة لتوليد الكهرباء في الموقع، بما يضمن موثوقية عالية في حسابات قوة الذكاء الاصطناعي (AI). ويُظهر هذا المخطط الكبير للبنية التحتية مدى عزم صناعة التكنولوجيا على الاستثمار في البنية التحتية طويلة الأجل للذكاء الاصطناعي.
إضافة إلى ذلك، ووفقًا لتقارير من وسائل إعلام أجنبية، فقد نشأ نوع من الاعتماد على مسار محدد لدى القوات المسلحة الأمريكية على نموذج Claude. وحتى إذا أصدر البيت الأبيض أمرًا حظرًا صارمًا، فإن القيادة المركزية الأمريكية (CENTCOM) ما زالت تستخدم نموذج الذكاء الاصطناعي الخاص بـ Anthropic في الآونة الأخيرة لدعم العمليات القتالية في الغارات الجوية على إيران. ويكشف ذلك عن فجوة بين سياسات الحكومة واحتياجات الخطوط الأمامية.
إن الإدارة جعلته «خطرًا» بسبب الموقف السياسي، بينما اختارت وحدات التنفيذ الفعلي الاعتماد عليه بسبب التفوق التقني. يثبت انطلاق مشروع مركز البيانات والاستخدام العملي في الميدان أهمية Anthropic. ومع استعادة الشركة لوضعها كمورّد فيدرالي، ستواصل عملاق الذكاء الاصطناعي تطوير أعمالها في موازنة أخلاقيات التقنية والمصالح الوطنية، وستواجه أي استئنافات محتملة من جانب الحكومة لاحقًا.