На прошлой неделе федеральный судья в Сан-Франциско заблокировал Пентагону и администрации Трампа возможность применения национальной безопасности против Anthropic, компании в области искусственного интеллекта (ИИ), которая отказалась снять ограничения безопасности с своих моделей Claude.
Федеральный судья США Рита Ф. Лин вынесла предварительный судебный запрет 26 марта, установив, что действия правительства против Anthropic, вероятно, нарушили Первую поправку, лишили компанию должного процесса и превысили полномочия, предоставленные Законом о административной процедуре. Решение приостановлено на семь дней, предоставляя администрации время до примерно 2 апреля подать экстренную жалобу в Девятый окружной суд.
Спор начался, когда Министерство обороны (DoD) потребовало неограниченного доступа к Claude для федерального использования. Anthropic долгое время придерживалась двух исключений в своей политике приемлемого использования: Claude не будет использоваться для массового внутреннего наблюдения за американскими гражданами или для систем летального автономного оружия, действующих без значительного человеческого контроля. DoD потребовало устранить эти ограничения. Anthropic отказалась.
Переговоры сорвались в конце 2025 года. Конфликт стал публичным через письменные заявления генерального директора Дарио Амодеи и эссе, в котором излагалась позиция компании по безопасности ИИ. Официальные лица DoD рассматривали эти ограничения как попытку Anthropic диктовать политику правительства.
27 февраля 2026 года президент Трамп опубликовал сообщение в Truth Social, призвав все федеральные агентства немедленно прекратить использование технологий Anthropic с шестимесячным периодом завершения. Министр обороны Пит Хегсет объявил о назначении риска в цепочке поставок в соответствии с 10 U.S.C. § 3252 — законом, ранее применявшимся к иностранным противникам, — охарактеризовав Anthropic как потенциальный риск “саботажа” и “подрыва”.
Несколько федеральных подрядчиков приостановили или отменили сделки с компанией после этого назначения. Anthropic ответила и подала иск 9 марта в Северный округ Калифорнии, утверждая о репрессиях, нарушениях должного процесса и нарушениях APA. Связанное действие было подано в округе Колумбия.
В 43-страничном приказе судья Лин запретила DoD, 17 другим федеральным агентствам и министру Хегсету осуществлять или применять какие-либо оспариваемые действия. Она приказала восстановить прежнее положение, позволяя Anthropic продолжать существующие федеральные контракты и партнерства.
Лин написала, что действия правительства представляют собой “классическую незаконную репрессии по Первой поправке”. Она отметила, что время действий, а также внутренние коммуникации правительства, ссылающиеся на “риторику”, “высокомерие” и “принуждение” со стороны Anthropic, прямо указывают на карательный умысел, связанный с публичными заявлениями компании по безопасности ИИ.
Что касается должного процесса, суд установил, что правительство лишило Anthropic интересов к свободе, связанным с ее репутацией и бизнес-операциями, не предоставив предварительного уведомления или слушания. Лин также установила, что статутое назначение никогда ранее не применялось к американской компании в таких обстоятельствах, и что предыдущая проверка правительства Anthropic.
Это включает в себя разрешения “Совершенно секретно”, разрешение FedRAMP и контракты на сумму до 200 миллионов долларов — не выявили никаких подлинных опасений по безопасности. “Ничто в регулирующем законе не поддерживает орвелловскую идею о том, что американская компания может быть объявлена потенциальным противником и саботажником США за выражение несогласия с правительством”, — написала Лин.
Суд установил потенциальный финансовый ущерб для Anthropic в сотни миллионов и миллиарды долларов, а также репутационный ущерб, который денежная компенсация не могла бы полностью исправить. Друзья в виде амиков от военных лидеров и исследователей ИИ указали на риски для оборонной готовности и более широкую дискуссию о безопасности ИИ.
Anthropic заявила, что благодарна суду за скорость действий и что планирует продолжать сотрудничество с федеральным правительством. Компания заявила, что ее цель остается обеспечить доступ американцев к безопасному и надежному ИИ.
Судебный запрет не разрешает основной контрактный спор. Окончательное решение по существу не было вынесено. Отдельный вызов в округе Колумбия остается незавершенным, и администрация сохраняет возможность подать апелляцию.