Letzte Woche verhinderte ein Bundesrichter in San Francisco das Pentagon und die Trump-Regierung daran, eine nationale Sicherheitsbezeichnung gegen Anthropic durchzusetzen, das KI-Unternehmen, das sich weigerte, Sicherheitsbeschränkungen aus seinen Claude-Modellen zu entfernen.
US-Bezirksrichterin Rita F. Lin erließ am 26. März die einstweilige Verfügung und stellte fest, dass das Vorgehen der Regierung gegen Anthropic voraussichtlich gegen den Ersten Verfassungszusatz verstieß, dem Unternehmen ein ordnungsgemäßes Verfahren (due process) verweigerte und die Befugnisse überschritt, die sich aus dem Administrative Procedure Act ergeben. Die Entscheidung wird für sieben Tage ausgesetzt; damit hat die Verwaltung bis ungefähr zum 2. April Zeit, um beim Neunten Berufungsgericht (Ninth Circuit) eine Notfall-Berufung einzureichen.
Der Streit begann, als das Verteidigungsministerium (DoD) einen uneingeschränkten Zugriff auf Claude für die Nutzung durch den Bund anstrebte. Anthropic hatte in seiner Richtlinie für zulässige Nutzung schon lange zwei Ausnahmen beibehalten: Claude würde nicht für massenhafte Inlandsüberwachung amerikanischer Bürger eingesetzt oder für tödliche autonome Waffensysteme, die ohne sinnvolle menschliche Aufsicht betrieben werden. Das DoD verlangte, dass diese Schutzgeländer entfernt werden. Anthropic weigerte sich.
Die Verhandlungen brachen Ende 2025 auseinander. Der Konflikt wurde öffentlich durch die schriftlichen Erklärungen des CEO Dario Amodei und einen Essay, der die Position des Unternehmens zur KI-Sicherheit darlegte. DoD-Beamte betrachteten die Beschränkungen als den Versuch, dass Anthropic die Regierungspolitik vorgibt.
Am 27. Februar 2026 veröffentlichte Präsident Trump auf Truth Social eine Anweisung an alle Bundesbehörden, die Nutzung von Anthropic-Technologie unverzüglich zu stoppen, mit einer sechsmonatigen Übergangsfrist. Verteidigungsminister Pete Hegseth kündigte eine Einstufung des Lieferkettenrisikos nach 10 U.S.C. § 3252 an — einem Gesetz, das zuvor auf ausländische Gegner angewendet worden war — und bezeichnete Anthropic als potenzielles Risiko für „Sabotage“ und „Subversion“.
Mehrere Bundesauftragnehmer setzten Geschäfte mit dem Unternehmen aus oder kündigten sie nach der Einstufung. Anthropic reagierte und reichte am 9. März eine Klage beim Northern District of California ein, in der es Vergeltung, Verstöße gegen den due process sowie Verstöße gegen den APA geltend machte. Eine damit zusammenhängende Klage wurde im D.C. Circuit eingereicht.
In einer 43-seitigen Entscheidung untersagte Richterin Lin dem DoD, 17 weiteren Bundesbehörden sowie dem Minister Hegseth, irgendeines der angefochtenen Vorgehen umzusetzen oder durchzusetzen. Sie ordnete die Wiederherstellung des Status quo an und erlaubte Anthropic, bestehende Bundesverträge und Partnerschaften fortzuführen.
Lin schrieb, das Vorgehen der Regierung stelle eine „klassische rechtswidrige Vergeltung wegen des Ersten Verfassungszusatzes“ dar. Sie verwies auf den Zeitpunkt der Maßnahmen sowie auf interne Regierungsmitteilungen, in denen auf Anthropics „Rhetorik“, „Arroganz“ und „Einschüchterung“ Bezug genommen wurde; dies weise direkt auf eine strafende Absicht hin, die mit den öffentlichen Äußerungen des Unternehmens zur KI-Sicherheit verbunden sei.
In Bezug auf den due process stellte das Gericht fest, dass die Regierung Anthropic ohne Vorabbenachrichtigung oder Anhörung die Freiheitsinteressen hinsichtlich seines Rufs und seiner Geschäftsabläufe genommen habe. Lin befand außerdem, dass die gesetzliche Einstufung zuvor noch nie unter diesen Umständen auf ein US-amerikanisches Unternehmen angewendet worden sei und dass die vorherige behördliche Überprüfung von Anthropic.
Dazu gehören Top Secret-Freigaben, FedRAMP-Autorisierung und Verträge im Wert von bis zu 200 Millionen Dollar — zeigten keine echte Sicherheitsbesorgnis. „Nichts in dem maßgeblichen Gesetz stützt die orwellsche Vorstellung, dass ein US-Unternehmen als potenzieller Gegner und Saboteur der USA gebrandmarkt werden darf, nur weil es mit der Regierung nicht einverstanden ist“, schrieb Lin.
Das Gericht stellte ein potenzielles finanzielles Schadensausmaß für Anthropic in der Größenordnung von Hunderten Millionen bis Milliarden Dollar fest, zusammen mit einem Rufschaden, den eine Geldentschädigung nicht vollständig wieder gutmachen könne. Amici-Briefen von Militärführern und KI-Forschern zufolge wurden Risiken für die Verteidigungsbereitschaft und für die breitere Debatte zur KI-Sicherheit angeführt.
Anthropic erklärte, es sei dem Gericht für die Schnelligkeit dankbar, und man plane, weiter mit der Bundesregierung zusammenzuarbeiten. Das Unternehmen sagte, das Ziel bleibe, sicherzustellen, dass Amerikaner Zugang zu sicherer und zuverlässiger KI haben.
Die einstweilige Verfügung klärt den zugrunde liegenden Vertragsstreit nicht. Es wurde keine endgültige Entscheidung in der Sache erlassen. Eine separate Anfechtung im D.C. Circuit bleibt anhängig, und die Verwaltung behält die Option, Berufung einzulegen.