U.S. District Judge Rita F. Lin stellte das Pentagon in einer 90-minütigen Anhörung hart in Frage. Ihre Worte: «It looks like an attempt to cripple Anthropic.» Ein Urteil wird bis Ende der Woche erwartet.

Das Pentagon-Verfahren gegen Anthropic könnte einen globalen Präzedenzfall setzen – und bestimmen, ob Regierungen KI-Firmen bestrafen dürfen, die auf Sicherheitsstandards bestehen.
Kann eine Regierung ein KI-Unternehmen bestrafen, weil es auf Sicherheitsstandards besteht? Genau diese Frage verhandelte U.S. District Judge Rita F. Lin am 24. März in San Francisco – und ihre Worte liessen wenig Zweifel daran, auf welcher Seite sie steht.
Die rund 90-minütige Anhörung im Fall Anthropic vs. Pentagon wurde zum Kreuzverhör für das Verteidigungsministerium. Richterin Lin wählte ungewöhnlich deutliche Worte: «I don't know if it's murder, but it looks like an attempt to cripple Anthropic», sagte sie über die Wirkung der Pentagon-Massnahmen. Sie hinterfragte, warum das DOD über einen blossen Nutzungsstopp von Claude hinausgegangen sei: «It looks like defendants went further because they were trying to punish Anthropic.»
Besonders skeptisch reagierte Lin auf die Position des DOJ-Anwalts Eric Hamilton, die Posts von Verteidigungsminister Hegseth auf X seien «nicht rechtlich bindend». Das nannte sie «pretty surprising» – und fragte, ob es sich um eine «false statement» handle.
Anthropics Anwalt Michael Mongan argumentierte, die Supply-Chain-Risk-Designation – eine Sicherheitseinstufung, die normalerweise ausländischen Firmen vorbehalten ist – sei «unprecedented»: So etwas sei noch nie gegenüber einem amerikanischen Unternehmen angewandt worden. Mehrere Bundesbehörden wie OPM und die Nuclear Regulatory Commission haben daraufhin die Nutzung von Anthropic-Technologie bereits eingestellt.
Das Pentagon konterte mit dem Vorwurf, Anthropic könnte künftig IT-Systeme «sabotieren» oder einen «Kill Switch» installieren. Mehr als ein Dutzend Amicus Briefs wurden eingereicht – fast alle zugunsten von Anthropic. Darunter: Microsoft (mit einer $5-Milliarden-Investition in Anthropic), die ACLU, pensionierte Militärs sowie über 30 Mitarbeitende von Google, OpenAI und DeepMind.
Besonders pikant: Am selben Tag bestätigte Pentagon-CIO Kirsten Davies vor dem Senat, dass Claude aktiv im Iran-Krieg eingesetzt wird. CENTCOM nutzt die KI für Nachrichtenanalyse, Zielidentifikation und Gefechtssimulationen – ein eklatanter Widerspruch zur «Sicherheitsrisiko»-Einstufung.
Am 26. März berichtete Axios, dass hinter den Kulissen Gespräche über eine Wiederbelebung des Deals laufen. Insider sagen: «Anthropics KI ist für die Kriegsführung deutlich besser als jede Alternative.» Anthropics annualisierter Umsatz übersteigt mittlerweile $19 Milliarden, das Unternehmen wächst laut Fidelity-Portfoliomanager Mark Schmehl 30% Woche für Woche.
Lin hat den Fall «under submission» genommen und angekündigt, «in den nächsten Tagen» zu entscheiden – erwartet wird ein Beschluss bis zum 27. oder 28. März. Für die KI-Branche weltweit ist das Urteil richtungsweisend: Es setzt einen globalen Präzedenzfall dafür, ob Regierungen KI-Unternehmen bestrafen können, die auf Sicherheitsstandards bestehen.
Für Schweizer Unternehmen, die KI-Modelle an öffentliche Auftraggeber liefern, hat der Fall direkte Relevanz. Wer heute Claude oder andere Foundation Models in sicherheitskritischen Bereichen einsetzt, will wissen: Kann der Staat mir den Zugang von heute auf morgen kappen – und damit mein Geschäft gefährden?

Anthropic hat drei interne Teams zum «Anthropic Institute» zusammengelegt — einer Denkfabrik unter Mitgründer Jack Clark, die erforschen soll, wie KI Arbeit und Gesellschaft verändert. Erstes Projekt: ein fortlaufender «Economic Index».
Anthropic will mit einer eigenen Denkfabrik die KI-Debatte mitgestalten — und gleichzeitig seine Position im Streit mit dem Pentagon stärken.

Das US-Verteidigungsministerium stuft Anthropic als «Supply-Chain-Risiko» ein, weil das Unternehmen KI-Sicherheitsprinzipien nicht aufgeben will. Google übernimmt mit Gemini die Pentagon-Plattform – Anthropic klagt vor zwei US-Gerichten.
Anthropic wird vom Pentagon bestraft, weil es rote Linien bei Massenüberwachung und autonomen Waffen nicht streichen will – Google füllt die Lücke, während Microsoft und 37 Forscher Anthropic vor Gericht unterstützen.

Anthropic hat am 9. März zwei Bundesgerichtsklagen gegen das Pentagon eingereicht. Der Grund: Die Einstufung als «Supply Chain Risk», weil das Unternehmen die uneingeschränkte militärische Nutzung von Claude ablehnte. Es ist die bisher grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung.
Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.