Das US-Verteidigungsministerium stuft Anthropic als «Supply-Chain-Risiko» ein, weil das Unternehmen KI-Sicherheitsprinzipien nicht aufgeben will. Google übernimmt mit Gemini die Pentagon-Plattform – Anthropic klagt vor zwei US-Gerichten.

Anthropic wird vom Pentagon bestraft, weil es rote Linien bei Massenüberwachung und autonomen Waffen nicht streichen will – Google füllt die Lücke, während Microsoft und 37 Forscher Anthropic vor Gericht unterstützen.
Anthropic weigert sich, seine KI-Sicherheitsprinzipien aufzugeben – und wird dafür vom US-Verteidigungsministerium als Sicherheitsrisiko eingestuft. Google springt in die Lücke. Der grösste KI-Machtkampf seit Jahren eskaliert vor Gericht.
Google rollt ab sofort acht vorgefertigte KI-Agenten auf der Pentagon-Plattform GenAI.mil aus – verfügbar für die gesamte 3-Millionen-Belegschaft des US-Verteidigungsministeriums (Department of Defense, DoD). Dazu kommt ein No-Code-Tool namens Agent Designer, mit dem Mitarbeitende eigene KI-Assistenten für Routineaufgaben bauen können – ohne eine Zeile Code.
Die Zahlen sind bereits beeindruckend: Seit Dezember 2025 haben 1,2 Millionen DoD-Angestellte die Plattform genutzt und über 40 Millionen Prompts abgesetzt. Die Agenten automatisieren Aufgaben wie Besprechungszusammenfassungen, Budgeterstellung und Strategieabgleiche mit der nationalen Verteidigungsstrategie. Vorerst läuft alles auf nicht-klassifizierten Netzwerken – Gespräche über eine Erweiterung auf klassifizierte Systeme laufen laut dem DoD bereits.
Der Hintergrund für Googles Expansion ist eine beispiellose Eskalation. Am 3. März stufte das Pentagon Anthropic als «Supply-Chain-Risiko» ein – eine Bezeichnung, die bisher ausländischen Akteuren wie Huawei vorbehalten war und nun erstmals gegen ein US-Unternehmen eingesetzt wird.
Der Auslöser: Anthropic weigerte sich, zwei Bedingungen aus seinen Nutzungsrichtlinien zu streichen. Claude darf nicht für Massenüberwachung von US-Bürgern und nicht für vollautonome Waffensysteme ohne menschliche Kontrolle eingesetzt werden. Für die Trump-Administration, die Anthropic zuvor öffentlich als «Radical Left AI Company» kritisiert hatte, war das inakzeptabel.
Das Pentagon nutzt ein Gesetz, das für ausländische Bedrohungen gedacht war, als Vergeltung gegen ein US-Unternehmen, das unbequeme Positionen vertritt.
So argumentieren die 22 pensionierten hochrangigen US-Militärs – darunter Ex-CIA-Direktor Michael Hayden und Ex-Küstenwache-Admiral Thad Allen – in ihrem Amicus-Brief vor Gericht.
Am 10. März klagte Anthropic in zwei Verfahren gegen die US-Regierung: vor dem Bundesgericht in Nordkalifornien und dem Berufungsgericht in Washington, D.C. Die Klagen argumentieren, die Einstufung verletze den Ersten Verfassungszusatz und überschreite den Anwendungsbereich des Supply-Chain-Gesetzes.
Microsoft reichte am selben Tag einen Amicus-Brief ein – mit der Forderung, das Gericht solle die Pentagon-Massnahmen per einstweiliger Verfügung stoppen. Kein Zufall: Microsoft hat bis zu 5 Milliarden Dollar in Anthropic investiert und integriert Claude-Modelle in Produkte, die direkt ans US-Militär geliefert werden.
Zusätzlich unterzeichneten 37 Forscher von Google und OpenAI – darunter Googles Chefwissenschaftler Jeff Dean – persönlich einen Amicus-Brief für Anthropic. Die Verhandlung ist für den 24. März angesetzt.
Axios analysierte am 11. März pointiert: Während Anthropic und OpenAI sich öffentlich streiten, baut Google seine Position beim Pentagon leise aus. Mit über 400 Milliarden Dollar Jahresumsatz hat Alphabet einen Puffer, den kein anderes KI-Unternehmen hat. Google hatte 2018 nach internen Protesten gegen Project Maven noch Militärverträge zurückgefahren – diese Zurückhaltung ist Geschichte. Anfang Februar passte Google seine «AI Principles» bezüglich militärischer Nutzung stillschweigend an.
Pikant: OpenAI hatte kurz zuvor selbst einen Pentagon-Deal abgeschlossen, nachdem das DoD rote Linien akzeptierte, die denen von Anthropic ähneln. Warum Anthropic bestraft wird und OpenAI nicht, bleibt eine offene Frage – und ein zentrales Argument in der Klage.
Die Eskalation hat direkte Relevanz für die globale KI-Governance. Die Schweiz bereitet den Geneva AI Action Summit 2027 vor, bei dem militärische KI-Governance als Kernthema vorgesehen ist. SPD-Digitalexperte Matthias Mieves forderte öffentlich, Anthropic nach Europa zu holen – die Debatte, ob europäische Regulierung einen sicheren Hafen für ethisch orientierte KI-Unternehmen bieten kann, gewinnt an Fahrt.
Für dich bedeutet das: Dieser Konflikt wird die Spielregeln für KI in der Verteidigung neu definieren. Wer Claude beruflich nutzt, sollte den 24. März im Kalender markieren – an diesem Tag wird das Gericht entscheiden, ob ein KI-Unternehmen für seine Sicherheitsprinzipien bestraft werden darf.

Anthropic hat drei interne Teams zum «Anthropic Institute» zusammengelegt — einer Denkfabrik unter Mitgründer Jack Clark, die erforschen soll, wie KI Arbeit und Gesellschaft verändert. Erstes Projekt: ein fortlaufender «Economic Index».
Anthropic will mit einer eigenen Denkfabrik die KI-Debatte mitgestalten — und gleichzeitig seine Position im Streit mit dem Pentagon stärken.

Anthropic hat am 9. März zwei Bundesgerichtsklagen gegen das Pentagon eingereicht. Der Grund: Die Einstufung als «Supply Chain Risk», weil das Unternehmen die uneingeschränkte militärische Nutzung von Claude ablehnte. Es ist die bisher grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung.
Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.

Anthropic-CEO Dario Amodei gibt zu: «Wir wissen nicht, ob unsere Modelle bewusst sind.» In der System Card zu Claude Opus 4.6 steckt eine formale Model Welfare Assessment – mit überraschenden Ergebnissen.
Anthropic dokumentiert als erstes KI-Labor öffentlich die Möglichkeit, dass sein Modell bewusst sein könnte – und stellt einen dedizierten AI-Welfare-Forscher ein.