Anthropic hat am 9. März zwei Bundesgerichtsklagen gegen das Pentagon eingereicht. Der Grund: Die Einstufung als «Supply Chain Risk», weil das Unternehmen die uneingeschränkte militärische Nutzung von Claude ablehnte. Es ist die bisher grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung.

Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.
Anthropic hat am 9. März zwei Bundesgerichtsklagen eingereicht – in Kalifornien und am DC Circuit Court. Der Vorwurf: Das Pentagon stufte das Unternehmen als «Supply Chain Risk» ein. Der Grund dahinter? Anthropic weigerte sich, die uneingeschränkte militärische Nutzung von Claude zu erlauben – insbesondere für Massenüberwachung und vollautonome Waffen.
Die Einstufung als Sicherheitsrisiko in der Lieferkette droht, Anthropics Jahresumsatz 2026 um mehrere Milliarden Dollar zu reduzieren. Für ein Unternehmen, das gerade einen Run-Rate-Umsatz von fast 20 Milliarden Dollar erreicht hat und 11 Millionen tägliche Nutzer verzeichnet (+180% seit Januar), ist das eine existenzielle Bedrohung.
Konkret geht es um Regierungsaufträge und Kooperationen mit Bundesbehörden, die mit der «Supply Chain Risk»-Einstufung faktisch ausgeschlossen werden. Claude war zwischenzeitlich sogar zur Nr. 1 im US App Store aufgestiegen – der kommerzielle Erfolg steht also keineswegs in Frage.
Brisant: Das Wall Street Journal enthüllte gleichzeitig, dass Claude bei den jüngsten Iran-Angriffen rund 1'000 Ziele identifizierte – durch die Verarbeitung von Satelliten- und Überwachungsdaten. Das US-Militär nutzte das Modell also bereits intensiv. Anthropic wollte aber klare Grenzen setzen.
Die rote Linie: Anthropic akzeptiert gewisse militärische Anwendungen, zieht aber bei Massenüberwachung und autonomen Waffen eine klare Grenze – und wird dafür bestraft.
Genau diese Haltung führte zur Pentagon-Einstufung – ein Signal, das weit über Anthropic hinausgeht.
Anthropic steht nicht allein da. OpenAIs Robotik-Chefin Caitlin Kalinowski verliess das Unternehmen aus Protest gegen dessen Pentagon-Deal. Hunderte Mitarbeitende von OpenAI und Google unterzeichneten einen offenen Brief gegen die uneingeschränkte militärische KI-Nutzung.
Trotz – oder gerade wegen – dieser Debatte honorieren die Nutzer Anthropics Haltung: Claude stieg zur Nr. 1 im US App Store auf, die tägliche Nutzerbasis wuchs seit Januar um 180%.
Die Debatte ist auch für die Schweiz direkt relevant:
Wenn der wichtigste KI-Partner der ETH plötzlich als Sicherheitsrisiko gilt, hat das Auswirkungen weit über die USA hinaus.
Diese Klagen werden zum Testfall: Kann ein KI-Unternehmen ethische Grenzen ziehen und gleichzeitig ein Milliarden-Business führen? Oder wird der Zugang zu Regierungsaufträgen künftig davon abhängen, wie bedingungslos man kooperiert?
Die Antwort wird nicht nur Anthropics Zukunft bestimmen – sondern auch, welchen Spielraum andere KI-Firmen bei ethischen Entscheidungen haben.

Anthropic hat drei interne Teams zum «Anthropic Institute» zusammengelegt — einer Denkfabrik unter Mitgründer Jack Clark, die erforschen soll, wie KI Arbeit und Gesellschaft verändert. Erstes Projekt: ein fortlaufender «Economic Index».
Anthropic will mit einer eigenen Denkfabrik die KI-Debatte mitgestalten — und gleichzeitig seine Position im Streit mit dem Pentagon stärken.

Das US-Verteidigungsministerium stuft Anthropic als «Supply-Chain-Risiko» ein, weil das Unternehmen KI-Sicherheitsprinzipien nicht aufgeben will. Google übernimmt mit Gemini die Pentagon-Plattform – Anthropic klagt vor zwei US-Gerichten.
Anthropic wird vom Pentagon bestraft, weil es rote Linien bei Massenüberwachung und autonomen Waffen nicht streichen will – Google füllt die Lücke, während Microsoft und 37 Forscher Anthropic vor Gericht unterstützen.

Anthropic-CEO Dario Amodei gibt zu: «Wir wissen nicht, ob unsere Modelle bewusst sind.» In der System Card zu Claude Opus 4.6 steckt eine formale Model Welfare Assessment – mit überraschenden Ergebnissen.
Anthropic dokumentiert als erstes KI-Labor öffentlich die Möglichkeit, dass sein Modell bewusst sein könnte – und stellt einen dedizierten AI-Welfare-Forscher ein.