Anthropic hat drei interne Teams zum «Anthropic Institute» zusammengelegt — einer Denkfabrik unter Mitgründer Jack Clark, die erforschen soll, wie KI Arbeit und Gesellschaft verändert. Erstes Projekt: ein fortlaufender «Economic Index».

Anthropic will mit einer eigenen Denkfabrik die KI-Debatte mitgestalten — und gleichzeitig seine Position im Streit mit dem Pentagon stärken.
Anthropic hat drei interne Teams zum neuen «Anthropic Institute» zusammengelegt — einer Denkfabrik, die erforschen soll, wie KI Arbeit, Wirtschaft und Gesellschaft verändert. Geleitet wird sie von Mitgründer Jack Clark, der dafür den neuen Titel «Head of Public Benefit» übernimmt.
Das Institut vereint rund 30 Mitarbeitende aus bisher getrennten Gruppen: Das Frontier Red Team (testet KI-Modelle auf Sicherheitslücken — zuletzt prüfte es, ob Claude Schwachstellen in Firefox finden kann), das Societal Impacts Team (analysiert, wie Menschen Claude tatsächlich nutzen) und die Economic Research-Gruppe (untersucht die wirtschaftlichen Auswirkungen von KI).
Zum Gründungsteam gehören prominente Köpfe: Matt Botvinick (zuvor Forschungsdirektor bei Google DeepMind), Zoë Hitzig (die OpenAI verliess, als das Unternehmen Werbung in ChatGPT einführte) und Anton Korinek, Wirtschaftsprofessor an der University of Virginia.
Das erste konkrete Projekt: ein fortlaufender «Economic Index», der messen soll, wie stark KI die Wirtschaft tatsächlich verändert. Statt Prognosen will Anthropic harte Daten liefern — basierend auf der Analyse, welche Aufgaben Kunden von Claude automatisieren lassen.
Das ist kein Zufall: Anthropic macht nach eigenen Angaben über 5 Milliarden US-Dollar kommerziellen Umsatz, hat aber bereits 10 Milliarden in Training investiert. Die Firma muss zeigen, dass KI nicht nur Kosten verursacht, sondern wirtschaftlichen Nutzen stiftet.
Gleichzeitig eröffnet Anthropic ein Büro in Washington, D.C. und hat Sarah Heck (zuvor bei Stripe) als neue Head of Public Policy eingestellt. Das Timing ist kein Zufall: Anthropic liegt aktuell im Rechtsstreit mit dem US-Verteidigungsministerium, das die Firma als «Supply-Chain-Risiko» eingestuft hat — weil Anthropic sich weigert, KI für Massenüberwachung und vollautonome Waffen freizugeben.
Das Institut und das D.C.-Büro verfolgen dieselbe Strategie: Anthropic will die KI-Debatte mitgestalten, bevor andere die Regeln diktieren.
Anthropic positioniert sich damit als das KI-Unternehmen, das seine eigene Technologie am kritischsten hinterfragt. Ob das echter Altruismus ist oder cleveres Branding, darüber lässt sich streiten. Klar ist: In einer Branche, die mit Regulierungsfragen kämpft, verschafft eine hauseigene Denkfabrik Glaubwürdigkeit — und Einfluss.
Für dich als Claude-Nutzer ändert sich zunächst nichts. Aber die Forschung des Instituts könnte langfristig beeinflussen, welche Fähigkeiten KI-Modelle bekommen — und welche bewusst zurückgehalten werden.

Das US-Verteidigungsministerium stuft Anthropic als «Supply-Chain-Risiko» ein, weil das Unternehmen KI-Sicherheitsprinzipien nicht aufgeben will. Google übernimmt mit Gemini die Pentagon-Plattform – Anthropic klagt vor zwei US-Gerichten.
Anthropic wird vom Pentagon bestraft, weil es rote Linien bei Massenüberwachung und autonomen Waffen nicht streichen will – Google füllt die Lücke, während Microsoft und 37 Forscher Anthropic vor Gericht unterstützen.

Anthropic hat am 9. März zwei Bundesgerichtsklagen gegen das Pentagon eingereicht. Der Grund: Die Einstufung als «Supply Chain Risk», weil das Unternehmen die uneingeschränkte militärische Nutzung von Claude ablehnte. Es ist die bisher grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung.
Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.

Anthropic-CEO Dario Amodei gibt zu: «Wir wissen nicht, ob unsere Modelle bewusst sind.» In der System Card zu Claude Opus 4.6 steckt eine formale Model Welfare Assessment – mit überraschenden Ergebnissen.
Anthropic dokumentiert als erstes KI-Labor öffentlich die Möglichkeit, dass sein Modell bewusst sein könnte – und stellt einen dedizierten AI-Welfare-Forscher ein.