KI-Politik, Governance, AI Safety und ethische Debatten – vom EU AI Act bis zur globalen KI-Regulierung.

Anthropic hat drei interne Teams zum «Anthropic Institute» zusammengelegt — einer Denkfabrik unter Mitgründer Jack Clark, die erforschen soll, wie KI Arbeit und Gesellschaft verändert. Erstes Projekt: ein fortlaufender «Economic Index».
Anthropic will mit einer eigenen Denkfabrik die KI-Debatte mitgestalten — und gleichzeitig seine Position im Streit mit dem Pentagon stärken.

Das US-Verteidigungsministerium stuft Anthropic als «Supply-Chain-Risiko» ein, weil das Unternehmen KI-Sicherheitsprinzipien nicht aufgeben will. Google übernimmt mit Gemini die Pentagon-Plattform – Anthropic klagt vor zwei US-Gerichten.
Anthropic wird vom Pentagon bestraft, weil es rote Linien bei Massenüberwachung und autonomen Waffen nicht streichen will – Google füllt die Lücke, während Microsoft und 37 Forscher Anthropic vor Gericht unterstützen.

Anthropic hat am 9. März zwei Bundesgerichtsklagen gegen das Pentagon eingereicht. Der Grund: Die Einstufung als «Supply Chain Risk», weil das Unternehmen die uneingeschränkte militärische Nutzung von Claude ablehnte. Es ist die bisher grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung.
Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.

Anthropic-CEO Dario Amodei gibt zu: «Wir wissen nicht, ob unsere Modelle bewusst sind.» In der System Card zu Claude Opus 4.6 steckt eine formale Model Welfare Assessment – mit überraschenden Ergebnissen.
Anthropic dokumentiert als erstes KI-Labor öffentlich die Möglichkeit, dass sein Modell bewusst sein könnte – und stellt einen dedizierten AI-Welfare-Forscher ein.

OpenAI hat einen 200-Millionen-Dollar-Vertrag mit dem Pentagon abgeschlossen und verhandelt nun auch mit der NATO. Intern gibt es heftigen Widerstand – CEO Altman nennt die Situation "really painful".
OpenAIs Wandel vom Safety-Vorreiter zum Militärlieferanten markiert einen Paradigmenwechsel in der KI-Branche – mit weitreichenden Folgen für das Vertrauen in KI-Anbieter.

Der Nationalrat hat mit 157 zu 29 Stimmen das Leistungsschutzrecht an den Bundesrat zurückgewiesen – mit dem Auftrag, KI-Anbieter explizit einzubeziehen. Die Schweiz könnte damit international Neuland betreten.
Die Schweiz diskutiert als eines der ersten Länder weltweit KI-spezifische Leistungsschutzregeln – wer journalistische Inhalte für KI nutzt, soll künftig bezahlen.

Über 1,5 Millionen Menschen boykottieren ChatGPT – nicht wegen schlechter Performance, sondern weil OpenAI einen Deal mit dem Pentagon unterschrieben hat. Am 3. März protestieren sie vor der OpenAI-Zentrale in San Francisco.
OpenAIs Pentagon-Deal ohne explizite Anti-Überwachungs-Garantien löst die grösste KI-Boykott-Bewegung aus – und zeigt, dass Ethik zum Wettbewerbsfaktor wird.

Der Bundesrat hat einen konkreten Umsetzungsplan mit acht Massnahmen für den KI-Einsatz in der Bundesverwaltung beschlossen – inklusive eines eigenen KI-Systems für alle Mitarbeitenden. Doch der Finanzierungsentscheid steht noch aus.
Die Schweizer Bundesverwaltung bekommt ein eigenes KI-System und einen internen Marktplatz – aber wie schnell das kommt, hängt vom Budget ab, das frühestens im Frühjahr 2026 entschieden wird.

Anthropic weigert sich, dem Pentagon uneingeschränkten Zugang zu Claude zu geben. Trump verhängt ein Bundesverbot. Stunden später schliesst OpenAI einen Deal mit dem Militär – mit denselben Bedingungen, die Anthropic gefordert hatte.
Die grösste KI-Politik-Krise 2026 zeigt: Wer bei KI-Sicherheit Rückgrat zeigt, riskiert politische Vergeltung – wird aber von den Nutzern belohnt.

Anthropic beschuldigt drei chinesische KI-Labore, ihren Assistenten Claude mit 16 Millionen gefälschten Gesprächen systematisch ausgespresst zu haben – um die eigenen Modelle schneller besser zu machen.
Drei chinesische KI-Firmen extrahierten Claudes Fähigkeiten via 24'000 gefälschter Accounts im industriellen Massstab. Der Fall zeigt: Der globale KI-Wettbewerb wird nicht nur in Rechenzentren ausgefochten.