kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Regulierung & Ethik
  4. QuitGPT: 1,5 Millionen sagen ChatGPT Goodbye
Regulierung & Ethik

QuitGPT: 1,5 Millionen sagen ChatGPT Goodbye

Über 1,5 Millionen Menschen boykottieren ChatGPT – nicht wegen schlechter Performance, sondern weil OpenAI einen Deal mit dem Pentagon unterschrieben hat. Am 3. März protestieren sie vor der OpenAI-Zentrale in San Francisco.

Dienstag, 3. März 2026~3 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Illustration einer Protestszene mit Megaphon und Demonstranten vor einem Firmengebäude, kinewsletter.ch Stil
Illustration einer Protestszene mit Megaphon und Demonstranten vor einem Firmengebäude, kinewsletter.ch Stil
Das Wichtigste

OpenAIs Pentagon-Deal ohne explizite Anti-Überwachungs-Garantien löst die grösste KI-Boykott-Bewegung aus – und zeigt, dass Ethik zum Wettbewerbsfaktor wird.

Über 1,5 Millionen Menschen boykottieren ChatGPT – nicht wegen schlechter Performance, sondern weil OpenAI einen Deal mit dem Pentagon unterschrieben hat. Am 3. März protestieren sie vor der OpenAI-Zentrale in San Francisco. Der Grund? Ein vermeintlich «lawful» Militär-Angebot, das eine ethische Linie überschreitet.

Pentagon statt Ethik: Wie OpenAI die Kurve kratzte

Alles begann mit einer klaren Ansage: CEO Dario Amodei von Anthropic sagte dem Pentagon «nein». Die Begründung war eindeutig – Anthropic werde kein Geschäft mit dem US-Militär eingehen, das nicht explizit die Nutzung von Claude für Massenüberwachung oder autonome Waffen ausschliesst. Das war die rote Linie.

Dann kam Sam Altman von OpenAI mit einer anderen Idee. Er unterschrieb den Pentagon-Deal – ohne diese Garantien. Sein Argument? Das Militär werde sich sowieso ans Gesetz halten, deswegen seien explizite Verbote unnötig. Nur: Das ist eine beachtliche Annahme.

Legale Lücken im Kleingedruckten

Hier wird es knifflig. OpenAI sagt: Das Pentagon darf die KI nicht für illegale Zwecke einsetzen. Aber Massenüberwachung von Amerikaner*innen? Das ist legal – solange die Regierung Daten von privaten Datenhändlern kauft und ein KI-Modell darauf loslässt. Technisch gesehen ein Umweg, rechtlich gesehen eine Grauzone.

Anthropic hatte genau das nicht wollen und forderte explizite Verbote. OpenAI vertraute darauf, dass Gesetze eingehalten werden. Selbst Altman gab später zu, dass der Deal «definitely rushed» war und optisch nicht gut aussieht.

1,5 Millionen kündigen – Claude wird Nummer 1

Die QuitGPT-Bewegung entstand als Grassroots-Boykott. Menschen canceln ChatGPT-Abos, teilen ihre Kündigung auf Social Media, und viele wechseln zu Claude von Anthropic. Das Ergebnis ist beeindruckend: Claude sprang kurzzeitig zur meistgeladenen kostenlosen App im Apple App Store – eine klare Botschaft an OpenAI.

Es geht nicht nur ums Pentagon. Greg Brockman (OpenAI-Präsident) und seine Frau spendeten 25 Millionen Dollar an Trump-nahe Super PACs. CEO Altman selbst trug eine weitere Million zum Trump-Wahlfonds bei. Die Gesamtaufnahme: OpenAI rückt näher an die Trump-Administration, und das macht vielen Nutzer*innen Unbehagen.

Ethik als Wettbewerbsvorteil

Spannend ist, was das für die Tech-Branche bedeutet. Anthropic positioniert sich als die «ethischere» Alternative – und das kommt bei Millionen an. OpenAI muss sich rechtfertigen und hat bereits nachgebessert: Sie fügten stärker formulierte Anti-Überwachungs-Klauseln hinzu. Aber die Skepsis bleibt.

In der Schweiz ist dieser Streit weniger präsent, aber relevant für alle, die KI-Tools nutzen oder investieren. Es geht um die grundsätzliche Frage: Wer kontrolliert die mächtigsten KI-Modelle, und an wessen Interessen sind sie gebunden?

Protest vor OpenAI HQ am 3. März

Der Protest am 3. März vor OpenAI HQ wird zeigen, wie stark die Bewegung wirklich ist. OpenAI wird das Problem nicht einfach aussitzen können – die Marktreaktion (Claude vs. ChatGPT) zeigt, dass Ethik ein Wettbewerbsfaktor ist. Anthropic hat das verstanden. OpenAI muss das jetzt auch verstehen.

Für dich als ChatGPT-Nutzer heisst das konkret: Hast du ethische Bedenken, sind die Alternativen inzwischen sehr konkurrenzfähig. Der Wettbewerb um die besten KI-Modelle wird immer mehr auch ein Wettbewerb um Vertrauen.

Teilen:

Das könnte dich auch interessieren

Handgezeichnete Skizze: Denkfabrik-Gebäude mit KI-Gehirn und Schutzschild – Anthropic Institute für KI-Sicherheit
Handgezeichnete Skizze: Denkfabrik-Gebäude mit KI-Gehirn und Schutzschild – Anthropic Institute für KI-Sicherheit
Regulierung & Ethik
12. März 2026

Anthropic gründet hauseigene Denkfabrik für KI-Risiken

Anthropic hat drei interne Teams zum «Anthropic Institute» zusammengelegt — einer Denkfabrik unter Mitgründer Jack Clark, die erforschen soll, wie KI Arbeit und Gesellschaft verändert. Erstes Projekt: ein fortlaufender «Economic Index».

Anthropic will mit einer eigenen Denkfabrik die KI-Debatte mitgestalten — und gleichzeitig seine Position im Streit mit dem Pentagon stärken.

Weiterlesen
Pentagon-Gebäude mit amerikanischer Flagge, Richterhammer auf Marmorständer und Militär-Emblem – symbolisiert den Rechtsstreit zwischen Anthropic und dem US-Verteidigungsministerium
Pentagon-Gebäude mit amerikanischer Flagge, Richterhammer auf Marmorständer und Militär-Emblem – symbolisiert den Rechtsstreit zwischen Anthropic und dem US-Verteidigungsministerium
Regulierung & Ethik
11. März 2026

Pentagon setzt auf Google Gemini — Anthropic verklagt US-Regierung

Das US-Verteidigungsministerium stuft Anthropic als «Supply-Chain-Risiko» ein, weil das Unternehmen KI-Sicherheitsprinzipien nicht aufgeben will. Google übernimmt mit Gemini die Pentagon-Plattform – Anthropic klagt vor zwei US-Gerichten.

Anthropic wird vom Pentagon bestraft, weil es rote Linien bei Massenüberwachung und autonomen Waffen nicht streichen will – Google füllt die Lücke, während Microsoft und 37 Forscher Anthropic vor Gericht unterstützen.

Weiterlesen
Illustration zum Thema Anthropic verklagt die US-Regierung
Illustration zum Thema Anthropic verklagt die US-Regierung
Regulierung & Ethik
10. März 2026

Anthropic verklagt die US-Regierung – der grösste KI-Ethik-Showdown

Anthropic hat am 9. März zwei Bundesgerichtsklagen gegen das Pentagon eingereicht. Der Grund: Die Einstufung als «Supply Chain Risk», weil das Unternehmen die uneingeschränkte militärische Nutzung von Claude ablehnte. Es ist die bisher grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung.

Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.

Weiterlesen