Normale Ansicht
-
t3n.de - News
- GPT-5.4 steht bereit: In welchen Disziplinen das neue KI-Modell ChatGPT verbessern soll
GPT-5.4 steht bereit: In welchen Disziplinen das neue KI-Modell ChatGPT verbessern soll

Community-Content als Währung: Wie du in KI-Antworten sichtbar wirst

OpenAI veröffentlicht ChatGPT-4 und ChatGPT-4 Pro
KI statt Krankenhaus: Wann ChatGPT zum Gesundheitsrisiko wird

Claude vs. ChatGPT: KI-Tools im aktuellen Praxischeck bei der Arbeit

Weekly: Neues Heizungsgesetz, Passwörter von der KI

„Schlampiger“ Deal: OpenAI muss Vertrag mit dem Pentagon anpassen

Weniger cringe: Warum ChatGPT jetzt nicht mehr versucht, dich zu beruhigen

Google dominiert weiter, ChatGPT holt auf: Wo Internetsuche wirklich stattfindet

-
t3n.de - News
- KI-Sichtbarkeit für Marken: Warum Brand Authority der Schlüssel ist, um in ChatGPT zitiert zu werden
KI-Sichtbarkeit für Marken: Warum Brand Authority der Schlüssel ist, um in ChatGPT zitiert zu werden

KI-Streit im Weißen Haus: OpenAI vertickt ChatGPT ans US-Militär
Der Beitrag KI-Streit im Weißen Haus: OpenAI vertickt ChatGPT ans US-Militär erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.
![]()
Die Trump-Administration hat Anthropic aus US-Behörden verbannt, weil das KI-Unternehmen sich weigert, seine Modelle für das US-Militär und für Überwachungsmethoden freizugeben. Aus Geldsorgen und ohne Rücksicht auf Verluste hat sich nun OpenAI den Deal gekrallt. Doch er könnte dem Unternehmen teuer zu stehen kommen. Eine kommentierende Analyse.
US-Regierung verbannt Anthropic aus Behörden
- Im Juli 2025 hatte das Pentagon Anthropic einen Vertrag mit einem Volumen von 200 Millionen US-Dollar zugesagt, um die KI-Modelle des Unternehmens in seine Arbeitsabläufe zu integrieren. Nachdem die Algorithmen jedoch zur history Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurden, eskalierte ein öffentlicher Streit.
- Wie Anthropic in einem Blogbeitrag erklärte, lehnt das Unternehmen den Einsatz seiner KI für autonome Waffen oder die Massenüberwachung ab. Leistungsstarke Algorithmen könnten aus scheinbar harmlosen Daten einen gigantischen Überwachungspool erstellen. Das Rechtssystem käme der technologischen Entwicklung nicht hinterher. Nachdem sich Anthropic weigerte, seine KI für alle „rechtmäßigen Verwendungszwecke“ freizugeben, stufte die US-Administration das Unternehmen als Sicherheitsrisiko ein und untersagte Behörden die Nutzung.
- Nur wenige Stunden nachdem das Pentagon angekündigt hatte, Anthropic zu verbannen, gab OpenAI eine Vereinbarung zur militärischen Nutzung von ChatGPT bekannt. Während Anthropic ankündigte, Klage einzureichen, soll der KI-Chatbot Claude des Unternehmens unterstützend bei den US-Militärschlägen im Iran zum Einsatz gekommen sein. Dem Pentagon zufolge basiere die Entscheidung auf einer Übergangsvereinbarung mit Anthropic.
OpenAI vertickt ChatGPT ans US-Militär
Laut OpenAI beinhaltet die Vereinbarung zur Freigabe der hauseigenen KI-Modelle für das Verteidigungsministerium und US-Militär mehr Schutzmaßnahmen als der Deal mit Anthropic. Allerdings untersagt der Vertrag weder eine militärische Nutzung noch eine Nutzung zur Massenüberwachung.
Er sieht lediglich vor, dass die KI-Modelle des Unternehmens im Einklang mit dem Rechtssystem und der Verfassung genutzt werden. Und genau hier liegt das Problem. Denn dass es die Trump-Administration mit dem Rechtssystem nicht so genau nimmt, dürfte hinlänglich bekannt sein.
Unliebsame Richter werden etwa abgesägt, Gerichtsurteile ignoriert und das Gesetz wird stets zum eigenen Vorteil ausgelegt, nicht aber zugunsten der Vereinigten Staaten und der gesamten Bevölkerung.
Vor allem die fadenscheinige Rechtsauslegung des Trump-Lagers sowie die Tatsache, dass die Gesetzgebung und Justiz der technologischen Entwicklung rund um KI nicht hinterherkommt, sind die wahren Beweggründe für den Anthropic-Protest.
OpenAI scheint sich derweil blauäugig auf die Versprechen einer Regierung zu verlassen, die schon allzu häufig ihre Versprechen gebrochen hat – und zwar allem Anschein nach aus finanziellen statt moralischen Gründen.
Stimmen
- US-Präsident Donald Trump auf seiner Social-Media-Plattform Truth Social zur Verbannung der Anthropic-KI: „Die Vereinigten Staaten von Amerika werden niemals zulassen, dass eine radikal linke, woke Firma uns vorschreibt, wie unsere großartige Armee Kriege führt und gewinnt. Diese Entscheidung liegt bei ihrem Oberbefehlshaber. Die linken Spinner bei Anthropic haben einen katastrophalen Fehler begangen, indem sie versucht haben, das Kriegsministerium unter Druck zu setzen und es zu zwingen, sich an ihre Nutzungsbedingungen statt an unsere Verfassung zu halten.“
- OpenAI-Chef Sam Altman in einem Beitrag auf X (ehemals Twitter): „Heute haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in ihrem geheimen Netzwerk einzusetzen. Die Sicherheit von KI und die Verteilung sind Kern unserer Mission. Zwei unserer wichtigsten Sicherheitsprinzipien sind das Verbot der Massenüberwachung im Inland und menschliche Verantwortung für die Anwendung von Gewalt, auch bei autonomen Waffensystemen. Das Kriegsministerium stimmt diesen Grundsätzen zu und spiegelt sie in Gesetzen und Richtlinien wider.“
- Anthropic-Gründer Dario Amodei hat auf die Einstufung seines Unternehmens als Sicherheitsrisiko reagiert. In einem Interview mit CBS spricht er von einem beispiellosen Vorgang: „Diese Einstufung hat es noch nie zuvor bei einem amerikanischen Unternehmen gegeben. Und ich denke, es wurde in einigen ihrer Erklärungen, in ihrer Wortwahl, sehr deutlich, dass dies vergeltend und strafend war. Meinungsverschiedenheiten mit der Regierung sind das Amerikanischste auf der Welt.“
OpenAI droht Imageschaden
Die Entscheidung, mit der US-Regierung zusammenzuarbeiten, könnte OpenAI teuer zu stehen kommen. Denn bereits nachdem bekannt wurde, dass die KI-Modelle von Anthropic bei der Entführung des venezolanischen Diktators Maduro zum Einsatz kamen, erlitt der Konkurrent einen Imageschaden.
Ob die Intervention des US-Militärs in Venezuela im Einklang mit der Verfassung war, steht aber noch in Frage. Eigentlich hätte dieser Fall OpenAI ein lehrendes Beispiel sein können. Doch stattdessen vertraut man blind den Versprechen der US-Administration. Offenbar vor allem deshalb, weil OpenAI nach wie vor defizitär ist und händeringend nach Geldgebern sucht.
Falls dem Unternehmen jedoch ein Anthropic-Moment wie in Venezuela ereilen sollte, könnte die Nutzerbasis erheblich bröckeln – sofern sie das nicht ohnehin schon tut. Denn bereits nachdem bekannt wurde, dass die KI-Modelle von OpenAI von der höchst umstrittenen Einwanderungsbehörde ICE genutzt wurden, flammte eine Protestwelle auf.
Unter dem Hashtag QuitGPT wurden Nutzer dazu aufgefordert, ihr ChatGPT-Abo zu kündigen und die Plattform nicht mehr zu nutzen. Aufgrund des neuen Deals mit dem Pentagon keimt dieser Protest nun weiter aus.
Auch interessant:
- Solar-Förderstopp: Lobby-Ministerin plant Geschenk für Ex-Arbeitgeber E.ON
- Kamera-Brillen mit Gesichtserkennung: Wie Meta Menschen gläsern machen will
- Bund grillt Heizungsgesetz – und regiert an der Realität vorbei
- Wenn Lügen laufen lernen: So kannst du KI-Videos erkennen
Der Beitrag KI-Streit im Weißen Haus: OpenAI vertickt ChatGPT ans US-Militär erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.
Protest wirkt: Sam Altman gibt zu, dass Pentagon-Deal "schlampig" war
-
t3n.de - News
- ChatGPT-Nutzer fliehen nach Pentagon-Deal in Scharen: Was OpenAI-Chef Altman jetzt sagt
ChatGPT-Nutzer fliehen nach Pentagon-Deal in Scharen: Was OpenAI-Chef Altman jetzt sagt

-
t3n.de - News
- Anthropic erleichtert den Umstieg von ChatGPT: Claude bekommt kostenlosen Memory-Import
Anthropic erleichtert den Umstieg von ChatGPT: Claude bekommt kostenlosen Memory-Import

Wegen Pentagon-Streits: Claude-App stürmt die App-Download-Charts
Pentagon-Deal spaltet die KI-Branche: Warum User von ChatGPT zu Claude wechseln

QuitGPT: Wer nur sein ChatGPT-Abo kündigt, fällt auf die Industrie herein

-
t3n.de - News
- Wie ChatGPT sein eigenes Passwort gehackt hat – und was das für deine Sicherheit bedeutet
Wie ChatGPT sein eigenes Passwort gehackt hat – und was das für deine Sicherheit bedeutet

Warum High-Performer ChatGPT wie einen Kollegen behandeln – statt wie ein Tool
