Normale Ansicht

Received yesterday — 06. März 2026

OpenAI startet GPT-5.4: Das bietet die neue ChatGPT-KI-Generation

05. März 2026 um 20:33
OpenAI, ChatGPT Autonome Agenten, weniger Fehler und direkte PC-Steuerung kennzeichnen das neue GPT-5.4 von OpenAI. Das Modell analysiert Bildschirminhalte und führt Klicks aus, während das Kontextfenster auf eine Million Token anwächst. (Weiter lesen)

GPT-5.4 steht bereit: In welchen Disziplinen das neue KI-Modell ChatGPT verbessern soll

06. März 2026 um 09:30
Mit GPT-5.4 steht ein neues KI-Modell für ChatGPT bereit. Die neue Version gibt es in mehreren Varianten, die verschiedene Bereiche des Chatbots antreiben sollen. Welche Verbesserungen OpenAI mit ChatGPT 5.4 verspricht. weiterlesen auf t3n.de

Received before yesterday

Weniger cringe: Warum ChatGPT jetzt nicht mehr versucht, dich zu beruhigen

04. März 2026 um 13:02
Mit GPT-5.3 Instant hat OpenAI ein neues KI-Modell für ChatGPT eingeführt, das vor allem den Ton der Gespräche verbessern soll – mit weniger Belehrungen und weniger KI-Halluzinationen. In puncto Sicherheit gibt es aber Abstriche.weiterlesen auf t3n.de

Google dominiert weiter, ChatGPT holt auf: Wo Internetsuche wirklich stattfindet

04. März 2026 um 11:40
Die Suche findet überall statt, zeigt eine SparkToro-Analyse weltbekannter Websites von Amazon bis Wikipedia, von Google bis Tiktok. Wir zeigen, welchen Suchanteil große Seiten wirklich haben – auch in der EU –, wo ChatGPT liegt und warum die Analyse mit Vorsicht zu genießen ist. weiterlesen auf t3n.de

KI-Sichtbarkeit für Marken: Warum Brand Authority der Schlüssel ist, um in ChatGPT zitiert zu werden

03. März 2026 um 20:55
Wer heute nicht in den Antworten von ChatGPT, Perplexity oder Google AI erscheint, verliert den direkten Zugang zur Kundschaft schon in der Phase der Informationssuche. Ein entscheidender Hebel für die Sichtbarkeit einer Marke ist es, als Quelle genannt zu werden. Brand Authority ist dafür der Schlüssel. weiterlesen auf t3n.de

KI-Streit im Weißen Haus: OpenAI vertickt ChatGPT ans US-Militär

03. März 2026 um 11:00

Der Beitrag KI-Streit im Weißen Haus: OpenAI vertickt ChatGPT ans US-Militär erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

OpenAI ChatGPT Militär USA Trump

Die Trump-Administration hat Anthropic aus US-Behörden verbannt, weil das KI-Unternehmen sich weigert, seine Modelle für das US-Militär und für Überwachungsmethoden freizugeben. Aus Geldsorgen und ohne Rücksicht auf Verluste hat sich nun OpenAI den Deal gekrallt. Doch er könnte dem Unternehmen teuer zu stehen kommen. Eine kommentierende Analyse.

US-Regierung verbannt Anthropic aus Behörden

  • Im Juli 2025 hatte das Pentagon Anthropic einen Vertrag mit einem Volumen von 200 Millionen US-Dollar zugesagt, um die KI-Modelle des Unternehmens in seine Arbeitsabläufe zu integrieren. Nachdem die Algorithmen jedoch zur history Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurden, eskalierte ein öffentlicher Streit.
  • Wie Anthropic in einem Blogbeitrag erklärte, lehnt das Unternehmen den Einsatz seiner KI für autonome Waffen oder die Massenüberwachung ab. Leistungsstarke Algorithmen könnten aus scheinbar harmlosen Daten einen gigantischen Überwachungspool erstellen. Das Rechtssystem käme der technologischen Entwicklung nicht hinterher. Nachdem sich Anthropic weigerte, seine KI für alle „rechtmäßigen Verwendungszwecke“ freizugeben, stufte die US-Administration das Unternehmen als Sicherheitsrisiko ein und untersagte Behörden die Nutzung.
  • Nur wenige Stunden nachdem das Pentagon angekündigt hatte, Anthropic zu verbannen, gab OpenAI eine Vereinbarung zur militärischen Nutzung von ChatGPT bekannt. Während Anthropic ankündigte, Klage einzureichen, soll der KI-Chatbot Claude des Unternehmens unterstützend bei den US-Militärschlägen im Iran zum Einsatz gekommen sein. Dem Pentagon zufolge basiere die Entscheidung auf einer Übergangsvereinbarung mit Anthropic.

OpenAI vertickt ChatGPT ans US-Militär

Laut OpenAI beinhaltet die Vereinbarung zur Freigabe der hauseigenen KI-Modelle für das Verteidigungsministerium und US-Militär mehr Schutzmaßnahmen als der Deal mit Anthropic. Allerdings untersagt der Vertrag weder eine militärische Nutzung noch eine Nutzung zur Massenüberwachung.

Er sieht lediglich vor, dass die KI-Modelle des Unternehmens im Einklang mit dem Rechtssystem und der Verfassung genutzt werden. Und genau hier liegt das Problem. Denn dass es die Trump-Administration mit dem Rechtssystem nicht so genau nimmt, dürfte hinlänglich bekannt sein.

Unliebsame Richter werden etwa abgesägt, Gerichtsurteile ignoriert und das Gesetz wird stets zum eigenen Vorteil ausgelegt, nicht aber zugunsten der Vereinigten Staaten und der gesamten Bevölkerung.

Vor allem die fadenscheinige Rechtsauslegung des Trump-Lagers sowie die Tatsache, dass die Gesetzgebung und Justiz der technologischen Entwicklung rund um KI nicht hinterherkommt, sind die wahren Beweggründe für den Anthropic-Protest.

OpenAI scheint sich derweil blauäugig auf die Versprechen einer Regierung zu verlassen, die schon allzu häufig ihre Versprechen gebrochen hat – und zwar allem Anschein nach aus finanziellen statt moralischen Gründen.

Stimmen

  • US-Präsident Donald Trump auf seiner Social-Media-Plattform Truth Social zur Verbannung der Anthropic-KI: „Die Vereinigten Staaten von Amerika werden niemals zulassen, dass eine radikal linke, woke Firma uns vorschreibt, wie unsere großartige Armee Kriege führt und gewinnt. Diese Entscheidung liegt bei ihrem Oberbefehlshaber. Die linken Spinner bei Anthropic haben einen katastrophalen Fehler begangen, indem sie versucht haben, das Kriegsministerium unter Druck zu setzen und es zu zwingen, sich an ihre Nutzungsbedingungen statt an unsere Verfassung zu halten.“
  • OpenAI-Chef Sam Altman in einem Beitrag auf X (ehemals Twitter): „Heute haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in ihrem geheimen Netzwerk einzusetzen. Die Sicherheit von KI und die Verteilung sind Kern unserer Mission. Zwei unserer wichtigsten Sicherheitsprinzipien sind das Verbot der Massenüberwachung im Inland und menschliche Verantwortung für die Anwendung von Gewalt, auch bei autonomen Waffensystemen. Das Kriegsministerium stimmt diesen Grundsätzen zu und spiegelt sie in Gesetzen und Richtlinien wider.“
  • Anthropic-Gründer Dario Amodei hat auf die Einstufung seines Unternehmens als Sicherheitsrisiko reagiert. In einem Interview mit CBS spricht er von einem beispiellosen Vorgang: „Diese Einstufung hat es noch nie zuvor bei einem amerikanischen Unternehmen gegeben. Und ich denke, es wurde in einigen ihrer Erklärungen, in ihrer Wortwahl, sehr deutlich, dass dies vergeltend und strafend war. Meinungsverschiedenheiten mit der Regierung sind das Amerikanischste auf der Welt.“

OpenAI droht Imageschaden

Die Entscheidung, mit der US-Regierung zusammenzuarbeiten, könnte OpenAI teuer zu stehen kommen. Denn bereits nachdem bekannt wurde, dass die KI-Modelle von Anthropic bei der Entführung des venezolanischen Diktators Maduro zum Einsatz kamen, erlitt der Konkurrent einen Imageschaden.

Ob die Intervention des US-Militärs in Venezuela im Einklang mit der Verfassung war, steht aber noch in Frage. Eigentlich hätte dieser Fall OpenAI ein lehrendes Beispiel sein können. Doch stattdessen vertraut man blind den Versprechen der US-Administration. Offenbar vor allem deshalb, weil OpenAI nach wie vor defizitär ist und händeringend nach Geldgebern sucht.

Falls dem Unternehmen jedoch ein Anthropic-Moment wie in Venezuela ereilen sollte, könnte die Nutzerbasis erheblich bröckeln – sofern sie das nicht ohnehin schon tut. Denn bereits nachdem bekannt wurde, dass die KI-Modelle von OpenAI von der höchst umstrittenen Einwanderungsbehörde ICE genutzt wurden, flammte eine Protestwelle auf.

Unter dem Hashtag QuitGPT wurden Nutzer dazu aufgefordert, ihr ChatGPT-Abo zu kündigen und die Plattform nicht mehr zu nutzen. Aufgrund des neuen Deals mit dem Pentagon keimt dieser Protest nun weiter aus.

Auch interessant:

Der Beitrag KI-Streit im Weißen Haus: OpenAI vertickt ChatGPT ans US-Militär erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Protest wirkt: Sam Altman gibt zu, dass Pentagon-Deal "schlampig" war

03. März 2026 um 08:40
Künstliche Intelligenz, OpenAI, ChatGPT, Ceo, Monitor, Abonnement, Büro, Kündigung, Illustration, Sam Altman, Karikatur, KI-Unternehmen, Tech-Startup, Kündigungswelle, Abo-Kündigung OpenAI-Chef Sam Altman bezeichnet den jüngsten Vertrag mit dem US-Militär als "schlampig und opportunistisch". Nach einer Welle von Deinstallationen bei ChatGPT rudert das Unternehmen nun zurück und verspricht vertragliche Nachbesserungen gegen Überwachung. (Weiter lesen)

ChatGPT-Nutzer fliehen nach Pentagon-Deal in Scharen: Was OpenAI-Chef Altman jetzt sagt

03. März 2026 um 12:30
Nach dem Deal mit dem US-Verteidigungsministerium steht OpenAI in der Kritik. Viele ChatGPT-Nutzer:innen kündigen ihre Abos, der wi­der­stän­dige Rivale Anthropic verzeichnet Rekordzuwächse. Jetzt meldet sich OpenAI-CEO Sam Altman zu Wort.weiterlesen auf t3n.de

Wegen Pentagon-Streits: Claude-App stürmt die App-Download-Charts

02. März 2026 um 11:07
Anthropic, Claude, Claude AI Der KI-Chatbot Claude hat die Spitze der US-App-Charts erobert und ChatGPT (das nun boykottiert wird) verdrängt. Auslöser ist ein Konflikt mit dem Pentagon, da sich Anthropic weigerte, ethische Sicherheitsmechanismen für das Militär zu lockern. (Weiter lesen)

Pentagon-Deal spaltet die KI-Branche: Warum User von ChatGPT zu Claude wechseln

02. März 2026 um 13:45
Anthropic gibt dem Pentagon einen Korb, OpenAI nicht. Das hat Auswirkungen auf die Popularität der KI-Tools. Claude erlebt einen Höhenflug und fördert ihn mit Memory-Import. Brisant ist die Diskussion um den Einsatz der KI durch die USA auch durch den jüngsten Militäreinsatz im Iran.weiterlesen auf t3n.de

Warum High-Performer ChatGPT wie einen Kollegen behandeln – statt wie ein Tool

28. Februar 2026 um 14:50
Stanford-Professor Jeremy Utley ist der Überzeugung, dass KI-Chatbots wie ChatGPT ihr Potenzial als Ideengeber und Kreativitätsbooster nur dann entfalten können, wenn man sie als Kolleg:innen behandelt. Eine fünfminütige Übung soll dabei helfen.weiterlesen auf t3n.de

❌