Zu gefährlich? Anthropic hält die KI Claude Mythos unter Verschluss
Der Beitrag Zu gefährlich? Anthropic hält die KI Claude Mythos unter Verschluss erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

OpenAI-Konkurrent Anthropic hat ein neues KI-Modell entwickelt, das eine 27 Jahre alte Sicherheitslücke in einem Betriebssystem entdeckt hat, das eigentlich als besonders sicher gilt. Claude Mythos soll nun Schwachstellen in der Software von Unternehmen wie Microsoft, Amazon oder Apple aufspüren. Anthropic macht das Modell aber nicht öffentlich zugänglich, da es zu gefährlich sei. Eine kommentierende Analyse.
Was ist Claude Mythos?
- Das KI-Modell Claude Mythos soll laut Anthropic so gut darin sein, bisher unentdeckte Software‑Schwachstellen zu finden, dass es in den falschen Händen zu einer verheerenden Cyberwaffe werden könnte. Das Unternehmen will es deshalb nicht öffentlich zugänglich machen. Unter dem Namen Project Glasswing
sollen lediglich Unternehmen Zugang zu der KI erhalten, um Sicherheitslücken in ihrer Software aufspüren zu können. - Anthropic zufolge gelang es Claude Mythos bereits, tausende schwerwiegende Software‑Schwachstellen zu entdecken. Darunter: eine 27 Jahre alte Sicherheitslücke in dem Betriebssystem OpenBSD, das als besonders sicher gilt, sowie eine seit 13 Jahren schlummernde Schwachstelle in der Videosoftware FFmpeg.
- Die KI soll in der Lage gewesen sein, binnen weniger Stunden Programme zu entwickeln, um identifizierte Schwachstellen auszunutzen. Experten würden dafür mehrere Wochen brauchen. Laut einem
Anthropic‑Mitarbeiter wurde eine frühere Version von Claude Mythos mit der Aufgabe betraut, aus einer abgeschirmten Computer‑Umgebung auszubrechen und darüber zu berichten. Der KI sei es gelungen, Sicherheitsvorkehrungen zu umgehen und sich einen Zugang zum Internet zu verschaffen, um dem Mitarbeiter eine E-Mail zu schicken, während dieser ein Sandwich im Park gegessen haben soll.
Sicherheits-KI oder Marketing-Coup?
Nahezu jede Schlagzeile, in der auch nur ein Hauch von KI vorkommt, prophezeit entweder die nächste Wunderwaffe oder den Weltuntergang. Auch um Claude Mythos wabert dieser altbekannte Cocktail aus Faszination und Furcht. Stets kräftig geschüttelt, aber nicht gerührt; von einer KI‑Branche, die vor allem von Aufmerksamkeit lebt.
Was bleibt ist wie so oft ein Nebel aus Behauptungen, der sich von außen kaum bis gar nicht überprüfen lässt. Anthropic hat sich im Gegensatz zu OpenAI jedoch geschickt ein verantwortungsvolles Image aufpoliert. Dass sich das Unternehmen dem US‑Militär verweigert und nicht alle seine Modelle der Öffentlichkeit preisgibt, mag vielleicht ehrenwert wirken, ist jedoch schlichtweg Unternehmensstrategie.
Denn: KI lässt sich im unternehmerischen Bereich besser monetarisieren, während der Kosten‑Nutzen‑Faktor für die Öffentlichkeit immer schleierhafter wird. Stichwort: Deepfakes, Desinformation, Energieverbrauch oder Suchtverhalten. Zugegeben: Die KI‑Modelle von Anthropic haben sich bislang vor allem im IT‑ und Datenschutzbereich bewährt.
Deshalb ist das Unternehmen aber nicht vor pompösen Marketingkampagnen gefeit. Unbestritten ist, dass Modelle wie Mythos reale Probleme lösen, Sicherheitslücken schneller finden, Schaden begrenzen, digitale Infrastrukturen stabilisieren könnten. Doch die eigentliche Ironie liegt woanders: Während KI als Werkzeug zur Gefahrenabwehr gefeiert wird, ist sie längst selbst Teil des Problems geworden. Der Unterschied zwischen Schutzschild und Einfallstor schrumpft – und die öffentliche Debatte kommt kaum hinterher.
Was Experten und Anthropic-Chef Amodei sagen
- Anthropic‑Chef Dario Amodei in einem Beitrag auf X: „Ich bin stolz darauf, dass sich so viele weltweit führende Unternehmen dem Projekt Glasswing angeschlossen haben, um den Cyberbedrohungen durch immer leistungsfähigere KI‑Systeme entschlossen entgegenzutreten.“ In einem zweiten Post ergänzte er: „Die Gefahren, die mit einem Fehlschlag verbunden sind, liegen auf der Hand. Doch wenn wir es richtig angehen, bietet sich uns eine echte Chance, ein Internet und eine Welt zu schaffen, die grundlegend sicherer sind als vor dem Aufkommen KI‑gestützter Cyberfähigkeiten.“
- Elia Zaitsev, Chief Technology Officer bei Anthropic‑Partner Crowdstrike, in einem Statement: „Das Zeitfenster zwischen der Entdeckung einer Sicherheitslücke und ihrer Ausnutzung durch einen Angreifer ist geschrumpft – was früher Monate dauerte, geschieht heute dank KI innerhalb von Minuten. Claude Mythos Preview zeigt, welche Möglichkeiten sich Verteidigern heute in großem Maßstab bieten, und Angreifer werden unweigerlich versuchen, dieselben Fähigkeiten auszunutzen.“
- KI‑Experte und Neurowissenschaftler Gary Marcus zitiert in einem Blogbeitrag eine SMS eines befreundeten Cyberexperten: „Ich hatte noch keine Zeit, alle Berichte durchzugehen, aber für mich klingt das nach einem übertriebenen Hype. Ich zweifle nicht an einigen der Ergebnisse, aber was daraus gemacht wurde, unter welchen Bedingungen die Schwachstellen gefunden wurden und welche Rolle Menschen dabei spielten, ist unklar. (…) Mir scheint, sie säen Samen im Garten des Hypes.“
Wer kontrolliert KI wie Claude Mythos – CEOs oder der Staat?
Ob die neue Anthropic‑KI nun ein digitaler Superspürhund oder doch eher ein gut vermarkteter Mythos ist, wird fast zur Nebensache. Entscheidend ist vielmehr, wer künftig darüber entscheidet, was solche Systeme dürfen und was nicht. Derzeit sind es vor allem die Tech‑CEOs, die diese Grenze ziehen. Demokratisch legitim ist daran ungefähr so viel wie an den AGB von X oder Meta.
Das größere Problem: Die Grenzen zwischen berechtigter Sorge und kalkulierter Panik verschwimmen immer mehr. Doch wenn Risiko zugleich Marketinginstrument ist, wird jede Warnung doppeldeutig. Genau hier rächt sich auch die jahrelange Erzählung, Regulierung sei innovationsfeindlich.
Denn: Aktuell offenbart sich immer mehr, dass dies eine bequeme These ist, die nun von der Realität überholt wird. Selbst dort, wo Regulierung existiert, wirkt sie wie ein Faxgerät im Zeitalter autonomer Systeme: funktional, aber hoffnungslos langsam. Indes: Während die Politik noch KI‑Leitplanken entwirft, bauen Unternehmen längst neue Datenautobahnen.
Ob Claude Mythos nun so gefährlich ist wie behauptet oder nicht: Tatsache ist, dass wir ohne staatliche Kontrollen vollständig der Willkür einzelner CEOs ausgeliefert sind, von denen einige unser Vertrauen ganz sicher nicht verdient haben. Während Anthropic noch einer der verantwortungsvollsten Player im KI‑Wettstreit zu sein scheint, agieren andere Unternehmen wie OpenAI oder xAI mit vergleichbaren KI‑Modellen künftig vielleicht anders.
Auch interessant:
- E-Autojahr 2026: Lohnt sich ein gebrauchtes Elektroauto jetzt wirklich?
- Klimageld: 320 Euro pro Person gestrichen – was stattdessen kommt
- Niantic baut mit Pokémon-Go-Daten KI-Karten für Roboter
- Europa im KI-Dilemma: Was passiert, wenn die Blase platzt?
Der Beitrag Zu gefährlich? Anthropic hält die KI Claude Mythos unter Verschluss erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.






