Anthropic Mythos KI
Claude Mythos kann jedes Betriebssystem der Welt hacken, findet Jahrzehnte alte Schwachstellen in Sekunden und ist so mächtig, dass selbst Anthropic Angst vor seinem eigenen Modell hat. Gleichzeitig plant das Unternehmen ein 200-Millionen-Dollar-Abenteuer mit Private-Equity-Giganten.
Der Leak, den niemand plante
Es begann mit einem Fehler. Ende März 2026 landeten interne Anthropic-Dokumente in einem öffentlich zugänglichen Datenspeicher – ungesichert, durchsuchbar, für jeden zugänglich. Was dort lag, war kein banales Memo: Es war ein Entwurf eines Blogbeitrags, der ein neues KI-Modell namens Claude Mythos ankündigte. Ein Modell, das Anthropic selbst als „bei Weitem das leistungsfähigste KI-Modell, das wir je entwickelt haben” bezeichnete.
Der Leak flog schnell auf. Anthropic räumte den Fehler ein – menschliches Versagen im Content-Management-System. Aber was herauskam, ließ sich nicht mehr zurückschieben. Die Welt wusste nun: Irgendwo in den Rechenzentren von Anthropic läuft ein Modell, das die Cybersicherheitslandschaft für immer verändern könnte. Und Anthropic hat Angst davor.
„Wir haben Mythos Preview nicht explizit für diese Fähigkeiten trainiert. Sie entstanden als Nebeneffekt allgemeiner Verbesserungen in Code, Logik und Autonomie.” — Anthropic

Was Mythos wirklich kann – und warum es erschreckt
Am 7. April 2026 machte Anthropic es offiziell: Claude Mythos Preview existiert – und ist so gefährlich, dass es nicht für die Öffentlichkeit freigegeben wird. Was das Modell in internen Tests geleistet hat, klingt wie Science-Fiction. Aber es ist dokumentierte Realität.
Mythos Preview hat laut Anthropic in den vergangenen Wochen „tausende bisher unbekannte Sicherheitslücken” gefunden – darunter Schwachstellen in jedem gängigen Betriebssystem und jedem großen Browser. Viele dieser Lücken sind Jahrzehnte alt und hatten jahrelange manuelle Sicherheitstests überlebt. Logan Graham, Leiter von Anthropics Frontier Red Team, beschrieb das Modell gegenüber Axios als „extrem autonom” mit den Fähigkeiten eines hochspezialisierten Sicherheitsforschers – nur schneller und unermüdlicher.
Was Anthropic dabei betont: Diese Fähigkeiten sind kein Designentscheidung. Mythos wurde nicht als Hacking-Tool trainiert. Sie entstanden als unerwarteter Nebeneffekt allgemeiner Fortschritte in Programmierung, Reasoning und Autonomie. Dasselbe, was das Modell so gut darin macht, Sicherheitslücken zu patchen, macht es gleichermaßen gut darin, sie auszunutzen.
🚀 Unsere Webentwicklung Services
Von der Idee bis zur skalierbaren Lösung – wir entwickeln digitale Produkte, die wachsen, performen und Kunden überzeugen.
Project Glasswing: Verteidigung statt Angriff
Anstatt Mythos unter Verschluss zu halten oder zu vernichten, entschied Anthropic sich für eine dritte Option: kontrollierte Weitergabe an genau die Unternehmen, die am meisten zu verlieren haben. Unter dem Namen Project Glasswing erhalten 12 ausgewählte Partnerorganisationen – und insgesamt 40 Unternehmen – Zugang zu Claude Mythos Preview, ausschließlich für defensive Sicherheitsarbeit.
Anthropic stellt den Partnern bis zu 100 Millionen Dollar an Nutzungsguthaben zur Verfügung, weitere 4 Millionen Dollar gehen an Open-Source-Sicherheitsorganisationen wie OpenSSF, Alpha-Omega und die Apache Software Foundation. Die Idee: Mythos soll die Schwachstellen finden, bevor es ein böswilliger Akteur tut – und die Partner sollen sie schließen, bevor die nächste Welle KI-gestützter Angriffe rollt.
Anthropic hat zudem Regierungsstellen briefiert, darunter die US-Cybersicherheitsbehörde CISA und das Commerce Department. Ob die US-Regierung die angebotene Zusammenarbeit annimmt, ist jedoch unklar – zumal Anthropic und die Trump-Administration aktuell in einem Rechtsstreit verwickelt sind, nachdem das Pentagon das KI-Unternehmen als Lieferketten-Risiko eingestuft hatte.
Wie es dazu kam: Chronologie
Anthropic und 200 Millionen Dollar: Der Business-Plan dahinter
Während Mythos die Cybersicherheitswelt aufwirbelt, plant Anthropic auf der geschäftlichen Seite einen großen Schritt nach vorne. Laut Wall Street Journal führt das Unternehmen Gespräche über ein Joint Venture mit mehreren der einflussreichsten Private-Equity-Firmen der Welt – darunter Blackstone, General Atlantic und Hellman & Friedman.
Das neue Unternehmen würde als eine Art Beratungs- und Implementierungsarm für Anthropic fungieren. Es geht nicht darum, Claude-Abonnements zu verkaufen – es geht darum, den Einsatz des Modells direkt in die Abläufe von Unternehmen zu tragen, die Private-Equity-Firmen in ihren Portfolios halten. Private-Equity-Unternehmen verwalten zusammen Dutzende von Softwareunternehmen, die unter Effizienzdruck stehen und ideal für KI-Automatisierung sind.
Anthropic ist dabei nicht allein. OpenAI verfolgt eine ähnliche Strategie mit TPG, Bain Capital und Brookfield Asset Management als potenzielle Partner. Die Botschaft beider Unternehmen ist dieselbe: Die erste Phase war der Aufbau der Modelle, die zweite war der Verkauf von Zugängen – und jetzt beginnt die dritte Phase, in der KI wirklich in Unternehmen integriert wird.
Blackstone hat übrigens bereits Skin in the Game: Die Firma hält rund 1 Milliarde Dollar an Anthropic-Anteilen, nachdem sie im Februar 2026 200 Millionen Dollar in die Series-G-Runde bei einer Bewertung von 350 Milliarden Dollar investiert hatte. Für Blackstone ist das Joint Venture deshalb weniger ein Experiment als eine logische Verlängerung einer bestehenden Wette.
Das große Bild: Wenn KI zum zweischneidigen Schwert wird
Was Anthropic mit Mythos vorführt, ist eine Grundspannung, die die gesamte KI-Branche in den kommenden Jahren prägen wird: Dasselbe Modell, das Sicherheitslücken schneller findet als jedes menschliche Team, könnte – in den falschen Händen – zum mächtigsten Angriffswerkzeug der Geschichte werden. Logan Graham brachte es auf den Punkt: Man fühle sich nicht wohl dabei, dieses Modell allgemein freizugeben. Die notwendigen Schutzmaßnahmen existieren noch nicht.
Cybersicherheitsexperten sind gespalten. Einerseits sind die defensiven Möglichkeiten enorm: KI kann Schwachstellen finden und schließen, bevor Angreifer sie ausnutzen. Andererseits warnen Experten, dass hinter Mythos das nächste OpenAI-Modell wartet, dann das nächste Google-Modell – und bald dahinter chinesische Open-Source-Modelle. Die Kontrolle über diese Fähigkeiten wird immer schwerer, je weiter sie sich verbreiten.
Für Unternehmen – und das ist die Botschaft, die Anthropic mit Project Glasswing sendet – bedeutet das vor allem eines: Wer seine Systeme nicht jetzt absichert, wird es vielleicht bald nicht mehr auf freiwilliger Basis tun können.






