Claude Mythos ist Anthropics neues Spitzenmodell. Weil die internen Tests zeigten, dass es zu leistungsfähig beim Entdecken und Ausnutzen von Sicherheitslücken ist, stellt es Anthropic aktuell nur als Vorschau für einen ausgewählten Kreis von Organisationen bereit. Diese sollen die Möglichkeit haben, Systeme abzusichern.
Dieses Sicherheitsprojekt läuft unter dem Titel Glasswing. Beteiligt sind Unternehmen und Dienste wie Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, die Linux Foundation, Microsoft, Nvidia und Palo Alto Networks. Zugang zu Claude Mythos haben zudem 40 weitere Gruppen, die kritische Infrastruktur betreiben.
Abgesichert werden sollen auf diese Weise auch Open-Source-Systeme. Organisationen, die sich um Open-Source-Sicherheit kümmern, erhalten von Anthropic direkt 4 Millionen US-Dollar. Insgesamt werden den Partnern beim Project Glasswing Computing-Kapazitäten zur Verfügung gestellt, die bis zu 100 Millionen US-Dollar wert sind.
Neu: Claude Mythos findet Sicherheitslücken und entwickelt direkt Exploits
Die Fortschritte, die Anthropic bei Claude Mythos beschreibt, sind bemerkenswert. Grundsätzlich handelt es sich um ein normales KI-Modell, das auf das bisherige Spitzenmodell Opus 4.6 folgt. Im Bereich der IT-Sicherheit wurde laut Anthropic aber eine Schwelle überschritten. „Mythos Vorschau hat bereits Tausende von Sicherheitslücken mit hohem Schweregrad entdeckt, darunter auch einige in allen gängigen Betriebssystemen und Webbrowser“, heißt es in der Mitteilung.
Dazu zählt etwa eine 27 Jahre alte Sicherheitslücke im Betriebssystem OpenBSD, das als besonders sicher gilt. Angreifer sollen durch die Schwachstelle aber die Möglichkeit gehabt haben, OpenBSD-Systeme allein durch einen Remote-Zugriff zum Absturz zu bringen. Bei FFmpeg entdeckte das KI-Modell eine 16 Jahre alte Sicherheitslücke in einem Code-Bereich, den automatisierte Test-Tools bereits fünf Millionen Mal geprüft haben. Und beim Linux-Kernel entdeckte Claude Mythos mehrere Schwachstellen und verknüpfte sie autonom zu einem Exploit, der es Angreifern ermöglicht, von gewöhnlichen Zugriffsrechten zur vollen Kontrolle eines Systems zu springen.
Details zu den autonom entdeckten Sicherheitslücken und Exploits beschreibt Anthropics Red Team in einem Blog-Beitrag.
Firefox zeigt, wie schnell sich die Modelle verbessern
Vor allem das autonome Entwickeln der Exploits unterscheidet Mythos von den Vorgängern. Ein Beispiel ist das Sicherheitsprojekt bei Firefox. Anthropic hatte im Winter mit Mozilla kooperiert, um mit Opus 4.6 autonom Schwachstellen im Browser zu entdecken. Das bisherige Spitzenmodell war aber praktisch noch nicht in der Lage, diese Sicherheitslücken in Exploits zu übersetzen. Das ändert sich nun.
- Sicherheitsanalyse mit KI: Anthropics Opus 4.6 findet 22 Sicherheitslücken in Firefox
Bei den in der JavaScript-Enginge von Firefox 147 entdeckten Sicherheitslücken brauchte Opus 4.6 noch mehrere Hundert Anläufe, um zwei Exploits zu entwickeln. Mit Firefox 148 wurden all diese Schwachstellen bereits behoben. Anthropic nutzte aber die Erkenntnisse als Benchmark für die Vorschau-Version von Mythos. Das Resultat: Es wurden 181 funktionierende Exploits entwickelt und in 29 weiteren Fällen die Registerkontrolle erreicht.
Claude Mythos nicht für die Allgemeinheit
Aktuell plant Anthropic nicht, die Vorschau von Claude Mythos allgemein bereitzustellen. Details zum Modell werden aber in der Systemcard beschrieben. Das langfristige Ziel ist laut Anthropic allerdings, Nutzern die Modelle mit einer solchen Leistungsstärke neben dem Bereich Cybersicherheit auch für weitere Anwendungsbereiche bereitzustellen.
Generell gehe es jetzt zunächst um das Entwickeln neuer Sicherheitsvorkehrungen. Die Ergebnisse will man in die kommenden Claude-Opus-Modelle integrieren.
Entwickler registrieren Wandel bei den AI-Sicherheitshinweisen
Entwickler und IT-Sicherheitsexperten bemerken schon länger einen Wandel. Zu erklären, dass „das neue Modell zu gefährlich ist“, bezeichnet etwa der Entwickler Simon Willison als einen Weg, um das Interesse zu wecken, hält die Vorsicht in diesem Fall aber für gerechtfertigt. Er verweist auf populäre Entwickler wie Greg Kroah-Hartman vom Linux-Kernel und Daniel Sternberg von cURL, die beide schon in den letzten Tagen erklärten, dass die Welle an AI-Slop-Reports sich in kurzer Zeit zu etwas gewandelt haben, was echten Sicherheitshinweisen entspricht.
Dass die Modelle leistungsfähiger werden, ist auch in weiteren Bereichen sichtbar. ComputerBase hat die Erfahrungen mit Anthropics KI-Agenten Claude Code in einem Langzeittest analysiert.