Künstliche Intelligenz

Nach Anthropic Mythos: OpenAI kündigt GPT-5.4-Cyber an


Nachdem Anthropic mit dem KI-Modell Mythos in den vergangenen Tagen bis in höchste US-Regierungskreise für Aufregung gesorgt hat, stellt OpenAI nun ein eigenes, auf defensive Sicherheitsaufgaben zugeschnittenes Modell vor: GPT-5.4-Cyber.

Weiterlesen nach der Anzeige

Der Zugang ist eingeschränkt und erfolgt über das im Februar gestartete Programm Trusted Access for Cyber (TAC). OpenAI will es in den kommenden Wochen auf tausende verifizierte Sicherheitsforscher sowie hunderte Teams, die für den Schutz kritischer Software verantwortlich sind, ausweiten. Außerdem soll das Programm um zusätzliche Zugriffsstufen erweitert werden. In den höchsten Stufen wird GPT-5.4-Cyber freigeschaltet, eine speziell angepasste Variante mit weniger Sicherheitsbeschränkungen und erweiterten Funktionen, darunter Reverse-Engineering-Fähigkeiten, die die Analyse fertiger Programme ohne Quellcode ermöglichen, schreibt OpenAI.

Die Einführung soll schrittweise erfolgen, zudem könnten je nach Einsatz Einschränkungen gelten. Der Zugang zu TAC erfolgt über eine Identitätsprüfung für Einzelpersonen oder auf Anfrage für Unternehmen.

Ergänzend verweist OpenAI auf Codex Security, einen seit Monaten getesteten Sicherheitsagenten, der Codebasen automatisch überwacht, Schwachstellen identifiziert und Reparaturvorschläge macht. Seit dem Start als Forschungsvorschau soll das System zu mehr als 3000 behobenen kritischen und schwerwiegenden Sicherheitslücken beigetragen haben.

OpenAI sieht GPT-5.4-Cyber als ersten Schritt hin zu weiteren speziell auf Cybersicherheit zugeschnittenen KI-Modellen. Die derzeitigen Schutzmechanismen hält das Unternehmen für ausreichend, um aktuelle Modelle breiter zugänglich zu machen, während eigens für Cybersicherheitsarbeit gelockerte Varianten zunächst unter strengeren Kontrollen bleiben sollen. Langfristig geht OpenAI davon aus, dass für noch leistungsfähigere Modelle deutlich umfangreichere Schutzmaßnahmen nötig werden.

Die Ankündigung folgt eine Woche auf die Vorstellung von Anthropics KI-Modell Mythos, das die Firma wegen seines hohen Missbrauchspotenzials zunächst nicht breit freigibt. Anthropic zufolge hat das Modell bereits tausende Zero-Day-Schwachstellen in großen Betriebssystemen, Browsern und weiterer kritischer Software identifiziert. Über die Initiative „Project Glasswing“ erhalten deshalb zunächst nur ausgewählte Unternehmen und Organisationen Zugriff, um kritische Software abzusichern, bevor vergleichbare Fähigkeiten breiter verfügbar werden. Zu den Beteiligten zählen Apple, Google, Microsoft und Nvidia. OpenAI nennt in seiner Ankündigung keine Partner.

Weiterlesen nach der Anzeige

Sollten sich die Mythos zugeschriebenen Fähigkeiten bestätigen, könnten solche KI-Modelle die Regeln der Cybersicherheit grundlegend verändern, mit Folgen weit über die IT-Branche hinaus. Dass bereits das US-Finanzministerium, die Notenbank und Großbanken alarmiert wurden, unterstreicht die mögliche Tragweite für kritische Infrastrukturen und die Finanzstabilität.


(tobe)



Source link

Beliebt

Die mobile Version verlassen