Entwicklung & Code
OpenAI veröffentlicht neue offene Modelle
OpenAI hat am Dienstagabend mit gpt-oss-120B und gpt-oss-20B zwei Open-Weight-Reasoning-Modelle veröffentlicht. Bereits im März hatte OpenAI-Chef Sam Altman die ersten Open-Weight-Modelle seit GPT-2 in Aussicht gestellt. Im Juli wurde die Veröffentlichung dann aus Sicherheitsbedenken aber um unbestimmte Zeit verschoben. Anders als geschlossene Modelle wie GPT-4 oder o4-mini enthalten offene Modelle auch die trainierten Parameter, was Dritten den Betrieb auf eigener Infrastruktur ermöglicht.
Nach Angaben von OpenAI erreicht gpt-oss-120B in zentralen Benchmarks die Leistung von OpenAIs Reasoning-Modell o4-mini, laufe dabei aber auf nur einer einzigen 80 -GB-GPU. gpt-oss-20B liefere indessen starke Reasoning-Fähigkeiten auf einem 16 GB-Edge-Gerät. Reasoning-Modelle sind speziell darauf trainiert, komplexe logische Schlussfolgerungen zu ziehen, mehrstufige Probleme zu lösen und ihre Denkprozesse explizit darzulegen.
Neues Sicherheitsprotokoll entwickelt
Offene Modelle sind auch für den Einsatz in Hochsicherheitsumgebungen interessant, da sie lokal betrieben werden können. Allerdings sind auch bei den Modellen selbst die Sicherheitsanforderungen höher, da diese nach Freigabe – anders als geschlossen betriebene Modelle – nicht zurückgenommen werden können. OpenAI-Chef Sam Altman hatte im Juli offenbar noch Bedenken und erklärte, es seien zusätzliche Sicherheitstests notwendig. Im Zuge der jetzigen Veröffentlichung erklärte das Unternehmen, dass die Modelle mit einem neuen Sicherheitsstandard entwickelt worden seien.
Dieses “Worst-Case-Fine-Tuning”-Protokoll simuliere böswillige Nutzung in den Bereichen Biologie und Cybersicherheit, dürfte also darauf abzielen, zu verhindern, dass das Modell für den Waffenbau oder Cyberattacken missbraucht wird. Externe Experten hätten die Methodik überprüft und OpenAI macht zudem Evaluierungscode, Prompts und Bewertungsrichtlinien öffentlich.
“Geprägt von demokratischen Werten”
Zusammen mit der Veröffentlichung der neuen Modelle wurden auch Entwicklungshandbücher und Tools bereitgestellt, um die Modelle für die eigenen Bedürfnisse anzupassen und Schutzmechanismen zu implementieren. Sie werden unter der Apache-2.0-Lizenz veröffentlicht und können unter anderem in Hugging Face, vLLM, Ollama und llamaa.cpp integriert werden.
OpenAI-Chef Altman erklärte anlässlich der Veröffentlichung, dass die Welt “künftig auf einem offenen KI-Stack aufbauen kann – entwickelt in den USA, geprägt von demokratischen Werten, kostenlos zugänglich und zum breiten Nutzen aller.” Die Aussage kann als Anspielung auf chinesische Open-Weight-Modelle verstanden werden, die sich nach ihrer Veröffentlichung großer Beliebtheit erfreuten, aber zugleich Kritiker auf den Plan riefen. So sei das Trainingsmaterial darauf abgestimmt, Fragen im Sinne der chinesischen Regierung zu beantworten. Historische Ereignisse wie auf dem Tian’anmen-Platz verschweige die KI.
(mki)