Künstliche Intelligenz

GPT-5: OpenAI veröffentlicht neues Sprachmodell für ChatGPT


OpenAI veröffentlicht am Donnerstagabend sein neues Sprachmodell GPT-5. Das neue Modell soll zuverlässiger antworten und weniger halluzinieren als seine Vorgänger. Zudem könne es Fachfragen auf Expertenniveau beantworten, erklärt das Unternehmen. Als Beispiele nannte OpenAI unter anderem auch Aufgaben in Risikobereichen wie dem Finanz- und Gesundheitswesen.

Bei einem Videocall für die Presse demonstrierten OpenAI-Mitarbeiter bereits einige Fähigkeiten des neuen Modells. So ließen sie es auf einen Prompt eine Web-App programmieren. Wenn man den gleichen Prompt mehrfach eingab, kam jedes Mal eine andere App mit einer anderen Bedienoberfläche heraus.

Musste man bei GPT-4 noch je nach Aufgabe zwischen verschiedenen Modellvarianten wählen, so vereint GPT-5 alles unter einer Haube. ChatGPT gewährt Kunden ohne Bezahlabo Zugriff auf GPT5-5 inklusive der Reasoning-Funktionen. Allerdings werde die Zahl der Fragen limitiert, die man dem Modell stellen kann. Das Plus-Abo für 23 Euro im Monat gewährt ein deutlich höheres Kontingent. Pro-User, die monatlich das Zehnfache bezahlen, könnten dem Modell beliebig viele Fragen stellen und bekommen laut OpenAI exklusiven Zugriff auf eine Pro-Version von GPT-5. Daneben soll es auch abgespeckte Varianten namens mini und nano geben, die schneller und billiger antworten.

Das Kontextfenster gibt OpenAI mit 256.000 Token an. Nutzer, die längere Texte mit bis zu einer Million Token verarbeiten müssen, können weiterhin GPT-4.1 nutzen. Mit zwei neuen Parametern namens „reasoning“ und „verbosity“ könnten Entwickler steuern, wie gründlich GPT-5 über seine Antworten sinniert und wie ausführlich das Modell antwortet. Damit könne man den Umfang, Zeitbedarf und Preis der Ausgaben beschränken, die bei der API-Nutzung pro Token abgerechnet werden. Die Preise belaufen sich auf 1,25 US-Dollar für eine Million Input-Token und 10 US-Dollar für eine Million Output-Token. Zum Vergleich: Der europäische Anbieter Mistral verlangt lediglich 6 US-Dollar für eine Million Token seines größten Modells, der chinesische Anbieter Deepseek für R1 sogar nur 2,19 US-Dollar.

In den Antworten soll sich GPT-5 weniger anbiedern als GPT-4 und Themen, die die Content-Filter ausklammern, im Rahmen des Erlaubten beantworten. Laut OpenAI hätte ein externer Dienstleister das Modell 5000 Stunden auf Sicherheitsprobleme abgeklopft (Red Teaming) – eine Zahl, die angesichts der Komplexität eines Sprachmodells niedrig wirkt.

Verschiedene US-Firmen bekamen offenbar vorab Zugriff auf GPT-5. So berichtet OpenAI, dass die private Krankenversicherung Oscar Health bereits Anträge seiner Versicherten mit GPT-5 prüfe. Das Transportunternehmen Uber bediene sich GPT-5 beim Customer Support. GitLab, Windsurf und Cursor setzten GPT-5 bei der Software-Entwicklung ein und die spanische Bank BBVA nutze das neue Modell bereits für ihre Finanzanalysen. Als weitere Unternehmen, die GPT-5 vor Veröffentlichung im Einsatz hätten, zählte OpenAI das Biotechnik-Unternehmen Amgen, das Einzelhandelsunternehmen Lowe’s und den Software-Entwickler Notion auf.

Beachtlich ist, dass diese Firmen offenbar ein nagelneues, bislang unveröffentlichtes und ungeprüftes Modell auch in kritischen Bereichen wie der Gesundheitsversorgung und dem Finanzwesen einsetzen, für das noch keine unabhängige Evaluierung vorliegt. Laut OpenAI soll GPT-5 potenzielle Gesundheitsprobleme erkennen, Rückfragen stellen und bei seinen Antworten auch den Standort des Nutzers einbeziehen. In Europa wäre ein solcher Einsatz allein schon aus Datenschutzgründen problematisch, wenn Firmen Kundendaten mit OpenAI teilen. Denn anders als die kürzlich vorgestellten Open-Weight-Varianten von GPT-4 läuft GPT-5 nur auf den Servern von OpenAI. Vorsicht ist ebenfalls geboten, wenn man GPT-5 wie von OpenAI vorgesehen mit Google-Konten, inklusive GMail, Kontakten und Kalender verbindet.

In einem Werbestatement lobte Michael Turell, Chef des Programmier-Editors Cursor, das neue Sprachmodell: Es könne selbst tief versteckte Bugs in Code aufspüren. In einer zuvor von der Non-Profit-Organisation Model Evaluation & Threat Research (METR) veröffentlichten Studie kam noch heraus, dass Programmierer 20 Prozent langsamer arbeiteten, wenn sie mit Cursor und den LLMs Claude 3.5 und 3.7 Sonnet codeten. Von dem Code, den die Modelle von Anthropic generierten, war über die Hälfte unbrauchbar. Man muss unabhängige Studien abwarten, ob GPT-5 hier tatsächlich bessere Ergebnisse liefert.

Grundsätzliche Informationen, etwa zur Modellgröße, zum Trainingsaufwand und zum Energiebedarf von GPT-5 gab OpenAI vorab nicht bekannt. Fragen dazu sollen in Kürze in einem Livestream zu GPT-5 sowie einem Developer-Blog beantwortet werden, darunter auch die Modell-Karte von GPT-5.


(hag)



Source link

Beliebt

Die mobile Version verlassen