Connect with us

Apps & Mobile Entwicklung

Neues Spitzenmodell für ChatGPT: OpenAI verbessert GPT-5.4 bei autonomer Computersteuerung


Neues Spitzenmodell für ChatGPT: OpenAI verbessert GPT-5.4 bei autonomer Computersteuerung

Bild: OpenAI

OpenAI hat mit GPT-5.4 ein neues Spitzenmodell für ChatGPT vorgestellt. Während das erst zwei Tage zuvor präsentierte GPT-5.3 Instant vor allem die alltäglichen Chatgespräche verbessern soll, bietet GPT-5.4 mehr Leistungsfähigkeit in Bereichen wie Logikaufgaben, Reasoning und Agenten-Funktionen.

So bezeichnet OpenAI das neue Modell auch als „Spitzenmodell für professionelles Arbeiten“. Im Fokus stehen die Fortschritte bei komplexen und mehrstufigen Aufgaben. In Benchmarks wie GDPval, der die Agenten-Performance messen soll, kann sich GPT-5.4 deutlich vom Vorgänger absetzen. Dasselbe gilt für weitere Benchmarks, die OpenAI bereitstellt.

OpenAI setzt auch bei der Kontrolle des Modells an. Wenn man den Thinking-Modus nutzt, soll es bei komplexen Anfragen zunächst einen Plan präsentieren, den Nutzer dann anpassen können. Damit ist es möglich, den Output frühzeitig zu optimieren.

Die Halluzinationsrate hat OpenAI bereits mit GPT-5.3 Instant gesenkt. Mit GPT-5.4 soll die Fehlerrate ebenfalls geringer ausfallen. Optimiert wurde auch die Websuche.

GPT-5.4 im Benchmark-Vergleich
GPT-5.4 im Benchmark-Vergleich (Bild: OpenAI)

State-of-the-Art-Computernutzung

Was OpenAI verbessert hat, ist die Computernutzung. Das Modell kann also besser Tools wie Browser oder Apps steuern. Vergrößert wurde auch das Kontextfenster, das nun bis zu einer Million Token unterstützt. Die Größe des Kontextfensters hat mit den Agenten enorm an Bedeutung gewonnen, weil dieser Wert beschreibt, wie viele Informationen das Modell innerhalb eines Prompts erfassen kann. Weil selbst mittelgroße Projekte schnell in Token-Grenzen laufen, bieten größere Kontextfenster bei mehrstufigen und komplexen Aufgaben einen Vorteil.

Profitieren soll die Alltagsarbeit auch von der erhöhten Effizienz. Im Vergleich zu GPT-5.2 löst GPT-5.4 Probleme mit deutlich weniger Token, was sich in schnelleren Antworten und geringeren Kosten für viele Workloads niederschlägt, heißt es in der Mitteilung von OpenAI.

Bereits in ChatGPT abrufbar

GPT-5.4 ist in ChatGPT als GPT-5.4 Thinking verfügbar, nutzen lässt es sich zudem über die API und das Agenten-System Codex. Zusätzlich stellt OpenAI neue Skills für Codex bereit – also eine Art Plug-in, das Agenten-Fähigkeiten speziell für bestimmte Aufgaben wie Präsentationen optimiert. Geschäftskunden können zudem die aktuelle Variante des Add-ins ChatGPT for Excel nutzen.

Codex-App für Windows verfügbar

Neben GPT-5.4 hat OpenAI auch die Codex-App für Windows veröffentlicht – bislang war OpenAIs Claude-Code-Konkurrent nur für MacOS verfügbar. Nutzer können damit das Agenten-System lokal vom Rechner aus per App starten und steuern, wobei die Modelle selbstverständlich nach wie vor in der Cloud berechnet werden.

Mit der Codex-App ist es laut OpenAI möglich, mehrere Agenten asynchron über verschiedene Projekte auszuführen. Die Fortschritte der Agenten lassen sich individuell prüfen.

Agenten-Systeme wie Codex und Claude richten sich derzeit vor allem noch an Programmierer. Fähigkeiten wie das Automatisieren von Routine-Aufgaben sind aber bereits außerhalb des Coding-Kosmos realisierbar. Ebenso bieten die Systeme Vorteile bei komplexen und mehrstufigen Aufgaben in Bereichen wie Datenanalysen.



Source link

Apps & Mobile Entwicklung

Zähne ausbeißen auf Chinesisch: HBM3 für Made-in-China-Chips von CXMT erneut verschoben


Zähne ausbeißen auf Chinesisch: HBM3 für Made-in-China-Chips von CXMT erneut verschoben

Bild: Huawei

Seit Jahren versuchen sich chinesische Speicherhersteller an High Bandwidth Memory. Die Einführung von modernem HBM3 wird nun jedoch erneut weiter verschoben, während die westliche Welt zu HBM4 wechselt und HBM4e in der Zertifizierung ist. Doch für eigene AI-Lösungen braucht China nun bald mehr.

Bis vor kurzem ging es sich für Huawei & Co noch aus: Dank Bevorratung über Jahre beispielsweise bei Samsung konnten HBM2(e)-Chips auf chinesischen GPUs verbaut werden. Da diese Quelle durch Sanktionen aber trocken gelaufen ist, wurde die Eigenentwicklung forciert. Mit viel Geld vom Staat sollte unter anderem CXMT dafür sorgen, dass HBM3 direkt in China produziert wird. Doch wie in vielen anderen Bereichen läuft Chinas eigene Lösung den westlichen um viele Jahre hinterher.

HBM ist kein Selbstläufer

Nach wie vor scheinen die Probleme bei HBM3 nicht gelöst zu sein. Bereits letzten Herbst hieß es, CXMTs HBM3 werde zu heiß und könne den Takt nicht halten, was wiederum Fragen zur langfristigen Haltbarkeit aufwarf. CXMT kennt die Probleme, da sie auch schon bei schnellerem DDR5-Speicher aufkamen.

Um sie zu lösen, braucht es oft ein Redesign und damit Zeit, wobei das medial bekannteste Beispiel der letzten Jahre ausgerechnet Samsung war: Deren HBM3e galt ursprünglich ebenfalls als zu heiß, war so nicht tauglich für den dauerhaften Einsatz über Jahre hinweg. Erst mit gut anderthalb Jahren Verspätung konnte der Konzern diese Probleme endgültig lösen.

Aus Asien heißt es nun, dass die Produktion von HBM3 vielleicht noch dieses Jahr bei CXMT anlaufe, sodass 2027 erste Produkte damit bestückt werden können – eine erneute deutliche Verspätung also. Im Westen wurden 2022 die ersten Hopper-GPUs von Nvidia mit HBM3 bestückt. Die Lücke von rund fünf Jahren will China aber möglichst verkleinern, Roadmaps etwa von Huawei sahen ab 2027 bereits schnelleren HBM3e respektive ein Gegenstück dazu vor, ab 2028 dann noch schnelleren Speicher.

Huawei könnte mit betroffen sein

Offiziell sagt Huawei, der in Zukunft genutzte HBM sei eine Eigenentwicklung, doch es gibt Hinweise, dass ein Partner involviert ist. Im vierten Quartal 2026 will Huawei den HPC-Beschleuniger Ascend 950DT mit 144 GByte Speicher und einer Bandbreite von 4 TByte/s anbieten – das klingt auf dem Papier wie das Huawei-Pendant zu schnellem HBM2e oder gar erstem HBM3. Spätestens 2027 will Huawei mit dem Ascend 960 schon auf HBM3e setzen, ab 2028 auf HBM4 – so sah es zumindest der Plan im letzten Herbst einmal vor. Was davon Bestand hat, werden die kommenden Monate zeigen.

Ascend-Roadmap
Ascend-Roadmap (Bild: Huaweicentral)



Source link

Weiterlesen

Apps & Mobile Entwicklung

OpenAI Codex: Coding-Assistent soll acht interaktive Avatare erhalten


OpenAI Codex: Coding-Assistent soll acht interaktive Avatare erhalten

Bild: OpenAI

OpenAI steht Berichten zufolge kurz vor der Einführung von acht Avataren für den Coding-Assistenten Codex. Diese sollen Entwickler während Programmier-Sitzungen als „visueller Begleiter“ unterstützen und mit verschiedenen Funktionen bei der Arbeit zur Seite stehen.

Avatare als neue Coding-Begleiter

Dies berichtet aktuell TestingCataloge. Die Avatare sollen als Bildschirm-Overlay erscheinen und auf Fragen in Form von Sprechblasen reagieren. Zum Start werden voraussichtlich acht vordefinierte Varianten bereitgestellt, darüber hinaus sollen sich eigene Begleiter gezielt für die an ihnen gestellten Anforderungen erstellen lassen. Für Entwickler, die während ihrer Arbeit lieber ungestört sind, lässt sich die Funktion in den Einstellungen vollständig deaktivieren.

Aktuell nur für ausgewählte Abonnenten

Die Einführung der Avatare folgt auf die erst kürzlich in Codex integrierte Chronicle-Funktion, die Screenshots laufender Arbeiten erstellt und an einen Hintergrundagenten übermittelt, der aus diesem visuellen Kontext Erinnerungen generieren soll. Aufgrund des damit einhergehenden erhöhten Token-Verbrauchs und bestehender Sicherheitsbedenken in Form von Prompt-Injections wurde der Zugriff bisher bewusst eingeschränkt: Derzeit steht die Funktion ausschließlich Pro-Nutzern auf macOS im Rahmen einer Research-Preview zur Verfügung, während Nutzer aus der EU und dem Vereinigten Königreich generell vorerst ausgeschlossen bleiben.

Acht neue Avatare sollen Programmieren bei Codex künftig zur Seite stehen
Acht neue Avatare sollen Programmieren bei Codex künftig zur Seite stehen (Bild: TestingCatalog)

Kein reiner Coding-Assistent mehr

Laut Bericht deuten beide Funktionen darauf hin, dass sich Codex von einem reinen Programmier-Assistenten zu einem permanenten, persönlichen Desktop-Begleiter entwickelt – in identischer Weise, wie es Konkurrenten wie Anthropic, xAI und Google derzeit ebenfalls verfolgen. Wann die neuen Assistenten die Testphase verlassen, ist noch unklar, erfahrungsgemäß dürfte dies jedoch nicht mehr allzu lange dauern.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Hochgeladene Musik bei Deezer: Nur rund jeder zweite neue Titel nicht KI-generiert


Auf Deezer sind nach Angaben des Dienstes 44 Prozent der hochgeladenen neuen Musikstücke mittlerweile vollständig per KI erzeugt. Diese Entwicklung könnte sich zu einem Problem für die gesamte Branche auswachsen, doch der Anbieter stellt bereits eine Lösung in Aussicht. Konsumenten wünschen sich zudem eine klare Kennzeichnung.

KI-Titel werden immer mehr zum Problem

Da Deezer vollständig mit künstlicher Intelligenz erzeugte Titel für Nutzer transparent kennzeichnen will, setzt die Plattform seit geraumer Zeit auf eigens entwickelte Erkennungstechnologien. Diese basieren auf zwei Patenten zur KI-Detektion und sind seit Anfang 2025 im Einsatz. Nach eigenen Angaben ermöglicht dies, den kontinuierlichen Anstieg rein synthetischer Inhalte auf der Plattform präzise nachzuverfolgen. Allein im Jahr 2025 wurden mehr als 13,4 Millionen KI-Titel identifiziert und entsprechend markiert. Die Systeme erkennen Musik aus generativen Modellen wie Suno und Udio und lassen sich darüber hinaus auf praktisch jedes vergleichbare Werkzeug erweitern, sofern geeignete Datenbeispiele vorliegen. Doch selbst ohne solche Datensätze sollen die Tools in der Lage sein, entsprechende Inhalte zuverlässig identifizieren zu können.

Eigene Werkzeuge sollen KI-generierte Musik erfolgreich erkennen

Die nach Unternehmensangaben bewährte Technologie will Deezer nun an die Musikbranche lizenzieren, um Transparenz zu schaffen und den Anreiz für Betrug mit KI-generierter Musik zu reduzieren. Zwar liegt der Anteil entsprechender Inhalte an den Streams laut Deezer derzeit nur bei lediglich ein bis drei Prozent, doch geht das Unternehmen davon aus, dass im vergangenen Jahr rund 85 Prozent der vollständig KI-erstellten Titel mit betrügerischer Absicht hochgeladen wurden. Dieser Trend dürfte sich in den kommenden Jahren weiter verstärken. Wie lukrativ ein solches Vorgehen sein kann, zeigte erst Ende März ein Fall aus den USA: Dort hatte ein Betrüger mithilfe von hunderttausenden KI-generierten Musikstücken und zeitweise über 1.000 Bots mehr als 4 Milliarden Streams erzeugt und damit rund 12 Millionen US-Dollar an Tantiemen erzielt.

Betrug mit KI-Musik längst ein Geschäftsmodell

Um dieser Entwicklung entgegenzuwirken, setzt Deezer die beschriebenen Erkennungstechnologien bereits seit geraumer Zeit gezielt ein. Werden Manipulationen bei Streams festgestellt, schließt der Dienst die betroffenen Abrufe von Lizenzzahlungen aus. Gleichzeitig entfernt die Plattform entsprechende Titel aus algorithmischen Empfehlungen und berücksichtigt diese zudem auch nicht in redaktionellen Playlists. Dies versteht Deezer als ersten Schritt, um zu verhindern, dass KI-generierte Inhalte den Pool an Lizenzgebühren spürbar verwässern. Laut einer von CISAC und PMP Strategy durchgeführten Studie könnten bis 2028 nahezu 25 Prozent der Einnahmen von Urhebern gefährdet sein, was einem Verlust von bis zu 4 Milliarden Euro an Tantiemen entsprechen würde. Diese Entwicklung betrifft jedoch nicht nur die Musikindustrie, sondern zeigt sich auch im Text-Journalismus, wo vollständig KI-generierte Inhalte ebenfalls zunehmend zu sinkenden Tantiemen führen.

Was ist mit legaler KI-Musik?

Gleichzeitig dürfte nicht jedem KI-Titel eine betrügerische Absicht zugrunde liegen. Damit stellt sich die Frage, wie der Dienst künftig mit entsprechend gekennzeichneten Inhalten umgehen wird. Denkbar ist, dass sich neben der klassischen Musikproduktion eine neue Form von „Prompt-Künstlern“ etabliert, die ihre Werke nicht mit Instrumenten, sondern ausschließlich über Texteingaben erzeugen. Entsprechende Szenarien wurden bereits vor Jahrzehnten vom Science-Fiction-Genre vorausgesagt.

Unterschiede für die meisten Hörer kaum auszumachen

Im November des vergangenen Jahres hatte Deezer die weltweit erste Umfrage zur Wahrnehmung und Einstellung gegenüber KI-generierter Musik in Auftrag gegeben. Durchgeführt wurde sie von Ipsos, einem der weltweit führenden, seriösen Marktforschungsunternehmen, mit insgesamt 9.000 Teilnehmern in Brasilien, Deutschland, Frankreich, Großbritannien, Japan, Kanada, den Niederlanden und den USA. In einem Blindtest waren lediglich drei Prozent der Befragten in der Lage, zwei KI-generierte Musikstücke von einem von Menschen komponierten und produzierten Titel zu unterscheiden.

Darüber hinaus ergab die Studie, dass sich 80 Prozent der Teilnehmer dafür aussprachen, vollständig durch KI erzeugte Musik klar zu kennzeichnen. Weitere 73 Prozent der Teilnehmer sprachen sich in der Umfrage dafür aus, dass der jeweilige Dienst kennzeichnet, wenn er zu 100 Prozent künstliche Musik empfiehlt. Mit 52 Prozent sprachen sich zudem rund die Hälfte der Befragten dafür aus, dass vollständig per KI-generierte Musik nicht zusammen mit den von Menschen komponierten Titeln in den Hauptcharts aufgeführt werden sollen.



Source link

Weiterlesen

Beliebt