Apps & Mobile Entwicklung
Was er kann – und was noch längst nicht
„Hallo ChatGPT, nutze den Agentenmodus und schreib mir einen Testbericht über den neuen Agentenmodus von ChatGPT“ – so oder so ähnlich könnte das vielleicht bald klingen, wenn ein Tech-Journalist einen Testbericht verfassen muss. Aber klappt das aktuell auch schon? Vermutlich nicht, da ich mich hier selbst mit dem Text abrackere. Aber dennoch soll der Agent aus dem Hause OpenAI schon einige interessante Tricks zu bieten haben.
Ich hab mich also mal ein wenig mit der Materie auseinandergesetzt und verrate Euch jetzt, was Ihr mit dem Agentenmodus bereits machen könnt – und was noch nicht. Für eine ausführlichere Erklärung zum Agentenmodus innerhalb von ChatGPT klickt einfach auf den Link. Dort habe ich mich nämlich an diesen Agentenmodus herangetastet.
Hier noch einmal das Allerwichtigste kurz zusammengefasst:
- Der Agentenmodus steht derzeit nur den Usern zur Verfügung, die mindestens das Plus-Abo für 23 Peitschen monatlich nutzen.
- Außerdem befindet sich der Agent noch in einem sehr frühen Stadium. Selbst OpenAI weist ausdrücklich darauf hin, dass er noch fehlerhaft ist.
- Der Agent beantwortet nicht nur Fragen, sondern recherchiert und erstellt selbstständig Inhalte, organisiert Daten oder nimmt Buchungen vor.
- Tools: Im Agentenmodus kann ChatGPT auf Werkzeuge wie einen Browser, einen Code Interpreter (Python), eine Dateiverwaltung und externe Dienste oder Plugins zugreifen.
ChatGPT Agentenmodus im Test
Experiment 1: Neue Hosen kaufen
Vor welche Aufgaben stelle ich ChatGPT nun? Ich lasse es leicht angehen. Links neben der Eingabezeile tippe ich auf die Tool-Box. Statt „Bild erstellen“ oder „Deep Research“ wähle ich also den Agentenmodus aus und es kann losgehen: Ich brauche neue Hosen. Also geht der Auftrag an meinen neuen Agenten: Informiere Dich über die Trends des Jahres, und bestell mir zwei Hosen in angesagten Farben. Maße: W38 / L32. Und ja, ich bin deutlich voluminöser, aber 1. wollte ich nicht, dass ChatGPT weiß, wie fett ich wirklich bin und 2. wollte ich eine Hosengröße nehmen, die man überall regulär bekommt und nicht nur im Elefanten-Bedarf.
ChatGPT legt locker los, fragt nach wenigen Sekunden nach: Neben einer Zusammenfassung des Auftrags hakt die KI nach: Wie teuer darf der Spaß sein und hab ich eine bestimmte Marke im Sinn? Obergrenze 120 Euro und nein, ieine bestimmte Markte – und dann rödelt ChatGPT. Zehn Minuten später meldet mein fleißiger Helfer Vollzug: Tatsächlich wurden Modezeitschriften gewälzt, ChatGPT hat u.a. bei der Vogue vorbeigeschaut und informiert mich, dass weite und lockere Cargo-Hosen im Trend liegen. Muss ich blind glauben, weil ich ein echtes Modeopfer bin.
Dementsprechend kenne ich natürlich auch nur wenige Farben: Schwarz, Weiß, Rot, Gelb, Grün, Blau, fertig aus (okay, etwas übertrieben). Instyle.de nennt als Trendfarben u.a. wohl Creme, Beige, Mocha Mousse und Mondscheingrau sowie Burgunderrot. Junge, Junge! Auch bei anderen landet mein Agent oft auf der Pastellton-Fährte.
Endergebnis:
Ich bekomme folgende Info, nachdem mir ChatGPT mitgeteilt hat, welche zwei Hosen die KI für mich ausgewählt hat: „Beide Artikel liegen in Ihrem Warenkorb mit einer Zwischensumme von 74,80 Euro. Möchten Sie zur Kasse gehen und den Kauf abschließen?“ Das ist sicher super gemeint, klappt aber nicht. Ich werde aufgefordert, die Transaktion zu erlauben und auch aufs Risiko hingewiesen – ab da passiert aber nichts mehr.
Als ich später nachhake, erzählt mir die KI, dass der Warenkorb nur solange zugänglich ist, solange ich nicht den Browser bzw. die Sitzung verlasse. Hab ich aber nicht, dennoch klappte es nicht. Schade, aber der Agent hilft dennoch: Er verlinkt mir die Hosen (übrigens von Allessandro Salvarini) und bietet mir sogar an, mir dafür QR-Codes zu erstellen, damit ich die später jederzeit wieder mit dem Handy finde.
Bedeutet unterm Strich: Gekauft habe ich nichts – quasi tote Hose. Aber trotzdem Respekt, denn der Agent übernimmt eigenhändig die Recherche, findet für mich Produkte, die meinen Vorgaben entsprechen, nennt mir die Preise und Links. Das hat erstens nur zehn Minuten gedauert und vor allem waren das zehn Minuten, in denen ich natürlich etwas ganz anderes erledigen konnte.
Experiment 2: Ich will Asia-Nudeln!
Ich erzähle ChatGPT davon, dass ich viel zu oft diesen hoch verarbeiteten Instant-Nudel-Quatsch esse. YumYum-Nudeln und solche Geschichten eben. Da ich diese Nudeln eh immer mit frischem Gemüse pimpe, hab ich mir überlegt, dass ich den Spaß ja im Grunde auch komplett selbst kochen könnte.
Also hab ich meine KI gefragt, welche Zutaten in den „YumYum-Nudeln Ente“ stecken und wo ich die in Dortmund bekomme. Alternativ sollte sich ChatGPT den ganzen Kram im Netz zusammensuchen und mir wieder alles in den Warenkorb feuern.l Auch hier wieder rödelt das Werkzeug los. Ihr könnt dabei zusehen, wie er sich die Arbeitsaufgabe sortiert, verschiedene Seiten nach dem Produkt durchsucht, Cookie-Buttons wegklickt und ähnliches.
Endergebnis:
In Schritt 1 findet ChatGPT heraus, was in der Packung überhaupt alles drinsteckt und was ich alles benötige, um den Spaß nachzukochen. Da ich faul bin und nicht zig Screenshots auf meinem Handy machen wollte von der angebotenen Tabelle, musste ChatGPT wieder ran. Ich hab mir die Übersicht also als Bild generieren lassen. Haut fast komplett hin, hier und da ist aber trotzdem noch ein Tippfehler dazwischen. Das hat aber eher was mit GPT an sich zu tun und weniger mit dem Agentenmodus. Ach, wenn wir gerade davon reden: Ich habe diese Versuche mit GPT-4 gestartet, noch nicht mit dem neuen GPT-5.

Danach erzählt mir die KI, wo ich die Brocken in Dortmund bekomme. Das wirkt ein wenig lieblos, denn mir wird nur ein Asia-Supermarkt vorgeschlagen, obwohl es deutlich mehr und auch näher gelegene gibt. Dann gibt es den Hinweis, dass viele herkömmliche Discounter wie Rewe auch jede Menge von dem Zeug führen, das ich benötige. Schließlich werde ich auch auf den Wochenmarkt hingewiesen.
Danach macht sich der Agent dann selbst an die Bestellung. Das Ganze ähnelt der Hosen-Nummer. Die Sachen landen im Warenkorb, außer die Nudeln selbst. Soll ich mir gefälligst vor Ort kaufen, sagt die unverschämte KI-Unterstützung. Kaufen kann ich wieder nicht. Ich soll wieder den Button drücken, es passiert wieder nichts und dann steh ich da mit leerem Magen. Wenn ich besagten Button übrigens drücke, steht dann als Aussage von mir sowas wie: „Please proceed. Do not ask any addtitional follow-up questions. Okay, dann halt nicht. Die Recherche war wieder top, der Rest eher nicht.
Experiment 3: Der Amiga Lade-Screen
Ja, ich hätte voll gerne, dass mir mein Agent so eine Lade-Animation zusammenstellt, wie es sie frühe am Amiga gab, wenn man Spiele geladen hat. Da liefen pixelige Laufbänder durchs Bild, die uns verrieten, welche Hacker-Crew die beste ist, es gab ein paar Grafik-Späße auf dem Screen und es dudelte typische 8-Bit- bis 16-Bit-Musik. Auch hier hat ChatGPT ein paar Nachfragen und legt dann los.
Endergebnis:

Es ist nicht preisverdächtig, aber ja: ChatGPT programmiert mir schon ungefähr das, was ich will und liefert die Musik in einem separaten File. Beides funktioniert auf Anhieb, allerdings muss ich mir das Audio-File und die Animation in einem Video-Editor meiner Wahl selbst zusammenfummeln – sagt zumindest mein KI-Kumpel. Ihr seht oben einen Screenshot – und müsst Ihr einfach vertrauen, dass mein Text wirklich durchs Bild scrollt und sich auch meine gewünschten UFOs wie gewünscht bewegen.
Also ja, der allerletzte Step – Animation und Gedudel in einem Video – bleibt mir verwehrt. Aber okay, das könnte ich mir jetzt tatsächlich auf dem Handy im Video-Editor zusammenpuzzeln.
Experiment 4: Das Weltraum-Spiel
Übermütig geworden von dem ersten Coding-Erfolg, will ich ChatGPT im Agentenmodus jetzt ein Weltraum-Game programmieren lassen. Meine Vorgabe: Bitte programmiere ein kleines Game. Irgendwas, bei dem ich Raumschiffe abschießen kann. Das war der komplette Prompt, mehr hab ich nicht getan. Es gab unmittelbar eine Nachfrage: Web-based als Javascript-Game, oder lieber für den Desktop (Python). Ich hab mich für die Browser-Version entschieden.
Außerdem fragte mich der Agent, ob ich mit einer simplen Schuss-Mechanik zufrieden wäre, oder andere Ideen hätte. Wenn man mich so fragt, will ich natürlich Spezialwaffen, ist klar.
Endergebnis:
Drei Minuten dauerte es, bis mir ChatGPT mit meiner spartanischen Anweisung tatsächlich ein Game gebaut hat. Ja, natürlich ein simples, aber es läuft! Anfangs konnte ich es vom Handy aus nicht starten, also hat mir ChatGPT einfach die HTML-Zeilen aufgelistet, die ich selbst als .html-Datei abspeichern konnte.

Ist das Spiel aufregend? Ja, für circa zwei Minuten. Kann ich Raumschiffe abknallen und hab Spezialwaffen? Aber hallo!“ Der Agent hat mir auch eine Übersicht über die Tastenbelegung mitgeliefert, danke dafür. Wie das Spiel funktioniert? So wie bestellt quasi: Ich kann mich unten seitlich bewegen und ballere nach oben, von wo aus mich die verdammten Aliens attackieren. Atmet ein wenig Atari-Vibes aus 1982, aber genau so wollte ich es ja auch.
Experiment 5: Mein eigener Song
Ich schimpfe gern über KI-Musik, experimentiere aber auch gern damit. Das hab ich jetzt einfach mal die KI übernehmen lassen. Meine Ansage war: Komponiere mir einen Song und schreibe dafür einen Song über einen coolen Typen, der als Tech-Journalist arbeitet. Außerdem wollte ich dazu das passende Cover-Artwork.
Endergebnis:
Das mit dem Text hat direkt hingehauen: Auszug gefällig?
Every gadget tells a story, every update makes him smile. He turns the world of bits and bytes into poetry and style.
Zauberhaft – und auch das Cover-Design zum Lied „Ink & Silicon Hearts“ kann sich sehen lassen.

Fehlt nur noch das Lied selbst, was? Und das sollte echt eine ziemliche Reise werden. Zunächst funktionierte der Download wiederholt nicht. Danach entschied ChatGPT, den Song dann noch einmal hochzuladen. Als es immer noch nicht ging, begann das Troubleshooting der KI. Fragte zum Beispiel bei mir nach dem Gerät, mit dem ich gerade arbeite und ob ich die ChatGPT-App verwende oder die KI im Browser nutze.
ChatGPT hatte danach eine Idee: WAV-Files sind möglicherweise zu groß fürs Handy, also erstelle ich ein MP3. Das klappte dann tatsächlich, aber auch erst im zweiten Versuch, weil mittlerweile der Song nicht mehr aufzutreiben war. Die ambitionierte und rastlose KI zimmerte also einfach einen neuen Song zusammen. Den lud ich herunter und spielte ihn ab und ich hörte: Einen durchgehenden Ton, zehn Sekunden lang.
Neuer Plan, jetzt will mir ChatGPT aber wirklich einen richtigen Hit basteln. Fragt mich nochmal nach meinen Wünschen. Ich präzisiere meine Idee: Soll elektronisch und nach 80s klingen, so ein bisschen wie die frühen Depeche Mode und diesmal bitte mit Gesang. Schnell soll der Song sein und „uplifting“.
Heraus kam ein wenige Sekunden langes Gedudel, welches eher an meine Amiga-Demo von vorhin erinnerte als an echte Musik. ChatGPT nimmt noch einen Anlauf, bestätigt mir wieder meine Wünsche, merkt aber dieses Mal an, dass das was länger d auert. Ich sollte mich so ein, bis zwei Stunden gedulden.
… seitdem warte ich. Okay, ich hab zwischenzeitlich gefragt, weil die Zeit längst um war. Antwort: „Mensch, Zufall – bin gerade fertig“. Der Download-Link funktionierte aber nicht: „File expired“. Und seitdem warte ich wieder … ich halte Euch auf dem Laufenden! Experiment Song-Komposition also bis auf weiteres gescheitert.
Experiment 6: Meine Journalisten-Präsentation
Nach dieser Schlappe wollte ich es noch ein letztes Mal probieren. Schreib mir eine Präsentation, damit meine Chefs sehen, was ich schon – auch außerhalb von nextpit – für super Artikel geschrieben habe. Ich wollte von ChatGPT zudem, dass meine Stärken und mein schreiberischer Stil erwähnt werden. Das alles wollte ich in einer Präsentation mit maximal zehn Slides haben.
Endresultat
Also erst mal: Hut ab, ChatGPT. Immerhin resümiert die KI in der erstellten Präsentation, dass ich es schaffe, Technologie mit gesellschaftlichem Kontext zu verknüpfen. Außerdem wird im Fazit hervorgehoben, dass ich komplexe Themen erkläre und sie mit persönlicher Note kritisch einordne. Klingt doch gut. Erwähnt werden auch meine langjährige Erfahrung, mein Storytelling und selbst mein Humor wird angesprochen.
Der genaue Blick ist dennoch auch hier ein ernüchternder. Im Prozess sehe ich noch ein echt cooles Cover-Bild als Aufmacher. In der fertigen Präsentation bleibt neben meinem Namen lediglich ein nicht aussagekräftiger Schnipsel eines Artikelbilds, das ich mal genutzt habe. Die Zusammenstellung verschiedener Artikel ist auch wenig zielführend. Ich wollte zwar einen Überblick über mein Schaffen, aber im Grunde hat sich der Agent nur eine Handvoll sehr aktueller Beiträge angeschaut.
Ausgewählt wurden vier nextpit-Beiträge und ein Blog-Artikel aus meinem privaten Blog. Diese Texte wurden mit ein paar Stichpunkten zusammengefasst. Aber so eine Inhaltsangabe war ja nicht Ziel der Präsentation. Zwei weitere Bilder können nicht angezeigt werden. Davon ab sieht die Inhaltsangabe mit Artikelbild eigentlich schon nett aufbereitet aus:

Ich erhalte also nicht ganz, was ich wollte. Allerdings ist eine Präsentation erstellt worden, die ich auch per PowerPoint und anderen Tools aufrufen kann, das 10-Slides-Limit wurde berücksichtigt und es gibt auch einen Resümee-Teil, der mein Schaffen einordnet. Daher behaupte ich mal, dass dieser Test gelungen ist und noch besser funktioniert hätte, wenn ich mir beim Prompten mehr Mühe gegeben hätte.
Mein Fazit
OpenAI tut gut daran, darauf zu verweisen, dass der Agent a) noch in den Kinderschuhen steckt und b) nochmal andere Risiken bedacht werden müssen als beim üblichen Gebrauch von ChatGPT. Immerhin agiert der Agent weitgehend autonom im Browser und kann zumindest in der Theorie Käufe abschließen. Praktisch konnte ich das bei meinen Beispielen nicht, weil der letzte Schritt – das Bezahlen – nicht ausgeführt werden konnte.
Wenn es um Recherche geht, hat mir der Agent eigentlich gute Dienste geleistet, egal ob ich einen Städtetrip planen will, eine Hose oder Lebensmittel für ein Rezept kaufen möchte. Hier ist die Zeitersparnis bereits heute überzeugend. Der Agent programmiert, wenn nötig, trägt alles wie gewünscht zusammen und mir ist noch eine Sache positiv aufgefallen: Das Troubleshooting! Funktioniert etwas nicht, sucht der Agent eigenständig nach Lösungen. Dabei findet er immer wieder tatsächlich Ansätze, etwas ans Laufen zu bringen, was zuvor nicht geklappt hat.
Wer also den Agentenmodus heute ausprobiert, kann mit etwas Glück schon ein simples Spiel oder einen wirklich miesen Song erhalten. Auch als Recherchewerkzeug ist der Agent brauchbar. Aber für jeden anderen Zweck solltet Ihr immer berücksichtigen, dass der Modus längst noch nicht da ist, wo er eigentlich hin soll. Er ist also ganz sicher (noch) kein Werkzeug, für das sich das kostspielige Abo lohnt. Was er allerdings durchaus ist: Eine Wette auf die Zukunft und ein Fingerzeig, was uns OpenAI in absehbarer Zeit ermöglichen kann.
Apps & Mobile Entwicklung
Erschreckende Studie zeigt Kontostand der Deutschen
Ob Stromtarife, Supermarktkassen oder der Preiszettel im Elektronikmarkt – fast alles kostet heute mehr als noch vor wenigen Jahren. Die Inflation frisst sich durch die Haushaltsbudgets, und die Bankkonten vieler Bürger zeigen das ungeschönt: Die Rücklagen schwinden, Schulden werden zur Brücke zwischen zwei Gehaltszahlungen.
Während Preise steigen und der Euro an Kaufkraft verliert, verschwimmt das Gefühl für den realen Wert des Geldes. Altersvorsorge, Sparpläne, Investments? Für zwei Drittel der Deutschen kein Thema – oft, weil schlicht die Mittel fehlen. Das gesellschaftliche Klima kippt: Wo einst vorsichtiger Optimismus herrschte, macht sich eine Mischung aus Resignation und Pragmatismus breit. Eine aktuelle Erhebung liefert ein präzises Bild davon, wie viel – oder wie wenig – den Menschen in Deutschland tatsächlich auf dem Konto bleibt.
Geld wird zur Mangelware
Die Zahlen sind ernüchternd: Fast jede zweite Person verfügt über weniger als 2.000 Euro auf der hohen Kante. Rund 20 Prozent haben weniger als 500 Euro, und sechs Prozent besitzen rein gar nichts. Ein kaputter Kühlschrank oder ein liegengebliebenes Auto werden für viele damit zur akuten finanziellen Notlage. In solchen Fällen führt der Weg häufig nicht zum Reparaturdienst, sondern zunächst zur Bank, zum Händler – oder ins private Umfeld, um sich Geld zu leihen.
→ Neue Geldautomaten kommen nach Deutschland: Das wird beim Geldabheben anders
Schulden sind längst kein Randphänomen mehr. Laut TeamBank-Liquiditätsindex, der regelmäßig die finanzielle Beweglichkeit der Bevölkerung misst, haben 78 Prozent der Deutschen bereits mindestens einmal eine Finanzierung in Anspruch genommen. Das Spektrum reicht vom Ratenkauf über kurzfristige Überziehungskredite bis zu Privatdarlehen.
Konsum als Ventil
Auch wenn viele genau wissen, wie viel Geld am Monatsende noch übrig bleibt, schützt dieses Wissen nicht vor Engpässen in der nächsten Krise. Finanzbildung? Fast alle wünschen sich entsprechende Angebote – am besten schon im Schulunterricht. Nachhaltiger Konsum ist ein erklärtes Ziel, allerdings oft nur, wenn er preislich attraktiv ist. Gebrauchtwaren sind für jüngere Menschen eine willkommene Option, ältere Generationen sehen darin eher einen Notbehelf.
→ Bargeld: Der stille Tracker in Eurer Hosentasche
Zwischen Wunsch und Wirklichkeit bleibt ein Spannungsfeld: Wer bewusst konsumieren möchte, muss zugleich darauf achten, nicht ins Minus zu rutschen.
Sparmodus? Beim Essen ja, beim Fernseher nicht
Bemerkenswert: Zwei Drittel der Deutschen geben sich trotz knapper Kassen gelassen. „Alles halb so schlimm“, heißt es sinngemäß. Doch beim Blick in die Zukunft herrscht Skepsis – nur jede dritte Person rechnet mit einer finanziellen Verbesserung in den kommenden Jahren.
Statt zu sparen, planen viele, Geld auszugeben: für Reisen, neue Möbel oder größere Fernseher. Besonders Jüngere halten den Konsum hoch – auch wenn das bedeutet, bei Restaurantbesuchen oder Familientreffen den Rotstift anzusetzen. Die Inflation zwingt zu Prioritäten: gespart wird eher bei kulinarischen Genüssen und Shoppingtouren, weniger bei Technik oder Freizeitanschaffungen.
Apps & Mobile Entwicklung
Die Ära AM4 endet bald: AMD Ryzen 5700X3D erreicht EOL-Status
Der AMD Ryzen 7 5700X3D hat das Ende seiner Produktion erreicht und wird sukzessive vom Markt verschwinden. Mit diesem letzten derzeit noch erhältlichen Prozessor mit 3D‑V‑Cache verliert die AM4-Plattform ihren letzten Upgradepfad für Besitzer älterer CPUs.
Ende der Lebenszeit erreicht
Wie das niederländische Portal Tweakers berichtet, hat die letzte noch auf dem Markt befindliche X3D-CPU für AM4 nun den EOL-Status erreicht. Mehrere Quellen aus dem Handel bestätigten dies gegenüber Tweakers.
Der Ryzen 7 5700X3D trat Anfang 2024 als leicht abgespeckte Variante die Nachfolge des beliebten Ryzen 7 5800X3D (Test) an, der seinerseits in jenem Zeitraum bereits vom Markt verschwand. Gegenüber dem großen Bruder musste der 5700X3D einige Federn in puncto Takt lassen, war in der restlichen Konfiguration jedoch identisch und verfügte ebenfalls über insgesamt 96 MB L3-Cache, wovon 64 MB auf das gestapelte Cache-Modul entfielen, welches der Prozessorreihe ihren Namen gibt. Im Gegenzug gewährte AMD Käufern einen saftigen Preisnachlass.
Das Ende der X3D-Erfolgsgeschichte auf AM4
Mit dem Ryzen 7 5800X3D (Test) schickte AMD 2022 eine CPU ins Rennen, die sich dank des innovativ gestapelten L3-Caches direkt an die Spitze der Spielebenchmarks setzte und dabei gleichzeitig das Feld auch in Sachen Effizienz anführte. Der Prozessor war dermaßen beliebt, dass er sogar den wenige Monate später erfolgten Launch der Ryzen 7000 Serie auf dem neuen Sockel AM5 ein Stück weit torpedierte.
Mit X3D-Prozessoren blieb AM4 auch lange nach Einführung des Nachfolgesockels eine echte Option für Gaming-Rechner, die dank günstigeren Mainboards und DDR4-Speichers für Neukäufe interessant blieb. Aufrüster mit bereits bestehendem AM4-System hatten noch weniger Anreiz, zur neuen Plattform zu wechseln, da sie dessen Gamingleistung durch einen einfachen CPU-Tausch unter Beibehaltung ihres gegenwärtigen Systems erreichen konnten und dabei massiv Geld sparten.
Dieser Upgradepfad blieb lange eine attraktive Option für Besitzer einer AM4-Plattform.
Nach der Einstellung der Produktion des AMD Ryzen 7 5800X3D übernahmen der Ryzen 7 5700X3D und in kleinem Umfang auch der 6-Kerner Ryzen 5 5600X3D diese Rolle und konnten durch seinen niedrigeren Preis sogar noch mehr punkten. Auf dem freien Markt war der AMD Ryzen 7 5700X3D zeitweilig für deutlich unter 200 Euro erhältlich. Aktuell sind noch Restbestände bei Händlern ab rund 240 Euro im Preisvergleich gelistet. Sobald diese abverkauft sind, endet gewissermaßen auch die Ära der AM4-Plattform für Gaming-Systeme endgültig.
Apps & Mobile Entwicklung
KI-Upscaling & Frame Generation: Arm stattet GPUs ab 2026 mit Neural-Beschleunigern aus
Arm will die eigenen GPUs des Jahrgangs 2026 mit Neural-Beschleunigern ausstatten, um darauf KI-gestützte Workloads wie zum Start das Neural Super Sampling laufen zu lassen. Obwohl der Startschuss für neue Hardware erst nächstes Jahr erfolgen wird, erhalten Entwickler für den Aufbau des Ökosystems schon jetzt Zugriff und Tools.
Frühe Ankündigung für Aufbau des Ökosystems
Zur Fachmesse für Computergrafik SIGGRAPH 2025 hat Arm angekündigt, in die eigenen GPUs ab dem Jahrgang 2026, also die Grafikeinheiten ab der übernächsten Generation, dedizierte Neural-Beschleuniger für KI-Workloads direkt auf der Grafikeinheit zu verbauen. Dass die Ankündigung schon heute und nicht erst im Zuge der GPU-Vorstellung 2026 erfolgt, begründet Arm mit den benötigten Vorleistungen für den Aufbau eines Software-Ökosystems aufseiten der Spiele- und Engine-Entwickler.
Neural Graphics ergänzen Rendering-Pipeline
Die Entwickler von Arm wollen mit ihren GPUs der übernächsten Generation „Neural Graphics“ in mobile Geräte wie Smartphones bringen und dadurch die Effizienz oder die Bildqualität steigern oder eine Mischung aus beidem ermöglichen. Mit dem Begriff Neural Graphics ist das zuletzt stetig wachsende Feld der Computergrafik gemeint, das traditionelle Rendering-Methoden mit der Erzeugung von Grafiken durch neuronale Netze erweitert. Das temporales Upscaling setzt dabei auf ein trainiertes neuronales Netz anstelle des bislang bei Arm genutzten festen Algorithmus. Neuronale Netze in der Rendering-Pipeline können Texturen erzeugen, Licht vorhersagen, fehlende Details ergänzen und mehr.
Neural Super Sampling (NSS) ist die erste Umsetzung
Ein bekanntes Beispiel von Neural Graphics auf dem Desktop sind Super-Sampling-Technologien wie Nvidia DLSS und AMD FSR 4. Auch Arm will die dedizierten Neural-Beschleuniger in den GPUs im ersten Schritt für das KI-gestützte Upscaling verwenden, hier Neural Super Sampling (NSS) genannt. NSS folgt auf das letztes Jahr vorgestellte Arm Accuracy Super Resolution (Arm ASR). Dabei handelt es sich um ein temporales Upscaling auf FSR-2-Basis.
50 Prozent geringere GPU-Last
NSS soll die Last auf der GPU um bis zu 50 Prozent reduzieren. Entwickler können diese Lastreduzierung Arm zufolge entweder zurückbehalten, also den Energieverbrauch beim Spielen reduzieren und damit für längere Laufzeiten sorgen. Oder aber der Effizienzvorteil lässt sich in eine Steigerung der Bildrate oder Bildqualität investieren. Eine Mischung aus beiden Optionen ist ebenfalls möglich.
NSS kostet 4 ms pro Frame
Mit Hilfe von NSS soll – als ein von Arm genanntes Beispiel – eine interne Rendering-Auflösung von 540p über die Neural-Beschleuniger auf 1080p skaliert werden können und dabei annähernd die visuelle Qualität der nativen höheren Auflösung erreichen. NSS „kostet“ in der gesamten Rendering-Pipeline 4 ms pro Frame, erklärt Arm. Beim 1,5-fachen Upscaling im Balanced-Modus habe NSS lediglich 75 Prozent der Kosten von ASR und soll den Vorgänger beim 2-fachen Upscaling immer noch unterbieten.
Arm verfolgt offenen Ansatz
Wichtig sei Arm von Anfang an der offene Ansatz der Technologie gewesen, erklärt das Unternehmen zur Ankündigung. Damit soll einfacher das zugehörige Ökosystem aufgebaut werden können. Gemeinsam mit dem Neural Super Sampling bringt der Anbieter zur SIGGRAPH das Neural Graphics Development Kit an den Start. Alles an der Technologie soll offen gestaltet werden: die Modellarchitektur, die Gewichte und die Werkzeuge, die Studios das Nachtrainieren des Modells ermöglichen sollen. Die offenen Modelle will Arm auf GitHub und Hugging Face anbieten. Unterstützung aus der Industrie gibt es zur Ankündigung von Enduring Games, NetEase Games, Sumo Digital, Tencent Games, Traverse Research und Unreal Engine. Für die Unreal Engine gibt es auch gleich ein entsprechendes Plugin.
Vulkan erhält mit der Vorstellung eine Arm-ML-Erweiterung, um KI-gestützte Workloads in die Rendering-Pipeline zu integrieren. Damit unterstützt Vulkan neben der Graphics- und Computer-Pipeline künftig auch eine Graph-Pipeline für das Neural-Inferencing. Weil es für Spiele-Entwickler noch keine entsprechend befähigte Hardware von Arm gibt, muss dafür aktuell noch eine Vulkan-Emulation auf dem PC ausgeführt werden.

Frame Generation und Denoising für Pathtracing folgen
Neural Super Sampling auf den Neural-Beschleunigern ist für Arm nur der erste Schritt im Bereich der Neural Graphics. Auf den GPUs soll künftig auch Neural Frame Rate Upscaling (NFRU) angeboten werden, also Frame Generation für Smartphones. Darüber hinaus ist Neural Super Sampling and Denoising (NSSD) geplant, das KI-gestütztes Echtzeit-Pathtracing mit weniger Rays pro Pixel für Mobilgeräte ermöglichen soll.

Neue GPUs kommen Ende 2026
Die Vorstellung der neuen GPUs mit dedizierten Neural-Beschleunigern ist für das dritte Quartal 2026 zu erwarten. Details zur Mikroarchitektur stehen zwar noch aus, aber in einem Vorgespräch erklärte Arm, dass die Anzahl der Neural-Beschleuniger – analog zur 2022 erstmals eingeführten Ray Tracing Unit (RTU) – mit der Anzahl der Shader-Cores wachsen soll. Größere GPUs werden demnach mehr der der Neural-Beschleuniger besitzen. Entsprechend ausgestattete Smartphones sollen Arm zufolge Ende 2026 auf den Markt kommen.
ComputerBase hat Informationen zu diesem Artikel von Arm unter NDA erhalten. Die einzige Vorgabe war der frühestmögliche Veröffentlichungszeitpunkt.
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen