Nvidia-Roadmap: Feynman nutzt GPU-Die-Stacking, Custom HBM und Rosa-CPU
Nvidia hat sich zur GTC 2026 mittels Roadmap erneut freiwillig in die Karten blicken lassen. Die öffentliche Pläne reichen abermals bis Feynman, dort hat Nvidia jetzt GPU-Die-Stacking, Custom HBM und die Rosa-CPU bestätigt. Und für den Scale-up bei Rubin und Feynman können neben Kupfer auch optische Verbindungen genutzt werden.
Die Nvidia-Datacenter-Roadmap mit dem Ausblick auf Rubin Ultra und Feynman hat ihren Ursprung in der GTC 2025. Seitdem hat Nvidia die Roadmap immer wieder in stetig aktualisierter Form auf Konferenzen gezeigt, zuletzt auf der GTC Washington im Oktober 2025. Zur GTC 2026 folgten nun weitere Einblicke in die bevorstehenden Plattformen.
Rubin Ultra geht auf vier Dies pro GPU-Package
Bekannt war bereits, dass auf Rubin erst einmal Rubin Ultra folgen wird, bevor Feynman an der Reihe ist. Rubin Ultra verdoppelt Rubin, indem Nvidia von zwei auf vier GPU-Dies für jedes Chip-Package wechselt. 16 Stapel HBM4e mit insgesamt 1 TB pro Package sieht Nvidia für Rubin Ultra vor. Nvidia gibt die Rechenleistung eines GPU-Packages mit 100 PetaFLOPS (FP4) an. Mit Rubin Ultra geht zudem eine neue LPU aus der Groq-Partnerschaft einher. Die LP35 soll die aktuelle LP30 ablösen und dabei neben FP8 erstmals auch Support für NVFP4 mitbringen.
Nvidia-Roadmap bis Feynman
Kyber steigert den Scale-up, Oberon bleibt aber verfügbar
Rubin Ultra ist die Generation, mit der Nvidia vom derzeitigen Oberon- zum neuen Kyber-Rack wechseln will – zumindest optional, wenn ein noch dichter gepacktes Rack mit vertikaler Ausrichtung der Blades gefragt ist. Oberon bleibt aber auch künftig eine Option, wie die Platzierung auf der Roadmap auch noch in Richtung Feynman zeigt.
Scale-up mit Kupfer oder optischer Verbindung
Oberon ist das aktuell von Nvidia genutzte Rack-Design. Bereits diese Variante ermöglicht einen dicht gepackten Scale-up von derzeit bis zu 72 GPUs und 36 GPUs – daher auch der Name NVL72. Gezählt werden seit Anfang des Jahres wieder die GPU-Packages, nicht die GPU-Dies. Nvidia hatte hier abgeleitet von den Dies nämlich auch schon mal den Namen NVL144 vorgesehen, da ein GPU-Package bei Blackwell und Rubin aus zwei GPU-Dies besteht. Die neue (eigentlich alte) Namensgebung gilt auch für Kyber.
Oberon skaliert bei Rubin Ultra auf NVL576
Bei Oberon verbindet eine „Kupfer-Wirbelsäule“ rückseitig die Compute-Hardware mit den NVLink-Switches. Zur GTC nannte Jensen Huang aber auch optische Verbindungen als Option für den Scale-up. Statt von NVL72 ist dann von NVL576 die Rede, weil sich 576 GPUs zu einer Domain zusammenschließen lassen, die wie eine einzelne, massive GPU agiert. Von einem Scale-up im Rack kann dann allerdings nicht mehr die Rede sein, weil keine 576 GPUs in ein Oberon-Rack passen. Das zeigt mit „Polyphe“ ein Prototyp von Nvidia, mit dem der optische Scale-up getestet wird. Über den Serverschrank hinaus war bei Nvidia bislang eigentlich immer vom Scale-out statt Scale-up die Rede.
Prototyp eines NVL576 mit Optics Scale-up
Ein Bücherregal für AI-Hardware
Rubin Ultra bringt aber auch die Option für das neue Kyber-Rack mit. Kyber bringt die Hardware nicht mehr in untereinander liegenden Compute- und NVLink-Trays unter, die rückseitig über Kupferkabel miteinander verbunden werden, sondern in vertikal nebeneinander positionierten Blades, fast so wie bei einem Bücherregal, das Bücher nebeneinander unterbringt. Neu ist dabei, dass Compute vorne in den Blades stattfindet, während NVLink mit den Switches über eine Mid-Plane von hinten angedockt wird. Ein NVLink-Blade erstreckt sich über die Höhe von zwei Compute-Blades. Im 90-Grad-Winkel dazu sitzt die Mid-Plane.
Compute Blade (l.), Mid-Plane (m.) und NVLink Blade (r.)
Das schafft Platz für noch mehr Komponenten im Rack, sodass hier die Bezeichnung NVL144 genutzt wird. Gemein sind 144 GPU-Packages mit dann bis zu 576 GPU-Dies für Rubin Ultra. Für das Kyber-Rack will Nvidia zur Einführung der neuen Rack-Architektur mit Rubin Ultra zunächst auf den Scale-up mit Kupfer setzen. Optische Verbindungen sind testweise erst einmal nur für Oberon vorgesehen, bevor sich das mit Feynman dann jedoch auch für Kyber ändern wird. Oberon ist hierfür zunächst der Testballon.
Feynman setzt auf GPU-Die-Stacking
Feynman ist die für 2028 angesetzte GPU-Architektur, bei der Nvidia nicht mehr wie bei Rubin oder Rubin Ultra auf zwei respektive vier nebeneinander gelegte GPU-Dies setzen wird, sondern zum „Die Stacking“ wechselt, um mehrere GPU-Dies übereinander zu stapeln. Wie genau das technisch umgesetzt wird und was sich dafür bei Fertigung und Packaging ändern muss, hat Nvidia zur Konferenz noch nicht verraten. Bekannt ist außerdem, dass nach HBM4 bei Rubin und HBM4e bei Rubin Ultra mit Feynman dann ein Wechsel zu „Custom HBM“ erfolgen soll.
Feynman setzt auf GPU-Die-Stacking und Custom HBM
Oberon bleibt, dann aber nicht mehr mit optischem Scale-up
Auch Feynman wird weiterhin eine Oberon-Option bieten. Das ging aus den letzten Roadmap-Veröffentlichungen noch nicht hervor, dort sah bislang alles nach Kyber ab Rubin Ultra aus. Nvidia wird die aktuelle, ältere Rack-Architektur somit fortführen, aber mit neuer Compute-Hardware anbieten, sodass auch Upgrades möglich sind. Die Option auf den Scale-up mit optischen Verbindungen fällt dann aber weg. Diese hebt sich Nvidia bei Feynman exklusiv für Kyber auf. Dort lässt sich ein optischer statt Kupfer-Scale-up von NVL144 auf NVL1152 vollziehen, also 1.152 GPUs innerhalb einer Domain.
Eine neue CPU benannt nach Rosalind Franklin
Nvidia hat zur GTC zudem erstmals eine neue CPU für Feynman bestätigt: Rosa. Bislang war für Feynman noch die aktuelle Vera-CPU auf der Roadmap zu finden. Vermutlich handelte es sich bei Vera um einen Platzhalter, bis Nvidia öffentlich über Rosa reden kann. Der Name leitet sich von der britischen Biochemikerin Rosalind Franklin ab. Technische Details waren zur GTC noch kein Thema. Es dürften erneut Custom-Arm-Kerne mit SMT zum Einsatz kommen, so wie es bei Grace mit Olympus-Kernen der Fall ist.
ComputerBase hat Informationen zu diesem Artikel von Nvidia unter NDA im Vorfeld und im Rahmen einer Veranstaltung des Herstellers in San Jose, Kalifornien erhalten. Die Kosten für An-, Abreise und fünf Hotelübernachtungen wurden vom Unternehmen getragen. Eine Einflussnahme des Herstellers oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe aus dem NDA war der frühestmögliche Veröffentlichungszeitpunkt.
Kommentar: Nvidia DLSS 5 ist krass, aber vergeigt es nicht!
Bild: Nvidia
Ich war gestern gerade zu Hause, wähnte uns selbst für die GTC 2026 Keynote gut vorbereitet: Einiges hatten wir unter NDA, den Rest macht der Kollege Nicolas La Rocco schon vor Ort. Und dann meldet sich das Handy: „@Jan @Wolfgang Nvidia zeigt DLSS 5!“ – Bitte, was? Nvidia DLSS 5 ist krass, aber auf die Umsetzung kommt es an.
Die Zukunftsmusik wird schon im Herbst Realität
Neural Shader respektive Neural Rendering, das waren Schlagworte zur Vorstellung von GeForce RTX 5000 mit Blackwell Anfang 2025. Statt mit extremer Rechenlast und hohem Speicherbedarf klassisch zu rendern, sollten in Zukunft kleine Gen-AI-Programme Objekte und Effekte in Spielen erzeugen. Das klang clever, aber nach Zukunftsmusik – und in der Tat hat bis dato kein Entwickler darauf gesetzt.
Und jetzt wird aus der Zukunftsmusik schon im Herbst Realität: Denn DLSS 5 (Details) greift den Neural-Rendering-Gedanken auf und wendet ihn nicht auf einzelne Objekte, sondern auf das gesamte von der Engine mit oder ohne Super Resolution, Frame Generation und Ray Reconstruction gerenderte Bild an.
Klingt gut, aber übertreibt es nicht!
Das klingt gut und kann es auch werden, wenn Nvidia mit den Publishern dafür sorgt, dass DLSS 5 – wie versprochen – das klassische gerenderte Bild der Engine als Vorlage für den Neural-Rendering-Part nutzt und – wie versprochen – das Artwork erhalten bleibt. Nvidia nennt das „3D Guided Neural Rendering“.
Wie Hunderte Kommentare in der News zur Ankündigung zeigen, liegt in diesem Punkt allerdings das größte Potenzial für breite Ablehnung. Und ich schließe mich dem an: Sehen Spiele am Ende „wie AI Slop“ aus, wird das vielen Gamern nicht gefallen. Und auch in diesem Fall liegt die Deutungshoheit im Auge des Betrachters und nicht der Macher.
Solange DLSS 5 aber im Endeffekt „nur“ ein neues Ultra-Mega-Preset wird, wird der Gegenwind sich nicht zum Sturm entwickeln. Aber es wird ein schmaler Grat für Nvidia und für die Publisher sein, die Windstärke niedrig zu halten.
Warum zeigt Nvidia DLSS 5 schon jetzt?
Ich stelle mir am Morgen danach allerdings noch eine Frage: Warum hat Nvidia schon jetzt einen Ausblick auf DLSS 5 gegeben, die positive DLSS-4.5-Welle hätte sicherlich noch einige Monate gehalten.
Wollte CEO Huang die GTC Keynote schlichtweg auch für eine große Gaming-Ankündigung nutzen, auch weil es dieses Jahr keine neuen Grafikkarten mehr geben wird? Oder geht Nvidia davon aus, dass Microsoft und Sony mit AMD für die nächsten Konsolen etwas ähnliches planen und die Gefahr bestand, dass beide früher einen Ausblick geben?
Folgen Xbox Project Helix und PlayStation 6?
Sowohl Sony als auch Microsoft haben bei ihren bisherigen Verlautbarungen große Fortschritte beim Neural Rendering für die Next-Gen-Konsolen in Aussicht gestellt (Sony/Microsoft). Entweder entpuppen sich die nach der Präsentation von DLSS 5 jetzt als bereits veraltet, oder aber auch die Konsolen gehen in Zukunft den hybriden Weg. Ich gehe davon aus, dass der zweite Fall eintreten wird und hinter „DirectX Next“ auf der Xbox im Wesentlichen Neuigkeiten in Bezug auf Neural Rendering stecken.
Ja, es ist die Zukunft
Unabhängig davon, wer neben Nvidia wann noch zum hybriden Rendering in der Lage sein wird, steht für mich fest: Technologisch ist das die Zukunft. Ob sie mir gefallen wird, hängt dabei natürlich auch von mir und meiner Einstellung zu AI über die kommenden Monate und Jahre, aber am Ende zu einem hohen Maße wohl auch von der Umsetzung in Spielen ab.
Hinweis: Der Inhalt dieses Kommentars gibt die persönliche Meinung des Autors wieder. Diese Meinung wird nicht notwendigerweise von der gesamten Redaktion geteilt.
Disney+-Nutzer aufgepasst: Ein anhaltender Patentstreit sorgt für Probleme beim Streaming-Dienst. Da Abonnenten dadurch Nachteile entstehen, sieht die Verbraucherzentrale eine Basis für Rückzahlungen. Betroffene können ihr Geld jetzt zurückverlangen.
Ein Patentstreit zwischen Disney und InterDigital sorgt aktuell für Qualitätseinbußen beim Streaming. Laut Urteil des Landgerichts München vom November 2025 hat Disney mit seinen HDR-Streams Patentrechte verletzt. Um das Verbot zu umgehen, musste Disney Funktionen wie Dolby Vision und 3D einschränken. Das mindert den Wert des Abos, wie die Verbraucherzentrale feststellt. Sie stuft diese technischen Einschränkungen als rechtlichen Mangel ein, was die Basis für Entschädigungsansprüche bildet. Die Einschränkungen betreffen vor allem Nutzer, die für den Premium-Tarif bezahlen, da dort die HDR-Features ein Hauptargument für den höheren Preis sind.
Disney+ im Patent-Clash
Hinter der getrübten Bild- und Tonqualität bei Disney+ steckt kein technisches Versehen, sondern ein handfester Rechtsstreit. Das Landgericht München urteilte im November 2025, dass Disney mit seinen HDR-Videostreams Patente des US-Unternehmens InterDigital verletzt. Die Folge: Disney musste Funktionen wie Dolby Vision und 3D massiv einschränken – ein herber Verlust für alle, die für das Premium-Paket bezahlen.
Die Verbraucherzentrale Niedersachsen stellt nun klar: Wer Premium bezahlt, hat Anspruch auf Premium-Qualität. Warum diese fehlt – ob durch Patentstreit oder technisches Versagen – spielt rechtlich gesehen keine Rolle. Disney+ ist der Vertragspartner und muss die beworbene Leistung liefern. Abonnenten können für den Zeitraum der Einschränkungen einen Teil ihrer Gebühren zurückverlangen oder laufende Zahlungen mindern.
Kritik an Intransparenz und Dolby Atmos
Neben den HDR-Problemen rügt der Verbraucherschutz auch die Werbung des Streaming-Riesen. Der Slogan „Unterstützt Dolby Atmos“ sei bei vielen Inhalten schlichtweg falsch oder werde nicht transparent kommuniziert. Während Disney den Patentstreit bedauert und an Lösungen arbeitet, schweigt der Konzern bisher zum Vorwurf der irreführenden Atmos-Werbung.
>>> Kostenlose Alternative zu Netflix und Co.: So kann man tausende TV-Sender gratis empfangen <<<
Ein kleiner Lichtblick: Der Support für HDR10 ist mittlerweile zurück. Das sorgt zwar wieder für bessere Kontraste und Farben im gesamten Video, reicht aber nicht an die Präzision von Dolby Vision heran, das jede einzelne Szene (Frame für Frame) optimiert – ein entscheidender Unterschied bei bildgewaltigen Inhalten wie aus dem Marvel-Kosmos.
Jetzt weiterlesen
Das „Outlander“-Universum wächst weiter: Erste Details zur neuen Serie mit David Berry
Wenn euer Streaming-Erlebnis getrübt war, habt ihr das Recht auf eine Preisminderung. Bei Vertragsabschluss über Disney+ ist der Support der richtige Ansprechpartner. Ansonsten müsst ihr euch an den jeweiligen Drittanbieter und den dortigen Kundenservice wenden.
Nach Update: CPU-Z 2.19 meldet „Fake-7430U“ jetzt als Ryzen 5 5500U
Bild: AMD
Das Analyse-Tool CPU-Z hat ein Update erhalten: Version 2.19 nennt einen Ryzen 5 5500U jetzt auch beim Namen, wenn das System die CPU eigentlich als Ryzen 5 7430U führt. Damit lassen sich Systeme mit „Fake-7430U“ auch ohne Kenntnis der weiteren CPU-Eckdaten erkennen.
Das geht aus den Release Notes der neuen Version hervor, die heute veröffentlicht worden ist:
AMD Ryzen AI 7/PRO 450G/E, AI 5/PRO 440G/E & 435G/E (Kraken Point 2).
AMD Ryzen AI 9 HX 470.
Fix AMD Ryzen 5 5500U (Lucienne) reported as 7350U (Cezanne).
Preliminary support of Intel Wildcat Lake.
CQDIMM (4-ranks CUDIMM) memory support.
Fix DLL hijacking vulnerability thanks to Kwangyun Kem.
New Chinese translation thanks to Shinjo Kurumi.
Darüber hinaus erkennt das Tool jetzt erstmals zuverlässig die neuen Desktop-APUs der Serie Ryzen AI (Pro) 400G(E), die für Anfang Q2 angekündigt worden sind. Sie basieren auf Krackan Point, also der kleineren Variante von Strix Point (Ryzen AI 300) respektive Gorgon Point (Ryzen AI 400), weswegen die Desktop-APUs vorerst nur eine maximal 8 CU große iGPU mit sich bringen werden – halb so viele, wie Gorgon Point aufbringen würde.
Auch Non-Pro-Modelle kommen (Bild: AMD)
Vielen Dank an Community-Mitglied Shearer für den Hinweis zu dieser Meldung.
Downloads
4,9 Sterne
CPU-Z ist ein kleines Tool zum Auslesen von Prozessor-, Speicher-, Mainboard- und Grafikkarten-Daten.