Connect with us

Apps & Mobile Entwicklung

Nvidia DGX Station: GB300 mit 288 GB HBM3e für den Desktop ist jetzt bestellbar


Ein Jahr nach der Ankündigung der DGX Station lassen sich die von Nvidia und Partnern entwickelten AI-Workstations mit GB300 für den Desktop in Kürze vorbestellen. Entwickler erhalten damit den großen Datacenter-Chip GB300 mit 288 GB HBM3e – nur eben für den Schreibtisch. Die Auslieferung wird aber noch einige Monate brauchen.

Wem ein DGX Spark (Test) für die lokale KI-Entwicklung nicht genügend Rechenleistung zur Verfügung stellt, kann sich mittelfristig auch eine DGX Station auf den Schreibtisch stellen. Anstelle des „kleinen“ GB10 erhalten Käufer dann einen GB300, den großen Grace-Blackwell-Chip, wie er auch in den Datacenter-Racks von Nvidia zum Einsatz kommt. Dort bringt ein Server-Rack gleich 72 GPUs mit 36 CPUs zusammen.

GB300 Grace Blackwell Ultra Desktop Superchip,

Auf dem Schreibtisch geht zwar alles eine Nummer kleiner vonstatten, die technischen Daten sind dennoch beachtlich. Die DGX Station setzt auf den GB300 Grace Blackwell Ultra Desktop Superchip, der ein Blackwell-Ultra-Package mit zwei GPU-Dies und 288 GB HBM3e über einen 900 GB/s schnellen NVLink-C2C-Interconnect mit einer Grace-CPU verbindet, die 72 Neoverse-V2-Kerne von Arm und 496 GB LPDDR5X mit 396 GB/s bietet.

Nvidia gibt die AI-Leistung des Systems mit 20 PetaFLOPS an, wobei es sich dabei um 20 PetaFLOPS für FP4 mit Sparsity-Beschleunigung handelt, nachdem Blackwell Ultra im Data Center auf 15 PetaFLOPS für FP4 Dense und höhere 30 PetaFLOPS mit FP4 Sparsity kommt. Zum Vergleich: GB10 im kleineren DGX Spark bietet eine GPU mit 1 PetaFLOPS FP4-Leistung (mit Sparsity) – also nur 5 Prozent der Leistung.

DGX Station Board (r.)
DGX Station Board (r.) (Bild: Nvidia)

DGX Station als On-Demand-Node nutzen

KI-Entwickler erhalten somit eine Workstation mit 784 GB DRAM verteilt über den HBM der GPU und den SOCAMM-LPDDR5X der CPU. Sprachmodelle mit bis zu einer Billion Parametern sollen sich lokal ausführen lassen. Die Systeme lassen sich als eigener „AI Supercomputer“ oder aber remote als On-Demand-Node mit verteilter Rechenleistung für ein ganzes Team nutzen. Weil die Architektur dieselbe ist wie im Datacenter, sollen sich Projekte nahtlos von der lokalen Umgebung ins Rechenzentrum portieren lassen.

Developers can run and fine-tune state-of-the-art models on DGX Station — including OpenAI [gpt-oss-120b], Google Gemma 3, Qwen3, Kimi K2.5, Mistral Large 3, DeepSeek V3.2 and NVIDIA Nemotron — and tap into a wide variety of familiar tools and platforms from 1x, Aible AI, Anaconda, Docker, Red Hat, JetBrains, Docker, Inc., Ollama, llama.cpp, ComfyUI, LM Studio, Llm.c, Weights & Biases (acquired by CoreWeave), Odyssey, Roboflow, VLLM, SGLang, Unsloth, Learning Machine, Quali, Lightning AI and more.

Nvidia über die DGX Station

Bis zu 1.600 Watt kann eine DGX Station ziehen

Die einzige Voraussetzung für den Arbeitsplatz? US-Kunden empfiehlt Nvidia einen „20A circuit“, also eine Steckdose an einem Stromkreis mit 20A/120V, demnach bis zu 2.400 Watt. Üblich sind in den USA nämlich 15A/120V für maximal 1.800 Watt. Nvidia gibt den Leistungsbedarf einer DGX Station offiziell mit bis zu 1.600 Watt an.

Auslieferung in den kommenden Monaten

Während Nvidia bei dem DGX Spark auch ein eigenes Modell in Gold mit besonders viel Storage anbietet und Acer, Asus, Dell, Gigabyte, HP, Lenovo und MSI alternative, günstigere Designs mit demselben Board zur Auswahl stellen, hält sich Nvidia bei der DGX Station zurück und überlässt das Feld Asus, Dell, Gigabyte, MSI und Supermicro. Später im Jahr soll auch HP mit einer DGX Station folgen. Weil Nvidia nicht selbst mit einem System involviert ist, fehlen derzeit auch noch Preise. Bei den Partnern dürften Interessenten aber in jedem Fall fünfstellig tief ins Portemonnaie greifen müssen.

Apropos später im Jahr: Für eine DGX Station muss man weiterhin Geduld zeigen. Vorbestellungen seien laut Nvidia zwar ab dem 16. März möglich, doch die Auslieferung soll ohne konkreten Termin erst in den „kommenden Monaten“ erfolgen.

ComputerBase hat Informationen zu diesem Artikel von Nvidia unter NDA im Vorfeld und im Rahmen einer Veranstaltung des Herstellers in San Jose, Kalifornien erhalten. Die Kosten für An-, Abreise und fünf Hotelübernachtungen wurden vom Unternehmen getragen. Eine Einflussnahme des Herstellers oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe aus dem NDA war der frühestmögliche Veröffentlichungszeitpunkt.



Source link

Apps & Mobile Entwicklung

Display-Gerüchte: Samsung bringt 2027 erstes QD-OLED-Panel mit 24 Zoll


Display-Gerüchte: Samsung bringt 2027 erstes QD-OLED-Panel mit 24 Zoll

Bild: Samsung

Bisher starten OLED-Monitore bei rund 27 Zoll, doch es mehren sich die Hinweise, dass Samsung ein QD-OLED-Panel in der 24-Zoll-Klasse plant. Dieses soll laut jüngsten Informationen aus China im nächsten Jahr erscheinen. Mehr Leuchtkraft soll „EL Gen 4“ für True Black 600 mit sich bringen.

Das berichtet @realVictor_M auf X und beruft sich auf eine Mitteilung im chinesischen ChannelGate. Dort heißt es laut maschineller Übersetzung, dass Samsung für das Jahr 2027 neue Display-Größen inklusive 24 Zoll und 39 Zoll plant.

2027: The luminescent material technology will be upgraded to GEN4, and the internal structure will be upgraded to the QOE specification. The monitor size will be expanded to include 24-inch and 39-inch models. The refresh rate technology will be upgraded to UHD 240Hz DLG, and the brightness will be based on TB600.

Maschinelle Übersetzung

Wechsel zu EL Gen 4 geplant

Außerdem werde Samsung Änderungen an der Elektrolumineszenz (EL) vornehmen. Aktuell werden EL Gen 2 und EL Gen 3 genutzt, für 2027 wird der Wechsel auf EL Gen 4 erwartet. Welche technische Änderung das genau bedeutet, bleibt abzuwarten.

Ferner ist von UHD mit 240 Hz und „DLG“ die Rede, was für „Dual Line Gate“ stehen könnte. Diese bei Fernsehern genutzte Technik erhöht die Bildwiederholrate, indem die Auflösung reduziert wird. Im Monitorbereich hat sich inzwischen aber eher der Begriff Dual Mode durchgesetzt, sodass hiermit also ein QD-OLED-Panel mit Dual-Mode-Support gemeint sein dürfte. Die Helligkeit soll auf „TB600“ basieren, was auf den VESA-Standard DisplayHDR True Black 600 anspielen könnte.

Somit lässt sich darüber spekulieren, dass die für 2027 geplanten QD-OLED-Displays von Samsung mit 24 Zoll oder 39 Zoll dank EL4-Technik eine höhere Leuchtkraft erreichen. Bis dato ist bei True Black 500 Schluss, das mindestens 500 cd/m² auf 10 Prozent der Bildfläche im Zentrum erfordert. Für True Black 600 sind es schon mindestens 600 cd/m².

DisplayHDR True Black 600
DisplayHDR True Black 600 (Bild: VESA)

Sind es 24 oder 24,5 Zoll?

Die Website Wccftech verweist in diesem Kontext auf eine ältere Meldung, in der aus der gleichen Quelle (ChannelGate) ein Hinweis auf ein kommendes OLED-Panel mit 24,5 Zoll von Samsung stammte. Bei diesem war von 300 bis 360 Hz die Rede.

Letztlich ist gut möglich, dass sich inzwischen die Pläne geändert haben und ein 24,5″-Display mit UHD und 240 Hz sowie der Option auf 480 Hz bei Reduzierung auf Full HD kommen wird. Die Größe von 24,5 Zoll hat sich inzwischen im eSports-Bereich etabliert.

Zudem sind die aktuellen 27″-Displays von Samsung genau genommen welche mit 26,5 Zoll Diagonale.

Die Pläne für 2026 sind schon bekannt

Der aktuelle Bericht von ChannelGate geht auch auf das Portfolio von Samsung Display für 2026 ein. Diese Informationen sind aber bereits bekannt und von offizieller Seite bestätigt.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Ab Herbst 2026: Nvidia DLSS 5 „erweckt Computer-Grafik zum Leben“


Das kam überraschend, aber zum Auftakt der GTC 2026 hat Nvidia CEO Jensen Huang einen Blick in die Zukunft der Computer-Grafik geworfen, wie sie mit DLSS 5 Einzug halten wird: DLSS 5 soll bereits Ende 2026 das klassische Rendering, egal ob mit oder ohne Raytracing, mit Neural Rendering (Generative AI) verschmelzen.

DLSS Next-Level

Bis dato bedient sich DLSS der von der Spiele-Engine bereitgestellten Grafik, skalierte sie mittels AI hoch (Super Resolution) oder fügt mittels AI künstliche Zwischenbilder hinzu. DLSS 5 geht weit darüber hinaus „und erweckt Computer-Grafik zum Leben“, so Huang.

Was ist DLSS 5?

DLSS 5 nutzt „3D Guided Neural Rendering“

Die Grafik, wie sie von der 3D Engine des Spiels vorgegeben wird, dient bei DLSS 5 nur noch als strukturierte Basis für den Einsatz von Neural Rendering, also Rendering mittels Generative AI. Mit DLSS 5 sollen realistischere Lichteffekte und Oberflächen als jemals zuvor möglich sein, weil diese Effekte nicht mehr gerendert oder als Texturen im Speicher abgelegt werden müssen, sondern über Neural Shader auf den KI-Kernen der Grafikkarte in Echtzeit erzeugt werden. Nvidia nennt das auch „3D Guided Neural Rendering“.

Nvidia DLSS verbindet klassisches Rendering mit Neural Rendering - schon Ende 2026
Nvidia DLSS verbindet klassisches Rendering mit Neural Rendering – schon Ende 2026 (Bild: Nvidia)

Twenty-five years after NVIDIA invented the programmable shader, we are reinventing computer graphics once again. DLSS 5 is the GPT moment for graphics — blending handcrafted rendering with generative AI to deliver a dramatic leap in visual realism while preserving the control artists need for creative expression.

Nvidia CEO Jensen Huang

Der Vorteil dieser Kombination ist, dass die Grafik nach festen Vorgaben des Spiels respektive Publishers erzeugt wird, während reine Gen-AI-Grafiken nur schwer zu kontrollieren sind. „Das ist das Grundgerüst vertrauenswürdiger AI“, so Huang weiter.

DLSS 5: Lichteffekt und Oberflächen wie nie zuvor

Neural Rendering war eine der großen von Nvidia mit RTX 5000 präsentierten Neuerungen, bis dato wurde allerdings davon ausgegangen, dass Spiele-Entwickler diese Technologie in Zukunft selbst in der Engine einsetzen – und das mag auch immer noch ein Weg in die Zukunft sein.

Doch Nvidia geht das offensichtlich nicht schnell genug und der Hersteller ist darüber hinaus davon überzeugt, schon Ende 2026 mit DLSS 5 Neural Rendering kompatiblen Spielen vollständig „überstülpen“ zu können. Verfügbar werden dürfte diese neue Generation nur auf GeForce RTX 5000.

Die Vorteile von DLSS 5 laut Nvidia
  • Cinematic Lighting: Reconstructs complex effects like rim lighting, subsurface scattering for realistic skin, and contact shadows with high-fidelity.
  • Material Depth: Enhances PBR properties like roughness and adds micro-realism to complex objects such as eyes and hair.
  • Temporal Consistency: Provides stable image quality from frame-to-frame that adheres to the underlying game content.
  • Real-Time Performance: Delivers photorealistic enhancement at up to 4K resolution while maintaining smooth, interactive gameplay.
  • Controllability: Allows game developers to tune intensity, color, and masking to determine where and how enhancements are applied to maintain the game’s unique aesthetic.

DLSS 5 off vs. on

Nvidia hat bereits zahlreiche DLSS-5-Beispiele präsentiert. Gerendert wurden sie auf zwei GeForce RTX 5090: Die eine renderte das klassische Bild, die zweite Übernahm dann den DLSS-5-Part. Bis zur Serienreife im Herbst soll dann aber beides vereint auf einer RTX 5090 lauffähig sein.

Keynote-Überblick

Resident Evil Requiem

EA Sports FC

Hogwarts Legacy

Starfield

NVIDIA Zorah Tech Demo

Diese Spiele sind angekündigt

Auch erste konkrete Spiele wurden bereits genannt:

  • AION 2
  • Assassin’s Creed Shadows
  • Black State
  • CINDER CITY
  • Delta Force
  • Hogwarts Legacy
  • Justice
  • NARAKA: BLADEPOINT
  • NTE: Neverness to Everness
  • Phantom Blade Zero
  • Resident Evil Requiem
  • Sea of Remnants
  • Starfield
  • The Elder Scrolls IV: Oblivion Remastered
  • Where Winds Meet

DLSS 5 FAQ

Nvidia hat auch schon eine erste FAQ zu DLSS veröffentlicht, mit der insbesondere – auch in der Community bereits geäußerte – Bedenken ausgeräumt werden sollen:

Arbeitet DLSS 5 mit bisherigen Technologien zusammen?

Ja, DLSS 5 arbeitet mit DLSS Super Resolution, Ray Reconstruction, Frame Generation und Multi Frame Generation zusammen.

Welche GPU-Mindestanforderungen gibt es?

Minimum-Spezifikationen sind von der Optimierung der Modelle abhängig und werden zu einem späteren Zeitpunkt kommuniziert.

Wie binden Entwickler DLSS 5 ein?

Die Integration ist einfach und ähnlich zu DLSS Frame Generation – genutzt werden kann das NVIDIA Streamline SDK oder ein Unreal Engine 5 plugin.

Wird DLSS 5 Features wie Pathtracing ersetzen?

Nein. Path Tracing sorgt für Lichtgenauigkeit (d. h. Beleuchtung, Schatten und Reflexionen an den korrekten Stellen), während DLSS 5 für photorealistisches Licht sorgt (d. h. so, als hättest du ein größeres Ray-Budget und Materialien höherer Qualität). Diese Technologien ergänzen sich gegenseitig.

Wie stellt DLSS 5 sicher, dass das Bild der Intention des Künstlers entspricht?

DLSS 5 respektiert die künstlerische Absicht auf zwei Arten:

  • Indem die Farb- und Bewegungsvektoren des Spiels für jedes Frame in das Modell eingespeist werden, wodurch die Ausgabe im ursprünglichen 3D-Inhalt verankert bleibt.
  • Indem Entwicklern detaillierte Steuerungsmöglichkeiten wie Intensität und Farbkorrektur zur Verfügung gestellt werden. Künstler können damit Mischung (Blending), Kontrast, Sättigung und Gamma anpassen und festlegen, wo und wie Verbesserungen angewendet werden, um die einzigartige Ästhetik des Spiels zu erhalten.

Deine Meinung zu DLSS 5?

Deine spontane Meinung zu DLSS 5?
  • Das ist ein Game-Changer und die Zukunft der Spiele-Grafik!

  • Das hat Potenzial, aber ich sehe klassisches „Artwork“ in Gefahr.

  • Ich bin sehr skeptisch, ob das die Zukunft ist.

  • Das lehne ich ab.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Nicht mehr nur GPUs: Nvidia Groq 3 LPU erhöht Inference-Durchsatz massiv


Der im Dezember zwischen Nvidia und Groq geschlossene Technologie-Lizenzvertrag trägt zur GTC 2026 erste Früchte. Eine neue Language Processing Unit (LPU) soll den Inference-Durchsatz mit niedriger Latenz massiv erhöhen. Demnach wird bei Nvidia nicht länger nur auf GPUs gesetzt. Zum Einsatz kommen sie im neuen LPX-Rack.

Gerüchten zufolge soll das Lizenzabkommen Nvidia 20 Milliarden US-Dollar wert gewesen sein. Offiziell handelt es sich um einen nicht-exklusiven Deal, denn Groq wurde für den propagierten Preis nicht von Nvidia übernommen, es bleibt ein eigenständig. Das Abkommen sieht aber vor, dass Groq-Gründer Jonathan Ross und Groq-Präsident Sunny Madra sowie weitere Mitarbeiter zu Nvidia wechseln.

LPU des Hauptarchitekten der Google TPU

Das KI-Chip-Startup Groq wurde 2016 von Jonathan Ross und Douglas Wightman gegründet. Ross war zuvor bei Google einer der Hauptarchitekten der Google Tensor Processing Unit (TPU). Mit Groq wollte er eine neue Prozessorarchitektur speziell für das KI-Inferencing entwickeln, die deutlich geringere Latenzen und höhere Geschwindigkeiten bei der Ausführung großer Sprachmodelle ermöglicht. Dabei herausgekommen ist die Language Processing Unit (LPU), die mit der Einführung der Vera-Rubin-Plattform zum Bestandteil der aktuellen Datacenter-Architektur von Nvidia wird. Bedeutet: Nvidia setzt nicht mehr nur auf GPUs, sondern erstmals auch spezielle Inference-Beschleuniger.

GPUs und LPUs im Zusammenspiel
GPUs und LPUs im Zusammenspiel (Bild: Nvidia)

Das zeichnet eine LPU aus

Ziel der LPU ist die bei Inference wichtige sehr schnelle Token-Generierung für Echtzeit-KI-Anwendungen. Dafür setzt sie auf eine deterministische Architektur ohne Caches, Branch-Prediction oder dynamisches Scheduling. Weil der Compiler jede Operation und jeden Datenfluss im Voraus plant, entstehen exakt vorhersehbare Laufzeiten. Das Ergebnis ist ein Inference-Beschleuniger mit konstanter und sehr niedriger Latenz.

500 MB SRAM statt 288 GB HBM4

Für sehr kurze Zugriffszeiten und eine hohe Bandbreite sorgt ein großer On-Chip-SRAM. GPUs für Künstliche Intelligenz setzen hingegen auf eine oftmals komplexer Cache-Hierarchie und extern angebundenen High Bandwidth Memory (HBM). Beide Lösungen haben ihre Vor- und Nachteile, weshalb Nvidia auch nicht von LPUs statt GPUs, sondern von GPUs und LPUs redet. Erreicht werden soll eine Kombination aus hohem Durchsatz und niedriger Latenz. Deshalb gesellt sich das neue LPX-Rack neben das Vera Rubin NVL72, in dem CPUs und GPUs zum Einsatz kommen.

LPU im Vergleich zur GPU
LPU im Vergleich zur GPU (Bild: Nvidia)

Eine Nvidia Groq 3 LPU kommt mit 500 MB On-Chip-SRAM (Static RAM). Der Speicher fällt somit deutlich kleiner (1/500) als der 288 GB große HBM4 der Rubin-GPU aus. Doch der SRAM erreicht mit 150 TB/s eine um das Vielfache höhere Bandbreite als HBM4 mit 22 TB/s. Kleine Randnotiz: Nvidia gibt zur GTC offiziell 22 TB/s für den HBM4 von Rubin an, Gerüchte einer Reduzierung auf 20 TB/s haben sich bislang nicht bestätigt. Die spezialisierte LPU bietet eine FP8-Leistung von 1,2 PFLOPS, während Rubin bei 50 PFLOPS für NVFP4 liegt. 98 Milliarden Transistoren zählt eine LPU. Zum Vergleich: Rubin kommt auf 336 Milliarden zuzüglich 2,5 Billionen Transistoren (!) für den HBM4.

LPX-Rack reiht sich in Vera-Rubin-Ökosystem ein

Zusammengeführt werden die LPUs im neuen LPX-Rack, das insgesamt 256 LPUs, 128 GB SRAM, 315 PFLOPS und 40 PB/s SRAM-Bandbreite bietet. Auch bei diesem Rack setzt Nvidia für den dicht gepackten Scale-up im Rack auf eine Flüssigkeitskühlung, die zum restlichen Vera-Rubin-Ökosystem kompatibel ist. Die LPX-Racks könne man auf mehr als 1.000 LPUs skalieren, erklärte Nvidia.

LPUs und GPUs im Zusammenspiel

Das LPX-Rack findet seinen Platz neben einem Vera Rubin NVL72, sodass die Workloads entsprechend der Anforderungen auf die verschiedenen Lösungen verteilt werden. Das soll die Vorteile beider Arten von Beschleunigern zusammenführen. Nvidia zeigt dies am Beispiel eines Effizienz-Trade-offs beim LLM-Inferencing für ein Modell mit 1 Billion Parametern und 400K Kontextfenster – jeweils auf Blackwell, Rubin und Rubin mit LPX. Für alle Architekturen gilt: Je schneller ein einzelner Nutzer Antworten bekommt (höhere TPS/User), desto schlechter wird die Energieeffizienz des gesamten Systems. Denn eine hohe Antwortgeschwindigkeit erfordert mehr parallele Ressourcen pro Nutzer.

LPX Rack neben Vera-Rubin-Rack
LPX Rack neben Vera-Rubin-Rack (Bild: Nvidia)

Im konkreten Beispiel hat sich Nvidia einen Punkt bei etwa 500 TPS/User und Kosten von 45 US-Dollar pro eine Million Tokens herausgepickt. Hier liefere Rubin mit LPX einen 35 Mal höheren Inference-Durchsatz respektive höhere Energieeffizienz (TPS/MW) als Blackwell. Der nominelle Direktvergleich nur mit Rubin bleibt aus, die Grafik verbildlicht aber auch hier den Vorteil. Anbieter könnten mir der gemischten Architektur einen bis zu 10 Mal höheren Umsatz in USD pro Sekunde pro Rechenzentrum-Megawatt generieren, so Nvidia. Während Blackwell auf 1 USD und Rubin auf 4 USD komme, erreiche Rubin mit LPX 10 USD.

Nvidia Groq 3 LPX Rack
Nvidia Groq 3 LPX Rack (Bild: Nvidia)

Die neuen LPX-Racks sollen gemeinsam mit den weiteren KI-Lösungen der neuen Vera-Rubin-Plattform im Verlauf des zweiten Halbjahres 2026 an den Start gehen.

ComputerBase hat Informationen zu diesem Artikel von Nvidia unter NDA im Vorfeld und im Rahmen einer Veranstaltung des Herstellers in San Jose, Kalifornien erhalten. Die Kosten für An-, Abreise und fünf Hotelübernachtungen wurden vom Unternehmen getragen. Eine Einflussnahme des Herstellers oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe aus dem NDA war der frühestmögliche Veröffentlichungszeitpunkt.



Source link

Weiterlesen

Beliebt