Apps & Mobile Entwicklung
Nvidia DGX Spark: Als Asus Ascent GX10 im Test
Nvidia DGX Spark ist „der weltweit kleinste KI-Supercomputer“ und neben der Founders Edition in vielen Partnerdesigns verfügbar. Das auf dem GB10 Superchip basierende, 128 GB Unified Memory bietende Linux-System holt Nvidias AI-Plattform nach Hause. Ein Blick auf die Plattform am Beispiel des „Preisbrechers“ Asus Ascent GX10.
Von Project Digits zu Nvidia DGX Spark
Vor einem Jahr zur CES 2025 als Project Digits erstmals gezeigt, ist das Projekt auf der GTC 2025 im März als Nvidia DGX Spark zum finalen Produkt mutiert. Seit Oktober sind Nvidias eigenes Design und die Designs unzähliger enger Partner nun auch endlich verfügbar.
Nachdem der Preis dieser Systeme im freien Handel zuletzt – entgegen dem allgemeinen Markttrend – bereits leicht gefallen ist, sind DGX-Spark-Partnerdesigns inzwischen ab knapp unter 3.000 Euro zu bekommen. Alle bieten das SoC Nvidia GB10 Superchip mit 128 GB LPDDR5X-8533, den Unterschied machen Chassis und der Speicherausbau, der 1, 2 oder 4 TB betragen kann (NVMe, PCIe 5.0). Das günstigste System ist derzeit der Asus Ascent GX10 mit 1 TB Speicherplatz. ComputerBase hat einen Blick auf diese Variante geworfen.
Für wen ist Nvidia DGX Spark gedacht?
Der DGX Spark ist ein Mini-PC bestehend aus einem 20-Kern-Arm-Prozessor und Nvidia-Grafik-Chip mit RTX-5070-Dimensionen, GB10 Superchip genannt. Gerüchten zufolge war dieselbe Architektur für das Jahr 2025 auch als Nvidia N1(X) vorgesehen, der Windows-Arm-Notebooks mit Nvidia SoC ermöglichen sollte, doch um dieses Projekt war es zuletzt lange still. Jüngsten Meldungen zufolge soll die Plattform aber jetzt kurzfristig im 1. Quartal 2026 erscheinen. Ein Blick auf GB10 ist damit auch weiterhin ein Blick in die Consumer-Zukunft.
- Nvidia N1X, N2 und N2X: Start des Notebookchips noch in Q1, Nachfolger ab Mitte 2027
Einfach ausgedrückt handelt es sich beim Nvidia GB10 Superchip um einen Grace Blackwell Superchip im Kleinformat für den Schreibtisch, dessen Referenzsystem von Nvidia deshalb auch genau so aussehen sollte wie das erste DGX-System mit Tesla-GPUs vor rund 10 Jahren. Nvidia spricht vom „weltweit kleinsten KI-Supercomputer“. Weitere Details zum Nvidia GB10 Superchip liefert der nachfolgende Bericht:
- DGX Spark: Nvidia gibt Einblick in die Technik des GB10
Ein lokales Abbild der DGX-AI-Cloud
Nvidia DGX Spark mit GB10-SoC und Linux-Betriebssystem (DGX OS aus Basis von Ubuntu) ist ein „Dev Kit“, also ein System für Entwickler, die lokal KI-Anwendungen für Nvidias (Cloud-)Ökosystem entwickeln und dafür so viel Grafikspeicher wie möglich zur Verfügung haben wollen. Neben dem Prototyping von späteren Cloud-KI-Anwendungen steht auch die Optimierung von großen LLMs auf der Speisekarte von DGX Spark, denn Nvidia DGX Spark erlaubt es:
- KI-Modelle zu entwickeln, zu validieren und zu optimieren, wobei Modelle mit bis zu 200 Milliarden Parameter (200B) dank 128 GB Unified Memory und INT4-Fähigkeit (Quantifizierung) direkt auf der Box ausgeführt werden können (Inferencing).
- Werden zwei Nvidia DGX Spark über das High-Speed-Interface ConnectX (200 Gbps, Details) verbunden, sind sogar Modelle mit 405 Milliarden Parametern nutzbar.
- Reicht die lokale Leistung oder Speicherkapazität nicht aus, können Entwickler die lokal verrichtete (Vor-)Arbeit an die Nvidia-Cloud übergeben. Das gilt auch für das Training von Modellen, für das DGX Spark nicht gedacht ist.
- Auch Entwickler in den Bereichen Data Science (Nvidia Rapids), Edge und Robotics (Isaac, Metropolis, Holoscan) können von Architektur, Software und Speicherkapazität von Nvidia DGX Spark profitieren.
Eingeschränkt werden die lokalen Möglichkeiten durch die Leistung der GB10-GPU (6.144 CUDA-Cores) und deren Speicherbandbreite: LPDDR5X-8533 (16-Kanal) ist zwar vergleichsweise schnell (273 GB/s), aber GDDR7 auf aktuellen Blackwell-Grafikkarten noch einmal wesentlich schneller (RTX Pro 6000: 1.792 GB/s, 24.064 CUDA-Cores). Und in der Cloud (GB100, GB200, GB300) gibt es sogar HBM3(e) mit 8 TB/s und mehr.
Wer diese Leistung braucht, muss dann eben tiefer in die Tasche greifen (RTX Pro), oder Stunden in der Cloud buchen. Das ist mitunter aber auch gar nicht mehr so teuer, seit kurzem bietet beispielsweise Hetzner neue Systeme mit RTX PRO 6000 und nativen 96 GByte VRAM für umgerechnet knapp 1,70 Euro die Stunde an. Allerdings muss man den Server monatsweise buchen und dann liegen die Kosten mit 1.060 Euro – nach drei Monaten hat man den DGX Spark von Asus raus.
Die „Total Cost of Ownership“ über eine Laufzeit von drei Jahren sieht nicht nur Asus deshalb als ein wesentliches Argument für Nvidia DGX Spark.
Das Nvidia-Ökosystem im Kleinformat
DGX Spark kommt mit DGX OS, das auf Ubuntu 24.04 basiert und einen angepassten Kernel nutzt, der nach Updates gegen Ende 2025 aktuell auf Version 6.14 hört (der Kernel selbst ist aktuell bei 6.18 Stable). Wie in der Cloud gibt es also Linux und nicht Windows als Basis.
Im Endeffekt gibt es hier genau das, was Kunden auch auf einem Grace-Blackwell-DGX-System in der Cloud vorfinden. Und das betrifft nicht nur das OS, sondern auch die darauf lauffähigen KI-Anwendungen- und -Tools.
Ob PyTorch, ComfyUI, LM Studio oder vLLM – Nvidia ist nicht nur der Spitzenreiter in Sachen AI, weil die Hardware überzeugt, sondern auch und insbesondere weil die Industrie auf Hardware und Software von Nvidia groß geworden ist. AMD versucht aufzuholen, aber bei dem hohen Tempo, das Nvidia weiterhin an den Tag liegt, ist das alles andere als leicht.
Nvidia nimmt Neulinge an die Hand
„Die Cloud-Technologie auf dem Schreibtisch“ – Na toll, und nun? Nvidia hat sich bei DGX Spark viel Mühe gegeben nicht nur Hardware- und Software-Basis der DGX-Cloud auf den Tisch zu stellen und Anwender dann mal machen zu lassen, sondern insbesondere weniger versierten Entwicklern eine Hand zu reichen.
Das fängt bei einer umfassenden Dokumentation von Hardware und Software an und zieht sich bis zu den Praxis-Tutorials, „Playbooks“ genannt, fort.
Nvidia DGX Playbooks
Denn was Nvidia bei der kleinen Box hervorragend umgesetzt hat, ist die Einführung in das Ökosystem und dessen Möglichkeiten. Denn um die Möglichkeiten des Nvidia-Chips auszuloten und die 128 GByte LPDDR5X auch mal vollends anzusprechen, braucht es die passenden Anwendungen. Die DGX Spark Playbooks bieten dafür dutzende Beispiele und zugleich einen Einstieg in die Materie.
KI-Entwickler, die DGX Spark kaufen, weil sie dessen Vorzüge in ihrem Umfeld gezielt nutzen wollen, werden das wohl eher nicht brauchen. Für die in Bezug auf die KI-Entwicklung eher weniger versierten Redakteure waren die Playbooks indes eine interessante Spielwiese für den Umgang mit DGX Spark. Und Entwickler, die mit dem Gedanken spielen, in Zukunft KI-Anwendungen auf dem Nvidia Software Stack zu entwickeln, sehen das eventuell genauso.