Künstliche Intelligenz

SK Hynix fertigt HBM4-Stacks mit über 2 TByte/s in Serie


Der seit kurzem größte DRAM-Hersteller der Welt, SK Hynix aus Südkorea, hat am vergangenen Freitag die Serienfertigung seiner HBM4-Stacks bekannt gegeben. Noch im Mai ging das Unternehmen davon aus, dieses Ziel erst im Oktober erreichen zu können – nun ist es einige Wochen früher soweit.

Im Gegensatz zum derzeit vorwiegend bei KI-Beschleunigern verbauten HBM3E, technisch gesehen die fünfte Generation des High-Bandwidth-Memory, soll HBM4 mindestens doppelt so schnell werden. Zwar steigen die Bandbreiten pro Pin nur moderat, aber die Breite des Busses für jeden der Stapel verdoppelt sich: von 1024 Bit bei HBM3E auf 2048 bei HBM4. Fraglich war bisher, wie hoch die HBM-Hersteller Micron, Samsung und SK Hynix die Bandbreite pro Pin treiben können. Nur die letztgenannten machten jetzt konkrete Ankündigungen.

Das Normierungsgremium JEDEC sieht für HBM4 8 Gbit/s pro Pin vor. Laut einer Mitteilung von SK Hynix kann man dort aber „über 10 Gbit/s“ auch in der Massenfertigung erreichen. Genauer gibt das Unternehmen die Geschwindigkeit nicht an. Schon bei genau 10 GBit/s ergeben sich dabei über 2,5 TByte/s für den gesamten Chipstapel. Er bestand bei den ersten Mustern von SK Hynix vor einem halben Jahr aus 12 Lagen mit je 24 Gbit Kapazität, also 36 Gigabyte Kapazität pro Stack.

Mit nur vier dieser Stacks könnte also eine künftige GPU mit 144 Gigabyte RAM ausgestattet werden, das zudem mehr als doppelt so schnell wie bisher ist. Und laut SK Hynix 40 Prozent energieeffizienter. Das eingesparte Strom- und Wärmebudget könnte dann der GPU zugeschlagen werden.

Den größten Bedarf nach hohen Kapazitäten und vor allem Bandbreiten gibt es bei KI-Anwendungen, wo schneller GPU-Speicher für große Modelle unerlässlich ist. Vor allem Nvidia soll nach unbestätigten Berichten aus Südkorea für seine im nächsten Jahr erwartete GPU-Architektur „Rubin“ wiederholt besonders hohe Bandbreiten von den DRAM-Herstellern gefordert haben. Die Erwartungen sind so hoch, dass die Aktien von SK Hynix nach der Ankündigung kurzzeitig um über sieben Prozent zulegten und seitdem weiter stiegen.

In dieser Woche wurde zudem deutlich, dass die gesteigerten Bandbreiten zusammen mit mehr GPU-Rechenleistung neue Ansätze für das Inferencing erlauben. Nvidia kündigte für Ende 2026 eine Spezialkonstruktion namens Rubin CPX an. Sie soll in einem System sowohl eine Mixture-of-Experts, als auch verschieden lange Kontexte erlauben. Die Hintergründe finden sich in unserer Meldung zu Rubin CPX.

Lesen Sie auch


(nie)



Source link

Beliebt

Die mobile Version verlassen