Apps & Mobile Entwicklung

Schneller AI-Speicher: HBM4 wird wohl noch teurer als bisher erwartet


Schneller AI-Speicher: HBM4 wird wohl noch teurer als bisher erwartet

HBM3e ist zuletzt teurer geworden, aber HBM4 wird das wohl deutlich toppen: 60 Prozent Aufpreis sind gegenüber HBM3e wieder im Gespräch. Die zuletzt auch stets teurer werdende Basis macht die exakte Preiskalkulation bisher aber noch schwierig. Fest steht nur: Auch Speicher wird teurer werden.

Alte +30-Prozent-Prognose kassiert

Im Mai dieses Jahres glaubten Marktforscher noch, dass HBM4 nur mit einer Preissteigerung von vielleicht 30 Prozent gegenüber HBM3e in den Markt gehen wird. In den darauffolgenden Sommermonaten wurde aber klar, dass diese Prognose alles andere als realistisch ist. Plötzlich tauchten Projektionen auf, die von bis zu 70 Prozent Aufpreis sprachen.

Neue Einschätzungen teilen nun erneut eher diese Möglichkeit. 60 Prozent Aufpreis gegenüber HBM3e soll HBM4 kosten und das, obwohl selbst HBM3e in diesem Jahr bereits 20 Prozent teurer wurde. Doch 600 US-Dollar pro 36-GB-HBM4-Stapel sind alles andere als unrealistisch. Die Nachfrage ist weiterhin exorbitant hoch, bis zum Sommer war SK Hynix zudem nahezu der Alleinverdiener im fortschrittlichen HBM-Geschäft. Nun aber haben sich auch Micron und Samsung in Stellung gebracht, einige US-Dollar daran mitverdienen zu wollen.

Bei HBM4 kommen letztlich viele preistreibende Faktoren zusammen. Nicht nur werden die Kapazität und die Geschwindigkeit gegenüber der Vorgängergeneration ausgebaut und dabei auch noch die Leistungsaufnahme verringert. Hinzu kommen die neuen modernen Base-Dies, das angepasste und nochmals herausforderndere Packaging der Stapelchips mit TSVs und natürlich der Umstand, dass es zu Beginn einfach nur geringe Mengen geben wird, was auch der Ausbeute (Yield) aufgrund der zuvor genannten vielen Faktoren geschuldet ist.

Teuer in der Produktion, aber noch teurer im Verkauf

Für die Speicherhersteller rechnet sich das aber voraussichtlich trotzdem. Zwar steigt der Waferverbrauch für die kommenden Stapelchips mit ihren vielen Lagen bald um den Faktor 4, der Verkaufspreis liegt aber, je nach Modell, bisher beim achtfachen pro Bit – jeweils im Vergleich zu klassischem DRAM. Für Speicherhersteller ist der AI-Boom aktuell und in naher Zukunft deshalb eine Goldgrube.

Die ersten Lösungen, die HBM4 nutzen, werden ab dem zweiten Halbjahr 2026 Nvidia Vera Rubin und AMD Instinct MI400.

HBM3E consumes three times the amount of silicon compared to D5 to produce the same number of bits. Looking ahead, we expect the trade ratio to increase with HBM4, and then again with HBM4E when we expect it to exceed 4 to 1. This sustained and significant increase in silicon intensity for the foreseeable future contributes to tightness for industry leading edge node supply and constrains capacity for non-HBM products.

Micron



Source link

Beliebt

Die mobile Version verlassen