Apps & Mobile Entwicklung
SOCAMM2: Micron packt jetzt 256 GB LPDDR5X auf ein Modul

Micron hebt die Speicherkapazität des neuen RAM-Formats SOCAMM2 von zuvor maximal 192 GB auf nun 256 GB pro Modul. Möglich machen es die ersten 32-Gbit-Dies vom Typ LPDDR5X. Gegenüber RDIMMs wird bei Energie und Platzbedarf ein Drittel gespart, so Micron. Effizientere KI-Server sind ein Einsatzgebiet.
SOCAMM steht für Small Outline Compression Attached Memory Module. Es ist ein neuer Standard für Speichermodule, die mit energiesparenden DRAM-Chips bestückt werden und die vorrangig zunächst für den Einsatz im KI-Umfeld gedacht sind. Die Basis für SOCAMM bilden die Erfahrungen, die mit CAMM/CAMM2 gemacht wurden, bei SOCAMM wird jedoch noch stärker auf ein kleines Profil sowie auf energiesparenden und schnellen Speicher geachtet. Die schmalen Module werden dabei nicht hochkant wie UDIMMs eingesteckt, sondern mit der flachen Unterseite aufgelegt und verschraubt.
Für kompatible Systeme wie Nvidias DGX Station hat Micron jetzt die ersten SOCAMM2 mit 256 GB vorgestellt, die Auslieferung an Partner zur Bemusterung habe bereits begonnen. Die Basis liefern die laut Micron branchenweit ersten monolithischen 32-Gb-LPDDR5X-Chips. Ein Die erreicht somit eine Speicherkapazität von 4 GByte, folglich sind davon 64 Stück auf dem SOCAMM2 mit 256 GB verbaut.
Wie Micron vorrechnet, lässt sich mit den neuen Modulen ein Arbeitsspeicher von 2 TB pro 8-Kanal-CPU im Server realisieren. Mit den vorherigen 192-GB-Modulen blieb es in derselben Konfiguration bei 1,5 TB. Je nach (KI-)Anwendung kann der größere Arbeitsspeicher ebenso große Vorteile bringen, einige Beispiele nennt Micron in Form der nachfolgend aufgeführten Grafiken.
Micron betont, dass das Unternehmen das bisher breiteste Portfolio an LPDRAM-Speichern für Rechenzentren besitzt. Die SOCAMM2 werden mit Speicherkapazitäten von 48 GB bis 256 GB angeboten.
Doch natürlich spielt SOCAMM auch bei Samsung und SK Hynix eine Rolle. Samsung hatte bereits über SOCAMM mit LPDDR6 als nächsten logischen Schritt gesprochen, wie es auch auf einer Roadmap von SK Hynix zu lesen war.