Apps & Mobile Entwicklung
Medienberichte: Samsung qualifiziert endlich 12-Hi HBM3e für Nvidia

Nach jahrelangen Rückschlägen soll es Samsung endlich gelungen sein, den HBM3e für Nvidia zu qualifizieren und final validieren zu lassen. Die Lieferung soll sofort starten, denn das Unternehmen hatte im letzten halben Jahr bereits fleißig auf Halde vorproduziert. Von 10.000 Einheiten direkt zu Beginn ist die Rede.
Noch keine offizielle Bestätigung
Aktuell ist die Quellenlage allerdings noch ziemlich dünn, eine offizielle Bestätigung gibt es nicht. Lediglich das südkoreanische Magazin Alpha Economy direkt aus Seoul berichtet darüber. Wenige Stunden zuvor gab es aber auch bereits erste Gerüchte, die via X verbreitet wurden. Am Tag zuvor hieß es hingegen noch, Samsungs HBM3e sei endgültig durchgefallen; diese Behauptung verneinte Samsung jedoch umgehend und erklärte, alles laufe nach Plan.
Da dieser eigentlich nur vorsieht, dass die Chips von Nvidia gekauft werden, könnte sich die Meldung letztlich als zutreffend erweisen. Zuletzt wirkte die Lage noch dramatisch, als es aus dem Umfeld hieß, Samsung würde sein Leben darauf verwetten, dass der eigene HBM3e am Ende noch zum Erfolg wird.
10.000 Einheiten können viel, aber auch wenig sein
Nicht ganz klar ist, worauf sich die Anzahl von 10.000 Einheiten, die Samsung an Nvidia liefern soll, genau bezieht. Was auf den ersten Blick nach viel klingt, ist aus anderer Perspektive sehr überschaubar. Ein Nvidia GB300 benötigt allein acht 12-Hi-Stacks mit je 36 GByte Kapazität, um seine 288 GByte realisieren zu können. 10.000 komplette HBM3e-Stapel würden also auch erst einmal nur für 1.250 GB300 reichen.
Samsungs Preis für HBM3e 12Hi soll deutlich unterhalb des Preises liegen, den SK Hynix bisher verlangt hat. Koreanische Analysten sehen ihn bei Samsung bei 360 US-Dollar pro Stapel, bei SK Hynix lag der Preis in diesem Jahr bei 540 US-Dollar. Preissenkungen für HBM3e könnten langfristig also die Folge sein, doch schon bald übernimmt HBM4. Hier geht es ebenfalls als 12-Hi Stack wohl bei rund 600 US-Dollar los.
Bei HBM4 erneut hinter SK Hynix?
Letzte Berichte besagen, dass es bei HBM4 zu Beginn wohl erneut ein Alleingang von SK Hynix werden könnte, jedoch soll er dieses Mal nicht mehrere Jahre, sondern nur Monate andauern. Samsung könnte demnach in rund einem Jahr bei HBM4-Lieferungen einsteigen. Nach dem Desaster mit der HBM3e-Qualifizierung bleibt das aber abzuwarten.
Update
Apps & Mobile Entwicklung
Steam Awards 2025: Abstimmung ist gestartet, das sind die nominierten Spiele

Mit dem Start der Winter-Rabattaktion auf Steam stehen auch die 55 nominierten Spiele für die Steam Awards 2025 fest. Ab sofort können alle Spieler mit Steam-Account in elf Kategorien unter den jeweils fünf Finalisten abstimmen. Die Bekanntgabe der Gewinner erfolgt am 3. Januar 2026.
11 × 5 Nominierungen stehen fest
Ausgewählt wurden die nominierten Spiele ausschließlich von Steam-Nutzern. Bis zum 1. Dezember konnten Spieler ihre favorisierten Titel vorschlagen, jetzt ist die Endabstimmung unter den jeweils fünf Spielen mit den meisten Vorschlägen je Kategorie gestartet. Als Spiel des Jahres stehen der Extraction-Shooter Arc Raiders von Embark, Clair Obscur: Expedition 33 von Sandfall Interactive, Dispatch von AdHoc Studio, Hollow Knight: Silksong von Team Cherry und Kingdom Come: Deliverance II von Warhorse zur Auswahl.
Die nominierten Spieler aller zehn weiteren Kategorien lassen sich der Bildergalerie entnehmen. Auch bei der finalen Abstimmung haben allein Steam-Nutzer das sagen.
Ein Gegenentwurf zu den Game Awards
Die Steam Awards sind somit ein Gegenentwurf zu den Game Awards, deren Sieger für das Jahr 2025 bereits feststehen. Verantwortlich zeichnete dabei maßgeblich eine Jury, bestehend aus einflussreichen Gaming-Medien und -Influencern. Spieler selbst konnten für die nominierten Titel bloß mit einem reinen Stimmgewicht von nur 10 Prozent abstimmen.
Beide Ansätze bringen Vor- und Nachteilen mit sich. Bei den Steam Awards können etwa kategorisch keine Spiele berücksichtigt werden, die gar nicht auf Steam erschienen sind – logisch. Ins Hintertreffen geraten aber ebenso Spiele, die zum Release weniger Trubel und Hype erzeugt haben oder schlicht und ergreifend nicht genügend Spieler über Influencer mobilisieren können. Schlimmstenfalls wird in erster Linie Popularität bewertet, nicht Qualität.
Angesichts der bei Unterhaltungsmedien immer wieder auftretenden Phänomene Review Bombing und Vote Brigading laden publikumsbasierte Preise selbstredend zu Missbrauch ein. Außerdem öffnet eine unkuratierte Abstimmung auch Tür und Tor für Trolle: Vor zwei Jahren hat etwa ausgerechnet Starfield den Preis für das innovativste Gameplay erhalten. Unumstritten und per se aussagekräftiger als die Game Awards sind Valves virtuelle Trophäen also auch nicht.
Apps & Mobile Entwicklung
Grafikkarten bald unbezahlbar? » nextpit
Für Gamer wird es im kommenden Jahr teuer. Die Preise für Speicher haben sich bereits deutlich erhöht, nun greift Nvidia zu einer ungewöhnlichen Maßnahme: Beliebte Grafikkarten sollen vom Markt verschwinden.
Mit dem Erfolg von ChatGPT haben sich die Möglichkeiten künstlicher Intelligenz (KI) nicht nur einem breiten Publikum gezeigt. Die Zugriffszahlen auf den Dienst sind förmlich explodiert. Mehr als 100 Millionen Nutzende weltweit greifen täglich auf das Angebot zurück, und es ist nicht das einzige seiner Art. Dementsprechend überschlagen sich die großen Anbieter, vor allem in den USA, mit Ankündigungen zum Bau neuer Rechenzentren, die die vielen KI-Anfragen abarbeiten sollen.
Die nötigen Server-Systeme benötigen entsprechende Komponenten, und das sorgt an anderer Stelle für Knappheit. In den vergangenen Wochen sorgten die Preisrallyes bei DRAM-Chips für Aufsehen. Diese werden sowohl für Arbeitsspeicher als auch SSDs benötigt.
Kahlschlag in der Mittelklasse?
Nun folgt die nächste Hiobsbotschaft, die insbesondere bei Gamern neue Sorgenfalten entstehen lässt. Einem Bericht von OC3D zufolge soll Nvidia schon zu Beginn des kommenden Jahres die Produktion von Grafikchips verringern, die üblicherweise auf Grafikkarten aufgebracht werden. Im Vergleich zum ersten Quartal 2025 sollen die Stückzahlen in den ersten drei Monaten des kommenden Jahres um 30 bis 40 Prozent sinken.
Der Hersteller leidet dabei offenbar unter dem gleichen Problem wie die Branche insgesamt: Die Lagerbestände an GDDR7-Speicherchips schmelzen dahin. Um dem Mangel zu entgegnen, scheint Nvidia einen drastischen Schritt vorzubereiten. Allem Anschein nach will der Hersteller die Fertigung von zwei Modellen vollständig beenden.
Dabei soll es sich, wenig verwunderlich, um die GeForce RTX 5060 Ti und die RTX 5070 Ti handeln. Beide Grafikkarten sind verbesserte Varianten der populären Ausgangsmodelle RTX 5060 und RTX 5070, bei denen vorrangig der Grafikspeicher von acht bzw. zwölf auf 16 Gigabyte erhöht wurde. Allerdings sind die Margen in dieser Klasse tendenziell geringer als bei der leistungsstarken RTX 5080 oder RTX 5090. Der Verzicht ist an dieser Stelle am leichtesten zu verschmerzen.
AAA-Spiele nur noch für teure Karten?
Für Gamer bedeutet die Entscheidung Nvidias nichts Gutes. Gerade bei anspruchsvollen Spielen ist die Bedeutung des Grafikspeichers enorm, wenn die Kompromisse bei der Qualität der Darstellung nicht zu groß werden sollen. AMD bietet im Rahmen seiner RX-Serie zwar ebenfalls interessante Grafikkarten für Gamer an. Allerdings sollen bei diesen im neuen Jahr die Preise steigen.
Damit wird das Jahr 2026 nicht nur für Spielende herausfordernd. Auch die Spieleentwickler dürften die schwierige Versorgungslage bei wichtigen PC-Komponenten mit Sorge beobachten. Insbesondere die Verkaufszahlen neuer sogenannter AAA-Titel könnten unter dem begrenzten Angebot leiden. Bei diesen wird oftmals nicht nur mit brillanterer Grafik und noch schnelleren Effekten geworben – häufig steigen auch die Anforderungen an die zugrunde liegende Hardware.
Apps & Mobile Entwicklung
Samsung-Speicher: SOCAMM2 mit LPDDR5X startet, in Zukunft auch mit LPDDR6

Samsung hat kurz vor Jahresende SOCAMM2 offiziell ins Portfolio aufgenommen. Die neuen Speichermodule sind eine Mischung aus klassischen UDIMMs bestückt mit LPDDR5X und in erster Linie für Profilösungen gedacht. In Zukunft werden sie auch auf LPDDR6 setzen, wie Samsung bestätigte.
SOCAMM: Das steckt dahinter
SOCAMM steht für Small Outline Compression Attached Memory Module. Es ist ein neuer Standard für Speichermodule, die mit energiesparenden DRAM-Chips bestückt werden und die vorrangig zunächst für den Einsatz im KI-Umfeld gedacht sind. Die Basis für SOCAMM bilden die Erfahrungen, die mit CAMM/CAMM2 gemacht wurden, bei SOCAMM wird jedoch noch stärker auf ein kleines Profil sowie auf energiesparenden und schnellen Speicher geachtet. Statt mit geringer getaktetem LPDDR5 zu starten wurde SOCAMM2 seit Mitte des Jahres favorisiert, da hier mindestens LPDDR5X-8533 genutzt wird. Samsung spricht zwar nicht von Taktraten, dürfte diesen Umstand aber auch erfüllen.
Spezifiziert ist bisher nur ein Modul, das 90 mm lang, aber nur 14 mm breit ist. Das Modul wird dabei aber nicht hochkant eingesteckt wie UDIMMs, sondern mit der flachen Unterseite aufgelegt und verschraubt – also so ähnlich wie bei CAMM.
Das erste SOCAMM-System ist spät dran
Nvidias DGX Station ist das erste System, das diese Module einsetzt, welche direkt neben der Grace-CPU auf der Platine verschraubt werden. Technische Probleme an mehreren Stellen einschließlich SOCAMM verhinderten bisher den Marktstart der DGX Station. Gezeigt wurden sie im letzten Dreivierteljahr auf jeder Messe, die Website zeigt jedoch auch im Dezember 2025 weiterhin unverändert den Hinweis „Notify me“. Die DGX Station ist laut Nvidia „der ultimative Desktop-AI-Supercomputer“, der wie DGX Spark und die Grace-Blackwell-Supercomputer-Blades auf Nvidias Grace-Blackwell-Kombination setzt. Immerhin ist der Spark nun endlich verfügbar, die Station sollte bis Jahresende von mehreren Partnern folgen – zwölf Tage sind ja noch Zeit.
Next up: SOCAMM mit LPDDR6
SOCAMM und SOCAMM2 auf Basis von LPDDR5X markieren zusammen die erste Generation, die eben noch einige Probleme ausbügeln muss. Samsung gibt in einem weiteren Blog-Post jedoch bereits bekannt, dass SOCAMM gekommen ist, um zu bleiben. Das logische Anschlussprodukt ist also SOCAMM mit LPDDR6, die Transferraten starten bei bei höheren 10,7 Gbps.
Building on LPDDR6, we are developing several high-performance, low-power DRAM technologies such as SOCAMM—an AI-focused module solution leveraging LPDDR6 architecture—and LPDDR6-PIM, which integrates compute capabilities directly into DRAM.
Samsung
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online

