Connect with us

Apps & Mobile Entwicklung

AI-Infrastruktur: Microsoft hat Chips auf Halde, weil es an Strom mangelt


AI-Infrastruktur: Microsoft hat Chips auf Halde, weil es an Strom mangelt

Bild: Microsoft

Der Wettlauf beim Aufbau der AI-Infrastruktur betrifft nicht nur Chips und Gelder, sondern auch die Stromversorgung. Microsoft-CEO Satya Nadella erklärt jetzt in einem Podcast, der Konzern habe bereits Chips vorrätig, die man derzeit nicht in Betrieb nehmen könnte.

Die Aussagen von Nadella stammen aus einem Gespräch im Bg2 Pod, bei dem auch OpenAI-Chef Sam Altman teilnahm. Von den Zitaten berichtet Tom’s Hardware.

Vorausgegangen war ein Verweis auf Aussagen von Nvidia-Chef Jensen Huang, der vor kurzem erklärte, dass es in den kommenden zwei bis drei Jahren kein Überangebot von Rechenzentren-Leistung geben werde. In diesem Kontext erklärte nun Nadella: „Das größte Problem, das wir derzeit haben, ist nicht ein Überangebot an Rechenleistung, sondern Energieversorgung.

Die Herausforderung sei nun, die Energieversorgung für Rechenzentren rechtzeitig zu gewährleisten. „Wenn man das nicht schafft, hat man möglicherweise eine Menge Chips auf Lager, die man nicht anschließen kann.“ Und genau das sei derzeit sein Problem. Nicht die Chipversorgung bremse derzeit den Ausbau, vielmehr habe er „keine ‚warm shells‘ zum Anschließen“, so Nadella.

Mit „warm shells“ sind ausgebaute und betriebsbereite Rechenzentren-Gebäude gemeint, die im Prinzip nur noch mit den Servern samt den Chips ausgestattet werden müssen.

OpenAIs Milliarden-Abkommen hängen an der Energieversorgung

Die Herausforderungen rund um die Energieversorgung beim Ausbau der AI-Infrastruktur verschärfen sich damit weiter. Schon jetzt sind die Kapazitäten in Regionen mit vielen Rechenzentren am Limit. Das gilt etwa für den Norden von Virginia oder das Umland von Memphis, Tennessee, in dem xAIs KI-Supercomputer Colossus steht und immer weiter ausgebaut wird. Und in den USA als Ganzes steigen mittlerweile die Strompreise für sämtliche Haushalte aufgrund der enormen Energienachfrage.

Wie OpenAIs Ausbaupläne von der Energiefrage beeinflusst werden, analysierte die Financial Times bereits in dem Bericht, die Abkommen mit Unternehmen wie AMD, Nvidia, Oracle und Broadcom beschrieb, die sich mittlerweile auf mehr als 1 Billion US-Dollar belaufen. Eine der zentralen Punkte ist: Die Deals mit den Chiplieferanten Nvidia und AMD sind gestaffelt. OpenAI muss diese erst abnehmen, wenn die Rechenzentren-Kapazitäten vorhanden sind.

The company’s deals with AMD and Nvidia are staggered so OpenAI will pay as new capacity is developed. But 20GW of capacity would require power roughly equivalent to that provided by 20 nuclear reactors, and analysts have questioned whether it is realistic for that demand to be met by a single company.

Auszug aus dem Bericht der Financial Times

Die Gesamtkapazität der Verträge beläuft sich aber auf Kapazitäten, die mehr als 26 Gigawatt umfassen. Um diesen Bedarf zu versorgen, sind enorme Investitionen nötig. Big-Tech-Konzerne wollen zwar unter anderem auf Atomkraft setzen, insbesondere die Neubaupläne stecken noch in frühen Entwicklungsphasen.

OpenAI setzt daher auf die US-Regierung. Diese solle sich dafür einsetzen, dass in den USA pro Jahr 100 Gigawatt an neuen Kapazitäten entstehen, erklärte das Unternehmen Ende Oktober. „Elektronen sind das neue Öl“, lautete eine der Kernbotschaften.



Source link

Apps & Mobile Entwicklung

Steam Awards 2025: Abstimmung ist gestartet, das sind die nominierten Spiele


Steam Awards 2025: Abstimmung ist gestartet, das sind die nominierten Spiele

Bild: Valve

Mit dem Start der Winter-Rabattaktion auf Steam stehen auch die 55 nominierten Spiele für die Steam Awards 2025 fest. Ab sofort können alle Spieler mit Steam-Account in elf Kategorien unter den jeweils fünf Finalisten abstimmen. Die Bekanntgabe der Gewinner erfolgt am 3. Januar 2026.

11 × 5 Nominierungen stehen fest

Ausgewählt wurden die nominierten Spiele ausschließlich von Steam-Nutzern. Bis zum 1. Dezember konnten Spieler ihre favorisierten Titel vorschlagen, jetzt ist die Endabstimmung unter den jeweils fünf Spielen mit den meisten Vorschlägen je Kategorie gestartet. Als Spiel des Jahres stehen der Extraction-Shooter Arc Raiders von Embark, Clair Obscur: Expedition 33 von Sandfall Interactive, Dispatch von AdHoc Studio, Hollow Knight: Silksong von Team Cherry und Kingdom Come: Deliverance II von Warhorse zur Auswahl.

Das sind die nominierten Spiele für die Steam Awards (Bild: Valve)

Die nominierten Spieler aller zehn weiteren Kategorien lassen sich der Bildergalerie entnehmen. Auch bei der finalen Abstimmung haben allein Steam-Nutzer das sagen.

Ein Gegenentwurf zu den Game Awards

Die Steam Awards sind somit ein Gegenentwurf zu den Game Awards, deren Sieger für das Jahr 2025 bereits feststehen. Verantwortlich zeichnete dabei maßgeblich eine Jury, bestehend aus einflussreichen Gaming-Medien und -Influencern. Spieler selbst konnten für die nominierten Titel bloß mit einem reinen Stimmgewicht von nur 10 Prozent abstimmen.

Beide Ansätze bringen Vor- und Nachteilen mit sich. Bei den Steam Awards können etwa kategorisch keine Spiele berücksichtigt werden, die gar nicht auf Steam erschienen sind – logisch. Ins Hintertreffen geraten aber ebenso Spiele, die zum Release weniger Trubel und Hype erzeugt haben oder schlicht und ergreifend nicht genügend Spieler über Influencer mobilisieren können. Schlimmstenfalls wird in erster Linie Popularität bewertet, nicht Qualität.

Angesichts der bei Unterhaltungs­­medien immer wieder auftretenden Phänomene Review Bombing und Vote Brigading laden publikums­basierte Preise selbstredend zu Missbrauch ein. Außerdem öffnet eine unkuratierte Abstimmung auch Tür und Tor für Trolle: Vor zwei Jahren hat etwa ausgerechnet Starfield den Preis für das innovativste Gameplay erhalten. Unumstritten und per se aussagekräftiger als die Game Awards sind Valves virtuelle Trophäen also auch nicht.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Grafikkarten bald unbezahlbar? » nextpit


Für Gamer wird es im kommenden Jahr teuer. Die Preise für Speicher haben sich bereits deutlich erhöht, nun greift Nvidia zu einer ungewöhnlichen Maßnahme: Beliebte Grafikkarten sollen vom Markt verschwinden.

Mit dem Erfolg von ChatGPT haben sich die Möglichkeiten künstlicher Intelligenz (KI) nicht nur einem breiten Publikum gezeigt. Die Zugriffszahlen auf den Dienst sind förmlich explodiert. Mehr als 100 Millionen Nutzende weltweit greifen täglich auf das Angebot zurück, und es ist nicht das einzige seiner Art. Dementsprechend überschlagen sich die großen Anbieter, vor allem in den USA, mit Ankündigungen zum Bau neuer Rechenzentren, die die vielen KI-Anfragen abarbeiten sollen.

Die nötigen Server-Systeme benötigen entsprechende Komponenten, und das sorgt an anderer Stelle für Knappheit. In den vergangenen Wochen sorgten die Preisrallyes bei DRAM-Chips für Aufsehen. Diese werden sowohl für Arbeitsspeicher als auch SSDs benötigt.

Kahlschlag in der Mittelklasse?

Nun folgt die nächste Hiobsbotschaft, die insbesondere bei Gamern neue Sorgenfalten entstehen lässt. Einem Bericht von OC3D zufolge soll Nvidia schon zu Beginn des kommenden Jahres die Produktion von Grafikchips verringern, die üblicherweise auf Grafikkarten aufgebracht werden. Im Vergleich zum ersten Quartal 2025 sollen die Stückzahlen in den ersten drei Monaten des kommenden Jahres um 30 bis 40 Prozent sinken.

Der Hersteller leidet dabei offenbar unter dem gleichen Problem wie die Branche insgesamt: Die Lagerbestände an GDDR7-Speicherchips schmelzen dahin. Um dem Mangel zu entgegnen, scheint Nvidia einen drastischen Schritt vorzubereiten. Allem Anschein nach will der Hersteller die Fertigung von zwei Modellen vollständig beenden.

Dabei soll es sich, wenig verwunderlich, um die GeForce RTX 5060 Ti und die RTX 5070 Ti handeln. Beide Grafikkarten sind verbesserte Varianten der populären Ausgangsmodelle RTX 5060 und RTX 5070, bei denen vorrangig der Grafikspeicher von acht bzw. zwölf auf 16 Gigabyte erhöht wurde. Allerdings sind die Margen in dieser Klasse tendenziell geringer als bei der leistungsstarken RTX 5080 oder RTX 5090. Der Verzicht ist an dieser Stelle am leichtesten zu verschmerzen.

AAA-Spiele nur noch für teure Karten?

Für Gamer bedeutet die Entscheidung Nvidias nichts Gutes. Gerade bei anspruchsvollen Spielen ist die Bedeutung des Grafikspeichers enorm, wenn die Kompromisse bei der Qualität der Darstellung nicht zu groß werden sollen. AMD bietet im Rahmen seiner RX-Serie zwar ebenfalls interessante Grafikkarten für Gamer an. Allerdings sollen bei diesen im neuen Jahr die Preise steigen.

Damit wird das Jahr 2026 nicht nur für Spielende herausfordernd. Auch die Spieleentwickler dürften die schwierige Versorgungslage bei wichtigen PC-Komponenten mit Sorge beobachten. Insbesondere die Verkaufszahlen neuer sogenannter AAA-Titel könnten unter dem begrenzten Angebot leiden. Bei diesen wird oftmals nicht nur mit brillanterer Grafik und noch schnelleren Effekten geworben – häufig steigen auch die Anforderungen an die zugrunde liegende Hardware.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Samsung-Speicher: SOCAMM2 mit LPDDR5X startet, in Zukunft auch mit LPDDR6


Samsung-Speicher: SOCAMM2 mit LPDDR5X startet, in Zukunft auch mit LPDDR6

Samsung hat kurz vor Jahresende SOCAMM2 offiziell ins Portfolio aufgenommen. Die neuen Speichermodule sind eine Mischung aus klassischen UDIMMs bestückt mit LPDDR5X und in erster Linie für Profilösungen gedacht. In Zukunft werden sie auch auf LPDDR6 setzen, wie Samsung bestätigte.

SOCAMM: Das steckt dahinter

SOCAMM steht für Small Outline Compression Attached Memory Module. Es ist ein neuer Standard für Speichermodule, die mit energiesparenden DRAM-Chips bestückt werden und die vorrangig zunächst für den Einsatz im KI-Umfeld gedacht sind. Die Basis für SOCAMM bilden die Erfahrungen, die mit CAMM/CAMM2 gemacht wurden, bei SOCAMM wird jedoch noch stärker auf ein kleines Profil sowie auf energiesparenden und schnellen Speicher geachtet. Statt mit geringer getaktetem LPDDR5 zu starten wurde SOCAMM2 seit Mitte des Jahres favorisiert, da hier mindestens LPDDR5X-8533 genutzt wird. Samsung spricht zwar nicht von Taktraten, dürfte diesen Umstand aber auch erfüllen.

SOCAMM2-Modul mit LPDDR5X
SOCAMM2-Modul mit LPDDR5X (Bild: Samsung)

Spezifiziert ist bisher nur ein Modul, das 90 mm lang, aber nur 14 mm breit ist. Das Modul wird dabei aber nicht hochkant eingesteckt wie UDIMMs, sondern mit der flachen Unterseite aufgelegt und verschraubt – also so ähnlich wie bei CAMM.

Das erste SOCAMM-System ist spät dran

Nvidias DGX Station ist das erste System, das diese Module einsetzt, welche direkt neben der Grace-CPU auf der Platine verschraubt werden. Technische Probleme an mehreren Stellen einschließlich SOCAMM verhinderten bisher den Marktstart der DGX Station. Gezeigt wurden sie im letzten Dreivierteljahr auf jeder Messe, die Website zeigt jedoch auch im Dezember 2025 weiterhin unverändert den Hinweis „Notify me“. Die DGX Station ist laut Nvidia „der ultimative Desktop-AI-Supercomputer“, der wie DGX Spark und die Grace-Blackwell-Supercomputer-Blades auf Nvidias Grace-Blackwell-Kombination setzt. Immerhin ist der Spark nun endlich verfügbar, die Station sollte bis Jahresende von mehreren Partnern folgen – zwölf Tage sind ja noch Zeit.

DGX Station bei MSI
DGX Station bei MSI
DGX Station von Asus
DGX Station von Asus
DGX Station von Gigabyte
DGX Station von Gigabyte
DGX Station von Supermicro
DGX Station von Supermicro

Next up: SOCAMM mit LPDDR6

SOCAMM und SOCAMM2 auf Basis von LPDDR5X markieren zusammen die erste Generation, die eben noch einige Probleme ausbügeln muss. Samsung gibt in einem weiteren Blog-Post jedoch bereits bekannt, dass SOCAMM gekommen ist, um zu bleiben. Das logische Anschlussprodukt ist also SOCAMM mit LPDDR6, die Transferraten starten bei bei höheren 10,7 Gbps.

Building on LPDDR6, we are developing several high-performance, low-power DRAM technologies such as SOCAMM—an AI-focused module solution leveraging LPDDR6 architecture—and LPDDR6-PIM, which integrates compute capabilities directly into DRAM.

Samsung



Source link

Weiterlesen

Beliebt