Apps & Mobile Entwicklung
Elden Ring Nightreign DLC: The Forsaken Hollows erscheint nächsten Monat

Der Coop-Ableger von Elden Ring erhält im kommenden Monat neue Inhalte in Form des DLCs „The Forsaken Hollows“. Der bringt neue Herausforderungen für Streifzüge von drei Spielern und zeigt, dass das Konzept des Spiels aufgeht.
Hinter Elden Ring Nightreign steckt ein „Coop-Souls“ für drei Spieler, die wie in einem Roguelike in verschiedene Raids geschickt werden. Das zog zum Start über zwei Millionen Spieler an, die in ausreichender Anzahl geblieben sind, um eine Weiterentwicklung sinnvoll zu machen.
Das bringt der DLC
Die setzt mit The Forsaken Hollows dort an, wo Bedarf war: Bei Veröffentlichung wurde der verhältnismäßig geringe Umfang des 40-Euro-Titels als Kritikpunkt geführt. Er fügt dem Spiel zwei Bosse und zwei zusätzliche spielbare Klassen hinzu. Der Gelehrte verfügt über starke arkane Fähigkeiten, der Leichenbestatter stützt sich auf Stärke und Glauben.
Darüber hinaus kann mit dem DLC ein neues Verschobene-Erde-Event, The Great Hollow, gespielt werden, bei dem die Karte stark verändert wird. Darin erkunden Spieler die Tiefen von Limveld und erkunden „exotische Ruinen und Tempel“ einer untergegangenen Zivilisation. Wie sich das spielt, zeigt Sony im nachfolgenden Trailer.
Erscheinungstermin und Systemanforderungen
Gespielt werden kann The Forsaken Hollows ab dem 4. Dezember 2025. Der DLC ist Teil der Deluxe Edition von Elden Ring Nightreign und kann für rund 15 Euro einzeln gekauft werden. Er ersetzt dabei das Deluxe Upgrade Pack. Vorbesteller, die bis zum 3. Dezember kaufen, erhalten das digitale Artbook und einen Mini-Soundtrack als Bonus. Auf dem PC bleiben die Systemanforderungen gegenüber dem Basisspiel unverändert, sie liegen damit relativ niedrig.
Apps & Mobile Entwicklung
100 Mrd. USD Jahresumsatz: AMD Epyc und Instinct werden Ryzen und Radeon in den Schatten stellen
Der Financial Analyst Day 2025 von AMD stand im Zeichen großer Zahlen, aber weniger Produktneuheiten. Im Profibereich geht es hoch hinaus, denn in den nächsten drei bis fünf Jahren erwartet AMD mit Epyc und Instinct einen Jahresumsatz von über 100 Milliarden US-Dollar – aktuell sind es etwas über 16 Milliarden.
Dass AMDs Profisparte in Zukunft der treibende Faktor sein wird, daran bestand zuletzt kein Zweifel mehr. Nirgendwo wird aktuell mehr Geld verdient als im AI-Geschäft und AMD fängt hier erst an. So richtig losgehen wird es nämlich laut Prognosen ab dem Jahr 2026 mit der MI400-Familie und dem ersten, echten Rackscale-Design Helios, das ein Jahr später mit MI500 schon ein umfassendes Upgrade erhalten wird.
Auch das CPU-Geschäft rund um Epyc profitiert davon. AMD ist hier auf bestem Weg, bald die 50 Prozent Marktanteil zu übertreffen und damit Intel endgültig an der Spitze des Marktes abzulösen. Kein großes Unternehmen fährt mehr ohne AMD-Systeme im Portfolio und so profitiert auch AMDs Server-CPU-Sparte vom AI-Boom. AI wird laut neuesten Analysen effektiv die Nachfrage nach Epyc-CPUs verdoppeln und so insgesamt einen Markt von 60 Milliarden US-Dollar Umsatz im Jahr 2030 bieten.
Zusammengerechnet sollen Epyc und Instinct letztlich über 100 Milliarden US-Dollar Jahresumsatz in den kommenden drei bis fünf Jahren erreichen. Viel hängt also weiterhin von Instinct ab, wann und wie viele AI-Beschleuniger AMD hier absetzen kann. Um das Ziel schon 2028 erreichen zu können, müsste Instinct mehr Umsatz machen als Epyc.
Epycs bekommen Zen-6- und Zen-7-Kerne zuerst
Epyc wiederum wird im ersten Halbjahr 2026 zuerst die Zen-6-Architektur und vermutlich daran anschließend 2028 auch Zen 7 zuerst bekommen. Ein Novum, bisher war eigentlich immer ein Consumer-Produkt das erste, aber Profi-Chips sind nun einfach wichtiger. Passend dazu spielen die Erweiterungen in der ISA genau in diese Richtung: AI, AI, AI und eine neue Matrix-Engine (für AI). Diese war zuletzt sogar schon offiziell mit Intel verkündet worden: ACE, das steht für Advanced Matrix Extensions for Matrix Multiplication.
Zen 6 im Notebook erst 2027, im Desktop Ende 2026
Ryzen-Lösungen für den Mainstream-Markt wiederum werden hinterher hängen. Effektiv bestätigte AMD eine Zen-6-Lösung für den Desktop mit einem Produktionsstart im zweiten Halbjahr 2026. Bei mobilen Chips wird es bis zum Jahr 2027 dauern. 2026 kommt nur ein Refresh des 2024er Produkts, Gorgon Point als Strix-Point-Update. Zen 7 in den Client-Bereich zu extrapolieren ist aktuell unmöglich, 2029 dürfte wohl realistisch sein – das wiederum deckt sich mit einer DDR6-Roadmap von SK Hynix.
Am Ende macht AMDs Finanzchefin auch hier nochmal klar, warum: Die regulären, klassischen Sparten wie Client, Gaming und Embedded, wachsen zwar auch, allerdings mit vielleicht zehn oder etwas mehr Prozent. Das ist immer noch ein sehr guter Wert, allerdings sind die Erwartungen in der Profisparte mindestens fünf bis sechs Mal so hoch.
Und von den klassischen Sparten ist es am Ende die Semi-Custom-Abteilung, die am meisten verspricht. Denn neben Gaming-Lösungen sind es Aufträge für das Militär, Regierungen, die Raumfahrt und mehr, die ebenfalls nach oben schnellen.
Unterm Strich wird AMDs Ausrichtung für die Zukunft eine ganz ähnliche wie die von Nvidia. Das Profigeschäft wird alles andere überstrahlen, dem Unternehmen neben Umsatz aber auch gesteigerte Gewinne einbringen. Diese wiederum sollen aber auch investiert werden, zukünftige Produkte könnten davon profitieren.
Unterm Strich ist es vor allem die Zeitfrage, die für eine gewisse Unsicherheit bei der Umsetzung sorgt. Fünf Jahre sind eine lange Zeit, im schnelllbigen AI-Zeitalter sehr lange. Genau dort hat AMD jedoch Pläne jenseits 2027 missen lassen. Der Börse reicht das aber erst einmal, die Aktie ging vor Handelsstart in den USA über sechs Prozent ins Plus.
Apps & Mobile Entwicklung
MLPerf Training 5.1: Nvidia gewinnt alles, aber AMD kommt mit Partnern endlich an
Während Nvidia einmal mehr versuchte, die neuen MLPerf-Training-Ergebnisse für sich zu nutzen, glänzt auch AMD stetig mehr. Zwar kann Nvidia 15 Ergebnisse von Partnern präsentieren, AMD überrascht aber mit ebenfalls schon neun Partnern, die AMD-Hardware in den Tests nutzen. Und so ergriff dann auch AMD prompt das Wort.
Nvidia versuchte im Vorabcall, der auf neutralem Boden unter MLPerf-Flagge am letzten Donnerstag stattfand, das Zepter in der Frage- und Antwortrunde ein wenig an sich zu reißen. Das macht das Unternehmen gern, viele andere Unternehmen sagen gar nichts – diese Chance nutzt Nvidia dann stets. Dabei betont der Hersteller – wie auch bei jeder anderen Veranstaltung – wie gut Blackwell, GB300 und NVL72 doch sei und wie super das ankomme. Dabei wird stets das Marketing-Einmaleins herunter gesprochen, ohne den Hauch einer neuen Information.
AMD Instinct kommt endlich breiter an
In dieser Runde war es dann aber die AMD-Sprecherin, die direkt im Anschluss das Wort ergriff und zeigte, dass es Alternativen gibt – und diese endlich auch präsenter werden. Vor allem das nun direkt neun Partner im Boot sind, ist ein echtes Erfolgserlebnis für AMD, denn hier hatte das Unternehmen lange Zeit überhaupt nichts bis wenig vorzuweisen. Und so zeigt sich ein breites Feld an Instinct MI300X, MI325X und neuen MI355X, die gepaart mit diversen Epyc-Prozessoren unterwegs sind.
For the MLPerf 5.1 Training round, AMD is proud to announce its first submission using the new AMD Instinct MI350 Series GPUs, including both the MI355X and MI350X platforms.
AMD Instinct MI350 Series GPUs demonstrates strong generational performance
improvements, delivering up to 2.2X higher performance on Llama 2-70B when comparing the
MI355X platform to the MI325X platform, and up to 2.9X higher performance comparing the
MI355X platform to the MI300X platform.
AMD
Der Grundstein ist hier nun mehr als gelegt, einen langen Weg hat AMD aber auch noch vor sich. Immerhin: Zum Financial Analyst Day am gestrigen Tage wurden 100 Milliarden US-Dollar Jahresumsatz nur durch Epyc und Instinct binnen drei bis fünf Jahren ausgerufen. Aktuell macht AMD 16 Mrd. UD-Dollar Jahresumsatz damit.
Nvidia bleibt bis dahin einsamer Herrscher
An GB300 alias Blackwell Ultra ist natürlich mit keiner Lösung bisher ein Herankommen. Dass Nvidia am Ende überall ganz oben steht, ist auch dieses Mal der Fall und zeigt einmal mehr, was für eine solide Vorarbeit das Unternehmen in den letzten Jahren und nun fast Jahrzehnten geleistet hat. NVFP4 ist das aktuelle Thema nicht nur für Inference, sondern auch Training – und dass nun auch auf GB300.
This round marks the MLPerf Training debut of the GB300 NVL72 rack-scale system in the available category, featuring 72 Blackwell Ultra GPUs connected as one giant GPU using
fifth-generation NVLink.
NVIDIA also made the first-ever training submissions this round using NVFP4
precision, which combines innovations across numerics, hardware architecture, and software to
accelerate time to train. Together, these technologies nearly doubled Llama 3.1 405B training
performance at the same 512-GPU scale NVIDIA submitted using GB200 NVL72 just five
months ago.
NVIDIA also submitted GB200 NVL72 results at 5,120 GPU scale on the Llama 3.1 405B
benchmark, more than doubling the maximum scale submitted last round. The combination of
significantly larger scale, NVFP4 precision that allows faster math, and accompanying software
optimizations yielded a 2.7x improvement in Blackwell training performance at scale.
Nvidia
Mit dabei ist auch mal eine riesige Skalierung von über 5.000 GB200. Dies ist insofern interessant, als dass so die ganzen großen AI-Datacenter aussehen – oder gar noch größer werden. Dabei erreicht Nvidia eine Skalierung von 85 Prozent, von 2560 auf 5.120 Chips.
Universitäten adaptieren Technologien
Einen interessanten Einblick gab es durch die Universität aus Florida (UF). Diese wolle nicht nur zeigen, dass solche Benchmarks nachvollziehbar sind, zugleich sollen sie auch die Akzeptanz steigern. Ein Ansatzpunkt der Uni: Wie kann man sich verbessern? Dabei geht es nicht nur darum den schnelleren Chip zu nutzen, sondern eben alles Drumherum zu optimieren. Gelernt haben die Leute der Universität dabei vor allem, das am Netzwerk und InfiniBand sehr viel Leistung herauszuholen ist, was der Nvidia-Sprecher mit der Aussage „Network is the Key in Training“ untermauerte.
This submission confirms that reproducible AI benchmarking can be performed
on multi-tenant HPC systems using standard infrastructure and widely adoptable workflows.
As the sole academic institution in this submission round, UF contributes operational insights to
MLCommons, helping advance transparent and trustworthy AI performance measurement. UF
is committed to sharing our experience, collaborating with peers and enabling more institutions
to run compliant AI workloads on shared HPC infrastructure.
University of Florida
ComputerBase hat Informationen zu diesem Artikel von MLCommons und Nvidia unter NDA erhalten. Die einzige Vorgabe war der frühestmögliche Veröffentlichungszeitpunkt.
Apps & Mobile Entwicklung
Cooler Master MasterFrame 400: Premium-Gehäuse bleibt sich auch in klein treu

Das MasterFrame 400 komplettiert Cooler Masters Serie flexibler Premium-Gehäuse mit einem Micro-ATX-Modell. Schlichte Formsprache und Variabilität bleiben auch beim kleinsten Tower der Reihe grundlegende Prinzipien – genau wie potentiell großvolumige Kühlung.
Die Serie versteht Cooler Master als Leinwand zur Selbstverwirklichung, mit der das individuell passende System geschaffen werden soll, der Hersteller nennt das System „FreeForm 2.0“. Hinter dem hochtrabenden Marketing-Sprech steckt ein Gehäuse, das horizontal oder vertikal aufgestellt werden kann. Hingelegt kann hier allerdings der Kauf von nicht näher genanntem Zubehör oder Adaptern nötig werden, schreibt der Hersteller auf der Produktseite.
Die Form ist weniger „free“
Im Gegensatz zu MasterFrame 500 und MasterFrame 600 wird in der Beschreibung kein Wort mehr über Modularität oder Individualisierung verloren. Für die anderen Gehäuse der Reihe gibt es 3D-Design-Dateien zum Entwurf von Zubehör, sie können Komponenten zudem modularer anordnen.
Davon ist hier nichts zu sehen: Das MasterFrame 400 unterstützt zwar auch ein gespiegeltes Layout, die Komponenten sind allerdings fix. Zumindest Zubehör sollte es allerdings geben, denn diese Option gehört fest zum „Free-Form“-Konzept. Für Veränderbarkeit sorgt außerdem der zerlegbare Rahmen des Gehäuses sowie umlaufende Montagepunkte.
Riesige Lüfter im Konzept
Ausgeliefert wird das Gehäuse mit einem 120-mm-Lüfter der SickleFlow-Serie mit RGB-LEDs. An Front sowie Boden und Deckel passen zudem 200- oder 180-mm-Modelle mit einer Tiefe von maximal 25 (Deckel) und 30 (Boden) Millimeter. An der Oberseite passt zudem ein 360-mm-Radiator in das Gehäuse.
Festplatten sind beim MasterFrame 400 vor allem im M.2-Format vorgesehen: Wer ein 3,5″- oder 2,5″-Laufwerk montieren will, muss dafür auf Lüfter am Gehäuseboden verzichten. Dank einem für Micro-ATX-Gehäuse großzügigem Volumen von 46 Liter passen CPU-Kühler und Grafikkarte zudem in praktisch unbegrenzter Größe.
Preis und Verfügbarkeit
Das MasterFrame 400 wird in Schwarz und Silber erhältlich sein. Termin und Preis hat Cooler Master noch nicht kommuniziert. Betrachtet man die beiden anderen Gehäuse der Serie, sind Marktpreise um 135 Euro als realistisch anzunehmen.
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Datenschutz & Sicherheitvor 2 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
UX/UI & Webdesignvor 4 WochenIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
