Connect with us

Apps & Mobile Entwicklung

Systeme der Zukunft: AMD und IBM wollen Quanten- und Supercomputer vereinen


Systeme der Zukunft: AMD und IBM wollen Quanten- und Supercomputer vereinen

Bild: IBM

AMD und IBM gehen eine neue Partnerschaft ein. Diesmal geht es um Hochleistungsrechensysteme der Zukunft. Diese sollen künftig herkömmliche HPC-Plattformen mit KI-Beschleunigern und Quantencomputern vereinen. Die Expertise bei HPC und KI bringt AMD mit, während IBM an Quantencomputern forscht.

Nach KI sind Quantencomputer der nächste Trend

Aktuell ist das Thema Künstliche Intelligenz (KI) in aller Munde und so werden auch die Hochleistungsrechner alias Supercomputer verstärkt mit Hinblick auf diesen Anwendungsfall entwickelt. Während Nvidia den regulären KI-Server-Markt mit seinen Rechenbeschleunigern dominiert, spielt AMD bei den Supercomputern ganz oben mit und bediente unter anderem die aktuell beiden schnellsten Systeme (El Capitan und Frontier) mit seinen Instinct-Coprozessoren sowie Epyc-CPUs.

Das Thema Quantencomputer, dem in den kommenden Dekaden eine große Bedeutung zugesprochen wird, findet bei AMD selbst allerdings quasi nicht statt. Zumindest werden seit einer Weile andere Unternehmen von AMD unterstützt, doch eine eigene Forschung betreibt der CPU-Entwickler bisher nicht. Hier forscht wiederum IBM ganz vorne mit und zählt neben Google und Microsoft zu den wichtigsten Akteuren bei der Entwicklung von Quantencomputern.

AMD und IBM wollen gemeinsam Probleme lösen

Jetzt wollen AMD und IBM gemeinsam an einem Strang ziehen, um die „Zukunft des Computings zu gestalten“, wie es in einer Pressemitteilung heißt. Geplant ist die besagte Vereinigung der Hochleistungsrechner und KI-Beschleuniger mit Quantencomputern. Eine ganz neue Generation von Computerarchitektur mit dem Fokus auf „quantenzentriertes Supercomputing“ soll entstehen. Ultimativ soll damit „eine Vielzahl der schwierigsten Probleme der Welt“ gelöst werden, wird etwas schwülstig als großes Ziel ausgelobt. Der erweiterte Rechenraum von Quantencomputern soll etwa künftig bei der Materialforschung, der Entwicklung von Arzneimitteln oder der Logistik helfen.

Indem wir erforschen, wie Quantencomputer von IBM und die fortschrittlichen Hochleistungs-Rechentechnologien von AMD zusammenarbeiten können, werden wir ein leistungsstarkes Hybridmodell entwickeln, das die Grenzen des traditionellen Computings überschreitet“, erklärte der IBM-CEO Arvind Krishna. „In unserer Partnerschaft mit IBM erforschen wir die Konvergenz von High-Performance Computing und Quantentechnologien und sehen enorme Chancen, Entdeckungen und Innovationen zu beschleunigen“, wird wiederum AMD-Boss Lisa Su zitiert.

Neuer Hybridansatz für Supercomputing

Als praktisches Beispiel wird die Simulation des Verhaltens von Atomen und Molekülen über Quantencomputer angeführt, während herkömmliche Supercomputer mit KI-Beschleunigern die Analyse der dabei anfallenden riesigen Datenmengen übernehmen. „Gemeinsam könnten diese Technologien reale Probleme mit beispielloser Geschwindigkeit und in beispiellosem Umfang lösen“, heißt es dazu weiter.

Beide Unternehmen wollen nun prüfen, wie sich künftig AMDs CPUs, GPUs und FPGAs in Quantencomputer von IBM integrieren lassen, um unter anderem auch bei der Fehlerkorrektur Hilfe zu leisten, denn das ist noch ein großes Problem bei Quantenrechnern. In diesem Punkt könne die Partnerschaft mit AMD also IBM dabei helfen, das selbst auferlegte Ziel von fehlertoleranten Quantencomputern bis zum Ende dieser Dekade noch zu erreichen.

Demo noch in diesem Jahr

So komplex das Unterfangen aufgrund der völlig unterschiedlichen Plattformarchitekturen auch erscheint, kündigen die Unternehmen noch für den Verlauf dieses Jahres eine erste Demonstration der geplanten Hybrid-Architektur an.

Diese Pläne spielen aber auch schon seit längerem eine Rolle bei den Forschern. Und so hat IBM kürzlich eine Kooperation mit dem japanischen Forschungsinstitut RIKEN verkündet. Dabei soll IBMs modularer Quantencomputer „System Two“ (das Titelbild zeigt „System One“) über ein Hochgeschwindigkeitsnetzwerk mit RIKENs Supercomputer Fugaku verbunden werden.



Source link

Apps & Mobile Entwicklung

Metal Gear Solid Delta: Snake Eater im Benchmark-Test


ComputerBase hat die PC-Version vom Remake Metal Gear Solid Delta: Snake Eater mit Grafikkarten-Benchmarks und Analysen im Test. Im Fokus stehen Grafikkarten-Benchmarks mit Nvidia GeForce, AMD Radeon und Intel Arc sowie weitere Technik-Analysen zum Upscaling und dem 60-FPS-Limit.

Metal Gear Solid Delta: Snake Eater: Die Technik der PC-Version

Metal Gear Solid 3: Snake Eater ist am 17. November 2004 für die PlayStation 2 erschienen. Mehr als 20 Jahre später folgt mit Metal Gear Solid Delta: Snake Eater nun das Remake für die aktuellen Konsolen PlayStation 5 und Xbox Series sowie den PC. ComputerBase hat die PC-Version getestet.

Das Spiel wurde für das „Remake“ in der Tat technisch komplett erneuert, der Code in der Unreal Engine 5 komplett neu geschrieben. Dennoch halten sich die Entwickler sehr nahe am Original. In einem Aspekt vermutlich sogar zu nahe.

Remake mit Unreal Engine 5

Metal Gear Solid Delta: Snake Eater nutzt die Unreal Engine 5, die genaue Version bleibt leider unklar. Öffentliche Aussagen dazu gibt es nicht und auch die Spieldateien wollen die genaue Iteration nicht verraten.

Optisch ist das Remake eine ziemliche Wucht, der Titel sieht richtig gut aus. Das fängt bei den Charakteren an und hört bei den Umgebungen auf. Das Remake macht schon richtig was her.

Dabei ist es auch gleich, ob es sich um eine der Zwischensequenzen oder richtiges Gameplay handelt – Metal Gear Solid Delta: Snake Eater sieht eigentlich immer gut aus. Der einzige Negativpunkt ist in der Darstellung der Gesichter zu finden, die qualitativ schwankend ausfallen, von sehr gut bis eher schlecht ist alles dabei. Und auch die Gesichtsanimationen könnten besser sein, sie wirken ziemlich steif.

Neue Technik, alte Limits

Metal Gear Solid Delta: Snake Eater orientiert sich sehr am Original, vielleicht etwas zu sehr. So besteht das Spiel wie das Original aus wirklich sehr kleinen Levels, in denen die einzelnen Kartenabschnitte noch von Ladesequenzen unterbrochen werden. Auf der PlayStation 2 war das völlig verständlich, weil es einfach nicht genug Speicher gab. Auf einem modernen PC mit der Unreal Engine 5 ist eine derart hohe Ladesequenz aber vor allem eins: störend.

Da das Verhalten damals rein der Technik geschuldet gewesen ist und absolut nichts zum Gameplay oder der Atmosphäre beiträgt, ist es völlig unklar, warum Konami diesen Aspekt nicht für das ansonsten technisch tolle Remake angepasst hat.

Darüber hinaus gibt es noch ein zweites Problem: Metal Gear Solid Delta: Snake Eater läuft maximal mit 60 FPS. Ganz gleich, welche Einstellung vorgenommen wird oder welche Bildwiederholfrequenz der Monitor hat, mehr als 60 FPS lässt das Spiel einfach nicht zu. Auch bei der Suche in den zahlreichen Ini-Dateien lässt sich kein anpassbarer FPS-Limiter finden. Zwar gibt es einen entsprechenden Eintrag, dieser lässt sich aber nicht ändern.

Beim Upsampling wird es merkwürdig

Metal Gear Solid Delta: Snake Eater bietet als Upsampling das Unreal-Engine-eigene TSR, DLSS oder FSR an. Es wird wie in einigen anderen UE5-Spielen immer ein Upsampling-Algorithmus genutzt (TSR, DLSS, FSR), eine klassische TAA-Kantenglättung gibt es nicht. Intel XeSS fehlt.

Ein Blick auf die Upsampling-Versionen lässt aber stutzen: Das Spiel unterstützt nur DLSS 3 und FSR 3 (oder gar FSR 2), nicht aber DLSS 4 oder FSR 3.1. Ersteres kann per externem Tool (wie Optiscaler) erzwungen werden. Später wird dies auch per Nvidia-App möglich sein, wenn das entsprechende Spiel-Profil dem Treiber hinzugefügt wird.

Da FSR 3.1 fehlt, ist es derzeit hingegen ausgeschlossen, dass FSR 4 per AMD-Treiber-Override hinzu kommen wird. Und Optiscaler als externes Tool hat zumindest in der Review-Version nicht mit dem Spiel zusammenarbeiten wollen.

Was es ebenso nicht gibt, ist Frame Generation jeglicher Art. Das ergäbe bei dem festen 60-FPS-Limit jedoch auch keinen Sinn. Das ändert sich, wenn damit mehr als 60 FPS erreicht werden können – wie das funktioniert, klärt ComputerBase auf der folgenden Seite.

Die technischen Merkmale

Die offiziellen Systemanforderungen

Systemanforderungen für Metal Gear Solid Δ: Snake Eater
Das Grafikmenü der PC-Version

Die Ladezeiten

Manche Spiele laden unglaublich schnell, andere wiederum benötigen eine schiere Ewigkeit. Mit einer Stoppuhr ausgestattet, misst die Redaktion die Ladezeiten ins Hauptmenü und dann von dort in die Testsequenz. Da Ladezeiten variieren können, wird dies insgesamt dreimal durchgeführt und dann ein Durchschnitt gebildet. Zwischen jedem Versuch wird der Rechner neu hochgefahren, sodass keine Dateien mehr im Cache vorliegen. Falls es abbrechbare Intros oder Videosequenzen gibt, werden sie weggeklickt, denn nur die reine Ladezeit ist wichtig. Sofern das Spiel bemerkbar einmalig Shader vorab kompiliert, wird dieser Lauf nicht in die Rechnung einbezogen. Die Zeit der Shader-Erstellung wird separat angegeben.

Dabei ist zu bedenken, dass ComputerBase einen High-End-PC besitzt, der unter anderem mit einem Ryzen 7 9800X3D und einer Seagate FireCuda 530 als PCIe-4.0-fähige NVMe-SSD ausgestattet ist. Entsprechend werden die Ladezeiten auf den meisten Systemen länger ausfallen. Die Werte hier sind nur zur Orientierung gedacht.

So schnell lädt das Spiel

Offizielle Steam-Deck-Kompatibilität

Wenn Spiele auf der Plattform Steam erscheinen, laufen sie auch oft auf dem Steam Deck. Zwar hat die Redaktion bei Technik-Tests nicht immer die Möglichkeit, die Performance auf der tragbaren Konsole zu überprüfen, doch gibt Steam bei den Titeln auch stets eine generelle Einordnung der Kompatibilität an. Wie sie ausfällt, findet sich hier im Artikel.

Aktuell hat Valve aber noch keine Einordnung zur Steam-Deck-Kompatibilität für Metal Gear Solid Delta: Snake Eater bekanntgegeben.



Source link

Weiterlesen

Apps & Mobile Entwicklung

(G)B300 vs. (G)B200: Blackwell Ultra nimmt Steroide und beherrscht PCIe 6.0


Als Nvidia GB300 auf Basis von Blackwell Ultra zur GTC im März 2025 präsentierte, blieben viele technische Fragen zum Blackwell-Refresh als Brückenschlag zum echten Nachfolger Nvidia Rubin mit Vera noch offen. Zur Konferenz Hot Chips 2025 hat der Konzern jetzt einige geklärt – Überraschung inklusive.

Blackwell Ultra übernimmt wohl den Blackwell-Dual-Die

Eine wesentliche Frage betraf die nach der zugrundeliegenden GPU. Nutzt Blackwell Ultra eine neue, oder die 208 Milliarden schwere Blackwell-GPU mit zwei in einem Chip verbundenen Dies? Dass es die gleiche GPU sein wird, lag nahe, doch erst Nvidias Developer Blog stellt jetzt fest: „Blackwell Ultra is manufactured using TSMC 4NP and features 208B transistors.

Identische Anzahl Transistoren, identischer Fertigungsprozess – Blackwell Ultra sollte damit auf Chip-Ebene 1:1 Blackwell entsprechen (auch wenn das Blackwell White Paper (PDF) die 208 Mrd. Transistoren explizit nur in Bezug auf Blackwell nennt). Die teils doch gravierenden Unterschiede zwischen Blackwell und Blackwell Ultra erscheinen vor diesem Hintergrund in einem ganz anderen Licht.

Blackwell Ultra bietet mehr

Denn rückblickend war Blackwell als B100, B200 oder GB200 damit sehr stark beschnitten. GB300 nutzt in Zukunft 160 Streaming Multiprocessors mit je 128 Cuda-Kernen, B100, B200 und GB200 griffen hingegen nur auf 144 zurück. Der Vollausbau des Chips dürfte sogar noch mehr Einheiten bieten.

Ein Blick auf die Dual-Die-Blackwell(-Ultra)-GPU
Ein Blick auf die Dual-Die-Blackwell(-Ultra)-GPU (Bild: Nvidia)

Der breitere Chip darf darüber hinaus noch etwas mehr elektrische Leistung aufnehmen: 1.400 statt 1.200 Watt sind es für das Dual-GPU-CPU-Konstrukt „Grace Blackwell“ (GB300 vs. GB200), 1.200 statt 1.000 Watt für eine separate GPU (B300 vs. B200). Statt 186 GB HBM3e sind 288 GB HBM3e angebunden – dabei bleibt es bei acht Stapeln („Stacks“).

50 Prozent mehr FP4-Leistung

Mehr Ausführungseinheiten, mehr TDP, dadurch mehr Takt und mehr HBM3e – klar, dass Blackwell Ultra schneller ist als Blackwell. Doch schon im März ließ aufhorchen, dass die neue Version bis zu 50 Prozent schneller sein soll. Das Unternehmen sprach von 15 PetaFLOPS für FP4 Dense, also ohne die Sparsity-Beschleunigung, mit der 30 PetaFLOPS möglich sind. Für die ursprüngliche Blackwell-GPU lag diese Angabe noch bei 10 PetaFLOPS. Im Juni dieses Jahres führte Nvidia das weiter aus.

Die überproportional höhere FP4-Leistung von Blackwell Ultra kommt allerdings mit einem Haken: Die INT8, aber insbesondere die FP64-Leistung fällt deutlich. Insbesondere FP64 ist für das Hauptanwendungsgebiet der GPUs, AI Training und Inferencing allerdings so gut wie irrelevant, während FP4 für AI-Anwendungen von immer größerer Bedeutung ist.

Blackwell Ultra legt am stärksten bei FP4 zu
Blackwell Ultra legt am stärksten bei FP4 zu (Bild: Nvidia)

Sofern der Chip wirklich der gleiche geblieben ist, hat Nvidia diese Anpassungen allein per „Firmware“ vorgenommen.

PCI Express 6.0

Eine weitere Anpassung von Blackwell Ultra gegenüber Blackwell müsste das ebenso betreffen: Das PCI-Express-Interface beherrscht jetzt PCIe 6.0 mit bis zu 256 GB/s statt vormals PCIe 5.0 mit bis zu 128 GB/s. Die Hardware dafür muss der Blackwell-Chip also ebenfalls schon geboten haben, nur freigegeben wurde die im Jahr 2022 verabschiedete PCIe-Version 6.0 erst jetzt.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Asus ROG Astral Dhahab Core: Die Grafikkarte für Goldfans mit Goldallergie




Source link

Weiterlesen

Beliebt