Apps & Mobile Entwicklung
iPhone-17-Event: Apple lädt am 9. September zu „Unfassbar. Und fast da.“
Das Apple-Event, in dessen Rahmen aller Wahrscheinlichkeit nach die Vorstellung der iPhone-17-Serie und der Apple Watch 11 und Apple Watch Ultra 3 erfolgen wird, findet am 9. September ab 19 Uhr deutscher Zeit – in Deutschland – unter dem Motto „Unfassbar. Und fast da.“ statt, wie Apple heute Abend offiziell angekündigt hat.
Apps & Mobile Entwicklung
(G)B300 vs. (G)B200: Blackwell Ultra nimmt Steroide und beherrscht PCIe 6.0
Als Nvidia GB300 auf Basis von Blackwell Ultra zur GTC im März 2025 präsentierte, blieben viele technische Fragen zum Blackwell-Refresh als Brückenschlag zum echten Nachfolger Nvidia Rubin mit Vera noch offen. Zur Konferenz Hot Chips 2025 hat der Konzern jetzt einige geklärt – Überraschung inklusive.
Blackwell Ultra übernimmt wohl den Blackwell-Dual-Die
Eine wesentliche Frage betraf die nach der zugrundeliegenden GPU. Nutzt Blackwell Ultra eine neue, oder die 208 Milliarden schwere Blackwell-GPU mit zwei in einem Chip verbundenen Dies? Dass es die gleiche GPU sein wird, lag nahe, doch erst Nvidias Developer Blog stellt jetzt fest: „Blackwell Ultra is manufactured using TSMC 4NP and features 208B transistors.“
Identische Anzahl Transistoren, identischer Fertigungsprozess – Blackwell Ultra sollte damit auf Chip-Ebene 1:1 Blackwell entsprechen (auch wenn das Blackwell White Paper (PDF) die 208 Mrd. Transistoren explizit nur in Bezug auf Blackwell nennt). Die teils doch gravierenden Unterschiede zwischen Blackwell und Blackwell Ultra erscheinen vor diesem Hintergrund in einem ganz anderen Licht.
Blackwell Ultra bietet mehr
Denn rückblickend war Blackwell als B100, B200 oder GB200 damit sehr stark beschnitten. GB300 nutzt in Zukunft 160 Streaming Multiprocessors mit je 128 Cuda-Kernen, B100, B200 und GB200 griffen hingegen nur auf 144 zurück. Der Vollausbau des Chips dürfte sogar noch mehr Einheiten bieten.

Der breitere Chip darf darüber hinaus noch etwas mehr elektrische Leistung aufnehmen: 1.400 statt 1.200 Watt sind es für das Dual-GPU-CPU-Konstrukt „Grace Blackwell“ (GB300 vs. GB200), 1.200 statt 1.000 Watt für eine separate GPU (B300 vs. B200). Statt 186 GB HBM3e sind 288 GB HBM3e angebunden – dabei bleibt es bei acht Stapeln („Stacks“).
50 Prozent mehr FP4-Leistung
Mehr Ausführungseinheiten, mehr TDP, dadurch mehr Takt und mehr HBM3e – klar, dass Blackwell Ultra schneller ist als Blackwell. Doch schon im März ließ aufhorchen, dass die neue Version bis zu 50 Prozent schneller sein soll. Das Unternehmen sprach von 15 PetaFLOPS für FP4 Dense, also ohne die Sparsity-Beschleunigung, mit der 30 PetaFLOPS möglich sind. Für die ursprüngliche Blackwell-GPU lag diese Angabe noch bei 10 PetaFLOPS. Im Juni dieses Jahres führte Nvidia das weiter aus.
Die überproportional höhere FP4-Leistung von Blackwell Ultra kommt allerdings mit einem Haken: Die INT8, aber insbesondere die FP64-Leistung fällt deutlich. Insbesondere FP64 ist für das Hauptanwendungsgebiet der GPUs, AI Training und Inferencing allerdings so gut wie irrelevant, während FP4 für AI-Anwendungen von immer größerer Bedeutung ist.

Sofern der Chip wirklich der gleiche geblieben ist, hat Nvidia diese Anpassungen allein per „Firmware“ vorgenommen.
PCI Express 6.0
Eine weitere Anpassung von Blackwell Ultra gegenüber Blackwell müsste das ebenso betreffen: Das PCI-Express-Interface beherrscht jetzt PCIe 6.0 mit bis zu 256 GB/s statt vormals PCIe 5.0 mit bis zu 128 GB/s. Die Hardware dafür muss der Blackwell-Chip also ebenfalls schon geboten haben, nur freigegeben wurde die im Jahr 2022 verabschiedete PCIe-Version 6.0 erst jetzt.
Apps & Mobile Entwicklung
Systeme der Zukunft: AMD und IBM wollen Quanten- und Supercomputer vereinen
AMD und IBM gehen eine neue Partnerschaft ein. Diesmal geht es um Hochleistungsrechensysteme der Zukunft. Diese sollen künftig herkömmliche HPC-Plattformen mit KI-Beschleunigern und Quantencomputern vereinen. Die Expertise bei HPC und KI bringt AMD mit, während IBM an Quantencomputern forscht.
Nach KI sind Quantencomputer der nächste Trend
Aktuell ist das Thema Künstliche Intelligenz (KI) in aller Munde und so werden auch die Hochleistungsrechner alias Supercomputer verstärkt mit Hinblick auf diesen Anwendungsfall entwickelt. Während Nvidia den regulären KI-Server-Markt mit seinen Rechenbeschleunigern dominiert, spielt AMD bei den Supercomputern ganz oben mit und bediente unter anderem die aktuell beiden schnellsten Systeme (El Capitan und Frontier) mit seinen Instinct-Coprozessoren sowie Epyc-CPUs.
Das Thema Quantencomputer, dem in den kommenden Dekaden eine große Bedeutung zugesprochen wird, findet bei AMD selbst allerdings quasi nicht statt. Zumindest werden seit einer Weile andere Unternehmen von AMD unterstützt, doch eine eigene Forschung betreibt der CPU-Entwickler bisher nicht. Hier forscht wiederum IBM ganz vorne mit und zählt neben Google und Microsoft zu den wichtigsten Akteuren bei der Entwicklung von Quantencomputern.
AMD und IBM wollen gemeinsam Probleme lösen
Jetzt wollen AMD und IBM gemeinsam an einem Strang ziehen, um die „Zukunft des Computings zu gestalten“, wie es in einer Pressemitteilung heißt. Geplant ist die besagte Vereinigung der Hochleistungsrechner und KI-Beschleuniger mit Quantencomputern. Eine ganz neue Generation von Computerarchitektur mit dem Fokus auf „quantenzentriertes Supercomputing“ soll entstehen. Ultimativ soll damit „eine Vielzahl der schwierigsten Probleme der Welt“ gelöst werden, wird etwas schwülstig als großes Ziel ausgelobt. Der erweiterte Rechenraum von Quantencomputern soll etwa künftig bei der Materialforschung, der Entwicklung von Arzneimitteln oder der Logistik helfen.
„Indem wir erforschen, wie Quantencomputer von IBM und die fortschrittlichen Hochleistungs-Rechentechnologien von AMD zusammenarbeiten können, werden wir ein leistungsstarkes Hybridmodell entwickeln, das die Grenzen des traditionellen Computings überschreitet“, erklärte der IBM-CEO Arvind Krishna. „In unserer Partnerschaft mit IBM erforschen wir die Konvergenz von High-Performance Computing und Quantentechnologien und sehen enorme Chancen, Entdeckungen und Innovationen zu beschleunigen“, wird wiederum AMD-Boss Lisa Su zitiert.
Neuer Hybridansatz für Supercomputing
Als praktisches Beispiel wird die Simulation des Verhaltens von Atomen und Molekülen über Quantencomputer angeführt, während herkömmliche Supercomputer mit KI-Beschleunigern die Analyse der dabei anfallenden riesigen Datenmengen übernehmen. „Gemeinsam könnten diese Technologien reale Probleme mit beispielloser Geschwindigkeit und in beispiellosem Umfang lösen“, heißt es dazu weiter.
Beide Unternehmen wollen nun prüfen, wie sich künftig AMDs CPUs, GPUs und FPGAs in Quantencomputer von IBM integrieren lassen, um unter anderem auch bei der Fehlerkorrektur Hilfe zu leisten, denn das ist noch ein großes Problem bei Quantenrechnern. In diesem Punkt könne die Partnerschaft mit AMD also IBM dabei helfen, das selbst auferlegte Ziel von fehlertoleranten Quantencomputern bis zum Ende dieser Dekade noch zu erreichen.
Demo noch in diesem Jahr
So komplex das Unterfangen aufgrund der völlig unterschiedlichen Plattformarchitekturen auch erscheint, kündigen die Unternehmen noch für den Verlauf dieses Jahres eine erste Demonstration der geplanten Hybrid-Architektur an.
Diese Pläne spielen aber auch schon seit längerem eine Rolle bei den Forschern. Und so hat IBM kürzlich eine Kooperation mit dem japanischen Forschungsinstitut RIKEN verkündet. Dabei soll IBMs modularer Quantencomputer „System Two“ (das Titelbild zeigt „System One“) über ein Hochgeschwindigkeitsnetzwerk mit RIKENs Supercomputer Fugaku verbunden werden.
Apps & Mobile Entwicklung
Asus ROG Astral Dhahab Core: Die Grafikkarte für Goldfans mit Goldallergie
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 1 Woche
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Entwicklung & Codevor 6 Tagen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Social Mediavor 1 Woche
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist