Vera ist Nvidias neue Datacenter-CPU für den Einsatz mit Rubin-GPU (als Vera Rubin) oder als eigenständige Lösung im Rack mit bis zu 256 Prozessoren. Im Rahmen der GTC 2026 hat Nvidia weitere technische Details zu Vera verraten: Vera hat mehr Kerne, unterstützt SMT, bietet größere Caches und nutzt schnelleren Speicher.
Nvidia Vera folgt auf die aktuelle Grace-CPU, die von Nvidia unter anderem als Single-Socket-Umsetzung Grace CPU C1, im Doppelpack als Grace CPU Superchip, oder im Zusammenspiel mit Blackwell-GPUs als Grace Blackwell (Ultra) angeboten wird.
Vera kommt auch im CPU-only-Rack
Vera soll im Laufe des zweiten Halbjahres 2026 an den Start gehen. Vorgesehen sind erneut unterschiedliche Konfigurationen, etwa in Kombination mit Rubin-GPUs, oder aber als reines CPU-Rack, das sich in Nvidias Referenz-Lösung mit bis zu 256 Prozessoren bestücken lässt. Partner wie HPE gehen sogar noch weiter und verbauen bis zu 640 Vera-CPUs in einem Server-Schrank.
88 Olympus-Kerne mit SMT
Vera macht einiges anders als Grace, wie eine technische Session zur GTC verdeutlichte. Zunächst einmal bietet Vera schlichtweg mehr Kerne als Grace: 88 statt 72. Es handelt es sich zudem nicht mehr um Neoverse-V2-Kerne von Arm, sondern um ein Custom-Design namens Olympus, dem die Architektur Arm v9.2 zugrunde liegt, auf der auch Neoverse-V3-Kerne basieren. Vera sei vollständig Arm-kompatibel, erklärt Nvidia.
Es sind in Vera aber nicht nur 16 Kerne mehr verbaut, das Design bringt erstmals auch „Spatial Multi-Threading“ (SMT) ins Spiel, sodass 176 Threads verarbeitet werden können. Im Gegensatz zu anderen SMT-Verfahren wird aber nicht auf ein Time-Slicing gesetzt, sodass „A“ und „B“ im Wechsel ausgeführt werden, sondern Vera kann bei SMT tatsächlich zwei Threads parallel über die Pipelines des Kerns verteilen.
Spatial Multi-Treading (SMT) bei Olympus
Single Thread Mode oder SMT Mode
Dabei lässt sich Vera in zwei Modi betreiben:
Im Single Thread Mode gibt es maximal einen aktiven Thread pro Core. Dieser Thread kann auf alle Ressourcen des Cores zugreifen, zum Beispiel auf die sechs SVE2-Pipelines.
Im SMT Mode können hingegen bis zu zwei Threads pro Core aktiv sein. Jeder Olympus-Kern wird gegenüber dem Betriebssystem als zwei virtuelle Kerne exponiert. Die Ressourcen des Cores werden in dieser Konfiguration physisch partitioniert und stehen beiden Threads in gleicher Anzahl zur Verfügung, also etwa drei SVE2-Pipelines pro Thread. Ist im SMT Mode allerdings nur ein Thread aktiv, kann dieser wieder auf alle Ressourcen zugreifen.
Olympus ist ein 10-wide Design mit FP8-Support
Der Olympus genannte Custom-Arm-Core von Nvidia ist ein „10-wide“ Decode-Design und ist damit deutlich breiter als Grace aufgebaut. Beim Decode werden die geladenen Maschinenbefehle in interne Steuer- und Mikrooperationen übersetzt, damit die Recheneinheiten verstehen, was konkret ausgeführt werden soll.
Nvidia hat zudem den L2-Cache verdoppelt, den L1D-Cache vergrößert, mehr Vector Pipelines integriert, FP8-Support hinzugefügt und das zuvor erläuterte SMT integriert. Die Vera-CPU ist die weltweit erste Arm-CPU, die FP8-Operationen unterstützt, also denselben Datentyp, wie ihn auch Nvidias GPUs unterstützen.
Arm MPAM hält Einzug
Das Design führt zudem Arm MPAM ein. MPAM ist eine Hardware-Erweiterung in modernen Arm-Prozessoren, die eine feingranulare Kontrolle über gemeinsam genutzte Ressourcen wie Cache und Speicherbandbreite ermöglicht. Sie erlaubt es, diese Ressourcen bestimmten Anwendungen, Prozessen oder virtuellen Maschinen gezielt zuzuweisen, zu begrenzen oder zu priorisieren.
Gleichzeitig kann MPAM überwachen, wie stark einzelne Workloads diese Ressourcen tatsächlich nutzen. Das ist besonders wichtig in Systemen mit vielen parallel laufenden Aufgaben (z. B. Cloud, Server oder AI), da so verhindert wird, dass einzelne Anwendungen den Speicher „überlasten“ und andere ausbremsen. Insgesamt verbessert MPAM also Isolation, Vorhersagbarkeit und Quality of Service im System.
Darf es von allem deutlich mehr sein?
Vera ist auch über den Olympus-Kern hinaus ein mächtigerer Chip mit mehr und schnellerem Speicher. Dessen Maximum steigt von 480 GB LPDDR5X bei Grace auf jetzt 1,5 TB SOCAMM2-LPDDR5X. SOCAMM2 ist modular, sodass bei Speicher-Defekten nicht direkt ein Vera-Board ausgetauscht respektive aufwendig repariert werden muss. Auch bei der Speicherbandbreite, der NVLink-C2C-Bandbreite beim Einsatz von zwei CPUs, dem SLC sowie dem Scalable Coherency Fabric (SCF) und weiteren Aspekten legt Vera nach.
Fabric verbindet Nodes mit Cores, Caches und mehr
Über das Scalable Coherency Fabric werden die Cores, der SLC, der Speicher, NVLink und I/O mit 3,4 TB/s Bisektionsbandbreite angebunden. Das Fabric gliedert sich in die Cache Switch Nodes (CSN), von denen jeder Node mit bis zu vier weitere Nodes verbunden ist. Jeder CSN verbindet bis zu zwei Olympus-Kerne und zwei Slices des SLC mit dem Mesh. Angebunden wird an den CSN auch jeweils ein Memory Switch Node (MSN), der wiederum die Verbindung zum LPDDR5X-Speichersubsystem herstellt.
2nd Gen Nvidia Scalable Coherency Fabric
Über Brücken am Nord- und Südende des Chips erfolgt die Verbindung einerseits zum NVLink-C2C (Norden), um eine Vera-CPU mit einer weiteren zu verbinden. Zum anderen wird darüber die Verbindung zum I/O-Subsystem für PCIe (Süden) hergestellt.
Vera im Benchmark gegenüber Grace
Um die Leistung von Vera gegenüber Grace zu verdeutlichen, hat Nvidia die Leistung im DCPerf Benchmark von Meta demonstriert. Dabei erfolgt das SVT-AV1-Encoding auf Multi-Core-CPUs mittels FFmpeg. DCPerf ahmt die Encoding-Pipeline von Instagram, Reels, Facebook Short Videos etc. nach. Als Datensatz wird der Open-Source-Film El Fuente von Netflix verwendet.
DCPerf Benchmark mit SVT-AV1-Encoding
In diesem Benchmark erreicht Vera eine bis zu 2,02-fache Leistung gegenüber Grace. Das lässt sich folgendermaßen erklären: 46 Prozent mehr Leistung Im Vergleich zu Grace kommen zunächst einmal über die Verbesserungen der Mikroarchitektur von Olympus. Der höhere Vektor-Durchsatz und die größeren Caches tragen ihren Teil dazu bei. Weitere 27 Prozent kommen über die 27 Prozent mehr Kerne von Vera hinzu. Weitere 29 Prozent lassen sich mit SMT hinzufügen.
Taktraten waren kein Thema
Nvidia vergleicht dabei nach dem Ansatz „ISO Core“, also mit gleicher Anzahl von Kernen, obwohl Grace 72 Kerne und Vera eigentlich 88 Kerne bietet. Ob der Vergleich auch nach „ISO Clock“ erfolgt ist, wollten die Moderatoren der Session nicht offenlegen. Taktraten blieben ebenfalls unter Verschluss, sie sollen sich aber nicht stark voneinander unterscheiden. Bis zu 3,44 GHz sind es bei Grace.
TDP liegt bei 450 Watt
Zum Abschluss der Session folgte im Raum noch eine letzte Frage zum Verbrauch von Vera. Nvidia gibt bis zu 450 Watt pro Sockel an. Bei Grace sollen es inklusive Speicher 500 Watt sein. Vera könne mit einer TDP von minimal 250 Watt konfiguriert werden.
ComputerBase hat Informationen zu diesem Artikel von Nvidia unter NDA im Vorfeld und im Rahmen einer Veranstaltung des Herstellers in San Jose, Kalifornien erhalten. Die Kosten für An-, Abreise und fünf Hotelübernachtungen wurden vom Unternehmen getragen. Eine Einflussnahme des Herstellers oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe aus dem NDA war der frühestmögliche Veröffentlichungszeitpunkt.
Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.
Exascend PE4: Erste M.2-SSD mit 16 TB zum dekadenten Preis auf Amazon
Bild: Exascend
Eine der ersten M.2-SSDs mit rund 16 TB bietet der Hersteller Exascend an. Genau genommen sind vom Speicher 15,36 TB nutzbar. Zuvor war im Formfaktor M.2 2280 bei 8 TB (oder 7,68 TB) Schluss. Die für Unternehmen bestimmte SSD der Serie PE4 hat aber einen stolzen Preis.
Die Möglichkeiten zur Umsetzung einer M.2-SSD mit 16 TB bestehen schon lange und so mancher Hersteller, wie etwa Patriot mit der Viper PD573, hat auch schon Vorserienexemplare gezeigt. Doch im regulären Handel verfügbar war bisher keine davon, sodass es bei maximal 8 TB in diesem Formfaktor blieb.
16 TB auf M.2 2280 erstmals im Endkundenhandel
Bei Amazon findet sich jetzt aber die Exascend PE4, eine Enterprise-SSD-Serie mit PCIe 4.0, die es in verschiedenen Formaten gibt. Darunter ist auch der M.2-2280-Formfaktor mit 80 mm Länge. In diesem Format werden erstmals 16 TB NAND-Flash zum Kauf angeboten. Da der Reservespeicher größer als bei Consumer-SSDs ausfällt, sind davon 15,36 TB nutzbar. Laut Angaben des Herstellers soll die PE4 im M.2-Format bis zu 3.270 MB/s lesend und 2.980 MB/s schreibend erreichen. Die maximalen IOPS liegen bei 404.000 lesend und 52.000 schreibend, was verdeutlicht, dass die Leseleistung bei diesem Modell im Vordergrund steht.
Exascend PE4 SSD mit bis zu 15,36 TB in M.2 2280 (Bild: Amazon)
Bild 1 von 2
Exascend PE4 SSD mit bis zu 15,36 TB in M.2 2280 (Bild: Exascend)
Zum Controller liegen keine Angaben vor, dieser kann allerdings auf einen dedizierten DRAM-Cache zurückgreifen und versteht sich mit PCIe 4.0 sowie NVMe 1.4. Die Leistungsaufnahme soll im aktiven Betrieb bei unter 7,2 Watt und im Leerlauf bei weniger als 1,3 Watt liegen. Die 5 Jahre währende Garantie wird durch ein TBW-Limit von 16.640 TB (16,64 PB) eingeschränkt.
Extrem hoher Preis
Selbst in Zeiten der Speicherkrise mit stark gestiegenen Kosten ist der Preis, der auf Amazon für die 16-TB-SSD verlangt wird, unverhältnismäßig hoch. Zur Stunde liegt er bei rund 13.850 Euro*, während die 8-TB-Version mit rund 5.400 Euro deutlich weniger als die Hälfte kostet. Die 16-TB-Exklusivität hat also vorerst einen sehr hohen Preis. Bis Ende März will Exascend die SSD auch nach Deutschland liefern können.
Für Verbraucher mit hohem Bedarf an Speicherplatz sind zwei SSDs vom Typ Samsung 9100 Pro 8 TB für je unter 1.000 Euro* sicherlich die bessere und auch schnellere Wahl. Denn hier gibt es bereits PCIe 5.0 mit bis zu 14.800 MB/s und über 2 Millionen IOPS.
SSD-Kaufberatung 2025: Diese SSDs sind auf Basis fundierter Tests ihr Geld wert
(*) Bei den mit Sternchen markierten Links handelt es sich um Affiliate-Links. Im Fall einer Bestellung über einen solchen Link wird ComputerBase am Verkaufserlös beteiligt, ohne dass der Preis für den Kunden steigt.
Rückkehr der Legende: Prime Video zündet Kult-Bombe
Ein unsichtbarer Kobold, echte Passanten und viel Chaos – klingt nach genau der Art Unterhaltung, die Ihr nicht verpassen solltet? Genau das liefert Pumuckl in seinem neuesten Abenteuer. Mit versteckter Kamera mischt er das Münchner Stadtleben auf – frech, überraschend und mit Herz.
Amazon bringt bei seinem Streamingdienst Prime Video eine echte Kultfigur zurück; modern und neu gedacht. „Schnick Schnack – Pumuckl treibt Schabernack“ startet am 1. April 2026 mit insgesamt sechs Folgen – und nein, es wirklich kein verfrühter Aprilscherz. Statt in der Werkstatt herumzualbern und Meister Eder Streiche zu spielen, zieht es Pumuckl raus in die echte Welt, mitten hinein in den Alltag ahnungsloser Menschen.
Pumuckl neu vertont – mit KI!
Ein besonderes Highlight dürfte für viele von Euch die Stimme sein: Michael Kessler übernimmt die neuen Texte, die mithilfe von Künstlicher Intelligenz in die unverwechselbare Stimme von Hans Clarin verwandelt werden. Damit bleibt der ikonische Klang erhalten, den viele noch aus ihrer Kindheit kennen. Hinter der Produktion steht Otto Steiner, der bereits mit Formaten wie „LOL – Last One Laughing“ bewiesen hat, dass er Gespür für erfolgreiche Unterhaltung hat.
Inhaltlich beginnt das Chaos mit einer unfreiwilligen Bootsfahrt: Pumuckl landet auf der Isar und findet sich plötzlich mitten in München wieder. Vom Englischen Garten aus startet seine turbulente Reise zurück nach Hause. Auf dem Weg dorthin sorgt er für reichlich Verwirrung bei echten Passanten – doch wie man ihn kennt, sind seine Streiche nie wirklich böse. Stattdessen treffen sie oft genau den richtigen Ton zwischen Humor, Charme und einem feinen Gespür für Gerechtigkeit.
Pumuckl kommt zu Prime Video von Amazon – und macht München unsicher. Bildquelle: Prime Video
Streiche folgen einer Geschichte
Was die Show besonders macht: Die einzelnen Streiche stehen nicht für sich allein. Stattdessen sind sie Teil einer durchgehenden Geschichte, die sich über alle Episoden erstreckt. Immer wieder sorgen Cliffhanger dafür, dass Ihr dranbleiben wollt. Gerade dann, wenn es brenzlig wird und Pumuckl Gefahr läuft, entdeckt zu werden.
Das neue Format verbindet gekonnt nostalgischen Zauber mit moderner Inszenierung und Technik. Für Euch bedeutet das: eine Mischung aus versteckter Kamera, Serien-Story und Kindheitserinnerungen, die überraschend gut zusammenpasst. Gleichzeitig ist das Ganze auch eine kleine Liebeserklärung an München. Und eine Einladung an alle, die den kleinen Kobold neu entdecken wollen oder ihn schon lange ins Herz geschlossen haben.
Nach Amazon-Finanzierung: Microsoft erwägt Klage gegen OpenAI
Microsoft erwägt eine Klage gegen OpenAI und Amazon, berichtet die Financial Times. Der Grund ist die Cloud-Partnerschaft von OpenAI und Amazon, auf die sich die Unternehmen im Rahmen der letzten Finanzierungsrunde verständigt haben. Amazon hatte verkündet, bis zu 50 Milliarden US-Dollar in OpenAI zu investieren.
Verstoß gegen Exklusiv-Vereinbarung?
Konkret ist OpenAIs Agenten-Plattform Frontier der Streitpunkt. Mit dieser will man Unternehmen ermöglichen, eigenständig KI-Agenten zu erstellen und zu verwalten. Ein Novum ist, dass Amazon als exklusiver Cloud-Anbieter vorgesehen ist. Frontier soll also auf den AWS-Servern laufen.
Laut den Informationen der Financial Times bewertet Microsoft dieses Abkommen als Verstoß gegen die Exklusiv-Vereinbarung, die seit 2019 zwischen OpenAI und Microsoft besteht. Damals investierte der Konzern 1 Milliarde US-Dollar in das noch junge KI-Startup. Das Abkommen sieht seitdem vor, dass OpenAIs Modelle über Azure laufen. Lange Zeit war dieser Deal für beide Seiten lukrativ. OpenAI erhält Cloud-Computing-Ressourcen, die bei Microsoft den Umsatz der Azure-Sparte nach oben treiben.
Nach Ansicht von OpenAI und Amazon wurde der Frontier-Deal so konzipiert, dass er die Microsoft-Vereinbarung nicht betrifft. „Wir kennen unseren Vertrag“, sagte eine Person zur Financial Times, die mit Microsofts Position vertraut ist. Würden Amazon und OpenAI auf die Kreativität ihrer Anwälte wetten, sieht sich Microsoft in einer guten Position. Die Cloud-Pläne für Frontier würden den Geist von Microsofts und OpenAIs Partnerschaft und voraussichtlich auch den Vertragstext verletzen.
Es kriselt schon länger bei OpenAI und Microsoft
Dass es bei OpenAI und Microsoft in der Partnerschaft kriselt, ist schon länger bekannt. Bislang hat man aber immer noch das Ziel gehabt, die Streitigkeiten außergerichtlich beizulegen. Das könnte sich durch Frontier ändern.
Schon bei der letzten Finanzierungsrunde war auffällig, dass Microsoft nicht zu den Unternehmen zählt, die weitere Gelder in OpenAI investieren. In einem Blog-Beitrag erklärte der Konzern Ende Februar aber noch, dass die Partnerschaft weiterhin intakt ist. OpenAI hatte sich zuvor schon von Microsoft emanzipiert und ist Abkommen mit anderen Cloud-Providern eingegangen. Der Kern des Deals – also der Betrieb von OpenAIs Modellen sowie der Zugang von Microsoft zur Technologie – blieb aber bestehen.
Der neue Amazon-Deal könnte nun der Schritt zu viel gewesen sein. Interesse an einem Gerichtsstreit haben aber eigentlich weder Microsoft noch OpenAI, berichtet die Financial Times. Gegen Microsoft laufen Kartellverfahren in den USA, dem Vereinigten Königreich und der EU. Den Wettbewerbshütern will man keine Munition liefern.
Und OpenAI befindet sich unter anderem mit Elon Musk in diversen gerichtlichen Auseinandersetzungen. Angesichts weiterer Finanzierungsrunden und dem potenziellen Börsengang ist das Ziel des Unternehmens, keine weiteren Unsicherheiten zu schaffen.
OpenAI und Amazon wollten sich nicht auf Anfrage der Financial Times äußern. Ein Microsoft-Sprecher erklärte indes, man sei sicher, dass OpenAI die rechtlichen Verpflichtungen versteht und respektiert.