Apps & Mobile Entwicklung
AMD Ryzen Threadripper 9000 im Test
HEDT ist nicht tot. AMD hält die Plattform mit den neuen Ryzen Threadripper 9000 am Leben. 32 und 64 Kerne können sich lohnen, wie der Test zeigt, zumal auch die Effizienz gestiegen ist. Käufer des ersten 64-Kern-Threadripper im Jahr 2020 erwartet heute oft ein dreistelliges Leistungswachstum.
Wer braucht AMD Ryzen Threadripper 9000?
Es gibt nichts zu beschönigen: die besten Zeiten von HEDT-Prozessoren sind längst vorbei. Damals, von Intel Sandy Bridge-E über Ivy Bridge-E bis Haswell-E und auch die ersten Generationen Ryzen Threadripper konnten punkten, da sie etwas boten, was der nächste Mainstream-Markt werden könnte: ein kleines Plus an Kernen und zusätzliche Schnittstellen zu vergleichsweise geringem Aufpreis.
Heute ist die Mainstream-Plattform so breit aufgestellt und auch so gut ausgestattet, dass nur noch wenig Spielraum für HEDT bleibt. Im Vorfeld einer möglichen Anschaffung sollten sich Kunden einige Fragen stellen:
- Brauche ich mehr als 16 Kerne/32 Threads wirklich?
- Reichen 256 GByte DDR5-Speicher oder muss es (mehr und) eventuell zusätzlich ein Quad-Channel-Speicherinterface sein?
- PCIe-Lanes bieten den größten Spielraum für Entfaltungen, hier ist das Mainstream-Segment aber auch am stärksten eingeschränkt. Brauche ich zusätzliche Lanes, insgesamt 80 PCIe-5.0-Lanes an der Zahl, für GPUs und/oder SSDs?
- die Kosten: Threadripper X kostet mindestens das Dreifache, Sechsfache oder Achtfache

Wenn eine oder gar mehrere Fragen mit einem klaren Ja beantwortet wurden, dann kann Threadripper durchaus sinnvoll sein. Denn das Gesamtpaket liefert ab, wie der Überblick in Kurzform zeigt.
- Extreme Anwendungsleistung
- Und dabei sogar ziemlich effizient
- Schneller Vier-Kanal-Speicher
- 1 TByte maximaler Speicherausbau
- 80 PCIe-5.0-Lanes
- Dadurch Vielzahl an Möglichkeiten für SSDs und PCIe
- Lauffähig auf bekannten Mainboards
- Hohe Leistungsaufnahme im Leerlauf
- durchschnittliche Spieleleistung
- gesamte Plattformkosten sehr hoch
- Sehr hohe Anwendungsleistung
- Und dabei sogar ziemlich effizient
- Schneller Vier-Kanal-Speicher
- 1 TByte maximaler Speicherausbau
- 80 PCIe-5.0-Lanes
- Dadurch Vielzahl an Möglichkeiten für SSDs und PCIe
- Lauffähig auf bekannten Mainboards
- Hohe Leistungsaufnahme im Leerlauf
- durchschnittliche Spieleleistung
- gesamte Plattformkosten sehr hoch
Natürlich gibt es auch Käufer, die bereits einen Threadripper haben oder hatten und die Plattform zu schätzen wissen. Deshalb wird der Test auch einen Blick zurück in Form einiger Vergleichswerte mit dem AMD Ryzen Threadripper 3990X als erstem 64-Kern-Prozessor bieten. Vor 5,5 Jahren vorgestellt war er das Beste, was es im Desktop gab.
Threadripper-Prozessoren und Plattform im Detail
Wie bei den Vorgängern unterteilt AMD das Portfolio in Workstation-Modelle (Threadripper Pro WX) und High-End-Desktop-Modelle (Threadripper X). Unterschiede existieren aber nicht nur bei den Namen, denn nur die Workstation-Ableger bieten ein 8-Kanal-Speicherinterface, während die HEDT-Varianten mit vier Kanälen Vorlieb nehmen müssen. Die Maximalausstattung von 96 Kernen gibt es auch nur in der WX-Serie.
- Ryzen Threadripper (Pro) 9000: AMD bringt Zen 5 für Workstations und als HEDT-CPU
Im HEDT-Segment bleibt es mit 24, 32 und 64 Kernen letztlich wie in den vorangegangenen Generationen. Neue Kerne, eine bessere Fertigung und höherer Takt bringen zusammen mit schnellerem Speicher zusätzliche Leistung.
Zu einem Threadripper gehört auch die passende Plattform. Diese setzt in der Generation 9000 auf die gleiche Infrastruktur wie in der Generation 7000; jedes Threadripper-7000-Mainboard funktioniert so auch für die Neulinge. Ein BIOS-Update ist stets notwendig, damit der AGESA-Code für die neuen CPUs vorhanden ist und sie ordnungsgemäß unterstützt werden.

Das Blockdiagramm des Gigabyte TRX50 Aero zeigt, wie die Aufteilung der Möglichkeiten, die vor allem der Prozessor aber auch der Chipsatz auf den aktuellen Platinen bietet, funktioniert. Vor allem sind es die vielen PCIe-Lanes durch den Prozessor, die erst zusätzliche Möglichkeiten bieten, denn der TRX50-Chipsatz mit einer Anbindung von nur vier PCIe-4.0-Lanes in Richtung CPU kann nicht mehr, als die bisherigen AMD-Mainstream-Lösungen.

Auf der Plattformseite ist die Frage letztlich schnell geklärt: Threadripper bietet sehr viel Ausstattung, die durch den großen IO-Die in der Mitte des Prozessors realisiert wird. Wenn diese für mehr als eine Grafikkarte oder zusätzliche PCIe-5.0-Speicherlösungen – oder auch beides zusammen – genutzt werden sollen, dann hat man als Kunde gar keine andere Wahl. Intel bietet zwar ebenfalls noch einige Xeon W an, aber diese entsprechen nicht dem Standard der aktuellen Intel Granite Rapids, sondern dem Vorgänger Emerald Rapids. Unterm Strich ist dieser gegen neue Zen-5-Profi-Prozessoren aber chancenlos, zumal diese als echte HEDT-Prozessoren auch gar nicht aufgelegt wurden.
Schnellerer RDIMM muss kühl bleiben
Mit der Anhebung der Spezifikationen für den Speicher auf DDR5-6400 folgt von AMD auch eine Warnung: Die Temperatur dieser Registered-ECC-Module kann von der Plattform ausgelesen werden. Im Normalfall sollte sie 70 Grad nicht übersteigen, schreibt AMD. Spätestens ab 85 Grad wird gedrosselt.
Je nach Board-Aufbau und Modul kann dies durchaus schnell passieren. Einige Module nutzen dicke Heatspreader, die Abstände zwischen den Modulen im verbauten Zustand in den Slots liegt dann oft unter einem Millimeter. Je nach Gehäuse-Beschaffenheit und Frischluft im System kann es so zum Hitzestau kommen.
Betroffen davon dürften in erster Linie OC-Module sein, die jenseits der 6.400 MT/s agieren und dafür mitunter auch die Spannung deutlich anheben müssen. Im Test wurden mit den 6.400er-Modulen im offenen Aufbau mit AiO kaum 60 Grad als Maximum erreicht, Probleme gab es folglich nicht.
TR 3990X vs. TR 9980X – 5 Jahre 64 Kerne bei AMD Threadripper
Was hat sich im HEDT-Bereich in den letzten fünf Jahre getan? Auch diese Frage ist nicht pauschal zu beantworten. Die einen mögen meinen wenig, die anderen viel. Fakt ist, an 64 Kernen hat sich nichts geändert – die gab es schon beim AMD Ryzen Threadripper 3990X, der Anfang 2020 erschien.

Grund genug, ihn noch einmal hervorzuholen, und zu zeigen, was die Unterschiede sind. Kerne sind bekanntlich nur das eine, die zugrunde liegende Architektur macht auch einiges aus. Und natürlich eine neuere Fertigung, ein erhöhter TDP-Spielraum, schnellerer Speicher, Zusatzinstruktionen und und und.
In einigen ausgewählten Benchmarks zeigt sich die Veränderung ganz gut. Mit über 3.100 Punkten im Cinebench-R24-Multi-Core-Score schlägt die fünf Jahre alte Lösung heute noch jeden Mainstream-Prozessor von AMD und Intel. Das komplette Gegenteil ist bei Single-Core-Tests der Fall: Kaum 75 Punkte sind ein massiver Rückstand. Eine in die Jahre gekommene Architektur und vor allem eine vergleichsweise geringe Taktfrequenz haben gegen die Hochtaktlösungen von heute jenseits der 5,7 GHz keine Chance. Zur besseren Einordnung ist deshalb in den Diagrammen auch ein AMD Ryzen 9 9950X3D hinterlegt, die aktuell schnellste Mainstream-Lösung aus gleichem Haus mit 16 Kernen und 32 Threads.
Unterm Strich ist es ein gemischtes Bild, vor allem auch in Bezug auf die Mainstream-Plattform. In gut skalierenden Tests über viele Threads, ist der alte Threadripper mit 64 Kernen weiter gut unterwegs und kann einen Ryzen 9000 mitunter in Schach halten. Dass der Neuling AMD Ryzen Threadripper 9980X mit gleicher Anzahl an Kernen teils auch mehr als doppelt so schnell ist, darf jedoch nicht außer Acht gelassen werden.
Wirklich spürbare Einbrüche gibt es, wenn neue Instruktionen zünden und 128 Threads nicht voll genutzt werden. Handbrake ist so ein Beispiel, hier fällt selbst der alte 64-Kerner gegenüber dem 16-Kerner zurück.
(*) Bei den mit Sternchen markierten Links handelt es sich um Affiliate-Links. Im Fall einer Bestellung über einen solchen Link wird ComputerBase am Verkaufserlös beteiligt, ohne dass der Preis für den Kunden steigt.
Apps & Mobile Entwicklung
TSMC-A16-Fertigung: Nvidia will bei 2 nm mit Backside Power Erstkunde sein
Für den übernächsten AI-Chip, Codename Feynman, will Nvidia laut Medienberichten die rückseitige Stromversorgung von TSMCs A16-Prozess nutzen. Die vermutlich weit über 2.000 Watt agierende Lösung könnte so deutlich an Effizienz und auch Leistung gewinnen, sofern TSMC direkt einen so großen Chip damit bauen kann.
Nvidia ging zuletzt eher auf Nummer sicher. Nie wird direkt der neueste Fertigungsprozess genutzt, sondern eher einer, bei dem bereits einige Produkte gefertigt wurden und zu dem es entsprechend viel Erfahrung gibt. Das hilft der Ausbeute der in der Regel ziemlich großen Chips mit Dutzenden Milliarden Transistoren, lässt auf der anderen Seite aber auch Leistung und eine möglicherweise gesenkte Leistungsaufnahme liegen. So setzt Nvidia heute primär auf dem TSMC-N4-Prozess auf; der Rubin-Chip im nächsten Jahr wird eine N3P-Lösung nutzen.
BSPD für HPC-Chips von Vorteil
Für den kommenden A16-Prozess von TSMC bringt sich laut taiwanischer Medien nun aber ausgerechnet Nvidia in Stellung. Der A16-Prozess, ehemals N2P+ genannt, ist TSMCs erste Lösung mit einer rückseitigen Stromversorgung.

TSMC wird bei der sogenannten Backside Power Delivery (BSPD) auf Super Power Rail (SPR) setzen. Dabei handelt es sich um die fortschrittlichste Lösung von BSPD mit direktem Kontakt. Intel entschied sich für den mittleren Power-Via-Weg, der in diesem Jahr mit Intel 18A starten soll. TSMC hingegen geht das Thema mit dem dritten Weg an, was zwar mehr kostet, am Ende aber auch am meisten Boni bietet. TSMC hatte diese Lösung deshalb explizit auch für HPC-Chips vorgestellt.

Für Nvidia wären vor allem die kombinierten Boni von Vorteil. Nicht nur würde der Feynman-Chip als erster bei Nvidia die GAA-Transistorfertigung nutzen, auch würde dieser mit einer deutlichen Effizienzsteigerung in Verbindung gebracht. Denn stetig steigende Leistungsaufnahmen sind kein gangbarer Weg für die kommenden Jahre, zuletzt wurde für das Kombi-Paket „Vera Rubin VR200“, das für Ende 2026 erwartet wird, eine TDP von 2.300 Watt angesetzt. VR300, also Vera Rubin Ultra, soll laut Gerüchten im darauffolgenden Jahr die 4.000-Watt-Marke überschreiten.
Apps & Mobile Entwicklung
Dieser Hersteller wächst schneller als Apple und Samsung
Google verkauft seit fast einem Jahrzehnt Smartphones, ohne die Geräte wirklich aggressiv zu bewerben, oder in allen Märkten präsent zu sein. Das war möglicherweise ein strategischer Schachzug, um Android insgesamt groß zu machen. Aber auch bei Google ziehen die Verkäufe immer mehr an. Mittlerweile ist Google ernsthafte Konkurrenz für Hersteller wie Samsung und Xiaomi – und wächst sogar schneller als jede andere Premium-Handy-Marke.
Google brachte zum Start von Android keine eigene Hardware auf den Markt. Stattdessen ging das Unternehmen Partnerschaften mit anderen Marken ein, um die Stärke von Android zu demonstrieren. Im Jahr 2016 präsentierte Google dann die ersten Pixel-Smartphones. Das Unternehmen hielt sich aber mit aggressivem Marketing zurück und bot seine Geräte lediglich in ausgewählten Ländern an.
Die Pixel-Verkaufszahlen steigen rapide an
Aber in den letzten Jahren erweiterte Google sein Portfolio um neue Formfaktoren und Optionen und unterstrich seine Ambitionen, ein wichtiger Anbieter von Android-Hardware zu werden. Dieser Vorstoß zahlt sich wohl aus, wenn wir auf eine neue Studie von Counterpoint blicken. Demnach ist das Google Pixel in der ersten Jahreshälfte 2025 die am schnellsten wachsende Premium-Smartphone-Marke im Vergleich zum Vorjahr. Premium-Geräte sind definiert als Handys mit einem Preis von über 600 US-Dollar.
Die Verkäufe stiegen im Vergleich zum Vorjahreszeitraum um 105 Prozent, was vor allem auf den Erfolg des Pixel 9 (Test) und des Pixel 9 Pro (Test) zurückzuführen ist. Dieses Wachstum katapultierte Google weltweit in die Top 5 der Premium-Smartphone-Marken und damit in die Reihen von Apple, Samsung, Xiaomi und Huawei.

Apple lieferte nach wie vor die meisten Premium-Smartphones aus, aber der Gesamtmarktanteil sank von 65 Prozent auf 62 Prozent. Samsung verzeichnete einen Anstieg der Auslieferungen um 8 Prozent und konnte seinen Anteil von 20 Prozent halten. Huawei eroberte dank eines Absatzsprungs von 24 Prozent stolze 8 Prozent des Marktes. Xiaomi glänzt mit einem Verkaufsanstieg von 55 Prozent.
In den Vereinigten Staaten ist Googles Dynamik ebenfalls deutlich. Im zweiten Quartal 2025 überholte das Pixel TCL und eroberte mit mehr als 800.000 verkauften Geräten den vierten Platz zurück, nachdem es im Jahr 2024 nur knapp über 700.000 Stück verkauft hatte.
Warum sich Nutzer:innen für das Pixel entscheiden
Die Bemühungen von Google gewinnen endlich an Zugkraft, vor allem in Schlüsselmärkten wie den USA, Europa und Indien. Die Pixel-9-Serie spielte dabei eine wichtige Rolle, viele Nutzer:innen hatten Interesse an Googles sauberer Stock-Android-Experience.
Die Pixel-Handys werden mit minimalen Anpassungen und weniger Apps von Drittanbietern ausgeliefert, verglichen mit stark angepassten Software-Overlays wie Samsungs One UI oder Xiaomis HyperOS. Außerdem erhalten sie Android-Updates und Sicherheitspatches früher als andere Marken. Das ist ein wichtiges Verkaufsargument für alle, die Wert auf zeitnahen Software-Support legen, vor allem angesichts der Zunahme raffinierter Cyber-Bedrohungen.
Ein weiterer Grund, warum sich Fans fürs Pixel entscheiden, ist dessen individueller Bildverarbeitungs-Algorithmus, der seit langem ein Alleinstellungsmerkmal darstellt. Allerdings haben die letzten Generationen den Fokus auf KI-gestützte Verbesserungen verlagert und damit die Attraktivität über die Kameraleistung hinaus erhöht.
Trotz dieser Dynamik sind die Pixel-Handys in vielen Ländern immer noch nicht erhältlich. Es ist unklar, warum Google die Expansion in neue Regionen so bremst, aber das ungenutzte Potenzial ist groß.
Mit der jetzt vorgestellten Pixel-10-Serie darf Google für den Rest des Jahres 2025 und bis ins Jahr 2026 wohl auf weiteres Wachstum hoffen.
Welche Android-Marke nutzt Ihr? Sollte Google das Pixel noch stärker pushen? Oder bremst Google das Wachstum absichtlich, um andere Android-Hersteller zu unterstützen? Wir würden gerne Eure Meinung dazu hören.
Apps & Mobile Entwicklung
Gen2 statt Gen1: Nvidia setzt bei DGX Station direkt auf SOCAMM 2
SOCAMM feierte als neue Spezial-RAM-Lösung erst im Frühjahr Premiere. Nun könnte es ganz schnell ein Update geben, welches dann auch Nvidia will. Denn die erste Generation soll nicht ausreichend für das sein, was der Hersteller benötigt. Und Nvidias Drang zu schnellerem Speicher wurde zuletzt des Öfteren benannt.
SOCAMM: Das steckt dahinter
SOCAMM steht für Small Outline Compression Attached Memory Module. Es ist ein neuer Standard für Speichermodule, die mit energiesparenden DRAM-Chips bestückt werden und die vorrangig zunächst für den Einsatz im KI-Umfeld gedacht sind. Die Basis für SOCAMM sind die Erfahrungen, die mit CAMM/CAMM2 bereits gemacht wurden, bei SOCAMM wird jedoch noch stärker auf ein kleines Profil sowie auf energiesparenden und schnellen Speicher geachtet.
Spezifiziert ist ein Modul, das 90 mm lang, aber nur 14 mm hoch ist. Nvidias DGX Station ist das erste System, das diese Module einsetzt, welche direkt neben der Grace-CPU auf der Platine verschraubt werden. Technische Probleme an mehreren Stellen einschließlich SOCAMM verhinderten bisher den Marktstart der DGX Station. Gezeigt wurden sie im letzten halben Jahr auf jeder Messe, die Website zeigt jedoch weiterhin unverändert den Hinweis „Notify me“. DGX Station ist „der ultimative Destkop-AI-Supercomputer“, der wie DGX Spark und die Grace-Blackwell-Supercomputer-Blades auf Nvidias Grace-Blackwell-APU setzt.
SOCAMM 2 soll vor allem schneller werden
Wie asiatische Medien nun berichten, scheint Nvidia die bisherige Lösung jedoch nicht auszureichen. Sie basiert auf vier LPDDR5X-Chips mit 7.500 oder 8.533 MT/s, mit denen sich wahlweise 32, 64 oder auch schon 128 GByte realisieren lassen. Bei SOCAMM 2, wie er in den Berichten genannt wird, sollen sowohl der Modulaufbau als auch die 694 I/O-Kontakte unverändert bleiben, es wird jedoch direkt mit 9.600 MT/s gestartet.
Das klingt nicht nach einer echten zweiten Generation, auch wenn Details noch unbekannt sind. Zu einem großen Teil wird es aber auch eine Frage der Zulieferer sein. Denn bisher hatte Micron den initialen Zuschlag zur Lieferung von SOCAMM an Nvidia, nun sollen jedoch alle drei Branchenriesen im Geschäft sein und die beiden koreanischen Hersteller SK Hynix und Samsung ihre Chance wittern.
Die neuen Lösungen könnten ab Anfang 2026 in die Serienproduktion übergehen. Zugleich wird angeblich bereits über die Zukunft mit LPDDR6 nachgedacht.
-
UX/UI & Webdesignvor 4 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Social Mediavor 4 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 2 Wochen
Adobe Firefly Boards › PAGE online
-
Entwicklung & Codevor 4 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Digital Business & Startupsvor 3 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Apps & Mobile Entwicklungvor 3 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen