Connect with us

Apps & Mobile Entwicklung

MLPerf Training 5.1: Nvidia gewinnt alles, aber AMD kommt mit Partnern endlich an


Während Nvidia einmal mehr versuchte, die neuen MLPerf-Training-Ergebnisse für sich zu nutzen, glänzt auch AMD stetig mehr. Zwar kann Nvidia 15 Ergebnisse von Partnern präsentieren, AMD überrascht aber mit ebenfalls schon neun Partnern, die AMD-Hardware in den Tests nutzen. Und so ergriff dann auch AMD prompt das Wort.

Nvidia versuchte im Vorabcall, der auf neutralem Boden unter MLPerf-Flagge am letzten Donnerstag stattfand, das Zepter in der Frage- und Antwortrunde ein wenig an sich zu reißen. Das macht das Unternehmen gern, viele andere Unternehmen sagen gar nichts – diese Chance nutzt Nvidia dann stets. Dabei betont der Hersteller – wie auch bei jeder anderen Veranstaltung – wie gut Blackwell, GB300 und NVL72 doch sei und wie super das ankomme. Dabei wird stets das Marketing-Einmaleins herunter gesprochen, ohne den Hauch einer neuen Information.

AMD Instinct kommt endlich breiter an

In dieser Runde war es dann aber die AMD-Sprecherin, die direkt im Anschluss das Wort ergriff und zeigte, dass es Alternativen gibt – und diese endlich auch präsenter werden. Vor allem das nun direkt neun Partner im Boot sind, ist ein echtes Erfolgserlebnis für AMD, denn hier hatte das Unternehmen lange Zeit überhaupt nichts bis wenig vorzuweisen. Und so zeigt sich ein breites Feld an Instinct MI300X, MI325X und neuen MI355X, die gepaart mit diversen Epyc-Prozessoren unterwegs sind.

For the MLPerf 5.1 Training round, AMD is proud to announce its first submission using the new AMD Instinct MI350 Series GPUs, including both the MI355X and MI350X platforms.

AMD Instinct MI350 Series GPUs demonstrates strong generational performance
improvements, delivering up to 2.2X higher performance on Llama 2-70B when comparing the
MI355X platform to the MI325X platform, and up to 2.9X higher performance comparing the
MI355X platform to the MI300X platform.

AMD

Der Grundstein ist hier nun mehr als gelegt, einen langen Weg hat AMD aber auch noch vor sich. Immerhin: Zum Financial Analyst Day am gestrigen Tage wurden 100 Milliarden US-Dollar Jahresumsatz nur durch Epyc und Instinct binnen drei bis fünf Jahren ausgerufen. Aktuell macht AMD 16 Mrd. UD-Dollar Jahresumsatz damit.

Nvidia bleibt bis dahin einsamer Herrscher

An GB300 alias Blackwell Ultra ist natürlich mit keiner Lösung bisher ein Herankommen. Dass Nvidia am Ende überall ganz oben steht, ist auch dieses Mal der Fall und zeigt einmal mehr, was für eine solide Vorarbeit das Unternehmen in den letzten Jahren und nun fast Jahrzehnten geleistet hat. NVFP4 ist das aktuelle Thema nicht nur für Inference, sondern auch Training – und dass nun auch auf GB300.

This round marks the MLPerf Training debut of the GB300 NVL72 rack-scale system in the available category, featuring 72 Blackwell Ultra GPUs connected as one giant GPU using
fifth-generation NVLink.

NVIDIA also made the first-ever training submissions this round using NVFP4
precision, which combines innovations across numerics, hardware architecture, and software to
accelerate time to train. Together, these technologies nearly doubled Llama 3.1 405B training
performance at the same 512-GPU scale NVIDIA submitted using GB200 NVL72 just five
months ago.

NVIDIA also submitted GB200 NVL72 results at 5,120 GPU scale on the Llama 3.1 405B
benchmark, more than doubling the maximum scale submitted last round. The combination of
significantly larger scale, NVFP4 precision that allows faster math, and accompanying software
optimizations yielded a 2.7x improvement in Blackwell training performance at scale.

Nvidia

Nvidia gewinnt weiterhin jeden Sub-Test
Nvidia gewinnt weiterhin jeden Sub-Test (Bild: Nvidia)
Skalierung gegenüber älteren Lösungen
Skalierung gegenüber älteren Lösungen (Bild: Nvidia)
Und Skalierung mit tausenden GPUs
Und Skalierung mit tausenden GPUs (Bild: Nvidia)

Mit dabei ist auch mal eine riesige Skalierung von über 5.000 GB200. Dies ist insofern interessant, als dass so die ganzen großen AI-Datacenter aussehen – oder gar noch größer werden. Dabei erreicht Nvidia eine Skalierung von 85 Prozent, von 2560 auf 5.120 Chips.

Universitäten adaptieren Technologien

Einen interessanten Einblick gab es durch die Universität aus Florida (UF). Diese wolle nicht nur zeigen, dass solche Benchmarks nachvollziehbar sind, zugleich sollen sie auch die Akzeptanz steigern. Ein Ansatzpunkt der Uni: Wie kann man sich verbessern? Dabei geht es nicht nur darum den schnelleren Chip zu nutzen, sondern eben alles Drumherum zu optimieren. Gelernt haben die Leute der Universität dabei vor allem, das am Netzwerk und InfiniBand sehr viel Leistung herauszuholen ist, was der Nvidia-Sprecher mit der Aussage „Network is the Key in Training“ untermauerte.

This submission confirms that reproducible AI benchmarking can be performed
on multi-tenant HPC systems using standard infrastructure and widely adoptable workflows.
As the sole academic institution in this submission round, UF contributes operational insights to
MLCommons, helping advance transparent and trustworthy AI performance measurement. UF
is committed to sharing our experience, collaborating with peers and enabling more institutions
to run compliant AI workloads on shared HPC infrastructure.

University of Florida

ComputerBase hat Informationen zu diesem Artikel von MLCommons und Nvidia unter NDA erhalten. Die einzige Vorgabe war der frühestmögliche Veröffentlichungszeitpunkt.



Source link

Apps & Mobile Entwicklung

HBM4 für Nvidia Vera Rubin: Samsung startet Massenproduktion und Auslieferung


HBM4 für Nvidia Vera Rubin: Samsung startet Massenproduktion und Auslieferung

Samsung geht medial in die Offensive und verkündet den Start der Massenproduktion und Auslieferung von HBM4 mit 11,7 Gbps. Hinter SK Hynix will man der größte Produzent werden, vor allem aber will man verlorenes Vertrauen zurückgewinnen. Denn auf dem Papier hat Samsung das beste Produkt, SK Hynix bekommt dennoch Vorrang.

Zuverlässigkeit hat Vorrang

Samsungs Worten müssen nun echte Taten folgen. Ankündigen konnte das Unternehmen in den letzten Jahren stets, und zum Teil auch medial sehr offensiv, doch das finale Endprodukt wurde dem selten gerecht. Bei HBM3e war es besonders schlimm, weshalb SK Hynix auch bei HBM4 nun den Vorrang für Nvidias Vera Rubin bekommt. Denn ein verlässlicher Lieferant ist wichtiger als einer, der nur auf dem Papier das bessere Produkt hat. Bis zu 70 Prozent Anteil bei Nvidia soll gemäß letzten Gerüchten so erneut auf SK Hynix entfallen, während sich Samsung und Micron um die restlichen Prozente streiten dürfen – hier jedoch mit Vorteil für Samsung, da Micron bei HBM4 speziell für Nvidia wohl leicht im Verzug ist.

HBM4 von Samsung
HBM4 von Samsung (Bild: Samsung)

Samsung stellt den neuen HBM4 im sogenannten 1c-Fertigungsprozess her. Es setzt die 12 Lagen für 24 oder auch 36 GByte dann zudem auf einen 4-nm-Base-Die, der ebenfalls aus eigener Herstellung stammt. Auf dem Papier ist das Produkt damit dem vom SK Hynix überlegen: Hier nutzt man noch den 1b-Prozess, dazu einen 12-nm-Base-die von TSMC. Fortschritt an allen Fronten birgt bei Samsung aber auch Risiken: Die zur Verfügung stehende neueste Fertigungskapazität ist noch eher gering, zudem könnte die Ausbeute geringer ausfallen. Bei SK Hynix wiederum ist das kein Problem, dort wird 1b schon lange genutzt, und 12 nm gibt es von TSMC seit einem Jahrzehnt.

Upgrades auf 13 Gbps und HBM4e in der Pipeline

Schenkt man Samsung Glauben, funktioniert das Produkt dieses Mal aber gleich zum Start wie gewollt. Zudem soll sich HBM4 in naher Zukunft von 11,7 Gbps auf 13 Gbps beschleunigen lassen. Die 11,7 Gbps gelten aktuell jedoch als der Sweet Spot, den alle drei HBM-Fertiger Samsung, Micron und SK Hynix erreichen können. Nvidia stellt sich so möglichst breit auf, um auch möglichst viel funktionsfähigen Speicher ohne Probleme erhalten zu können. Auch andere Unternehmen wie AMD, Google, Microsoft, Broadcom und weitere werden künftig für ihre AI-Lösungen auf HBM4 setzen.

Auch HBM4e steht schon vor der Tür. Ab Sommer sollen bereits die ersten Samples ausgeliefert werden, Custom-HBM folgt dann 2027 gemäß Kundenwünschen.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Das zeichnet die neuen Mähroboter aus


Wer Rasenmähen bisher für eine lästige Pflicht gehalten hat, dürfte jetzt umdenken. Ein etablierter Hersteller von Mährobotern zeigt mit einer neuen Generation autonomer Geräte, wie intelligent und unkompliziert moderne Rasenpflege heute sein kann.

Schluss mit ewigem Einrichten und stressigem Nachjustieren. Die neue Generation kommt ganz ohne Kabel und Referenzstationen aus. Eine KI-gesteuerte Kamera sorgt dafür, dass die Roboter ihre Umgebung selbstständig erfassen, Hindernisse erkennen und ihnen souverän ausweichen.

Neue Stiga-Mähroboter mit neuem Ansatz

Das Unternehmen setzt bei der neuen Mähroboter-Generation auf eine punktgenaue Orientierung per Quad-Band-RTK-GNSS. Unterstützt wird das Ganze von einem aktiven Leitsystem (AGS), das für saubere Mähbahnen sorgt. Damit sollen die Roboter auch in anspruchsvollem Gelände zuverlässig und effizient zurechtkommen. Dabei sollen sie nicht nur Rasen erkennen, sondern unterscheiden ihn klar von Blumenbeeten, Wegen oder Sandflächen.

STIGA bringt die neue Vista-Serie gleich in acht Varianten an den Start: A 6v, A 8v, A 10v, A 15v, A 25v, A 50v, A 100v und A 140v. Damit deckt das Unternehmen alle Flächen ab, vom kleinen Siedlungsgarten bis hin zu großzügigen Grünflächen. Die kompakten Modelle A 6v und A 8v fühlen sich ab rund 600 Quadratmetern wohl und überzeugen mit schlanker Bauweise und smarter Navigation. Geräte wie der A 15v oder A 25v zielen auf klassische Familiengärten und kommen auch mit mehreren tausend Quadratmetern problemlos klar.

Die kräftigeren Modelle A 50v, A 100v und A 140v sind für große Grundstücke gemacht und liefern mehr Power, längere Laufzeiten und eine besonders präzise Steuerung. Und damit nicht genug: STIGA verbindet die smarte Technik mit einem cleveren Mulchsystem. Das Gras wird schonend geschnitten, fein verteilt und dient direkt als natürlicher Dünger für einen dichten, weichen Rasen. Dank Sensoren wissen die Roboter außerdem, ob es regnet oder der Rasen noch feucht ist, und legen nur dann los, wenn die äußerlichen Bedingungen wirklich passen.

Keine Antennen mehr notwendig

Im Zentrum der neuen Mähroboter steht eine KI-gesteuerte Kamera, die zuverlässig zwischen Rasen und Hindernissen unterscheidet und so für einen reibungslosen Mähbetrieb sorgt. Hinzu kommt, dass ein integriertes System Satellitensignale in Echtzeit auswertet. Dadurch passen die Roboter ihre Navigation selbst bei schwachem Empfang automatisch an. Dank der Antenna-FREE-Funktion kommen die Geräte zudem komplett ohne Kabel oder Referenzstationen aus.

Auch die Bedienung bleibt angenehm unkompliziert. Gesteuert werden die Mähroboter über die STIGA.GO-App, mit der sich Mähpläne jederzeit starten, anpassen oder pausieren lassen. Während der Roboter selbstständig seine Arbeit erledigt, sind auch Wartung, Reinigung und Updates einfach und schnell erledigt.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Ausrüstung für SMIC in China: Applied Materials hat „versehentlich“ das Embargo gebrochen


Ausrüstung für SMIC in China: Applied Materials hat „versehentlich“ das Embargo gebrochen

Bild: Applied Materials

Applied Materials hat die Exportrichtlinien der USA verletzt und Maschinen an SMIC in China geliefert. Nun zahlt das Unternehmen eine Strafe in Millionenhöhe, sie resultiert aber aus keiner Verurteilung, sondern aus einem Vergleich. Dies ist in den USA durchaus üblich, nun können die Geschäfte einfach weitergehen.

Applied Materials gehört zu den großen westlichen Fabrikausrüstern, ohne die in modernen Halbleiterwerken wenig geht, weshalb die Produkte auch bei quasi jedem namhaften Hersteller in den Fabriken anzutreffen sind. Und so gehörte traditionell auch China zum Kundenkreis, allen voran die größte Foundry des Landes: SMIC. Mit stetig strengeren Exportbestimmungen der US-Regierung musste sich Applied Materials jedoch von einem großen Kundenkreis verabschieden, hat es dabei aber wohl nicht ganz so genau genommen.

Kein Vorsatz, nur ein „misunderstanding“

Wie das Unternehmen heute selbst bekanntgab, hat der Konzern zwischen November 2020 und Juli 2022 die Exportrichtlinien verletzt, in dem Maschinen an einen „bestimmten Kunden“ geliefert wurden, obwohl das untersagt worden war. Namen werden offiziell hier nicht genannt, Reuters berichtete jedoch bereits 2023, dass es wohl SMIC sei.

Applied Materials spricht indessen nicht von einem bewussten Verstoß, sondern erklärt, dass ein „misunderstanding of the applicability of those regulations“ die Ursache gewesen sein; man also nicht in böser Absicht gehandelt habe. Solche Aussagen sind jedoch Normalität, damit ein Vergleich überhaupt erzielt werden kann und die Geschäfte danach weitergehen. Eine mutwillige Verletzung gibt letztlich kein Unternehmen zu, solange es keinen anderen Ausweg mehr gibt.

Nicht das erste Unternehmen (und wohl nicht das letzte)

Bei einem Unternehmen mit einem Jahresumsatz von 28,4 Milliarden US-Dollar und 7 Milliarden US-Dollar Nettogewinn im Geschäftsjahr 2025 ist die Strafe von 252 Millionen US-Dollar am Jahresende letztlich dann kaum mehr als eine Fußnote. Applied Materials ist auch nicht der erste Hersteller, der sich mit den USA verglichen hat. Im letzten Jahr zahlte Cadence 140,6 Millionen US-Dollar, da ebenfalls die Exportrichtlinien verletzt wurden. Lip-Bu Tan, nun Intel-CEO, war seinerzeit Chef bei Cadence, das Thema schlug deshalb im vergangen Jahr durchaus Wellen.

Dass die Geschäfte für Applied Materials weitergehen, will natürlich auch die USA. Zeitgleich zu dem Schuldeingeständnis gab das Unternehmen nämlich bekannt, dass Samsung Partner im nun 5 Milliarden US-Dollar teuren EPIC-Komplex im Silicon Valley wird. Die Einrichtung soll in diesem Jahr eröffnen und dann „world’s largest and most advanced facility for collaborative semiconductor process technology and manufacturing equipment R&D“ sein.



Source link

Weiterlesen

Beliebt