Connect with us

Apps & Mobile Entwicklung

AMD Instinct MI350: Mit bis zu 1.400 Watt und neuem Package gegen Goliath Nvidia


Die von ComputerBase vorgestern publizierten Spezifikationen der MI350-Serie stimmten bis ins kleinste Detail. Zur offiziellen Vorstellung von MI350X und MI355X gibt es auch Vergleiche zum Vor-Vorgänger, aber auch gegenüber Nvidia GB200, dem großen Konkurrenten. AMD sieht sich sehr gut aufgestellt, aber der Kunde entscheidet.

Instinct MI325X ist kaum am Markt schon Geschichte

Erst vor einem halben Jahr offiziell vorgestellt und bisher kaum verfügbar, wird Instinct MI325X quasi direkt wieder abgelöst. Denn schon werden die ersten Instinct MI350 ausgeliefert, auch weil der Nachfolger das rundere Paket ist. Interessanterweise zieht AMD Leistungsvergleiche auch direkt zu MI300X, aber der Fortschritt ist in dem Fall natürlich auch noch größer. Dabei zieht AMD aber gern Vergleiche von FP4 vs. FP8 beim Vorgänger, der kann halt FP8 nicht. Wie üblich gilt es bei Performance-Angaben extrem aufs Detail zu achten.

MI355X FP4 vs MI300X FP8
MI355X FP4 vs MI300X FP8

Zwei Varianten: MI355X und MI350X

Die MI350-Serie setzt sich aus den Modellen Instinct MI350X und Instinct MI355X zusammen, die sich in der maximal zulässigen TDP unterscheiden. Der grundlegende Aufbau ist gleich, hat gegenüber den letzten Generationen aber einen Umbau erfahren.

AMD Advancing AI 2025 Press Deck
AMD Advancing AI 2025 Press Deck (Bild: AMD)

8 N3P-XCDs auf 2 N6-IO-Dies flankiert von HBM3E

In Grundzügen baut Instinct MI350 erst einmal auf das zuletzt bereits bekannte Produkt auf. Wie bei MI300 aus dem Jahr 2023 wird für die Base-Dies, also quasi die Bodenplatten, TSMCs N6-Fertigung genutzt. Der Base-Die fungiert dabei – ebenfalls wie bisher – auch als IO-Die (IOD) mit 256 MB AMD Infinity Cache und dem HBM3E-Speicherinterface. Es gibt bei MI350 allerdings zwei jetzt deutlich größere IODs, zuvor waren es vier.

Mittels TSMCs CoWoS-S-Verfahren werden erneut acht Accelerator Complex Die (XCD) aus TSMCs fortschrittlicher N3P-Fertigung darauf gestapelt, jeweils vier pro IOD. Zuvor waren es jeweils zwei auf den vier IODs. An den Seiten wird der Speicher platziert. Dass AMD dabei weiterhin das SoIC-Verfahren nutzt, welches auch X3D-Caches auf CPU-Dies stapelt, hilft laut AMD, das gesamte CoWoS-Package etwas kleiner zu halten. Dies wiederum hilft am Ende der Ausbeute.

AMD Instinct MI350 Architektur Deck
AMD Instinct MI350 Architektur Deck (Bild: AMD)

CDNA 4 statt CDNA 3 in den XCDs

In einem XCD sind fortan 32 CUs nach neuer CDNA-4-Architektur zu finden, zuvor waren es 38 CUs CDNA 3. CDNA 3 wurde eher mit dem Fokus auf HPC und nebenbei AI ausgelegt, CDNA 4 schwenkt nun eher auf den AI-Zweig ein, ohne dabei aber HPC völlig fallen zu lassen, so AMD.

AMD Instinct MI350 Architektur Deck (Bild: AMD)

Die beiden IODs haben bei Instinct MI350 eine viel breitere Verbindung untereinander, bis zu 5,5 TByte pro Sekunden können hier ausgetauscht werden. Die Verbindung zu Außenwelt wird hingegen weiterhin über 4th Gen Infinity Fabric gelöst, sieben Links gibt es dafür, zusätzlich eine PCIe-5.0-x16-Schnittstelle. Aber das hatte auch MI300X bereits.

AMD Instinct MI350 Architektur Deck (Bild: AMD)

Deutliche Effizienzsteigerung

Bis zu 1.000 Watt (MI350X) oder gar bis zu 1.400 Watt (MI355X) dürfen die neuen Instinct-Lösungen verbrauchen, trotzdem sollen sie viel effizienter arbeiten als MI300X. Dabei hilft natürlich der Wechsel von der N5-Fertigung auf den aktuell besten N3P-Prozess von TSMC, der viel mehr Leistung bei geringerem Energiebedarf verspricht. Aber auch statt auf vier IO-Dies auf nur noch zwei zu setzen hilft laut AMD, denn so müssen die Daten nicht zwischen vier Chips hin und her wandern, sondern nur noch zwischen zwei – und diese Inter-Die-Kommunikation kostet viel elektrische Leistung.

AMD Advancing AI 2025 Press Deck
AMD Advancing AI 2025 Press Deck (Bild: AMD)

Hersteller-Benchmarks

Die bereits von der ISC 2025 bekannt gewordenen Leistungswerte haben sich zur Präsentation in den USA ebenfalls bestätigt. AMD greift für die eigenen Angaben wie Nvidia nun zu Sparsity-Werten, um die maximale Peak-Leistung anzugeben. Diese ist doppelt so hoch wie zuvor bekannt wurde, dabei handelte es sich aber um die nach wie vor gültigen Leistungswerte ohne Sparsity. Insofern waren AMDs Prognosen aus dem letzten Jahr genau so korrekt wie die Werte vom Dienstag.

Die Besonderheit bei AMD ist und bleibt, dass FP64-Leistung nicht zugunsten der geringeren Genauigkeit geopfert wird. Bei AI ist FP8 bis hinab zu FP4 stark gefragt, AMD und Partner machten am Dienstag in Hamburg zu ISC 2025 aber auch klar, dass es ohne FP64 vor allem im wissenschaftlichen Bereich nicht geht.

AMD Instinct MI350 Architektur Deck
AMD Instinct MI350 Architektur Deck (Bild: AMD)

AMD Instinct MI355X vs. Nvidia B200/GB200

Nvidias aktuelle Lösung im Markt ist noch B200 respektive GB200, wenngleich GB300 vor der Auslieferung steht. Instinct MI355X zeigt gegenüber dem zuerst genannten Konkurrenten auf dem Papier gute Werte, die Theorie stimmt für AMD einmal mehr.

AMD Advancing AI 2025 Press Deck
AMD Advancing AI 2025 Press Deck (Bild: AMD)

Aber es kommt wie üblich extrem auf das Szenario an. Hier dürften sich AMD und Nvidia in Zukunft erneut um die Benchmark-Hoheit streiten: Jeder sieht sich selbst in Front. AMD stellt vor allem Inference (Nutzung von trainierten AI-Modellen, kein AI-Training) in den Fokus, hier kann MI355X gegenüber B200 glänzen, vor allem, wenn dann auch noch der Preis berücksichtigt wird. Wie immer gilt zu beachten, dass dies Herstellerbenchmarks sind, die stets das beste zeigen.

AMD Advancing AI 2025 Press Deck
AMD Advancing AI 2025 Press Deck (Bild: AMD)

Bei Training wird das ganze Thema ausgeglichener – hier dürfte Nvidia vermutlich zuerst kontern und zeigen, dass man selbst noch weit vorn liegt. Aber auch hier heißt es stets, dass Herstellerwerte nur das beste zeigen.

AMD Advancing AI 2025 Press Deck
AMD Advancing AI 2025 Press Deck (Bild: AMD)

Inference wird aber auch in Zukunft das Thema sein, welches AMD favorisiert – hier sieht man die besten Wachstumschancen.

Inference ist der Wachstumsmotor – auch für AMD
Inference ist der Wachstumsmotor – auch für AMD

Ein weiterer Schritt zum Großprojekt

AMD Instinct MI350 ist unterm Strich eine Evolution in der MI300-Familie. Auch deshalb ging AMD den Schritt in die nächste echte Generation hier und heute nicht. Das nächste große Ding ist MI350 noch nicht, MI400 soll es dann wirklich sein – einen ersten Ausblick hat AMD in den USA am Abend ebenfalls präsentiert.

AMD Instinct MI350 Architektur Deck

AMD Instinct MI350 Architektur Deck (Bild: AMD)

ComputerBase wurde von AMD zum Event Advancing AI 2025 nach San Jose in die USA eingeladen, hat die Einladung aus Termingründen aber ausgeschlagen. Die Redaktion erhielt dennoch alle Präsentationen und Informationen unter NDA vorab. Die einzige Vorgabe war der frühestmögliche Veröffentlichungstermin.



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Apps & Mobile Entwicklung

Zuckerberg sucht AI-Entwickler: 100 Millionen US-Dollar als Bonus für OpenAI-Mitarbeiter


Um ein neues Team für die Entwicklung einer Superintelligenz aufzustellen, macht Meta enorme Angebote an AI-Entwickler. Sam Altman erklärt nun in einem Podcast, OpenAI-Mitarbeitern wäre allein ein Unterschriftsbonus von bis zu 100 Millionen US-Dollar geboten worden.

Die Summe nennt OpenAI-Chef Altman im „Uncapped“-Podcasts seines Bruders. Meta habe demnach versucht, zahlreiche Mitarbeitende von OpenAI anzuwerben. Bislang habe keiner „unserer besten Leute“ das Angebot angenommen, so Altman.

Meta betrachte OpenAI seiner Aussage nach offenbar als größten Konkurrenten, er zeigt aber Verständnis für das aggressive Vorgehen. Der Konzern sei mit den aktuellen Resultaten bei der AI-Entwicklung nicht zufrieden, deswegen versuche man neue Dinge.

Altmans Aussagen wollte Meta auf Anfrage von CNBC nicht kommentieren.

Hoher Unterschriftsbonus passt ins Bild

Die Höhe der Unterschriftsboni ist erstaunlich, passt am Ende aber in das Bild, das Medienberichte in den letzten Tagen von Metas Anwerbestrategie zeichneten. Allein für 14,3 Milliarden US-Dollar hat der Konzern das KI-Start-up Scale AI gekauft, dessen Gründer und CEO Alexandr Wang soll mit einer kleinen Anzahl an Mitarbeitern direkt zu Meta in das neue Team wechseln.

Insgesamt will Meta-Chef Mark Zuckerberg ein neues Team mit rund 50 Mitgliedern aufstellen, das direkt im Meta-Hauptquartier in Menlo Park arbeitet. Auch räumlich soll es unmittelbar in seiner Nähe sein. Zu den weiteren Mitgliedern zählen prominente Branchennamen wie Jack Rae, bislang Forscher bei Google DeepMind.

Was Meta den Entwicklern verspricht, ist zunächst einmal Geld. Von sieben bis achtstelligen Jahresgehältern ist die Rede – also mehr als 10 Millionen US-Dollar. Um Entwickler vom Wechsel zu überzeugen, soll Zuckerberg diese sogar persönlich ansprechen. Potenzielle Namen diskutiert er mit engen Vertrauten laut Bloomberg permanent in WhatsApp-Gruppen.

Viel Geld, viel Erfolg?

Dass Meta so viel Geld in die Hand nimmt, hängt mit Zuckerbergs Frust über die aktuelle Entwicklung zusammen. Die Llama-Modelle hinken hinterher, das neue Spitzenmodell Llama 4 Behemoth verzögert sich zudem um Monate.

Das neue Team ist also so etwas wie ein neuer Aufschlag. Man will aufholen. Und je mehr Topleute Meta von der Konkurrenz verpflichtet, desto mehr Ideen sammelt das Unternehmen ein, so ein Aspekt der Strategie. Einige Analysten zweifeln jedoch, ob man sich Erfolg praktisch einkaufen kann.

Auf diese Bedenken spielt auch Altman im Podcast an. Personal mit enormen Summen locken und bestehende Techniken zu kopieren, würde noch keine Kultur für Innovationen schaffen, so Altman.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Meta AI. Diese App ist eine Datenschutz-Katastrophe


Seit März können wir Meta AI auch hierzulande nutzen. Die eigenständige Meta-AI-App hingegen ist hier noch nicht im Einsatz. Vielleicht zum Glück. Denn würde man sagen, dass es bei der KI von Facebook Datenschutzbedenken gibt, wäre das vermutlich noch maßlos untertrieben. Wir klären, was die App derzeit noch so gefährlich macht!

Angenommen, all das, was Ihr bislang ChatGPT und Google Gemini im Vertrauen zugeflüstert habt, wäre plötzlich öffentlich. Sagen wir, jeder könnte plötzlich nachlesen, wie ich über meine ureigensten Ängste denke. Oder die KI frage, wie ich diese verdammten Pickel am Hintern loswerde. Wäre ich mit diesen Enthüllungen glücklich? Nein, ziemlich sicher nicht. Glück gehabt, denn zumindest bislang tratschen meine genutzten LLMs (Large Language Models) das nicht weiter (toi toi toi!). 

Meta AI: KI trifft Social-Media-Feed

Seit März können wir ja auch in Deutschland Meta AI nutzen – über den Messenger, Instagram oder WhatsApp. In den USA könnt Ihr zudem aber auch eine eigenständige Meta-AI-App herunterladen. Die verfügt über eine Besonderheit: einen Discovery-Feed! Also wie in anderen Social-Media-Apps habt Ihr hier auch so etwas wie einen News-Feed, der Euch aber nicht die neuesten Fotos Eurer Freunde oder lustige Memes anzeigt. Stattdessen seht Ihr dort, was irgendwelche anderen Menschen so für Prompts raushauen. 

Der „Prompt“ ist quasi Euer Kommando an die KI, wenn Ihr ein Bild oder einen Text erstellt haben wollt. Meta denkt sich nun, dass der Feed eine nützliche Hilfestellung bietet, wenn man so gar keinen Schimmer hat, was man eine KI fragen könnte. Ihr könnt Euch dort also inspirieren lassen, indem Ihr auf die Anfragen anderer Nutzer:innen blickt. 

Befragt Ihr Meta AI, könnt Ihr anschließend den Teilen-Button nutzen. Das ist okay, wenn Ihr beispielsweise ein so sensationelles Bild erstellt habt, das Euch glauben lässt: Diesen Prompt muss die ganze Welt kennen! Dumm nur: Viele der Nutzer:innen wissen gar nicht, dass hier etwas mit der ganzen Welt geteilt werden könnte. 

Die Meta-AI-App übernimmt nämlich die Kontoeinstellungen des Facebook- oder Instagram-Accounts, mit dem Ihr die App verknüpft. Habt Ihr diese Accounts auf „öffentlich“ gestellt, geht die AI-App ebenfalls davon aus, dass hier alles öffentlich rausgehauen werden darf. Während Ihr also möglicherweise denkt, die Frage, wie Ihr Euren geheimen Schwarm ansprechen sollt, ist etwas nur unter Euch (also etwas zwischen Mark Zuckerberg, der KI und Euch), ballert Meta diese Frage auch schön in den Discovery-Feed, wo dann wildfremde Personen drüber stolpern können. 

Meta AI: Geheime Informationen für jedermann!

TechCrunch berichtet in seinem Artikel nicht nur über einige echt ekelhafte Fälle. Leute fragen anscheinend auch öffentlich nach Hilfe bei der Steuerhinterziehung, gestehen die Wirtschaftskriminalität der eigenen Familie und Ähnliches. Das passiert tagtäglich und offenbart nicht nur diese abstrakten Fälle, sondern mitunter auch Klarnamen, Privatadressen oder auch sensible Gerichtsdetails. 

Von Meta erhaltet Ihr dabei keinerlei Hilfestellung, mit welchen Datenschutzeinstellungen Ihr postet oder wo Ihr überhaupt postet. Der einzige Fingerzeig sind die Einstellungen beim verknüpften Account. Seid Ihr beispielsweise über Euer Instagram-Konto mit Meta AI verknüpft und habt Instagram auf öffentlich gestellt, gehen auch Eure Prompts öffentlich auf die Reise.

Aktuell ist die Meta AI zwar auch in Deutschland als App herunterladbar, allerdings funktionell beschnitten. Ihr könnt sie im Wesentlichen dazu nutzen, Euch mit einer kompatiblen Meta-Brille zu verknüpfen. Die Chat-Funktion ist hierzulande also noch nicht angekommen, was für Euch wirklich eine gute Nachricht ist. 

Plant Ihr allerdings, die KI-Chat-Funktion in der App nutzen zu wollen, sobald das Feature in Deutschland ankommt, seid auf der Hut. Eure peinlichsten Geständnisse könnten dann viral gehen! 

Schön wäre es, wenn Meta die Zeit bis dahin nutzen würde, um die Sicherheitseinstellungen zu optimieren. Ob die Lernkurve bei Meta diesbezüglich steil genug ist, darf wohl mit Fug und Recht bezweifelt werden. 

Mal ehrlich: Habt Ihr mit dem KI-Chatbot so vertrauliche Gespräche, dass es für Euch unangenehm werden könnte, wenn diese publik würden? Verratet es gerne in den Kommentaren.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Neue RTX 5090D für China: Nvidia legt eine neue beschnittene „Doppel-D-Version“ auf


Neue RTX 5090D für China: Nvidia legt eine neue beschnittene „Doppel-D-Version“ auf

Um Gamern in China auch weiterhin eine GeForce RTX 5090 anbieten zu können, soll Nvidia eine neue beschnittene Variante auflegen. Der X-Account von MEGAsizeGPU bezeichnet sie vorerst als RTX 5090 „DD“. Die ursprünglich in Reaktion auf US-Sanktionen veröffentlichte RTX 5090D wird seit April nicht mehr in China ausgeliefert.

Mehr Informationen gibt es zur Stunde nicht. Bei der GeForce RTX 5090D hatte Nvidia einzig und allein die KI-Leistung – per Firmware – beschnitten, die Gaming-Leistung der GPU und der Speicherausbau von 32 GB entsprachen 1:1 dem Original. Beim Blick auf das Datenblatt sind zwischen RTX 5090 und RTX 5090D daher keinerlei Unterschiede zu erkennen.





Source link

Weiterlesen

Beliebt