Connect with us

Apps & Mobile Entwicklung

(G)B300 vs. (G)B200: Blackwell Ultra nimmt Steroide und beherrscht PCIe 6.0


Als Nvidia GB300 auf Basis von Blackwell Ultra zur GTC im März 2025 präsentierte, blieben viele technische Fragen zum Blackwell-Refresh als Brückenschlag zum echten Nachfolger Nvidia Rubin mit Vera noch offen. Zur Konferenz Hot Chips 2025 hat der Konzern jetzt einige geklärt – Überraschung inklusive.

Blackwell Ultra übernimmt wohl den Blackwell-Dual-Die

Eine wesentliche Frage betraf die nach der zugrundeliegenden GPU. Nutzt Blackwell Ultra eine neue, oder die 208 Milliarden schwere Blackwell-GPU mit zwei in einem Chip verbundenen Dies? Dass es die gleiche GPU sein wird, lag nahe, doch erst Nvidias Developer Blog stellt jetzt fest: „Blackwell Ultra is manufactured using TSMC 4NP and features 208B transistors.

Identische Anzahl Transistoren, identischer Fertigungsprozess – Blackwell Ultra sollte damit auf Chip-Ebene 1:1 Blackwell entsprechen (auch wenn das Blackwell White Paper (PDF) die 208 Mrd. Transistoren explizit nur in Bezug auf Blackwell nennt). Die teils doch gravierenden Unterschiede zwischen Blackwell und Blackwell Ultra erscheinen vor diesem Hintergrund in einem ganz anderen Licht.

Blackwell Ultra bietet mehr

Denn rückblickend war Blackwell als B100, B200 oder GB200 damit sehr stark beschnitten. GB300 nutzt in Zukunft 160 Streaming Multiprocessors mit je 128 Cuda-Kernen, B100, B200 und GB200 griffen hingegen nur auf 144 zurück. Der Vollausbau des Chips dürfte sogar noch mehr Einheiten bieten.

Ein Blick auf die Dual-Die-Blackwell(-Ultra)-GPU
Ein Blick auf die Dual-Die-Blackwell(-Ultra)-GPU (Bild: Nvidia)

Der breitere Chip darf darüber hinaus noch etwas mehr elektrische Leistung aufnehmen: 1.400 statt 1.200 Watt sind es für das Dual-GPU-CPU-Konstrukt „Grace Blackwell“ (GB300 vs. GB200), 1.200 statt 1.000 Watt für eine separate GPU (B300 vs. B200). Statt 186 GB HBM3e sind 288 GB HBM3e angebunden – dabei bleibt es bei acht Stapeln („Stacks“).

50 Prozent mehr FP4-Leistung

Mehr Ausführungseinheiten, mehr TDP, dadurch mehr Takt und mehr HBM3e – klar, dass Blackwell Ultra schneller ist als Blackwell. Doch schon im März ließ aufhorchen, dass die neue Version bis zu 50 Prozent schneller sein soll. Das Unternehmen sprach von 15 PetaFLOPS für FP4 Dense, also ohne die Sparsity-Beschleunigung, mit der 30 PetaFLOPS möglich sind. Für die ursprüngliche Blackwell-GPU lag diese Angabe noch bei 10 PetaFLOPS. Im Juni dieses Jahres führte Nvidia das weiter aus.

Die überproportional höhere FP4-Leistung von Blackwell Ultra kommt allerdings mit einem Haken: Die INT8, aber insbesondere die FP64-Leistung fällt deutlich. Insbesondere FP64 ist für das Hauptanwendungsgebiet der GPUs, AI Training und Inferencing allerdings so gut wie irrelevant, während FP4 für AI-Anwendungen von immer größerer Bedeutung ist.

Blackwell Ultra legt am stärksten bei FP4 zu
Blackwell Ultra legt am stärksten bei FP4 zu (Bild: Nvidia)

Sofern der Chip wirklich der gleiche geblieben ist, hat Nvidia diese Anpassungen allein per „Firmware“ vorgenommen.

PCI Express 6.0

Eine weitere Anpassung von Blackwell Ultra gegenüber Blackwell müsste das ebenso betreffen: Das PCI-Express-Interface beherrscht jetzt PCIe 6.0 mit bis zu 256 GB/s statt vormals PCIe 5.0 mit bis zu 128 GB/s. Die Hardware dafür muss der Blackwell-Chip also ebenfalls schon geboten haben, nur freigegeben wurde die im Jahr 2022 verabschiedete PCIe-Version 6.0 erst jetzt.



Source link

Apps & Mobile Entwicklung

Hot Chips 2025: Intel erläutert Clearwater Forest mit 288 Kernen und 17 Chiplets


Hot Chips 2025: Intel erläutert Clearwater Forest mit 288 Kernen und 17 Chiplets

Bild: Intel

Auf Sierra Forest lässt Intel im Server Clearwater Forest folgen. Zur Hot Chips 2025 werden die Eckdaten der neuen E-Core-Phalanx konkreter. Erneut sind in der Spitze 288 Kerne zu erwarten, dann auch erneut mit einem 12-Kanal-Speicherinterface. Neu ist die Fertigung in Intel 18A.

Intel fährt seit einer Weile zweigleisig und hat für Server zum einen Prozessoren mit P-Cores für hohe Leistung und zum anderen mit E-Cores für eine hohe Effizienz im Programm. Auf die aktuellen Granite Rapids (P-Cores) und Sierra Forest (E-Cores) sollen spätestens 2026 die neuen Diamond Rapids (P-Core) und Clearwater Forest (E-Cores) folgen.

Zur Fachkonferenz Hot Chips sprachen Intels CPU-Architekten Don Soltis und Stephen Robinson über Clearwater Forest als nächste Generation der Xeon-Prozessoren mit Efficiency-Kernen.

Intel Clearwater Forest: Herstellungsverfahren
Intel Clearwater Forest: Herstellungsverfahren (Bild: Intel)
Intel Clearwater Forest: Chiplet-Design
Intel Clearwater Forest: Chiplet-Design (Bild: Intel)

17 Chiplets in drei Prozessen

Bei Clearwater Forest rückt Intel die neue 18A-Fertigung in den Fokus, die für die eigentlichen CPU-Kerne genutzt wird. Diese tragen den Codenamen Darkmont. Vier davon bilden ein Cluster, Intel spricht nun von einem Modul, das erneut über 4 MByte Unified L2-Cache verfügt. Dieser soll nun einen doppelt so hohen Durchsatz von 400 GB/s erreichen. Zudem sollen die Instructions Per Cycle (IPC) um 17 Prozent steigen, zumindest ist dies die Prognose anhand von SpecIntRate 2017.

Intel Clearwater Forest: Chiplet-Design
Intel Clearwater Forest: Chiplet-Design (Bild: Intel)
Intel Clearwater Forest: Modul-Architektur
Intel Clearwater Forest: Modul-Architektur (Bild: Intel)

Jeweils sechs Module bilden ein Chiplet aus 24 Kernen, das besagen zumindest die schematischen Skizzen. Davon ergibt ein Dutzend jene maximal 288 Kerne, wie sie bisher auch bei Sierra Forest zugegen sind. Allerdings werden die 12 Chiplets nun auf drei sogenannte Base Tiles (Kacheln) verteilt. Bei Sierra Forest-AP sind es hingegen zwei Tiles (2 × 144 Kerne) und bei Sierra Forest-SP nur ein Tile mit 144 Kernen. Pro Tile bedeutet dies also 96 Kerne bei Clearwater Forest.

Die Base Tiles oder auch Base Chiplets tragen in ihrer Ebene wiederum die Fabrics, den L3-Cache (hier als Last Level Cache, LLC bezeichnet) sowie die Speichercontroller und gewisse I/O-Funktionen. Diese Bereiche werden noch im „gröberen“ Herstellungsverfahren Intel 3 gefertigt. Auf der untersten Ebene in diesem 3D-Package sitzen außerdem die im noch älteren Intel-7-Prozess produzierten beiden I/O-Chiplets. Diese sollen mit High-Speed-I/O, Fabric und zusätzlichen Beschleunigereinheiten (Accelerator) für Spezialaufgaben aufwarten.

Unterm Strich setzt sich Clearwater Forest also aus insgesamt 17 Chiplets zusammen und vereint dabei drei verschiedene Herstellungsprozesse.

Intel nennt für ein Dual-Sockel-System (2P) 576 Kerne (2 × 288) und 1.152 MByte LLC (Last Level Cache). Der L3-Cache beträgt demnach umgerechnet 2 MByte pro Kern.

Angaben zum Speicherdurchsatz

Benchmarks zur CPU-Leistung liefert Intel noch keine, dafür ist es noch zu früh und die reine Rechenleistung steht bei den E-Core-Xeon auch gar nicht im Fokus. Stattdessen wird der Durchsatz der Daten beim Weg durch die verschiedenen Speicherebenen in den Fokus gerückt. Hier kommen schnelle Interfaces zum Einsatz. Dies reicht von 5 TB/s beim Last Level Cache (LLC) über 1,3 TB/s beim DDR5-Interface mit 12 Kanälen und Support für 8.000 MT/s bis hin zu kombiniert 1 TB/s bei PCIe 5.0 und CXL sowie 576 GB/s beim Ultra Path Interconnect (UPI), dem Nachfolger des früheren QuickPath Interconnect (QPI). Die Angaben gelten erneut für ein 2P-System.

Intel Clearwater Forest: Leistungsdaten (2-Sockel-System)
Intel Clearwater Forest: Leistungsdaten (2-Sockel-System) (Bild: Intel)

Front-End und Co.

Intel verspricht außerdem Verbesserungen beim Front-End, die unter anderem eine genauere Sprungvorhersage (Branch Prediction) und 50 Prozent mehr Befehlsbandbreite umfassen. Der Instruction Cache fasst wie beim Vorgänger 64 KB Daten. Deutlich aufgebohrt werden zudem die Out-of-Order-Engine und die Execution Engine. Im Bereich des Core Memory Subsystem gibt es nun drei statt zwei Load-Engines.

Intel Clearwater Forest: Front-End
Intel Clearwater Forest: Front-End (Bild: Intel)
Intel Clearwater Forest: Out-of-Order Engine
Intel Clearwater Forest: Out-of-Order Engine (Bild: Intel)
Intel Clearwater Forest: Execution Engine
Intel Clearwater Forest: Execution Engine (Bild: Intel)
Intel Clearwater Forest: Core Memory Subsystem
Intel Clearwater Forest: Core Memory Subsystem (Bild: Intel)

Nicht Teil der Präsentation zur Hot Chips 2025 ist der Zeitplan für die Veröffentlichung von Clearwater Forest. Vor 2026 werden entsprechend bestückte Server aber zumindest nicht in größerer Stückzahl erwartet.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Audi Q3 Sportback (2025): Coupé-Look trifft SUV-Power


Seit mehr als zehn Jahren gehört der Audi Q3 fest ins Premium-Kompaktsegment – und jetzt geht er in die dritte Generation. Was Euch direkt auffallen wird: Das SUV wirkt noch muskulöser, dynamischer und einfach erwachsener. Die markante Singleframe-Front, neu gestaltete Scheinwerfer und erstmals verfügbare digitale OLED-Heckleuchten im Kompaktbereich sorgen dafür, dass der Q3 optisch ganz vorne mitspielt. Wer es noch sportlicher mag, schaut sich den neuen Audi Q3 Sportback an, der nach der klassischen SUV-Variante jetzt ebenfalls verfügbar ist: mit coupé-hafter Dachlinie, eleganter Seitenführung und der perfekten Balance zwischen SUV-Robustheit und stylischer Eleganz.

Digital vernetzt wie ein Großer

Im Innenraum zeigt der neue Audi Q3, dass er technisch locker mit den Oberklasse-Modellen mithalten kann. Die „Digital Stage“ bietet Euch ein 11,9-Zoll großes Virtual Cockpit direkt hinter dem Lenkrad und einen 12,8-Zoll-Touchscreen für das MMI-System. Optional gibt’s sogar ein Head-up-Display. Dazu kommen clevere Extras wie Akustikverglasung, eine verschiebbare Rückbank und bis zu 1.289 Liter Kofferraumvolumen – genug Platz für Alltag, Urlaub oder Sportequipment. Auch außen macht der Q3 keine halben Sachen: Mit digitalen Matrix-LED-Scheinwerfern inklusive Mikro-LED-Modulen erhaltet Ihr adaptive, hochauflösende Lichttechnologie, die sonst nur in größeren Audi-Modellen zu finden ist.

Effizienz trifft auf Fahrspaß

Unter der Haube habt Ihr die Wahl: klassische Verbrenner mit Mild-Hybrid-Technologie oder Plug-in-Hybrid (PHEV). Mit letzterem schafft Ihr bis zu 118 Kilometer rein elektrische Reichweite – ein echtes Plus im Alltag und für kurze Pendelstrecken, die emissionsfrei zurückgelegt werden können. Dazu kommt ein optionales adaptives Fahrwerk, das je nach Situation zwischen Komfort und Agilität wechselt. Unterstützt werdet Ihr außerdem von modernen Assistenzsystemen: vom adaptiven Fahrassistenten über Müdigkeitserkennung mit Innenraumkamera bis hin zum trainierten Parken. Kurz gesagt: Ihr bekommt einen SUV, der nicht nur effizient, sondern auch richtig smart unterwegs ist.

Audi Q3 Sportback (2025) in der Frontansicht.
Audi Q3 Sportback (2025) in der Frontansicht. / © Audi

Preise und Modelle im Überblick

Natürlich interessiert Euch jetzt auch noch, was der Spaß kostet. Der Audi Q3 startet in Deutschland ab Oktober 2025 – und das mit einem Basispreis von rund 44.600 Euro für den Q3 SUV TFSI mit 150 PS. Wer lieber den sportlicheren Q3 Sportback möchte, legt ab 46.450 Euro los. Beim Plug-in-Hybrid geht’s mit 271 PS Leistung ab 49.300 Euro (SUV) beziehungsweise 51.150 Euro (Sportback) los. On top bekommt Ihr in der PHEV-Ausführung einen 25,7-kWh-Akku, der mit bis zu 50 kW Ladeleistung flott wieder Energie tankt.

Fazit: Vielseitig, sportlich und bereit für die Zukunft

Ob als klassischer SUV oder dynamischer Sportback – der neue Audi Q3 bietet Euch modernes Design, smarte digitale Features und zukunftsweisende Antriebstechnologien. Mit viel Platz, effizienter Technik und einer ordentlichen Portion Fahrspaß ist er ein echter Allrounder für Stadt, Land und lange Strecken. Bestellen könnt Ihr Euren Q3 schon jetzt – gebaut wird er übrigens unter anderem im Audi-Stammwerk in Ingolstadt.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Angebliche Benachteiligung: xAI verklagt Apple und OpenAI wegen Wettbewerbsverzerrung


Elon Musk sieht sein eigenes KI-Modell benachteiligt und hat deshalb Klage gegen Apple sowie OpenAI wegen mutmaßlicher Wettbewerbsverstöße eingereicht. OpenAI-Mitbegründer Sam Altman bezeichnet diesen juristischen Schritt als „im Einklang mit Herrn Musks anhaltenden Belästigungspraktiken“.

Erste öffentliche Äußerungen von Musk über eine Benachteiligung seiner künstlichen Intelligenz und über angebliche kartellrechtliche Verstöße zugunsten von OpenAI im App Store wurden am 11. August laut.

Musk sieht gleich mehrere Kartellverstöße

In der nun beim Bezirksgericht für den nördlichen Bezirk von Texas eingereichten Klage behauptet xAI, Apple und OpenAI würden versuchen, den Wettbewerb im Bereich mobiler Maschinenintelligenz gezielt zu behindern. Die Klageschrift führt aus, dass OpenAI mindestens 80 Prozent des Marktes für künstliche Intelligenz kontrolliere und dass dieses bestehende Monopol es anderen KI-Modellen erschwere, in dem Bereich Fuß zu fassen und Marktanteile gewinnen zu können.

xAI führt weiter aus, dass die Einführung von ChatGPT im Jahr 2022 Apple unvorbereitet getroffen habe und das Unternehmen seither bemüht sei, den Rückstand aufzuholen. Zudem fürchte Apple, sogenannte „Super-Apps“, wie sie angeblich von xAI entwickelt würden, könnten Siri die Rolle als bevorzugtem digitalen Assistenten streitig machen. Ein weiterer Verstoß gegen geltendes Recht liege laut xAI auch darin, dass Apple eine exklusive Vereinbarung mit OpenAI geschlossen habe, obwohl andere KI-Suchwerkzeuge wie Grok oder Gemini ebenfalls auf den Systemen von Apple verfügbar seien.

Apple soll Konkurrenz von OpenAI bewusst behindern

Laut Klageschrift nutze Apple seine Marktmacht zudem dafür aus, „um ChatGPT in seinen App Store-Rankings zu bevorzugen und die Überprüfung von Grok-App-Updates zu verzögern“ sowie andere KI-Anwendungen gezielt schlechter zu platzieren. Da Grok „eine der größten Bedrohungen für ChatGPT“ darstelle, werde xAI bewusst behindert. Zwar gesteht die Klage ein, dass iPhones auch andere KI-Engines nutzen könnten, behauptet jedoch, OpenAI-Konkurrenten erhielten nicht ausreichend Werbung und würden deswegen in der Gunst der Nutzer weniger hoch stehen.

Als Beleg führen die Anwälte die am Sonntag vor Einreichung der Klage veröffentlichte Liste von Apples „Must-Have Apps“ an, in der lediglich OpenAI als KI-Anbieter auftauche. Für xAIs rechtliche Vertretung ist dies Grund genug, die in den Apple-AGB enthaltene Aussage, die eigenen Stores seien „fair und frei von Vorurteilen“, als unwahr zu bezeichnen.

Grok soll wegen seiner Überlegenheit bewusst ausgebremst werden

Dies sei auch der Grund dafür, warum Grok, trotz „der Lobeshymnen über seine überlegenen Funktionen“, bislang nur einen geringen Marktanteil erreichen konnte. Die Kläger sehen hierin einen weiteren Beleg dafür, dass Apple und OpenAI ein starkes Interesse daran hätten, ihr Monopol zu verteidigen, indem sie Konkurrenz und Innovation auf dem Markt für generative KI-Chatbots ausbremsen. Beide Unternehmen verstießen daher gegen US-amerikanische Kartellgesetze.

Zudem bezieht sich die 61-seitige Klageschrift auf die im Juni dieses Jahres bekannt gewordene Kooperation zwischen Apple und OpenAI zur tieferen Integration von ChatGPT in Apple-Produkte, die gegen acht Bundesgesetze sowie zwei texanische Gesetze zur unternehmerischen Freiheit und zum Kartellrecht verstoße.

Altman bleibt gelassen

OpenAI selbst zeigte sich unbeeindruckt von den Vorwürfen. Gegenüber dem IT-Portal „The Register“ teilte das Unternehmen mit, man sehe die „jüngste Klage im Einklang mit dem anhaltenden Schikanen-Muster von Herrn Musk“. Apple und xAI sollen auf Anfragen zur Stellungnahme bislang nicht reagiert haben. Altman erklärte auf Musks Plattform X, er würde sich umgehend entschuldigen, sollte Musk eine eidesstattliche Erklärung unterschreiben, dass dieser nie Einfluss auf den X-Algorithmus genommen habe, um sein eigenes Unternehmen zu begünstigen oder Konkurrenten zu schaden.

Keine Erwähnung findet in der Klageschrift hingegen, dass xAI etwa 300 Millionen US-Dollar an das soziale Netzwerk Telegram gezahlt haben soll, um dort das Standard-KI-Suchwerkzeug zu werden.





Source link

Weiterlesen

Beliebt