Apps & Mobile Entwicklung
Nicht mehr nur GPUs: Nvidia Groq 3 LPU erhöht Inference-Durchsatz massiv
Der im Dezember zwischen Nvidia und Groq geschlossene Technologie-Lizenzvertrag trägt zur GTC 2026 erste Früchte. Eine neue Language Processing Unit (LPU) soll den Inference-Durchsatz mit niedriger Latenz massiv erhöhen. Demnach wird bei Nvidia nicht länger nur auf GPUs gesetzt. Zum Einsatz kommen sie im neuen LPX-Rack.
Gerüchten zufolge soll das Lizenzabkommen Nvidia 20 Milliarden US-Dollar wert gewesen sein. Offiziell handelt es sich um einen nicht-exklusiven Deal, denn Groq wurde für den propagierten Preis nicht von Nvidia übernommen, es bleibt ein eigenständig. Das Abkommen sieht aber vor, dass Groq-Gründer Jonathan Ross und Groq-Präsident Sunny Madra sowie weitere Mitarbeiter zu Nvidia wechseln.
LPU des Hauptarchitekten der Google TPU
Das KI-Chip-Startup Groq wurde 2016 von Jonathan Ross und Douglas Wightman gegründet. Ross war zuvor bei Google einer der Hauptarchitekten der Google Tensor Processing Unit (TPU). Mit Groq wollte er eine neue Prozessorarchitektur speziell für das KI-Inferencing entwickeln, die deutlich geringere Latenzen und höhere Geschwindigkeiten bei der Ausführung großer Sprachmodelle ermöglicht. Dabei herausgekommen ist die Language Processing Unit (LPU), die mit der Einführung der Vera-Rubin-Plattform zum Bestandteil der aktuellen Datacenter-Architektur von Nvidia wird. Bedeutet: Nvidia setzt nicht mehr nur auf GPUs, sondern erstmals auch spezielle Inference-Beschleuniger.
Das zeichnet eine LPU aus
Ziel der LPU ist die bei Inference wichtige sehr schnelle Token-Generierung für Echtzeit-KI-Anwendungen. Dafür setzt sie auf eine deterministische Architektur ohne Caches, Branch-Prediction oder dynamisches Scheduling. Weil der Compiler jede Operation und jeden Datenfluss im Voraus plant, entstehen exakt vorhersehbare Laufzeiten. Das Ergebnis ist ein Inference-Beschleuniger mit konstanter und sehr niedriger Latenz.
500 MB SRAM statt 288 GB HBM4
Für sehr kurze Zugriffszeiten und eine hohe Bandbreite sorgt ein großer On-Chip-SRAM. GPUs für Künstliche Intelligenz setzen hingegen auf eine oftmals komplexer Cache-Hierarchie und extern angebundenen High Bandwidth Memory (HBM). Beide Lösungen haben ihre Vor- und Nachteile, weshalb Nvidia auch nicht von LPUs statt GPUs, sondern von GPUs und LPUs redet. Erreicht werden soll eine Kombination aus hohem Durchsatz und niedriger Latenz. Deshalb gesellt sich das neue LPX-Rack neben das Vera Rubin NVL72, in dem CPUs und GPUs zum Einsatz kommen.
Eine Nvidia Groq 3 LPU kommt mit 500 MB On-Chip-SRAM (Static RAM). Der Speicher fällt somit deutlich kleiner (1/500) als der 288 GB große HBM4 der Rubin-GPU aus. Doch der SRAM erreicht mit 150 TB/s eine um das Vielfache höhere Bandbreite als HBM4 mit 22 TB/s. Kleine Randnotiz: Nvidia gibt zur GTC offiziell 22 TB/s für den HBM4 von Rubin an, Gerüchte einer Reduzierung auf 20 TB/s haben sich bislang nicht bestätigt. Die spezialisierte LPU bietet eine FP8-Leistung von 1,2 PFLOPS, während Rubin bei 50 PFLOPS für NVFP4 liegt. 98 Milliarden Transistoren zählt eine LPU. Zum Vergleich: Rubin kommt auf 336 Milliarden zuzüglich 2,5 Billionen Transistoren (!) für den HBM4.
LPX-Rack reiht sich in Vera-Rubin-Ökosystem ein
Zusammengeführt werden die LPUs im neuen LPX-Rack, das insgesamt 256 LPUs, 128 GB SRAM, 315 PFLOPS und 40 PB/s SRAM-Bandbreite bietet. Auch bei diesem Rack setzt Nvidia für den dicht gepackten Scale-up im Rack auf eine Flüssigkeitskühlung, die zum restlichen Vera-Rubin-Ökosystem kompatibel ist. Die LPX-Racks könne man auf mehr als 1.000 LPUs skalieren, erklärte Nvidia.
LPUs und GPUs im Zusammenspiel
Das LPX-Rack findet seinen Platz neben einem Vera Rubin NVL72, sodass die Workloads entsprechend der Anforderungen auf die verschiedenen Lösungen verteilt werden. Das soll die Vorteile beider Arten von Beschleunigern zusammenführen. Nvidia zeigt dies am Beispiel eines Effizienz-Trade-offs beim LLM-Inferencing für ein Modell mit 1 Billion Parametern und 400K Kontextfenster – jeweils auf Blackwell, Rubin und Rubin mit LPX. Für alle Architekturen gilt: Je schneller ein einzelner Nutzer Antworten bekommt (höhere TPS/User), desto schlechter wird die Energieeffizienz des gesamten Systems. Denn eine hohe Antwortgeschwindigkeit erfordert mehr parallele Ressourcen pro Nutzer.
Im konkreten Beispiel hat sich Nvidia einen Punkt bei etwa 500 TPS/User und Kosten von 45 US-Dollar pro eine Million Tokens herausgepickt. Hier liefere Rubin mit LPX einen 35 Mal höheren Inference-Durchsatz respektive höhere Energieeffizienz (TPS/MW) als Blackwell. Der nominelle Direktvergleich nur mit Rubin bleibt aus, die Grafik verbildlicht aber auch hier den Vorteil. Anbieter könnten mir der gemischten Architektur einen bis zu 10 Mal höheren Umsatz in USD pro Sekunde pro Rechenzentrum-Megawatt generieren, so Nvidia. Während Blackwell auf 1 USD und Rubin auf 4 USD komme, erreiche Rubin mit LPX 10 USD.
Die neuen LPX-Racks sollen gemeinsam mit den weiteren KI-Lösungen der neuen Vera-Rubin-Plattform im Verlauf des zweiten Halbjahres 2026 an den Start gehen.
ComputerBase hat Informationen zu diesem Artikel von Nvidia unter NDA im Vorfeld und im Rahmen einer Veranstaltung des Herstellers in San Jose, Kalifornien erhalten. Die Kosten für An-, Abreise und fünf Hotelübernachtungen wurden vom Unternehmen getragen. Eine Einflussnahme des Herstellers oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe aus dem NDA war der frühestmögliche Veröffentlichungszeitpunkt.
Apps & Mobile Entwicklung
Nach Update: CPU-Z 2.19 meldet „Fake-7430U“ jetzt als Ryzen 5 5500U

Das Analyse-Tool CPU-Z hat ein Update erhalten: Version 2.19 nennt einen Ryzen 5 5500U jetzt auch beim Namen, wenn das System die CPU eigentlich als Ryzen 5 7430U führt. Damit lassen sich Systeme mit „Fake-7430U“ auch ohne Kenntnis der weiteren CPU-Eckdaten erkennen.
Das geht aus den Release Notes der neuen Version hervor, die heute veröffentlicht worden ist:
- AMD Ryzen AI 7/PRO 450G/E, AI 5/PRO 440G/E & 435G/E (Kraken Point 2).
- AMD Ryzen AI 9 HX 470.
- Fix AMD Ryzen 5 5500U (Lucienne) reported as 7350U (Cezanne).
- Preliminary support of Intel Wildcat Lake.
- CQDIMM (4-ranks CUDIMM) memory support.
- Fix DLL hijacking vulnerability thanks to Kwangyun Kem.
- New Chinese translation thanks to Shinjo Kurumi.
Darüber hinaus erkennt das Tool jetzt erstmals zuverlässig die neuen Desktop-APUs der Serie Ryzen AI (Pro) 400G(E), die für Anfang Q2 angekündigt worden sind. Sie basieren auf Krackan Point, also der kleineren Variante von Strix Point (Ryzen AI 300) respektive Gorgon Point (Ryzen AI 400), weswegen die Desktop-APUs vorerst nur eine maximal 8 CU große iGPU mit sich bringen werden – halb so viele, wie Gorgon Point aufbringen würde.
Vielen Dank an Community-Mitglied Shearer für den Hinweis zu dieser Meldung.
Downloads
-
4,9 Sterne
CPU-Z ist ein kleines Tool zum Auslesen von Prozessor-, Speicher-, Mainboard- und Grafikkarten-Daten.
- Version 2.19
- Version for ARM64 1.04, Win 11
Apps & Mobile Entwicklung
Eco-Beschwerdestelle: Wieso „Löschen statt Sperren“ besser als Netzsperren funktioniert
Das Konzept „Löschen statt Sperren“ funktioniert, erklärt die Beschwerdestelle des Internetwirtschaftsverbands Eco. 2025 verzeichnete man einen Höchststand bei den berechtigten Beschwerden. Insbesondere kinderpornografische Inhalte konnten zudem nahezu vollständig entfernt werden.
Das erklärt die Eco-Beschwerdestelle bei der Vorstellung des Transparenzberichts für das Jahr 2025. Mit 51.358 geprüften Hinweisen und 30.035 tatsächlich festgestellten Rechtsverstößen verzeichnet sie den höchsten Stand berechtigter Beschwerden seit der Gründung im Jahr 1996. Rund 93 Prozent der geprüften Hinweise betrafen den Bereich sexualisierte Gewalt und Grenzverletzungen gegen Kinder und Jugendliche.
Generell steht bei der Eco-Beschwerdestelle der Jugendschutz im Fokus. Die Schwerpunkte bei den Meldungen liegen neben der Darstellung sexualisierter Gewalt gegen Kinder und Jugendliche bei extrem gewaltverherrlichenden Inhalten, Volksverhetzung, Verbreitung verfassungsfeindlicher Propaganda, Aufrufe oder Anleitungen zu Straftaten, Unterstützung für terroristische oder kriminelle Vereinigungen sowie andere jugendgefährdende Inhalte.
Hohe Löschquote als Erfolgsmerkmal
Die Anzahl der berechtigten Beschwerden hat sich im Vergleich zu 2024 fast verdreifacht. „Diese Entwicklung zeigt, wie groß der Handlungsdruck ist – aber auch, wie leistungsfähig und wichtig funktionierende Melde- und Abhilfesysteme wie unsere Eco-Beschwerdestelle“, erklärt Alexandra Koch-Skiba, Leiterin der Eco-Beschwerdestelle.
Bemerkenswert ist die Erfolgsquote, wenn Inhalte als rechtswidrig eingestuft worden sind. Weltweit wurden 98,58 Prozent solcher Inhalte entfernt. Bei in Deutschland gehosteten kinderpornografischen Inhalten lag die Erfolgsquote bei 100 Prozent.
In Deutschland gehostete Webseiten mit Kinderpornografie konnten im letzten Jahr durchschnittlich nach 4,52 Tagen entfernt werden. Weltweit dauerte es 9,21 Tage.
Wie „Löschen statt Sperren“ funktioniert
Die Eco-Beschwerdestelle ist Teil der internationalen Inhope-Initiative, bei der Organisationen aus mehreren Ländern eng mit Strafverfolgungsbehörden und Internet-Providern zusammenarbeiten, um rechtswidrige Inhalte schnell aus dem Netz zu entfernen. Von den internationalen Partnern stammen auch 47,5 Prozent der Beschwerden.
Tätig wird die Beschwerdestelle grundsätzlich erst, wenn ein externer Hinweis erfolgt. Selbst sucht die Organisation also nicht nach fragwürdigen Inhalten.
Ob diese Inhalte rechtswidrig sind, prüft ein Team aus Juristen, das Aspekte wie Meinungsfreiheit und hohe gesetzliche Eingriffsschwellen berücksichtigt. Die Konsequenz dieses Ansatzes zeigt sich auch in den Zahlen. 42 Prozent der Beschwerden wurden final als nicht berechtigt eingestuft.
Bei der Prüfung wird unter anderem auch erfasst, wo der Inhalt gespeichert ist. Das ist relevant für den weiteren Prozess, denn die erfassten Rechtsverstöße werden sowohl der Polizei als auch den Providern gemeldet. Neben dem Löschen geht es auch um Strafverfolgung. Final wird dann untersucht, ob Inhalte tatsächlich entfernt worden sind.
Netzsperren lassen sich umgehen, entfernte Inhalte sind weg
1996 wurde die Eco-Beschwerdestelle gegründet, diese ist also seit 30 Jahren und damit seit den Gründerzeiten des Webs aktiv. Bemerkenswert ist das Vorgehen vor allem, weil sich diese deutlich von Forderungen wie etwa Netzsperren absetzt, die immer wieder in der Politik kursieren.
„Internetsperren können immer umgangen werden, daher setzen wir auf Löschen statt Sperren“, sagt Eco-Geschäftsführer Alexander Rabe bei dem Pressegespräch. Inhalte, die so entfernt werden, sind dann nicht mehr über andere Wege zugänglich. Das Ziel ist aber nicht nur das Löschen, sondern auch die Taten zur Anzeige zu bringen. Daher arbeitet man auch eng mit den Strafverfolgungsbehörden zusammen.
In den letzten Monaten und Jahren ging es auf EU-Ebene vor allem um die Chatkontrolle. Das automatisierte Scannen von Nutzerinhalten auf der Suche nach CSAM-Material wird beim Eco aber ebenfalls kritisch bewertet.
Apps & Mobile Entwicklung
Free Software Foundation: Mit freien Inhalten trainierte KI-Modelle sollten für alle frei sein
Die Free Software Foundation (FSF) hat Anthropic erneut für die Nutzung ihrer Materialien beim Training der KI-Modelle kritisiert. Zugleich fordert die Organisation auch von anderen LLM-Entwicklern, Modelle, die mit frei zugänglichen Inhalten trainiert wurden, ebenfalls frei für Nutzer bereitzustellen.
Freie Werke fallen unter Fair Use
Die FSF und Anthropic blicken bereits auf eine bewegte Geschichte juristischer Auseinandersetzungen zurück. Zuletzt trafen beide Parteien sowie Meta im Juni 2025 im Rahmen einer von drei Autoren angestrebten Sammelklage aufeinander, in der es um die Nutzung von im Internet verfügbaren Werken zum Training von Anthropics KI-Modellen ging. Beide Seiten konnten in dem Rechtsstreit seinerzeit Erfolge für sich verbuchen: So befand das Gericht damals, dass das Verwenden von im Netz verfügbaren Büchern unter die Fair-Use-Regelung falle, da bei der Verwendung geschützter Werke für das Training eines Large Language Models (LLM) etwas Neues entstehe. Das Vorgehen sei somit transformativ, was eine Grundvoraussetzung für die Annahme von Fair Use darstellt.
Eine Rechtsverletzung hatte seinerzeit laut dem Gerichtsurteil dennoch stattgefunden, da sich Anthropic und Meta urheberrechtlich geschützte Werke aus illegalen Quellen beschafft und behalten hatten – Copyright-Piraterie wie bei dem verwendeten Books3- und LibGen-Datensatz, welche Millionen von Büchern enthalten haben, sei laut dem damals verantwortlichen Richter William Alsup durch Fair Use nicht abgedeckt. Im Rahmen eines Vergleiches erklärte sich Anthropic im September 2025 zur Einrichtung eines 1,5 Milliarden Euro hohen Fonds bereit, um Autoren zu entschädigen, deren Werke das Unternehmen ohne Genehmigung zum Trainieren seiner Modelle verwendet hatte.
Unternehmen sollen Daten teilen
Unter den Büchern, die für das Training genutzt wurden, befanden sich allerdings auch zahlreiche freie Werke, wie beispielsweise „Free as in Freedom: Richard Stallman’s Crusade for Free Software“ von Sam Williams. Dieses wurde laut der FSF von O’Reilly und der FSF unter der GNU Free Documentation License (GNU FDL) veröffentlicht.
Die freie Lizenz erlaube laut der FSF die Nutzung des Werks für jeden Zweck ohne Bezahlung. Aus diesem Grund fordert die Organisation Anthropic auf, die vollständigen Trainingsdaten mit jedem Nutzer des LLM kostenlos zu teilen, zusammen mit dem vollständigen Modell, den Einstellungen der Trainingskonfigurationen und dem dazugehörigen Software-Quellcode. Allerdings dürfte der FSF klar sein, dass der KI-Spezialist dieser Forderung nicht nachkommen wird – nicht zuletzt auch, weil die Organisation ebenso erklärte, dass ihr die Ressourcen für einen langjährigen Rechtsstreit fehlen würden. Sie erklärte allerdings ebenso, dass sie, sollte sie sich an einem Rechtsstreit beteiligen und dabei feststellen, dass ihre Urheberrechte und Lizenzen verletzt wurden, „als Entschädigung sicherlich die Freiheit der Nutzer fordern würde“.
Erkenntnisse aus freien Werken soll kostenlos sein
Vor diesem Hintergrund darf eher davon ausgegangen werden, dass die FSF hier eine öffentliche Debatte darüber entfachen will, dass bei der Nutzung freier Inhalte auch deren Bedingungen in Bezug auf den freien Gedanken weitergetragen werden sollten – und dass Konzerne mit zum Allgemeinwohl freigegebenen Inhalten Einnahmen generieren, während andere, die auf die Erkenntnisse aus diesen Werken zugreifen wollen, dafür bezahlen müssen.
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 4 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
