Apps & Mobile Entwicklung
Free Software Foundation: Mit freien Inhalten trainierte KI-Modelle sollten für alle frei sein
Die Free Software Foundation (FSF) hat Anthropic erneut für die Nutzung ihrer Materialien beim Training der KI-Modelle kritisiert. Zugleich fordert die Organisation auch von anderen LLM-Entwicklern, Modelle, die mit frei zugänglichen Inhalten trainiert wurden, ebenfalls frei für Nutzer bereitzustellen.
Freie Werke fallen unter Fair Use
Die FSF und Anthropic blicken bereits auf eine bewegte Geschichte juristischer Auseinandersetzungen zurück. Zuletzt trafen beide Parteien sowie Meta im Juni 2025 im Rahmen einer von drei Autoren angestrebten Sammelklage aufeinander, in der es um die Nutzung von im Internet verfügbaren Werken zum Training von Anthropics KI-Modellen ging. Beide Seiten konnten in dem Rechtsstreit seinerzeit Erfolge für sich verbuchen: So befand das Gericht damals, dass das Verwenden von im Netz verfügbaren Büchern unter die Fair-Use-Regelung falle, da bei der Verwendung geschützter Werke für das Training eines Large Language Models (LLM) etwas Neues entstehe. Das Vorgehen sei somit transformativ, was eine Grundvoraussetzung für die Annahme von Fair Use darstellt.
Eine Rechtsverletzung hatte seinerzeit laut dem Gerichtsurteil dennoch stattgefunden, da sich Anthropic und Meta urheberrechtlich geschützte Werke aus illegalen Quellen beschafft und behalten hatten – Copyright-Piraterie wie bei dem verwendeten Books3- und LibGen-Datensatz, welche Millionen von Büchern enthalten haben, sei laut dem damals verantwortlichen Richter William Alsup durch Fair Use nicht abgedeckt. Im Rahmen eines Vergleiches erklärte sich Anthropic im September 2025 zur Einrichtung eines 1,5 Milliarden Euro hohen Fonds bereit, um Autoren zu entschädigen, deren Werke das Unternehmen ohne Genehmigung zum Trainieren seiner Modelle verwendet hatte.
Unternehmen sollen Daten teilen
Unter den Büchern, die für das Training genutzt wurden, befanden sich allerdings auch zahlreiche freie Werke, wie beispielsweise „Free as in Freedom: Richard Stallman’s Crusade for Free Software“ von Sam Williams. Dieses wurde laut der FSF von O’Reilly und der FSF unter der GNU Free Documentation License (GNU FDL) veröffentlicht.
Die freie Lizenz erlaube laut der FSF die Nutzung des Werks für jeden Zweck ohne Bezahlung. Aus diesem Grund fordert die Organisation Anthropic auf, die vollständigen Trainingsdaten mit jedem Nutzer des LLM kostenlos zu teilen, zusammen mit dem vollständigen Modell, den Einstellungen der Trainingskonfigurationen und dem dazugehörigen Software-Quellcode. Allerdings dürfte der FSF klar sein, dass der KI-Spezialist dieser Forderung nicht nachkommen wird – nicht zuletzt auch, weil die Organisation ebenso erklärte, dass ihr die Ressourcen für einen langjährigen Rechtsstreit fehlen würden. Sie erklärte allerdings ebenso, dass sie, sollte sie sich an einem Rechtsstreit beteiligen und dabei feststellen, dass ihre Urheberrechte und Lizenzen verletzt wurden, „als Entschädigung sicherlich die Freiheit der Nutzer fordern würde“.
Erkenntnisse aus freien Werken soll kostenlos sein
Vor diesem Hintergrund darf eher davon ausgegangen werden, dass die FSF hier eine öffentliche Debatte darüber entfachen will, dass bei der Nutzung freier Inhalte auch deren Bedingungen in Bezug auf den freien Gedanken weitergetragen werden sollten – und dass Konzerne mit zum Allgemeinwohl freigegebenen Inhalten Einnahmen generieren, während andere, die auf die Erkenntnisse aus diesen Werken zugreifen wollen, dafür bezahlen müssen.
Apps & Mobile Entwicklung
Nvidia-Roadmap: Feynman nutzt GPU-Die-Stacking, Custom HBM und Rosa-CPU
Nvidia hat sich zur GTC 2026 mittels Roadmap erneut freiwillig in die Karten blicken lassen. Die öffentliche Pläne reichen abermals bis Feynman, dort hat Nvidia jetzt GPU-Die-Stacking, Custom HBM und die Rosa-CPU bestätigt. Und für den Scale-up bei Rubin und Feynman können neben Kupfer auch optische Verbindungen genutzt werden.
Die Nvidia-Datacenter-Roadmap mit dem Ausblick auf Rubin Ultra und Feynman hat ihren Ursprung in der GTC 2025. Seitdem hat Nvidia die Roadmap immer wieder in stetig aktualisierter Form auf Konferenzen gezeigt, zuletzt auf der GTC Washington im Oktober 2025. Zur GTC 2026 folgten nun weitere Einblicke in die bevorstehenden Plattformen.
Rubin Ultra geht auf vier Dies pro GPU-Package
Bekannt war bereits, dass auf Rubin erst einmal Rubin Ultra folgen wird, bevor Feynman an der Reihe ist. Rubin Ultra verdoppelt Rubin, indem Nvidia von zwei auf vier GPU-Dies für jedes Chip-Package wechselt. 16 Stapel HBM4e mit insgesamt 1 TB pro Package sieht Nvidia für Rubin Ultra vor. Nvidia gibt die Rechenleistung eines GPU-Packages mit 100 PetaFLOPS (FP4) an. Mit Rubin Ultra geht zudem eine neue LPU aus der Groq-Partnerschaft einher. Die LP35 soll die aktuelle LP30 ablösen und dabei neben FP8 erstmals auch Support für NVFP4 mitbringen.
Kyber steigert den Scale-up, Oberon bleibt aber verfügbar
Rubin Ultra ist die Generation, mit der Nvidia vom derzeitigen Oberon- zum neuen Kyber-Rack wechseln will – zumindest optional, wenn ein noch dichter gepacktes Rack mit vertikaler Ausrichtung der Blades gefragt ist. Oberon bleibt aber auch künftig eine Option, wie die Platzierung auf der Roadmap auch noch in Richtung Feynman zeigt.
Scale-up mit Kupfer oder optischer Verbindung
Oberon ist das aktuell von Nvidia genutzte Rack-Design. Bereits diese Variante ermöglicht einen dicht gepackten Scale-up von derzeit bis zu 72 GPUs und 36 GPUs – daher auch der Name NVL72. Gezählt werden seit Anfang des Jahres wieder die GPU-Packages, nicht die GPU-Dies. Nvidia hatte hier abgeleitet von den Dies nämlich auch schon mal den Namen NVL144 vorgesehen, da ein GPU-Package bei Blackwell und Rubin aus zwei GPU-Dies besteht. Die neue (eigentlich alte) Namensgebung gilt auch für Kyber.
Oberon skaliert bei Rubin Ultra auf NVL576
Bei Oberon verbindet eine „Kupfer-Wirbelsäule“ rückseitig die Compute-Hardware mit den NVLink-Switches. Zur GTC nannte Jensen Huang aber auch optische Verbindungen als Option für den Scale-up. Statt von NVL72 ist dann von NVL576 die Rede, weil sich 576 GPUs zu einer Domain zusammenschließen lassen, die wie eine einzelne, massive GPU agiert. Von einem Scale-up im Rack kann dann allerdings nicht mehr die Rede sein, weil keine 576 GPUs in ein Oberon-Rack passen. Das zeigt mit „Polyphe“ ein Prototyp von Nvidia, mit dem der optische Scale-up getestet wird. Über den Serverschrank hinaus war bei Nvidia bislang eigentlich immer vom Scale-out statt Scale-up die Rede.
Ein Bücherregal für AI-Hardware
Rubin Ultra bringt aber auch die Option für das neue Kyber-Rack mit. Kyber bringt die Hardware nicht mehr in untereinander liegenden Compute- und NVLink-Trays unter, die rückseitig über Kupferkabel miteinander verbunden werden, sondern in vertikal nebeneinander positionierten Blades, fast so wie bei einem Bücherregal, das Bücher nebeneinander unterbringt. Neu ist dabei, dass Compute vorne in den Blades stattfindet, während NVLink mit den Switches über eine Mid-Plane von hinten angedockt wird. Ein NVLink-Blade erstreckt sich über die Höhe von zwei Compute-Blades. Im 90-Grad-Winkel dazu sitzt die Mid-Plane.
Das schafft Platz für noch mehr Komponenten im Rack, sodass hier die Bezeichnung NVL144 genutzt wird. Gemein sind 144 GPU-Packages mit dann bis zu 576 GPU-Dies für Rubin Ultra. Für das Kyber-Rack will Nvidia zur Einführung der neuen Rack-Architektur mit Rubin Ultra zunächst auf den Scale-up mit Kupfer setzen. Optische Verbindungen sind testweise erst einmal nur für Oberon vorgesehen, bevor sich das mit Feynman dann jedoch auch für Kyber ändern wird. Oberon ist hierfür zunächst der Testballon.
Feynman setzt auf GPU-Die-Stacking
Feynman ist die für 2028 angesetzte GPU-Architektur, bei der Nvidia nicht mehr wie bei Rubin oder Rubin Ultra auf zwei respektive vier nebeneinander gelegte GPU-Dies setzen wird, sondern zum „Die Stacking“ wechselt, um mehrere GPU-Dies übereinander zu stapeln. Wie genau das technisch umgesetzt wird und was sich dafür bei Fertigung und Packaging ändern muss, hat Nvidia zur Konferenz noch nicht verraten. Bekannt ist außerdem, dass nach HBM4 bei Rubin und HBM4e bei Rubin Ultra mit Feynman dann ein Wechsel zu „Custom HBM“ erfolgen soll.
Oberon bleibt, dann aber nicht mehr mit optischem Scale-up
Auch Feynman wird weiterhin eine Oberon-Option bieten. Das ging aus den letzten Roadmap-Veröffentlichungen noch nicht hervor, dort sah bislang alles nach Kyber ab Rubin Ultra aus. Nvidia wird die aktuelle, ältere Rack-Architektur somit fortführen, aber mit neuer Compute-Hardware anbieten, sodass auch Upgrades möglich sind. Die Option auf den Scale-up mit optischen Verbindungen fällt dann aber weg. Diese hebt sich Nvidia bei Feynman exklusiv für Kyber auf. Dort lässt sich ein optischer statt Kupfer-Scale-up von NVL144 auf NVL1152 vollziehen, also 1.152 GPUs innerhalb einer Domain.
Eine neue CPU benannt nach Rosalind Franklin
Nvidia hat zur GTC zudem erstmals eine neue CPU für Feynman bestätigt: Rosa. Bislang war für Feynman noch die aktuelle Vera-CPU auf der Roadmap zu finden. Vermutlich handelte es sich bei Vera um einen Platzhalter, bis Nvidia öffentlich über Rosa reden kann. Der Name leitet sich von der britischen Biochemikerin Rosalind Franklin ab. Technische Details waren zur GTC noch kein Thema. Es dürften erneut Custom-Arm-Kerne mit SMT zum Einsatz kommen, so wie es bei Grace mit Olympus-Kernen der Fall ist.
ComputerBase hat Informationen zu diesem Artikel von Nvidia unter NDA im Vorfeld und im Rahmen einer Veranstaltung des Herstellers in San Jose, Kalifornien erhalten. Die Kosten für An-, Abreise und fünf Hotelübernachtungen wurden vom Unternehmen getragen. Eine Einflussnahme des Herstellers oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe aus dem NDA war der frühestmögliche Veröffentlichungszeitpunkt.
Apps & Mobile Entwicklung
Nach Update: CPU-Z 2.19 meldet „Fake-7430U“ jetzt als Ryzen 5 5500U

Das Analyse-Tool CPU-Z hat ein Update erhalten: Version 2.19 nennt einen Ryzen 5 5500U jetzt auch beim Namen, wenn das System die CPU eigentlich als Ryzen 5 7430U führt. Damit lassen sich Systeme mit „Fake-7430U“ auch ohne Kenntnis der weiteren CPU-Eckdaten erkennen.
Das geht aus den Release Notes der neuen Version hervor, die heute veröffentlicht worden ist:
- AMD Ryzen AI 7/PRO 450G/E, AI 5/PRO 440G/E & 435G/E (Kraken Point 2).
- AMD Ryzen AI 9 HX 470.
- Fix AMD Ryzen 5 5500U (Lucienne) reported as 7350U (Cezanne).
- Preliminary support of Intel Wildcat Lake.
- CQDIMM (4-ranks CUDIMM) memory support.
- Fix DLL hijacking vulnerability thanks to Kwangyun Kem.
- New Chinese translation thanks to Shinjo Kurumi.
Darüber hinaus erkennt das Tool jetzt erstmals zuverlässig die neuen Desktop-APUs der Serie Ryzen AI (Pro) 400G(E), die für Anfang Q2 angekündigt worden sind. Sie basieren auf Krackan Point, also der kleineren Variante von Strix Point (Ryzen AI 300) respektive Gorgon Point (Ryzen AI 400), weswegen die Desktop-APUs vorerst nur eine maximal 8 CU große iGPU mit sich bringen werden – halb so viele, wie Gorgon Point aufbringen würde.
Vielen Dank an Community-Mitglied Shearer für den Hinweis zu dieser Meldung.
Downloads
-
4,9 Sterne
CPU-Z ist ein kleines Tool zum Auslesen von Prozessor-, Speicher-, Mainboard- und Grafikkarten-Daten.
- Version 2.19
- Version for ARM64 1.04, Win 11
Apps & Mobile Entwicklung
Eco-Beschwerdestelle: Wieso „Löschen statt Sperren“ besser als Netzsperren funktioniert
Das Konzept „Löschen statt Sperren“ funktioniert, erklärt die Beschwerdestelle des Internetwirtschaftsverbands Eco. 2025 verzeichnete man einen Höchststand bei den berechtigten Beschwerden. Insbesondere kinderpornografische Inhalte konnten zudem nahezu vollständig entfernt werden.
Das erklärt die Eco-Beschwerdestelle bei der Vorstellung des Transparenzberichts für das Jahr 2025. Mit 51.358 geprüften Hinweisen und 30.035 tatsächlich festgestellten Rechtsverstößen verzeichnet sie den höchsten Stand berechtigter Beschwerden seit der Gründung im Jahr 1996. Rund 93 Prozent der geprüften Hinweise betrafen den Bereich sexualisierte Gewalt und Grenzverletzungen gegen Kinder und Jugendliche.
Generell steht bei der Eco-Beschwerdestelle der Jugendschutz im Fokus. Die Schwerpunkte bei den Meldungen liegen neben der Darstellung sexualisierter Gewalt gegen Kinder und Jugendliche bei extrem gewaltverherrlichenden Inhalten, Volksverhetzung, Verbreitung verfassungsfeindlicher Propaganda, Aufrufe oder Anleitungen zu Straftaten, Unterstützung für terroristische oder kriminelle Vereinigungen sowie andere jugendgefährdende Inhalte.
Hohe Löschquote als Erfolgsmerkmal
Die Anzahl der berechtigten Beschwerden hat sich im Vergleich zu 2024 fast verdreifacht. „Diese Entwicklung zeigt, wie groß der Handlungsdruck ist – aber auch, wie leistungsfähig und wichtig funktionierende Melde- und Abhilfesysteme wie unsere Eco-Beschwerdestelle“, erklärt Alexandra Koch-Skiba, Leiterin der Eco-Beschwerdestelle.
Bemerkenswert ist die Erfolgsquote, wenn Inhalte als rechtswidrig eingestuft worden sind. Weltweit wurden 98,58 Prozent solcher Inhalte entfernt. Bei in Deutschland gehosteten kinderpornografischen Inhalten lag die Erfolgsquote bei 100 Prozent.
In Deutschland gehostete Webseiten mit Kinderpornografie konnten im letzten Jahr durchschnittlich nach 4,52 Tagen entfernt werden. Weltweit dauerte es 9,21 Tage.
Wie „Löschen statt Sperren“ funktioniert
Die Eco-Beschwerdestelle ist Teil der internationalen Inhope-Initiative, bei der Organisationen aus mehreren Ländern eng mit Strafverfolgungsbehörden und Internet-Providern zusammenarbeiten, um rechtswidrige Inhalte schnell aus dem Netz zu entfernen. Von den internationalen Partnern stammen auch 47,5 Prozent der Beschwerden.
Tätig wird die Beschwerdestelle grundsätzlich erst, wenn ein externer Hinweis erfolgt. Selbst sucht die Organisation also nicht nach fragwürdigen Inhalten.
Ob diese Inhalte rechtswidrig sind, prüft ein Team aus Juristen, das Aspekte wie Meinungsfreiheit und hohe gesetzliche Eingriffsschwellen berücksichtigt. Die Konsequenz dieses Ansatzes zeigt sich auch in den Zahlen. 42 Prozent der Beschwerden wurden final als nicht berechtigt eingestuft.
Bei der Prüfung wird unter anderem auch erfasst, wo der Inhalt gespeichert ist. Das ist relevant für den weiteren Prozess, denn die erfassten Rechtsverstöße werden sowohl der Polizei als auch den Providern gemeldet. Neben dem Löschen geht es auch um Strafverfolgung. Final wird dann untersucht, ob Inhalte tatsächlich entfernt worden sind.
Netzsperren lassen sich umgehen, entfernte Inhalte sind weg
1996 wurde die Eco-Beschwerdestelle gegründet, diese ist also seit 30 Jahren und damit seit den Gründerzeiten des Webs aktiv. Bemerkenswert ist das Vorgehen vor allem, weil sich diese deutlich von Forderungen wie etwa Netzsperren absetzt, die immer wieder in der Politik kursieren.
„Internetsperren können immer umgangen werden, daher setzen wir auf Löschen statt Sperren“, sagt Eco-Geschäftsführer Alexander Rabe bei dem Pressegespräch. Inhalte, die so entfernt werden, sind dann nicht mehr über andere Wege zugänglich. Das Ziel ist aber nicht nur das Löschen, sondern auch die Taten zur Anzeige zu bringen. Daher arbeitet man auch eng mit den Strafverfolgungsbehörden zusammen.
In den letzten Monaten und Jahren ging es auf EU-Ebene vor allem um die Chatkontrolle. Das automatisierte Scannen von Nutzerinhalten auf der Suche nach CSAM-Material wird beim Eco aber ebenfalls kritisch bewertet.
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 4 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
