Apps & Mobile Entwicklung
Wie AI das Internet „klaut“ und womöglich damit durchkommt
Dass nun auch Hollywood-Studios wie Disney und Universal gegen KI-Dienste vorgehen, verstärkt nochmals den Druck in den Copyright-Klagen. Die KI-Anbieter – von OpenAI über Meta bis Midjourney – rechtfertigen das Vorgehen mit den Fair-Use-Regeln. Auf was es bei den Verfahren ankommt, analysiert der Analyst Timothy B. Lee.
Wie viel Harry Potter kann AI zitieren?
Hintergrund ist eine Studie von Rechtswissenschaftlern der Universitäten von Stanford, Cornell und der West Virginia University vom Mai 2025, die Lee in seinem Newsletter Understanding AI aufgreift. Die Forschenden haben untersucht, inwieweit die Modelle auch urheberrechtlich geschützte Inhalte wiedergeben können. Stimmt der Output (nahezu) exakt mit den Trainingsdaten überein, spricht man von „Memorization“. Während die KI-Firmen wie OpenAI solche Inhalte nur als Ausnahmefälle beschreiben, sind sie zentraler Bestandteil von Copyright-Klagen wie der New York Times.
Bei den Verfahren geht es also auch um die Frage, wie häufig sich „Memorization“-Inhalte produzieren lassen. Um das zu analysieren, nutzen die Studien-Autoren den books3-Datensatz, der zum Teil urheberrechtlich geschützte Werke enthält. Und das Ergebnis war erstaunlich: je nach Modell und Buch unterscheidet sich zwar, wie häufig das Phänomen auftritt. In manchen Fällen war es jedoch sehr häufig. Das gilt etwa für den ersten Harry-Potter-Band Der Stein der Weisen und Metas Modell Llama 3.1 70B.

Wie Timothy B. Lee zusammenfasst, hat Llama 3.1 70B insgesamt 42 Prozent des Buches so gut „abgespeichert“, dass sich 50-Token-Auszüge in mindestens der Hälfte der Fälle reproduzieren lassen. Token sind die Wortbestandteile, die Large Language Models (LLM) nutzen, um Texte zu generieren. Der Befund besagt also: Man kann das Modell dazu bringen, regelmäßig Originalzitate aus dem Buch auszugeben.
Überrascht waren die Autoren vom Ausmaß. Man habe eher mit einer Größenordnung von ein bis zwei Prozent gerechnet, sagte der Studien-Mitautor Mark Lemey zu Lee. Es sind Werte, die sich auf die laufenden Copyright-Verfahren auswirken können.
Daten als zentraler Baustein für generative KI-Entwicklung
Die Klagen richten sich gegen praktisch alle prominenten KI-Firmen – selbst wenn die Studienergebnisse erst einmal Meta betreffen, können diese in weiteren Verfahren eine Rolle spielen. Und der Datenhunger ist ohnehin bei allen gleich.
Der Grund ist naheliegend: Um aktuelle Modelle zu entwickeln, benötigt man massenhaft Daten. Diese sind neben der Computing-Power und der Modellgröße einer der Bestandteile der Scaling-Formel, die maßgeblich für den Aufstieg der aktuellen KI-Modelle steht. Wer mehr und bessere Daten hat, kann leistungsfähigere Modelle entwickeln.
Wie groß so ein Trainingsdatensatz in der Praxis ist, schilderte OpenAI in einem GPT-3-Paper aus dem Jahr 2020 mit. Allein der CommonCrawl-Datensatz, der für rund 80 Prozent der Token im Modell-Training stand, umfasste 45 TB an komprimierter Klartext vor der Filterung und 570 GB nach der Filterung. Und das ist bereits fünf Jahre her. Die Branche ist mittlerweile deutlich verschlossener, die Menge dürfte nochmals deutlich gestiegen sein.
AI-Webcrawler bremsen das Netz aus
Um an die Daten zu kommen, gehen die KI-Firmen weite Wege. Die AI-Crawler grasen praktisch das komplette Web ab und sammeln damit nicht nur enorme Datenmengen, sondern bremsen das komplette Netz aus. Wikipedia verzeichnete deswegen im Jahr 2024 ein Traffic-Plus von über 50 Prozent, aktuell berichtet 404Media, dass die AI-Bots die Server von Museen, offenen Bibliotheken, Archiven und Galerien in die Knie gehen lassen. Auch über die Web-Crawler hinaus ist die Branche wenig zimperlich. Beispiele:
- Meta soll einen LibGen-Datensatz verwendet haben, berichtete The Atlantic. Dieser besteht also aus der illegalen Schattenbibliothek für geschützte Bücher und Artikel.
- Wie die New York Times (die selbst OpenAI verklagt) im letzten Jahr berichtete, transkribierte OpenAI massenhaft YouTube-Videos, um Material für das KI-Training zu erhalten.
„Um Daten zu erhalten, haben Tech-Unternehmen wie OpenAI, Google und Meta Abkürzungen genommen, Unternehmensrichtlinien ignoriert und diskutiert, das Gesetz zu beugen“, analysiert die New York Times in einem Bericht von 2024. Kurzum: Man hat wenig Skrupel und bewegte sich den Medienberichten zufolge völlig bewusst in Grauzonen – mindestens.
Wie Urheberrechtsverstöße möglich sind
Ob und wie genau das KI-Training mit geschützten Werken gegen das Urheberrecht verstoßen kann, ist aber noch strittig. Timothy B. Lee unterscheidet in dem aktuellen Newsletter zwischen drei Theorien:
- Generell stellt das KI-Training mit geschützten Werken ein Verstoß gegen das Urheberrecht dar, weil in dem Prozess eine digitale Kopie des Werks verwendet wird.
- Durch den Trainingsprozess werden Informationen aus den Trainingsdaten in das Modell übertragen, damit ist das Modell ein abgeleitetes Werk im Sinne des Urheberrechts.
- Verstöße finden dann statt, wenn Modelle (Teile) eines geschützten Werkes wiedergeben.
Viele Diskussionen drehen sich laut Lee bislang um den ersten Ansatz. Sollten Gerichte das KI-Training mit geschützten Inhalten als Urheberrechtsverstoß werten, wären die Konsequenzen am weitreichendsten. In diesem Fall wären praktisch alle aktuellen Modelle illegal.
Die KI-Firmen streiten die Vorwürfe stets ab. So sei etwa die Klage der New York Times haltlos, erklärte zuletzt erst wieder OpenAI. Der Standpunkt: Das Vorgehen der KI-Firmen ist durch die Fair-Use-Regeln gedeckt.
Man sammelt also praktisch das komplette Internet ein, trainiert damit Modelle, die komplette Branchen und Berufszweige umkrempeln können – und all das sei völlig legitim. Wie soll das gehen?
Wann greifen die Fair-Use-Regeln?
Die Antwort ist Fair Use. Ob ein Produkt oder eine Technologie unter die Fair-Use-Regeln fällt, lässt sich anhand von vier Faktoren bewerten. Wie Lee oder der amerikanische Rechtsprofessor James Grimmelmann bereits 2024 in einem Beitrag für Ars Technica beschrieben haben, sind vor allem zwei relevant: Einer ist zunächst die Art der Nutzung. Wahrscheinlicher ist der Fair-Use-Charakter, wenn die Nutzung geschützter Werke „transformativ“ ist – es muss sich also um etwas Neues handeln, das fundamental vom ursprünglichen Zweck und Charakter des Originals abweicht. Ein weiterer Faktor ist, wie das neue Produkt den Markt für das ursprüngliche Produkt beeinflusst.
Lee und Grimmelmann schildern diese Faktoren anhand von zwei Beispielen:
MP3.com: Digitale Kopien sind nicht mehr als ein digitaler Verkaufskanal
MP3.com startete im Jahr 2000 einen Dienst, mit dem Nutzer eine digitale Kopie von bereits gekaufter Musik abrufen konnten. Um Zugang zu erhalten, mussten sie zunächst die Original-CD einlegen, damit eine Urheberrechtsprüfung erfolgen konnte. War diese positiv, wurden die Songs in die Online-Bibliothek der Nutzer auf MP3.com hinzugefügt.
Die Betreiber rechtfertigten das Vorgehen mit Fair-Use-Regeln, immerhin würden Nutzer ausschließlich auf Musik zugreifen können, die sie ohnehin besitzen. Richter gingen bei dieser Argumentation nicht mit. Das Geschäftsmodell sei nicht transformativ, sondern im Prinzip nur ein neuer Verkaufskanal – an den Songs ändert sich nicht, das Angebot verfolge im Prinzip auch keinen anderen Zweck als der CD-Verkauf. Und hinzu kommt in diesem Fall: Nur weil das Kopieren geschützter Musik für den privaten Gebraucht legitim ist, gelte das dann nicht automatisch in dem Ausmaß, in dem es von MP3.com betrieben wurde.
Google Books: Eine Suchmaschine ist etwas anderes als ein Buch
Umfang beim Verarbeiten geschützter Werke ist damit aber kein Totschlagargument, wie der Fall Google Books zeigt. Die Bücher-Suchmaschine bietet eine Übersicht zahlloses Bücher. Beim Design war Google jedoch vorsichtig. Man zeigt etwa keine vollständigen Bücher an, sondern nur Ausschnitte von bestimmten Seiten, die je nach Suchanfrage variieren. Bei Wörterbüchern, Lexika oder Kochbüchern sind die Restriktionen noch schärfer, weil in solchen Werken schon einzelne Seiten ausreichen können, damit Nutzer sich das komplette Buch nicht kaufen müssen.
Festhalten lässt sich also laut Lee und Grimmelmann: Die Suche enthält urheberrechtlich geschützte Bücher, doch der Nutzungszweck einer Suchmaschine unterscheidet sich stark von der Funktion eines einzelnen Buchs – die Suche ist damit als transformativ im Sinne der Fair-Use-Regeln. Zudem stellt Google sicher, dass die Rechte der Autoren so gut es geht geschützt werden. Damit konnte Google sich dann 2015 in einem Gerichtsverfahren durchsetzen.
ChatGPT und Co.: Mehr als das Trainingsmaterial?
KI-Firmen wie OpenAI argumentieren nun ähnlich wie Google bei der Books-Suchmaschine. Bei KI-Training würden nicht geschützte Inhalte kopiert, sondern vielmehr Muster in den Werken erfasst, die zu den aktuellen Modellen führen. ChatGPT biete daher etwa wesentlich mehr, als das Wissen der New York Times abzurufen. Die Chatbots helfen den Nutzern, produktiver oder kreativer zu sein, sie haben einen Nutzungszweck, der weit über den einer Zeitung hinausgeht.
Hinzu kommen noch die Lizenzabkommen, die OpenAI mit zahlreichen Medien abgeschlossen hat. Ebenso arbeite man daran, Fehler wie das Memorization-Phänomen abzustellen. Man zeigt sich also bemüht. Und selbst bei der enormen Datenmenge, die KI-Firmen für das Training erfasst haben, könnte das Vorgehen also legitim sein.
They can point to the value that their AI systems provide to users, to the creative ways that generative AI builds on and remixes existing works, and to their ongoing efforts to reduce memorization.
Timothy B. Lee und James Grimmelmann
Umso heikler sind daher die Erkenntnisse aus der aktuellen Studie, erklärt Lee in dem aktuellen Understanding-AI-Newsletter. Google konnte technisch sicherstellen, dass nie mehr als kurze Ausschnitte aus Büchern angezeigt werden. 42 Prozent der Inhalte aus dem ersten Harry-Potter-Band sind aber mehr als einige Zeilen.
So lässt sich nur schwer die Verteidigung aufrechterhalten, in den Modellen stecken nur Wortmuster, erklärt der Studien-Mitautor Mark Lemley gegenüber Lee. Richter könnten nun zu der Erkenntnis kommen, dass der Trainingsprozess zwar unter Fair-Use-Regeln falle, die Modelle aber nicht, wenn sie geschützte Werke erhalten.
US-Gerichte verhandeln Dutzende AI-Copyright-Klagen
Relevant werden dürfte das im Verfahren zwischen dem New-York-Times-Verlag und OpenAI. Die Zeitung argumentiert in der Klageschrift, dass ChatGPT auch Originalartikel der Zeitung ausgibt. OpenAI bezeichnet den Vorwurf als haltlos, spricht von Tricks und beschreibt Memorization als seltenen Fehler. Inwieweit das zutrifft, will das Gericht nun selbst prüfen. So wurde OpenAI vor kurzem verpflichtet, sämtlichen Output der Chatbots dauerhaft zu speichern. Man will also sicherstellen, dass keine Beweise verloren gehen.
Das Verfahren ist aber nur eine der Dutzenden Copyright-Klagen, die Gerichte in den USA derzeit verhandeln. Sowohl Zeitungen und Zeitschriften als auch zahlreiche Autoren, Schauspieler, Bildagenturen und Filmkonzerne ziehen gegen die KI-Firmen. Zu den prominentesten Verfahren zählen:
- Die New York Times sowie wie zahlreiche Autoren und Nachrichtenseiten verklagen OpenAI und Microsoft, eingereicht wurde die Klage im Juli 2023. Der Vorwurf ist, dass OpenAIs Modelle mit geschütztem Material trainiert worden sind. Ein Beweis, den die New York Times – wie erwähnt – vorlegt hat: ChatGPT kann vollständige Originalartikel auswerfen.
- Autoren verklagen Meta, weil der Konzern massenhaft geschützte Inhalte für das KI-Training auswertet.
- Ebenfalls 2023 verklagte die Bilder-Datenbank Getty Images den Bildgenerator-Betreiber Stability AI, weil dieser zwölf Millionen Bilder aus der Getty-Datenbank samt Metadaten für das Modell-Training verwendet haben soll.
- Letzte Woche reichten die Hollywood-Konzerne Disney und Universal eine Klage gegen den KI-Bildgenerator Midjourney ein, weil sich mit diesem Inhalte erstellen lassen, die die Rechte von Marken wie Star Wars, Simpsons oder Cars verletzen.
- Schon 2020 hatte Thomson Reuters das Start-up Ross Intelligence verklagt, weil es Inhalte aus einer geschützten Juristen-Rechercheplattform nutzte. Thomson Reuters hatte den Fall bereits gewonnen. Weil Ross bereits 2021 aufgrund der Klage den Betrieb einstellte, hat das Urteil zunächst keine praktischen Konsequenzen.
Eine Übersicht der laufenden und abgeschlossenen Verfahren bietet Wired in einem Tracker.
Wie stehen die Chancen?
Wie die Verfahren ausgehen, lässt sich nur schwer abschätzen. Der Sieg von Thomson Reuter ist ein erster Fingerzeig. Zusätzlich kommt die Aussage des Bundesbezirksrichters Vince Chhabria bei einer Anhörung in einem der Meta-Verfahren. Er könne sich nicht vorstellen, wie das Vorgehen unter Fair-Use fallen soll. „Sie haben Unternehmen, die mit urheberrechtlich geschütztem Material ein Produkt erschaffen, das in der Lage ist, eine unendliche Anzahl von konkurrierenden Inhalten zu erstellen“, sagte er zu Metas Anwälten laut einem Bericht der Nachrichtenagentur Reuters.
Diese Inhalte könnten den Markt für die Kläger dramatisch verändern oder sogar auslöschen – und trotzdem würden die Anwälte behaupten, sie müssten „der Person nicht einmal Lizenzgebühren zahlen“, so Chhabria. Er verweist damit auf das Marktargument, das laut Lee und Grimmelmann einer der zentralen Faktoren ist, um ein Vorgehen als Fair-Use zu bewerten. Wesentliche Aufgabe von Metas Anwälten ist nun, diesen Aussagen etwas entgegenzusetzen.
- KI-Suchmaschinen: Wie Googles AI-Pläne das alte Internet töten
Eine schwierige Aufgabe, denn die öffentliche Diskussion geht eher in die andere Richtung. „Wie AI das alte Internet tötet“, ist seit Jahren ein Leitsatz, der durch Googles Umstieg auf KI-Suchmaschinen wieder Fahrt aufgenommen hat. Wenn Suchmaschinen in erster Linie keine Links mehr verteilen, sondern die KI-Dienste direkt die Antworten liefern, hat es unmittelbare Auswirkungen auf Geschäftsmodelle – und in diesem Fall betrifft es sogar unmittelbar Verlage.
Nun muss man bedenken: Die Fälle unterscheiden sich, was für die Google-Suche gilt, betrifft nicht unbedingt ChatGPT. Wie Lee und Grimmelmann in dem Ars-Technica-Beitrag beschreiben, bewerten Richter bei solchen Verfahren auch immer die Marktlage. Und inwieweit die KI-Firmen versuchen, die Copyright-Vorgaben einzuhalten. Selbst wenn es zu einer Verurteilung kommen würde, könnte der Eindruck dann darüber entscheiden, wie hoch die Strafe ausfällt.
Ultimately, the fate of these companies may depend on whether judges feel that the companies have made a good-faith effort to color inside the lines.
Timothy B. Lee und James Grimmelmann
So gesehen sind die KI-Firmen auch von der öffentlichen Meinung abhängig.
Politischer Lobbyismus als Ausweg für Tech-Konzerne
Neben den Gerichtsverfahren gibt es für die KI-Firmen aber noch einen Plan B: die Politik. OpenAI bringt sich bereits in Stellung. In einem Dokument für den AI Action Plan, den die Trump-Administration diesen Sommer noch beschließen will, argumentiert der Konzern für eine „Freiheit zum Lernen“. Das Training mit Copyright-Inhalten müsse legal bleiben, um Amerikas Vormachtstellung im KI-Sektor beizubehalten. Es gehe um Geopolitik, den Konflikt mit China und die nationale Sicherheit.
Dass die Copyright-Klagen scheitern, ist demnach also im nationalen Interesse der USA. Man sorgt für eine enorme Fallhöhe bei den Verfahren. Die eigentliche Kernbotschaft des Dokuments ist aber: Wenn man vor Gericht scheitert, soll Trump den Status Quo retten.
Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.
Apps & Mobile Entwicklung
Nvidia H20 und mehr: Gigantischer Rückstau in US-Behörde verhindert Exporte
Was passiert, wenn personelles und organisatorisches Chaos in Regierungsbehörden herrscht, zeigt derzeit das US-amerikanische Bureau of Industry and Security, das Exporte von Halbleitern und mehr eigentlich zeitnah absegnen wollte. Dort hat sich aber ein gigantischer Rückstau gebildet, der unter anderem Nvidias H20 betrifft.
Eigentlich hatte die US-Regierung Firmen wie Nvidia, AMD und anderen zeitnahe Exportlizenzen zugesichert, damit KI-Beschleuniger, Halbleiterprodukte und mehr wieder nach China und andere Länder verkauft werden können. Für diese Exporte ist aus Sicherheitsgründen eine manuelle Freigabe notwendig. Das ist jetzt aber schon wieder drei Wochen her und seit der Ankündigung soll keine einzige Anfrage bearbeitet worden sein. Nachdem zuletzt Sicherheitsbedenken geäußert worden waren, scheint das aktuelle Problem für ausstehende Exportlizenzen aber woanders zu finden zu sein: Behördenchaos. Das zumindest legt ein aktueller Bericht von Reuters nahe.
Es fehlt an allen Ecken an Personal
Dem Bericht zufolge hat sich beim für die Exportlizenzen zuständigen Bureau of Industry and Security (BIS) ein gigantischer Rückstau von Anfragen gebildet, der so groß sei wie seit 30 Jahren nicht mehr. In der Behörde herrsche Chaos, annähernd paralysiert sei das BIS, erklärten zwei anonyme Quellen gegenüber Reuters. Die von US-Handelsminister Howard Lutnick geleitete Behörde sei bislang daran gescheitert, die neuen Exportregeln umzusetzen, zudem sei die Kommunikation mit Industrievertretern zum Erliegen gekommen. Die Behörde habe Experten abgestoßen, Personal durch Abwerbungen und Kündigungen verloren und offene Stellen nicht neu besetzt. Erst jüngst habe die Behörde Dan Clutch, den Präsidenten des Office of Export Enforcement, mit einer Feier in den Ruhestand verabschiedet. Die US-Regierung unter Trump ist für ihre massiven Sparmaßnahmen durchgeführt von dem Department of Government Efficiency (DOGE) bekannt.
Bislang keine Exportlizenzen erteilt
Dieses Unvermögen habe dazu geführt, dass bislang noch keine einzige der in Aussicht gestellten Exportlizenzen erteilt worden sei. Der Export von KI-Beschleunigern im Wert von mehreren Milliarden US-Dollar stehe deshalb auf dem Spiel. Neben Nvidia und deren H20 hat die US-Regierung auch AMD wieder den Export des angepassten Instinct MI308 erlaubt. Als Reaktion auf die angekündigte Freigabe soll Nvidia sogar rund 300.000 neue H20 bei TSMC bestellt haben, um das Inventar aufzustocken.
Laut Meghan Harris, die während der ersten Trump-Administration im Nationalen Sicherheitsrat diente, ergibt sich aus den Verzögerungen und Unsicherheiten eine unnötige Benachteiligung der Vereinigten Staaten im internationalen Handel. „Licensing is how the U.S. does business and competes globally“, sagte sie.
Den letzten öffentlichen Zahlen zufolge benötigte das BIS im Fiskaljahr 2023 durchschnittlich 38 Tage für die Bearbeitung einer angefragten Exportlizenz. Von den insgesamt 37.943 gestellten Anfragen seien lediglich 2 Prozent abgelehnt worden.
Keine Anzeichen für Bearbeitung des Rückstaus
In der Industrie zeigt man sich frustriert über die Unfähigkeit der Behörde. In ganzen Sektoren, darunter auch Ausrüstung für die Halbleiterfertigung, gebe es derzeit keine Bewegung oder Anzeichen dafür, wann mit den Exportlizenzen zu rechnen sei, sagte Sean Stein, Präsident des Gremiums für US-China-Handelsbeziehungen. „Umso länger wir warten müssen, desto mehr Marktanteil werden wir verlieren“, sagte er mit Blick auf China und deren eigenes Bestreben bei Halbleitern. Jim Anzalone, Präsident von Compliance Assurance, habe Verzögerungen bei Lizenzen für Sensoren, Radar und Sonar nach Lateinamerika und andere Regionen beobachtet. Es gebe keine offiziellen Aussagen und Anzeichen dafür, wann der Rückstau abgearbeitet werden könne.
Apps & Mobile Entwicklung
2-nm-Chips von TSMC: Fertigung steigt bis 2026 auf 60.000 Wafer pro Monat
TSMC N2-Fertigung feiert vermutlich bereits in wenigen Tagen im September Premiere, doch das Hochfahren der Fabriken geht erst richtig los. Bis zum Ende des Jahres könnte die Kapazität rund 30.000 Wafer im Monat erreichen, im nächsten Jahr wird der Ausstoß dann verdoppelt.
Fab 22 im Süden ist eine Erfolgsgeschichte
TSMCs Fab 22 im Süden Taiwans in der Stadt Kaohsiung ist zuletzt in die Überholspur gewechselt. Phase 1 fertigt bereits 2-nm-Chips, die zweite Phase des Fabrik-Komplexes wird aktuell ausgerüstet und soll schnellstmöglich folgen. Anvisiert wird dabei ein Zeitraum von nur wenigen Monaten, aus der Kapazität von 10.000 Wafer im Monat sollen mit beiden Bauten in voller Produktion schnellstmöglich eine Kapazität von 30.000 N2-Wafer im Monat erreicht werden.
Fab 22 hat seit der Planung vor vier Jahren eine interessante Wendung mitgemacht. Ursprünglich war sie im Jahr 2021 als Unterstützung für ältere Prozesse rund um 7 nm und 28 nm geplant, dann folgte nach dem drastischen Einbruch der Aufträge für N7 & Co und fehlender Auslastung schon bestehender Fabriken TSMCs schneller Wechsel hin zu einer neuen Fertigungsstufe. Dass sich dabei der eigentliche Starttermin der Fabs kaum verzögerte ist umso beeindruckender, schließlich stehen N2-Chips in neuester GAA-Fertigung auf einem ganz anderen Niveau als Lösungen in 7 oder 28 nm. Nun ist Fab 22 ein Aushängeschild für die Anpassungsfähigkeit des Unternehmens und geht zusammen mit Fab 20, der Jahre zuvor geplanten ersten Fab für N2-Chips, parallel in Produktion.
Fab 20 übernimmt die Entwicklungsarbeit
Fab 20 in Hsinchu erfüllt aber noch andere Aufgaben. Auf der gegenüberliegenden Straßenseite ist unter anderem das neue Forschung- und Entwicklungszentrum von TSMC angesiedelt, ein Packaging-Komplex ebenfalls nicht weit entfernt. Fab 20 übernahm hier zuletzt die umfangreichen Tests vor dem Beginn der Serienproduktion, steigt nun aber voll mit ein. Auch Phase 2 des Werks ist bereits zur Produktion, bis Jahresende könnte hier bereits die Kapazität auf 30.000 und später sogar 35.000 Wafer pro Monat hochgefahren werden.
Phase 3 und 4 der Fab 20 kommen aufgrund der Nähe zu den Forschungseinrichtungen dann wieder solche Aufgaben zu: Hier wird die kommende A14-Fertigung vorbereitet und getestet, dann zur Serienreife optimiert. Ist das erst einmal gelungen, werden die beiden Werke auch den Start dieser Fertigung begleiten.
Auch die Fab 22 in Kaohsiung wird jedoch noch weiter ausgebaut. TSMC ist bekannt dafür, mindestens stets vier Phasen zu errichten. Mit jeder Phase wird die Produktivität der gesamten Anlage noch ein wenig weiter gesteigert, die größten Fabs von TSMC haben neun Phasen. Fab 22 soll nach bisherigen Plänen fünf Phasen erhalten. Phase 3 ist aktuell im Bau und soll den Zwischenschritt TSMC A16 produzieren. Dabei handelt es sich quasi um „N2P+“, jedoch erstmals mit rückseitiger Stromversorgung, das sogenannte Backside Power Delivery (BSPD). Was in Phase 4 und 5 produziert wird, ist aktuell noch nicht bekannt.

Apps & Mobile Entwicklung
500 US-Dollar pro Stapel: SK Hynix erhöht HBM4-Preis wohl um 70 Prozent
Laut Medienberichten aus Südkorea wird SK Hynix deutlich an der Preisschraube für HBM4 drehen. Von 70 Prozent Aufpreis ist die Rede, und das bei einer Basis, die in Form von HBM3E mit zwölf Lagen (12Hi) auch bereits nicht günstig ist. Kürzlich waren durch Samsung erstmals mögliche HBM3-Preissenkungen ins Spiel gebracht worden.
SK Hynix nutzt die Gunst der Stunde
Die ersten Chips nach Standard HBM4 mit ebenfalls zwölf Layern sollen um die 500 US-Dollar kosten. Damit würde der Preis für HBM3E 12Hi mit rund 300 US-Dollar deutlich übertroffen. Bisher war von Preissteigerungen von HBM3E zu HBM4 von um die 30 Prozent die Rede, auch dies waren aber primär Vermutungen und Annahmen.
SK Hynix hatte sich zuletzt mit HBM3(E) nahezu in eine Monopolstellung manövriert. Geht es nach Analysten, werden über 90 Prozent der Profi-Lösungen von Nvidia ausschließlich mit HBM3(E) von SK Hynix bestückt. Micron war erst extrem spät erneut auf den HBM-Zug aufgesprungen, bei Samsung scheiterte stets und ständig die Qualifikation für den Einsatz mit Nvidia-Chips. Beide Hersteller liefern nun aber Chips aus, unter anderem an AMD, an SK Hynix kommen beide aber nicht heran.
Folglich geht SK Hynix nun in die abschließenden Verhandlungen so selbstbewusst, dass diese hohe Preismarke augenscheinlich angesetzt wird. Zuletzt hieß es, Nvidia zögere die Verhandlungen hinaus, weil das Unternehmen hofft, dass Samsung und Micron bei HBM4 konkurrenzfähiger werden und so ein kleiner Preiskampf entstehen könnte. Sollte dies nun aber nicht aufgehen, muss Nvidia weiterhin primär von SK Hynix kaufen, zu dann entsprechenden Preisen. SK Hynix erklärte im Quartalsbericht der vergangenen Woche, dass trotz der steigenden Fertigungskosten, wie unter anderem der Nutzung eines Base-Dies aus TSMC-N4-Fertigung, die Marge bei HBM4 mindestens gleich bleiben soll.
Nvidia Rubin nutzt HBM4
Nvidia Rubin wird die erste Lösung, die im kommenden Jahr HBM4 nutzen soll. Das ist seit der GTC im Frühjahr offiziell bekannt. Acht HBM-Stapel werden dort je Package gebraucht, unterm Strich wären also bereits 4.000 US-Dollar nur für HBM4 nötig. Rubin Ultra ein Jahr später wird gar 16 HBM4E-Stacks benötigen, diese Chips dürften noch einmal teurer werden. Nvidia dürfte am Ende die Kosten letztlich aber auf den Endpreis umlegen, der damit nochmal einige (zehn-)tausend US-Dollar steigen wird.
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 1 Monat
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Apps & Mobile Entwicklungvor 1 Monat
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen
-
Social Mediavor 2 Monaten
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten