Connect with us

Apps & Mobile Entwicklung

ComputerBase in den Reinräumen von Intels Fab 52


Heute wird Intels nagelneue Fab 52 offiziell eröffnet. Sie fertigt Intel Panther Lake (Details) und Clearwater Forest in Intel 18A – also in Großserie! Bis dahin war es ein beschwerlicher Weg; der Campus in Chandler, Arizona, hat schon so einiges durchgemacht, aber auch noch viel vor. ComputerBase hat sie im Bunny Suit besucht.

Zu Besuch in der Intel Fab 52

Alles andere als normal

Halbleiterhersteller lassen sich ungern in die Karten sehen, schon gar nicht in die neuesten Anlagen sollen Personen gelangen, die dort nicht hingehören. Selbst bei Intel werden die meisten Angestellten, auch wenn sie zum Teil schon Jahrzehnte dort arbeiten, eine Fab nie von innen sehen.

Für ausgewählte Medienvertreter gab es jetzt allerdings die berühmte Ausnahme, denn Intel will zeigen: Intel 18A läuft in Großserie an – eine Notbremse wie auf den letzten Metern bei Intel 20A gibt es dieses Mal nicht.

Konkret lud Intel Medienvertreter und Analysten in der vergangenen Woche nach Arizona in die Fab 52, die heute offiziell die Serienproduktion der Intel-18A-Chips für Panther Lake und Clearwater Forest aufnimmt.

Intels Ocotillo Campus mit Fabs und mehr von außen
Intels Ocotillo Campus mit Fabs und mehr von außen

Einblicke auch im Podcast-Format

Neben dem nachfolgenden Bericht hat sich Volker diese Woche gemeinsam mit Jan im Podcast über seinen Besuch in der Intel Fab 52 unterhalten. Wie es sich angefühlt hat, in den Bunny Suit zu steigen oder vom Werksleiter mitten im Reinraum den Schuh neu gebunden zu bekommen, gibt es in CB-Funk #139 ab Minute 39:10 zu hören.

Die Intel Fab 52

Intels Historie am Standort

Baubeginn der Fab 52 war 2021. Mit der Eröffnung heute sind letztlich rund vier Jahre vergangen, was für eine State-of-the-Art-Fab ein ziemlich normales Zeitfenster darstellt. Die Fabrik steht in Chandler, Arizona, quasi einem Vorort südlich von Phoenix. Intel ist dort bereits seit 1980 vertreten. 1990 ging es dann richtig los: Fab 12 als hochmoderne Anlage wurde an der Ocotillo Site (OC), wie der Campus heißt, errichtet, Fab 22 folgte rasch und wurde bereits 1996 eröffnet. Anfang der 2000er gab es die nächste Erweiterung: Fab 32. Danach wurde es ruhiger.

Fab 42 war als Riesenprojekt ab 2011 geplant, dann jedoch aufgrund der schwachen wirtschaftlichen Lage nicht ausgerüstet worden. 2017 holte Intel den Bau wieder aus dem Winterschlaf und stellte ihn für 7 Milliarden US-Dollar fertig. Unter Pat Gelsinger und dem neuen Foundry-Ansatz kamen 2021 dann die Pläne für Fab 52 und 62 hinzu.

Heute baut Fab 42 Intel-7-Lösungen (10 nm), Fab 52 nebenan nun die neuen 18A-Chips. Und Fab 62 ist im Rohbau fertig, aber noch nicht ausgerüstet. Sollten alle Module, wie die Ausrüstungsphasen bei Intel heißen, hier aber einmal installiert werden, dann wäre Fab 62 noch größer als die Fab 52, erklärte Intel auf Nachfrage von ComputerBase. Doch dafür braucht es wohl echte Foundry-Kundschaft – also externe Kunden.

Ein Rundgang zum Auftakt

Der Auftakt der Tour war eine Runde um das Gelände. Das gibt einen guten Überblick, wie sich Intel hier entwickelt hat, aber auch, wie groß Halbleiterfabriken in den letzten Jahren geworden sind. Fab 12 ist nach heutigen Maßstäben winzig, Fab 22 kaum größer. Fab 32 legte die Messlatte höher dann, Fab 42 ist schon ziemlich groß. Fab 52 und Fab 62 sind jedoch noch einmal ein ganz anderes Kaliber. Für neue Maschinen mussten sie anders aufgebaut werden und sind daher auch höher.

Intels Ocotillo Campus mit Fabs und mehr von außen

Ein von Intel bereitgestelltes Drohnen-Video zeigt die verbundene Anlage aus Fab 42, Fab 52 und zukünftiger Fab 62.

100 Megawatt sind möglich

Auch die Stromversorgung des Komplexes, die südöstlich der Fab 62 liegt, wurde zuletzt auf 100 Megawatt aufgewertet – denn hochmoderne Lithographiesysteme benötigen jede Menge Energie. Und natürlich auch Wasser. Eine große Aufbereitungsanlage steht auf der anderen Seite des Komplexes.

Intel betont, dass man in Arizona nach den neuesten Bauten „water positive“ sei. Dies bedeute nicht, dass Intel wenig Wasser verbraucht, man jedoch der Community durch zusätzliche Projekte unter dem Strich aber mehr Wasser zurückgibt als entnimmt.

Die gesamten Investitionen von Intel in Arizona liegen bisher bei rund 50 Milliarden US-Dollar, erklärte das Unternehmen. Das Unternehmen ist vor allem auf den letzten Meilenstein so stolz, dass es diese letzte Errungenschaft auch teilen möchte. In Form kleiner Gruppen aus Personen in weißen Anzügen, den sogenannten „Bunny Suits“, ging es deshalb nach dem Rundgang in die heiligsten Hallen.

Fab-Tour von Intel in Arizona
Fab-Tour von Intel in Arizona

Im Bunny Suit durch Fab 42 und Fab 52

Für Besucher einer dieser hochmodernen Anlagen, sofern sie überhaupt zugelassen sind, gibt es diverse strikte Auflagen. Das oberste Ziel dabei ist, Verunreinigungen im Reinraum zu vermeiden.

Frisch geduscht ins Hasenkostüm

Frisch geduscht sollte man sein, aber das war es dann auch: Nichts in die Haare, nichts ins Gesicht, kein Duft oder Parfüm – Aerosole gilt es zu vermeiden. Dress Code: Geschlossene Schuhe und eine lockere Hose, dazu ein Shirt – mehr nicht. Denn über all das kommt der berühmte Bunny Suit – und darunter ist es warm.

Da der Laie mit dessen Anlegen total überfordert wäre beziehungsweise der Prozess viel zu lange dauern würde, bekam jeder Journalist vor Ort eine Anzieh-Hilfe. Der Autor war zwar bereits in den Fabs in Kyriat Gat, Israel, und den Produktionsstätten in Malaysia, aber mit Jahren Abstand halfen diese Erfahrungen in der Praxis in Arizona dann letztlich nicht mehr.

Im Aufenthaltsraum außerhalb der Reinräume konnten sich die Besucher aber schon einmal mit den Dingen vertraut machen.

Intels neues Eingangsgebäude für Fab 42, 52, und 62
Intels neues Eingangsgebäude für Fab 42, 52, und 62
Anprobe im Aufenthaltsraum ..
Anprobe im Aufenthaltsraum ..
.. auch für Selfies
.. auch für Selfies
Im Reinraum zur Verfügung gestellt: passende Blöcke für Notizen
Im Reinraum zur Verfügung gestellt: passende Blöcke für Notizen

20 Minuten durch einen Parcours

Denn der Zeitplan war eng gesteckt. Kleine Gruppen von je sechs bis acht Personen durften einen vorgegebenen und abgesteckten Parcours ablaufen und dabei die Fabrik im regulären Arbeitsprozess nicht behindern. Um Notizen zu ermöglichen, stellt Intel spezielle Notizblöcke zur Verfügung: Reinraum abgesegnet! Eigene Fotos oder Videos waren nicht erlaubt – aber das ist wenig überraschend. Denn eine bessere Fertigung in Serienproduktion gibt es aktuell nicht, sagt Intel – und hat damit durchaus recht: TSMCs neuer 2-nm-Prozess ist noch nicht in Serie, bis dahin dürfte Intel 18A die beste Lösung sein.

Die Gruppe machte sich nach dem Einkleiden durch einen kleineren Supportbereich auf in die Fab 42, die über einen Zugangstunnel direkt mit Fab 52 verbunden ist. Fab 42 fertigt Chips mit Intel 7 (10 nm). Hier sind unter anderem ASMLs DUV-Systeme sowie unzählige zusätzliche Tools und Gerätschaften zu sehen, deren Namen aber nicht genannt werden dürfen – das wollen sowohl die Partner als auch Intel nicht. Schon nach wenigen Minuten ist aber beinahe jeder Name der großen westlichen Fabrikausrüster zu sehen gewesen. ASMLs DUV-System ist das beste im Markt, wenn Chips ohne EUV gefertigt werden müssen. Genau das macht Fab 42.

Im Inneren der Fab 52 (Bild: Intel)

Das an der Decke verbaute Transportsystem, welches die Wafer umherfährt, ist komplett über alle fünf Fabs verbunden. Das ist nicht unwichtig, denn die allerbesten Fertigungsschritte werden nicht überall und bei jedem Produkt und in allen Layern benötigt, also können diese auch woanders hinfahren und dort fertiggestellt werden.

Der heilige Gral: der EUV-Belichter

Endlich in Fab 52 angekommen, geht der Weg direkt zum wichtigsten Gerät der Anlage: einem EUV-System von ASML. Dies ist der aktuell modernste und teuerste EUV-Belichter des niederländischen Fabrikausrüsters, hier fertigt er aktuell die Compute-Tiles von Panther Lake und bald auch Clearwater Forest. Beeindruckend ist dabei einmal mehr die schiere Größe dieses einzelnen Systems, der DUV-Belichter in der Fab zuvor fällt deutlich kleiner und kompakter aus. Wie üblich sieht man dabei auch nur den einen Teil, die ganzen zusätzlichen Gerätschaften beispielsweise darunter eben nicht.

ASMLs EUV-Systeme können wie die DUV-Belichter stets auf den letzten Stand aufgerüstet werden. Jeder Kunde ist also bestrebt, dies auch schnellstmöglich zu tun, da damit einher oft viele Verbesserungen ins Spiel gelangen und der Durchsatz erhöht sowie die Fehlerquote und die Downtime reduziert werden.

Das wichtigste System der Anlage: ein EUV-System von ASML
Das wichtigste System der Anlage: ein EUV-System von ASML (Bild: Intel)

Selbst wollte Intel nicht sagen, wie viele dieser Belichtungssysteme in Fab 52 verbaut sind. Die optimistischen Schätzungen gehen von einem Dutzend Systemen oder mehr aus, da vieles intern symmetrisch respektive dann auch gespiegelt aufgebaut ist.

Jedes dieser Systeme schafft die Belichtung von 200 bis 220 300-mm-Wafern die Stunde. Weil oftmals Schritte mehrfach vollzogen werden, ist die einfache Hochrechnung über x Systeme dann jedoch nicht so einfach, um in Richtung monatliche Kapazität hochzurechnen. Letzte Gerüchte, die aber nur von 1.000 bis 5.000 Wafern im Monat sprachen, klingen jedoch eher zu niedrig, wenn die Fab wie geplant arbeitet.

Nachdem die Medienvertreter ihr Programm abgeschlossen hatten, überzeugte sich Anfang Oktober auch Intels CEO Lip-Bu Tan im Bunny Suit von den Arbeiten in der Fab und positioniert sich vor dem EUV-System als dann auch vor der Anlage mit einem Intel-18A-Wafer.

Intel-CEO Lip-Bu Tan macht die gleiche Fab-52-Tour (Bild: Intel)

Kein (interessantes) Packaging vor Ort

Was Fab 52 nicht macht, ist das Packaging, also das Verbinden unterschiedlicher Chips auf einem Träger. Natürlich werden vor Ort einige erste Tests gemacht, doch das komplette Die-Sort, Prep und Co geschieht dann in New Mexico.

Unterm Strich ist ein Packaging-Werk das viel interessantere für einen Besuch, denn während in der Fab 52 primär „nur graue Kästen“ angesehen werden konnten, konnte vor zwei Jahren in Malaysia der ganze Rest betrachtet werden – und das auch nicht nur in 20 Minuten, sondern über Stunden in mehreren Komplexen. Mehr Details zu diesen Schritten, die auch bei Panther Lake noch Bestand haben, gibt es im Bericht aus Malaysia:

  • Vor-Ort-Besuch: Einblicke in Intels Test- und Packaging-Prozess in Malaysia

Intel 18A im Überblick

Mit RibbonFET und PowerVia

Eine bahnbrechende Neuerung bei Intel 18A ist zum Beispiel RibbonFET, wie Intel die Next-Gen-Fertigung rund um Gate all around (GAA) nennt. Das ist bei jedem Halbleiterhersteller aktuell das große Ding, das die nächste Dekade über Transistoren definieren wird. Oft auch Nanosheets genannt, sind diese extrem dünnen Fäden – 10.000 Sheets wären noch dünner als ein Blatt Papier – komplett umschlossen und ermöglichen so den perfekten Transistor. Daran wurde Jahrzehnte lang geforscht, nun gehen Samsung, Intel und TSMC hier nahezu im Gleichschritt in die Massenproduktion über.

Intel ribbonFET alias Gate All Around (GAA)
Intel ribbonFET alias Gate All Around (GAA) (Bild: Intel)

Backside Power Delivery (BSPD) heißt bei Intel PowerVia. Intels eigene Umsetzung der Technologie soll sich dabei etwas vom Original unterscheiden, nicht nur der Name sei ein anderer. Die grundlegende Technik der rückseitigen Stromversorgung von Transistoren ist wiederum keine exklusive Entwicklung, sie steht bei jeder Firma auf der Roadmap. Intel ist hier jedoch am weitesten fortgeschritten, geht nun als erster in Serienproduktion.

Intel PowerVia alias Backside Power Delivery (BSPN)
Intel PowerVia alias Backside Power Delivery (BSPN) (Bild: Intel)

Bisher machen sich Strom- und Signalleitungen auf der Vorderseite eines Chips gegenseitig den Platz streitig, behindern sich mitunter sogar. Die Trennung von beiden bietet mehrere Vorteile sowohl in Richtung Skalierung als auch Effizienz: Signalleitungen haben mehr Platz, während sich auf der Rückseite die Stromzufuhr austoben kann. Ein Nachteil ist jedoch das Handling der Wafer, die in der Produktion gedreht werden müssen.

Fertigungsschritte: FinFET patterning + PowerVia integration with S/D contacts. (b) BE interconnects optimized for signal routing. (c) Carrier bond -> wafer thinning -> PowerVia reveal. (d) BE interconnects optimized for power delivery.
Fertigungsschritte: FinFET patterning + PowerVia integration with S/D contacts. (b) BE interconnects optimized for signal routing. (c) Carrier bond -> wafer thinning -> PowerVia reveal. (d) BE interconnects optimized for power delivery. (Bild: Intel)

Da Intel beide neuen Technologien auf Intel 18A optimiert hat, verspricht das Unternehmen diverse Vorteile gleich zu Beginn. Denn das Herauslösen der Stromleitungen vereinfacht am Ende den Produktionsprozess sogar so weit, dass deutlich weniger Masken und Schritte nötig sind, wenn es mit einem klassischen Prozess verglichen würde.

Die Vorzüge der Kombination und Optimierung
Die Vorzüge der Kombination und Optimierung (Bild: Intel)

Am Ende soll Intel 18A mit den beiden neuen Technologien Vorteile sowohl bei der Leistung, dem Stromverbrauch und natürlich dem Flächenbedarf bieten.

Höherer Yield als in der Vergangenheit

Intel gibt an, dass die Ausbeute von Intel 18A zum Start besser oder auf vergleichbarem Niveau liegt mit dem, was in den letzten 15 Jahren bei Intel neu gefertigt wurde.

Vorteile von Intel 18A
Vorteile von Intel 18A (Bild: Intel)
Vorteile von Intel 18A
Vorteile von Intel 18A (Bild: Intel)
Yield-Entwicklung auf dem Niveau der letzten Intel-Fertigungen
Yield-Entwicklung auf dem Niveau der letzten Intel-Fertigungen (Bild: Intel)
Intel Technology and Manufacturing Day und Moores Law im Jahr 2017
Intel Technology and Manufacturing Day und Moores Law im Jahr 2017

Was das absolut bedeutet, ist allerdings nicht klar, denn wie in den letzten Jahren bekannt wurde, lief eigentlich keiner der Prozesse zum Auftakt wirklich rund: 10 nm war ein vollkommener Fehlschlag, 14 nm mit Broadwell war zum Start ein Desaster und selbst 22 nm mit der Einführung von FinFETs im Jahr 2012 mit Ivy Bridge startete nicht rund. Im Jahr 2017 hatte das Intel im Rahmen einer Präsentation selbst einmal so bestätigt. Am Ende sind aber auch nicht die ersten Wochen entscheidend, sondern wie schnell der Prozess reift. Das wird sich die kommenden Monate zeigen.

Für weitere Details hat Intel zum Start der Fertigung auch noch einmal viele Informationen in einem Video zusammengestellt.

Intel 18A ist nur für Intel

Am Ende ist und bleibt Intel 18A aber ein Prozess erst einmal ausschließlich für Intel. Denn für Intel wurde dieser entwickelt und optimiert, nicht für externe Kundschaft. Deshalb konnte Intel Foundry bisher auch keinen Großkunden gewinnen – ihnen stehen schlichtweg nicht die Tools zur Verfügung, um eigene Chips auf Intel 18A auszulegen.

Für die nächste große Stufe, Intel 14A, wird das andersherum angegangen. Hier soll ein universeller Prozess entstehen, Kunden können diesen dann mit Intel Foundry zusammen optimieren.

Ob das funktioniert, werden die kommenden Jahre zeigen. Platz für zusätzliche EUV-Belichter hat Intel jedenfalls, und das nicht nur in Arizona. Schließlich baut Intel – aktuell zwar nur langsam – einen großen Komplex in Ohio. Ob und wann dieser fertig, oder am Ende komplett kassiert wird, hängt am Erfolg von Intel 14A bei externen Kunden ab, aber auch dem Grundstein, der nun mit Intel 18A gelegt wird.

ComputerBase hat Informationen zu diesem Artikel von Intel im Vorfeld und im Rahmen einer Veranstaltung des Herstellers in Chandler, Arizona, unter NDA erhalten. Die Kosten für Anreise, Abreise und vier Hotelübernachtungen wurden von dem Unternehmen getragen. Eine Einflussnahme des Herstellers auf die oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe war der frühestmögliche Veröffentlichungszeitpunkt.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.



Source link

Apps & Mobile Entwicklung

Support-Ende: Bose SoundTouch-Lautsprecher verlieren einige Funktionen


Support-Ende: Bose SoundTouch-Lautsprecher verlieren einige Funktionen

Bild: Bose

Bose stellt zum 18. Februar 2026 den Support der von 2013 bis 2020 angebotenen SoundTouch-Lautsprecher ein. Damit einher geht der Verlust einiger Funktionen, etwa der Zugriff auf integrierte Musikdienste wie Spotify und TuneIn sowie die Multiroom-Wiedergabe. Musik lässt sich dann noch via Bluetooth, AUX oder HDMI wiedergeben.

Das Unternehmen begründet das Support-Ende damit, dass sich die Technologie seit der Markteinführung 2013 weiterentwickelt habe und Bose die Entwicklung und den Support der Cloud-Infrastruktur, die diese ältere Produktgeneration unterstützt, nicht mehr aufrechterhalten könne. Ohne die Cloud-Infrastruktur können bisherige Funktionen wie der Zugriff auf integrierte Musikdienste wie Spotify und TuneIn sowie die Multiroom-Wiedergabe künftig nicht mehr von Bose angeboten werden.

App wird ebenfalls eingestellt

Auch die SoundTouch-App wird nach dem 18. Februar 2026 nicht mehr funktionieren. In Japan kann diese noch bis zum 31. Dezember 2025 heruntergeladen werden. In allen anderen Märkten ist die SoundTouch-App bis zum 18. Februar 2026 verfügbar. Bose plant den FAQ zufolge auch keine Ersatz-App oder Plattform: „Nein, wir werden SoundTouch-Produkte nicht über eine andere App unterstützen.“ SoundTouch-Produkte werden zum Stichtag auch keine Sicherheitsupdates mehr erhalten.

Bluetooth, AUX und HDMI bleiben erhalten

Grundsätzlich funktionstüchtig bleiben die SoundTouch-Lautsprecher jedoch. Dafür muss künftig dann aber auf externe Zuspieler gesetzt werden. Funktionen wie Bluetooth und AUX bei eigenständigen SoundTouch-Lautsprechern (z. B. SoundTouch 10, 20 Series III und 30 Series III) sollen Bose zufolge in Verbindung mit einer lokalen Quelle weiterhin nutzbar sein. Bei SoundTouch-fähigen Heimkino-Produkten wie Lifestyle 650, SoundTouch 130 und SoundTouch 300 Soundbar bleiben HDMI- und optische Eingänge sowie Bluetooth funktionsfähig. Funktionen wie SoundTouch-Streaming und die Steuerung über die App stehen allerdings nicht mehr zur Verfügung.

Potenziell von den Anwendern gespeicherte Presets „könnten weiterhin funktionieren“, heißt es von Bose, eine Garantie für alle Presets gebe es jedoch nicht. Sobald die App nicht mehr nutzbar ist, können vorhandene Presets nicht mehr geändert werden.

Bose will Nutzungs- und Telemetriedaten löschen

Alle Nutzungs- und Telemetriedaten der SoundTouch-Produkte will Bose bis zum 25. Februar 2026 löschen. Besitzt man weitere Bose-Produkte, bleibt das Mein-Bose-Konto aktiv und kann weiterhin auf der Website des Herstellers sowie in anderen Bose-Apps genutzt werden. Wer seine SoundTouch-Daten herunterladen oder löschen respektive das Mein-Bose-Konto vollständig entfernen lassen möchte, kann dies online über ein Datenschutz-Anfrageformular in die Wege leiten.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Zwischen digitalem Goldrausch und Angst


Sitzt Ihr bequem im Kinosessel? Popcorn bereit? Gleich geht das Licht aus und der Film beginnt. Euch erwartet – Spoileralarm! – ein bunter Mix aus Science-Fiction, Action und Drama – hoffentlich gefolgt von einem Happy-End. Film ab!


Im Zentrum dieses Umbruchs steht eine Figur, die nicht einmal wirklich existiert – zumindest nicht im klassischen Sinn: Tilly Norwood, eine zu 100 Prozent KI-generierte Schauspielerin. Ihre Schöpferin, Eline Van der Velden, verkauft sie als „die nächste Scarlett Johansson oder Natalie Portman“ und behauptet frech: Das Publikum interessiere sich am Ende nur für die Geschichte – nicht für den Herzschlag des Stars.

Doch die Wut, die Tilly in Hollywood ausgelöste, ist echt. Die Schauspielergewerkschaft SAG-AFTRA verurteilte die KI-Figur scharf: „Sie ist keine Schauspielerin.“ Für die Gewerkschaft ist Tilly ein digitaler Charakter, erschaffen aus den Stimmen, Gesichtern und Bewegungen unzähliger echter Schauspieler:innen – ohne deren Zustimmung, ohne Bezahlung.

Die große Frage, die sich für mich daraus ergibt, lautet: Wie weit darf die Traumfabrik das Spiel mit der Effizienz treiben, ohne dabei ihren menschlichen Kern und ihren Zauber zu verlieren?

Der digitale Goldrausch: Niemand braucht mehr fette Budgets

Für Tech-Nerds, Start-ups und Indie-Filmemacher fühlt sich die KI-Revolution wie ein Befreiungsschlag an. Jahrzehntelang war Hollywood ein geschlossener Club, dominiert von Studios, fetten Millionen-Budgets und Gatekeepern. Nun reicht theoretisch schon ein Laptop, ein KI-Tool und eine Idee – und man kann Inhalte in einer Qualität produzieren, die früher Millionen verschlungen hätte.

Das Ende der Budget-Diktatur

Zahlen zeigen, wie dramatisch die Entwicklung ist: Morgan Stanley schätzt, dass generative KI die Produktionskosten der Medienbranche um rund zehn Prozent, bei TV- und Filmprojekten sogar um bis zu 30 Prozent senken könnte. Ein Werbespot, der einst locker’ne Million Dollar und drei Monate Produktionszeit kostete, lässt sich heute mit KI für 2.000 US-Dollar und drei Tage Arbeit realisieren.

Für kleine Studios oder Werbefirmen bedeutet das: Sie können Projekte stemmen, die früher undenkbar gewesen wären. Blockbuster-Ästhetik ohne Blockbuster-Budget. Genau das meint Eline Van der Velden, wenn sie sagt: „Kreativität darf nicht länger vom Budget abhängen.“ Ach, und wenn wir schon über Geld reden. Hollywood-Stars verdienen sich pro Film eine goldene Nase.

Es sind zwar wirklich nur wenige Superstars, aber dennoch: Ein Robert Downey Jr. hat für seine Avengers-Filme zuletzt 75 Millionen Dollar pro Film kassiert. Als Filmemacher würde ich mir überlegen, ob ich künftig nicht auf Robert verzichte und einen KI-Helden caste, wenn es das Budget um 75 Milliönchen drücken könnte.

Ein Mädchen in einem blauen Kleid geht einen gelben Ziegelsteinweg mit Blumen und einem Haus in einer fantastischen Landschaft entlang.
So, wie Dorothy im Klassiker „Der Zauberer von Oz“ aus dem Schwarz-Weiß in die Technicolor-Welt tritt, betreten wir mit KI nun ein neues Filmzeitalter. / © nextpit, KI-generiert

Virtuelle Sets statt teurer Drehorte

Parallel dazu revolutioniert Virtual Production (VP) die Arbeit am Set. Riesige LED-Volumes – wie die 5.000 Quadratmeter große Anlage von Versatile – ersetzen aufwändige Drehorte und Green Screens. In Echtzeit werden digitale Welten projiziert, die sofort in der Kamera sichtbar sind.

Das bedeutet: Regisseur:innen können Lichtstimmungen ändern, Hintergründe austauschen oder Kamerawinkel variieren, ohne das Set verlassen zu müssen. KI generiert dabei ganze Landschaften und sogar Statistenmassen. Szenen, die früher Dutzende Komparsen gebraucht hätten, entstehen nun mit ein paar Klicks. Serien, Werbung, Musikvideos – alle profitieren von der Möglichkeit, virtuelle Umgebungen immer wieder neu einzusetzen.

Ihr müsst Euch ja nur Tools wie Sora 2 ansehen und bekommt eine Idee davon, was künftig jeder von uns allein schon auf dem Handy realisieren kann. Schaut hier einfach mal in die ersten zwei, drei Minuten der Präsentation von OpenAI rein (oder – fast noch besser – dieses „Blooper“-Video dazu:

Lokalisierung in Lichtgeschwindigkeit

Ein weiterer heißer Bereich ist das Voice Cloning. Firmen wie Respeecher oder CAMB.AI klonen Stimmen so detailgetreu, dass Intonation, Emotion und Akzente erhalten bleiben. Filme, die bisher monatelang für Synchronisation in andere Sprachen gebraucht hätten, lassen sich nun in 48 Stunden in über 100 Sprachen lokalisieren.

Praxisbeispiele? Im Film The Brutalist half KI dabei, Adrien Brodys ungarischen Akzent zu verfeinern. In Emilia Pérez wurde die Stimme der Hauptdarstellerin erweitert, um sie emotional flexibler wirken zu lassen. Erwähnte ich, dass beide Filme Oscar-prämiert wurden? Das Schimpfen über KI in Hollywood ist laut – aber die Technologie ist längst angekommen und auch zumindest in diesem Bereich akzeptiert.

KI dient nicht nur als Kostensenker, sondern auch als kreativer Assistent – ein Werkzeug, das menschliche Leistung ergänzt, wo deren Grenzen erreicht sind. Es steht zu befürchten, dass dadurch der Job der Synchronsprecher:innen aussterben könnte.  Aber wenn ein Film dafür weltweit in allen Sprachen dieselbe Stimme der Hauptdarsteller:innen hat, qualitativ ans Original heranreicht, deutlich günstiger und schneller ist als die klassische Alternative? Doch, dann kann ich nachvollziehen, dass sich Studios für den KI-Weg entscheiden, auch wenn ich das mit etwas Wehmut sage. 

Im Video seht Ihr ein schönes Beispiel dafür, was längst mit künstlicher Intelligenz möglich ist: 

Die Angst vor der Schauspielkunst aus dem Rechner

Doch je größer der technische Fortschritt, desto lauter werden die Ängste. Die US-Kreativwirtschaft beschäftigt rund 2,3 Millionen Menschen. Drehbuchautor:innen, Schauspieler:innen, Cutter:innen, Synchronsprecher:innen – sie alle fragen sich: Wird KI meine Arbeit ersetzen?

Der Aufstand gegen die KI-Schauspielerin

Der Fall Tilly Norwood steht dabei sinnbildlich. Van der Velden nennt sie „ein Kunstwerk“. Doch viele sehen in ihr einen Angriff auf die Essenz der Schauspielkunst. Die SAG-AFTRA betont: Tilly hat keine Lebenserfahrung, keine Emotionen, sondern nur „gestohlene“ Performances. Schauspielerin Mara Wilson (bekannt aus Matilda) brachte es auf den Punkt, als sie sagte: „Und was ist mit den Hunderten junger Frauen, deren Gesichter zu Tillys Gesicht zusammengefügt wurden? Konnte man keine von ihnen engagieren?“

Andere rufen längst unverhohlen dazu auf, Agenturen zu boykottieren, die KI-Stars wie Tilly vertreten wollen. Das Schreckensszenario, das wie ein riesiges Damoklesschwert über Hollywood baumelt: Studios ersetzen Statisten durch digitale Doubles und – schlimmer noch – erschaffen Superstars, die nie altern, nie krank werden, keine Starallüren haben und nie einen Vertrag nachverhandeln.

Die Streiks von 2023 haben zumindest erste Leitplanken gesetzt: Schauspieler:innen müssen explizit zustimmen, wenn digitale Kopien ihres Gesichts oder Körpers erstellt werden. Doch wie lange reicht dieser Schutz? Wird er verhindern können, dass wir schon bald unzählige Legenden wie Marilyn Monroe, Humnphrey Bogart, Charlie Chaplin und James Dean auf der Kinoleinwand wiederbegrüßen können? Oder dass jeder reale Actor im Film ständig durchtrainiert und mit jugenldichem Aussehen dargestellt wird, wie auch immer er in echt aussieht?

Urheberrecht und Trainingsdaten

Der eigentliche Konflikt spielt sich dabei übrigens unsichtbar ab – in den Trainingsdaten der Modelle. Autoren, Journalisten, Schauspieler und Musiker verklagen derzeit Konzerne wie OpenAI und Google, weil deren KI-Systeme mit urheberrechtlich geschütztem Material trainiert wurden – ohne Erlaubnis, ohne Entlohnung.

Die Tech-Firmen hingegen argumentieren: Wenn sie diese Daten nicht nutzen dürften, verlöre man den Anschluss im globalen KI-Wettlauf, vor allem gegenüber China. Ein zynisches, aber realistisches Kalkül. Deswegen haben es Initiativen wie Red Lines auch so schwer: Niemand will bei der Entwicklung vom Gas gehen, weil sonst der falsche das Game gewinnen könnte.

Über 400 Hollywood-Stars – darunter Cate Blanchett, Ben Stiller und Sir Paul McCartney – fordern, dass KI-Entwicklung nicht auf Kosten der Kreativen geht. Denn auch wenn eine KI täuschend echt wirkt: Sie versteht nicht, sie empfindet nicht. Sie imitiert. Ein KI-Song baut nie auf die wirkliche Erfahrung einer verschmähten Liebe. Programmierte Filmtränen können perfekt wirken, aber ihnen liegt kein jemals erlebter Schmerz zugrunde.

Globale Ethik und Regulierung

Bei der Regulierung seht Ihr aktuell sehr schön, wie unterschiedlich die Welt auf diese Fragen reagiert:

Die EU zum Beispiel stuft generative KI als „Hochrisikotechnologie“ ein und fordert Transparenzpflichten. China will ab 2025 vorschreiben, dass alle KI-generierten Inhalte – inklusive geklonter Stimmen – gekennzeichnet werden müssen. Frankreich geht einen Sonderweg: Das CNC (die dortige Regulierungsbehörde) unterstützt nur Produktionen, die sich verpflichten, menschliche Stimmen einzusetzen, um die kulturelle Authentizität zu wahren.

… und die USA unter Donald Trump schließlich … okay, reden wir nicht darüber! Natürlich gibt es für einen Donald Trump weder offensichtliche Gefahren noch Grenzen. Hoffen wir, dass sich die Branche da auch weiterhin wehren kann – auch gegen 100-Prozent-Zölle auf ausländische Filme!

Es ist klar: Selbst wenn die Technik unvermeidlich wirkt, muss es menschliche Kontrolle geben. Ohne Regeln droht der Missbrauch – von Deepfakes bis hin zur Ausbeutung der Arbeitskraft ganzer Branchen.


– Intermission –

Puh, langer Text! Deswegen geht jetzt kurz das Saallicht an und wir machen kurz Pause. Schnappt Euch ein Eis oder ’nen Drink, füllt das Popcorn auf und vertretet Euch kurz die Beine. Gönnt dem Gehirn diese kleine Auszeit. 

Alle wieder da? Alles klar, Licht aus, weiter geht’s!


Jenseits der Leinwand – Personalisierung, Interaktion und die Zukunft des Konsums

Lasst uns jetzt mal über einen ganz anderen Aspekt reden: KI verändert nicht nur, wie Filme produziert werden. Sie verändert auch, wie wir sie konsumieren. Die Zuschauer:innen von morgen sind keine passiven Konsumenten mehr – sie werden zu Mitgestaltenden.

Netflix, Spotify und Co. kennen uns längst besser, als uns lieb ist. Sie wissen, wann wir pausieren, welche Szenen wir mehrfach anschauen, bei welchem Tonfall wir abschalten. Und natürlich weiß Netflix, welche Storys gut funktionieren, welche Genres uns besonders ansprechen und aus welchen Elementen sich unsere Favoriten-Serien oder -Filme zusammensetzen.

Personalisierung auf Steroiden

Die nächste Stufe, auf die wir uns einstellen müssen: Inhalte, die sich in Echtzeit anpassen. Netflix testet bereits dynamische Thumbnails, die je nach Nutzerprofil unterschiedlich ausfallen. Start-ups wie Fable arbeiten an Plattformen wie Showrunner, mit der Ihr per Texteingabe ganze Episoden bestehender Serien generieren könnt.

Eure Lieblingscharaktere sterben zu früh? Kein Problem, die KI schreibt sie einfach weiter. Wenn der Fable-CEO Edward Saatchi davon spricht, das „Netflix der KI“ werden zu wollen, wisst Ihr, wohin die Reise geht! Das Ergebnis? Es könnte eine endlose, personalisierte Storyschleife sein – maßgeschneidert auf jede nur irgendwie denkbare Vorliebe.

Auch das Erzählen selbst wandelt sich: In VR-Filmen könnt Ihr nicht nur zuschauen, sondern handeln, navigieren, Entscheidungen treffen. Jede Sichtung wird einzigartig. Globale Premieren könnten vielleicht schon bald als virtuelle Events stattfinden: Ihr sitzt als Avatar im selben „Kino“ wie Regisseur:innen und Stars, diskutiert live, vielleicht gestaltet Ihr sogar einzelne Aspekte der Geschichte mit.

KI wird so zum Co-Piloten des Storytelling, während Regisseur:innen und Autor:innen die kreative Richtung vorgeben. Das macht mir aber auch Hoffnung, dass neue Talente sich hier mit ganz frischen Ansätzen beweisen werden. 

Wir haben die Bühne selbst gebaut – und darum hat KI so leichtes Spiel

Es wäre zu einfach, die Verantwortung allein auf Silicon Valley oder experimentierfreudige Studios zu schieben. Der Nährboden für KI in Hollywood wurde längst durch uns alle bereitet – durch das, was wir konsumieren, einfordern und mitproduzieren. Ich empfinde es so ähnlich wie in der Musikindustrie. 

Da sind zunächst mal die fetten Blockbuster. Die großen Studios setzen seit Jahren auf ein kalkuliertes Rezept: bekannte Marken, wiederkehrende Held:innen, Fortsetzungen und Reboots. Das Überraschungsmoment ist rar geworden, während Franchises von Fast & Furious bis Marvel eher Content-Maschinen als Kunstwerke sind. Eine KI muss das nur noch imitieren – die Vorlagen sind längst standardisiert.

Dann gibt’s CGI bis zum Anschlag: Kulissen, Massen, Raumschiffe – das Digitale hat doch längst das Analoge verdrängt. KI setzt diesen Trend lediglich fort. Oder lasst uns über Storytelling reden: Ob Drei-Akt-Struktur, Heldenreise oder das obligatorische Happy-End – Hollywood hat sich selbst in Strukturen eingesperrt, die sich bestens für maschinelles Lernen eignen. Algorithmen lieben Muster, und wir liefern sie am laufenden Band.

Aber hey, auch wir haben das System geprägt. Wir fordern Spektakel, schnelle Schnitte, klare Archetypen. Serien werden nach ersten Quoten gekappt, Songs nach 20 Sekunden geskippt. Wenn Aufmerksamkeit das knappste Gut ist, dann ist es kein Wunder, dass Content auf Tempo, Wiedererkennbarkeit und einfache Befriedigung getrimmt wird.

Das Paradoxe: Genau diese Mechanismen, die uns heute langweilen oder ermüden, sind die perfekte Steilvorlage für KI. Sie braucht kein Genie, um das Mittelmaß zu reproduzieren. Die wirkliche Herausforderung – und das, was KI (noch) nicht kann – ist das Risiko, die Eigenart, das Unvorhersehbare.

Fazit: Die Zukunft ist hybrid – und menschlich

Das bringt mich jetzt endlich zu meinem Fazit: Also ja – der KI-Zug ist längst abgefahren. Studios, die jetzt noch zögern, warten auf einen Bus, der nie kommt. Die Frage ist nicht, ob KI Hollywood verändert – sondern wie.

Auf der einen Seite lockt eine nie dagewesene Demokratisierung: Jeder kann Filme machen, Kosten sinken, Kreativität sprüht. Auf der anderen Seite stehen die ganz realen Ängste vor Jobverlust, Dehumanisierung und dem Ausverkauf von Urheberrechten.

Die Antwort kann jedoch nicht sein, KI zu verteufeln – sondern sie klug zu integrieren. Als Werkzeug, nicht als Ersatz. Notwendig sind klare Standards: Wir brauchen einerseits Transparenz und Kennzeichnung. Jeder, der zuschaut, muss wissen, wann KI im Spiel ist. Andererseits benötigen wir Consent und faire Bezahlung. Kreative müssen zustimmen und entlohnt werden, wenn ihre Arbeit als Grundlage dient.

Wir stehen am Beginn einer neuen Ära, am ehesten vielleicht noch vergleichbar mit der Einführung des Tonfilms in den 1920ern. KI wird zum Sidekick des Regisseurs, der Ideen Wirklichkeit werden lässt. Aber das Herz, der Puls, die Seele der Geschichten – sie bleiben menschlich. Denn Algorithmen können zwar Daten neu arrangieren. Aber sie können nicht fühlen, nicht hoffen, nicht träumen. Und wo sollte Träumen Voraussetzung sein, wenn nicht in der Traumfabrik Hollywood?

Was ich persönlich glaube, was passieren wird? Wir werden zweierlei erleben: KIs, die wie aus der Stalinorgel geballert maßgeschneiderte Blockbuster abliefern. Damit wir die richtige Untermalung haben, während wir uns im Kinosessel die Bäuche mit Popcorn und Nachos mit Käse vollschlagen. 

Und es wird diejenigen geben, die die Kunst in den Vordergrund stellen. Die ungewöhnliche Story. Die kruden Charaktere. Den besonderen Moment. Das echte Gefühl. Und beides wird sein Publikum finden, davon bin ich überzeugt! 

Happy-End, jetzt Abblende und Abspann. Bleibt noch einen Moment sitzen, damit Ihr die Post-Credit-Scenes nicht verpasst. Tretet nicht ins Popcorn und kommt gut heim! Der nächste Kinoabend kommt bestimmt! 



Source link

Weiterlesen

Apps & Mobile Entwicklung

Sacred 2 Remaster: Aufpolierte deutsche ARPG-Kultur erscheint im November


Der Remaster des Action-Rollenspiels Sacred 2 erscheint am 11. November. Das hat der Publisher THQ Nordic jetzt öffentlich bekanntgegeben. Der Titel erscheint am selben Tag sowohl für den PC als auch für die Spielkonsolen PlayStation 5 und Xbox Series X|S.

Sacred 2 Remaster steht für eine technische Runderneuerung des Originals aus dem Jahr 2008. Nicht nur die Grafik wird aufpoliert, sondern auch die Benutzeroberfläche moderner gestaltet. Ferner sollen Kämpfe nun flüssiger verlaufen und eine „vollständige Controller-Unterstützung“ gebe es obendrein. Für den Remaster hat THQ Nordic ein neues Studio angeheuert: SparklingBit besteht aus Veteranen der Sacred-Serie, die jetzt wieder Rollenspiele entwickeln wollen.

Sacred 2 Remaster (Bild: THQ Nordic)

Der Remaster soll jedes Update und jede Erweiterung des Originals umfassen und kostet rund 20 Euro auf dem PC sowie rund 30 Euro als Konsolenfassung. Der Vertrieb erfolgt rein digital, eine Version mit physischem Datenträger wird es also nicht geben.

Zur Handlung von Sacred 2

Als einer von sechs Helden retten Spieler in Sacred 2 die Welt von Ancaria. Genretypisch besiegen Spieler dazu Monster und andere miese Kreaturen, um ihren Charakter mithilfe neuer Ausrüstung und Fähigkeiten zu verbessern. Angesiedelt ist das Geschehen in einem ewigen Kampf zwischen „Licht“ und „Dunkelheit“, in dem eine neue Energiequelle Chaos stiftet.

Aufgrund ähnlicher Ansätze wurde Sacred 2 seinerzeit auch als das „deutsche Diablo“ bezeichnet.



Source link

Weiterlesen

Beliebt