Künstliche Intelligenz
Googles Veo 3 erstellt geniale Videos – aber die Untertitel sind völlig verrückt
Nachdem Google Ende Mai sein neuestes KI-Modell zur Videogenerierung vorgestellt hatte, stürzten sich Kreative darauf, um es auf Herz und Nieren zu testen. Nur wenige Monate nach der Verfügbarmachung seines Vorgängers ermöglicht Veo 3 Nutzern erstmals die Generierung von Klängen und Dialogen, was zu einer Flut hyperrealistischer maximal achtsekündiger Clips führte, die dann zu Werbespots, ASMR-Videos, imaginären Filmtrailern oder humorvollen Fake-Straßeninterviews zusammengeschnitten wurden. Der Oscar-nominierte Regisseur Darren Aronofsky nutzte das Tool gar, um einen Kurzfilm mit dem Titel „Ancestra“ zu erstellen. Während einer Google-Pressekonferenz verglich Demis Hassabis, CEO der Google-KI-Tochter DeepMind, diesen Sprung nach vorne mit dem „Ende der Stummfilmära in der Videogenierung“.
Einige Nutzer stellten jedoch schnell fest, dass das Tool keineswegs perfekt war und in mancher Hinsicht nicht wie erwartet arbeitete. Denn: Wenn Veo 3 Clips mit Dialogen generiert, fügt es oft unsinnige, verstümmelte Untertitel hinzu, selbst wenn in den Eingabeaufforderungen ausdrücklich angegeben wurde, das zu unterlassen. Die Nonsens-Untertitel zu entfernen, ist aber nicht einfach – und auch nicht billig. Nutzer sind nämlich gezwungen, Clips neu generieren zu lassen (was sie mehr Geld kostet) – in der Hoffnung, dass es nicht wieder passiert. Alternativ müssen sie externe Tools zum Entfernen von Untertiteln verwenden oder ihre Videos störend zuschneiden, um die Untertitel vollständig zu entfernen.
Google seit mehr als einem Monat informiert
Josh Woodward, Vizepräsident von Google Labs und Gemini, veröffentlichte schon am 9. Juni auf X den Hinweis, dass Google Korrekturmaßnahmen ergriffen habe, um die Ausgabe der unsinnigen Untertitel zu reduzieren. Aber auch über einen Monat später melden Nutzer immer noch Probleme damit im offiziellen Discord-Kanal von Google Labs, ohne dass sie Hilfe bekommen. Das zeigt, wie offenkundig schwierig es sein kann, Fehler in großen KI-Modellen, Bild- und Videogenratoren zu beheben.
Wie seine Vorgänger ist Veo 3 für zahlende Mitglieder größerer Google-Abonnementstufen verfügbar, die nicht billig sind: Es geht bei 249,99 US-Dollar pro Monat erst los. Um einen achtsekündigen Clip zu erstellen, geben Nutzer einen Prompt in Googles KI-Filmtool Flow, in Gemini oder andere Google-KI-Plattformen ein, der die Szene beschreibt, die sie erstellen möchten. Doch das Abo allein reicht nicht: Jede Veo-3-Videogenerierung kostet mindestens 20 KI-Credits, die 25 US-Dollar pro 2.500 Credits kosten. Mona Weiss, Kreativdirektorin in der Werbebranche, erzählt, dass das Neugenerieren von Szenen, um die quatschigen Untertitel loszuwerden, schnell teuer wird. „Wenn man eine Szene mit Dialogen erstellt, haben bis zu 40 Prozent der Ausgaben diese unverständlichen Untertitel, die sie dann unbrauchbar machen“, sagt sie. „Man verbrennt also Geld, um eine Szene zu erhalten, die einem gefällt, aber dann kann man sie letztlich nicht einmal verwenden.“
Credits futsch, teures Abo zahlt man obendrein
Als Weiss das Problem über den Discord-Kanal an Google Labs meldete, in der Hoffnung, eine Rückerstattung für ihre verschwendeten Credits zu erhalten, verwies das dortige Team sie nur an den offiziellen Support des Unternehmens. Dieser bot ihr nur eine Rückerstattung der Kosten für Veo 3 an, jedoch nicht für die Credits. Weiss lehnte das ab, da sie damit den Zugriff auf die Videogenerierung vollständig verloren hätte. Das Discord-Supportteam von Google Labs räumte ein, dass unerwünschte Untertitel durch Szenen mit Sprache ausgelöst werden können. Man sei sich des Problems bewusst und arbeite daran.
Aber warum besteht Veo 3 darauf, die Quatsch-Untertitel hinzuzufügen, und warum scheint es so schwierig zu sein, das Problem zu lösen? Das liegt wahrscheinlich daran, wie konkret das Modell trainiert wurde. Obwohl Google diese Informationen nicht veröffentlicht, enthalten die Trainingsdaten wahrscheinlich YouTube-Videos, Clips aus Vlogs und Gaming-Kanälen sowie deren TikTok-Edits, von denen viele mit Untertiteln versehen sind. Diese eingebetteten Untertitel sind Teil der Videobilder und keine separaten Textspuren, die darüber gelegt werden. Daher ist es schwierig, sie zu entfernen, bevor sie für das Training verwendet werden können, sagt Shuo Niu, Assistenzprofessor an der Clark University in Massachusetts, der sich mit Videoplattformen und KI beschäftigt.
Unreifes Produkt auf den Markt geworfen?
„Das Text-zu-Video-Modell wird mithilfe von Reinforcement Learning trainiert, um Inhalte zu produzieren, die von Menschen erstellte Videos imitieren. Wenn solche Videos Untertitel enthalten, kann das Modell lernen, dass die Einbindung von Untertiteln die Ähnlichkeit mit von Menschen erstellten Inhalten erhöht“, sagt der Forscher. „Wir arbeiten kontinuierlich daran, die Videogenerierung zu verbessern, insbesondere in Bezug auf Text, natürlich klingende Sprache und perfekt synchronisierten Ton“, gab ein Google-Sprecher an. „Wir empfehlen Nutzern, ihren Prompt erneut zu versuchen, wenn sie Unstimmigkeiten feststellen, und uns über die Daumen-hoch/Daumen-herunter-Option ein Feedback zu geben.“ Warum das Modell Anweisungen wie „keine Untertitel“ oft ignoriert, liegt unterdessen wohl daran, dass negative Eingaben (die einem generativen KI-Modell sagen, etwas nicht zu tun) in der Regel weniger effektiv sind als positive Prompts. Davon geht auch Tuhin Chakrabarty, Assistenzprofessor an der Stony Brook University, der sich mit KI-Systemen beschäftigt, aus.
Um das Problem zu beheben, müsste Google letztlich jedes Frame jedes Videos, mit dem Veo 3 trainiert wurde, überprüfen und diejenigen mit Untertiteln entweder entfernen oder neu kennzeichnen, bevor das Modell neu trainiert wird. Das sei ein Unterfangen, das mindestens Wochen dauern würde, sagt Chakrabarty. Katerina Cizek, Dokumentarfilmerin und künstlerische Leiterin am MIT Open Documentary Lab, meint, dass dieses Problem beispielhaft für die Bereitschaft von Google sei, Produkte auf den Markt zu werfen, bevor sie vollständig ausgereift sind. „Google brauchte hier einen Erfolg“, sagt sie. „Die mussten die Ersten sein, die ein Tool auf den Markt bringen, das lippensynchronen Ton mit Video generiert. Das war ihnen wichtiger als die Behebung des Problems mit den Untertiteln.“
Dieser Beitrag ist zuerst bei t3n.de erschienen.
(jle)
Künstliche Intelligenz
Stargate: Riesige Gigawatt-Supercomputer entstehen ohne Softbank
Oracle und OpenAI bauen riesige Supercomputer zum Training von KI-Algorithmen auf. Im texanischen Abilene entsteht gerade ein Rechenzentrum, das 2026 fertiggestellt sein soll und dann 1,2 Gigawatt elektrische Energie benötigen wird. Parallel planen OpenAI und Oracle weitere Rechenzentren mit einem Energiebedarf von zusätzlichen 4,5 Gigawatt. So wollen die Partner auf über zwei Millionen Beschleuniger kommen.
Das alles geschieht offenbar außerhalb des Joint Ventures „Stargate Project“, also ohne Softbank, auch wenn OpenAI und dessen Chef Sam Altman die Rechenzentren als „Stargate Sites“ bezeichnen. Den Anfang macht ein 200-Megawatt-Rechenzentrum als Teil des Lancium Clean Campus in Abilene. Es entsteht zusammen mit Partnern, die zuvor hauptsächlich im Krypto-Mining-Geschäft tätig waren: Coreweave etwa baut die Server-Infrastruktur zur Verbindung der unzähligen Komponenten und bekommt dafür über die nächsten Jahre 11,9 Milliarden US-Dollar. Die zwei eng verbandelten Firmen Crusoe und Lancium kümmern sich um die Stromversorgung.
Oracle hat bis zum Sommer 2026 sogenannte Remaining Performance Obligations (RPO) in Höhe von 138 Milliarden US-Dollar verbucht. Ein Großteil dürfte auf die gemeinsamen Rechenzentren mit OpenAI entfallen. OpenAI will sich so von Microsoft lösen, dessen Server die Firma bisher verwendet.
Kooperation bisher ohne Softbank
Das Stargate Project läuft derweil nur langsam an. Im Januar sorgten die Partner noch für Aufsehen, weil sie riesige KI-Rechenzentren im Wert von 500 Milliarden US-Dollar bauen wollten. Über ein halbes Jahr später soll es aber weiterhin keinen nennenswerten Fortschritt geben. Konkrete Verträge für Neubauten sind offenbar noch Fehlanzeige.
Darüber berichtet das Wall Street Journal, laut dessen Quellen das Stargate Project jetzt nur noch mit einem einzigen kleinen Rechenzentrum bis zum Jahresende plant. Schon im Juni schrieben die Analysten von Semianalysis, dass ihnen kein Fortschritt beim Joint Venture bekannt ist. Im März gab Oracles Technikchef Larry Ellison im Rahmen einer Analystenkonferenz zu, noch keine entsprechenden Verträge unterschrieben zu haben.
Hunderttausende Beschleuniger
Die erste abgeschlossene Phase im Lancium Clean Campus umfasst zwei Gebäudekomplexe, die in Zukunft unter Volllast 200 Megawatt elektrische Leistung benötigen. In beiden sollen zur Finalisierung jeweils 50.000 Nvidia-Beschleuniger vom Typ GB200 werkeln, also insgesamt 100.000 Grace-CPUs und 200.000 Blackwell-Beschleuniger. Der Gebäudebau benötigte nicht einmal ein Jahr.
Durch die schiere Anzahl von Beschleunigern dürfte das System jeden Supercomputer in der Top500-Liste alt aussehen lassen. In dieser wird die Rechenleistung mit 64-bittigen Gleitkommazahlen (FP64) ermittelt. Das Abilene-Rechenzentrum käme bei perfekter Skalierung auf acht Exaflops, also acht Trillionen Rechenoperationen pro Sekunde. Selbst unter Realbedingungen ohne optimale Skalierung sollte die Rechenleistung höher sein als beim Top500-Anführer El Capitan. Letzterer hat eine Spitzenleistung von gut 2,7 Exaflops (1,7 Exaflops dauerhaft).
Fürs KI-Training genügen derweil kompaktere Datenformate wie INT8 und FP4, wo so viele Blackwell-Beschleuniger in den Zettaflops-Bereich vordringen könnten.
Und noch viele mehr in Aussicht
Bis Mitte 2026 wollen OpenAI, Oracle und deren Partner die zweite Phase mit sechs weiteren identischen Gebäudekomplexen abschließen. Damit käme das Rechenzentrum in Abilene auf insgesamt 400.000 GB200-Boards beziehungsweise 800.000 Blackwell-Beschleuniger. Die Verantwortlichen veranschlagen dafür 1,2 Gigawatt elektrische Energie. Die weiteren Kapazitäten mit 4,5 Gigawatt Energiebedarf kommen zusätzlich.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.
Satellite photo of OpenAI’s Stargate project; football field for reference
byu/NunoSempere inOSINT
Neben lokaler Windenergie setzen Crusoe und Lancium auf Gasgeneratoren zur Stromgewinnung, mit Chevron im Rücken. Sie steigen mit Risikokapital in die Firma Energy No.1 ein, die sich Optionen auf sieben der derzeit stärksten Gasturbinen von GE Vernova gesichert haben, der sogenannten 7HA.
Lancium arbeitet auch mit der texanischen Regierung zusammen, um das Stromnetz zu stabilisieren. Bei extremen Wetterbedingungen zeigte es sich schon für Ausfälle anfällig.
Meta will mitmischen
OpenAI und Oracle befinden sich derweil in einem Wettrennen mit anderen Hyperscalern. Insbesondere Meta soll zuletzt die eigenen Pläne erheblich beschleunigt haben. Semianalysis berichtet über einen abgerissenen Teilneubau, weil sich die Stromversorgung in Metas alter Blaupause nicht für moderne KI-Rechenzentren eignen soll.
Ein Neubau soll für ein Gigawatt ausgelegt sein, ein zweiter fürs Jahr 2027 ist mit zwei Gigawatt angekündigt. Meta-Chef Mark Zuckerberg hebt gern den Größenvergleich zu Manhattan hervor.
(mma)
Künstliche Intelligenz
Sophos Firewall: Hotfixes beseitigen Remote-Angriffsgefahr
Frische Hotfixes für die Sophos Firewall schließen insgesamt fünf Sicherheitslücken, von denen zwei als „kritisch“, zwei mit einem hohen und eine mit mittlerem Schweregrad bewertet wurden. Sie könnten unter bestimmten Bedingungen zur Codeausführung aus der Ferne missbraucht werden – in zwei Fällen ohne vorherige Authentifizierung.
Verwundbar sind die Versionen v21.0 GA (21.0.0) und älter (CVE-2024-13974, CVE-2024-13973) sowie die Versionen v21.5 GA (21.5.0) und älter (CVE-2025-6704, CVE-2025-7624, CVE-2025-7382).
Auf Updates prüfen
Dass die kritischen Schwachstellen CVE-2025-6704 und CVE-2025-7624 laut Sophos nur 0,05 beziehungsweise 0,73 Prozent aller Geräte betreffen, sollte niemanden davon abhalten, die bereitgestellten Aktualisierungen zügig anzuwenden. In der Standardeinstellung der Firewall („Allow automatic installation of hotfixes“) passiert das Update laut Sophos bei unterstützten Versionen automatisch. Dennoch ist es dringend ratsam, der bereitgestellten Anleitung zum Prüfen der Firewall auf die aktuellen Hotfixes zu folgen.
Zusätzliche Details zur Zuordnung zwischen Firewall-Versionen und erforderlichen Hotfixes sowie zu den Sicherheitslücken nennt das Sophos-Advisory.
(ovw)
Künstliche Intelligenz
Intel legt die Axt an: Clear Linux OS abrupt abgekündigt
Intel stellt Clear Linux OS ein: Die Distribution ist ab sofort abgekündigt, es wird keine Security-Patches, Updates oder sonstigen Support mehr geben. Die Entwickler empfehlen den Nutzern, so schnell wie möglich auf eine andere Linux-Distribution umzusteigen – sprechen sich jedoch nicht für ein spezifisches Betriebssystem für die Migration aus.
Linux für Benchmarks
Clear Linux OS war auf eine möglichst hohe Performance ausgelegt und war insbesondere für den Betrieb von Containern und Cloud-Servern optimiert. Entstanden war die Distribution vor zehn Jahren, von den Leistungsverbesserungen sollten vordergründig Intels eigene Prozessoren profitieren. Aber auch die CPUs von Konkurrent AMD schnitten in Tests gut ab.
Eine offizielle Begründung für das Einstellen der Distribution gibt es nicht. Allerdings geht es Intel wirtschaftlich schlecht: Zwar verlief der Jahresbeginn 2025 besser als erwartet, der Hersteller macht aber weiter Minus. Aufgrund der Verluste verkündete Intel vor nur wenigen Tagen eine weitere Kündigungswelle. Wie hoch die Kosten für Clear Linux OS ausfielen, ist jedoch unklar.
Open-Source-Zukunft ungewiss
Sicher ist allerdings, dass Intel sein Open-Source-Engagement verringert. Wie Phoronix dokumentiert hat, haben seit Jahresbeginn viele Linux-Entwickler und -Maintainer Intel verlassen. Das hat inzwischen auch technische Auswirkungen, da teils niemand mit den gleichen Kenntnissen als Ersatz zur Verfügung steht. Wie Intel künftig mit anderen Distributoren zusammenarbeitet, ist ebenfalls offen.
Die knappe offizielle Ankündigung findet sich im Forum des Projekts. Das GitHub-Repository werden die Entwickler archivieren.
(fo)
-
Datenschutz & Sicherheitvor 1 Monat
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Online Marketing & SEOvor 1 Monat
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 1 Monat
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Digital Business & Startupsvor 4 Wochen
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
UX/UI & Webdesignvor 1 Monat
Philip Bürli › PAGE online
-
Apps & Mobile Entwicklungvor 4 Wochen
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen
-
Social Mediavor 1 Monat
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Social Mediavor 1 Monat
Aktuelle Trends, Studien und Statistiken