Künstliche Intelligenz
Googles Veo 3 erstellt geniale Videos – aber die Untertitel sind völlig verrückt
Nachdem Google Ende Mai sein neuestes KI-Modell zur Videogenerierung vorgestellt hatte, stürzten sich Kreative darauf, um es auf Herz und Nieren zu testen. Nur wenige Monate nach der Verfügbarmachung seines Vorgängers ermöglicht Veo 3 Nutzern erstmals die Generierung von Klängen und Dialogen, was zu einer Flut hyperrealistischer maximal achtsekündiger Clips führte, die dann zu Werbespots, ASMR-Videos, imaginären Filmtrailern oder humorvollen Fake-Straßeninterviews zusammengeschnitten wurden. Der Oscar-nominierte Regisseur Darren Aronofsky nutzte das Tool gar, um einen Kurzfilm mit dem Titel „Ancestra“ zu erstellen. Während einer Google-Pressekonferenz verglich Demis Hassabis, CEO der Google-KI-Tochter DeepMind, diesen Sprung nach vorne mit dem „Ende der Stummfilmära in der Videogenierung“.
Einige Nutzer stellten jedoch schnell fest, dass das Tool keineswegs perfekt war und in mancher Hinsicht nicht wie erwartet arbeitete. Denn: Wenn Veo 3 Clips mit Dialogen generiert, fügt es oft unsinnige, verstümmelte Untertitel hinzu, selbst wenn in den Eingabeaufforderungen ausdrücklich angegeben wurde, das zu unterlassen. Die Nonsens-Untertitel zu entfernen, ist aber nicht einfach – und auch nicht billig. Nutzer sind nämlich gezwungen, Clips neu generieren zu lassen (was sie mehr Geld kostet) – in der Hoffnung, dass es nicht wieder passiert. Alternativ müssen sie externe Tools zum Entfernen von Untertiteln verwenden oder ihre Videos störend zuschneiden, um die Untertitel vollständig zu entfernen.
Google seit mehr als einem Monat informiert
Josh Woodward, Vizepräsident von Google Labs und Gemini, veröffentlichte schon am 9. Juni auf X den Hinweis, dass Google Korrekturmaßnahmen ergriffen habe, um die Ausgabe der unsinnigen Untertitel zu reduzieren. Aber auch über einen Monat später melden Nutzer immer noch Probleme damit im offiziellen Discord-Kanal von Google Labs, ohne dass sie Hilfe bekommen. Das zeigt, wie offenkundig schwierig es sein kann, Fehler in großen KI-Modellen, Bild- und Videogenratoren zu beheben.
Wie seine Vorgänger ist Veo 3 für zahlende Mitglieder größerer Google-Abonnementstufen verfügbar, die nicht billig sind: Es geht bei 249,99 US-Dollar pro Monat erst los. Um einen achtsekündigen Clip zu erstellen, geben Nutzer einen Prompt in Googles KI-Filmtool Flow, in Gemini oder andere Google-KI-Plattformen ein, der die Szene beschreibt, die sie erstellen möchten. Doch das Abo allein reicht nicht: Jede Veo-3-Videogenerierung kostet mindestens 20 KI-Credits, die 25 US-Dollar pro 2.500 Credits kosten. Mona Weiss, Kreativdirektorin in der Werbebranche, erzählt, dass das Neugenerieren von Szenen, um die quatschigen Untertitel loszuwerden, schnell teuer wird. „Wenn man eine Szene mit Dialogen erstellt, haben bis zu 40 Prozent der Ausgaben diese unverständlichen Untertitel, die sie dann unbrauchbar machen“, sagt sie. „Man verbrennt also Geld, um eine Szene zu erhalten, die einem gefällt, aber dann kann man sie letztlich nicht einmal verwenden.“
Credits futsch, teures Abo zahlt man obendrein
Als Weiss das Problem über den Discord-Kanal an Google Labs meldete, in der Hoffnung, eine Rückerstattung für ihre verschwendeten Credits zu erhalten, verwies das dortige Team sie nur an den offiziellen Support des Unternehmens. Dieser bot ihr nur eine Rückerstattung der Kosten für Veo 3 an, jedoch nicht für die Credits. Weiss lehnte das ab, da sie damit den Zugriff auf die Videogenerierung vollständig verloren hätte. Das Discord-Supportteam von Google Labs räumte ein, dass unerwünschte Untertitel durch Szenen mit Sprache ausgelöst werden können. Man sei sich des Problems bewusst und arbeite daran.
Aber warum besteht Veo 3 darauf, die Quatsch-Untertitel hinzuzufügen, und warum scheint es so schwierig zu sein, das Problem zu lösen? Das liegt wahrscheinlich daran, wie konkret das Modell trainiert wurde. Obwohl Google diese Informationen nicht veröffentlicht, enthalten die Trainingsdaten wahrscheinlich YouTube-Videos, Clips aus Vlogs und Gaming-Kanälen sowie deren TikTok-Edits, von denen viele mit Untertiteln versehen sind. Diese eingebetteten Untertitel sind Teil der Videobilder und keine separaten Textspuren, die darüber gelegt werden. Daher ist es schwierig, sie zu entfernen, bevor sie für das Training verwendet werden können, sagt Shuo Niu, Assistenzprofessor an der Clark University in Massachusetts, der sich mit Videoplattformen und KI beschäftigt.
Unreifes Produkt auf den Markt geworfen?
„Das Text-zu-Video-Modell wird mithilfe von Reinforcement Learning trainiert, um Inhalte zu produzieren, die von Menschen erstellte Videos imitieren. Wenn solche Videos Untertitel enthalten, kann das Modell lernen, dass die Einbindung von Untertiteln die Ähnlichkeit mit von Menschen erstellten Inhalten erhöht“, sagt der Forscher. „Wir arbeiten kontinuierlich daran, die Videogenerierung zu verbessern, insbesondere in Bezug auf Text, natürlich klingende Sprache und perfekt synchronisierten Ton“, gab ein Google-Sprecher an. „Wir empfehlen Nutzern, ihren Prompt erneut zu versuchen, wenn sie Unstimmigkeiten feststellen, und uns über die Daumen-hoch/Daumen-herunter-Option ein Feedback zu geben.“ Warum das Modell Anweisungen wie „keine Untertitel“ oft ignoriert, liegt unterdessen wohl daran, dass negative Eingaben (die einem generativen KI-Modell sagen, etwas nicht zu tun) in der Regel weniger effektiv sind als positive Prompts. Davon geht auch Tuhin Chakrabarty, Assistenzprofessor an der Stony Brook University, der sich mit KI-Systemen beschäftigt, aus.
Um das Problem zu beheben, müsste Google letztlich jedes Frame jedes Videos, mit dem Veo 3 trainiert wurde, überprüfen und diejenigen mit Untertiteln entweder entfernen oder neu kennzeichnen, bevor das Modell neu trainiert wird. Das sei ein Unterfangen, das mindestens Wochen dauern würde, sagt Chakrabarty. Katerina Cizek, Dokumentarfilmerin und künstlerische Leiterin am MIT Open Documentary Lab, meint, dass dieses Problem beispielhaft für die Bereitschaft von Google sei, Produkte auf den Markt zu werfen, bevor sie vollständig ausgereift sind. „Google brauchte hier einen Erfolg“, sagt sie. „Die mussten die Ersten sein, die ein Tool auf den Markt bringen, das lippensynchronen Ton mit Video generiert. Das war ihnen wichtiger als die Behebung des Problems mit den Untertiteln.“
Dieser Beitrag ist zuerst bei t3n.de erschienen.
(jle)