Apps & Mobile Entwicklung
Warum YouTubes Kampf gegen KI-Videos nur scheitern kann
Ist es wirklich vorbei mit KI-generierten Youtube-Videos? Google hat gerade eine Änderung der Monetarisierungsregeln auf Youtube angekündigt, die verhindern soll, dass bestimmte Inhalte, die KI verwenden, Geld generieren. Kein Geld, keine KI – diese magische Lösung von Youtube ignoriert den Kern des Problems mit solchen Videos.
Die neue Youtube-Richtlinie tritt am 15. Juli 2025 in Kraft, und zwar nicht nur in den USA, sondern auch in Deutschland. Youtube wird nicht einfach alle Videos, die KI verwenden, entmonetarisieren. Die Plattform hat vor allem wiederholte, nicht authentische und massenhaft produzierte Inhalte im Visier.
Was ist ein unauthentisches KI-Video?
Jeder von uns ist schon einmal über ein YouTube-Video oder einen YouTube-Short gestolpert, in dem eine generische, roboterhafte Stimme über zufällig zusammengewürfelte Clips abgespielt wurde. Ein billiges Video, das keinen Mehrwert hat. Im Englischen spricht man von AI slop. Das ist es, was Youtube anscheinend angreifen will, indem es den Begriff der Authentizität sehr stark betont.
„Angreifen“ ist ein großes Wort, denn Youtube behauptet auf seiner offiziellen Website, dass es „immer verlangt hat, dass monetarisierte Inhalte originell und authentisch sein müssen.“ In einem erklärenden Video behauptet Youtube-Redaktionsleiter Rene Ritchie sogar, dass es sich hierbei um „ein kleines Update der langjährigen Regeln des Youtube-Partnerprogramms handelt, um massenproduzierte oder sich wiederholende Inhalte besser erkennen zu können.“
Youtube spielt das Problem der KI herunter
Youtube scheint die Verbreitung von KI-generierten Billiginhalten auf seiner Plattform herunterspielen zu wollen. Eine Verbreitung, die mit der Monetarisierung einhergeht, der Hauptmotivation hinter der Produktion dieser Art von Inhalten. Youtube sollte daher klarstellen, was es als nicht authentischen, massenhaft produzierten und sich wiederholenden Inhalt ansieht.
Der Youtube-Kanal „Bloo“, der kürzlich von CNBC entdeckt wurde, passt zum Beispiel ziemlich genau auf diese Definition. Auf diesem Kanal ist kein Mensch auf dem Bildschirm zu sehen. Stattdessen spricht ein schlecht animierter virtueller Avatar mit einer KI-Stimme, die in mehreren Sprachen synchronisiert ist, zum Publikum. Der Kanal spammt mindestens ein Video pro Tag. Der Avatar schreit dich an, ohne eine Pause zum Atmen zu machen, und das alles über Gameplay-Videos zu einem beliebten Videospiel (GTA 5, Roblox oder andere). Das ist die typische Art von Videos, die für Kinder oder junge Teenager gemacht sind, um sie süchtig zu machen, indem sie sie verblöden.
Wenn Youtube, wie es behauptet, diese Art von Inhalten bereits von der Monetarisierung ausgeschlossen hat, warum ist das hier nicht der Fall? Und wenn dies ab dem 15. Juli der Fall sein wird, wird Youtube dann zwischen dieser Art von Inhalten und Vtuber-Videos im Allgemeinen unterscheiden? Das sind Schöpfer von Inhalten, die sich in Videos nur durch einen virtuellen Avatar zeigen? Vtubers können originelle Inhalte produzieren, mit oder ohne KI. Aber im obigen Beispiel von „Bloo“ sind die einzige menschliche Intervention im Produktionsprozess die Finger des/der Ersteller(s), wenn er/sie seine/ihre Prompts eingibt.
KI-Videos haben mehr als nur ein Problem mit der Authentizität.
Die Tatsache, dass Youtube zwischen authentischen und nicht authentischen KI-Inhalten unterscheidet, macht Sinn. Zwar bleibt der Begriff der Authentizität laut Youtube sehr schwammig. Aber nicht alle von KI erstellten oder erweiterten Inhalte über einen Kamm zu scheren, ist eine gute Sache. Ich persönlich verfolge gerne eine Serie mit dem Titel „Presidents play Mass Effect“ des Kanals PrimeRadiancy.
In diesen Videos werden Barack Obama, Joe Biden und Donald Trump so dargestellt, als würden sie sich auf Discord unterhalten, während sie Videospiele aus der Mass Effect-Saga spielen. Das Skript ist humorvoll und man merkt, dass ein Mensch daran geschrieben hat. Auch das Gameplay wurde von einem Menschen erstellt. Am Anfang jedes Videos steht ein Disclaimer, der darauf hinweist, dass es sich um KI-Stimmen handelt. Kurz gesagt, diese Art von Inhalt kann als authentisch angesehen werden.
Aber abgesehen von Authentizität und Originalität stellt die Verbreitung von KI-Videos ein weiteres, nicht zu unterschätzendes Problem dar. Immer häufiger stoße ich auf rassistische oder sexistische Videos, die vollständig von einer KI erstellt wurden. Diese Videos werden oft als Sketche präsentiert und es dauert nur wenige Sekunden, um die schädliche Botschaft zu erkennen, die sie verbreiten.
Ohne es hier mit dir zu teilen, zeigte das Beispiel, das mich am meisten beeindruckt hat, ein weißes Paar, das auf der Veranda vor ihrem Haus sitzt. Plötzlich rennt ein schwarzer Mann mit einem Fernseher unter dem Arm durch ihren Garten und verschwindet in der Ferne. Die Frau ruft: „Ich glaube, das ist meins“ und meint damit den Fernseher, der angeblich von dem rennenden schwarzen Mann gestohlen wurde. Der Ehemann mischt sich ein und sagt: „Aber nein, Schatz, unser ist im Garten und zeigt mit dem Finger auf einen anderen schwarzen Mann, der in der Hocke ist und Gras zupft.“
Wenn KI dazu benutzt wird, rassistische Memes zu erstellen, ist es bereits zu spät
Natürlich wird sich Youtube nicht die Frage stellen, ob der Inhalt echt ist oder nicht, bevor es ihn demontiert. Rassismus und Aufstachelung zum Hass verstoßen gegen die Youtube-Richtlinien. Aber es zeigt, wie zugänglich die Erstellung von reinen KI-Inhalten geworden ist. So zugänglich, dass hochmoderne Tools zur KI-Videoerstellung dazu missbraucht werden, einfache Shitposts zu erstellen.
Die Deutsche Welle berichtete in einer Sendung über dieses Thema, allerdings über TikTok und nicht über YouTube. Viele dieser Videos wurden mit dem Google-Tool Veo 3 erstellt. Auch wenn YouTube die Bedeutung dieses Updates als eine „geringfügige Anpassung“ oder Klarstellung herunterspielt, sieht die Realität ganz anders aus.
Wenn Youtube zulässt, dass sich diese Art von Inhalten weiter ausbreitet und ihre Schöpfer daraus Profit schlagen, könnte das langfristig dem Ruf und dem Wert der Plattform schaden. Die scheinbare Gelassenheit von Youtube und der Mangel an Klarheit in Bezug auf den Begriff der Authentizität deuten darauf hin, dass man einen harten Schlag ausführen will.