Künstliche Intelligenz
Podcast: Stimme geklaut – wie Deepfakes bereits genutzt werden
Vera Bauer ist das passiert, wovor derzeit viele warnen: Ihre Stimme wurde geklaut und geklont. Allerdings endete es nicht im Enkeltrick, sondern in einer Werbung. Und das zeigt auch, wohin die Reise wohl geht bei der Frage, wer neben Scammern und Cyberkriminellen die Technologie des Deepfakes nutzt: Werbung und Marketing.
Dabei habe sie zunächst selbst gar nichts davon mitbekommen, berichtet die Tech-Youtuberin Vera Bauer in der aktuellen Folge des c’t-Podcasts „They Talk Tech“. Erst als Follower sie darauf aufmerksam machten, dass ihnen eine seltsame Werbeanzeige in die Timeline gespült worden sei, sah sie den Clip, in dem sie scheinbar Werbung für eine App machte. „Die ersten paar Sekunden in dem Video bin ich wirklich ich, und dann übernimmt die KI meine Stimme“, erklärt Bauer im Gespräch mit Eva Wolfangel und Svea Eckert. „Und plötzlich bewerbe ich genau das, worüber ich mich kurz zuvor noch öffentlich geärgert hatte.“
Eine US-amerikanische Firma hatte einen Ausschnitt aus einem echten Video von ihr genommen, und dann mithilfe einer KI ihre Stimme geklont, so dass sie nun deren App bewarb: einen Generator für sogenannte KI-Starterpacks. Diese Starterpacks sind ein Social-Media-Trend, den Bauer in einem ihrer Videos als Ressourcenverschwendung kritisiert hatte. Kurz darauf tauchte sie – beziehungsweise ihr KI-generiertes Ebenbild – in mehreren gesponserten Instagram-Videos auf.
Die Anzeigen liefen auf Meta-Plattformen, was für Bauer vor allem den mühsamen Weg über Metas Meldeformular bedeutete. Und obwohl sie auf der Übersichtsseite von Meta viele weitere Anzeigen der Firma sah, die allesamt ebenfalls andere Instagram-Nutzer klonten, bekam sie vom Meta keine Reaktion. Auch die anderen Anzeigen sind weiterhin aktiv – vermutlich wissen Betroffene nichts von ihrem Alter Ego. Erst eine anwaltliche Abmahnung an den App-Betreiber führte dazu, dass zumindest die Deepfakes von Bauer verschwanden. „Das war kein Einzelfall. Die machen das systematisch“, sagt Bauer.
Dass eine Stimme sich so einfach klauen und kommerzialisieren lässt, sei ein massives Problem; gerade für Menschen, die viel im Netz präsent sind. Hoffnung macht ein Vorstoß aus Dänemark: Dort ist ein Gesetz geplant, das Stimmen, Gesichter und Avatare explizit vor KI-Missbrauch schützen soll, inklusive klarer Haftung für Plattformbetreiber. Gleichzeitig ist es im Einzelfall schwer nachzuweisen, wo ein Deepfake anfängt und aufhört – und wann ein Gesicht und eine Stimme „anders genug“ ist. Und auch technische Mittel wie Wasserzeichen, die auf KI-generiertes Material hinweisen, sind nur bedingt hilfreich, da erfahrene Fälscher diese entfernen können. „Das wird ein technischer Wettlauf“, prognostiziert Bauer im Podcast.
Vera Bauer ist eine der bekanntesten Tech-Youtuberinnen Deutschlands und steht mit ihrem Kanal „Tech Like Vera“ für eine Mischung aus Begeisterung für Technologie und kritischem Blick auf deren gesellschaftliche Auswirkungen. Ihre aktuellen Videoessays befassen sich mit digitaler Selbstoptimierung, den Grenzen von XR-Brillen – und bald, wie sie im Podcast verrät, mit Sexismus in der KI- und Roboterwelt.
„They Talk Tech“ erscheint jeden Mittwoch überall, wo es Podcasts gibt. Svea Eckert und Eva Wolfangel diskutieren ein Tech-Thema oder treffen inspirierende Frauen aus und rund um die Tech-Welt.
(mond)