Online Marketing & SEO
Grok Imagine: Deepfakes von Taylor Swift und NSFW Content
Bei den Tests, in denen Journalist:innen und User Fotos von realen Personen als Vorlage genommen haben, um diese in Nacktheit darzustellen, gab es zunächst keine Ergebnisse, was auf eine Sicherheitsebene von xAI hinweist. Allerdings lassen sich Visuals von Berühmtheiten oder bekannten Personen durch Prompts mitunter als KI-Version nachbauen, sodass eine klare Ähnlichkeit entsteht. Rebecca Bellan schreibt für TechCrunch, dass sie auf eine Reihe von Einschränkungen gestoßen ist, als sie Bilder von US-Präsident Donald Trump erstellen lassen wollte.
Die Probleme der KI-Videogeneratoren
Während Imagine als Visual Creator eindrucksvoll in kurzer Zeit Bilder in den verschiedenen Stilen hervorbringt, beispielsweise auch imaginierte Comics, veranschaulicht das Feature ein Grundproblem der KI-Videogeneratoren. Schon Googles Veo 3 ist kurz nach dem öffentlichen Launch vielfach für Videoinhalte genutzt worden, die sexistisch und misogyn, rassistisch und diskriminierend waren. Auch das ist mit Grok Imagine ebenso wie anderen Tools möglich.
Nun bieten viele der Grundregeln von KI-Tools den Usern grundsätzlich nicht die Möglichkeit, Deepfakes zu erstellen. Doch xAI und Grok setzen weniger auf Sicherheitsaspekte als zum Beispiel Google oder insbesondere Adobe. Zudem fördert xAI aktiv die Verbreitung von sexualisierten Inhalten, auch pornografischer Content ist auf X erlaubt. Das ist im Grunde noch nicht die Problematik. Diese entsteht, wenn User mit Grok Imagine einfach nur ein Geburtsjahr bestätigen müssen (was Jüngere ebenso falsch angeben können), um stark sexualisierte Videos zu kreieren, die im schlimmsten Fall deutliche Ähnlichkeiten mit realen Personen aufweisen und so doch zu einer Art Deepfake werden.
Bedenkt man überdies, dass xAI und X via Grok zuletzt mit antisemitischen Reproduktionen und Verschwörungstheorien aufgefallen sind, liegt das Gefahrenpotential des AI Tools auf der Hand. Das gilt allerdings nicht für Grok allein, sondern für diverse Tools im AI-Kreationskontext. Denn Sicherheitsvorkehrungen lassen sich mitunter umgehen; die einmal erstellen Videos, beispielsweise nicht jugendfreie, können bei einer umfassenden Verbreitung aber großen Schaden anrichten, der nicht so schnell zu beheben ist.