Datenschutz & Sicherheit
Kriminelle nutzen Deepfakes von Prominenten für täuschend echte Fake-Werbung
Cyberkriminelle nutzen zunehmend Deepfakes, um gefälschte Finanz- und Gesundheitsangebote glaubwürdig erscheinen zu lassen. Die Verbraucherzentrale warnt aktuell vor dieser Masche. Mithilfe von KI werden Videos oder Bilder bekannter Persönlichkeiten so manipuliert, dass diese scheinbar persönliche Empfehlungen für dubiose Produkte oder Investitionen aussprechen – meist ohne ihr Wissen. Die KI-generierten Clips kursieren seit Monaten in sozialen Netzwerken, wobei Deutschland zu den Hauptzielmärkten zählt. Selbst aufmerksame Nutzer können getäuscht werden, beispielsweise ist ein Mitarbeiter eines Cybersicherheitsunternehmens fast auf eine geklonte Stimme seines Chefs hereingefallen.
Besonders häufig werden Deepfakes den Verbraucherschützern zufolge aktuell eingesetzt, um vermeintlich lukrative Finanzprodukte oder angeblich revolutionäre Gesundheitsmittel zu bewerben. Die Betrüger versprechen unrealistische Gewinne oder Heilungserfolge und nutzen dabei gefälschte Webseiten und fehlende Quellenangaben als Teil ihrer Masche. Ziel ist es, das Vertrauen in prominente Gesichter auszunutzen und Verbraucher zur Preisgabe sensibler Daten oder zu Investitionen zu bewegen. Besonders häufig betroffen sind Prominente wie Günther Jauch, Frank Thelen und Barbara Schöneberger.
Investment und Gesundheit
Zu den häufigsten Themen zählen Krypto-Investments, Trading-Plattformen, Börsentipps und angebliche „Insider-Geheimnisse“. Jüngst warnte auch das Landeskriminalamt Niedersachsen vor Betrug mit gefälschten Anlage-Webseiten zu Krypto-Währungen wie Bitcoin. Es kursieren teilweise allerdings auch gefälschte Werbe-Beiträge weniger bekannter Menschen. Oft erhalten solche Seiten und Beiträge viele Aufrufe, ohne dass die Personen über den Identitätsmissbrauch Bescheid wissen.
Im Gesundheitsbereich werden oft Diätpillen, Nahrungsergänzungsmittel und Anti-Aging-Produkte beworben. Ein Deepfake-Video zeigte etwa Dieter Bohlen, wie er vermeintlich innovative Behandlungsmethoden gegen Knie- und Gelenkbeschwerden, insbesondere bei Osteoarthritis, empfiehlt – wie eine Analyse von Bitdefender bereits 2024 belegte. Auch Deepfakes von internationalen Stars wie Brad Pitt, Cristiano Ronaldo und George Clooney kursieren. Die Videos werden gezielt über Social-Media-Plattformen wie Facebook, Messenger und Instagram verbreitet, um Nutzer zu betrügerischen Käufen oder zur Preisgabe persönlicher Daten zu verleiten. Teilweise erreichen solche Fake-Profile oder Seiten mehr als 350.000 Follower, bevor sie gelöscht werden.
Für die Erstellung der Deepfake-Videos nutzen die Kriminellen echtes Bild- und Tonmaterial als Trainingsbasis. Auch Politiker und andere Personen des öffentlichen Lebens sind häufig betroffen, da von ihnen besonders viele Aufnahmen verfügbar sind. Die Verbraucherzentrale rät, bei verdächtigen Angeboten besonders wachsam zu sein. Warnzeichen sind etwa unrealistische Versprechen (zum Beispiel hohe Gewinne ohne Risiko), fehlende oder unseriöse Quellen, ungewöhnliche oder neue Webseiten sowie auffällige Fehler in der Bild- oder Tonspur, etwa eine schlechte Lippensynchronisation.
Deepfake seit Jahren Thema
Zahlreiche Beispiele zeigen, wie real und folgenreich diese Manipulationen bereits sind. So sorgte 2023 etwa ein gefälschtes Video vom ehemaligen Bundeskanzler Olaf Scholz für Aufsehen, in dem er scheinbar ein AfD-Verbot ankündigte. Obwohl das Video von einer Satiregruppe erstellt wurde und technisch nicht perfekt war, zeigte der Fall, wie schnell solche Fälschungen Verunsicherung stiften und die öffentliche Meinung beeinflussen können.
2022 tauchte zudem ein manipuliertes Video von Präsident Wolodymyr Selenskyj auf, in dem er angeblich zur Kapitulation vor Russland aufrief. Auch dieses Video verbreitete sich wohl aufgrund eines Cyberangriffs auf einen ukrainischen Fernsehsender rasant, auch in den sozialen Medien. Dieses Video war technisch nicht auf dem Niveau heutiger Deepfakes. Das BSI und Europol warnen bereits seit Jahren vor derartigen Videos. Vor rund einem Jahr hatte der Bundesrat einen Gesetzentwurf vorgelegt, um Deepfakes eindeutig strafbar zu machen.
(mack)