Datenschutz & Sicherheit
Wo war die Empörung, bevor es Deepfakes gab?
Viele Jahre lang haben Betroffene und Verbände vor bildbasierter Gewalt gewarnt. So nennt man es, wenn Menschen sexualisierte Aufnahmen ohne Einverständnis der Gezeigten verbreiten. Viele Jahre lang haben Journalist*innen immer wieder alarmierende Fälle bildbasierter Gewalt enthüllt. Nun hat auch die große Politik das Thema für sich entdeckt. Endlich.
Bildbasierte Gewalt hat es in eine EU-Richtlinie geschafft, in den schwarz-roten Koalitionsvertrag, und auch der Bundesrat und die Justizminister*innen der Länder machen inzwischen Druck.
Ein entscheidender Faktor für die neue Aufmerksamkeit dürfte der KI-Hype sein, genauer gesagt: die Sorge vor sexualisierten Deepfakes, also künstlich generierten Nacktaufnahmen. Sie sind die neuste Erscheinungsform bildbasierter Gewalt. „Deepfake“ ist ein massenkompatibler, geradezu modischer Begriff. Er klingt nach Zukunft, Cyber und technologischem Fortschritt. Kurzum, das Wort ist attraktiv für Massenmedien und Politik.
Vor Jahren war vermehrt von „Rachepornos“ die Rede. Gemeint waren damit oftmals intime Aufnahmen, die während einer Beziehung entstanden sind und danach von Ex-Partner*innen verbreitet wurden. Viele Betroffene lehnen diesen Begriff aber ab. Sie wollen ihre Aufnahmen nicht als „Porno“ verstanden wissen; und das Wort „Rache“ kann den Anschein erwecken, die Täter*innen hätten ein legitimes Motiv. So etablierte sich stattdessen der Begriff bildbasierte, sexualisierte Gewalt.
Deepfakes machen Kampf gegen bildbasierte Gewalt attraktiv
Anscheinend war es jedoch schwer, mit diesem Begriff größere politische Aufmerksamkeit zu bekommen. Wahrscheinlich war (und ist) er für manche zu nüchtern-technisch oder zu feministisch. Immerhin geht es um die sexuelle Selbstbestimmung von Frauen, denn bildbasierte Gewalt ist oftmals geschlechtsspezifisch. In einer nach wie vor patriarchal geprägten Welt dürften manche allein schon deshalb einen Bogen um das Thema machen.
Mit Deepfakes hat sich die Situation verändert. Nicht-einvernehmliche Nacktfotos lassen sich inzwischen kostenlos im Browser generieren; als Vorlage genügt ein Foto aus sozialen Medien. Das ändert nicht nur die Verfügbarkeit bildbasierter Gewalt, sondern auch ihr Image. Auf einmal ist bildbasierte Gewalt eine der vielen Gefahren durch sogenannte generative Künstliche Intelligenz. Und KI ist das internationale Hype-Thema, befeuert durch Milliarden-Investitionen der reichsten Konzerne der Welt.
Es gibt noch einen Faktor, der den Kampf gegen Deepfakes für Politik und Medien attraktiv macht: Zum Ziel von nicht-einvernehmlichen, sexualisierten Deepfakes werden auch Promis wie Taylor Swift. Solche Fälle lösen Wellen an Solidarität aus. Zwar verdienen unbekannte Menschen ebenso Schutz wie weltbekannte Stars; dennoch dürfte dieser Promi-Faktor dazu beitragen, das Bewusstsein dafür zu pushen. Selbst die rechtsradikale Trump-Regierung, die für ein feministisch gelesenes Thema niemals den Finger rühren würde, setzt sich gegen nicht-einvernehmliche Deepfakes ein.
Die Gefahr von Trend-Politik
Nun könnte man sagen: Egal, wie oberflächlich die Gründe sind – Hauptsache, bildbasierte Gewalt bekommt endlich mehr Aufmerksamkeit. Da ist auch etwas dran. Andererseits tritt dabei auf verstörende Weise zutage, wie sehr sich politisches Momentum an Hypes orientiert statt an den tatsächlichen Bedürfnissen von Menschen.
Hinzu kommt eine weitere Gefahr: Der aktuelle Fokus auf Deepfakes kann andere Formen bildbasierter Gewalt in den Hintergrund drängen und damit die Anliegen der Betroffenen unsichtbar machen. Die Kopplung an den KI-Trend birgt zudem das Risiko, dass politische Bemühungen versanden, sobald der Hype verklingt.
Justizminister*innen fordern mehr Schutz gegen bildbasierte Gewalt
In ihrem jüngsten Beschluss schreiben die Justizminister*innen der Länder, bildbasierte Gewalt sei „nicht zuletzt durch den Einsatz künstlicher Intelligenz zu einem zunehmend relevanten Phänomen geworden“. Die Relevanz ist jedoch kein Ergebnis von KI-Einsatz. Bildbasierte Gewalt, bei der Täter*innen oftmals systematisch intime Aufnahmen ohne Einverständnis verbreiten, gibt es seit Jahren im Netz.
Während mit Pornhub und xHamster zwei der weltgrößten Pornoseiten inzwischen umfassend gegen anonyme Uploads vorgehen und das Problem auf ihren Seiten eindämmen, weichen Täter*innen auf weniger bekannte Plattformen aus.
Der Fall „D.“
Wie das konkret aussehen kann, zeigt das Beispiel von „D.“. Er war einer der besonders aktiven Nutzer auf einer Pornoseite, die laut Impressum auf Zypern registriert ist. Dort hat er rund 10 Millionen Bilder veröffentlicht, bevor sein Account eines Tages offline ging. In seiner öffentlichen Account-Beschreibung schrieb er auf Englisch, keine der Aufnahmen gehöre ihm. „Fühlt euch frei, JEGLICHE meiner Inhalte zu teilen“, schrieb er.
Die inzwischen gelöschten Uploads erweckten nicht den Anschein, aus professionellen Shootings zu stammen, sondern eher aus privater Quelle. Das ist typisch für online zur Schau gestellte Sammlungen bildbasierter Gewalt. Die Aufnahmen können etwa von gehackten Fotodiensten kommen; von versteckten Kameras aus Umkleidekabinen und öffentlichen Toiletten – oder von Ex-Partner*innen, die Fotos aus der ehemaligen Beziehung ins Netz gestellt haben.
D. hatte die Aufnahmen in durchnummerierten Ordnern sortiert: 45.465, 45.466 und so weiter. Auf Anfrage erklärte D., er habe alles händisch hochgeladen, es sei „eine Menge Arbeit“. Warum das alles? „Ich denke, es ist etwas, das mit der Zeit gewachsen ist, und man könnte sagen, es ist wirklich eine Herzensangelegenheit“. Unrechtsbewusstsein ließ er nicht erkennen, weitere Fragen beantwortete er nicht.
Untypisch am Fall D. ist allein die hohe Anzahl seiner Uploads. Abgesehen davon ist er nur einer von unzähligen Männern im Netz, die Nacktfotos als Beute und Sammelware betrachten; sie massenhaft horten und verbreiten. Für Betroffene lässt sich kaum nachverfolgen, wo ihre Aufnahmen kursieren.
KI-Fokus wird Problem nicht gerecht
Beispiele wie der Fall D. rücken die aktuellen Debatten um bildbasierte Gewalt in ein anderes Licht. Deepfakes verstärken bildbasierte Gewalt, aber auch ohne Deepfakes ist das Ausmaß bildbasierter Gewalt enorm. Der Fokus auf das Hype-Thema KI wird dem Problem nicht gerecht. Wer nahelegt, dass bildbasierte Gewalt erst durch Deepfakes ein alarmierendes Ausmaß annehme, könnte ungewollt die Marginalisierung der Betroffenen verstärken.
Strengere und passende Gesetze, wie sie derzeit diskutiert werden, können Betroffenen lange erwartete juristische Werkzeuge an die Hand geben. Die Flut an bildbasierter Gewalt können diese Gesetze aber auch nicht stoppen. Die Wurzel des Problems dürfte weitaus tiefer liegen, und zwar in der offenkundigen Entmenschlichung von Frauen durch oftmals männliche Täter. Und damit kommen wir zu einem Begriff, der leider nicht so massenkompatibel ist wie Deepfakes. Es ist der nach wie vor bitternötige Kampf gegen: Sexismus.
Rat und Hilfe für Betroffene sexualisierter Gewalt gibt es in Deutschland bei bundesweiten Frauenberatungsstellen und Frauennotrufen, in der Schweiz bei der Frauenberatung, in Österreich beim Frauennotruf.