Datenschutz & Sicherheit

Justizminister*innen fordern mehr Schutz gegen bildbasierte Gewalt


Bildbasierte, sexualisierte Gewalt ist auf der politischen Agenda in Deutschland weiter nach oben gerückt. Anfang Juni forderten die Justizminister*innen der Bundesländer, Betroffene besser zu schützen – passend zu einer Passage aus dem Koalitionsvertrag der Bundesregierung. Damit greifen die Länder auf, was Verbände und Betroffene schon seit Jahren verlangen.

Die Forderungen lassen sich auf vier Worte herunterbrechen: Meine Nacktfotos gehören mir. Das heißt, Menschen sollten selbst darüber entscheiden dürfen, ob es sexualisierte Aufnahmen von ihnen gibt und wer sie sehen darf.

Immer wieder teilen Täter*innen solche intimen Bilder ohne das Einverständnis der abgebildeten Personen. Ein bekannter, aber problematischer Begriff dafür ist „Racheporno“. Das Phänomen ist jedoch viel größer. Es geht etwa um heimliche Videos aus der Gruppendusche, um künstlich generierte Aufnahmen (sogenannte Deepfakes) oder um gehackte oder geleakte Bilder aus einer alten Beziehung.

In ihrem Beschluss verweisen die Justizminister*innen mit „Besorgnis“ auf die „unterschiedlichen Erscheinungsformen“ bildbasierter Gewalt. Das Phänomen hätte massiv an Bedeutung gewonnen und sei zunehmend relevant geworden.

Das Problem: Das derzeit geltende Recht kenne keinen Straftatbestand, der bildbasierte Gewalt ohne weitere Voraussetzungen unter Strafe stellt. Deshalb solle die Bundesregierung handeln und „adäquate Regelungen zur Schließung der Strafbarkeitslücken“ vorschlagen, so die Justizminister*innen.

Forscherin: Regelung „aus einem Guss“ fehlt

Über die Strafbarkeitslücken für Betroffene bildbasierter Gewalt haben wir bereits mehrfach berichtet. Für sie ist es oftmals verletzend und traumatisierend, wenn Nacktfotos gegen ihren Willen kursieren, beispielweise auf Internetseiten, in WhatsApp-Chats oder auf sozialen Medien. Es geht dabei unter anderem um das Recht auf sexuelle Selbstbestimmung und ums Recht am eigenen Bild. Häufig ist es geschlechtsspezifische Gewalt gegen Frauen.

Wer sich juristisch dagegen wehren will, muss sich durch gleich mehrere Gesetze wühlen, die in vielen Fällen nicht optimal passen. Zum Beispiel schützt Paragraf 201a aus dem Strafgesetzbuch nur Aufnahmen aus einem „gegen Einblick besonders geschützten Raum“, etwa dem Wohnzimmer. Übergriffige Fotos vom Strand fallen also nicht darunter. Im Zivilrecht wiederum bieten sich Urheberrecht oder Datenschutzrecht als dürftige Hilfsmittel an – ohne den Aspekt sexueller Selbstbestimmung zu würdigen.

„Es fehlt an einer Regelung ‚aus einem Guss‘, die spezifisch bildbasierte sexualisierte Gewalt gegenüber Erwachsenen adressiert“, fasst Juristin Anja Schmidt die Rechtslage zusammen. Derzeit forscht sie als Professorin an der Leuphana Universität Lüneburg im Bereich Strafrecht.

Für die Schwere des Problems komme der Beschluss der Justizminister*innen „recht spät“, findet Schmidt, auch wenn er „sehr wichtig“ sei. Außerdem brauche es dringend Ressourcen, um in solchen Fällen überhaupt zu ermitteln.

Bislang ist kaum erforscht, wie viele Menschen zum Ziel bildbasierter Gewalt werden. Erste Hinweise liefern Studien, demnach sind es jede*r Zwölfte bis jede*r Dritte.

bff: „Lage für Betroffene oft katastrophal“

„Die Lage ist für Betroffene oft katastrophal“, schreibt Elizabeth Ávila González auf Anfrage von netzpolitik.org. Sie engagiert sich beim Bundesverband Frauenberatungsstellen und Frauennotrufe (bff) für Betroffene digitaler Gewalt. Viele wüssten nicht einmal, dass strafbar sein könnte, was ihnen passiert, erklärt González.

Unwissen gibt es der Expertin zufolge auch bei denen, die helfen sollten. Häufig wisse die Polizei nicht, nach welchen Paragrafen vorzugehen sei. Auch nicht jede Anwältin kenne sich mit der Gemengelage aus. „Das Resultat: Ein Flickenteppich, der die Täter schützt und die Betroffenen im Regen stehen lässt.“

Die Forderung der Justizminister*innen nach einer Regelung sei deshalb längst überfällig, schreibt González. „Was es braucht, ist kein weiteres Herumdoktern an bestehenden Paragrafen, sondern eine klare, eigenständige Regelung im Sexualstrafrecht, die bildbasierte sexualisierte Gewalt als das behandelt, was sie ist: eine Form geschlechtsspezifischer Gewalt mit tiefgreifenden Folgen für die Betroffenen.“

Eine solche Regelung sei nicht nur symbolisch wichtig, sondern hätte konkrete Vorteile. „Dann müssten Betroffene nicht mehr mühsam erklären, warum intime Bilder ohne ihre Einwilligung sexualisierte Gewalt sind“, sagt González. „Es wäre gesetzlich klar geregelt, was bisher nur mühsam konstruiert werden kann.“

HateAid: Bundesregierung muss „nachsteuern“

Ähnlich sieht das Josephine Ballon, Juristin bei HateAid. Die Organisation unterstützt Betroffene digitaler Gewalt juristisch und setzt sich für strengere Gesetze ein. Sie schreibt auf Anfrage von netzpolitk.org: Es gebe aktuell „keinen Straftatbestand, der eindeutig und unmissverständlich die Erstellung und Verbreitung nicht einvernehmlicher sexualisierter Bilder“ unter Strafe stelle. Stattdessen gebe es „Ausweichtatbestände“ – also einen Flickenteppich.

Ein besonderes Augenmerk legt Ballon auf nicht-einvernehmliche Deepfakes. Das ist eine Erscheinungsform bildbasierter Gewalt, die sich gerade mit der Verbreitung von sogenannter generativer KI besonders ausbreitet. Es genügt ein bekleidetes Alltagsfoto, etwa ein Profilbild aus sozialen Medien, schon können Bildgeneratoren daraus ein realistisches Nacktbild berechnen. Ende 2024 haben wir darüber berichtet, wie Online-Shops mit sexualisierten Deepfakes abkassieren.

Deepfakes tauchen ausdrücklich in einer 2024 beschlossenen EU-Richtlinie auf, die Frauen vor Gewalt schützen soll. Der Richtlinie zufolge müssen EU-Mitgliedstaaten eigene Straftatbestände für bildbasierte Gewalt vorweisen, unter anderem für Deepfakes.


2025-07-14
131
9


– für digitale Freiheitsrechte!



Euro für digitale Freiheitsrechte!

 

Genügt der deutsche Flickenteppich, um dieser EU-Richtlinie gerecht zu werden? Josephine Ballon findet: Nein. „Meiner Meinung nach wird die Bundesregierung nachsteuern müssen.“ Der Verweis auf andere Normen dürfe hier nicht ausreichen.

Bundesregierung verweist auf Koalitionsvertrag

Während sich Justizminister*innen und Fachleute schon eine Meinung gebildet haben, denkt die Bundesregierung noch nach. Auf Anfrage von netzpolitik.org teilt ein Sprecher des Bundesministeriums für Justiz und Verbraucherschutz mit, man nehme die Entwicklungen bei bildbasierter Gewalt „sehr ernst“. Mehr hat er inhaltlich jedoch nicht zu sagen. Der Sprecher verweist stattdessen auf den Koalitionsvertrag zwischen Union und SPD. Dort steht:

Wir reformieren […] Strafbarkeitslücken, zum Beispiel bei bildbasierter sexualisierter Gewalt. Dabei erfassen wir auch Deepfakes und schließen Lücken bei deren Zugänglichmachung gegenüber Dritten.

Wie genau das aussehen soll und was mit Blick auf die EU-Richtlinie geschehen muss, das werde noch geprüft.

Gründe zum Nachdenken gibt es durchaus. In Bezug auf nicht-einvernehmliche, sexualisierte Deepfakes hat die EU-Richtlinie zum Beispiel eine bedeutsame Einschränkung vorgenommen. So ist die Herstellung oder Manipulation des Bildmaterials erst dann strafbar, wenn es auch der Öffentlichkeit zugänglich gemacht wird. Wer also ein nicht-einvernehmliches, sexualisiertes Deepfake erstellt, würde sich zumindest mit Blick auf die EU-Richtlinie noch nicht strafbar machen.

Josephine Ballon geht das nicht weit genug. „Denn Inhalte auf einer Festplatte oder in der Cloud sind immer nur einen Knopfdruck, Hack oder eine Datenpanne von der Veröffentlichung entfernt“, schreibt sie. Allerdings müsse eine entsprechende Regelung verhältnismäßig sein. Klar erkennbare Satire müsse weiterhin möglich sein, so Ballon.

Gesetz müsste verschiedenen Gewaltformen gerecht werden

Erkennbarkeit – das ist ein Knackpunkt bei bildbasierter Gewalt. Denn sowohl sexualisierte Deepfakes als auch unmanipulierte Nacktfotos können mit Einverständnis entstehen. Und die Art des Einverständnisses kann sich mit der Zeit verändern.

Zum Beispiel teilen viele Menschen einvernehmlich Nacktaufnahmen miteinander, möchten aber nicht, dass Dritte das sehen. Vielleicht experimentieren sie auch einvernehmlich mit sexualisierten Deepfakes. Einige entwickeln nach dem Ende der Beziehung den Wunsch, dass Ex-Partner*innen diese Aufnahmen löschen. Wieder andere mögen es, sich nackt im Netz zu zeigen – wollen aber nicht, dass Fremde diese Bilder weiter veröffentlichen.

All das kann Unsicherheit über die mögliche Strafbarkeit von Aufnahmen schaffen. In den USA ist bei einem ähnlichen Gesetzesvorhaben, dem Take It Down Act, eine Debatte zu Overblocking entfacht. So nennt man es, wenn auch legitime Inhalte gelöscht werden.

Ein entsprechendes deutsches Gesetz müsste den verschiedenen Formen und Schattierungen bildbasierter Gewalt also gerecht werden. Sich noch lange damit gedulden wollen Fachleute allerdings nicht. Strafrechtlerin Anja Schmidt findet: „Eigentlich müsste längst ein konkreter Gesetzentwurf diskutiert werden.“



Source link

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Beliebt

Die mobile Version verlassen