Fremde, die Frauen heimlich in der Sauna filmen und die Videos ins Netz stellen. Männer, die das Handy ihrer Freundin verwanzen, um sie jederzeit orten zu können. Organisierte Gruppen, die auf sozialen Medien unliebsame Personen mit Hassnachrichten überziehen. Digitale Gewalt hat viele Facetten. Auf besondere Weise trifft sie Frauen und andere marginalisierte Gruppen.
Das Bundesjustizministerium entwirft derzeit ein „digitales Gewaltschutzgesetz“, wie Ministerin Stefanie Hubig (SPD) in mehreren Interviews angekündigt hat. Erste bekannte Bestandteile des Gesetzes sind demnach „angemessene Strafen für Deepfakes“ sowie zeitweise Sperren für Accounts, „über die immer wieder schwere Rechtsverletzungen begangen werden“.
Bereits die vorige Regierung hatte sich an einem Gesetz zu dem Thema versucht. Für dessen Eckpunkte gab es breite Kritik. Nachdem die Ampel-Regierung zerbrochen war, kam nicht mehr heraus als ein unfertiger Entwurf.
In Deutschland befassen sich mehrere zivilgesellschaftliche Akteur*innen mit digitaler Gewalt. Ihre Perspektive basiert teils auf direkter Erfahrung mit Betroffenen. Zuletzt hatten wir vor knapp drei Jahren aufgeschrieben, welche klaffenden Lücken es bei digitaler Gewalt gibt.
Die aktuellen Pläne der Regierung für einen weiteren Anlauf haben wir zum Anlass genommen, die Frage zu erneuern: Was brauchen Betroffene digitaler Gewalt am dringendsten? Hier fassen wir die Perspektiven von insgesamt acht Organisationen zusammen.
Bevor Polizei oder Justiz überhaupt relevant werden, können Betroffene zunächst bei Beratungsstellen Unterstützung finden. Davon gibt es nicht genug, wie Berater*innen regelmäßig beklagen. „Die Finanzierung für Beratungsstellen von Betroffenen muss langfristig und nachhaltig gewährleistet sein. Die Beratungsstellen brauchen qualifiziertes, gut geschultes Personal“, fasst es die Organisation das Nettz auf Anfrage von netzpolitik.org zusammen. Auch der Bundesverband der Frauenberatungsstellen und Frauennotrufe fordert „ausreichend finanzierte Unterstützungsstrukturen“.
Der Verein Frauenhauskoordinierung schlüsselt das näher auf: Einerseits brauche es mehr Personal, „weil digitale Gewalt neue Herausforderungen mit sich bringt: Es wird mehr Zeit benötigt, um zu den digitalen Dimensionen von Gewalt zu beraten, aber auch mehr Zeit, um sich das nötige Wissen anzueignen“. Weiter brauche es „Expert*innen zum Thema digitale Gewalt in jedem Frauenhaus“ und „regelmäßige Fortbildungen, damit Kenntnisse zu digitaler Gewalt im Beratungsteam aktuell sind“. Dafür brauche es trotz kommender Finanzierung durch den Bund weiter Geld von Ländern und Kommunen.
Fälle von etwa digitalem Stalking und heimlicher technischer Überwachung können viel IT-Expertise benötigen. Hierfür fordert die Initiative Ein Team gegen digitale Gewalt, Fachberatung in Einrichtungen zu verankern. „Die IT-Fachberatung könnte von einer fachkompetenten zivilgesellschaftlichen Organisation aufgebaut, vom Bundesamt für Sicherheit in der Informationstechnik unterstützt und vom Bundesministerium des Innern gefördert werden“, heißt es in einem Forderungspapier von Ende 2024, das „ein Team“ und mehr als 60 weitere Organisationen und Projekte erarbeitet haben. Das Papier „ist nicht weniger aktuell als damals“, schreibt die Initiative heute.
2. Polizei und Justiz sensibilisieren
Wollen sich Betroffene digitaler Gewalt juristisch wehren, können sie sich nicht immer darauf verlassen, dass Polizei oder Staatsanwaltschaft sie professionell behandeln. Es brauche „Schulungen für Polizei und Justiz, damit Betroffene ernst genommen werden und schnell Hilfe erhalten“, hält „Ein Team“ fest. Häufig könnten „Polizei und Gerichte mit entsprechenden Beweisen noch nicht umgehen oder erkennen sie nicht an“.
Das Nettz bekräftigt: „Justiz und Polizei brauchen spezialisiertes Personal und verpflichtende themenspezifische Fortbildung für ihre Mitarbeitenden.“ Der Verein Frauenhauskoordinierung fordert „Grundlagenwissen bei Polizei und Justiz zu digitaler (Ex-)Partnerschaftsgewalt“.
Ein konkreter Ansatz aus dem Forderungspapier von „Ein Team“ und weiteren Organisationen sind Schwerpunktstaatsanwaltschaften für digitale Gewalt. So nennt man Justizbehörden, die auf bestimmte Themen spezialisiert sind. Einrichten müssten sie die Länder. Bisher gibt es das zum Beispiel für Geldwäsche oder Bekämpfung sogenannter Kinderpornografie.
3. Vorschriften für Plattformen durchsetzen
Die Regulierung von Plattformen wie TikTok, Instagram oder X sprechen gleich mehrere Organisationen an. Der Bundesverband der Frauenberatungsstellen und Frauennotrufe kritisiert: „Digitale geschlechtsspezifische Gewalt wird durch die Marktmacht großer Techkonzerne begünstigt, weil Profit und Reichweite über Schutz gestellt werden.“ Das Nettz fordert: „Plattformen müssen mehr Verantwortung übernehmen und die existierende Regulierung konsequent umsetzen.“
In der EU gibt es das Gesetz über digitale Dienste. Sehr große Plattformen müssen demnach systemische Risiken für ihre Nutzer*innen erkennen und mindern – etwa durch Inhaltsmoderation, Meldewege oder Sicherheitsfunktionen. Sonst drohen Sanktionen. Werkzeuge zur Durchsetzung des Schutzes Betroffener digitaler Gewalt wären also vorhanden.
Allerdings gibt es Widerstand: Plattformen setzen gerade kostspielige Maßnahmen oft nur zögerlich um; die Trump-Regierung deutet Regulierung aus der EU zunehmend als Angriff. Mit Blick darauf schreibt die gemeinnützig Organisation HateAid: „Wir wünschen uns ein klares Bekenntnis der Bundesregierung zur europäischen Plattformregulierung und den unbedingten Willen, diese auch gegen den politischen Druck aus den USA durchzusetzen“.
4. Strafrecht erweitern
Mehrere Formen digitaler Gewalt sind strafbar, Betroffene können sich also vor Gericht dagegen wehren. Gerade bei bildbasierter, sexualisierter Gewalt stehen sie aber oftmals vor einem Flickenteppich. Je nachdem, was sie erlebt haben, kann eine andere Regelung greifen. Bereits im Jahr 2023 kritisierte der Deutsche Juristinnenbund den rechtlichen Schutz als „lückenhaft“, das Strafrecht „vollkommen unsystematisch“.
HateAid richtet den Fokus auf eine bestimme Form bildbasierter Gewalt und fordert, dass schon die Erstellung sexualisierter, nicht-einvernehmlicher Deepfakes strafbar sein solle. Selbst wenn die Bilder „nur auf einer Festplatte oder Cloud gespeichert werden, sind sie nur einen falschen Knopfdruck, Hackingangriff oder ein Datenleck von der Verbreitung entfernt“. Die neue EU-Richtlinie zur Gewalt gegen Frauen adressiert zwar auch die Herstellung solcher Deepfakes, knüpft die Strafbarkeit jedoch an die Verbreitung. Bei der Ausgestaltung der Regeln warnen Kritiker*innen vor möglicher Überregulierung.
Das Projekt „Ein Team“ nimmt weitere Delikte in den Blick und warnt: „Viele Formen von technikgestützter Gewalt sind bisher nicht verboten. Dazu gehört zum Beispiel das heimliche Überwachen des Aufenthaltsorts mit Bluetooth-Trackern wie Apple AirTags“. Im Forderungspapier mit anderen Organisationen fordert „Ein Team“ ein Verbot von Stalkerware – also Spionage-Apps, mit denen Täter*innen das Smartphone ihrer (Ex-)Partner*innen heimlich verwanzen, um sie umfassend zu überwachen. Gegen solche Szenarien gibt es bereits verschiedene Normen, die jedoch Schlupflöcher lassen. Laut Koalitionsvertrag sollen Hersteller solcher Apps künftig verpflichtet werden, regelmäßig das Einverständnis der Gerätebesitzer*innen abzufragen.
Auf „identifizierte Lücken im Rechtssystem“ verweist auch der Verein Weisser Ring hin und fordert, sie zu schließen.
5. Rechtsdurchsetzung für Betroffene erleichtern
Je nach Fall können Betroffene digitaler Gewalt Strafanzeige erstatten oder zivilrechtliche Ansprüche geltend machen. Das Strafrecht greift jedoch nur, wenn eine Staatsanwaltschaft ein Verfahren aufnimmt. Die Hürden dafür können unterschiedlich hoch sein. Mithilfe des Zivilrechts können Betroffene zum Beispiel erfahren, wer hinter einem Übergriff steckt (Auskunft), erreichen, dass die Angriffe aufhören (Unterlassung) oder in bestimmten Fällen Geld als Entschädigung erhalten.
„Private Rechtsdurchsetzung ist angesichts überlasteter Strafverfolgungsbehörden und der schleppenden Umsetzung von Nutzendenrechten auf Online-Plattormen ein wichtiges Instrument“, schreibt HateAid. Betroffene digitaler Gewalt könne das handlungsfähig machen, zumindest in ausgewählten Fällen.
Das Problem laut HateAid: Dieser Weg sei für Betroffene „kaum zugänglich“. Die Organisation warnt vor hohen Kosten und langen Laufzeiten der Verfahren von sechs bis zwölf Monaten. Auch der Weisse Ring fordert, dass zivilrechtliche Ansprüche klarer und zugänglicher gestaltet werden sollten.
Betroffene kann es entlasten, wenn sie ihre Rechte nicht individuell einklagen müssen. Stattdessen könnten auch Organisationen im Interesse von Betroffenen vor Gericht ziehen. Ein solches Verbandsklagerecht gibt es zum Beispiel beim Umwelt- oder Verbraucherschutz. Ein Verbandsklagerecht für digitale Gewalt wünschen sich unter anderem der Deutsche Juristinnenbund und das Projekt „Ein Team“.
6. Verdächtige einfacher ins Visier nehmen
Viele Formen digitaler Gewalt geschehen im direkten Umfeld der Betroffenen, etwa durch Ex-Partner*innen. Das heißt: Sie kennen die Täter*innen bereits. In anderen Fällen können Betroffene lange rätseln, wer überhaupt Täter*in ist. Zum Beispiel bei Drohungen und Beleidigungen auf sozialen Medien oder bei nicht-einvernehmlich geteilten Nacktfotos auf Pornoseiten.
HateAid wünscht sich Maßnahmen im Zivilrecht, die es Betroffenen leichter machen, Verdächtige zu identifizieren. Die Organisation will eine „Stärkung der gerichtlichen Auskunftsansprüche“. Damit ist gemeint, dass etwa Plattformen auf Anordnung von Gerichten Details über einen Account herausrücken sollen, der zum Beispiel Beleidigungen verschickt hat. „In der aktuellen gesetzlichen Ausgestaltung sind die Auskunftsansprüche gleichzeitig kostspielig und völlig nutzlos“, kritisiert HateAid.
Das Forderungspapier von „Ein Team“ und weiteren Organisationen warnt jedoch – an dieser Stelle mit Blick aufs Strafrecht – vor Maßnahmen, die Täter*innen aufspüren sollen. Der Grund: Sie können auch die Betroffenen und die Gesamtgesellschaft verletzlicher machen. Deshalb sollten Möglichkeiten erprobt werden, die „keine oder weniger negative Effekte haben“.
Eine konkrete Maßnahme ist die Login-Falle. Das ist ein vom Verein D64 entwickeltes Verfahren, wonach erst auf richterliche Anordnung nach einem Anfangsverdacht für eine Straftat die IP-Adresse eines Verdächtigen übermittelt wird. Eine weitere Maßnahme ist das Quick-Freeze-Verfahren, das vor allem die FDP als Alternative zur invasiven Vorratsdatenspeicherung vorangetrieben hatte.
Auch richterlich angeordnete Account-Sperren könnten Betroffene in bestimmten Fällen entlassen, indem sie potenziellen Täter*innen die Plattform nehmen. Diesen Plan hatte bereits die Ampel gefasst; unter anderem der Deutsche Juristinnenbund fordert es weiterhin.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
7. Adressen von Betroffenen besser schützen
Eine besondere Gefahr für Betroffene digitaler Gewalt sind Regelungen zur Anschrift – auch wenn das auf den ersten Blick sehr bürokratisch klingt. Wenn eine Person etwa ein Zivilverfahren wegen digitaler Gewalt anstrengt, muss sie der Regel eine Anschrift angeben, unter der sie zuverlässig erreichbar ist. Das Problem: Entsprechende Unterlagen können auch bei der Gegenseite landen. Auf diese Weise kann es passieren, dass Betroffene ausgerechnet dem Menschen, der sie bedrohen und stalkt, ihre genaue Adresse verraten.
„Die Angabe von c/o-Adressen muss bei der Geltendmachung eigener Rechte ausreichend sein“, fordert der Deutsche Juristinnenbund. Das bekräftigt auch das Forderungspapier von „Ein Team“ und anderen Organisationen: „In zivilrechtlichen Verfahren braucht es Möglichkeiten, die Anonymität Betroffener effektiv zu wahren.“
Ähnlich gelagert ist die Impressumspflicht. Wer in Deutschland eine geschäftsmäßige Website betreibt, muss eine ladungsfähige Anschrift ins Impressum schreiben. Ein Postfach oder eine c/o-Adresse reichen demnach nicht. Gerade Freiberufler*innen haben oftmals eine solche Website, aber keine separate Firmenanschrift – und stehen damit unter erhöhter Gefahr für Stalking. Der Deutsche Juristinnenbund will auch das ändern: Eine Reform der Impressumspflicht ist dem Verein zufolge „dringend notwendig“.
8. Aufklärung und Medienkompetenz ausbauen
Digitale Gewalt ist vor allem ein Fachbegriff aus Wissenschaft, Beratung und Politik. Was das genau ist, wie man sich davor schützen und dagegen wehren kann, das dürften längst nicht alle wissen. „Betroffene brauchen Schulungen, die über ihre Rechte aufklären und leicht auffindbare Wege (online und offline), wo sie sich Hilfe suchen können“, schreibt das Nettz. Ähnlich hält die gemeinnützige Organisation Superrr fest: „Zentral für den Schutz vor Gewalt ist Aufklärung und digitale Kompetenz“.
Die Fachleute von „Ein Team“ und weiteren Organisationen fordern „stärkere Sensibilisierung und Aufklärung der Gesellschaft“. Konkret könnten Bundesministerien die Präventionsarbeit fördern. Der Weisse Ring denkt bei Medienkompetenz nicht nur an Betroffene, sondern an alle. Mit „digitaler Zivilcourage“ könnten Menschen etwa gegen Hassrede vorgehen.
Wissenschaftliche Forschung zu digitaler Gewalt kann einen weiteren Beitrag zur öffentlichen Aufklärung leisten. „Wir brauchen mehr Forschung zu digitaler Gewalt, denn wir wissen immer noch zu wenig über das tatsächliche Ausmaß“, bemängelt das Nettz. Mehr Forschung verlangt etwa auch der Verein Frauenhauskoordinierung.
9. Frauen nicht isoliert betrachten
Viele Formen digitaler Gewalt betreffen Frauen. Das Thema sollte aber nicht darauf reduziert werden, wie mehrere Organisationen betonen. Digitale Gewalt müsse „immer mit weiteren Diskriminierungsformen gemeinsam gedacht werden“, schreibt das Nettz. Betroffen seien potenziell alle. „Menschen mit sichtbarem Migrationshintergrund, junge Frauen oder queere Menschen, die ohnehin diskriminiert werden, jedoch noch mal deutlich mehr.“
Was das konkret bedeuten kann, zeigen Beispiele aus dem Forderungspapier von „Ein Team“ und weiteren Organisationen: „So kann das Veröffentlichen eines Fotos ohne Kopftuch für eine kopftuchtragende muslimische Frau eine extrem gewaltsame Erfahrung sein. Für Menschen mit Behinderung sind manche Tipps zum Schutz vor digitaler Gewalt nicht umsetzbar, weil die Barrieren zu hoch sind. Für Menschen in Armut sind die Kosten zivilrechtlicher Verfahren eine Hürde, die Gegenwehr verhindert.“
Der Verein Frauenhauskoordinierung fordert die „Stärkung von intersektionalen Ansätzen im gesamten Hilfesystem“. Zudem weist der Verein darauf hin, dass Betroffene auch oft Kinder haben, die mitbedacht werden müssten. „Kinder können in die Ausübung digitaler Gewalt hineingezogen oder dafür instrumentalisiert werden“. Die Organisation Superrr wiederum erinnert daran, dass Maßnahmen auch bei der Arbeit mit Täter*innen ansetzen können.
Generell kann Täter*innenarbeit dazu beitragen, dass Menschen Gewalt gar nicht erst ausüben – oder bereits gewaltsame Menschen dabei unterstützen, ihr Verhalten zu überdenken und zu ändern.
10. Internationale Regeln gut umsetzen
Auf Bundesebene ließe sich zumindest ein Teil der Forderungen angehen; einiges betrifft jedoch Länder und Kommunen. Zwei umfassende Regelungen mit direktem Bezug zu digitaler Gewalt sind schon beschlossene Sache. Mindestens an deren Umsetzung wird sich die aktuelle Bundesregierung messen lassen müssen.
Erstens gibt es die sogenannte Istanbul-Konvention des Europarats, die Gewalt gegen Frauen verhüten und bekämpfen soll. Der Europarat ist eine von der EU unabhängige Organisationen mit 46 Mitgliedstaaten. In Deutschland ist die Konvention bereits seit 2018 in Kraft. Der Verein Frauenhauskoordinierung kritisiert: Deutschland habe die Konvention unzulänglich umgesetzt. „Nicht nur fehlen 14.000 Frauenhausplätze, sondern auch eine Gesamtstrategie zur Bekämpfung von Gewalt gegen Frauen und ein wirksames Risikomanagement gegen Femizide“.
Zweitens gibt es die neue EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen. Die Mitgliedstaaten müssen die Anforderungen bis Juni 2027 in nationales Recht überführen. Neben Vorgaben zur Unterstützung von Betroffenen sieht die Richtlinie auch Schulung und Information von Fachkräften vor – und stellt Regeln auf zur Bekämpfung bildbasierter, sexualisierter Gewalt und Deepfakes. In ihrem Forderungspapier pochen „Ein Team“ und weitere NGOs auf „zügige“ Umsetzung.
Bericht für den Bundestag: So gefährlich sind Deepfakes
Im Jahr 2020 veröffentlicht der britische TV-Sender Channel 4 eine sonderbare Weihnachtsansprache. Zu sehen ist eine Person, die man auf den ersten Blick für die (inzwischen verstorbene) Königin Elisabeth II. halten muss. Nur ihre Worte klingen zunehmend weniger royal. Schließlich besteigt die vermeintliche Queen ihren Schreibtisch und legt unter Konfetti-Regen einen TikTok-Tanz hin.
Die Auflösung der Szene zeigt Channel 4 direkt im Anschluss: Die mit vergoldetem Stuck verzierten Wände weichen einem Greenscreen. Statt der Königin kommt eine Darstellerin zum Vorschein. Schon damals nannte man die eingesetzte Tricktechnik „Deepfake“. Es geht um synthetische Darstellungen, die täuschend echt aussehen. Heute kann jeder Mensch mit öffentlichen Online-Werkzeugen solche und noch aufwendigere Inhalte selbst erstellen. Möglich machen es Bild- und Videogeneratoren, die viele als KI bezeichnen.
Die Weihnachtsansprache der falschen Queen ist nur ein Beispiel aus einem lesenswerten Bericht über die Gefahren und Potenziale von Deepfakes, den Forschende im Auftrag des Bundestags erstellt haben. Das im Januar veröffentlichte Papier kommt aus dem Büro für Technikfolgen-Abschätzung. Es berät das Parlament in Fragen von Wissenschaft und Technik mit nach eigener Aussage unparteiischen Analysen.
Auf 46 Seiten buchstabieren die Forschenden aus, was mit Deepfakes alles möglich ist; wo sie Schaden anrichten oder Gutes bewirken können. Teils sehen die Forschenden Bedarf für strengere Regulierung, teils machen sie aber auch klar: Mit Gesetzen allein kommt man nicht weiter. Die Zusammenfassung.
Deepfakes: Das sind die Gefahren
Deepfakes können „sowohl für böswillige als auch für wohlmeinende Zwecke angewendet werden“, schreiben die Forschenden. Mindestens vier konkrete Risiken lassen sich aus dem Bericht zusammenfassen.
Nicht-einvernehmliche, sexuelle Aufnahmen: Mit Deepfake-Technologie können Menschen beliebige Gesichter fotorealistisch in Pornos montieren; sie können Kleider in Aufnahmen durch nackte Körper ersetzen – oder gänzlich neue Aufnahmen generieren. Die Forschenden schätzen: Dieses Phänomen ist das häufigste. Betroffen seien „fast ausschließlich“ Frauen. Sie würden bloßgestellt, herabgewürdigt, eingeschüchtert und erpresst. Diese Fälle seien nicht als individuelle Übergriffe zu werten, sondern hätten gesellschaftliche Auswirkungen, „indem sie die Gleichstellung von Frauen im öffentlichen, digitalen Raum angreifen“.
Politische Manipulation: In einem Deepfake-Video aus dem Jahr 2022 hatte ein vermeintlicher Präsident Selenskyj die Kapitulation der Ukraine vor dem Aggressor Russland erklärt. Mit diesem Beispiel illustrieren die Forschenden die Gefahr von politisch motivierten Deepfakes. Sie können auf die öffentliche Meinungsbildung abzielen oder Unruhen anheizen. Bereits der Verdacht, dass eine Aufnahme gefälscht ist, könne „den gesellschaftlichen Zusammenhalt destabilisieren“. Nennenswerte Auswirkungen hätten solche politischen Deepfakes allerdings noch nicht gehabt, „trotz vieler Fälle insbesondere im Kontext von Wahlkämpfen“.
Gefälschte Aussagen und Beweise: Immer wieder dienen Kamerabilder als Beweise vor Gericht. Aber Deepfakes „stellen grundlegend die Glaubwürdigkeit von Bild-, Ton- und Videodokumenten in juristischen Verfahren infrage“, warnen die Forschenden. Durch vermeintliches Beweismaterial könnten Menschen auch unberechtigt in Verdacht geraten. Als weiteres Problem nennen die Forschenden virtuelle Gerichtsverhandlungen. Hier sei das Risiko erhöht, dass eine per Video zugeschaltete Person ein Deepfake ist.
Betrug: Mit Deepfakes können Kriminelle Gesichter und Stimmen imitieren und sich als jemand anderes ausgeben. Die Forschenden schreiben von einer „neuen Form des Enkeltricks“. Als Beispiel nennen sie einen britischen Fall aus dem Jahr 2019: Die Führungskraft eines Unternehmens hatte 220.000 Euro auf ein ungarisches Konto überwiesen, weil der vermeintliche Chef per Telefon darum gebeten hatte.
Deepfakes: Das sind die Potenziale
Deepfakes sind ambivalent. Mindestens fünf Einsatzmöglichkeiten beschreiben die Forschenden in ihrem Bericht als positiv, einige aber mit ethischen Bedenken.
Medien: „Deepfakes sind ein neues Werkzeug, um der eigenen Kreativität Ausdruck zu verleihen“, schreiben die Forschenden. Möchte man etwa Filme in andere Sprachen übersetzen, lassen sich mit Deepfakes die Lippenbewegungen anpassen. Gealterte Darsteller*innen können jüngere Versionen von sich selbst verkörpern. Das werfe allerdings die Frage auf, ob es Filme mit bereits verstorbenen Schauspieler*innen geben dürfe. Satirische Deepfakes wiederum könnten „durch humoristische Kritik“ Debatten anstoßen. In journalistischen Videos könnten Deepfakes Quellen verfremden, die anonym bleiben wollen.
Bildung: Für TV-Dokus stellen Medienmacher*innen gerne historische Szenen nach. Deepfakes könnten wichtige Persönlichkeiten oder Ereignisse der Zeitgeschichte besonders eindrücklich erfahrbar machen, schreiben die Forschenden. In der beruflichen Bildung wiederum können Lehrkräfte mithilfe von Deepfakes gefährliche Situationen besser simulieren.
Gesundheit: Diese Anwendungsfälle werden gerade noch erforscht, heißt es im Bericht. Zum Beispiel könnten Menschen, die nach einer OP nicht mehr wie zuvor sprechen können, ihre Stimme synthetisch erzeugen lassen. Auch würden Wissenschaftler*innen diskutieren, ob Deepfakes Menschen dabei helfen können, bestimmte Traumata zu verarbeiten.
Verdeckte Ermittlungen: Auf ethisch und juristisch dünnem Eis bewegen sich mehrere Anwendungsfälle für die Polizei. Schon heute darf sich die Polizei mit künstlich erzeugten Aufnahmen sogenannter Kinderpornografie Zutritt zu Netzwerken von Pädokriminellen verschaffen – obwohl der Besitz dieses Materials strafbar ist. Deepfake-Technologie macht es zunehmend einfacher, solche Darstellungen zu generieren. Darüber hinaus diskutieren Behörden, ob sie Deepfakes für verdeckte Ermittlungen einsetzen können. Konkret könnten Beamt*innen dem Bericht zufolge die Stimme von Menschen aus dem Umfeld eines Verdächtigen imitieren. „Nach derzeitiger Rechtslage ist ein solches Vorgehen in Deutschland allerdings nicht möglich“, schreiben die Forschenden.
Öffentliche Kommunikation der Polizei: Mit Deepfake-Technologie kann die Polizei Fotos von Vermissten bearbeiten, die inzwischen älter aussehen müssten, wie die Forschenden erklären. Auch bei öffentlichen Aufrufen könnten Deepfakes zum Einsatz kommen. Als Beispiel nennt der Bericht ein Video der niederländischen Polizei aus dem Jahr 2022: Darin bittet ein per Deepfake animierter, getöteter Jugendlicher die Öffentlichkeit um Hinweise auf seinen eigenen Tod. Ethische Bedenken äußern die Forschenden an dieser Stelle nicht.
Das schützt schon heute vor Deepfakes
Das eine Anti-Deepfake-Gesetz gibt es nicht, stattdessen aber ein Bündel an Regulierungen je nach Art des Deepfakes. Teils unterscheiden sich die Vorschriften in Deutschland, Europa und anderen Ländern der Welt.
Nicht-einvernehmliche, sexuelle Deepfakes sind in der EU strafbar, zumindest, wenn Menschen sie verbreiten. Das verlangt die neue Richtlinie zur Bekämpfung von Gewalt gegen Frauen, die Mitgliedstaaten wie Deutschland noch umsetzen müssen. In den USA reguliert der Take It Down Act das Phänomen. Das aktuelle deutsche Strafrecht bietet generell für betroffene bildbasierter Gewalt noch einen Flickenteppich an Regelungen.
Deepfakes von Politiker*innen im Vorfeld von Wahlen sind in einigen US-Bundesstaaten reguliert, wie der Bericht ausführt. Konkret geht es um Deepfakes, die „darauf abzielen, den Ruf eines Kandidaten zu schädigen oder das Ergebnis einer Wahl zu beeinflussen“; ausdrücklich ausgenommen sind demnach Parodie und Satire.
Eine Kennzeichnungspflicht von Deepfakes steht in der KI-Verordnung (AI Act) der EU. Anbieter von KI-Systemen müssen demnach dafür sorgen, dass KI-Erzeugnisse einen maschinenlesbaren Hinweis verpasst bekommen. Die Maßnahmen werden jedoch als „ineffektiv und nicht ausreichend“ erachtet. Selbst korrekt gekennzeichnete Inhalte würden viele Leute erreichen.
Meldeverfahren und Moderation bei rechtswidrigen Inhalten schreibt in der EU das Gesetz über digitale Dienste (DSA) vor, und betrifft damit auch rechtswidrige Deepfakes. Kritik gibt es aber bei der Umsetzung: So schreibe das Gesetz keine konkreten Fristen dafür vor, wie schnell Anbieter reagieren müssen.
Das deutsche Zivilrecht gibt Betroffenen von Deepfakes je nach Fall verschiedene Mittel an die Hand. Zum Beispiel schützt das allgemeine Persönlichkeitsrecht das Recht am eigenen Bild, den Schutz der persönlichen Ehre – oder „das Recht, von der Unterschiebung nicht getätigter Äußerungen verschont zu bleiben“, führen die Forschenden aus. All das kann bei nicht-einvernehmlichen Deepfakes relevant sein. Die Krux ist hier eher: Betroffene haben es schwer, ihre Ansprüche vor Gericht durchzusetzen.
Das deutsche Strafrecht erfasst mehr als nicht-einvernehmliche sexuelle Deepfakes. Wenn Deepfakes zum Beispiel genutzt werden, um Menschen Geld aus der Tasche zu ziehen, kann Betrug in Frage kommen. Erstellen Kriminelle per Deepfakes kompromittierendes Material und drohen mit dessen Veröffentlichung, können das Erpressung oder Nötigung sein, wie der Bericht ausführt.
Das sind die Lücken beim Schutz vor Deepfakes
Das Wort „Lücken“ taucht im Bericht insgesamt acht Mal auf. Die Forschenden machen aber auch klar, dass die gestückelte Regulierung von Deepfakes einen tieferen Sinn hat: Das deutsche Rechtssystem ist nämlich technologieneutral. Das heißt, es orientiert sich nicht an bestimmten Technologien wie Deepfakes, sondern an Rechtsgütern wie Datenschutz, Ehre oder dem Recht am eigenen Bild.
Manches wiederum lässt sich nicht mit Gesetzen lösen. Das zeigen zumindest einige der offenen Baustellen, die aus dem Bericht hervorgehen.
Im deutschen Strafrecht erkennen die Forschenden Lücken im Kontext von nicht-einvernehmlichen sexuellen Deepfakes. Hier müsse die EU-Richtlinie, die deren Verbreitung unter Strafe stellt, „noch in nationales Recht umgesetzt werden“.
Die Durchsetzung des Rechts kann dem Bericht zufolge daran scheitern, dass Ermittler*innen schlicht nicht wissen, welche Behörde zuständig ist. „Deepfakes können global verbreitet werden, ihre Bekämpfung erfordert daher regelmäßig eine internationale Zusammenarbeit“, so der Bericht.
Beim Schutz vor Diskriminierung sehen die Forschenden eine weitere Lücke. So könnten KI-generierte Darstellungen Stereotype von Geschlechtern darstellen oder rassistische Annahmen reproduzieren. Konkretes Beispiel aus dem Bericht: wenn KI-generierte „Terroristen“ stets „männlich“ sind und eine „dunkler Hautfarbe“ hätten. Zwar ist der Schutz vor Diskriminierung auch in der EU gesetzlich verankert; in der Praxis gebe es bei entsprechenden Deepfakes aber kaum Handhabe, wie aus dem Bericht hervorgeht.
Zuverlässig erkennen lassen sich Deepfakes nicht. Zwar entwickeln Forschende zunehmend bessere Software dafür, doch im Gegenzug lassen sich auch KI-Systeme gezielt darauf trainieren, Deepfake-Detektoren zu täuschen. Das Ergebnis ist ein „Katz-und-Maus-Spiel“, schreiben die Forschenden. „Detektoren erweisen sich daher in ihrer Effektivität als zeitlich begrenzt und laufen den Weiterentwicklungen von Deepfakes stets hinterher.“
Mehr öffentliche Aufklärung über Fälle von schädigenden Deepfakes ist laut Bericht eine Gegenmaßnahme, „um die Aufmerksamkeit für das Problem zu erhöhen und Schutzmaßnahmen zu verbessern“. An dieser Stelle gehen die Forschenden allerdings nicht darauf ein, dass Berichte über Deepfakes auch deren Reichweite erhöhen.
Standards und Regeln im Umgang mit KI-generierten Inhalten sind eine weitere Option, so die Forschenden. Das betreffe etwa Parteien und Medien. „Auf diese Weise kann die Grenze zwischen kreativen und gefahrlosen und schädigenden Anwendungen deutlich gemacht werden.“
Anonymisierendes Linux: Tails 7.5 mit sichererem Thunderbird
close notice
This article is also available in
English.
It was translated with technical assistance and editorially reviewed before publication.
.
Die Linux-Distribution Tails, die zum anonymen Surfen im Netz dient, ist in Version 7.5 erschienen. Auffälligste Neuerung ist die Auslagerung des Mailprogramms Thunderbird in ein externes Paket. Das dient der besseren Sicherheit.
Weiterlesen nach der Anzeige
Das schreiben die Tails-Maintainer in der Versionsankündigung zu Fassung 7.5 der anonymisierenden Linux-Distribution. Zentrale Softwarepakete bringen die Programmierer damit auf den aktuellen Stand. So ist der Tor-Browser nun in Version 15.0.7 dabei, der Tor-Client hingegen auf Stand 0.4.9.5.
Tails: Sichererer E-Mail-Client
Thunderbird kommt zwar in der Fassung 140.7.1 mit, allerdings installiert Tails den Mail-Client nun als Zusatzsoftware, um seine Sicherheit zu verbessern. Dazu müssen die Features „Thunderbird Email Client“ und „Zusätzliche Software“ beim persistenten Speicher aktiviert sein. Dadurch installiert Tails bei jedem Start den Thunderbird neu aus dem persistenten Speicher. Als Grund nennen die Entwickler, dass Mozilla stets neue Thunderbird-Versionen veröffentlicht hat, nur wenige Tage nach dem Release neuer Tails-Versionen. Dadurch war Thunderbird fast ständig nicht mehr aktuell und enthielt bekannte Sicherheitslücken.
Das Problem löst das stets aktuelle Installationspaket im persistenten Speicher. Nach der Installation zeigt Tails einen Dialog mit dem Titel „Thunderbird Migration“ an. Dort findet sich auch der Hinweis, dass Thunderbird mit Tails 7.8, das im Mai 2026 erwartet wird, nicht mehr länger als Standard-Software mitgeliefert wird.
Aktualisierte Tails-Images
Wie üblich stellt das Tails-Projekt einmal Abbilder zum Verfrachten der Distribution auf USB-Sticks und einmal ISO-Images zum Brennen auf DVD oder Testen in virtuellen Maschinen bereit. Mit solch einem USB-Stick oder einer DVD lassen sich etwa fremde Rechner starten, sodass darauf eine vertrauenswürdige Umgebung zum Surfen im Netz läuft. Mit dem persistenten Speicherbereich auf dem Stick lassen sich dann auch Daten mitnehmen, die Neustarts überdauern.
Weiterlesen nach der Anzeige
Mitte Februar haben die Tails-Entwickler die Version 7.4.2 als Notfall-Update herausgegeben. Darin haben sie insbesondere den Linux-Kernel aktualisiert, wodurch mehr als hundert Schwachstellen darin ausgebessert wurden. Die hätten Angreifer in Kombination mit anderen Sicherheitslücken etwa zur Deanonymisierung von Nutzern und Nutzerinnen missbrauchen können.
EU soll „vollständig und endgültig“ auf Chatkontrolle verzichten
Auch Inhalte von verschlüsselten Messengern wie Signal und WhatsApp sind im Fokus der Chatkontrolle. – Alle Rechte vorbehalten IMAGO / photothek
Die EU-Gesetzgeber sollen in den Trilog-Verhandlungen zur CSA-Verordnung vollständig und endgültig auf eine Chatkontrolle verzichten. Das fordern die unabhängigen Datenschutzbehörden aus Bund und Ländern.
Die Datenschutzkonferenz appelliert in einer Stellungnahme (PDF) an die Verhandelnden, von der Massenüberwachung privater Chats per Aufdeckungsanordnungen, dem flächendeckenden Scannen privater Nachrichten und einem Durchbrechen der Ende-zu-Ende-Verschlüsselung ohne Ausnahme abzusehen.
„Hintertüren in der Verschlüsselung gefährden die Sicherheit der Kommunikation aller Bürgerinnen und Bürgern und könnten auch von Kriminellen ausgenutzt werden“, so die Datenschützer:innen. Zu den Gefahren für eine Ende-zu-Ende-Verschlüsselung zählen die Datenschützer auch das Client-Side-Scanning, bei dem Inhalte vor dem Verschlüsseln auf dem Endgerät durchsucht werden.
Generell dürfe eine Überwachung privater Kommunikation nur gezielt und bei einem konkreten Verdacht zum Einsatz kommen, so die Datenschutzkonferenz. Auch ein Ziel wie die Verhinderung und Verfolgung von sexuellem Missbrauch von Kindern rechtfertige keinen Generalverdacht gegen Millionen von Bürger:innen. Die Aufsichtsbehörden begründen dies unter anderem mit dem Recht auf Vertraulichkeit der Kommunikation und dem Recht auf informationelle Selbstbestimmung.
Erste Einigungen im Trilog
Ein Großteil der Trilog-Verhandlungen passiert auf Arbeitsebene. Gestern fand die zweite Verhandlung auf politischer Ebene statt. Laut Tagesspiegel Background Digitalisierung (€) haben sich Rat und Parlament „vorläufig auf eine Reihe politisch sensibler Fragen geeinigt“, die Informationen sind aber vage. Bisher ging es vor allem um das EU-Zentrum gegen Kindesmissbrauch, nicht direkt um die Chatkontrolle. Die dritten politischen Trilog-Verhandlungen sind für den 11. Mai angesetzt.
Der Trilog ist im EU-Gesetzgebungsverfahren der Abschnitt, in dem EU-Kommission, EU-Parlament und der Rat ihre vorher gefundenen Positionen zusammen verhandeln und eine finale Version des Gesetzestextes erarbeiten, die dann später dem Europaparlament zur Abstimmung gegeben wird. Der Trilog ist erfahrungsgemäß eine intransparente Phase des Gesetzgebungsprozesses, in dem noch viel passieren kann. Wer im Trilog, welche Verhandlungspositionen vertritt und was die strittigen Punkte sind, haben wir in diesem Erklär-Artikel beschrieben.