Connect with us

Datenschutz & Sicherheit

Konservative scheitern mit Verfahrenstrick bei freiwilliger Chatkontrolle


Das EU-Parlament hat mit breiter Mehrheit eine Vorlage der EU-Kommission für die Verlängerung der freiwilligen Chatkontrolle abgelehnt. Die konservative EVP-Fraktion hatte in einem ungewöhnlichen parlamentarischen Verfahren eine erneute Abstimmung über das Thema erzwungen – und ist damit nun gescheitert.

Das ganze Verfahren war umstritten. Die Konservativen im Europa-Parlament hatten nach einem grundrechtsfreundlichen Abstimmungsergebnis eine neuerliche Abstimmung angesetzt und dabei die Regeln des Europaparlaments aufs Äußerste ausgereizt. Zuvor hatte das Parlament am 11. März eine Abkehr von der anlasslosen Massenüberwachung bei der Chatkontrolle 1.0 beschlossen und Maßnahmen nur noch auf Verdacht erlaubt. Daraufhin hatte der Rat der EU die Trilog-Verhandlungen zum Thema sehenden Augen scheitern lassen, wie eingestufte Protokolle, die netzpolitik.org veröffentlicht hat, belegen.

In der heutigen Abstimmung wurden die Änderungsanträge 29 (Ratsposition, eingereicht durch EVP), 34 (Beschränkung auf bekanntes Material) und 36 (Schutz von Ende-zu-Ende-Verschlüsselung) vom Parlament angenommen, der Vorschlag der EU-Kommission scheiterte jedoch deutlich.

Da eine erneute Abstimmung ein sehr seltenes Phänomen ist, ist nun unklar, ob es in dieser Sache zu erneuten Trilog-Verhandlungen zwischen Parlament, Rat und Kommission kommt. Sicher ist in jedem Fall, dass die erste Lesung damit abgeschlossen ist und die freiwillige Chatkontrolle 1.0 Anfang April ausläuft, weil sie ohne gesetzliche Grundlage nicht weitergeführt werden kann.

„Druck, Schmutz und Fake-Behauptungen“

Vor der Abstimmung hatte sich die verantwortliche sozialdemokratische Abgeordnete Birgit Sippel mit deutlichen Worten an das Parlament gewendet. Das Parlament habe vor zwei Wochen mit breiter Mehrheit eine Position abgestimmt, die Verantwortung für Kinder und Grundrechte gleichermaßen annehme.

Mit dieser Position sei das Parlament in die Trilog-Verhandlungen gegangen, wo der Rat sich einer Auseinandersetzung entzogen habe, ja „nicht am Verhandlungstisch angekommen“ sei. Sie kritisierte auch, wie im Vorfeld der Neu-Abstimmung Druck aufgebaut und mit Schmutz und Fake-Behauptungen“ geworfen worden sei.

Im Vorfeld der heutigen Abstimmung hatte sich sogar Bundeskanzler Merz im Bundestag für eine anlasslose Chatkontrolle stark gemacht, der EU-Justizkommissar mahnte in einem Schreiben an die EU-Abgeordneten, das Politico zuerst im Original veröffentlichte, für anlasslose Überwachung zu stimmen.

In einer Pressemitteilung kurz vor der Abstimmung hatte die EVP die Sozialdemokratische Fraktion aufgefordert, für ihren Vorschlag zu stimmen, weil sonst die EU angeblich ihre Fähigkeit zur wirksamen Bekämpfung von Kindesmissbrauch im Internet verlieren würde.

Grüne kritisieren Verfahrenstricks

Markéta Gregorová, die Schattenberichterstatterin der Fraktion der Grünen/EFA kommentierte in einer Pressemitteilung die Neu-Abstimmung kritisch, sie schade der Glaubwürdigkeit des Parlaments. „Die EVP nutzt Verfahrenstricks, um einen Standpunkt wieder aufzugreifen, auf den sich das Parlament bereits geeinigt hatte.“ Nachdem die Gespräche mit dem Rat gescheitert waren, hätte das Dossier von der Tagesordnung gestrichen werden müssen, so Gregorová weiter. Dieser Antrag war aber abgelehnt worden.

„Stattdessen haben die Konservativen es in seiner ursprünglichen Form wieder auf die Tagesordnung gesetzt, um die Änderungsanträge des Parlaments zu umgehen und die wahllose Massenüberwachung im Spiel zu halten.“ Gregorová sieht den Vorgang als „gefährliches Signal“, dass demokratische Entscheidungen rückgängig gemacht werden können, wenn Regierungen einfach lange genug warten.

Vorbote für die permanente Chatkontrolle?

Die Chatkontrolle 1.0 ist eine Übergangsregelung, die seit 2021 in Kraft ist und Anfang April ausläuft. Sie regelt, dass Plattformen und Internet-Anbieter auf freiwilliger Basis entgegen der EU-Privacy-Richtlinie Inhalte und Kommunikation nach Bildern von sogenanntem Kindesmissbrauch (CSAM) scannen dürfen.

Ungleich wichtiger ist die CSA-Verordnung, welche auch die verpflichtende Chatkontrolle 2.0 enthalten könnte, über die seit vier Jahren gestritten wird. Durch ein eingestuftes Ratsprotokoll vom 13. März, das wir im Volltext veröffentlicht haben, wurde deutlich, dass die EU-Mitgliedstaaten Kompromisse bei der temporären freiwilligen Chatkontrolle 1.0 offenbar als eine Art Vorentscheidung für die weitaus wichtigeren Verhandlungen zur CSA-Verordnung und damit für eine permanente Regelung (Chatkontrolle 2.0) sehen.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Knackpunkt bei der CSA-Verordnung ist die verpflichtende Chatkontrolle. Der EU-Kommission möchte, dass dabei auch verschlüsselte Kommunikationen durchleuchtet werden. Das Parlament hat dies bisher abgelehnt und Maßnahmen nur auf Verdacht gefordert. Auch im EU-Rat hat die anlasslose Chatkontrolle bislang keine qualifizierte Mehrheit gefunden. Die drei Institutionen sind derzeit im Trilog und verhandeln über die Verordnung.

Für die Chatkontrolle nach Wunsch der EU-Kommission wäre Technologie namens Client-Side-Scanning nötig, welche vor der Verschlüsselung Inhalte auf dem Handy oder Computer scannt. Wäre diese Technologie einmal eingeführt, ist verschlüsselte Kommunikation wertlos, weil die Inhalte schon vor dieser angeschaut werden könnten. Es wäre das Ende der privaten und vertraulichen Kommunikation. Wir haben zusammengestellt, warum dies für uns alle gefährlich ist.

„Gier nach anlassloser Massenüberwachung war zu groß“

Konstantin Macher vom Verein Digitale Gesellschaft kommentiert die Abstimmung gegenüber netzpolitik.org: „Rat und Konservative haben mit ihren politischen Tricksereien das Scheitern der Verhandlungen zu verantworten. Damit haben sie unabsichtlich die Chatkontrolle-Massenüberwachung beendet. Zielgerichtete Maßnahmen wären möglich gewesen – aber ihre Gier nach anlassloser Massenüberwachung war zu groß.“

Das Ergebnis sei „eine Klatsche“ für die Europäische Kommission. Diese habe die Abgeordneten von Anfang an nicht ernst genommen und ihre gesetzlichen Pflichten zur Evaluation der Ausnahmeregelung nicht erfüllt.

„Mitgliedstaaten zeigten keinerlei Flexibilität“

Die Konservativen (EVP) werfen in einer Pressemitteilung nun den Sozialdemokraten vor, sie seien schuld daran, dass Kinder nun ungeschützt seien. Die Sozialdemokratin Birgit Sippel hingegen schreibt in einer Pressemitteilung, dass die Verhandlungen zwischen den Institutionen zuletzt „aufgrund der mangelnden Flexibilität der Mitgliedstaaten“ gescheitert seien. Das Parlament lasse sich nicht vom Co-Gesetzgeber zum Ja-Sager degradieren. Die Konservativen seien in ihrer Rolle als fügiger Erfüllungsgehilfe des Rates gescheitert.

Für eine vertrauensvolle Zusammenarbeit seien Kompromisse nötig, so Sippel: „Wir waren dazu bereit, die Verhandler von Seiten der Mitgliedstaaten zeigten jedoch keinerlei Flexibilität. Sie sind es, die die Gespräche ohne Ergebnis beendet haben und nun in Kauf nehmen, dass die Interim-Verordnung nicht verlängert wird.“



Source link

Datenschutz & Sicherheit

Schadcode-Lücke bedroht IBM App Connect Enterprise und IBM Integration Bus


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Integrationssoftware für unter anderem Geschäftsinformationen IBM App Connect Enterprise und IBM Integration Bus for z/OS sind über eine Softwareschwachstelle angreifbar. Schadcode kann Systeme kompromittieren.

Weiterlesen nach der Anzeige

Davor warnen die Entwickler in einem Beitrag. Im Zuge einer Directory-Traversal-Attacke (CVE-2026-67030 „hoch“) können Angreifer auf eigentlich abgeschottete Daten und Verzeichnisse zugreifen, um Schadcode abzuladen und auszuführen. Bislang gibt es keine Berichte, dass Angreifer die Sicherheitslücke schon ausnutzen.

Die Entwickler geben an, dass davon die folgenden Versionen bedroht sind: IBM App Connect Enterprise 12.0.1.0 bis 12.0.12.24 und 13.0.1.0 bis 13.0.7.0 und IBM Integration Bus for z/OS 0.1.0.0 bis 10.1.0.6. Die Lücken seien in den folgenden Ausgaben geschlossen:

  • IBM App Connect Enterprise v12- Fix Pack Release 12.0.12.25
  • IBM App Connect Enterprise v13- Fix Pack Release 13.0.7.1
  • IBM Integration Bus for z/OS v10.1 – Fix Pack Release 10.1.0.7


(des)



Source link

Weiterlesen

Datenschutz & Sicherheit

Debian macht ernst: Nur noch reproduzierbare Pakete in „testing“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Debian verschärft für die kommende Version 14 („Forky“) seine Qualitätsanforderungen deutlich: Pakete dürfen nur noch dann nach „testing“ wandern, wenn sie sich reproduzierbar bauen lassen. Das hat das Debian-Release-Team angekündigt. Die entsprechende Migrationslogik ist bereits aktiv. Sie betrifft sowohl neue Pakete, die sich nicht reproduzieren lassen, als auch bestehende Pakete, deren Reproduzierbarkeit sich verschlechtert hat.

Weiterlesen nach der Anzeige

Reproduzierbare Pakete („reproducible builds“) erzeugen aus identischem Quellcode und in gleicher Build-Umgebung bit-identische Binärpakete. Damit werden Build-Prozesse nachvollziehbar und manipulationssicher. Unterschiede zwischen zwei Builds lassen sich so eindeutig auf echte Änderungen oder mögliche Manipulationen zurückführen.

Nicht reproduzierbare Builds entstehen oft durch banale Faktoren: Zeitstempel, zufällige Build-IDs oder eine nichtdeterministische Reihenfolge von Dateien. Zwei Builds desselben Quellcodes können dadurch unterschiedliche Binärdateien erzeugen, obwohl sich funktional nichts geändert hat. Reproducible Builds eliminieren solche Unterschiede systematisch, etwa durch normierte Zeitstempel oder ein deterministisches Packaging.

Debian arbeitet bereits seit Jahren mit dem Reproducible-Builds-Projekt an entsprechenden Mechanismen. Neu ist, dass Reproduzierbarkeit nicht mehr nur als Qualitätsziel gilt, sondern direkt über die Paketmigration nach „testing“ entscheidet. Damit macht die Distribution reproduzierbare Builds faktisch zur Voraussetzung für den regulären Release-Prozess. Den aktuellen Reproduzierbarkeitsstatus aller Pakete listet reproduce.debian.net auf.

Parallel baut Debian seine automatisierten Tests aus. Laut Release Team prüft die CI-Infrastruktur inzwischen auch sogenannte binNMUs automatisch mit autopkgtests. Dabei handelt es sich um reine Neuübersetzungen von Binärpaketen ohne Änderungen am Quellcode, etwa nach ABI-Übergängen oder neuen Bibliotheksversionen. Bislang lag der Fokus der Tests vor allem auf klassischen Source-Uploads.

Weiterlesen nach der Anzeige

Die neue Architektur loong64 sorgt derzeit vor allem für längere Warteschlangen in Debians Build- und Testinfrastruktur. Weil viele Pakete auf allen Architekturen neu gebaut werden mussten und Debian nun auch binNMUs per autopkgtest prüft, dauert die Migration nach „testing“ derzeit länger.

Zugleich erinnert Debian die Maintainer daran, dass sie selbst für die erfolgreiche Migration ihrer Pakete nach „testing“ verantwortlich bleiben. Blockieren fehlgeschlagene autopkgtests in Reverse-Dependencies die Migration, sollen die Maintainer entsprechende Release-Critical-Bugs melden.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Datenschutz & Sicherheit

„Gemeinsam kämpfen“: Das sagen Pornodarsteller*innen zur Deepfake-Flut


Ana Ornelas hat viel zu tun in diesen Monaten. Sie ist Policy Officer für die European Sex Workers’ Rights Alliance, einem Netzwerk für die Rechte von Sexarbeiter*innen, und spricht mit EU-Abgeordneten über die Regulierung von KI. In Workshops informiert sie ihr Netzwerk über geplante Alterskontrollen im Netz. Und im Auftrag von AlgorithmWatch untersucht sie, wie Sexarbeiter*innen von sogenannten Nudifier-Apps betroffen sind. Mit diesen Apps können Nutzer*innen Aufnahmen manipulieren, sodass eine abgebildete Person nackt wirkt.

Es geht also um sexualisierte Deepfakes und um digitale Gewalt: Themen, über die in den vergangenen Wochen in Deutschland sehr viel gesprochen wurde. In den Tagen nach der Veröffentlichung einer Spiegel-Recherche zum Fall der Schauspielerin Collien Fernandes meldeten sich viele weitere Betroffene, etwa die Klimaaktivist*innen Luisa Neubauer und Theresia Crone. Im aktuellen Fall von Fernandes geht es zwar nicht um Deepfakes, sondern um Fake-Accounts, die ihr Ex-Mann erstellt haben soll – das haben später auch die Anwälte von Christian Ulmen klargestellt. Da war die Debatte zum Thema aber schon im vollen Gange.

Ob bei Caren Miosga oder in den Tagesthemen, plötzlich ging es vielerorts um digitale Gewalt und die Pläne der Bundesregierung für ein neues Gesetz, das unter anderem das Erstellen von sexualisierten Deepfakes unter Strafe stellen soll.

Wer dabei kaum zu Wort kam: Pornodarsteller*innen. Dabei spielen sie eine zentrale Rolle. Würden ihre Aufnahmen nicht als sogenanntes Trainingsmaterial für KI-Systeme genutzt, ließen sich sexualisierte Deepfakes gar nicht erst erstellen. Ihre Zustimmung dafür haben sie ebenso wenig erteilt wie die Betroffenen, deren Gesichter nun in den Deepfakes zu sehen sind. Zugleich werden Pornodarsteller*innen ebenfalls zum Ziel nicht-einvernehmlicher Deepfakes, berichtet Ana Ornelas im Interview mit netzpolitik.org.

Selbstbestimmung verletzt

netzpolitik.org: Für manche sexualisierte Deepfakes montieren Nutzer*innen das Gesicht einer Person in eine bereits existierende Pornoszene. Was heißt das für die ursprünglichen Darsteller*innen?

Ana Ornelas: Das ist einerseits nichts Neues. Es gab früher schon viele Pornoseiten, die die Gesichter von Prominenten auf die Körper von Pornostars montiert haben. Aber mit der heutigen Technologie wirkt das Ergebnis viel realistischer. Es ist teils nicht mehr zu unterscheiden, was echt ist und was gefälscht.

Darsteller*innen werden dadurch doppelt zum Opfer. Erstens wird, wie bei allen anderen Betroffenen auch, ihr Bild und ihr Körper auf eine Weise genutzt, der sie nicht zugestimmt haben. Und zweitens ist es Diebstahl. Für Pornodarsteller*innen sind ihr Körper und die Inhalte, die sie damit produzieren, ihr Lebensunterhalt. Wenn diese Inhalte gestohlen oder kopiert werden, um Deepfakes zu erstellen, hat das direkte Auswirkungen auf ihr Einkommen.

netzpolitik.org: Wie das?

Ana Ornelas: Menschen erstellen etwa Deepfake-Versionen von bekannten Darsteller*innen und geben sich auf OnlyFans oder in Telegram-Kanälen als diese aus. Da geht es schlicht um Geld, sie wollen selbst an den Inhalten verdienen und schädigen damit das Geschäft.

netzpolitik.org: Consent – also Einverständnis – spielt in der Pornobranche eine große Rolle: Mit wem man arbeitet, welche Art von sexuellen Handlungen stattfindet, wer das Material verbreiten darf. Deepfakes unterwandern dieses Prinzip, weil sie meist ohne Zustimmung entstehen. Was bedeutet das für Darsteller*innen?

Ana Ornelas: Nur weil man Nacktbilder von sich im Internet hat, heißt das noch lange nicht, dass damit alles erlaubt wäre. Vielleicht stimmt eine Darsteller*in einer bestimmten sexuellen Handlung zu, aber zeigt diese nur hinter einer Paywall oder schickt sie direkt an Kund*innen. Sie hat das Recht darüber zu entscheiden, wie, wo und mit wem sie ihre Inhalte teilt. Sich an ihren Inhalten einfach zu bedienen, verletzt diese Selbstbestimmung.

netzpolitik.org: Mehr noch, Menschen nutzen Aufnahmen von Pornodarsteller*innen als Vorlage für bildbasierte Gewalt. Was sagen Darsteller*innen dazu?

Ana Ornelas: Sexarbeiter*innen sind leider sehr vertraut damit, dass ihre Grenzen überschritten werden und ihre Privatsphäre verletzt wird. Sie kennen auch die Erfahrung, in solchen Situationen nicht ernst genommen zu werden. Sie können sich also sehr gut in andere Betroffene einfühlen, denen das passiert.

„Sexarbeiter*innen wurden zu oft in die Pfanne gehauen“

netzpolitik.org: Die Debatte kreist oft um die Technologie, aber sind Nudifier-Apps und die ihnen zugrunde liegenden KI-Modelle wirklich das Problem?

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Ana Ornelas: Aus meiner Sicht: Nein. Meine Sorge ist, dass wir uns zu sehr auf die Ergebnisse fokussieren: Welche Arten von Deepfakes sollten erlaubt oder verboten sein? Wir sollten stattdessen mehr auf die Datenbanken schauen und darauf, wie diese Daten ohne Zustimmung geklaut werden.

netzpolitik.org: Die KI-Modelle hinter Nudifier-Apps basieren auf riesigen Mengen an Bildern und Videos, dem sogenannten Trainingsmaterial. Es stammt oftmals von Pornoplattformen, ohne Wissen und Zustimmung der gezeigten Personen. Wäre es auch möglich, sexualisierte Deepfakes einvernehmlich und gewaltfrei zu generieren?

Ana Ornelas: Ja. Darsteller*innen könnten ihre Bilder etwa gegen Bezahlung an eine Datenbank geben, mit der ein solches Modell trainiert wird. Sie würden für ihre Arbeit entlohnt und könnten zugleich die Kontrolle darüber behalten, welche Art von Inhalten damit generiert werden darf. Sie könnten zum Beispiel sagen, dass mit ihrem Material keine Szenarien von Pet Play erstellt werden dürfen, das sind erotische Rollenspiele, in denen ein Partner ein Tier spielt.

So ein Ansatz würde auch andere schützen. Denn das Trainingsmaterial für Deepfake-Generatoren stammt ja nicht nur aus Pornos. Viele der sogenannten Nudifier-Apps erstellen neben vermeintlichen Nacktbildern auch Bikini-Bilder. Diese reichen je nach Kontext oft schon aus, um jemanden gezielt anzugreifen und zu beschämen.

Das Trainingsmaterial dafür stammt von Instagram und Facebook, es wird dort ebenfalls ohne Zustimmung gescrapt. Wenn also jemand dein Bikini-Foto am Strand einsetzt, um ein Modell zu trainieren und mit diesem Modell ein Bikini-Bild einer anderen Person ohne deren Zustimmung zu generieren, wirst du davon nie erfahren.

netzpolitik.org: Einvernehmliche Datensets für sexualisierte Deepfakes – wie realistisch ist das?

Ana Ornelas: Technisch gesehen wäre das kein Problem. Wir sind dazu im Austausch mit einer Plattform für Trainingsdaten, die genau so eine Form von Einvernehmlichkeit und Kontrolle zulassen soll. Kollektive können dort selbst bestimmen: Wofür werden die Daten eingesetzt, wie viel sollen sie kosten?

Die Herausforderung liegt woanders: Sexarbeiter*innen wurden einfach zu oft von Tech-Konzernen in die Pfanne gehauen. Es würde also sehr viel Arbeit erfordern, um die Community von dieser Idee zu überzeugen.

„Frauenfeindlichkeit hindert Betroffene, gemeinsam zu kämpfen“

netzpolitik.org: Sexualisierte Deepfakes waren in Deutschland für ein paar Wochen Top-Thema. Endlich kamen Betroffene zu Wort, in Talkshows, Nachrichten und auf Bühnen. Von den betroffenen Darsteller*innen hat man aber kaum gehört. Warum?

Ana Ornelas: Die Öffentlichkeit sieht Pornodarsteller*innen im Allgemeinen nicht als Opfer – und ganz besonders nicht in diesem Fall. Die Mentalität ist: Deine Nacktaufnahmen sind doch eh im Internet, was hast du denn erwartet?

netzpolitik.org: Dabei ist die gemeinsame Betroffenheit doch eindeutig?

Ana Ornelas: Absolut. Wenn ich mit Überlebenden von Gewalt spreche, dann sind die Erfahrungen oft sehr ähnlich, egal ob es um Leute außerhalb der Szene geht oder um Sexarbeiter*innen. Die beschreiben das Gleiche: Ein Gefühl von Kontrollverlust oder dass ihnen ihr Körper nicht mehr gehört. Beide Seiten kennen auch diese Erfahrung, gesagt zu bekommen, man sei selbst Schuld an der Gewalt. Denn auch Nicht-Sexarbeiter*innen bekommen ja inzwischen zu hören: Warum hast du denn überhaupt Fotos von dir im Bikini im Internet veröffentlicht?

netzpolitik.org: Woran scheitert die Solidarität?

Ana Ornelas: Die meisten wollen nicht wie Sexarbeiter*innen behandelt werden, weil sie wissen, dass das eine schreckliche Behandlung ist. Sexualisierte Deepfakes stellen hier eine Bedrohung dar, denn es geht dabei auch um die Angst, dass es jede Frau treffen könnte – unabhängig davon wie “brav” sie ist oder wie sehr sie sich an die im Patriarchat vorgeschriebenen Grenzen von Sexualität und Lust hält. Die Botschaft ist: Deine Sexualität kann als Waffe gegen dich eingesetzt werden, unabhängig von deinem Verhalten.

Wir sind ein spendenfinanziertes Medium.

Unterstütze auch Du unsere Arbeit mit einer Spende.

Das heißt auch: Jede Frau kann jetzt wie eine Sexarbeiterin behandelt werden und die gleiche schreckliche Behandlung erfahren. Das will natürlich niemand, und so läuft hier ein erfolgreicher misogyner Mechanismus von “Teile und herrsche”.

Das alles ist übrigens nicht neu. Diese Spaltung zwischen vermeintlich respektablen Frauen und Sexarbeiter*innen passiert ja seit Jahrhunderten. Jetzt passiert es eben nur anhand einer neuen Technologie.

Deswegen frustriert es mich, dass wir über Deepfakes vor allem als technologisches Problem sprechen, das auf einer technischen Ebene gelöst werden kann. Wir sollten viel mehr über die darunter liegende Frauenfeindlichkeit sprechen. Frauenfeindlichkeit ist auch die Ursache für diese Kluft zwischen den Betroffenen, und hindert sie daran, sich zusammenzuschließen und gemeinsam zu kämpfen.

netzpolitik.org: Was würden Sie sich wünschen?

Ana Ornelas: Projekte und Selbsthilfegruppen könnten Sexarbeiter*innen öfter dazu einladen, ihre Erfahrungen und Perspektive zu teilen. Ich verstehe die Angst ziviler Betroffener, mit Sexarbeiter*innen in einen Topf geworfen zu werden. Aber wenn ich mir die Gespräche von beiden Seiten anhöre, gibt es tatsächlich viel mehr Gemeinsamkeiten als sich viele vorstellen. Wenn es also mehr sichere Räume für diesen Austausch gäbe, wäre das meiner Meinung nach hilfreich.

Mit neuen Gesetzen gegen Deepfakes

netzpolitik.org: In Deutschland hat das Bundesjustizministerium gerade einen Gesetzentwurf vorgelegt, der das Erstellen und Teilen von sexualisierten Deepfakes unter Strafe stellen soll. Die Täter*innen sollen mit bis zu zwei Jahren Haft bestraft werden. Halten Sie das für hilfreich?

Ana Ornelas: Derzeit sprechen wir nicht genug über die Täter*innen. Die Opfer werden aber von Menschen geschädigt, nicht von der Technologie.

Gleichzeitig sollten wir auf die finanzielle Motivation schauen, die dazu führt, dass etwa solche Nudifier-Apps angeboten werden. Die Verantwortlichen bieten ihre Apps teils unter täglich wechselnden Namen in den App Stores an, sie betreiben großen Aufwand und sie verdienen sehr viel Geld damit.

netzpolitik.org: Auf EU-Ebene haben sich Rat und Parlament gerade auf eine Vorschrift zu sexualisierten Deepfakes in der KI-Verordnung geeinigt. Verboten sind demnach KI-Anwendungen, mit denen man nicht-einvernehmlichen Deepfakes erstellen kann. Hat die EU Ihren Verband hierzu konsultiert?

Ana Ornelas: Ja, wir geben Rückmeldung zu den Vorschlägen. Ich freue mich sehr, dass der Fokus der Entwürfe von Parlament und Rat auf der fehlenden Zustimmung der Betroffenen liegt; das ist ein großer Schritt vorwärts. Gleichzeitig sollen Ausnahmen vom Verbot geschaffen werden. So soll es etwa erlaubt sein, Deepfakes zu erstellen, wenn die gezeigte Person nicht identifizierbar ist. Das halte ich für einen Fehler.

netzpolitik.org: Ihr Verband hat vor Kurzem eine Umfrage unter Sexarbeiter*innen gemacht, um deren Perspektiven auf Deepfakes abzufragen. Was kam dabei heraus?

Ana Ornelas: Der Bericht dazu ist noch nicht öffentlich. Was ich aber schon sagen kann: Die Community ist da sehr geteilt. Manche sind sehr optimistisch, was das Thema angeht. Sie sehen es vor allem als neue Möglichkeit, um Einnahmen zu generieren. Andere sind sehr besorgt und wünschen sich ein Verbot, zweifeln aber zugleich daran, dass Verbote tatsächlich helfen könnten. Es herrscht viel Unsicherheit, wie in der ganzen Gesellschaft. Wir sehen auch, dass die Technologie bereits gegen Sexarbeiter*innen eingesetzt wird, dass sie etwa mit Hilfe von Deepfakes erpresst werden.

netzpolitik.org: Wie können sich Darsteller*innen vor Deepfakes schützen?

Ana Ornelas: Sie tauschen sich untereinander aus, warnen sich etwa gegenseitig vor Kund*innen, die im Verdacht stehen, ihre Inhalte hinter der Paywall in andere Kanäle oder ins öffentliche Internet zu leaken. Manche experimentieren mit Fingerprinting-Technologien, um ihr Material zu kennzeichnen. Auch wir sind aber derzeit vor allem auf der Suche nach Lösungen dafür, wie wir mit diesen Technologien umgehen.



Source link

Weiterlesen

Beliebt