Connect with us

Datenschutz & Sicherheit

Werden manche Produkte von den KI-Regeln ausgenommen?



Das EU-Parlament hat seine Position zum KI-Omnibus gefunden. Nachdem die beiden verantwortlichen Ausschüsse – für Justiz und Binnenmarkt – dem Positionsentwurf bereits am 18. März zustimmten, hat das gesamte Parlament die Entscheidung heute mit 569 Stimmen dafür, 45 dagegen und 23 Enthaltungen bestätigt. Damit konnte bereits heute der Trilog mit dem EU-Rat starten, um den finalen Kompromiss zu finden. Geplant ist, das Gesetz bis zum Sommer zu verabschieden.

Diese Änderungen sind zu erwarten

In manchen Punkten ist das Parlament mit der Kommission einverstanden, in vielen anderen nicht und will zum ursprünglichen Text der KI-Verordnung zurückgehen. Andere Dinge, wie das Verbot von sexualisierten Deepfakes, sind neu.

Das Parlament bestätigt etwa den Kommissionsvorschlag, die Anforderungen für Hochrisiko-Systeme zu verzögern: Anstatt ab dem 2. August 2026, sollen sie erst am 2. Dezember 2027 wirksam werden. Allerdings will das Parlament dafür feste Fristen. Die Kommission hatte die Fristen in ihrem Vorschlag flexibel gehalten und an die Fertigstellung der noch ausstehenden Standards geknüpft, die bei der Umsetzung der Anforderungen helfen sollen.

In der Praxis bedeutet das, dass über ein weiteres Jahr lang kein Schutz vor Hochrisiko-Systemen besteht. Das betrifft den KI-Einsatz in den Bereichen Biometrie, Bildung, Arbeit, Strafverfolgung und Grenzüberwachung.

Die Abgeordneten haben auch grünes Licht für die zusätzlichen Befugnisse für das KI-Amt („AI Office“) gegeben, das in der EU-Kommission angesiedelt ist. Dieses soll die Aufsicht über Allzweck-KI-Modelle (GPAI) übernehmen.

Gegen den Kommissionsvorschlag

Zurück zur ursprünglichen KI-Verordnung will das Parlament unter anderem bei der Registrierungspflicht (Artikel 6). Die Kommission wollte erlauben, dass Anbieter selbst einschätzen, ob ihr System risikoreich ist oder nicht. Das Parlament will hingegen, dass Hochrisiko-Systeme in einer Datenbank registriert werden müssen, unabhängig davon wie sie sich selbst einschätzen.

Der Rat sieht ebenfalls vor, zu der ursprünglichen Pflicht zurückzukehren. Die Mitgliedstaaten haben sich schon am 13. März auf ihre Position geeinigt. Verbraucherschützer, etwa die europäische Organisation BEUC, begrüßen diesen Schritt.

Das Parlament bestätigt auch: Wer KI mit sensiblen Daten trainieren will, etwa zu Religion oder sexueller Orientierung, um so Verzerrungen zu verhindern, soll das tun dürfen. Das hatte die Kommission in ihrem Vorschlag eingebracht. Allerdings will das Parlament Schutzmaßnahmen einführen, damit dies nur geschieht, wenn es „unbedingt erforderlich“ sei. Hier gibt es erneut eine Übereinstimmung mit der Ratsposition.

Der Dachverband von Organisationen für digitale Rechte EDRi ist trotzdem nicht überzeugt. Er merkt an, dass die Datenschutzgrundverordnung bereits die Verarbeitung sensibler personenbezogener Daten erlaube, wenn bestimmte Voraussetzungen erfüllt seien und eine klare Rechtsgrundlage vorliege. Eine neue Regelung würde das Missbrauchspotenzial solcher sensiblen Daten erhöhen und könnte dazu führen, dass betroffene Personen der Nutzung ihrer Daten zum KI-Training nicht widersprechen könnten.

Die sozialdemokratische EU-Abgeordnete Birgit Sippel erklärt, die Änderung stehe im Widerspruch zur DSGVO und warnt: „Wir dürfen keine implizite Bevorzugung datenintensiver Ansätze schaffen, indem wir den Einsatz sensibler Daten zur Voraussetzung für faire KI erklären.“

Ausnahmen für Medizintechnik und Spielzeug

Neu eingebracht haben die Abgeordneten und Mitgliedstaaten ein Verbot von KI-Systemen, die sexualisierte Deepfakes erstellen, wenn dafür das Einverständnis der betroffenen Person fehlt. Das Verbot soll allerdings nicht für KI-Systeme gelten, die mithilfe von „wirksamen Sicherheitsmaßnahmen“ verhindern, dass Nutzer solche Bilder erstellen.

Besonders kontrovers ist ein Punkt, für den sich Abgeordnete der EVP, Renew und EKR eingesetzt haben und der in der finalen Position zu finden ist: Bestimmte Sektoren sollen quasi von der KI-Verordnung ausgenommen werden, darunter Medizintechnik, Funkgeräte, Spielzeug und Maschinen. Die Abgeordneten argumentieren, dass diese Produkte schon unter eigene Sicherheitsvorschriften fallen würden und die Hersteller ansonsten einem doppelten Aufwand ausgesetzt seien. Auch der Verband DigitalEurope lobbyiert aktuell noch stark gemeinsam mit anderen Organisationen für diese Änderung.

Kritiker sind hingegen der Ansicht, dass die bestehenden Regulierungen nicht alle Ansprüche der KI-Verordnung abdecken würden. KI-spezifische Risiken würden nicht adressiert, merkt BEUC an. Die Grünen-Abgeordnete Kim van Sparrentak hat die Parlamentsposition für ihre Fraktion verhandelt. Sie sei „sehr besorgt“ über die Ausnahme von Medizinprodukten, Spielzeug, Smartwatches und Smartglasses von der KI-Verordnung, und führt diese auf einen Vorschlag der deutschen Christdemokraten zurück.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Die Politikerin kritisiert, dass die Änderung nicht zu einer Vereinfachung führen, sondern die Einhaltung von KI-Regeln komplizierter machen würde, da es statt einem Standard so mehrere unterschiedliche gebe. Das bemängelt auch Birgit Sippel (S&D): „Diese Änderung führt zu mehr Komplexität, Rechtsunsicherheit und uneinheitlichen Vorschriften. Zudem bieten die neuen Vorgaben weniger Sicherheit für Verbraucher:innen.“

Der TÜV-Verband warnte schon vor zwei Wochen zusammen mit neun weiteren Unterzeichnern eines offenen Briefes vor einer Fragmentierung und mehr Bürokratie durch diese Änderung.

Wie geht es weiter?

Gleich im Anschluss an die Abstimmung fand das erste Trilogtreffen statt. In den nächsten Wochen werden Rat und Parlament in zahlreichen technischen Meetings über den Inhalt des Gesetzes verhandeln. In einem Monat, am 28. April, sollen sie sich auf den finalen Kompromiss einigen. Der Rat wird dabei von der zypriotischen Ratspräsidentschaft vertreten, das Parlament von den beiden Berichterstatter:innen Arba Kokalari (EVP) und Michael McNamara (Renew).

In der vergangenen Woche trafen sich die Staats- und Regierungschefs in Brüssel und hielten ihre Ergebnisse in den sogenannten „Schlussfolgerungen“ fest. Bundeskanzler Friedrich Merz (CDU) drängte darauf, die Formulierung „ehrgeiziger“ KI-Omnibus einzubringen – mit Erfolg. Ob das tatsächlich einen Einfluss auf die Verhandlungen im Trilog haben wird, ist unklar.

Sicher ist dagegen, dass die Bundesregierung die KI-Verordnung weiter verändern will. „Sie muss schlanker werden“, sagte Merz in einer Pressekonferenz nach dem Gipfel. Er habe die Kommission gebeten, die KI-Verordnung „noch einmal ganz umfassend zu überprüfen“. Das erklärte Ziel: „Wir wollen in Europa die gleichen Chancen haben, um mit Künstlicher Intelligenz voranzukommen wie in den USA oder China.“

Die EU-Kommission hat noch nicht mitgeteilt, ob die KI-Verordnung tatsächlich ein weiteres Mal für Veränderungen geöffnet werden soll. Das könnte im Rahmen des „Digital Fitness Checks“ passieren, mit welchem das digitale Regelwerk in den kommenden Jahren bewertet werden soll.



Source link

Datenschutz & Sicherheit

Schadcode-Lücke bedroht IBM App Connect Enterprise und IBM Integration Bus


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Integrationssoftware für unter anderem Geschäftsinformationen IBM App Connect Enterprise und IBM Integration Bus for z/OS sind über eine Softwareschwachstelle angreifbar. Schadcode kann Systeme kompromittieren.

Weiterlesen nach der Anzeige

Davor warnen die Entwickler in einem Beitrag. Im Zuge einer Directory-Traversal-Attacke (CVE-2026-67030 „hoch“) können Angreifer auf eigentlich abgeschottete Daten und Verzeichnisse zugreifen, um Schadcode abzuladen und auszuführen. Bislang gibt es keine Berichte, dass Angreifer die Sicherheitslücke schon ausnutzen.

Die Entwickler geben an, dass davon die folgenden Versionen bedroht sind: IBM App Connect Enterprise 12.0.1.0 bis 12.0.12.24 und 13.0.1.0 bis 13.0.7.0 und IBM Integration Bus for z/OS 0.1.0.0 bis 10.1.0.6. Die Lücken seien in den folgenden Ausgaben geschlossen:

  • IBM App Connect Enterprise v12- Fix Pack Release 12.0.12.25
  • IBM App Connect Enterprise v13- Fix Pack Release 13.0.7.1
  • IBM Integration Bus for z/OS v10.1 – Fix Pack Release 10.1.0.7


(des)



Source link

Weiterlesen

Datenschutz & Sicherheit

Debian macht ernst: Nur noch reproduzierbare Pakete in „testing“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Debian verschärft für die kommende Version 14 („Forky“) seine Qualitätsanforderungen deutlich: Pakete dürfen nur noch dann nach „testing“ wandern, wenn sie sich reproduzierbar bauen lassen. Das hat das Debian-Release-Team angekündigt. Die entsprechende Migrationslogik ist bereits aktiv. Sie betrifft sowohl neue Pakete, die sich nicht reproduzieren lassen, als auch bestehende Pakete, deren Reproduzierbarkeit sich verschlechtert hat.

Weiterlesen nach der Anzeige

Reproduzierbare Pakete („reproducible builds“) erzeugen aus identischem Quellcode und in gleicher Build-Umgebung bit-identische Binärpakete. Damit werden Build-Prozesse nachvollziehbar und manipulationssicher. Unterschiede zwischen zwei Builds lassen sich so eindeutig auf echte Änderungen oder mögliche Manipulationen zurückführen.

Nicht reproduzierbare Builds entstehen oft durch banale Faktoren: Zeitstempel, zufällige Build-IDs oder eine nichtdeterministische Reihenfolge von Dateien. Zwei Builds desselben Quellcodes können dadurch unterschiedliche Binärdateien erzeugen, obwohl sich funktional nichts geändert hat. Reproducible Builds eliminieren solche Unterschiede systematisch, etwa durch normierte Zeitstempel oder ein deterministisches Packaging.

Debian arbeitet bereits seit Jahren mit dem Reproducible-Builds-Projekt an entsprechenden Mechanismen. Neu ist, dass Reproduzierbarkeit nicht mehr nur als Qualitätsziel gilt, sondern direkt über die Paketmigration nach „testing“ entscheidet. Damit macht die Distribution reproduzierbare Builds faktisch zur Voraussetzung für den regulären Release-Prozess. Den aktuellen Reproduzierbarkeitsstatus aller Pakete listet reproduce.debian.net auf.

Parallel baut Debian seine automatisierten Tests aus. Laut Release Team prüft die CI-Infrastruktur inzwischen auch sogenannte binNMUs automatisch mit autopkgtests. Dabei handelt es sich um reine Neuübersetzungen von Binärpaketen ohne Änderungen am Quellcode, etwa nach ABI-Übergängen oder neuen Bibliotheksversionen. Bislang lag der Fokus der Tests vor allem auf klassischen Source-Uploads.

Weiterlesen nach der Anzeige

Die neue Architektur loong64 sorgt derzeit vor allem für längere Warteschlangen in Debians Build- und Testinfrastruktur. Weil viele Pakete auf allen Architekturen neu gebaut werden mussten und Debian nun auch binNMUs per autopkgtest prüft, dauert die Migration nach „testing“ derzeit länger.

Zugleich erinnert Debian die Maintainer daran, dass sie selbst für die erfolgreiche Migration ihrer Pakete nach „testing“ verantwortlich bleiben. Blockieren fehlgeschlagene autopkgtests in Reverse-Dependencies die Migration, sollen die Maintainer entsprechende Release-Critical-Bugs melden.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Datenschutz & Sicherheit

„Gemeinsam kämpfen“: Das sagen Pornodarsteller*innen zur Deepfake-Flut


Ana Ornelas hat viel zu tun in diesen Monaten. Sie ist Policy Officer für die European Sex Workers’ Rights Alliance, einem Netzwerk für die Rechte von Sexarbeiter*innen, und spricht mit EU-Abgeordneten über die Regulierung von KI. In Workshops informiert sie ihr Netzwerk über geplante Alterskontrollen im Netz. Und im Auftrag von AlgorithmWatch untersucht sie, wie Sexarbeiter*innen von sogenannten Nudifier-Apps betroffen sind. Mit diesen Apps können Nutzer*innen Aufnahmen manipulieren, sodass eine abgebildete Person nackt wirkt.

Es geht also um sexualisierte Deepfakes und um digitale Gewalt: Themen, über die in den vergangenen Wochen in Deutschland sehr viel gesprochen wurde. In den Tagen nach der Veröffentlichung einer Spiegel-Recherche zum Fall der Schauspielerin Collien Fernandes meldeten sich viele weitere Betroffene, etwa die Klimaaktivist*innen Luisa Neubauer und Theresia Crone. Im aktuellen Fall von Fernandes geht es zwar nicht um Deepfakes, sondern um Fake-Accounts, die ihr Ex-Mann erstellt haben soll – das haben später auch die Anwälte von Christian Ulmen klargestellt. Da war die Debatte zum Thema aber schon im vollen Gange.

Ob bei Caren Miosga oder in den Tagesthemen, plötzlich ging es vielerorts um digitale Gewalt und die Pläne der Bundesregierung für ein neues Gesetz, das unter anderem das Erstellen von sexualisierten Deepfakes unter Strafe stellen soll.

Wer dabei kaum zu Wort kam: Pornodarsteller*innen. Dabei spielen sie eine zentrale Rolle. Würden ihre Aufnahmen nicht als sogenanntes Trainingsmaterial für KI-Systeme genutzt, ließen sich sexualisierte Deepfakes gar nicht erst erstellen. Ihre Zustimmung dafür haben sie ebenso wenig erteilt wie die Betroffenen, deren Gesichter nun in den Deepfakes zu sehen sind. Zugleich werden Pornodarsteller*innen ebenfalls zum Ziel nicht-einvernehmlicher Deepfakes, berichtet Ana Ornelas im Interview mit netzpolitik.org.

Selbstbestimmung verletzt

netzpolitik.org: Für manche sexualisierte Deepfakes montieren Nutzer*innen das Gesicht einer Person in eine bereits existierende Pornoszene. Was heißt das für die ursprünglichen Darsteller*innen?

Ana Ornelas: Das ist einerseits nichts Neues. Es gab früher schon viele Pornoseiten, die die Gesichter von Prominenten auf die Körper von Pornostars montiert haben. Aber mit der heutigen Technologie wirkt das Ergebnis viel realistischer. Es ist teils nicht mehr zu unterscheiden, was echt ist und was gefälscht.

Darsteller*innen werden dadurch doppelt zum Opfer. Erstens wird, wie bei allen anderen Betroffenen auch, ihr Bild und ihr Körper auf eine Weise genutzt, der sie nicht zugestimmt haben. Und zweitens ist es Diebstahl. Für Pornodarsteller*innen sind ihr Körper und die Inhalte, die sie damit produzieren, ihr Lebensunterhalt. Wenn diese Inhalte gestohlen oder kopiert werden, um Deepfakes zu erstellen, hat das direkte Auswirkungen auf ihr Einkommen.

netzpolitik.org: Wie das?

Ana Ornelas: Menschen erstellen etwa Deepfake-Versionen von bekannten Darsteller*innen und geben sich auf OnlyFans oder in Telegram-Kanälen als diese aus. Da geht es schlicht um Geld, sie wollen selbst an den Inhalten verdienen und schädigen damit das Geschäft.

netzpolitik.org: Consent – also Einverständnis – spielt in der Pornobranche eine große Rolle: Mit wem man arbeitet, welche Art von sexuellen Handlungen stattfindet, wer das Material verbreiten darf. Deepfakes unterwandern dieses Prinzip, weil sie meist ohne Zustimmung entstehen. Was bedeutet das für Darsteller*innen?

Ana Ornelas: Nur weil man Nacktbilder von sich im Internet hat, heißt das noch lange nicht, dass damit alles erlaubt wäre. Vielleicht stimmt eine Darsteller*in einer bestimmten sexuellen Handlung zu, aber zeigt diese nur hinter einer Paywall oder schickt sie direkt an Kund*innen. Sie hat das Recht darüber zu entscheiden, wie, wo und mit wem sie ihre Inhalte teilt. Sich an ihren Inhalten einfach zu bedienen, verletzt diese Selbstbestimmung.

netzpolitik.org: Mehr noch, Menschen nutzen Aufnahmen von Pornodarsteller*innen als Vorlage für bildbasierte Gewalt. Was sagen Darsteller*innen dazu?

Ana Ornelas: Sexarbeiter*innen sind leider sehr vertraut damit, dass ihre Grenzen überschritten werden und ihre Privatsphäre verletzt wird. Sie kennen auch die Erfahrung, in solchen Situationen nicht ernst genommen zu werden. Sie können sich also sehr gut in andere Betroffene einfühlen, denen das passiert.

„Sexarbeiter*innen wurden zu oft in die Pfanne gehauen“

netzpolitik.org: Die Debatte kreist oft um die Technologie, aber sind Nudifier-Apps und die ihnen zugrunde liegenden KI-Modelle wirklich das Problem?

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Ana Ornelas: Aus meiner Sicht: Nein. Meine Sorge ist, dass wir uns zu sehr auf die Ergebnisse fokussieren: Welche Arten von Deepfakes sollten erlaubt oder verboten sein? Wir sollten stattdessen mehr auf die Datenbanken schauen und darauf, wie diese Daten ohne Zustimmung geklaut werden.

netzpolitik.org: Die KI-Modelle hinter Nudifier-Apps basieren auf riesigen Mengen an Bildern und Videos, dem sogenannten Trainingsmaterial. Es stammt oftmals von Pornoplattformen, ohne Wissen und Zustimmung der gezeigten Personen. Wäre es auch möglich, sexualisierte Deepfakes einvernehmlich und gewaltfrei zu generieren?

Ana Ornelas: Ja. Darsteller*innen könnten ihre Bilder etwa gegen Bezahlung an eine Datenbank geben, mit der ein solches Modell trainiert wird. Sie würden für ihre Arbeit entlohnt und könnten zugleich die Kontrolle darüber behalten, welche Art von Inhalten damit generiert werden darf. Sie könnten zum Beispiel sagen, dass mit ihrem Material keine Szenarien von Pet Play erstellt werden dürfen, das sind erotische Rollenspiele, in denen ein Partner ein Tier spielt.

So ein Ansatz würde auch andere schützen. Denn das Trainingsmaterial für Deepfake-Generatoren stammt ja nicht nur aus Pornos. Viele der sogenannten Nudifier-Apps erstellen neben vermeintlichen Nacktbildern auch Bikini-Bilder. Diese reichen je nach Kontext oft schon aus, um jemanden gezielt anzugreifen und zu beschämen.

Das Trainingsmaterial dafür stammt von Instagram und Facebook, es wird dort ebenfalls ohne Zustimmung gescrapt. Wenn also jemand dein Bikini-Foto am Strand einsetzt, um ein Modell zu trainieren und mit diesem Modell ein Bikini-Bild einer anderen Person ohne deren Zustimmung zu generieren, wirst du davon nie erfahren.

netzpolitik.org: Einvernehmliche Datensets für sexualisierte Deepfakes – wie realistisch ist das?

Ana Ornelas: Technisch gesehen wäre das kein Problem. Wir sind dazu im Austausch mit einer Plattform für Trainingsdaten, die genau so eine Form von Einvernehmlichkeit und Kontrolle zulassen soll. Kollektive können dort selbst bestimmen: Wofür werden die Daten eingesetzt, wie viel sollen sie kosten?

Die Herausforderung liegt woanders: Sexarbeiter*innen wurden einfach zu oft von Tech-Konzernen in die Pfanne gehauen. Es würde also sehr viel Arbeit erfordern, um die Community von dieser Idee zu überzeugen.

„Frauenfeindlichkeit hindert Betroffene, gemeinsam zu kämpfen“

netzpolitik.org: Sexualisierte Deepfakes waren in Deutschland für ein paar Wochen Top-Thema. Endlich kamen Betroffene zu Wort, in Talkshows, Nachrichten und auf Bühnen. Von den betroffenen Darsteller*innen hat man aber kaum gehört. Warum?

Ana Ornelas: Die Öffentlichkeit sieht Pornodarsteller*innen im Allgemeinen nicht als Opfer – und ganz besonders nicht in diesem Fall. Die Mentalität ist: Deine Nacktaufnahmen sind doch eh im Internet, was hast du denn erwartet?

netzpolitik.org: Dabei ist die gemeinsame Betroffenheit doch eindeutig?

Ana Ornelas: Absolut. Wenn ich mit Überlebenden von Gewalt spreche, dann sind die Erfahrungen oft sehr ähnlich, egal ob es um Leute außerhalb der Szene geht oder um Sexarbeiter*innen. Die beschreiben das Gleiche: Ein Gefühl von Kontrollverlust oder dass ihnen ihr Körper nicht mehr gehört. Beide Seiten kennen auch diese Erfahrung, gesagt zu bekommen, man sei selbst Schuld an der Gewalt. Denn auch Nicht-Sexarbeiter*innen bekommen ja inzwischen zu hören: Warum hast du denn überhaupt Fotos von dir im Bikini im Internet veröffentlicht?

netzpolitik.org: Woran scheitert die Solidarität?

Ana Ornelas: Die meisten wollen nicht wie Sexarbeiter*innen behandelt werden, weil sie wissen, dass das eine schreckliche Behandlung ist. Sexualisierte Deepfakes stellen hier eine Bedrohung dar, denn es geht dabei auch um die Angst, dass es jede Frau treffen könnte – unabhängig davon wie “brav” sie ist oder wie sehr sie sich an die im Patriarchat vorgeschriebenen Grenzen von Sexualität und Lust hält. Die Botschaft ist: Deine Sexualität kann als Waffe gegen dich eingesetzt werden, unabhängig von deinem Verhalten.

Wir sind ein spendenfinanziertes Medium.

Unterstütze auch Du unsere Arbeit mit einer Spende.

Das heißt auch: Jede Frau kann jetzt wie eine Sexarbeiterin behandelt werden und die gleiche schreckliche Behandlung erfahren. Das will natürlich niemand, und so läuft hier ein erfolgreicher misogyner Mechanismus von “Teile und herrsche”.

Das alles ist übrigens nicht neu. Diese Spaltung zwischen vermeintlich respektablen Frauen und Sexarbeiter*innen passiert ja seit Jahrhunderten. Jetzt passiert es eben nur anhand einer neuen Technologie.

Deswegen frustriert es mich, dass wir über Deepfakes vor allem als technologisches Problem sprechen, das auf einer technischen Ebene gelöst werden kann. Wir sollten viel mehr über die darunter liegende Frauenfeindlichkeit sprechen. Frauenfeindlichkeit ist auch die Ursache für diese Kluft zwischen den Betroffenen, und hindert sie daran, sich zusammenzuschließen und gemeinsam zu kämpfen.

netzpolitik.org: Was würden Sie sich wünschen?

Ana Ornelas: Projekte und Selbsthilfegruppen könnten Sexarbeiter*innen öfter dazu einladen, ihre Erfahrungen und Perspektive zu teilen. Ich verstehe die Angst ziviler Betroffener, mit Sexarbeiter*innen in einen Topf geworfen zu werden. Aber wenn ich mir die Gespräche von beiden Seiten anhöre, gibt es tatsächlich viel mehr Gemeinsamkeiten als sich viele vorstellen. Wenn es also mehr sichere Räume für diesen Austausch gäbe, wäre das meiner Meinung nach hilfreich.

Mit neuen Gesetzen gegen Deepfakes

netzpolitik.org: In Deutschland hat das Bundesjustizministerium gerade einen Gesetzentwurf vorgelegt, der das Erstellen und Teilen von sexualisierten Deepfakes unter Strafe stellen soll. Die Täter*innen sollen mit bis zu zwei Jahren Haft bestraft werden. Halten Sie das für hilfreich?

Ana Ornelas: Derzeit sprechen wir nicht genug über die Täter*innen. Die Opfer werden aber von Menschen geschädigt, nicht von der Technologie.

Gleichzeitig sollten wir auf die finanzielle Motivation schauen, die dazu führt, dass etwa solche Nudifier-Apps angeboten werden. Die Verantwortlichen bieten ihre Apps teils unter täglich wechselnden Namen in den App Stores an, sie betreiben großen Aufwand und sie verdienen sehr viel Geld damit.

netzpolitik.org: Auf EU-Ebene haben sich Rat und Parlament gerade auf eine Vorschrift zu sexualisierten Deepfakes in der KI-Verordnung geeinigt. Verboten sind demnach KI-Anwendungen, mit denen man nicht-einvernehmlichen Deepfakes erstellen kann. Hat die EU Ihren Verband hierzu konsultiert?

Ana Ornelas: Ja, wir geben Rückmeldung zu den Vorschlägen. Ich freue mich sehr, dass der Fokus der Entwürfe von Parlament und Rat auf der fehlenden Zustimmung der Betroffenen liegt; das ist ein großer Schritt vorwärts. Gleichzeitig sollen Ausnahmen vom Verbot geschaffen werden. So soll es etwa erlaubt sein, Deepfakes zu erstellen, wenn die gezeigte Person nicht identifizierbar ist. Das halte ich für einen Fehler.

netzpolitik.org: Ihr Verband hat vor Kurzem eine Umfrage unter Sexarbeiter*innen gemacht, um deren Perspektiven auf Deepfakes abzufragen. Was kam dabei heraus?

Ana Ornelas: Der Bericht dazu ist noch nicht öffentlich. Was ich aber schon sagen kann: Die Community ist da sehr geteilt. Manche sind sehr optimistisch, was das Thema angeht. Sie sehen es vor allem als neue Möglichkeit, um Einnahmen zu generieren. Andere sind sehr besorgt und wünschen sich ein Verbot, zweifeln aber zugleich daran, dass Verbote tatsächlich helfen könnten. Es herrscht viel Unsicherheit, wie in der ganzen Gesellschaft. Wir sehen auch, dass die Technologie bereits gegen Sexarbeiter*innen eingesetzt wird, dass sie etwa mit Hilfe von Deepfakes erpresst werden.

netzpolitik.org: Wie können sich Darsteller*innen vor Deepfakes schützen?

Ana Ornelas: Sie tauschen sich untereinander aus, warnen sich etwa gegenseitig vor Kund*innen, die im Verdacht stehen, ihre Inhalte hinter der Paywall in andere Kanäle oder ins öffentliche Internet zu leaken. Manche experimentieren mit Fingerprinting-Technologien, um ihr Material zu kennzeichnen. Auch wir sind aber derzeit vor allem auf der Suche nach Lösungen dafür, wie wir mit diesen Technologien umgehen.



Source link

Weiterlesen

Beliebt