Datenschutz & Sicherheit
Was hinter dem Veto des polnischen Präsidenten steckt
Polnische Internet-Nutzer:innen müssen weiterhin auf Teile des Digital Services Act (DSA) warten. Am Freitag legte der rechtsnationalistische Präsident Karol Nawrocki sein Veto gegen ein lange verhandeltes Gesetz ein. Mit diesem wollte die regierende Mitte-Rechts-Mehrheit das EU-Digitalgesetz auch in Polen verankern. Nun steht sie vor einem Scherbenhaufen.
In einer Erklärung verwies Nawrocki auf den Roman „1984“ von George Orwell und warf der Regierung die Errichtung eines „Wahrheitsministeriums“ vor. Ihm zufolge würden künftig Beamt:innen über die Meinungsfreiheit im Netz entscheiden. „Als Präsident kann ich kein Gesetz unterzeichnen, das in der Praxis einer administrativen Zensur gleichkommt“, so Nawrocki.
DSA in Kraft, aber ohne Aufsicht in Polen
Den DSA hat die EU vor bald vier Jahren beschlossen. Das Gesetz soll unter anderem mehr Sicherheit im Internet schaffen, Nutzer:innen mehr Rechte geben und zugleich Online-Dienste zu mehr Transparenz verpflichten. Grundsätzlich gilt die Verordnung unmittelbar in allen EU-Mitgliedstaaten, einige Details müssen jene aber selbst regeln.
Weil Polen dies nicht rechtzeitig geschafft und insbesondere keine nationale Aufsichtsstelle (Digital Services Coordinator) benannt hat, leitete die EU-Kommission im Vorjahr ein Vertragsverletzungsverfahren vor dem Europäischen Gerichtshof (EuGH) ein. Eine Verurteilung scheint angesichts der gegenwärtigen Blockade wahrscheinlich.
Gegen die Regulierung sozialer Medien hatte bereits die rechtsgerichtete PiS-Vorgängerregierung gewettert. Um angebliche Zensur im Internet zu verhindern, brachte etwa Ex-Premier Mateusz Morawiecki im Vorfeld des DSA ein einschlägiges Gesetz auf den Weg. Neben fragwürdigen Überwachungsbefugnissen sollte es Nutzer:innen die Möglichkeit geben, sich gegen aus ihrer Sicht ungerechtfertigte Sperren zu wehren. Letzteres entspricht grob den im DSA enthaltenen Verfahrenswegen.
Nachgebessertes Gesetz
Konkret stößt sich nun Präsident Nawrocki vor allem daran, dass die Regulierungsbehörden für Telekommunikation (UKE) sowie für Rundfunk (KRRiT) bestimmte Inhalte sperren lassen können, etwa bei Verdacht auf kriminelle Bedrohungen, Kindesmissbrauch oder Urheberrechtsverletzungen. Frühere Gesetzentwürfe hatten derartige administrativ verhängte Sperren vorgesehen, ohne dass Nutzer:innen sie formal hätten anfechten können.
Nach Protesten der Opposition, aber auch von Nichtregierungsorganisationen wie Panoptykon oder der Helsinki Foundation for Human Rights legte die Regierung im Sommer einen neuen Entwurf vor. Diesem hatte sie die Giftzähne gezogen, wie aus einer Analyse von Panoptykon hervorgeht. So soll bei Sperrentscheidungen stets ein unabhängiges Gericht das letzte Wort haben, außerdem können betroffene Nutzer:innen Einspruch einlegen, bevor eine etwaige Sperre in Kraft tritt.
Nawrocki stellte dies nicht zufrieden: „Statt einer echten richterlichen Kontrolle wurde eine absurde Lösung eingeführt: ein Einspruch gegen die Entscheidung von Beamt:innen, den Bürger:innen innerhalb von 14 Tagen einlegen müssen“, behauptete der Präsident.
Letzter Appell blieb fruchtlos
Aus Sicht der Regierung sowie von NGOs und Fachleuten ist an der Kritik jedoch nicht viel dran. Letzte Woche appellierten etwa über 100 Expert:innen aus der polnischen Zivilgesellschaft, darunter Psycholog:innen, Netzaktivist:innen und Menschenrechtler:innen, an Nawrocki beziehungsweise seine Frau, das nachgebesserte und längst überfällige Gesetz zu unterzeichnen. Marta Nawrocka setzt sich gegen Hass im Netz ein und hat jüngst angekündigt, deshalb eine eigene Organisation ins Leben rufen zu wollen.
„Expert:innen betonen, dass ein Veto gegen die Umsetzung der EU-Verordnung, die zum Schutz der Nutzerrechte angesichts von Giganten wie TikTok, Instagram und YouTube geschaffen wurde, Kinder einem noch stärkeren unkontrollierten Kontakt mit gefährlichen Inhalten sowie Technologieabhängigkeit und psychischen Problemen aussetzen wird“, heißt es in einem offenen Brief an Nawrocka.
Offenkundig hat der Appell nicht gefruchtet. Nicht nachvollziehen kann die Blockade etwa Katarzyna Szymielewicz, Präsidentin der Digital-NGO Panoptykon. „Das Veto des Präsidenten zerstört die Chance, Pol:innen, einschließlich der Jüngsten, besser vor den Interessen von (anti-)sozialen Medien wie X oder YouTube zu schützen“, sagte Szymielewicz. Dabei gehe es schlicht um die Implementierung des DSA. Es sei schwierig für die NGO, die Entscheidung des polnischen Präsidenten zu verstehen, so Szymielewicz.
Vize-Premier und Digitalminister Krzysztof Gawkowski warf dem Präsidenten vor, ein „Veto gegen Online-Sicherheit“ eingelegt zu haben, berichtet Politico. In einer Pressekonferenz wies er demnach die Argumente Nawrockis zurück und betonte, der Gesetzentwurf sehe ausdrücklich vor, dass Gerichte und nicht Beamt:innen über potenziell illegale Online-Inhalte urteilen sollen.
Internationaler Zankapfel „Inhaltemoderation“
Der Streit um den DSA fällt in eine Zeit, in der nicht nur polnische Erzkonservative, sondern auch ihre politischen Verbündeten in den USA gegen die Regulierung von Big Tech Sturm laufen. Vertreter:innen der US-Regierung, darunter Präsident Donald Trump sowie sein Stellvertreter, JD Vance, beklagen seit langem einen angeblichen „Zensur-Industrie-Komplex“ in Europa. Vance drohte etwa auf der letzten Münchner Sicherheitskonferenz sogar mit einem NATO-Ausstieg der USA, sollte die EU konsequent gegen Hassrede im Internet und generell gegen die Übermacht von Big Tech vorgehen.
Das sind nicht nur Sonntagsreden: Bereits am ersten Tag seiner aktuellen Amtszeit hatte Donald Trump eine Verfügung unterzeichnet, in der er das „Ende der Zensur von geschützter Rede“ ankündigte. Darunter fallen offenbar auch Verstöße gegen Transparenzvorgaben, die nichts mit Inhaltemoderation zu tun haben: Gegen eine im Dezember von der EU-Kommission verhängte Geldbuße gegen seinen Online-Dienst X reagierte der Trump-Verbündete und US-Milliardär Elon Musk mit Schaum vor dem Mund samt der Forderung, die EU abzuschaffen. Auch Meta-Chef Mark Zuckerberg freute sich öffentlich über die Rückendeckung der Trump-Administration, gegen vermeintliche Zensur im Ausland vorzugehen.
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Zuletzt hat US-Außenminister Marco Rubio eine Reihe von Europäer:innen, unter anderem den ehemaligen EU-Digitalkommissar Thierry Breton und zwei Jurist:innen der deutschen NGO HateAid, zu im Land unerwünschten Personen erklärt. „Diese radikalen Aktivisten und instrumentalisierten NGOs haben die Zensurmaßnahmen ausländischer Staaten vorangetrieben – in jedem Fall mit dem Ziel, amerikanische Nutzer:innen und amerikanische Unternehmen ins Visier zu nehmen“, begründete Rubio die Einreiseverbote.
Lügenbarone wollen ungehindert weiter lügen
Um eine sachliche und ehrliche Debatte rund um Freiheit im Netz gehe es dabei nicht, analysiert der ehemalige UN-Sonderberichterstatter für Meinungsfreiheit, David Kaye. „Perfekt“ sei der DSA wohl nicht, doch gebe es in der EU weder Zensur noch einen einschlägigen Zensurkomplex oder eine Diskriminierung abweichender Standpunkte, schreibt Kaye.
Letztlich handle es sich um blanke Lügen von Trump & Co., um ein gänzlich anderes Ziel zu erreichen: „Vielmehr verbreiten die Regierung und ihre Verbündeten die Falschbehauptung der europäischen Zensur als Teil einer konzertierten Aktion, um die Demokratie auf beiden Seiten des Atlantiks zu untergraben“, so Kaye.
Karol Nawrocki wiederum hat im vergangenen Sommer die Präsidentschaftswahlen mit hauchdünner Mehrheit gewonnen – mutmaßlich mit Hilfe des rechtsextremen rumänischen Politikers George Simion und seines Umfelds, wie kürzlich das Investigativmedium VSquare berichtete. Zum Kandidaten wurde der parteilose Historiker von der ultrakonservativen und jahrelang regierenden PiS-Partei nominiert.
Nawrocki stellt nun eines der Gegengewichte zur pro-europäischen KO-Regierung unter Premier Donald Tusk. Wiederholt hat er ihr mit Obstruktionstaktiken das Leben schwergemacht. Wie der öffentlich-rechtliche Radiosender Polskie Radio vorrechnet, hat Nawrocki in nur sechs Monaten mehr Vetos eingelegt als sein Vorgänger, der PiS-Politiker Andrzej Duda, in seiner zehnjährigen Amtszeit.
Unheilige Allianz
Ein Geheimnis um seine Loyalitäten macht Nawrocki jedenfalls nicht. Unter anderem besuchte er im Wahlkampf Donald Trump im Mai 2025 im Weißen Haus, um sich mit ihm im Oval Office ablichten zu lassen – inklusive nach oben gerecktem Daumen, einem Markenzeichen des US-Präsidenten. Zu den natürlichen Verbündeten des polnischen Rechtsnationalisten zählt aber auch der ungarische Premier Viktor Orbán, selbst wenn dessen Russlandnähe in Polen regelmäßig für Stirnrunzeln und sogar für abgesagte Staatsbesuche sorgt.
Doch solche Bündnisse sind nicht leicht aus dem Tritt zu bringen. Erst gestern hat der autoritär regierende Orbán dem aus Polen geflohenen Ex-Justizminister Zbigniew Ziobro Asyl gewährt. Der PiS-Politiker war mitverantwortlich für den polnischen Pegasus-Überwachungsskandal, bei dem unter anderem politische Gegner:innen ausgespäht wurden. Gegen Ziobro wurden Ermittlungen wegen Korruption eingeleitet, denen er sich durch die Flucht nach Ungarn entzogen hat. Ziobro weist die Vorwürfe zurück und wirft der Tusk-Regierung „politische Repression“ vor.
Datenschutz & Sicherheit
Die Woche, in der wir eine Blamage kommen sehen
Liebe Leser:innen,
es gibt Wochen, da zieht sich ein bestimmtes Thema über Tage bei uns durch. Und es gibt andere Wochen, da ist es nur ein Fragment, das kurz aufblitzt und hängen bleibt.
In dieser Woche war es ein Fragment. Konkret: eine Antwort des sächsischen Innenministeriums.
Das Haus von Armin Schuster (CDU) will den biometrischen Abgleich von Gesichtern und Stimmen mit Internetdaten erlauben. Eine Polizeigesetznovelle soll den Weg dafür ebnen.
Schuster begründet die neuen Befugnisse damit, dass sich „eine Blamage“ wie bei der RAF-Terroristin Daniela Klette nicht wiederholen dürfe. Klette war über Jahre untergetaucht, Hinweise auf ihren Aufenthaltsort hatten dann zwei Journalisten mit Hilfe der umstrittenen Gesichtersuchmaschine PimEyes gefunden.
Allerdings steht Schuster vor hohen Hürden. Denn für einen biometrischen Abgleich braucht sein Ministerium eigentlich eine sehr, sehr große biometrische Datenbank. Eine solche anzulegen oder zu nutzen, verbietet aber die KI-Verordnung der EU – „und zwar ausnahmslos“, wie die Nichtregierungsorganisation AlgorithmWatch in einem Gutachten festgestellt hat.
Das sächsische Innenministerium ficht das nicht an. Man werde Tools verwenden, „die sich der grundsätzlichen Datenbankstruktur des Internets bedienen und keine polizeieigene Datenbank für alle Informationen des Internets erstellen“. Außerdem fokussiere sich die geplante Novelle „auf den anlassbezogenen Auftragsbereich der Gefahrenabwehr“.
Ein biometrischer Abgleich ohne Referenzdatenbank? Das geht effektiv nicht, sagt nicht nur AlgorithmWatch, sondern schreiben auch die Wissenschaftlichen Dienste des Deutschen Bundestages in ihrem kürzlich veröffentlichten Gutachten.
Und Gefahrenabwehr wird als Argument wohl kaum ausreichen, um die KI-Verordnung auszuhebeln, falls das sächsische Innenministerium etwas derartiges plant. Eine abschließende Entscheidung über deren Auslegung obliege dem Europäischen Gerichtshof, schreiben vorausahnend die Wissenschaftlichen Dienste des Bundestages.
Ich bin gespannt, wie die Geschichte weitergeht – und wer sich am Ende wie blamiert. Haben wir hier etwas missverstanden? Hat das Ministerium die Sachlage intern noch nicht ausreichend geklärt? Oder sind das Anzeichen eines Schusterschen Trumpismus, der Expertise und rechtsstaatliche Prinzipien einfach mal über Bord wirft?
Habt ein frühlingshaftes Wochenende
Daniel
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Datenschutz & Sicherheit
Schweiz: Die E-ID kommt später
Der elektronische Ausweis der Schweiz, die E-ID, kommt Ende dieses Jahres, später als gedacht – dafür aber mit Anpassungen und zusätzlichem Fokus auf Sicherheit und Akzeptanz. Das hat die Schweizer Regierung, der Bundesrat, bekanntgegeben. Im September 2025 entschieden sich die Schweizer Bürgerinnen und Bürger in einer Volksabstimmung mit denkbar knapper Zustimmung für die Einführung der E-ID.
Weiterlesen nach der Anzeige
Staat vor Privat
Schon einmal, heute vor fast fünf Jahren, wurde über die Einführung einer staatlichen elektronischen Identitätskarte abgestimmt. Die damalige E-ID Version 1.0 sollte jedoch von Privatunternehmen herausgegeben werden, was von den Stimmbürgern mit über 64 Prozent deutlich abgelehnt wurde. Bei der Abstimmung im vergangenen Jahr hat es mit 50,39 Prozent gerade mal gereicht, doch die Akzeptanz eines elektronischen Ausweises war erneut niedrig: Diverse Kritikpunkte und Bedenken blieben trotz oder eher wegen des verhaltenen Ja zur Bereinigung, etwa hinsichtlich des Datenschutzes und der Sicherheit. Diese sollten, so wollte es der Bundesrat nach der letzten Abstimmung, vom Bundesamt für Justiz (BJ) aus der Welt geschafft werden.
Am Mittwoch ließ sich der Bundesrat über die bereits ausgeführten sowie geplanten Anpassungen informieren und gab anschließend bekannt, dass die neue E-ID voraussichtlich ab dem 1. Dezember 2026 eingesetzt werden kann. Ursprünglich war der Sommer 2026 anvisiert worden.
Die E‑ID basiert auf einem staatlichen Wallet („Swiyu“-App) und soll digitale Identitätsnachweise ermöglichen – etwa für den Zugang zu Online‑Diensten (Altersverifikationen) oder den Bezug von amtlichen Dokumenten. Dementsprechend ist sie auch ein Schlüsselprojekt der digitalen Verwaltung.
Sicherheitslücken und Vertrauenswürdigkeit im Fokus
Im Fokus der zusätzlichen Maßnahmen, die nun zügig angegangen und fortgesetzt werden sollen, stehen das Schließen von Sicherheitslücken sowie die Erhöhung der Vertrauenswürdigkeit bei der Nutzung der E-ID und der dazugehörigen Infrastruktur. So wird es laut aktuellen Plänen des Bundes nur noch für gesetzlich berechtigte Anbieterinnen möglich sein, die AHV-Nummer (Rentenversicherung) der Nutzenden abzufragen. Unautorisierte Anfragen sollen von der Swiyu-Wallet automatisch blockiert werden.
Weiterlesen nach der Anzeige
Außerdem würden Anbieter verpflichtet, im Vorhinein ihre gewünschten Datenabfragen und deren Zweck in einem öffentlich zugänglichen Register des Bundes zu hinterlegen, teilt der Bundesrat in einer Medienmitteilung mit. Fehle die Registrierung oder verlange der Anbieter zu viele Informationen über die Nutzenden, erhalten diese in ihrer Swiyu-Wallet eine Warnung und können beim Bundesamt für Justiz eine entsprechende Missbrauchsmeldung machen. Eine „fehlbare Anbieterin“ könne „das BJ als letzte Maßnahme vom E-ID-System und der Vertrauensinfrastruktur ausschließen“, heißt es.
Grundsätzlich soll für die E-ID-Inhaber:innen mehr Transparenz hergestellt werden. Vorgesehen seien auch Hinweise und Warnungen in der Swiyu-Wallet, durch die sich die Nutzenden schnell und unkompliziert über die Vertrauenswürdigkeit der Anbieter informieren könnten, teilt der Bund mit.
Planung und Ausführung mit Schwächen
Die Eidgenössische Finanzkontrolle (EFK) äußerte Mitte Februar zudem einige Kritik und Bedenken hinsichtlich der sicheren und termingerechten Einführung des digitalen Identitätsausweises. Vor allem gebe es noch Sicherheitslücken, etwa bei der Verschlüsselung der Nutzdaten, die bei der Ausstellung der E-ID zwischen den daran Teilnehmenden übermittelt werden und grundsätzlich Ende-zu-Ende verschlüsselt werden müssten. Die EFK zeigte sich „jedoch überrascht, dass die entsprechende Konzeption der Nutzdatenverschlüsselung bei der E-ID noch nicht abgeschlossen ist“. Beim Projekt „Vertrauensinfrastruktur“ sei noch nicht einmal die Entwicklung einer Verschlüsselungskonzeption konsequent angegangen worden. Die Planungsunterlagen sahen ursprünglich einen Abschluss dieser Aufgaben bis Ende 2025 vor.
Als Vertrauensinfrastruktur wird die technische Plattform bezeichnet, die für die Prozesse beim Einsatz (Ausstellung, Speicherung und Verarbeitung) der E-ID vom Bund zur Verfügung gestellt wird. Die Vertrauensinfrastruktur ist offen gestaltet, sodass auch andere elektronische Nachweise darin abgebildet werden können, wie etwa der elektronische Lernfahrausweis der Schweiz (eLFA) der bereits seit Anfang des Jahres in der Swiyu-App ausgestellt wird.
Aufgrund der noch offenen Aufgaben empfahl das EFK letztlich, die Verschiebung des E-ID-Starttermins in Betracht zu ziehen, was nun auch beschlossen wurde.
(kbe)
Datenschutz & Sicherheit
Bericht für den Bundestag: So gefährlich sind Deepfakes
Im Jahr 2020 veröffentlicht der britische TV-Sender Channel 4 eine sonderbare Weihnachtsansprache. Zu sehen ist eine Person, die man auf den ersten Blick für die (inzwischen verstorbene) Königin Elisabeth II. halten muss. Nur ihre Worte klingen zunehmend weniger royal. Schließlich besteigt die vermeintliche Queen ihren Schreibtisch und legt unter Konfetti-Regen einen TikTok-Tanz hin.
Die Auflösung der Szene zeigt Channel 4 direkt im Anschluss: Die mit vergoldetem Stuck verzierten Wände weichen einem Greenscreen. Statt der Königin kommt eine Darstellerin zum Vorschein. Schon damals nannte man die eingesetzte Tricktechnik „Deepfake“. Es geht um synthetische Darstellungen, die täuschend echt aussehen. Heute kann jeder Mensch mit öffentlichen Online-Werkzeugen solche und noch aufwendigere Inhalte selbst erstellen. Möglich machen es Bild- und Videogeneratoren, die viele als KI bezeichnen.
Die Weihnachtsansprache der falschen Queen ist nur ein Beispiel aus einem lesenswerten Bericht über die Gefahren und Potenziale von Deepfakes, den Forschende im Auftrag des Bundestags erstellt haben. Das im Januar veröffentlichte Papier kommt aus dem Büro für Technikfolgen-Abschätzung. Es berät das Parlament in Fragen von Wissenschaft und Technik mit nach eigener Aussage unparteiischen Analysen.
Auf 46 Seiten buchstabieren die Forschenden aus, was mit Deepfakes alles möglich ist; wo sie Schaden anrichten oder Gutes bewirken können. Teils sehen die Forschenden Bedarf für strengere Regulierung, teils machen sie aber auch klar: Mit Gesetzen allein kommt man nicht weiter. Die Zusammenfassung.
Deepfakes: Das sind die Gefahren
Deepfakes können „sowohl für böswillige als auch für wohlmeinende Zwecke angewendet werden“, schreiben die Forschenden. Mindestens vier konkrete Risiken lassen sich aus dem Bericht zusammenfassen.
- Nicht-einvernehmliche, sexuelle Aufnahmen: Mit Deepfake-Technologie können Menschen beliebige Gesichter fotorealistisch in Pornos montieren; sie können Kleider in Aufnahmen durch nackte Körper ersetzen – oder gänzlich neue Aufnahmen generieren. Die Forschenden schätzen: Dieses Phänomen ist das häufigste. Betroffen seien „fast ausschließlich“ Frauen. Sie würden bloßgestellt, herabgewürdigt, eingeschüchtert und erpresst. Diese Fälle seien nicht als individuelle Übergriffe zu werten, sondern hätten gesellschaftliche Auswirkungen, „indem sie die Gleichstellung von Frauen im öffentlichen, digitalen Raum angreifen“.
- Politische Manipulation: In einem Deepfake-Video aus dem Jahr 2022 hatte ein vermeintlicher Präsident Selenskyj die Kapitulation der Ukraine vor dem Aggressor Russland erklärt. Mit diesem Beispiel illustrieren die Forschenden die Gefahr von politisch motivierten Deepfakes. Sie können auf die öffentliche Meinungsbildung abzielen oder Unruhen anheizen. Bereits der Verdacht, dass eine Aufnahme gefälscht ist, könne „den gesellschaftlichen Zusammenhalt destabilisieren“. Nennenswerte Auswirkungen hätten solche politischen Deepfakes allerdings noch nicht gehabt, „trotz vieler Fälle insbesondere im Kontext von Wahlkämpfen“.
- Gefälschte Aussagen und Beweise: Immer wieder dienen Kamerabilder als Beweise vor Gericht. Aber Deepfakes „stellen grundlegend die Glaubwürdigkeit von Bild-, Ton- und Videodokumenten in juristischen Verfahren infrage“, warnen die Forschenden. Durch vermeintliches Beweismaterial könnten Menschen auch unberechtigt in Verdacht geraten. Als weiteres Problem nennen die Forschenden virtuelle Gerichtsverhandlungen. Hier sei das Risiko erhöht, dass eine per Video zugeschaltete Person ein Deepfake ist.
- Betrug: Mit Deepfakes können Kriminelle Gesichter und Stimmen imitieren und sich als jemand anderes ausgeben. Die Forschenden schreiben von einer „neuen Form des Enkeltricks“. Als Beispiel nennen sie einen britischen Fall aus dem Jahr 2019: Die Führungskraft eines Unternehmens hatte 220.000 Euro auf ein ungarisches Konto überwiesen, weil der vermeintliche Chef per Telefon darum gebeten hatte.
Deepfakes: Das sind die Potenziale
Deepfakes sind ambivalent. Mindestens fünf Einsatzmöglichkeiten beschreiben die Forschenden in ihrem Bericht als positiv, einige aber mit ethischen Bedenken.
- Medien: „Deepfakes sind ein neues Werkzeug, um der eigenen Kreativität Ausdruck zu verleihen“, schreiben die Forschenden. Möchte man etwa Filme in andere Sprachen übersetzen, lassen sich mit Deepfakes die Lippenbewegungen anpassen. Gealterte Darsteller*innen können jüngere Versionen von sich selbst verkörpern. Das werfe allerdings die Frage auf, ob es Filme mit bereits verstorbenen Schauspieler*innen geben dürfe. Satirische Deepfakes wiederum könnten „durch humoristische Kritik“ Debatten anstoßen. In journalistischen Videos könnten Deepfakes Quellen verfremden, die anonym bleiben wollen.
- Bildung: Für TV-Dokus stellen Medienmacher*innen gerne historische Szenen nach. Deepfakes könnten wichtige Persönlichkeiten oder Ereignisse der Zeitgeschichte besonders eindrücklich erfahrbar machen, schreiben die Forschenden. In der beruflichen Bildung wiederum können Lehrkräfte mithilfe von Deepfakes gefährliche Situationen besser simulieren.
- Gesundheit: Diese Anwendungsfälle werden gerade noch erforscht, heißt es im Bericht. Zum Beispiel könnten Menschen, die nach einer OP nicht mehr wie zuvor sprechen können, ihre Stimme synthetisch erzeugen lassen. Auch würden Wissenschaftler*innen diskutieren, ob Deepfakes Menschen dabei helfen können, bestimmte Traumata zu verarbeiten.
- Verdeckte Ermittlungen: Auf ethisch und juristisch dünnem Eis bewegen sich mehrere Anwendungsfälle für die Polizei. Schon heute darf sich die Polizei mit künstlich erzeugten Aufnahmen sogenannter Kinderpornografie Zutritt zu Netzwerken von Pädokriminellen verschaffen – obwohl der Besitz dieses Materials strafbar ist. Deepfake-Technologie macht es zunehmend einfacher, solche Darstellungen zu generieren. Darüber hinaus diskutieren Behörden, ob sie Deepfakes für verdeckte Ermittlungen einsetzen können. Konkret könnten Beamt*innen dem Bericht zufolge die Stimme von Menschen aus dem Umfeld eines Verdächtigen imitieren. „Nach derzeitiger Rechtslage ist ein solches Vorgehen in Deutschland allerdings nicht möglich“, schreiben die Forschenden.
- Öffentliche Kommunikation der Polizei: Mit Deepfake-Technologie kann die Polizei Fotos von Vermissten bearbeiten, die inzwischen älter aussehen müssten, wie die Forschenden erklären. Auch bei öffentlichen Aufrufen könnten Deepfakes zum Einsatz kommen. Als Beispiel nennt der Bericht ein Video der niederländischen Polizei aus dem Jahr 2022: Darin bittet ein per Deepfake animierter, getöteter Jugendlicher die Öffentlichkeit um Hinweise auf seinen eigenen Tod. Ethische Bedenken äußern die Forschenden an dieser Stelle nicht.
Das schützt schon heute vor Deepfakes
Das eine Anti-Deepfake-Gesetz gibt es nicht, stattdessen aber ein Bündel an Regulierungen je nach Art des Deepfakes. Teils unterscheiden sich die Vorschriften in Deutschland, Europa und anderen Ländern der Welt.
- Nicht-einvernehmliche, sexuelle Deepfakes sind in der EU strafbar, zumindest, wenn Menschen sie verbreiten. Das verlangt die neue Richtlinie zur Bekämpfung von Gewalt gegen Frauen, die Mitgliedstaaten wie Deutschland noch umsetzen müssen. In den USA reguliert der Take It Down Act das Phänomen. Das aktuelle deutsche Strafrecht bietet generell für betroffene bildbasierter Gewalt noch einen Flickenteppich an Regelungen.
- Deepfakes von Politiker*innen im Vorfeld von Wahlen sind in einigen US-Bundesstaaten reguliert, wie der Bericht ausführt. Konkret geht es um Deepfakes, die „darauf abzielen, den Ruf eines Kandidaten zu schädigen oder das Ergebnis einer Wahl zu beeinflussen“; ausdrücklich ausgenommen sind demnach Parodie und Satire.
- Eine Kennzeichnungspflicht von Deepfakes steht in der KI-Verordnung (AI Act) der EU. Anbieter von KI-Systemen müssen demnach dafür sorgen, dass KI-Erzeugnisse einen maschinenlesbaren Hinweis verpasst bekommen. Die Maßnahmen werden jedoch als „ineffektiv und nicht ausreichend“ erachtet. Selbst korrekt gekennzeichnete Inhalte würden viele Leute erreichen.
- Meldeverfahren und Moderation bei rechtswidrigen Inhalten schreibt in der EU das Gesetz über digitale Dienste (DSA) vor, und betrifft damit auch rechtswidrige Deepfakes. Kritik gibt es aber bei der Umsetzung: So schreibe das Gesetz keine konkreten Fristen dafür vor, wie schnell Anbieter reagieren müssen.
- Das deutsche Zivilrecht gibt Betroffenen von Deepfakes je nach Fall verschiedene Mittel an die Hand. Zum Beispiel schützt das allgemeine Persönlichkeitsrecht das Recht am eigenen Bild, den Schutz der persönlichen Ehre – oder „das Recht, von der Unterschiebung nicht getätigter Äußerungen verschont zu bleiben“, führen die Forschenden aus. All das kann bei nicht-einvernehmlichen Deepfakes relevant sein. Die Krux ist hier eher: Betroffene haben es schwer, ihre Ansprüche vor Gericht durchzusetzen.
- Das deutsche Strafrecht erfasst mehr als nicht-einvernehmliche sexuelle Deepfakes. Wenn Deepfakes zum Beispiel genutzt werden, um Menschen Geld aus der Tasche zu ziehen, kann Betrug in Frage kommen. Erstellen Kriminelle per Deepfakes kompromittierendes Material und drohen mit dessen Veröffentlichung, können das Erpressung oder Nötigung sein, wie der Bericht ausführt.
Das sind die Lücken beim Schutz vor Deepfakes
Das Wort „Lücken“ taucht im Bericht insgesamt acht Mal auf. Die Forschenden machen aber auch klar, dass die gestückelte Regulierung von Deepfakes einen tieferen Sinn hat: Das deutsche Rechtssystem ist nämlich technologieneutral. Das heißt, es orientiert sich nicht an bestimmten Technologien wie Deepfakes, sondern an Rechtsgütern wie Datenschutz, Ehre oder dem Recht am eigenen Bild.
Manches wiederum lässt sich nicht mit Gesetzen lösen. Das zeigen zumindest einige der offenen Baustellen, die aus dem Bericht hervorgehen.
- Im deutschen Strafrecht erkennen die Forschenden Lücken im Kontext von nicht-einvernehmlichen sexuellen Deepfakes. Hier müsse die EU-Richtlinie, die deren Verbreitung unter Strafe stellt, „noch in nationales Recht umgesetzt werden“.
- Die Durchsetzung des Rechts kann dem Bericht zufolge daran scheitern, dass Ermittler*innen schlicht nicht wissen, welche Behörde zuständig ist. „Deepfakes können global verbreitet werden, ihre Bekämpfung erfordert daher regelmäßig eine internationale Zusammenarbeit“, so der Bericht.
- Beim Schutz vor Diskriminierung sehen die Forschenden eine weitere Lücke. So könnten KI-generierte Darstellungen Stereotype von Geschlechtern darstellen oder rassistische Annahmen reproduzieren. Konkretes Beispiel aus dem Bericht: wenn KI-generierte „Terroristen“ stets „männlich“ sind und eine „dunkler Hautfarbe“ hätten. Zwar ist der Schutz vor Diskriminierung auch in der EU gesetzlich verankert; in der Praxis gebe es bei entsprechenden Deepfakes aber kaum Handhabe, wie aus dem Bericht hervorgeht.
- Zuverlässig erkennen lassen sich Deepfakes nicht. Zwar entwickeln Forschende zunehmend bessere Software dafür, doch im Gegenzug lassen sich auch KI-Systeme gezielt darauf trainieren, Deepfake-Detektoren zu täuschen. Das Ergebnis ist ein „Katz-und-Maus-Spiel“, schreiben die Forschenden. „Detektoren erweisen sich daher in ihrer Effektivität als zeitlich begrenzt und laufen den Weiterentwicklungen von Deepfakes stets hinterher.“
- Mehr öffentliche Aufklärung über Fälle von schädigenden Deepfakes ist laut Bericht eine Gegenmaßnahme, „um die Aufmerksamkeit für das Problem zu erhöhen und Schutzmaßnahmen zu verbessern“. An dieser Stelle gehen die Forschenden allerdings nicht darauf ein, dass Berichte über Deepfakes auch deren Reichweite erhöhen.
- Standards und Regeln im Umgang mit KI-generierten Inhalten sind eine weitere Option, so die Forschenden. Das betreffe etwa Parteien und Medien. „Auf diese Weise kann die Grenze zwischen kreativen und gefahrlosen und schädigenden Anwendungen deutlich gemacht werden.“
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 1 Woche
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
