Connect with us

Datenschutz & Sicherheit

Zwischen Vergeltungsdrohungen und Australiens Jugendschutz-Experiment



Der DSC-Beirat ist ein Gremium aus Zivilgesellschaft, Forschung und Wirtschaft. Er soll in Deutschland die Durchsetzung des Digital Services Act begleiten und den zuständigen Digital Services Coordinator unterstützen. Svea Windwehr ist Mitglied des Beirats und berichtet in dieser Kolumne regelmäßig aus den Sitzungen.

Obwohl es seit Oktober einen neuen DSC-Beirat gibt – dem auch ich wieder angehören darf –, konnte er seine Arbeit noch nicht aufnehmen. Das ist ungünstig, denn es ist viel passiert: Die Durchsetzung des Digital Services Act (DSA) ist in eine entscheidende neue Phase getreten, transatlantische Spannungen nehmen weiter zu und Australien hat beim Thema Altersverifikation einen drastischen neuen Weg eingeschlagen, der auch in Europa Anklang findet. Darum gibt es heute ein Update aus der Welt der Plattformregulierung, bevor der neu besetzte DSC-Beirat am 27. Januar zum ersten Mal tagt.

Neuer Beirat, neue Sorgen

Mit viel Verzögerung wurde der Beirat des deutschen DSC am 16. Oktober vom Deutschen Bundestag neu besetzt. Dabei ist einiges beim Alten geblieben und gleichzeitig wird das Gremium in Zukunft grundlegend anders aussehen.

Das fängt bei der Größe des Beirats an. Das Digitale-Dienste-Gesetz sieht vor, dass der Beirat aus 16 Personen besteht – davon acht Vertreter:innen der Zivilgesellschaft, vier Repräsentant:innen der Wirtschaft und vier Forschende. In dieser Legislatur schrumpft der Beirat auf 12 Personen. Das liegt am gesellschaftlichen Rechtsruck und der AfD, die ihrer gewachsenen Fraktionsstärke entsprechend vier Beiratsmitglieder vorschlagen durfte.

Diese Vorschläge – darunter die Initiatorin der rechtsextremen Buchmesse „Seitenwechsel“, der Leiter des Landesfachausschusses für Bildung, Wissenschaft, Kultur und Medien der AfD Sachsen sowie ein geschichtsrevisionistischer Landtagsabgeordneter der AfD in Baden-Württemberg wurden von den demokratischen Fraktionen des Bundestages abgelehnt. Das sind gute Nachrichten und es zeigt, dass zumindest hier noch fraktionsübergreifende Zusammenarbeit gegen eine rechtsextreme Partei möglich ist.

Der Beirat ist allerdings nicht gleichmäßig geschrumpft. Für ihre vier Slots hat die AfD in drei Fällen „zivilgesellschaftliche“ Kandidat:innen vorgeschlagen, weshalb diese Gruppe im neuen Beirat mit nur fünf statt vorgesehenen acht Plätzen repräsentiert ist und damit am stärksten dezimiert wurde. Generell scheint Zivilgesellschaft ein dehnbarer Begriff zu sein, wie die erneuten Nominierungen eines ehemaligen Präsidenten einer Landesmedienanstalt und eines Oberstaatsanwalts nahelegen. Von der gesetzlich angedachten Stärke der Zivilgesellschaft im Beirat des DSC ist nicht viel übrig geblieben.

Angesichts der enormen Expertise vieler zivilgesellschaftlicher Organisationen im Bereich Plattformregulierung ist das ein großer Verlust: Zahlreiche bisherige Aufsichtsverfahren und private Klagen gehen auf die Initiative zivilgesellschaftlicher Organisationen zurück oder stützen sich auf deren Beweiserhebungen. Mit dem Beirat wird eine europaweit beispiellose Chance geschaffen, dieses Fachwissen direkt in die Durchsetzung des DSA einfließen zu lassen. Darüber hinaus ist es für Aufsichtsstrukturen essenziell wichtig zu verstehen, mit welchen Herausforderungen, Einschüchterungsversuchen und Repressalien Zivilgesellschaft und Wissenschaft in ihrer Arbeit zur Durchsetzung des DSA konfrontiert sind.

Vergeltungsschlag nach X-Bußgeld?

Von Wissenschaft und Zivilgesellschaft über ihren Umgang mit diesen Herausforderungen zu lernen, wird in Zukunft wohl auch für Aufsichtsbehörden selbst immer relevanter werden. Dafür sprechen die Reaktionen der Trump-Regierung auf die lang erwartete Entscheidung der EU-Kommission, die ein Bußgeld von 120 Millionen Euro für Verstöße gegen den DSA gegen X verhängt hat.

In dem Verfahren geht es um Verstöße gegen DSA-Verpflichtungen, Forschenden Zugang zu öffentlich zugänglichen Daten zu geben und Transparenz zu Werbeanzeigen über eine dezidierte Werbebibliothek zu schaffen. X hatte Forschenden systematisch Zugang zu Daten verwehrt, indem es beispielsweise Scraping verhinderte. X’ Werbebibliothek weist strukturelle Zugangsbarrieren auf, wie übermäßige Verzögerungen bei der Verarbeitung von Anfragen. Außerdem fehlen zentrale Informationen wie der Inhalt und das Thema einer Anzeige sowie die juristische Person, die dafür bezahlt. Zusätzlich legt die Europäische Kommission den sogenannten blauen Haken auf X als irreführende Designpraxis aus. Der Haken, der früher dafür stand, dass ein Konto verifiziert war (und der damit zum heißbegehrten Symbol für Relevanz und Glaubwürdigkeit wurde), ist inzwischen käuflich zu erstehen und macht es so Nutzenden schwer, die tatsächliche Authentizität eines Accounts zu beurteilen.

Der vorläufige Abschluss des Verfahrens gegen X markiert genau das: den Abschluss eines administrativen Akts gegen einige der offensichtlichsten DSA-Verstöße. Keiner der hier thematisierten Verstöße betrifft die Meinungsfreiheit von Nutzenden oder lässt darauf schließen, dass X ins Visier genommen wurde, weil es ein US-amerikanisches Unternehmen ist. Trotzdem wird das Bußgeld gegen X als Beweis für „Civilizational Erasure“ gesehen, also die eigene Auslöschung der europäischen Zivilisation durch angebliche Zensurmaßnahmen wie den DSA. Dieser Ausdruck stammt aus der neuen Nationalen Sicherheitsstrategie der USA, die eine klare Abkehr von vormals zumindest ansatzweise geteilten transatlantischen Vorstellungen und Werten ausdrückt.

Mit den angekündigten Visa-Beschränkungen für Menschen, die zu Inhaltemoderation, Factchecking oder Compliance mit Plattformregulierung arbeiten, ist klar, dass die Drohgebärden der Trump-Administration schon lange keine reinen Gebärden mehr sind, sondern konkrete Auswirkungen für die Durchsetzung von Gesetzen wie dem DSA haben.

Zudem kommt das Bußgeld der Trump-Regierung gelegen, um den transatlantischen Handelsstreit weiter zu eskalieren. So wurden inzwischen Vergeltungsmaßnahmen gegen europäische Unternehmen wie Mistral, Spotify oder Siemens angekündigt, falls die EU nicht ihre Digitalregulierung abbaut und Verfahren gegen US-Unternehmen einstellt. Musk hat derweil die Werbekonten der EU-Kommission auf X sperren lassen.

Das Gebaren der US-Regierung ist auch eine weitere Bestätigung des enormen Einflusses der Silicon-Valley-Tech-CEOs in Trumps Weißem Haus. Dabei geht es schon lange nicht mehr nur um die persönliche Unterstützung Trumps durch Millionenspenden, sondern um eine gemeinsame Durchsetzung ihrer Interessen.

Noch ist unklar, ob die Europäische Kommission sich von den angekündigten Repressalien gegen europäische Unternehmen beeindrucken lassen wird. Die nächste Eskalation wartet derweil schon: Sollte sich Musks Ansage bewahrheiten, das Bußgeld gegen X nicht zu bezahlen, wird sich die Frage stellen, wie weit die Europäische Kommission gehen wird, um das Recht durchzusetzen. Neben weiteren Maßnahmen und höheren Bußgeldern kann die Kommission als letztes Mittel auch zu Netzsperren greifen – ein tiefer Einschnitt und kaum geeignet, um Akzeptanz für den DSA zu erhöhen. Angesichts der engen Beziehungen zwischen Trump und weiteren Tech-CEOs, deren Plattformen Gegenstand von Durchsetzungsverfahren sind, wird sich zeigen, wie weit Trumps Einschüchterungsversuche gehen werden und welche Seite zuerst Tatsachen schaffen wird.



Uns fehlen dieses
Jahr noch 162.509 Euro.


Bist Du auch Feuer und Flamme für Grundrechte?
Dann unterstütze jetzt unsere Arbeit mit einer Spende.


Bist Du auch Feuer und Flamme für Grundrechte?
Dann unterstütze jetzt unsere Arbeit mit einer Spende.

Australische Experimente

Tatsachen geschaffen hat Mitte Dezember schon Australien. Dort ist am 10. Dezember ein kontroverses Gesetz in Kraft getreten, das wohl am nächsten an ein aktuell auch in Europa gefordertes Social-Media-Verbot für Kinder und Jugendliche herankommt. Unter dem australischen Gesetz wurden eine Handvoll Online-Plattformen als „altersbeschränkte“ Plattformen designiert, darunter Instagram, TikTok und YouTube. Diese Plattformen sind nun verpflichtet, dafür zu sorgen, dass unter 16-Jährige keine neuen Nutzerkonten anlegen können und bestehende Konten gelöscht werden. Wie genau die Plattformen diese Altersbeschränkungen durchführen, ist ihnen selbst überlassen. Das australische Gesetz sieht lediglich vor, dass kein Zwang zur Nutzung von staatlichen Identitätsdokumenten bestehen darf.

Damit ist es nicht unwahrscheinlich, dass sich in Australien wiederholen wird, was in Großbritannien seit dem Inkrafttreten des dortigen Online Safety Act zu beobachten ist. Dort müssen Nutzer:innen regelmäßig ihr Alter von einer Vielzahl von kommerziellen Anbietern schätzen lassen, um weiterhin Zugang zu den von ihnen genutzten Plattformen zu haben. Die wegen ihrer vermeintlichen Niedrigschwelligkeit besonders häufig genutzte Methode der KI-gestützten Analyse biometrischer Gesichtsdaten funktioniert nachweislich schlechter bei nicht-männlichen, nicht-weißen Personen. Sie ist ungeeignet, um präzise Einschätzungen entlang von rechtlichen Schwellenwerten – zum Beispiel unter oder über 16 – vorzunehmen. Abgesehen von schwerwiegenden Datenlecks hat dies unter anderem dazu geführt, dass Nutzende den Zugriff auf Messaging-Funktionen verloren haben und dass angeblich sensible Inhalte, beispielsweise Beiträge über die Lage in Gaza oder den Krieg in der Ukraine, hinter Altersschranken versteckt wurden.

Ganz unabhängig davon, dass so verfolgte Zugangsverbote massiv in die Grundrechte von jungen Menschen eingreifen, sich online auszudrücken und an der Gesellschaft teilzuhaben, ist es fraglich, ob abstinenzbasierte Ansätze wie der australische ihre Ziele überhaupt erreichen können. Das fängt bereits bei der Robustheit der ergriffenen Maßnahmen an. Jugendliche in Großbritannien konnten durch einfachste Tricks Altersschranken umgehen, VPNs bieten nach wie vor eine einfache Methode, um lokale Altersschranken zu umgehen und australische Teens berichten, die einjährige Umsetzungsfrist des Gesetztes genutzt zu haben, um das in ihren Konten hinterlegte Alter hochzusetzen – oft mit Unterstützung ihrer Eltern. Dazu kommt, dass das australische Gesetz einige der aus Kinder- und Jugendschutzperspektive virulentesten Plattformen wie Roblox, Discord oder Steam explizit nicht umfasst. Gerade also Plattformen, die in der Vergangenheit durch mangelnde Kinderschutzeinstellungen und schlechte Inhaltemoderation Aufsehen erregt haben, sind von den Pflichten ausgenommen.

Aber auch in anderen Bereichen haben Verbote in der Vergangenheit kaum Wirkung gezeigt. Exemplarisch ist die Alkopop-Steuer aus den Nullerjahren, mit der der Konsum von süßen Alkohol-Mischgetränken unter Jugendlichen gesteuert werden sollte. Während die erhöhten Preise für Alkopops deren Konsum tatsächlich zeitweise zurückgehen ließen, führte die Steuer nicht dazu, dass junge Deutsche weniger tranken – sie stiegen schlicht auf andere alkoholische Getränke um. Aktuell sind Alkopops wieder beliebter denn je. Und hochprozentiger – Grund dafür ist die Steuer selbst, die sich an Getränke mit bis zu zehn Prozent Alkoholanteil richtet, und damit aktuelle Alkopops mit exakt zehn Prozent Alkohol nicht erfasst.

Was tatsächlich zum insgesamt rückläufigen Trinkverhalten von Jugendlichen geführt hat? Die Corona-Pandemie, verändertes Freizeitverhalten und ein Wertewandel, in dem der gewachsene Stellenwert von Fitness und Trends wie “clean eating” und “dry January” eine Rolle spielen. Das Beispiel zeigt, dass gesünderes Konsumverhalten nicht unbedingt gesetzlich erzwungen werden kann. Stattdessen sind es langfristigere Ansätze, die Erfolg zu haben scheinen. Übertragen auf das Internet wären also nicht Verbote der Weg nach vorne, sondern Aufklärung, Kompetenzaufbau, kindergerechte Online-Räume und nachhaltige gesellschaftliche Auseinandersetzungen mit verantwortungsvollem Medienkonsum.

Das alles macht Australien zu einem faszinierenden Experiment. Noch nie zuvor war es möglich, die Auswirkungen eines (zumindest teilweisen) Verbots sozialer Medien zu untersuchen. Fürsprecher:innen versprechen Verbesserungen bezüglich der mentalen Gesundheit von Kindern und Jugendlichen, weniger Mobbing und Schutz vor Kontaktaufnahme Fremder. Wahrscheinlicher scheint mir, dass australische Kinder und Jugendliche sich weiterhin online ausprobieren, vernetzen und entdecken wollen, und das auch weiterhin auf alternativen Plattformen tun werden. So oder so werden die Auswirkungen des Gesetzes wohl erst in einigen Jahren sichtbar werden.

In der Zwischenzeit besteht die Gefahr, dass Australiens harte Vorgehensweise Schule macht. Auch in Europa werden Rufe nach pauschalen Verboten immer lauter, statt die Geschäftspraktiken anzugehen, mit denen Online-Plattformen so häufig Profite über die Rechte und Bedürfnisse von jungen Nutzenden stellen. Dafür bietet der DSA zwar unperfekte, aber existente Werkzeuge, mit deren konsequenter Durchsetzung einiges zu gewinnen wäre. Noch gibt es eine Chance, nachhaltigere Wege als Verbote einzuschlagen: Lasst uns 2026 dafür streiten.



Source link

Datenschutz & Sicherheit

Bericht für den Bundestag: So gefährlich sind Deepfakes


Im Jahr 2020 veröffentlicht der britische TV-Sender Channel 4 eine sonderbare Weihnachtsansprache. Zu sehen ist eine Person, die man auf den ersten Blick für die (inzwischen verstorbene) Königin Elisabeth II. halten muss. Nur ihre Worte klingen zunehmend weniger royal. Schließlich besteigt die vermeintliche Queen ihren Schreibtisch und legt unter Konfetti-Regen einen TikTok-Tanz hin.

Die Auflösung der Szene zeigt Channel 4 direkt im Anschluss: Die mit vergoldetem Stuck verzierten Wände weichen einem Greenscreen. Statt der Königin kommt eine Darstellerin zum Vorschein. Schon damals nannte man die eingesetzte Tricktechnik „Deepfake“. Es geht um synthetische Darstellungen, die täuschend echt aussehen. Heute kann jeder Mensch mit öffentlichen Online-Werkzeugen solche und noch aufwendigere Inhalte selbst erstellen. Möglich machen es Bild- und Videogeneratoren, die viele als KI bezeichnen.

Die Weihnachtsansprache der falschen Queen ist nur ein Beispiel aus einem lesenswerten Bericht über die Gefahren und Potenziale von Deepfakes, den Forschende im Auftrag des Bundestags erstellt haben. Das im Januar veröffentlichte Papier kommt aus dem Büro für Technikfolgen-Abschätzung. Es berät das Parlament in Fragen von Wissenschaft und Technik mit nach eigener Aussage unparteiischen Analysen.

Auf 46 Seiten buchstabieren die Forschenden aus, was mit Deepfakes alles möglich ist; wo sie Schaden anrichten oder Gutes bewirken können. Teils sehen die Forschenden Bedarf für strengere Regulierung, teils machen sie aber auch klar: Mit Gesetzen allein kommt man nicht weiter. Die Zusammenfassung.

Deepfakes: Das sind die Gefahren

Deepfakes können „sowohl für böswillige als auch für wohlmeinende Zwecke angewendet werden“, schreiben die Forschenden. Mindestens vier konkrete Risiken lassen sich aus dem Bericht zusammenfassen.

  • Nicht-einvernehmliche, sexuelle Aufnahmen: Mit Deepfake-Technologie können Menschen beliebige Gesichter fotorealistisch in Pornos montieren; sie können Kleider in Aufnahmen durch nackte Körper ersetzen – oder gänzlich neue Aufnahmen generieren. Die Forschenden schätzen: Dieses Phänomen ist das häufigste. Betroffen seien „fast ausschließlich“ Frauen. Sie würden bloßgestellt, herabgewürdigt, eingeschüchtert und erpresst. Diese Fälle seien nicht als individuelle Übergriffe zu werten, sondern hätten gesellschaftliche Auswirkungen, „indem sie die Gleichstellung von Frauen im öffentlichen, digitalen Raum angreifen“.
  • Politische Manipulation: In einem Deepfake-Video aus dem Jahr 2022 hatte ein vermeintlicher Präsident Selenskyj die Kapitulation der Ukraine vor dem Aggressor Russland erklärt. Mit diesem Beispiel illustrieren die Forschenden die Gefahr von politisch motivierten Deepfakes. Sie können auf die öffentliche Meinungsbildung abzielen oder Unruhen anheizen. Bereits der Verdacht, dass eine Aufnahme gefälscht ist, könne „den gesellschaftlichen Zusammenhalt destabilisieren“. Nennenswerte Auswirkungen hätten solche politischen Deepfakes allerdings noch nicht gehabt, „trotz vieler Fälle insbesondere im Kontext von Wahlkämpfen“.
  • Gefälschte Aussagen und Beweise: Immer wieder dienen Kamerabilder als Beweise vor Gericht. Aber Deepfakes „stellen grundlegend die Glaubwürdigkeit von Bild-, Ton- und Videodokumenten in juristischen Verfahren infrage“, warnen die Forschenden. Durch vermeintliches Beweismaterial könnten Menschen auch unberechtigt in Verdacht geraten. Als weiteres Problem nennen die Forschenden virtuelle Gerichtsverhandlungen. Hier sei das Risiko erhöht, dass eine per Video zugeschaltete Person ein Deepfake ist.
  • Betrug: Mit Deepfakes können Kriminelle Gesichter und Stimmen imitieren und sich als jemand anderes ausgeben. Die Forschenden schreiben von einer „neuen Form des Enkeltricks“. Als Beispiel nennen sie einen britischen Fall aus dem Jahr 2019: Die Führungskraft eines Unternehmens hatte 220.000 Euro auf ein ungarisches Konto überwiesen, weil der vermeintliche Chef per Telefon darum gebeten hatte.

Deepfakes: Das sind die Potenziale

Deepfakes sind ambivalent. Mindestens fünf Einsatzmöglichkeiten beschreiben die Forschenden in ihrem Bericht als positiv, einige aber mit ethischen Bedenken.

  • Medien: „Deepfakes sind ein neues Werkzeug, um der eigenen Kreativität Ausdruck zu verleihen“, schreiben die Forschenden. Möchte man etwa Filme in andere Sprachen übersetzen, lassen sich mit Deepfakes die Lippenbewegungen anpassen. Gealterte Darsteller*innen können jüngere Versionen von sich selbst verkörpern. Das werfe allerdings die Frage auf, ob es Filme mit bereits verstorbenen Schauspieler*innen geben dürfe. Satirische Deepfakes wiederum könnten „durch humoristische Kritik“ Debatten anstoßen. In journalistischen Videos könnten Deepfakes Quellen verfremden, die anonym bleiben wollen.
  • Bildung: Für TV-Dokus stellen Medienmacher*innen gerne historische Szenen nach. Deepfakes könnten wichtige Persönlichkeiten oder Ereignisse der Zeitgeschichte besonders eindrücklich erfahrbar machen, schreiben die Forschenden. In der beruflichen Bildung wiederum können Lehrkräfte mithilfe von Deepfakes gefährliche Situationen besser simulieren.
  • Gesundheit: Diese Anwendungsfälle werden gerade noch erforscht, heißt es im Bericht. Zum Beispiel könnten Menschen, die nach einer OP nicht mehr wie zuvor sprechen können, ihre Stimme synthetisch erzeugen lassen. Auch würden Wissenschaftler*innen diskutieren, ob Deepfakes Menschen dabei helfen können, bestimmte Traumata zu verarbeiten.
  • Verdeckte Ermittlungen: Auf ethisch und juristisch dünnem Eis bewegen sich mehrere Anwendungsfälle für die Polizei. Schon heute darf sich die Polizei mit künstlich erzeugten Aufnahmen sogenannter Kinderpornografie Zutritt zu Netzwerken von Pädokriminellen verschaffen – obwohl der Besitz dieses Materials strafbar ist. Deepfake-Technologie macht es zunehmend einfacher, solche Darstellungen zu generieren. Darüber hinaus diskutieren Behörden, ob sie Deepfakes für verdeckte Ermittlungen einsetzen können. Konkret könnten Beamt*innen dem Bericht zufolge die Stimme von Menschen aus dem Umfeld eines Verdächtigen imitieren. „Nach derzeitiger Rechtslage ist ein solches Vorgehen in Deutschland allerdings nicht möglich“, schreiben die Forschenden.
  • Öffentliche Kommunikation der Polizei: Mit Deepfake-Technologie kann die Polizei Fotos von Vermissten bearbeiten, die inzwischen älter aussehen müssten, wie die Forschenden erklären. Auch bei öffentlichen Aufrufen könnten Deepfakes zum Einsatz kommen. Als Beispiel nennt der Bericht ein Video der niederländischen Polizei aus dem Jahr 2022: Darin bittet ein per Deepfake animierter, getöteter Jugendlicher die Öffentlichkeit um Hinweise auf seinen eigenen Tod. Ethische Bedenken äußern die Forschenden an dieser Stelle nicht.

Das schützt schon heute vor Deepfakes

Das eine Anti-Deepfake-Gesetz gibt es nicht, stattdessen aber ein Bündel an Regulierungen je nach Art des Deepfakes. Teils unterscheiden sich die Vorschriften in Deutschland, Europa und anderen Ländern der Welt.

  • Nicht-einvernehmliche, sexuelle Deepfakes sind in der EU strafbar, zumindest, wenn Menschen sie verbreiten. Das verlangt die neue Richtlinie zur Bekämpfung von Gewalt gegen Frauen, die Mitgliedstaaten wie Deutschland noch umsetzen müssen. In den USA reguliert der Take It Down Act das Phänomen. Das aktuelle deutsche Strafrecht bietet generell für betroffene bildbasierter Gewalt noch einen Flickenteppich an Regelungen.
  • Deepfakes von Politiker*innen im Vorfeld von Wahlen sind in einigen US-Bundesstaaten reguliert, wie der Bericht ausführt. Konkret geht es um Deepfakes, die „darauf abzielen, den Ruf eines Kandidaten zu schädigen oder das Ergebnis einer Wahl zu beeinflussen“; ausdrücklich ausgenommen sind demnach Parodie und Satire.
  • Eine Kennzeichnungspflicht von Deepfakes steht in der KI-Verordnung (AI Act) der EU. Anbieter von KI-Systemen müssen demnach dafür sorgen, dass KI-Erzeugnisse einen maschinenlesbaren Hinweis verpasst bekommen. Die Maßnahmen werden jedoch als „ineffektiv und nicht ausreichend“ erachtet. Selbst korrekt gekennzeichnete Inhalte würden viele Leute erreichen.
  • Meldeverfahren und Moderation bei rechtswidrigen Inhalten schreibt in der EU das Gesetz über digitale Dienste (DSA) vor, und betrifft damit auch rechtswidrige Deepfakes. Kritik gibt es aber bei der Umsetzung: So schreibe das Gesetz keine konkreten Fristen dafür vor, wie schnell Anbieter reagieren müssen.
  • Das deutsche Zivilrecht gibt Betroffenen von Deepfakes je nach Fall verschiedene Mittel an die Hand. Zum Beispiel schützt das allgemeine Persönlichkeitsrecht das Recht am eigenen Bild, den Schutz der persönlichen Ehre – oder „das Recht, von der Unterschiebung nicht getätigter Äußerungen verschont zu bleiben“, führen die Forschenden aus. All das kann bei nicht-einvernehmlichen Deepfakes relevant sein. Die Krux ist hier eher: Betroffene haben es schwer, ihre Ansprüche vor Gericht durchzusetzen.
  • Das deutsche Strafrecht erfasst mehr als nicht-einvernehmliche sexuelle Deepfakes. Wenn Deepfakes zum Beispiel genutzt werden, um Menschen Geld aus der Tasche zu ziehen, kann Betrug in Frage kommen. Erstellen Kriminelle per Deepfakes kompromittierendes Material und drohen mit dessen Veröffentlichung, können das Erpressung oder Nötigung sein, wie der Bericht ausführt.

Das sind die Lücken beim Schutz vor Deepfakes

Das Wort „Lücken“ taucht im Bericht insgesamt acht Mal auf. Die Forschenden machen aber auch klar, dass die gestückelte Regulierung von Deepfakes einen tieferen Sinn hat: Das deutsche Rechtssystem ist nämlich technologieneutral. Das heißt, es orientiert sich nicht an bestimmten Technologien wie Deepfakes, sondern an Rechtsgütern wie Datenschutz, Ehre oder dem Recht am eigenen Bild.

Manches wiederum lässt sich nicht mit Gesetzen lösen. Das zeigen zumindest einige der offenen Baustellen, die aus dem Bericht hervorgehen.

  • Im deutschen Strafrecht erkennen die Forschenden Lücken im Kontext von nicht-einvernehmlichen sexuellen Deepfakes. Hier müsse die EU-Richtlinie, die deren Verbreitung unter Strafe stellt, „noch in nationales Recht umgesetzt werden“.
  • Die Durchsetzung des Rechts kann dem Bericht zufolge daran scheitern, dass Ermittler*innen schlicht nicht wissen, welche Behörde zuständig ist. „Deepfakes können global verbreitet werden, ihre Bekämpfung erfordert daher regelmäßig eine internationale Zusammenarbeit“, so der Bericht.
  • Beim Schutz vor Diskriminierung sehen die Forschenden eine weitere Lücke. So könnten KI-generierte Darstellungen Stereotype von Geschlechtern darstellen oder rassistische Annahmen reproduzieren. Konkretes Beispiel aus dem Bericht: wenn KI-generierte „Terroristen“ stets „männlich“ sind und eine „dunkler Hautfarbe“ hätten. Zwar ist der Schutz vor Diskriminierung auch in der EU gesetzlich verankert; in der Praxis gebe es bei entsprechenden Deepfakes aber kaum Handhabe, wie aus dem Bericht hervorgeht.
  • Zuverlässig erkennen lassen sich Deepfakes nicht. Zwar entwickeln Forschende zunehmend bessere Software dafür, doch im Gegenzug lassen sich auch KI-Systeme gezielt darauf trainieren, Deepfake-Detektoren zu täuschen. Das Ergebnis ist ein „Katz-und-Maus-Spiel“, schreiben die Forschenden. „Detektoren erweisen sich daher in ihrer Effektivität als zeitlich begrenzt und laufen den Weiterentwicklungen von Deepfakes stets hinterher.“
  • Mehr öffentliche Aufklärung über Fälle von schädigenden Deepfakes ist laut Bericht eine Gegenmaßnahme, „um die Aufmerksamkeit für das Problem zu erhöhen und Schutzmaßnahmen zu verbessern“. An dieser Stelle gehen die Forschenden allerdings nicht darauf ein, dass Berichte über Deepfakes auch deren Reichweite erhöhen.
  • Standards und Regeln im Umgang mit KI-generierten Inhalten sind eine weitere Option, so die Forschenden. Das betreffe etwa Parteien und Medien. „Auf diese Weise kann die Grenze zwischen kreativen und gefahrlosen und schädigenden Anwendungen deutlich gemacht werden.“



Source link

Weiterlesen

Datenschutz & Sicherheit

Anonymisierendes Linux: Tails 7.5 mit sichererem Thunderbird


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Linux-Distribution Tails, die zum anonymen Surfen im Netz dient, ist in Version 7.5 erschienen. Auffälligste Neuerung ist die Auslagerung des Mailprogramms Thunderbird in ein externes Paket. Das dient der besseren Sicherheit.

Weiterlesen nach der Anzeige

Das schreiben die Tails-Maintainer in der Versionsankündigung zu Fassung 7.5 der anonymisierenden Linux-Distribution. Zentrale Softwarepakete bringen die Programmierer damit auf den aktuellen Stand. So ist der Tor-Browser nun in Version 15.0.7 dabei, der Tor-Client hingegen auf Stand 0.4.9.5.

Thunderbird kommt zwar in der Fassung 140.7.1 mit, allerdings installiert Tails den Mail-Client nun als Zusatzsoftware, um seine Sicherheit zu verbessern. Dazu müssen die Features „Thunderbird Email Client“ und „Zusätzliche Software“ beim persistenten Speicher aktiviert sein. Dadurch installiert Tails bei jedem Start den Thunderbird neu aus dem persistenten Speicher. Als Grund nennen die Entwickler, dass Mozilla stets neue Thunderbird-Versionen veröffentlicht hat, nur wenige Tage nach dem Release neuer Tails-Versionen. Dadurch war Thunderbird fast ständig nicht mehr aktuell und enthielt bekannte Sicherheitslücken.

Das Problem löst das stets aktuelle Installationspaket im persistenten Speicher. Nach der Installation zeigt Tails einen Dialog mit dem Titel „Thunderbird Migration“ an. Dort findet sich auch der Hinweis, dass Thunderbird mit Tails 7.8, das im Mai 2026 erwartet wird, nicht mehr länger als Standard-Software mitgeliefert wird.

Wie üblich stellt das Tails-Projekt einmal Abbilder zum Verfrachten der Distribution auf USB-Sticks und einmal ISO-Images zum Brennen auf DVD oder Testen in virtuellen Maschinen bereit. Mit solch einem USB-Stick oder einer DVD lassen sich etwa fremde Rechner starten, sodass darauf eine vertrauenswürdige Umgebung zum Surfen im Netz läuft. Mit dem persistenten Speicherbereich auf dem Stick lassen sich dann auch Daten mitnehmen, die Neustarts überdauern.

Weiterlesen nach der Anzeige

Mitte Februar haben die Tails-Entwickler die Version 7.4.2 als Notfall-Update herausgegeben. Darin haben sie insbesondere den Linux-Kernel aktualisiert, wodurch mehr als hundert Schwachstellen darin ausgebessert wurden. Die hätten Angreifer in Kombination mit anderen Sicherheitslücken etwa zur Deanonymisierung von Nutzern und Nutzerinnen missbrauchen können.

Siehe auch:

  • Tails: Download schnell und sicher von heise.de


(dmk)



Source link

Weiterlesen

Datenschutz & Sicherheit

EU soll „vollständig und endgültig“ auf Chatkontrolle verzichten


Smartphone-Bildschirm mit Messenger-Icons und Daumen, der drückt
Auch Inhalte von verschlüsselten Messengern wie Signal und WhatsApp sind im Fokus der Chatkontrolle. – Alle Rechte vorbehalten IMAGO / photothek

Die EU-Gesetzgeber sollen in den Trilog-Verhandlungen zur CSA-Verordnung vollständig und endgültig auf eine Chatkontrolle verzichten. Das fordern die unabhängigen Datenschutzbehörden aus Bund und Ländern.

Die Datenschutzkonferenz appelliert in einer Stellungnahme (PDF) an die Verhandelnden, von der Massenüberwachung privater Chats per Aufdeckungsanordnungen, dem flächendeckenden Scannen privater Nachrichten und einem Durchbrechen der Ende-zu-Ende-Verschlüsselung ohne Ausnahme abzusehen.

„Hintertüren in der Verschlüsselung gefährden die Sicherheit der Kommunikation aller Bürgerinnen und Bürgern und könnten auch von Kriminellen ausgenutzt werden“, so die Datenschützer:innen. Zu den Gefahren für eine Ende-zu-Ende-Verschlüsselung zählen die Datenschützer auch das Client-Side-Scanning, bei dem Inhalte vor dem Verschlüsseln auf dem Endgerät durchsucht werden.

Generell dürfe eine Überwachung privater Kommunikation nur gezielt und bei einem konkreten Verdacht zum Einsatz kommen, so die Datenschutzkonferenz. Auch ein Ziel wie die Verhinderung und Verfolgung von sexuellem Missbrauch von Kindern rechtfertige keinen Generalverdacht gegen Millionen von Bürger:innen. Die Aufsichtsbehörden begründen dies unter anderem mit dem Recht auf Vertraulichkeit der Kommunikation und dem Recht auf informationelle Selbstbestimmung.

Erste Einigungen im Trilog

Ein Großteil der Trilog-Verhandlungen passiert auf Arbeitsebene. Gestern fand die zweite Verhandlung auf politischer Ebene statt. Laut Tagesspiegel Background Digitalisierung (€) haben sich Rat und Parlament „vorläufig auf eine Reihe politisch sensibler Fragen geeinigt“, die Informationen sind aber vage. Bisher ging es vor allem um das EU-Zentrum gegen Kindesmissbrauch, nicht direkt um die Chatkontrolle. Die dritten politischen Trilog-Verhandlungen sind für den 11. Mai angesetzt.

Der Trilog ist im EU-Gesetzgebungsverfahren der Abschnitt, in dem EU-Kommission, EU-Parlament und der Rat ihre vorher gefundenen Positionen zusammen verhandeln und eine finale Version des Gesetzestextes erarbeiten, die dann später dem Europaparlament zur Abstimmung gegeben wird. Der Trilog ist erfahrungsgemäß eine intransparente Phase des Gesetzgebungsprozesses, in dem noch viel passieren kann. Wer im Trilog, welche Verhandlungspositionen vertritt und was die strittigen Punkte sind, haben wir in diesem Erklär-Artikel beschrieben.



Source link

Weiterlesen

Beliebt