Künstliche Intelligenz
Rechtslage Deepfakes: Es ist kompliziert
Täuschend echt wirkende Filme und Bilder von Personen lassen sich mit Computertechnik immer einfacher erstellen. Die Leistungsfähigkeit allgemein verfügbarer KI-Modelle nimmt rasant zu, die Ergebnisse können sich inzwischen mit echten Filmproduktionen messen. Mit der leichten Verfügbarkeit auf Plattformen wie X nimmt auch der Missbrauch zu.
Weiterlesen nach der Anzeige
Bekannt sind etwa Betrugsversuche, bei denen die Täter KI-Werkzeuge einsetzen. Die sind wegen der Betrugsabsicht der Regel bereits strafbar. Weniger klar ist die Rechtslage bei Missbrauch von Bildern von Privatpersonen, sei es in Kombination mit KI-Elementen oder als reine KI-Produkte, sogenannten Deepfakes.
Debatte über Strafbarkeitslücke
Die Debatte über eine mögliche Strafbarkeitslücke bei pornografischen Deepfakes ist in Deutschland neu entfacht, nachdem die Schauspielerin Collien Fernandes in der vergangenen Woche mit Vorwürfen gegen ihren Ex-Mann Christian Ulmen an die Öffentlichkeit gegangen ist.
Intensiv diskutiert wird dabei unter anderem die Frage, ob KI-Anbieter und Plattformbetreiber stärker in die Pflicht genommen werden müssen. Denn weder die deutsche noch die europäische Rechtslage bieten bislang einen wirksamen Schutz vor derartigen Taten – was jedoch nicht bedeutet, dass Täter nicht dennoch belangt werden könnten. Doch in der Praxis ist das offenbar kaum durchzusetzen.
Bislang sind die verschiedenen Regularien ein buntes Puzzle. Vor allem das Allgemeine Persönlichkeitsrecht steht bislang im Zentrum der rechtlichen Möglichkeiten. Doch der Anspruch auf Entfernung und anschließend Unterlassung weiterer Verbreitung ist in der Praxis gegenüber den Betreibern und Urhebern kaum durchzusetzen, wenn diese von außerhalb des europäischen Rechtsraumes agieren. Zudem ist derjenige, der eine Entfernung verlangt, in der Nachweispflicht.
Die meisten sexualisierten Deepfakes werden nicht unter Klarnamen veröffentlicht – hier eine Auskunft beim Anbieter zu erhalten, wer den Upload vorgenommen hat, scheitert in der Realität ebenfalls regelmäßig. Und auch andere Wege scheiden aus: Zwar kann etwa die Verwendung von urheberrechtlich geschützten Werken ein Rechtsverstoß sein oder auch die Entstellung eines Originalbildes. Doch realistisch sind Ansprüche auf dieser Grundlage kaum durchsetzbar.
Strafrechtliche Lücken bei Deepfakes
Weiterlesen nach der Anzeige
Das Land Bayern hatte 2024 deshalb über den Bundesrat einen Regelungsvorschlag für einen neuen Paragrafen 201b im Strafgesetzbuch eingebracht: „Verletzung von Persönlichkeitsrechten durch digitale Fälschung.“ Systematisch würde der sich an den Regelungsgehalt des §201a anschließen, die mit Freiheits- oder Geldstrafe belegte „Verletzung des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen“. Genau hier will wohl auch das Bundesjustizministerium (BMJV) mit seinem erwarteten Vorschlag ansetzen.
Der bayrische Vorschlag von 2024 betraf das Zugänglichmachen „mit computertechnischen Mitteln hergestellter oder veränderter Medieninhalte“, wenn sie den Anschein von „wirklichkeitsgetreuen Bild- oder Tonaufnahmen“ erweckten. Diese Definition war sehr weit gefasst und dürfte in der nun anstehenden Formulierung des BMJV nicht wiederholt werden.
Ein Problem bliebe auch: Die Erstellung als solche wäre weiterhin nicht strafrechtlich bewehrt. Denn die Strafbarkeit würde erst aus der Verbreitung entstehen – etwa einem Versand per Messenger oder dem Upload auf Plattformen. Was jemand lokal auf seinem Endgerät etwa mit Fotos oder Videomaterial macht und dort abspeichert, wäre davon nicht umfasst.
Erstellung soll strafbar werden
Das will Bundesjustizministerin Stefanie Hubig (SPD) nun ändern. Die Straftat soll bereits mit der Erstellung sexualisierter Deepfakes begangen und somit verfolgbar werden. So stünden auch das Sich-Verschaffen und der Besitz von einschlägigem Material unter Strafe und nicht erst die aktive Verbreitung.
Würde ein neuer §201b StGB der Systematik des §201a folgen, wäre aber auch hier zu erwarten, dass es sich im Regelfall um ein sogenanntes Antragsdelikt handelt: Betroffene – in den meisten Fällen Frauen – müssten dann den Antrag auf Strafverfolgung stellen. Nur im Ausnahmefall wäre dann die eine Verfolgung aufgrund öffentlichen Interesses möglich. Dennoch setzt Hubig auf die abschreckende Wirkung der Strafbarkeit.
Allerdings muss bei einer strafrechtlichen Regelung zur Erstellung und Verbreitung von Deepfakes auch in Zukunft immer eine Abwägung stattfinden, ob ein Deepfake nicht doch zulässig ist. Während im Bereich der sexualisierten Darstellungen eine legale Nutzungsform selten der Fall sein dürfte, ist das etwa bei – mitunter auch geschmacklosen – Satirebeiträgen viel eher möglich. Und auch zur Medien-, Kunst- und Wissenschaftsfreiheit muss das Strafrecht fein abgrenzen, um unbeabsichtigte Kollateralschäden zumindest weitgehend auszuschließen.
Außen vor aus der innerdeutschen Gesetzgebung sind unterdessen die Anbieter selbst: Die Haftungsregularien für die Anbieter sind europarechtlich abschließend geregelt – vor allem der Digital Services Act (DSA) spielt hier eine Rolle. Allerdings würde eine Anpassung des Strafgesetzbuches auch hier die Anbieter vielleicht zu einem schnelleren Eingreifen verpflichten können: per Meldeweg gemeldete Straftaten müssen von den Anbietern geprüft werden.
Zudem könnten für die Beweissicherung etablierte Verfahren zwischen Anbietern und Strafverfolgern genutzt werden, was den Verfolgungsdruck auf Täter künftig erhöhen könnte. Doch auch dabei hängt viel von der Kooperationsbereitschaft der Plattformen ab. Ob die dann auch die Wiederveröffentlichung bereits beanstandeter Inhalte unterdrücken, ist kaum seriös vorhersagbar.
Nur ein Grund, warum Politiker und Aufsichtsbehörden in der EU fordern: Die Betreiber generativer KI-Modelle sollten bereits die Erstellung sexualisierter Inhalte von vornherein unterdrücken, wenn ihre Modelle hierfür genutzt werden könnten.
(vbr)
Künstliche Intelligenz
Altersüberprüfung: EU-Rechtsberater warnen vor Umgehungsoption durch VPNs
Die Bemühungen der EU um einen strengeren Jugendschutz im digitalen Raum steuern auf einen neuen Konflikt zu: Virtual Private Networks (VPNs). Mitgliedsstaaten und die EU-Kommission arbeiten aktuell mit Hochdruck an Systemen, um Minderjährige im Netz vor Pornografie oder Glücksspiel zu schützen. Doch nun rücken technische Werkzeuge zum Umgehen dieser Hürden in den Fokus der Politik. Der Wissenschaftliche Dienst des Europäischen Parlaments (EPRS) warnt in einer jetzt publik gewordenen Analyse eindringlich vor einem drastischen Anstieg der VPN-Nutzung, um gesetzlich vorgeschriebene Altersprüfungen zu umgehen.
Weiterlesen nach der Anzeige
Die Rechtsexperten der EU-Abgeordneten bezeichnen diesen Trend explizit als „Regelungslücke, die geschlossen werden muss“. Sie sehen darin ein erhebliches Risiko für die Wirksamkeit künftiger EU-Gesetze. Ihre Sorge speist sich aus Beobachtungen in Großbritannien und mehreren US-Bundesstaaten, in denen bereits strikte Online-Verifikationspflichten gelten. Sobald Gesetze in Kraft traten, die Plattformen zur Altersprüfung verpflichteten, dominierten dort laut dem EPRS VPN-Apps die Download-Charts.
VPNs verschlüsselten den Datenverkehr und ersetzten die IP-Adresse des Nutzers durch die eines Servers in einer anderen Region, heißt es in der Handreichung, auf die das Magazin Cyberinsider aufmerksam gemacht hat. So könnten regionale Sperren und Identitätschecks effektiv ausgehebelt werden. Das Hintergrundmaterial des EPRS ist dabei nicht nur eine Bestandsaufnahme: Es läuft auf die Frage hinaus, ob VPN-Dienste selbst künftig gesetzlich dazu verpflichtet werden sollten, das Alter ihrer Nutzer zu prüfen. So müssten die Anbieter sicherstellen, dass ihre Technologie nicht als Werkzeug zum Aushebeln von Jugendschutzmaßnahmen zweckentfremdet wird.
Digitale Anonymität versus Kontrollpflicht
Ein solcher Schritt würde an den Grundfesten der digitalen Privatsphäre rütteln. VPNs gelten als essenzielle Werkzeuge für das Homeoffice, den Schutz vor unbefugter Überwachung und den freien Zugang zu Informationen in autoritären Regimen. Bürgerrechtler und Datenschutzaktivisten warnen seit Langem in Brandbriefen an die Politik, dass eine Identitätspflicht für VPN-Anbieter die Anonymität im Netz deutlich schwächen und neue Risiken durch eine zentrale Datenerfassung schaffen würde. Wenn der Zugang zum „Verschlüsselungs-Tunnel“ nur noch gegen Vorlage eines Ausweises möglich wäre, verlören VPNs ihre Kernfunktion als Werkzeug für Whistleblower und Journalisten.
Zugleich bleibt die technische Umsetzung der Altersprüfung selbst ein Problemfeld, wie die EPRS-Forscher einräumen. Erst kürzlich deckten Sicherheitsforscher Mängel in einer offiziellen Demo der Altersverifikations-App der Kommission auf.
Von der Politik perlen solche Appelle teils ab: Utah etwa hat bereits ein Gesetz verabschiedet, das an die physische Präsenz eines Nutzers über die IP-Adresse hinaus anknüpft, um VPN-Maskierungen rechtlich ins Leere laufen zu lassen. Auch auf EU-Ebene deutet der EPRS an, dass eine Novelle des EU Cybersecurity Act spezifische Anforderungen enthalten könnte, um den Missbrauch von VPNs zum Umschiffen legaler Schutzmechanismen zu verhindern.
Brüssels Plan für die europäische Identitäts-App
Weiterlesen nach der Anzeige
Die Kommission hat mit einer Empfehlung Ende April die Flucht nach vorn angetreten, um einen Flickenteppich nationaler Alleingänge zu verhindern. Bis Ende 2026 sollen die EU-Länder flächendeckend Technologien zur Altersüberprüfung bereitstellen, die auf der technischen Blaupause der Brüsseler Regierungsinstitution basieren. Diese Open-Source-Lösung soll es Nutzern ermöglichen, ihr Alter nachzuweisen, ohne ihre gesamte Identität preiszugeben. Die Regierungen können diese Funktion entweder in eigenständigen Apps anbieten oder direkt in die kommende europäische digitale Brieftasche (EUDI-Wallet) integrieren.
Das System setzt auf Datensparsamkeit und moderne Kryptografie wie „Zero-Knowledge-Proofs“. Ein Nutzer muss gegenüber einer Webseite lediglich bestätigen, dass er beispielsweise über 18 Jahre alt ist, ohne Name oder Wohnort zu übermitteln. Ein offizielles EU-Rahmenwerk mit Listen vertrauenswürdiger Anbieter soll sicherstellen, dass nur geprüfte technische Lösungen zum Einsatz kommen, die laufend auf ihre Sicherheit und Konformität überwacht werden.
Zweifel am Umgehungsnarrativ
Doch zwischen der regulatorischen Wahrnehmung und der tatsächlichen Nutzung der Verschlüsselungstools klafft eine Lücke, legt eine Studie der University of Michigan nahe. Demnach nutzen über 82 Prozent der Befragten VPNs primär zum Schutz vor allgemeinen Bedrohungen durch Cyberkriminelle sowie zum Absichern ihrer Privatsphäre. Den Wissenschaftlern zufolge gibt es noch keine empirischen Belege dafür, dass VPNs tatsächlich in großem Stil und primär zum Aushebeln von Jugendschutzfiltern angeschafft würden.
Lesen Sie auch
(nie)
Künstliche Intelligenz
Kahlschlag beim Datenschutz: Baden-Württemberg plant massive Stellenkürzungen
In der baden-württembergischen Landespolitik bahnt sich ein gravierender Einschnitt bei den digitalen Bürgerrechten an. Die neue Koalition aus Grünen und CDU unter dem vorgesehenen Ministerpräsidenten Cem Özdemir plant, beim Landesbeauftragten für den Datenschutz und die Informationsfreiheit (LfDI) 40 Prozent der Stellen einzusparen. Sie begründet diesen Schritt mit der föderalen Modernisierungsagenda, die eine Bündelung von Kompetenzen auf Bundesebene vorsehe.
Weiterlesen nach der Anzeige
Parallel will Grün-Schwarz die technologische Aufrüstung von Sicherheitsbehörden und den Einsatz Künstlicher Intelligenz (KI) für Überwachungszwecke deutlich forcieren. Trotzdem soll das Kontrollorgan, das diese Prozesse rechtlich begleiten muss, beschnitten werden.
Frank Spaeing, Vorsitzender der Deutschen Vereinigung für Datenschutz (DVD), kritisiert die entsprechende Passage in der Koalitionsvereinbarung scharf. Er wirft der Regierung mangelndes Verständnis europäischer Werte vor. Fortschritt muss ihm zufolge in einer freiheitlichen Gesellschaft zwingend grundrechtskonform erfolgen, wofür eine starke Aufsicht der Garant sei. Das von der Koalition genutzte Schlagwort eines „ermöglichenden Datenschutzes“ wertet Spaeing als Euphemismus für einen faktischen Abbau von Grundrechten.
Der Fachmann warnt auch, dass die massiven Kürzungen wohl gegen die Datenschutz-Grundverordnung (DSGVO) verstoßen würden. Diese schreibe den Mitgliedsstaaten vor, einschlägige Aufsichtsbehörden ausreichend auch mit personellen Ressourcen auszustatten. Nur so könnten diese ihre Aufgaben effektiv wahrnehmen. Ferner erinnert die DVD an die Rechtsprechung des Europäischen Gerichtshofs zur Unabhängigkeit der Datenschutzaufsicht. Wer einer Kontrollinstanz Mittel entziehe, schwäche zwangsläufig deren Unabhängigkeit und Handlungsfähigkeit.
Zwischen Innovation und Kontrollverlust
Auch der baden-württembergische LfDI, Tobias Keber, sieht die Entwicklung mit Sorge. Zwar begrüßt er das Ziel, Digitalisierung und KI-Einsatz zu fördern. Auf diesem Feld sei seine Behörde bereits intensiv beratend tätig. Der Kontrolleur warnt aber vor den Folgen einer Zentralisierung. Sollte die Aufsicht für Unternehmen und Vereine nach Bonn zum Bund abwandern, verlören lokale Akteure wie Startups und Bürger ihre direkten Ansprechpartner vor Ort. Datenschutz fungiere als vertrauensstiftender Faktor. Fehle die Kapazität zur Beratung und Kontrolle, drohe die Akzeptanz neuer Technologien in der Bevölkerung zu schwinden.
Besonders brisant ist die vorgesehene personelle Ausdünnung im Kontext der geplanten Sicherheitspolitik im Ländle. Die Koalition will der Polizei umfangreiche neue Befugnisse einräumen, etwa zum biometrischen Abgleich von Daten im Internet mithilfe automatisierter Gesichtserkennung. Das markiert das Ende bisheriger Tabus der Grünen beim Datenschutz. Wenn gleichzeitig die Kontrollinstanzen geschwächt würden, entstünde ein gefährliches Ungleichgewicht. Experten mahnen: Die steigende Zahl an Datenschutzbeschwerden durch KI-Anwendungen erfordere eigentlich einen Ausbau statt Streichungen bei der Aufsicht, um Frust und Staatsverdrossenheit vorzubeugen.
Weiterlesen nach der Anzeige
Lesen Sie auch
(nie)
Künstliche Intelligenz
#TGIQF: Das Quiz rund um „Das Leben des Brian“
Die Monty-Python-Komödie „Das Leben des Brian“ sorgte bei seinem Erscheinen 1979 für Wirbel. Die Geschichte um Brian, der in der Nachbarschaft von Jesus Christus geboren wurde, war für viele eine herrliche Komödie im typischen, abgedrehten Monty-Python-Stil — empfindsamere Gemüter sahen darin die Verunglimpfung des Christentums. Den Vorwurf äußerten sogar Kritiker, die den Film gar nicht gesehen hatten.
Weiterlesen nach der Anzeige
Dabei nahm der Film nicht Jesus Christus an sich aufs Korn, sondern Dogmatismus und blinden Glauben an sich. Auch Doppelmoral und Gruppenzwang wird in dem Film persifliert. Das erkennt man vor allem während der Steinigungsszene, bei der keine Frauen zugegen sein durften, aber das Publikum von Frauen durchsetzt war, die mit sich durchweg mit aufgeklebtem Bart als Männer ausgaben. Um das Verwirrspiel auf die Spitze zu treiben, waren es die Monty-Python-Mitglieder, die sich als Männer verkleidete Frauen verkleideten.
Da die Kollegen der c’t die 4K-Fassung des Films unter die Lupe nahmen, werfen wir im Freitagsquiz ebenfalls einen Blick auf die Monty-Python-Komödie. Sichern Sie sich ein paar Otternasen oder Lerchenzungen, vergessen Sie nicht einen Bart und knobeln Sie mit.
In der heiseshow stellte Moderatorin Anna Bicker Dr. Volker Zota und als Malte Kirchner wie immer drei Fragen vorab. Volker Zota setzte nicht nur im lateinischen Maßstäbe, sondern auch bei suspekten Quizfragen.
Sie können in Ruhe in 10 Fragen maximal 100 Punkte erreichen. Die Punktzahl kann gern im Forum mit anderen Mitspielern verglichen werden. Halten Sie sich dabei aber bitte mit Spoilern zurück, um anderen Teilnehmern nicht die Freude am Quiz zu verhageln. Lob und Kritik sind wie immer gern gelesen.
Bleiben Sie zudem auf dem Laufenden und erfahren Sie das Neueste aus der IT-Welt: Folgen Sie uns bei Mastodon, auf Facebook oder Instagram. Und schauen Sie auch gern beim Redaktionsbot Botti vorbei.
Und falls Sie Ideen für eigene Quizze haben, schreiben Sie einfach eine Mail an den Quizmaster aka Herr der fiesen Fragen.
Weiterlesen nach der Anzeige
(mawi)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
