Künstliche Intelligenz
Rechtslage Deepfakes: Es ist kompliziert
Täuschend echt wirkende Filme und Bilder von Personen lassen sich mit Computertechnik immer einfacher erstellen. Die Leistungsfähigkeit allgemein verfügbarer KI-Modelle nimmt rasant zu, die Ergebnisse können sich inzwischen mit echten Filmproduktionen messen. Mit der leichten Verfügbarkeit auf Plattformen wie X nimmt auch der Missbrauch zu.
Weiterlesen nach der Anzeige
Bekannt sind etwa Betrugsversuche, bei denen die Täter KI-Werkzeuge einsetzen. Die sind wegen der Betrugsabsicht der Regel bereits strafbar. Weniger klar ist die Rechtslage bei Missbrauch von Bildern von Privatpersonen, sei es in Kombination mit KI-Elementen oder als reine KI-Produkte, sogenannten Deepfakes.
Debatte über Strafbarkeitslücke
Die Debatte über eine mögliche Strafbarkeitslücke bei pornografischen Deepfakes ist in Deutschland neu entfacht, nachdem die Schauspielerin Collien Fernandes in der vergangenen Woche mit Vorwürfen gegen ihren Ex-Mann Christian Ulmen an die Öffentlichkeit gegangen ist.
Intensiv diskutiert wird dabei unter anderem die Frage, ob KI-Anbieter und Plattformbetreiber stärker in die Pflicht genommen werden müssen. Denn weder die deutsche noch die europäische Rechtslage bieten bislang einen wirksamen Schutz vor derartigen Taten – was jedoch nicht bedeutet, dass Täter nicht dennoch belangt werden könnten. Doch in der Praxis ist das offenbar kaum durchzusetzen.
Bislang sind die verschiedenen Regularien ein buntes Puzzle. Vor allem das Allgemeine Persönlichkeitsrecht steht bislang im Zentrum der rechtlichen Möglichkeiten. Doch der Anspruch auf Entfernung und anschließend Unterlassung weiterer Verbreitung ist in der Praxis gegenüber den Betreibern und Urhebern kaum durchzusetzen, wenn diese von außerhalb des europäischen Rechtsraumes agieren. Zudem ist derjenige, der eine Entfernung verlangt, in der Nachweispflicht.
Die meisten sexualisierten Deepfakes werden nicht unter Klarnamen veröffentlicht – hier eine Auskunft beim Anbieter zu erhalten, wer den Upload vorgenommen hat, scheitert in der Realität ebenfalls regelmäßig. Und auch andere Wege scheiden aus: Zwar kann etwa die Verwendung von urheberrechtlich geschützten Werken ein Rechtsverstoß sein oder auch die Entstellung eines Originalbildes. Doch realistisch sind Ansprüche auf dieser Grundlage kaum durchsetzbar.
Strafrechtliche Lücken bei Deepfakes
Weiterlesen nach der Anzeige
Das Land Bayern hatte 2024 deshalb über den Bundesrat einen Regelungsvorschlag für einen neuen Paragrafen 201b im Strafgesetzbuch eingebracht: „Verletzung von Persönlichkeitsrechten durch digitale Fälschung.“ Systematisch würde der sich an den Regelungsgehalt des §201a anschließen, die mit Freiheits- oder Geldstrafe belegte „Verletzung des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen“. Genau hier will wohl auch das Bundesjustizministerium (BMJV) mit seinem erwarteten Vorschlag ansetzen.
Der bayrische Vorschlag von 2024 betraf das Zugänglichmachen „mit computertechnischen Mitteln hergestellter oder veränderter Medieninhalte“, wenn sie den Anschein von „wirklichkeitsgetreuen Bild- oder Tonaufnahmen“ erweckten. Diese Definition war sehr weit gefasst und dürfte in der nun anstehenden Formulierung des BMJV nicht wiederholt werden.
Ein Problem bliebe auch: Die Erstellung als solche wäre weiterhin nicht strafrechtlich bewehrt. Denn die Strafbarkeit würde erst aus der Verbreitung entstehen – etwa einem Versand per Messenger oder dem Upload auf Plattformen. Was jemand lokal auf seinem Endgerät etwa mit Fotos oder Videomaterial macht und dort abspeichert, wäre davon nicht umfasst.
Erstellung soll strafbar werden
Das will Bundesjustizministerin Stefanie Hubig (SPD) nun ändern. Die Straftat soll bereits mit der Erstellung sexualisierter Deepfakes begangen und somit verfolgbar werden. So stünden auch das Sich-Verschaffen und der Besitz von einschlägigem Material unter Strafe und nicht erst die aktive Verbreitung.
Würde ein neuer §201b StGB der Systematik des §201a folgen, wäre aber auch hier zu erwarten, dass es sich im Regelfall um ein sogenanntes Antragsdelikt handelt: Betroffene – in den meisten Fällen Frauen – müssten dann den Antrag auf Strafverfolgung stellen. Nur im Ausnahmefall wäre dann die eine Verfolgung aufgrund öffentlichen Interesses möglich. Dennoch setzt Hubig auf die abschreckende Wirkung der Strafbarkeit.
Allerdings muss bei einer strafrechtlichen Regelung zur Erstellung und Verbreitung von Deepfakes auch in Zukunft immer eine Abwägung stattfinden, ob ein Deepfake nicht doch zulässig ist. Während im Bereich der sexualisierten Darstellungen eine legale Nutzungsform selten der Fall sein dürfte, ist das etwa bei – mitunter auch geschmacklosen – Satirebeiträgen viel eher möglich. Und auch zur Medien-, Kunst- und Wissenschaftsfreiheit muss das Strafrecht fein abgrenzen, um unbeabsichtigte Kollateralschäden zumindest weitgehend auszuschließen.
Außen vor aus der innerdeutschen Gesetzgebung sind unterdessen die Anbieter selbst: Die Haftungsregularien für die Anbieter sind europarechtlich abschließend geregelt – vor allem der Digital Services Act (DSA) spielt hier eine Rolle. Allerdings würde eine Anpassung des Strafgesetzbuches auch hier die Anbieter vielleicht zu einem schnelleren Eingreifen verpflichten können: per Meldeweg gemeldete Straftaten müssen von den Anbietern geprüft werden.
Zudem könnten für die Beweissicherung etablierte Verfahren zwischen Anbietern und Strafverfolgern genutzt werden, was den Verfolgungsdruck auf Täter künftig erhöhen könnte. Doch auch dabei hängt viel von der Kooperationsbereitschaft der Plattformen ab. Ob die dann auch die Wiederveröffentlichung bereits beanstandeter Inhalte unterdrücken, ist kaum seriös vorhersagbar.
Nur ein Grund, warum Politiker und Aufsichtsbehörden in der EU fordern: Die Betreiber generativer KI-Modelle sollten bereits die Erstellung sexualisierter Inhalte von vornherein unterdrücken, wenn ihre Modelle hierfür genutzt werden könnten.
(vbr)
Künstliche Intelligenz
Vision Pro bei Grauer-Star-Operation: Mehr Durchblick für Chirurgen
Apples Headset Vision Pro hat mit zwei 4K-Bildschirmen eine besonders hohe Auflösung, die sich auch für professionelle Anwendungen eignet. SightMD, ein Unternehmen, das diverse ambulante Praxen in der östlichen Region der Vereinigten Staaten betreibt, nutzt die Geräte nun während Operationen zur Korrektur von Linsentrübungen, auch Katarakt oder Grauer Star genannt. Das Spatial-Computing-Headset wird dabei zur Anzeige von Livestreams aus 3D-Digitalmikroskopen verwendet. Die genutzte Software nennt sich ScopeXR.
Weiterlesen nach der Anzeige
Hilfe für Operateure aus der Ferne
Die Idee dabei ist, auch Operationen aus der Ferne zu ermöglichen – beziehungsweise Live-Ratschläge von erfahrenen Chirurgen. Eric Rosenberg, ein New Yorker Augenchirurg, gab an, der Plan sei es, mit der Technik „die besten Chirurgen der Welt in jeden Operationssaal egal wo auf dem Planeten“ holen zu können.
So könnten sich junge Chirurgen während ihrer Ausbildung direkt im Operationssaal Hilfe holen oder erfahrene Operateure in schwierigen Situationen Ratschläge von Spezialisten geben lassen. „Die Technik demokratisiert den Zugriff auf Expertise“, so Rosenberg, der hofft, dass damit „das Augenlicht vieler Patienten gerettet“ werden kann.
Vision Pro für medizinische Anwendungen vergleichsweise günstig
Die Vision Pro eignet sich für solche Anwendungen gut, weil sie technisch fortgeschritten und – zumindest im Medizinbereich – mit ihren rund 3500 Euro Einstiegspreis eher günstig ist. Apple hat jedoch nach wie vor Schwierigkeiten, größere Stückzahlen zu verkaufen. Der Konzern hatte das Headset im vergangenen Jahr mit dem M5-Chip ausgestattet, grundlegende Kritikpunkte wie das hohe Gewicht oder den externen Akku, der per Kabel angebunden wird, jedoch nicht verändert. Zuletzt hieß es, das Team der Vision Pro arbeite kaum noch an dem Gerät beziehungsweise sei an andere Teams innerhalb von Apple abgegeben worden. Allerdings soll der Konzern nach wie vor an echten Smartglasses arbeiten, deren Grundlage die Vision Pro samt ihrem Betriebssystem visionOS bilden dürfte.
ScopeXR stellt Operationen in immersivem stereoskopischen 3D dar und bietet parallel dazu Körperdaten als Overlay. Das System ist so ausgelegt, dass es komplett steril arbeitet. Erste Versuche inklusive einer erfolgreichen Operation wurden bereits im vergangenen Herbst durchgeführt, so Rosenberg.
Weiterlesen nach der Anzeige
(bsc)
Künstliche Intelligenz
Mutmaßlicher Cybercrime-Drahtzieher auf Mallorca gefasst
Nach jahrelangen Ermittlungen ist ein mutmaßlich führender Betreiber von Fake-Onlineshops und mutmaßlicher Drahtzieher einer illegalen Handels-Plattform gefasst worden. Der 35 Jahre alte Mann aus dem Kreis Recklinghausen in Nordrhein-Westfalen soll rund 1.000 Menschen um teils erhebliche Summen gebracht haben. Er sei vor zwei Tagen auf Mallorca festgenommen worden und sitze in Auslieferungshaft, wie das Cybercrime-Zentrum (CCZ) Baden-Württemberg mitteilte.
Weiterlesen nach der Anzeige
Der Verdächtige hatte demnach seit Jahren unter falscher Identität auf der spanischen Insel gelebt und gilt als einer der mutmaßlich führenden Köpfe in der deutschsprachigen sogenannten Underground Economy. Dabei handelt es sich um kriminelle Netzwerke im Darknet sowie im Internet, die illegale Waren und Dienstleistungen anbieten.
Mann war auch Betreiber von „Crimenetwork“
Er gilt zudem als Betreiber der kurz nach ihrer Abschaltung neu aufgebauten illegalen Online-Handelsplattform „Crimenetwork“, wie gleichzeitig die Zentralstelle zur Bekämpfung der Internetkriminalität (ZIT) in Frankfurt und das Bundeskriminalamt (BKA) in Wiesbaden mitteilten. Die Neuauflage der Plattform, auf der gestohlene Daten, Drogen und gefälschte Dokumente angeboten wurden, wurde demnach am Tag der Festnahme abgeschaltet.
Deren rund 22.000 Nutzer hatten ihre Transaktionen über Kryptowährungen abgewickelt – Umsätze in Millionenhöhe stehen im Raum. Ermittler fanden umfangreiche Nutzer- und Transaktionsdaten und stellten rund 194.000 Euro sicher. Weitere Angaben gab es dazu noch nicht. Wann der 35-Jährige nach Deutschland ausgeliefert wird, ist den Angaben zufolge noch offen.
Betrug mit täuschend echt aussehenden Fake-Onlineshops
Dem Mann wird vorgeworfen, zwischen März 2023 und Januar 2025 mehr als 40 täuschend echt gestaltete Shops im Internet betrieben zu haben. Die Betrugsopfer hatten Produkte bestellt und Geld überwiesen, aber niemals Ware erhalten. Der Schaden beläuft sich demnach auf mindestens 323.000 Euro.
Weiterlesen nach der Anzeige
Ermittler vor allem der Polizeipräsidien Reutlingen und Offenburg hätten maßgeblich dazu beigetragen, den Verdächtigen zu identifizieren, hieß es. Die bislang identifizierten Opfer stammten unter anderem aus Offenburg, Reutlingen, Freiburg, Karlsruhe und Stuttgart. Betroffen seien darüber hinaus Menschen aus zahlreichen Landkreisen in Baden-Württemberg und aus allen anderen deutschen Bundesländern.
Bitcoin und Datenträger sichergestellt
Gleichzeitig zur Festnahme seien neben der Wohnung des Mannes auf Mallorca auch Objekte in Deutschland durchsucht worden, darunter die von zwei mutmaßlichen Komplizen aus Kaltenkirchen in Schleswig-Holstein und Unna in Nordrhein-Westfalen. In der Wohnung des Hauptverdächtigen auf Mallorca sicherten die Ermittler Bitcoin im Wert von rund 314.000 Euro. Auch Datenträger seien beschlagnahmt worden.
Lesen Sie auch
(nen)
Künstliche Intelligenz
Altersüberprüfung: EU-Rechtsberater warnen vor Umgehungsoption durch VPNs
Die Bemühungen der EU um einen strengeren Jugendschutz im digitalen Raum steuern auf einen neuen Konflikt zu: Virtual Private Networks (VPNs). Mitgliedsstaaten und die EU-Kommission arbeiten aktuell mit Hochdruck an Systemen, um Minderjährige im Netz vor Pornografie oder Glücksspiel zu schützen. Doch nun rücken technische Werkzeuge zum Umgehen dieser Hürden in den Fokus der Politik. Der Wissenschaftliche Dienst des Europäischen Parlaments (EPRS) warnt in einer jetzt publik gewordenen Analyse eindringlich vor einem drastischen Anstieg der VPN-Nutzung, um gesetzlich vorgeschriebene Altersprüfungen zu umgehen.
Weiterlesen nach der Anzeige
Die Rechtsexperten der EU-Abgeordneten bezeichnen diesen Trend explizit als „Regelungslücke, die geschlossen werden muss“. Sie sehen darin ein erhebliches Risiko für die Wirksamkeit künftiger EU-Gesetze. Ihre Sorge speist sich aus Beobachtungen in Großbritannien und mehreren US-Bundesstaaten, in denen bereits strikte Online-Verifikationspflichten gelten. Sobald Gesetze in Kraft traten, die Plattformen zur Altersprüfung verpflichteten, dominierten dort laut dem EPRS VPN-Apps die Download-Charts.
VPNs verschlüsselten den Datenverkehr und ersetzten die IP-Adresse des Nutzers durch die eines Servers in einer anderen Region, heißt es in der Handreichung, auf die das Magazin Cyberinsider aufmerksam gemacht hat. So könnten regionale Sperren und Identitätschecks effektiv ausgehebelt werden. Das Hintergrundmaterial des EPRS ist dabei nicht nur eine Bestandsaufnahme: Es läuft auf die Frage hinaus, ob VPN-Dienste selbst künftig gesetzlich dazu verpflichtet werden sollten, das Alter ihrer Nutzer zu prüfen. So müssten die Anbieter sicherstellen, dass ihre Technologie nicht als Werkzeug zum Aushebeln von Jugendschutzmaßnahmen zweckentfremdet wird.
Digitale Anonymität versus Kontrollpflicht
Ein solcher Schritt würde an den Grundfesten der digitalen Privatsphäre rütteln. VPNs gelten als essenzielle Werkzeuge für das Homeoffice, den Schutz vor unbefugter Überwachung und den freien Zugang zu Informationen in autoritären Regimen. Bürgerrechtler und Datenschutzaktivisten warnen seit Langem in Brandbriefen an die Politik, dass eine Identitätspflicht für VPN-Anbieter die Anonymität im Netz deutlich schwächen und neue Risiken durch eine zentrale Datenerfassung schaffen würde. Wenn der Zugang zum „Verschlüsselungs-Tunnel“ nur noch gegen Vorlage eines Ausweises möglich wäre, verlören VPNs ihre Kernfunktion als Werkzeug für Whistleblower und Journalisten.
Zugleich bleibt die technische Umsetzung der Altersprüfung selbst ein Problemfeld, wie die EPRS-Forscher einräumen. Erst kürzlich deckten Sicherheitsforscher Mängel in einer offiziellen Demo der Altersverifikations-App der Kommission auf.
Von der Politik perlen solche Appelle teils ab: Utah etwa hat bereits ein Gesetz verabschiedet, das an die physische Präsenz eines Nutzers über die IP-Adresse hinaus anknüpft, um VPN-Maskierungen rechtlich ins Leere laufen zu lassen. Auch auf EU-Ebene deutet der EPRS an, dass eine Novelle des EU Cybersecurity Act spezifische Anforderungen enthalten könnte, um den Missbrauch von VPNs zum Umschiffen legaler Schutzmechanismen zu verhindern.
Brüssels Plan für die europäische Identitäts-App
Weiterlesen nach der Anzeige
Die Kommission hat mit einer Empfehlung Ende April die Flucht nach vorn angetreten, um einen Flickenteppich nationaler Alleingänge zu verhindern. Bis Ende 2026 sollen die EU-Länder flächendeckend Technologien zur Altersüberprüfung bereitstellen, die auf der technischen Blaupause der Brüsseler Regierungsinstitution basieren. Diese Open-Source-Lösung soll es Nutzern ermöglichen, ihr Alter nachzuweisen, ohne ihre gesamte Identität preiszugeben. Die Regierungen können diese Funktion entweder in eigenständigen Apps anbieten oder direkt in die kommende europäische digitale Brieftasche (EUDI-Wallet) integrieren.
Das System setzt auf Datensparsamkeit und moderne Kryptografie wie „Zero-Knowledge-Proofs“. Ein Nutzer muss gegenüber einer Webseite lediglich bestätigen, dass er beispielsweise über 18 Jahre alt ist, ohne Name oder Wohnort zu übermitteln. Ein offizielles EU-Rahmenwerk mit Listen vertrauenswürdiger Anbieter soll sicherstellen, dass nur geprüfte technische Lösungen zum Einsatz kommen, die laufend auf ihre Sicherheit und Konformität überwacht werden.
Zweifel am Umgehungsnarrativ
Doch zwischen der regulatorischen Wahrnehmung und der tatsächlichen Nutzung der Verschlüsselungstools klafft eine Lücke, legt eine Studie der University of Michigan nahe. Demnach nutzen über 82 Prozent der Befragten VPNs primär zum Schutz vor allgemeinen Bedrohungen durch Cyberkriminelle sowie zum Absichern ihrer Privatsphäre. Den Wissenschaftlern zufolge gibt es noch keine empirischen Belege dafür, dass VPNs tatsächlich in großem Stil und primär zum Aushebeln von Jugendschutzfiltern angeschafft würden.
Lesen Sie auch
(nie)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
