Datenschutz & Sicherheit
„Ausklinken darf nicht die Lösung sein“
Isa Schaller ist Mitarbeiterin von „Ein Team für digitale Gewalt“. Sie hat Philosophie, Informatik und Rechtsextremismusforschung studiert. Schaller interessiert sich für die Schnittstelle zwischen Technik und Wissenschaft und insbesondere für feministische Technikpolitik. In deren Zentrum steht die Frage: Wie kann die aktuelle technische Entwicklung im Sinne der Geschlechtergerechtigkeit gestaltet werden?
Seit 2023 gibt Isa Schaller Schulungen zum Schutz vor digitaler Ortung und Überwachung im Frauengewaltschutz. Sie war außerdem zwischen 2024 und 2025 als technische Beraterin am Modellprojekt “IT-Beratung” des Vereins Frauenhauskoordinierung beteiligt.
netzpolitik.org: Frau Schaller, wie stark prägt digitale Gewalt inzwischen den Alltag in der Frauenhausarbeit?
Isa Schaller: Die technische Entwicklung ist rasant, alle paar Monate kommen neue Funktionen hinzu. Viele davon lassen sich im Kontext von (Ex-)Partnerschaftsgewalt missbrauchen. Man muss in der technischen Beratung wirklich Detektivarbeit leisten. Insbesondere, wenn es um Cloud-Dienste geht, die einfach zu benutzen sind und häufig über eine Ortungsfunktion verfügen. Kurz gesagt: In vielen Fällen der Beratungsarbeit im Frauenhauskontext geht es inzwischen auch um digitale Gewalt.
netzpolitik.org: Ihre Initiative, „Ein Team gegen digitale Gewalt“, bietet deutschlandweit Schulungen für Beratungsstellen und Frauenhäuser an. Sie haben sich insbesondere auf den Schutz vor Ortung und Überwachung spezialisiert. Welche Bedrohungen begegnen Ihnen in der Praxis?

Isa Schaller: In einer Situation meldete sich ein Frauenhaus nach einer Schulung zu Cyberstalking und Absicherung. Die Mitarbeiterin berichtete, dass sie unsere Tipps angewandt und ‚AirGuard‘ genutzt hatte. Dabei handelt es sich um eine von der Technischen Universität Darmstadt entwickelte Sicherheits-App, mit der sich Bluetooth-Tracker aufspüren lassen. Die Mitarbeitenden des Frauenhauses führten die App standardmäßig ein und ließen sie auch in der Poststelle laufen, wo sie ihre Pakete empfingen. Direkt beim ersten Mal schlug die App an. In einem Paket befand sich ein Bluetooth-Tracker – versteckt in einem Geschenk. Der Tracker sollte unbemerkt ins Frauenhaus getragen werden, um die Adresse herauszufinden. Das konnte in diesem Fall glücklicherweise verhindert werden. Aber das ist nur ein Beispiel, das exemplarisch steht für viele Situationen, mit denen Frauenhäuser heute konfrontiert sind.
„In vielen Fällen gibt es erste Anzeichen“
netzpolitik.org: Wie bemerken Betroffene überhaupt, dass sie überwacht oder geortet werden?
Isa Schaller: In vielen Fällen gibt es erste Anzeichen – zum Beispiel, dass der Täter in der Nähe der Betroffenen auftaucht, im Park, vor der Tür, oder, dass die Betroffene schon einmal im Frauenhaus gefunden wurde, dessen Standort ja eigentlich geheim ist. In solchen Fällen muss die Betroffene teilweise Hunderte Kilometer umziehen in das nächste Frauenhaus, das einen freien Platz hat. Die Frage ist dann: Wie konnte das passieren? Der erste Verdacht sind meistens Bluetooth-Tracker, die in Teddys, im Futter der Winterjacke oder in der Schuhsohle versteckt wurden. Die nächste Option ist die gemeinsame Cloud. Wenn der Ex-Partner sie eingerichtet hat, muss er sich nur einloggen, um Zugang zu Fotos und Terminen der Betroffenen zu haben. Eine weitere häufige Frage betrifft Kinderschutzfunktionen von Geräten. Die lassen sich so einrichten, dass betroffene Personen es häufig gar nicht mitbekommen, aber die Ortung im Hintergrund aktiv ist.
netzpolitik.org: Häufig instrumentalisieren Täter auch Kinder. Sie sind in vielen Fällen mitbetroffen von digitaler Gewalt.
Isa Schaller: Aktuell leben in Frauenhäusern sogar mehr Kinder als Frauen. Denn Frauen, die vor ihren (Ex-)Partnern flüchten, nehmen ihre Kinder in der Regel mit. 2024 wohnten 13.700 Frauen in Frauenhäusern und 15.300 Kinder. Und über Kinder versuchen Täter, digitale Gewalt auszuüben, etwa über digitale Kontaktversuche oder Geschenke, wie im oben genannten Fall. Da ergeben sich neue medienpädagogische Fragen. Die Kinder sind ohnehin in einer schwierigen Situation. Sie mussten umziehen und haben ihr soziales Umfeld in der analogen Welt verloren. Da kann man ihnen nicht sagen, dass sie jetzt auch noch aufhören sollen, Online-Spiele zu spielen oder per Messenger zu kommunizieren.
Es braucht einen sehr genauen Blick, wie man ihre Geräte absichern und weiter nutzen kann. Wenn es bei einigen Programmen wirklich zu gefährlich ist, sie weiter zu nutzen, braucht es eine sensible und altersgerechte Vermittlung und Abstimmung mit den betroffenen Kindern.
netzpolitik.org: Der sogenannte Digital Gender Gap weist auf eine gravierende Lücke hin. Demnach besteht zwischen Frauen und Männern nach wie vor ein großer Unterschied im Zugang zu digitalen Technologien. Frauen zählen demnach überdurchschnittlich häufig zu den „digital Abseitsstehenden“. Welche Rolle spielt die fehlende digitale Selbstbestimmung im Kontext von Gewalt?
Isa Schaller: Häufig lassen Frauen ihre technischen Geräte im vollsten Vertrauen von Männern einrichten. Sie selbst verfügen in vielen Fällen gar nicht über die Passwörter. Das führt zu einem massiven Machtgefälle. Im Endeffekt ist die digitale Gewalt eine Fortführung bestehender Gewaltformen. Da spielen dann noch andere Aspekte mit rein: In welcher finanziellen Lage befindet sich die Betroffene? Kann sie sich einfach ein neues Gerät kaufen, wenn mit dem alten etwas nicht stimmt? Gibt es überhaupt erreichbare, kompetente Hilfestellen? Da spielt dann etwa ein Stadt-Land-Gefälle eine Rolle.
„Eine massive Verschärfung“
netzpolitik.org: Laut einer Statistik aus dem Jahr 2024 fehlen in Deutschland mehr als 12.000 Frauenhausplätze. Gleichzeitig steigen die Zahlen zu häuslicher Gewalt.
Isa Schaller: Wir bewegen uns in den gleichen gesellschaftlichen Machtverhältnissen wie ohnehin schon. Nur leider mit mächtigen neuen Werkzeugen, die Bedroher nutzen können, um Personen zu verfolgen und sie weiter einzuschüchtern. Deshalb handelt es sich bei digitaler Gewalt nicht nur um eine Fortführung bestehender Gewalt, sondern auch um eine massive Verschärfung.
netzpolitik.org: Im Modellprojekt IT-Beratung der Frauenhauskoordinierung haben Sie Betroffene bei Verdachtsfällen von digitaler Überwachung unterstützt. Wie wichtig ist in derartigen Fällen ein ganzheitlicher Ansatz? Es geht ja um weit mehr als technische Beratung.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Isa Schaller: Alle Projekte, in denen ich bislang gearbeitet habe, hatten den Anspruch auf eine enge Koppelung an die bestehende Hilfslandschaft. An vielen Stellen spielt Medienpädagogik eine Rolle. Wie vermittelt man technische Details an erwachsene Betroffene? Viele Menschen wissen nach wie vor nicht, was eine Cloud ist und wie genau sie funktioniert. Teils wird den Betroffenen ihre digitale Situation und die damit einhergehende Bedrohung erst in der Beratung bewusst. Hier braucht es dann eine psychosoziale Betreuung. Diese Frauen haben schon sehr viele Übergriffigkeiten erlebt. Natürlich reißt man ihnen da nicht ungefragt das Handy aus der Hand. Es geht um eine gemeinsame Abstimmung.
Hinzu kommt die rechtliche Ebene. Da geht es etwa um rechtssichere Screenshots und die Frage, ab wann die Polizei für die Beweissicherung zuständig sein sollte. Es braucht ein ganzes Team, um diese Situation anzugehen.
netzpolitik.org: Nur arbeiten Frauenhäuser ohnehin schon am Limit. Jahr für Jahr müssen sie Hunderte Frauen abweisen – und brauchen bei digitaler (Ex-)Partnerschaftsgewalt spezialisierte Kompetenzen und technisches Know-How.
Isa Schaller: Deshalb bräuchte es mehr Geld in der gesamten Beratungslandschaft – und ein entsprechendes Stundenkontingent. Denn digitale Gewalt verursacht einen Mehraufwand in der Beratungsarbeit. In die Beratung kommt in vielen Fällen eine Person, die noch gar nicht ahnt, dass sie geortet und überwacht wird. Schließlich stehen für sie häufig erst einmal andere Fragen im Vordergrund: Was passiert mit den Kindern? Wie ist die finanzielle Situation? Dann kommt heraus, dass digitale Gewalt auch ein Thema ist. Häufig geht es da nicht nur um Handys, sondern beispielsweise auch um die Schultablets der Kinder oder Smartwatches. Bestehende Hilfesysteme zu unterstützen ist also der erste Schritt.
netzpolitik.org: Was müsste aus Ihrer Sicht noch passieren, um Betroffene besser zu schützen?
Isa Schaller: Hersteller müssen in die Verantwortung gezogen werden. Die Probleme dürfen nicht auf Betroffene und die Beratungslandschaft abgewälzt werden. Es kann nicht sein, dass Frauen ihre Geräte nicht mehr nutzen können. Das bedeutet für sie den Abschied aus digitaler Teilhabe. Viele Bereiche des Alltags sind heute nur noch digital zugänglich. Zu erwarten, dass sie sich aus dieser Welt ausklinken, darf nicht die Lösung sein. Insbesondere nicht in dieser Situation: Sie versuchen schließlich gerade, sich ein neues Leben aufzubauen. Dabei sollten sie unbedingt Kontakt halten zu Personen, die sie stabilisieren. Und dafür ist ihr Handy zentral.
netzpolitik.org: Welche Weichenstellungen sind aus Ihrer Sicht notwendig, um Technik gerechter und sicherer für alle zu gestalten?
Isa Schaller: Das fängt an bei stärkeren Warnsystemen für Bluetooth-Tracker. Ein weiterer Punkt betrifft SmartHome-Geräte. Viele Haushaltsgeräte erheben inzwischen private Daten, speichern sie und machen sie zugänglich. Jedes Auto ist inzwischen ein intelligentes Gerät, das überwachbar ist. Es braucht an dieser Stelle einen breiten gesellschaftlichen Diskurs. Wie wollen wir, dass unsere Technik gestaltet ist? Wo wollen wir mehr Komfort, wo machen wir aber auch Abstriche, um diese Geräte sicher zu gestalten für wirklich alle Beteiligten?
Datenschutz & Sicherheit
ComfyUI-Server: Angreifer machen Instanzen zu Kryptominer-Proxy-Botnet
IT-Forscher beobachten eine Angriffswelle, bei der die bösartigen Akteure ComfyUI-Server in ein Botnet verfrachten. Darin dienen die kompromittierten Instanzen als Kryptominer und als Proxy-Server.
Weiterlesen nach der Anzeige
Das berichten IT-Sicherheitsforscher von Censys in einem Blog-Beitrag. Die beobachtete Angriffswelle fing am 12. März 2026 an. Da haben die Censys-Systeme ein sich rasch füllendes Verzeichnis bei einem Bulletproof-Hoster entdeckt, in dem Angreifer offenbar Daten von Internet-Scans sammelten. Die Untersuchung führte zur Erkenntnis, dass die Täter auf ComfyUI-Instanzen zielen, die offen im Internet stehen – die Censys-Forscher haben mehr als tausend solche Installationen im Netz ausgemacht. Die Angreifer versuchen, das Custom-Node-Ökosystem zu missbrauchen, um die Malware-Verteilung ohne vorherige Authentifizierung zu erreichen. Hinter „Custom Nodes“ verbirgt sich die Installation eigener Module in ComfyUI, bei einer Fehlkonfiguration ist das offenbar ohne Anmeldung möglich.
Ein in der Skriptsprache Python programmierter Scanner untersucht große IP-Bereiche auf verwundbare Ziele und installiert automatisch bösartige Nodes über den ComfyUI-Manager, sofern er noch keinen missbrauchbaren Node vorgefunden hat. Kompromittierte Server kontrollieren die Angreifer zentral über ein Flask-basiertes Command-and-Control-Dashboard. Die Instanzen schürfen schließlich Monero mittels XMRig und Conflux mittels lolMiner. Außerdem sind sie Bestandteil eines „Hysteria v2“-Botnets.
Verankerte Malware
Wie die Analysten weiter berichten, ist die verankerte Malware ausgefeilt. Sie versucht, der Entdeckung durch die Ausführung ohne abgelegte Dateien zu entgehen und maskiert den Kernel-Thread-Prozess. Außerdem verankert sie sich als LD_PRELOAD-Rootkit. Dabei überschreiben die Angreifer bestehende Funktionen von dynamisch gelinkten Programmen. Zudem kennt die „ghost.sh“-Malware drei unabhängige „Wiederbelebungsmechanismen“, die die Entfernung der Kryptominer-Komponente und Systemneustarts überstehen.
Der Python-Scanner bekommt sogar Updates. Die IT-Forscher berichten, dass die Version 8.2 davon zwei neue Re-Infektionsmechanismen erhalten hat. Eine tarnt sich als „GPU Performance Monitor“-Node und lädt alle sechs Stunden den Schadcode erneut nach. Der Zweite verschleiert sich hingegen als Startup-Workflow, der jedoch mit der Malware vergiftet ist.
Interessierte finden in der Analyse tiefergehende Details. Am Ende nennen die Censys-Mitarbeiter noch mehrere Indizien für einen Befall (Indicators of Compromise, IOC), mit denen ComfyUI-Admins prüfen können, ob sie Ziel in der aktuellen Angriffswelle geworden sind.
Weiterlesen nach der Anzeige
ComfyUI ist ein quelloffenes und populäres Toolkit zum lokalen Erstellen von KI-Bildern und -Videos. Es kann etwa als Alternative für das einfacher zu bedienende Amuse dienen. Die Server sollten jedoch aus Sicherheitsgründen besser nur im LAN oder mittels VPN zugreifbar sein und nicht offen im Internet stehen.
(dmk)
Datenschutz & Sicherheit
Anthropics neues KI-Modell Mythos: Zu gefährlich für die Öffentlichkeit
Anthropic hat mit Mythos ein neues KI-Modell vorgestellt, das so gefährlich sein soll, dass es nicht öffentlich gemacht werden soll. Stattdessen soll Claude Mythos Preview im Rahmen einer Initiative namens Project Glasswing zuerst ausschließlich einer Reihe von Firmen zur Verfügung gestellt werden, die an IT-Sicherheit arbeiten. Die sollen die KI-Technik nutzen, um die „kritischste Software der Welt“ abzusichern. Das KI-Modell habe bereits tausende hochriskante Zero-Day-Lücken identifiziert, begründet Anthropic den Schritt. Solche seien in allen großen Betriebssystemen und jedem Internetbrowser, aber auch in zahlreicher anderer Software entdeckt worden. Vor allem sei Mythos Preview deutlich häufiger in der Lage, einen funktionierenden Exploit zu entwickeln.
Weiterlesen nach der Anzeige
Jahrzehntealte Lücken identifiziert
Als Beispiel listet Anthropic etwa eine seit 27 Jahren übersehene Lücke in OpenBSD auf, über die Angreifer ein Gerät aus der Ferne zum Absturz bringen könnten, „indem sie sich nur damit verbinden“. Auch von einer 16 Jahre alten Lücke in FFmpeg ist da die Rede, die bei fünf Millionen automatischen Scans mit speziellen Suchwerkzeugen nicht identifiziert worden sei. Zudem sei das Modell in der Lage gewesen, eine Reihe von bislang unbekannten Lücken im Linux-Kernel zusammenzuführen und daraus eine Attacke zu entwickeln, die es einem Angreifer ermöglichen würde, als normaler User die komplette Kontrolle über einen Rechner zu erlangen. Diese und andere Lücken seien den jeweils Verantwortlichen gemeldet worden. Anthropic hat dazu einen Blogeintrag veröffentlicht.
Der jetzt vorgestellten Initiative „Project Glasswing“ gehören demnach unter anderem Amazon Web Services (AWS), Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, die Linux Foundation, Microsoft, NVIDIA und Palo Alto Networks an. 40 weitere Organisationen, die Software für kritische Infrastruktur verantworten, seien ebenfalls beteiligt. Insgesamt stellt Anthropic demnach Nutzungsrechte im Wert von bis zu 100 Millionen US-Dollar für das neue KI-Modell zur Verfügung, 4 Millionen US-Dollar sollen direkt an Betreiber von Open-Source-Software gehen. Damit soll ihnen allen ermöglicht werden, Systeme nach Schwachstellen zu durchsuchen. Die sollen geschlossen werden, bevor andere KI-Modelle zu den Fähigkeiten von Mythos aufholen.
Anthropic ist primär für seine KI Claude bekannt, die mit ChatGPT von OpenAI konkurriert. Zuletzt geriet die Firma aber durch einen Streit mit dem Pentagon in die Schlagzeilen: Anthropic lehnte den Einsatz seiner KI in autonomen Waffen oder zur Massenüberwachung in den USA ab und wurde im Gegenzug zum Sicherheitsrisiko erklärt. Dagegen geht das Unternehmen gerichtlich vor. Dem US-Magazin Platformer hat die KI-Firma erklärt, dass sie der US-Regierung bei der sicher nötigen Evaluierung von Mythos helfen könnte. Noch sei aber unklar, ob sie das Angebot annehmen würde. Unklar ist auch, ob der Plan, Sicherheitslücken mit immer mächtigeren KI-Werkzeugen jeweils rechtzeitig vor böswilligen Angreifern finden zu wollen, aufgehen kann.
(mho)
Datenschutz & Sicherheit
Social-Media-Verbot lässt Bundesregierung ahnungslos zurück
Deutsche Spitzenpolitiker*innen fordern seit Monaten ein Social-Media-Verbot für Minderjährige. Entsprechende Vorstöße gab es unter anderem vom Bundes- und Vizekanzler, vom Bundespräsidenten und von der Justiz- und Familienministerin. Höher ließe sich ein geplantes Vorhaben kaum aufhängen. Nun zeigt allerdings die Antwort der Bundesregierung auf eine Kleine Anfrage der Linken: Offenbar stehen die vielfachen Forderungen auf wackligen Füßen.
Fragen zur Forschungslage oder zur Abwägung von Grundrechten kann die Bundesregierung demnach nicht beantworten. Auch gebe es noch keine gemeinsame Position: „Der Meinungsbildungsprozess innerhalb der Bundesregierung ist noch nicht abgeschlossen“, heißt es in der Antwort auf die Fragen von Heidi Reichinnek und weiteren Abgeordneten, die wir hier veröffentlichen.
Wissenschaftliche Grundlage: Keine
Zu mehreren Anlässen hatte sich Bundesfamilienministerin Karin Prien (CDU) bereits für ein Social-Media-Verbot stark gemacht und dabei auf wissenschaftliche Erkenntnisse verwiesen. Die Linken-Abgeordneten wollten es genauer wissen: „Auf welche wissenschaftlichen Erkenntnisse stützt die Ministerin ihre jeweiligen Positionen?“
Auf diese Frage ging die Bundesregierung jedoch nicht näher ein. Wohl aber auf eine ähnliche Frage – nämlich die, welche Studien belegen, dass Social-Media-Verbote positive Auswirkungen auf das Wohlbefinden junger Menschen hätten. Die Antwort: „Nach Kenntnis der Bundesregierung liegen entsprechende belastbare Studien noch nicht vor.“
Das passt unter anderem zum Befund der Gelehrtengesellschaft Leopoldina. In einem Diskussionspapier vom August 2025 nannten die Expert*innen die Forschungslage zu den Auswirkungen sozialer Medien „unbefriedigend“. Die Frage, wie soziale Medien auf das Gehirn einwirken, sei „bislang noch kaum neurowissenschaftlich untersucht“.
Dennoch plädierte die Leopoldina für Vorsicht statt Nachsicht. Sie forderte ein Social-Media-Verbot, stützte sich dabei aber nicht auf die Forschungslage, sondern auf das „Vorsorgeprinzip“ als „ethischen Standard zum Umgang mit Unsicherheit“.
Abwägung von Grundrechten: „Dauert noch“
Ein Social-Media-Verbot für junge Menschen bis zu einer gewissen Altersgrenze greift in mehrere Grundrechte ein, dazu gehören vor allem Teilhabe und Information, aber auch die Religionsfreiheit.
Gesetze dürfen zwar in Grundrechte eingreifen, allerdings müssen sie unter anderem verhältnismäßig sein. Ob ein Social-Media-Verbot verhältnismäßig wäre, hat die Bundesregierung allerdings noch nicht geprüft, wie aus der Antwort hervorgeht. Die Prüfung „dauert noch an“.
Zweifel an der Verhältnismäßigkeit gibt es bereits, etwa von der Bundesdatenschutzbeauftragten Louisa Specht-Riemenschneider, die in einer Stellungnahme für den Thüringer Landtag Ende letzten Jahres schrieb: „Keinesfalls sollte undifferenziert für jedes soziale Medium in Gänze eine bestimmte Altersgrenze festgelegt werden.“ Kinder und Jugendliche hätten ein Recht auf soziale Teilhabe.
Beeinflussung der Expert*innen-Kommission: ¯\_(ツ)_/¯
Bis Sommer 2026 soll eine vom Familienministerium einberufene Expert*innen-Kommission Antworten zum „Kinder- und Jugendschutz in der digitalen Welt“ ausarbeiten, parallel zu einer ähnlichen Kommission auf EU-Ebene. Die wiederholten Forderungen von Spitzenpolitiker*innen nach einem Social-Media-Verbot sind an den deutschen Expert*innen jedoch nicht spurlos vorbeigegangen. Mitte März meldete sich die Co-Vorsitzende der Kommission, Nadine Schön (CDU), zu Wort und warnte:
Ich rate der Politik dringend, uns in Ruhe arbeiten zu lassen.
„Wie wird sichergestellt, dass die Expertenkommission nach den Äußerungen einiger Kabinettsmitglieder weiterhin ergebnisoffen tagt?“, wollten die Linken-Abgeordneten wissen. Die Bundesregierung antwortet knapp: „Die Expertenkommission ist unabhängig und arbeitet ergebnisoffen und evidenzbasiert.“
Minderjährige einbeziehen: Wenig
Minderjährige sitzen nicht in der Expert*innen-Kommission, sollen jedoch gehört werden, wie die Bundesregierung erklärt. Dafür solle es „bundesweit“ sechs Workshops geben. Bei den ersten beiden haben demnach zusammengerechnet 25 Kinder und Jugendliche teilgenommen.
Sollten die verbliebenen vier Workshops ähnlich frequentiert sein, hätte die Bundesregierung letztlich mit rund 75 jungen Menschen gesprochen. In Deutschland leben mehr als 10 Millionen unter 14-Jährige; quantitative Umfragen arbeiten oft mit mindestens 1.000 Befragten.
Einblicke in die Arbeit der Expert*innen-Kommission gibt es bislang keine. Nicht einmal die Liste der geladenen Sachverständigen ist öffentlich. Im Sommer erwartet die Bundesregierung die „Handlungsempfehlungen“ der Fachleute; sie sollen dann auf der Website des Familienministeriums veröffentlicht werden.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Vereinbarkeit mit EU-Recht: Punktuell
Weiter gingen die Linken-Abgeordneten auf die Vereinbarkeit eines deutschen Social-Media-Verbots mit dem EU-Recht ein. Die Wissenschaftlichen Dienste des Bundestags haben inzwischen in zwei separaten Gutachten dargelegt, dass sie dafür keine Spielräume sehen, weil EU-Recht Vorrang hat.
Die Bundesregierung antwortet ausweichend mit einem Verweis auf eine ganz bestimmte Regelung:
Die Leitlinien nach Art. 28 Absatz 4 Digital Services Act sehen in Ziffer 37 lit. d vor, dass ein nationales Mindestalter möglich ist.
Diese Regelung gibt es wirklich; sie steht in den Leitlinien der EU-Kommission zur Umsetzung des Gesetzes über digitale Dienste (DSA) für Minderjährige. Allerdings gibt die Regelung Mitgliedstaaten nicht automatisch grünes Licht für das Modell, das wichtige Politiker*innen seit Monaten fordern – also nationale Social-Media-Verbote mit Alterskontrollen nach australischem Vorbild. Dafür gibt es mehrere Gründe.
- Zunächst sind die Leitlinien rechtlich nicht bindend. Die Kommission hat sie verfasst, um klarzumachen, wie sie als Aufsichtsbehörde die korrekte Umsetzung des DSA auslegen möchte.
- Zudem sind die Leitlinien selbst widersprüchlich mit Blick auf Alterskontrollen. Einerseits empfehlen sie strenge Alterskontrollen als möglicherweise notwendige Maßnahme, um Minderjährige vor potenziell schädlichen Inhalten zu schützen. Andererseits schränken sie diese Empfehlung durch zahlreiche Bedingungen ein. Je nach Auslegung bleibt also wenig Spielraum für regelkonforme Alterskontrollen.
- Nicht zuletzt ist der Knackpunkt eines Social-Media-Verbots nach australischem Modell nicht das reine Mindestalter, sondern dessen Durchsetzung, und zwar durch flächendeckende Alterskontrollen, etwa auf Basis von Ausweispapieren oder biometrischen Gesichtsscans. Allerdings gilt nach wie vor, dass einzelne EU-Mitgliedstaaten Plattformen keine zusätzlichen Pflichten auferlegen dürfen, die über den DSA hinausgehen. Das nennt man Anwendungsvorrang.
Der DSA nennt Alterskontrollen lediglich als eine von mehreren Optionen, um Minderjährige im Netz vor Risiken zu schützen. Ohne strenge Alterskontrollen könnte ein nationales Mindestalter jedoch Gefahr laufen, symbolisch zu bleiben. Denn schon jetzt schreiben die Nutzungsbedingungen großer Social-Media-Plattformen Altersgrenzen zwischen 13 und 16 Jahren vor.
In ihrer jüngsten Analyse sehen die Jurist*innen der Wissenschaftliche Dienste das Vorhaben schon vorm Europäischen Gerichtshof landen:
Abschließend könnte über die Frage verbleibender Regelungsspielräume der Mitgliedstaaten im Bereich des Verbots bzw. der Beschränkung von Social-Media-Plattformen nur der EuGH entscheiden.
Reichinnek warnt vor „kopflosen Verboten“
Linken-Fraktionsvorsitzende Heidi Reichinnek kritisiert das Vorpreschen von Kabinettsmitgliedern in Sachen Social-Media-Verbot – während die Expert*innen-Kommission noch arbeitet. „Die Regierung führt das Konzept einer solcher Kommission komplett ad absurdum, wenn doch sowieso schon klar ist, dass das Ziel ein Social-Media-Verbot für junge Menschen ist“, erklärt sie in einem Statement gegenüber netzpolitik.org.
Die Verbote seien „kopflos“, so Reichinnek weiter; die Debatte lenke von den eigentlichen Aufgaben der Bundesregierung ab: „klare Vorgaben und Strafen für Digitalkonzerne, die Sucht fördern und Hass im Netz keinen Riegel vorschieben sowie eine bessere Ausstattung von Angeboten für Kinder und Jugendliche, die sie dabei unterstützen, einen aufgeklärten Umgang mit Medien zu lernen und ihnen bei Problemen zu helfen.“
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
-
Entwicklung & Codevor 4 WochenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
