Datenschutz & Sicherheit

Geschichten aus dem DSC-Beirat: Die Krux der Perspektive



Der DSC-Beirat ist ein Gremium aus Zivilgesellschaft, Forschung und Wirtschaft. Er soll in Deutschland die Durchsetzung des Digital Services Act begleiten und den zuständigen Digital Services Coordinator unterstützen. Svea Windwehr ist Mitglied des Beirats und berichtet in dieser Kolumne regelmäßig aus den Sitzungen.

Eigentlich sollte die Sitzung im Juli die letzte für die bisherige Besetzung des DSC-Beirats gewesen sein. Denn es stand eine Neubesetzung an, für die der Ausschuss für Digitales und Staatsmodernisierung im Bundestag zuständig ist. Doch die verzögert sich voraussichtlich auf den 16. Oktober. Dann steht das Thema auf der Tagesordnung des Bundestages. Die Wahlvorschläge der Fraktionen sind bislang unbekannt, es bleibt also spannend.

Das alles führt dazu, dass ich ein weiteres Mal Einblicke aus der sechsten Beiratssitzung teilen kann. Sie hat wie wenig andere Sitzungen die Potenziale des DSC-Beirats gezeigt, aber auch die Krux der Durchsetzung des Digital Services Act (DSA).

Seltene Transparenz

Der wohl interessanteste Tagungspunkt der Sitzung war ein ausführlicher Austausch mit Prabhat Argawal. Argawal ist zuständiger Abteilungsleiter in der DG Connect, also der Generaldirektion der EU, die für die Durchsetzung des DSA gegenüber den allergrößten Plattformen verantwortlich ist. Der Austausch mit Argawal fand öffentlich statt und bot auch Menschen und Organisationen außerhalb des Beirats seltene Einblicke in den Brüsseler Maschinenraum.

Diese Offenheit war nicht immer selbstverständlich, ist inzwischen aber insbesondere dank des Engagements der zivilgesellschaftlichen Mitglieder so etwas wie eine etablierte Praxis. Man kann nur hoffen, dass der Beirat auch in seiner neuen Konstellation an dieser Praxis festhalten wird – gerade in Zeiten abnehmender Transparenz wie beim Digitalausschuss, der mittlerweile noch weniger öffentlich tagt als früher.

Prabhat Argawal gab ein Update zur internen Organisation seiner Abteilung, die zur Durchsetzung des DSA einige Referate dazugewonnen hat – unter anderem ein Referat, das sich ausschließlich auf Online-Marktplätze fokussiert. Ebenfalls noch recht jung ist ein eigenes Referat, das sich mit dem Schutz von Minderjährigen im Kontext des DSA auseinandersetzt.

Im Dickicht des Jugendschutzes

Zur Erinnerung: Der DSA regelt Fragen des Kinder- und Jugendmedienschutzes in Artikel 28. Dieser Artikel enthält, gelinde gesagt, einige Spannungen: So dürfen Diensteanbieter Minderjährigen keine personalisierte Werbung ausspielen. Sie sollen aber auch keine zusätzlichen Daten erheben, um herauszufinden, welche ihrer Nutzenden denn nun minderjährig sind. Verwirrendes Kernstück des Artikels ist die Verpflichtung, dass Diensteanbieter “geeignete und verhältnismäßige Maßnahmen” ergreifen sollen, um für ein “hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen” auf ihren Diensten zu sorgen.

Wer sich fragt, was das genau heißen soll, kann seit Juli die Leitlinien zu Artikel 28 konsultieren, in der die EU-Kommission ihre Vorstellungen einer gelungenen Umsetzung aufschreibt. Dazu gehören eine ganze Reihe sinnvoller Vorschläge, darunter: bessere Defaulteinstellungen, um die Privatsphäre zu schützen; das Abstellen von Designfeatures wie nie endenden Feeds, die süchtigmachende Effekte haben können; Maßnahmen, um Minderjährige von Lootboxen fernzuhalten.

Prabhat Argawal hat die Umsetzung genau jener Leitlinien als bisher enttäuschend eingestuft. Die Kommission prüfe noch, welche Änderungen Plattformen vorgenommen hätten, aber „in der Realität“ scheinen die Leitlinien bislang nicht angekommen zu sein.

Das mag auch mit der ungelösten Frage von Altersüberprüfungen zu tun haben. Inmitten lauter werdender Forderungen nach einem Social-Media-Verbot für Teenager sollte den Leitlinien eigentlich eine wichtige Rolle dabei zukommen, zu beantworten, wie sich Europa denn nun die Zukunft des Internets vorstellt.

Die Leitlinien zeichnen ein dementsprechend deutliches Bild: Altersüberprüfungen werden als Voraussetzung für erfolgreichen Kinder- und Jugendschutz gesehen und als geeignet und verhältnismäßig eingestuft. Das wirft Fragen auf: Altersbestimmungstechnologien können grundsätzlich umgangen werden, meist reicht dafür ein simples VPN. Ob sie also wirklich geeignete Instrumente sind, kann dahingestellt werden.

Schwerer wiegt aber ein Blick auf die Verhältnismäßigkeit ihres Einsatzes. Alle bekannten Altersbestimmungstechnologien basieren entweder auf öffentlichen Dokumenten wie Personalausweisen oder e-IDs oder der Verarbeitung anderer Daten der Nutzenden. Etwa indem ihr Nutzungsverhalten analysiert oder ihre biometrischen Daten verarbeitet werden, um ihr Alter zu schätzen. Beide Varianten bringen signifikante Datenschutzrisiken mit sich. Dazu kommt, dass nicht alle Menschen Zugang zu Ausweisdokumenten haben (eine nennenswerte Gruppe wären Kinder und Jugendliche unter 16). Sie könnten so massenhaft Zugang zu Informationen und Inhalten verlieren.

Studien zeigen zudem, dass KI-basierte Systeme, die das Alter von Nutzenden schätzen sollen, regelmäßig höhere Fehlerraten für Frauen und Menschen mit dunkleren Hauttönen haben.

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Unbeachtet dieser negativen Implikationen von Altersbestimmungstechnologien stellen sie aber einen zentralen Aspekt der Leitlinien dar. Dazu kommt, dass die Leitlinien Mitgliedstaaten dazu ermächtigen, selber zu entscheiden, ob sie Zugangsverbote für bestimmte Dienste und Alterskohorten festlegen möchten. Mit Blick auf jüngste Äußerungen dänischer, französischer oder griechischer Regierungschef:innen, die sich ausnahmslos für Social-Media-Zugangsbeschränkungen für unter 15- beziehungsweise 16-Jährige einsetzen, scheint es also nur eine Frage der Zeit, bis Social-Media-Verbote zumindest in einigen EU-Ländern Alltag werden.

Je nach Sichtweise gibt es also noch jede Menge unbeantwortete Fragen dazu, was Plattformen genau tun sollen, um Kinder und Jugendliche auf ihren Diensten zu schützen.

Wirkt der DSA?

Trotz der Enttäuschungen beim Kinder- und Jugendschutz hebt Prabhat Agarwal aber die Wirksamkeit des DSA hervor. Er berichtet, dass die Plattformen bereits viel geändert, manche ihre Systeme sogar “komplett neu aufgestellt” haben, auch wenn es von außen nicht immer sichtbar sei. Die Zusammenarbeit mit der Kommission laufe gut: Von hunderten versandten Auskunftsersuchen habe bis jetzt kein Anbieter die Antwortfrist versäumt. Es ist erfreulich zu hören, dass Kommission und Plattformen einen Modus Operandi gefunden haben. Knapp drei Jahre nach seinem Inkrafttreten scheint die Frage, ob die Durchsetzung des DSA funktioniert, aber immer mehr zu einer Frage der Perspektive zu werden.

Eine aktuelle Studie von Das NETTZ kommt zu dem Schluss, dass die Meldewege auf großen Onlineplattformen selten genutzt werden – Nutzer:innen möchten zwar problematische Inhalte melden, fühlen sich aber von unbekannten rechtlichen Kategorien, mangelndem Feedback und komplexen Verfahren abgeschreckt: Jede vierte DSA-Meldung werde demnach abgebrochen.

In Amsterdam urteilte ein Gericht kürzlich, dass Meta gegen den DSA verstößt: Der Konzern hat die Auflage, chronologische Feeds anzubieten, die nicht auf Profiling basieren, nicht richtig umgesetzt. Das sind nur zwei Beispiele für absolute DSA-Grundlagen, bei denen es auch nach drei Jahren selbst bei den größten Plattformen noch hapert. Das ist insofern erstaunlich, als dass die Kommission eine ganze Abteilung und ein Budget von über 50 Millionen Euro zur Beaufsichtigung von sehr großen Online-Plattformen zur Verfügung hat. Auf den Abschluss eines Verfahrens durch die Kommission wartet man währenddessen nach wie vor.

Auch der Forschungsdatenzugang existiert aktuell nur in der Theorie. Er ist ein Kernstück des DSA und soll es unabhängigen Forschenden ermöglichen, systemische Risiken mit Plattformdaten zu erforschen.

All diese Themen sind sehr komplex: Es ist kein Leichtes, den DSA mit Leben zu füllen. Doch angesichts der immer stärker werdenden Kritik an europäischen Ansätzen der Plattformregulierung müssen Aufsichtsbehörden entweder schlagkräftiger auftreten – oder an der Kommunikation ihrer Erfolge arbeiten.



Source link

Beliebt

Die mobile Version verlassen