Datenschutz & Sicherheit
Wie Wikimedia es schafft, die Vorgaben der EU zu erfüllen
Der Digital Services Act der EU (DSA) soll Nutzenden mehr Rechte gegenüber Online-Diensteanbietern geben und die Verbreitung illegaler Inhalte oder auch Dienstleistungen eindämmen. Besonders viele Pflichten gelten dabei seit zwei Jahren für sehr große Online-Plattformen und -Suchmaschinen. Dazu gehören Digitalriesen wie Google und Meta, aber auch Plattformen wie Booking.com und LinkedIn.
Eine Plattform sticht jedoch aus der Liste der benannten Dienste heraus: die Wikipedia. Die Wikimedia Foundation, die die bekannte Online-Enzyklopädie mit geschätzt 150 Millionen Nutzenden im Monat betreibt, ist im Gegensatz zu anderen Akteuren nicht-kommerziell. Nach über zwei Jahren der Umsetzung zieht die Organisation ein erstes Fazit.
Grundsätzlich sei Wikipedia schon vor der Regulierung durch die EU sehr transparent gewesen, sagt Phil Bradley-Schmieg, leitender Rechtsberater der Wikimedia-Stiftung, bei einer Veranstaltung in Brüssel. Daher hätten die Transparenzpflichten aus dem DSA keine allzu großen Veränderungen gebracht. Schon seit zehn Jahren veröffentlicht die Stiftung hinter der Online-Enzyklopädie beispielsweise halbjährlich Transparenzberichte. Neue DSA-Vorgaben betrafen jedoch Transparenz über Inhaltsmoderation. Die Stiftung hat zudem eine zusätzliche Kontaktmöglichkeit geschaffen und Forschende können neuerdings Zugang zu benötigten Daten beantragen – alles Anforderungen des DSA.
Die größte Neuerung ist jedoch die Bewertung von systemischen Risiken und die Bestimmung von Gegenmaßnahmen, die laut dem EU-Gesetz jährlich vorgenommen werden müssen. Die Stiftung ging dabei nach einem Trichter-System vor. „Wir haben mit den uns bekannten globalen Risiken angefangen“, erklärt Bradley-Schmieg. Grundlage waren unter anderem die etablierte Menschenrechtsfolgenabschätzung, Rückmeldungen von Ehrenamtlichen und der Digital Services Act selbst.
Im nächsten Schritt identifizierte die Stiftung, welche Risiken relevant für ihre Plattform und die EU sind – schließlich gilt der DSA nur hier. Mittlerweile bekommen sie auch Input aus der Forschung und der Zivilgesellschaft. In Gesprächsrunden mit anderen DSA-regulierten Plattformen hat sich die Wikimedia-Stiftung ebenfalls zu möglichen Risiken und ihrer Minderung ausgetauscht.
Desinformation als größtes Risiko
Anschließend beschrieb und analysierte Wikimedia die Risiken in einer Matrix. Besonders dringlich erschien der Stiftung, dass Desinformation zu Konflikten, zu Wahlen sowie zu geografischen und historischen Narrativen über die Wikipedia verbreitet werden könnte.
Solche Versuche kommen in der Wikipedia immer wieder vor. Alle können die Enzyklopädie editieren und so versuchten etwa in der Pandemie Corona-Leugner:innen, Einträge nach ihren Ansichten zu formen. Auch Artikel zur Zeit des Nationalsozialismus oder zu Politiker:innen sind regelmäßig Ziel von Rechtsextremen und anderen, die ihre Ideologie verbreiten wollen. Dagegen gibt es verschiedene Schutzmechanismen: von Tools, die verdächtige Bearbeitungen melden sollen, bis hin zu Beschränkungen, wer bestimmte Artikel editieren darf.
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Auch die Belästigung von Wikipedia-Ehrenamtlichen wird als hohes Risiko eingestuft. Eine mittlere Dringlichkeit sieht Wikimedia bei den Risiken für gefährliche Inhalte, sogenannte Kinderpornografie, terroristische oder extremistische Inhalte. Die Verbreitung von Desinformation mittels generativer KI hatte zum Zeitpunkt der Einschätzung noch geringere Priorität. Jedoch scheint sich dies mit der zunehmenden Nutzung entsprechender Tools zu wandeln.
Gleichzeitig könne generative KI die Ehrenamtlichen dabei unterstützen, gegen gezielte Desinformation auf Wikipedia vorzugehen, meint Ricky Gaines, Leiter für Menschenrechtspolitik der Wikimedia-Stiftung. Er ergänzt, dass die Umsetzung von Änderungen bei Wikipedia etwas länger dauern kann als bei anderen Plattformen. Ihr Modell der gemeinsamen Verwaltung nehme mehr Zeit in Anspruch als klassische Top-Down-Strukturen. Nutzende diskutieren viele Regeln gemeinsam aus, Abstimmungen brauchen Zeit, damit sich alle beteiligen können. Auch sein Kollege Bradley-Schmieg merkt an, dass viele Gesetze nicht für Bottom-Up-Modelle gemacht seien.
Begrenzte Ressourcen
Ein besonders aufwendiger Teil der Regulierung ist der jährlich verpflichtende externe Audit zur Bewertung der Risiken und Gegenmaßnahmen. Bradley-Schmieg zufolge sei das sehr schwer und ressourcenintensiv gewesen. Das ist eins der zwei Probleme, die sich für die Stiftung mit dem DSA ergeben: Durch den neuen bürokratischen Aufwand fehlten die Ressourcen an anderer Stelle, etwa für die Verbesserung technischer Features oder die Unterstützung der Wikipedia-Communitys. Als gemeinnützige Organisation verfügten sie ohnehin nicht über große finanzielle Ressourcen.
Der zweite Aspekt betrifft die von der EU vorgegebenen Fristen, die sich nicht immer mit der internen Zeitplanung der Stiftung vereinbaren ließen. Die Fristen sind jedoch unflexibel. Trotzdem zieht Rebecca MacKinnon, Sonderberaterin im Bereich der Globalen Interessenvertretung der Wikimedia-Stiftung, ein positives Fazit: „Der Digital Services Act besteht den Wikipedia-Test. Er hat sie nicht gebrochen.“