Connect with us

Datenschutz & Sicherheit

EU-Forschungsabteilung: Ein Internet ohne schädliche Anreize ist möglich


Es ist schon eine Ansage: Die EU sollte in ihrem Streben nach digitaler Souveränität neue Geschäftsmodelle im digitalen Raum entwickeln, die besser mit der Demokratie vereinbar sind. Zu diesem Schluss kommt eine neue Studie der Gemeinsamen Forschungsstelle der EU-Kommission.

Der Titel der englischsprachigen Studie ist so alarmierend wie programmatisch: „Fractured reality – How democracy can win the global struggle over the information space“ (auf Deutsch: „Zersplitterte Realität – Wie die Demokratie den globalen Kampf um den Informationsraum gewinnen kann“). Verfasst haben sie ein Dutzend renommierter Forscher:innen zu dem Thema, darunter die Hauptautoren, der Kognitionspsychologe Stephan Lewandowsky und der Verhaltensforscher Mario Scharfbillig.

Aufmerksamkeitsökonomie unter der Lupe

In der heutigen „Aufmerksamkeitsökonomie“ ist die Zeit und Aufnahmefähigkeit von Menschen begrenzt, schreiben die Autor:innen. Viele Online-Dienste, insbesondere soziale Medien, kämpfen geschickt um das kostbare Gut: Sie haben ihre personalisierten Produkte so gestaltet, dass Nutzer:innen möglichst lange auf ihrem Dienst bleiben. Dann können sie ihnen möglichst viele und passgenaue Werbeanzeigen einblenden.

Dies begünstige „strukturell – wenn auch unbeabsichtigt – Inhalte, die die Demokratie bedrohen, da die menschliche Aufmerksamkeit Informationen bevorzugt, die negativ, emotional und konfliktgeladen sind“, heißt es in der Studie. Zudem würden die Dienste den Weg zu Echokammern ebnen. In diesen würden sich Menschen gegenseitig unwidersprochen ihre Ansichten bestätigen.

Grundsätzlich neu sei dieses Phänomen zwar nicht, jedoch ermögliche Technologie eine zuvor ungekannte Vielfalt und Fragmentierung von Wahrnehmungen der Realität. Dies sei ein Problem: „Demokratische Institutionen und die Demokratie selbst können ohne ein gewisses Maß an gemeinsamer Realität nicht überleben.“

Wenn sich soziale Medien nun zunehmend zu einer wichtigen Informationsquelle entwickeln und sich strukturell bedingt Informationen minderwertiger Qualität schneller verbreiten, öffnet das die Tür für Falschnachrichten, ob unbeabsichtigt (Misinformation) oder bewusst gestreut (Desinformation). Inzwischen habe sich das Phänomen jedoch gewandelt: Es gehe nicht mehr darum, konkrete Behauptungen aufzustellen oder anzufechten, sondern darum, den Informationsraum zu überfluten („flooding the zone“).

Dominanter Fantasie-Industrie-Komplex

Während Informationsmanipulation früher auf „systematischen Lügen“ basierte, setze sich die heutige Situation aus einer Mischung aus Desinformation, Täuschung, irreführenden Informationen und wahren Kernen zusammen. Die Autor:innen beschreiben dies als „Fantasie-Industrie-Komplex“, der sich selbst organisiere und lose koordiniert sei.

Ziel der Informationsmanipulation sei es heute oft nicht, Menschen von bestimmten falschen Behauptungen zu überzeugen, sondern „abzulenken, Misstrauen zu schüren und antidemokratische Normen, autoritäre Instinkte und Verhaltensweisen zu aktivieren“. Dies sei ein systemisches Problem, betonen die Autor:innen. „Einzelpersonen für Fehlinformationen verantwortlich zu machen, verkennt die eigentliche Ursache.“

Mit diesem „Fantasie-Industrie-Komplex“ ist eine der Ko-Autor:innen allzu gut vertraut. Als Studentin hatte die heute an der Georgetown University lehrende Desinformationsforscherin Renée DiResta ein Praktikum beim US-Geheimdienst CIA absolviert. Daraus drehten ihr rechte und rechtsextreme US-Influencer:innen einen Strick: Unter anderem Elon Musk nutzte seinen Einfluss sowie die Tatsache, den Kurznachrichtendienst X zu besitzen, um mit vermeintlichen Enthüllungen über einen „Zensur-Industrie-Komplex“ politisch Stimmung zu machen.

Im Zentrum der Auseinandersetzung fand sich DiResta wieder. In einschlägigen Ecken des Internets als „CIA Renee“ verunglimpft, ging es ihren Widersacher:innen vor allem darum, ihre Glaubwürdigkeit und in weiterer Folge die des Stanford Internet Observatory (SIO) zu beschädigen. Zu dieser Zeit forschte DiResta dort zu Desinformation und landete im Visier von US-Republikanern. Denen gefiel nicht, dass das SIO ihre oft auf Lügen basierende Wahlkampftaktik offenlegte.

Republikaner hacken Forschung kurz und klein

Der konzertierte Angriff auf das SIO und eine Reihe anderer vergleichbarer Institute, der auch aus Anhörungen im republikanischen Repräsentantenhaus bestand, hatte schließlich Erfolg. Verträge wurden nicht verlängert, das Budget gekürzt, im Jahr 2024 machte die Stanford University das SIO ganz dicht – gerade noch rechtzeitig vor den US-Präsidentschaftswahlen im Herbst.

Auf den Druck von rechts reagierten neben US-Universitäten auch einige prominente soziale Netzwerke: Meta kündigte etwa öffentlichkeitswirksam an, zeitgleich zum Amtsantritt Donald Trumps seine Moderationsregeln auf Facebook und Instagram zurückzuschrauben. Im Sommer darauf zog auch YouTube still und heimlich nach. Solange Falschinformationen rund um Themen wie Impfungen, Minderheiten oder Wahlbetrug im „öffentlichen Interesse“ stehen, bleiben sie auf dem größten Video-Streamingportal der Welt unmoderiert stehen.

Vor dieser von der Realität weitgehend losgelösten Entwicklung warnen die Autor:innen der EU-Studie. „Demokratie braucht einen gesunden Informationsraum, der ausreichend genaue und überprüfbare Informationen enthält, eine politische Vielfalt an Meinungen und Stimmen zulässt, breit gefächerte Besitzverhältnisse im Medienbereich umfasst sowie ein geringes Maß an schädlichen Inhalten und Fehlinformationen aufweist, wenn wir ein gewisses Realitätsgefühl erhalten wollen“.

Abkehr von der Aufmerksamkeitsökonomie

Um dem etwas entgegenzusetzen, bringen die Autor:innen konkrete Empfehlungen mit. Zuvorderst müssten wir alternative öffentliche Räume schaffen, sowohl online als auch offline, die nicht von der Aufmerksamkeitsökonomie abhängen. Wir sollten uns auch vom Erfolg crowd-basierter und dezentraler Ansätze wie jenem der Online-Enzyklopädie Wikipedia inspirieren lassen.

Nutzer:innen sollten zugleich mehr Autonomie erhalten, etwa mit einer Verbesserung des Plattformdesigns durch Erkenntnisse aus der Verhaltensforschung. Beispielsweise durch Abkühlphasen – etwas, was der anstehende Digital Fairness Act der EU durchaus auf dem Schirm hat.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Verbesserungsmöglichkeiten macht die Studie auch bei Faktenchecks aus. Selbst wenn diese stattfinden, erreichen sie oft ihr Zielpublikum nicht. Das ließe sich durch angepasste Ausspiel-Mechanismen verändern. Zudem sollten ausgewiesene Verbreiter:innen von Falschinformationen demonetarisiert werden: „Solange Desinformation profitabel ist, wird sie nicht verschwinden“.

Indes weisen die Autor:innen darauf hin, dass keine dieser Maßnahmen ausreiche, wenn keine Alternativen zu den derzeitigen Geschäftsmodellen entstehen, die auf „Engagement“ basierten. Als Alternativen stellen sie unter anderem Abo-Modelle in den Raum, eine Besteuerung digitaler Werbeanzeigen, oder auch Gebühren für Online-Dienste, die besonders viel Falschinformationen verbreiten. Helfen könnten auch Auflagen zu Interoperabilität, mit der Nutzer:innen ihre Daten möglichst einfach von einem Anbieter zu einem anderen mitnehmen und umziehen könnten.

Papiertiger ohne europäische Alternativen

Bleibt aber immer noch das Problem, dass die meisten großen Online-Dienste derzeit nicht aus Europa stammen. Forschungsergebnisse deuten der EU-Studie zufolge darauf hin, dass Algorithmen von Plattformbetreibern zu deren Gunsten instrumentalisiert werden – was sich wohl am deutlichsten an dem zur rechten Propagandaplattform umgebauten X ablesen lässt.

„Die Informationsdiät der Europäer liegt somit in den Händen ausländischer Akteure, die möglicherweise nicht die europäischen demokratischen Werte teilen“, warnen die Autor:innen. Trotz der vorangegangenen Empfehlungen lassen sich diese Werte ohne digitale Souveränität und Autonomie der EU nicht vollständig schützen, schreiben sie.

Dabei dürfe die EU jedoch nicht in offenkundige Fallen tappen, warnt die Studie: „Es besteht derzeit die Gefahr, dass ein verstärktes Streben nach digitaler Souveränität auf Technologieebene die Chance auf einen besseren demokratischen Rahmen verspielt und ähnliche Probleme in Europa wiederholt, insbesondere wenn Geschäftsmodelle nicht mit demokratischen Prinzipien vereinbar sind.“

Mit demokratischen Modellen experimentieren

Um die Stellung der EU im digitalen Raum zu stärken, sollte Europa in dezentrale System wie Atmosphere, Fediverse, Mastodon oder Eurosky investieren und zugleich eine europäische Cloud-Infrastruktur samt ausreichender Rechenkapazität schaffen. Damit ließe sich die Macht ausländischer Unternehmen schwächen, während die alternativen Dienste „demokratische Modelle in Echtzeit“ erforschen könnten. Neben finanzieller Förderung solcher Ansätze könnten etwa Verpflichtungen für öffentliche Einrichtungen und Behörden, die entstehenden Online-Dienste zu nutzen, anstatt auf X und Co. zu verharren, deren Attraktivität steigern.

Darüber hinaus sollte die EU bei der Forschung keine Kompromisse machen. „Das rasante Tempo des Wandels stellt die Forschung vor die Herausforderung, Schritt zu halten und Auswirkungen zu untersuchen, zumal Plattformdaten größtenteils privat bleiben“, heißt es in der Studie. Den im Digital Services Act (DSA) enthaltenen Zugang für die Wissenschaft, der bis heute noch nicht so recht vollständig umgesetzt ist, geht den Autor:innen augenscheinlich nicht weit genug.

Angesichts des Bedarfs an schnellerer Forschung und Evaluierung digitaler Strategien sei ein europäisches „CERN für Daten und Demokratie“ erforderlich, um die in Europa fragmentierten Kapazitäten für die kontinuierliche Plattformforschung im industriellen Maßstab zu bündeln. Trotz ihrer globalen Vorreiterrolle bei der Digitalregulierung sollte sich die EU lieber beeilen: „Ein globaler Innovationswettlauf ohne Berücksichtigung seiner gesellschaftlichen Folgen könnte die Fähigkeit der Gesellschaften überfordern, diese Veränderungen friedlich zu bewältigen.“



Source link

Datenschutz & Sicherheit

OpenSSL 4.0 verschlüsselt, was TLS bisher verraten hat


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

OpenSSL 4.0.0 ist erschienen und bringt tiefgreifende Änderungen an der weitverbreiteten Kryptobibliothek. Das Open-Source-Projekt entfernt veraltete Protokolle wie SSLv2 und SSLv3, schafft das Engine-Konzept ab, führt neue Datenschutzfunktionen im TLS-Handshake ein und erweitert die Bibliothek in Richtung Post-Quantum-Kryptografie. Gleichzeitig bereinigen die Entwickler die API und verschärfen sicherheitsrelevante Prüfungen.

Weiterlesen nach der Anzeige

OpenSSL gehört zu den zentralen TLS/SSL-Implementierungen und steckt in Webservern, Betriebssystemen, Netzwerkgeräten und unzähligen Anwendungen. Änderungen an der Bibliothek wirken sich unmittelbar auf die Absicherung von Netzwerkverbindungen, Zertifikatsprüfungen und kryptografische Operationen in großen Teilen der IT-Infrastruktur aus.

Zu den wichtigsten Neuerungen gehört die Unterstützung für Encrypted Client Hello (ECH) nach RFC 9849. ECH verschlüsselt Teile des TLS-Handshake – insbesondere die Server Name Indication (SNI). Bislang konnten Dritte wie Netzbetreiber anhand der SNI erkennen, welche Domain ein Client ansteuert. ECH verbirgt diese Information und verbessert so den Datenschutz auf Transportebene deutlich.

Neu sind außerdem hybride Schlüsselaustauschverfahren wie curveSM2MLKEM768. Sie kombinieren klassische elliptische Kurven mit Post-Quantum-Algorithmen und sollen Verbindungen schon heute gegen künftige Angriffe durch Quantencomputer absichern: Selbst wenn ein Angreifer eines der beiden Verfahren bricht, schützt das andere weiterhin die Verbindung.

Die Bibliothek ergänzt mehrere kryptografische Primitive und Standards. Dazu zählt die cSHAKE-Funktion nach SP 800-185 – eine flexiblere Variante von SHA-3, die domänenspezifische Hash-Berechnungen erlaubt. Hinzu kommen Unterstützung für den Signaturalgorithmus ML-DSA-MU sowie SM2/SM3 nach RFC 8998, die unter anderem in regulatorischen Kontexten eine Rolle spielen. Zudem führt OpenSSL 4.0.0 Key-Derivation-Funktionen (KDFs) für SNMP und das Secure Real-time Transport Protocol (SRTP) ein, die in Netzwerkmanagement- und VoIP-Szenarien zum Einsatz kommen. Für TLS 1.2 unterstützt OpenSSL nun außerdem standardisierte Finite-Field-Diffie-Hellman-Gruppen (FFDHE) gemäß RFC 7919. Das verbessert die Interoperabilität und vermeidet unsichere oder proprietäre Parameterwahl beim Schlüsselaustausch.

Die Zertifikatsvalidierung wird an mehreren Stellen strenger. Im Strict-Modus prüft OpenSSL nun zusätzlich die Authority Key Identifier (AKID), und auch die CRL-Prüfung erhält weitere Checks. Im FIPS-Modus erzwingt die Bibliothek jetzt Mindestanforderungen bei PBKDF2 – etwa bei der Zahl der Iterationen –, um schwache Konfigurationen zu unterbinden.

Weiterlesen nach der Anzeige

Neu ist außerdem die Möglichkeit, FIPS-Selbsttests verzögert auszuführen. Das ist vor allem in containerisierten Umgebungen nützlich.

Mit Version 4.0 räumt OpenSSL konsequent auf. Neben SSLv2 und SSLv3 fällt auch das Engine-Konzept weg. Hardwarebeschleunigung und externe Kryptomodule laufen künftig ausschließlich über die Provider-Architektur, die Engines bereits seit OpenSSL 3.0 ablöst. Ebenfalls entfernt: feste TLS-Versionsmethoden, ältere elliptische Kurven, diverse Low-Level-Funktionen und das Skript c_rehash. Stattdessen sollen Nutzer openssl rehash verwenden.

Bei der API gibt es mehrere Änderungen, die Anpassungen im Anwendungscode erfordern können. Zahlreiche Funktionssignaturen tragen jetzt const-Qualifier, der Datentyp ASN1_STRING ist nun vollständig gekapselt – Zugriff auf seine internen Felder ist nur noch über Zugriffsfunktionen möglich. Auch die Ausgabe von Hex-Dumps wurde standardisiert: Signaturen werden in 24-Byte-Blöcken dargestellt, alle anderen Daten in 16-Byte-Blöcken. Das soll die Lesbarkeit verbessern und die Ausgabe konsistenter machen. Und veraltete Funktionen zur Zeitprüfung von Zertifikaten weichen der neuen Funktion X509_check_certificate_times(). Auch beim Laufzeitverhalten gibt es Änderungen: OpenSSL verzichtet künftig auf automatisches Aufräumen globaler Daten über atexit() und setzt stärker auf Standardfunktionen der C-Laufzeitbibliothek, etwa bei snprintf.

Für Entwickler und Betreiber bedeutet das Release mehr Sicherheit und modernere Kryptografie – bei gleichzeitig erhöhtem Migrationsaufwand. Anwendungen, die direkt auf OpenSSL-APIs zugreifen oder ältere Funktionen nutzen, müssen angepasst werden. OpenSSL 4.0 legt damit die Grundlage für den Übergang zu post-quantenresistenten Verfahren und besseren Datenschutz im TLS-Handshake. Details zum neuen Release finden sich auf der zugehörigen GitHub-Projektseite.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Datenschutz & Sicherheit

Gesichtsscan und Handy-Zwang: Von der Leyen erklärt Alterskontroll-App für „fertig“


EU-Kommissionspräsidentin Ursula von der Leyen (CDU) und Digitalkommissarin Henna Virkkunen haben heute die neue Alterskontroll-App der EU vorgestellt. Mit ihr sollen Menschen in der EU ihr Alter gegenüber altersbeschränkten Online-Diensten nachweisen können.

Von der Leyen zufolge sei die App „technisch fertig“ und funktioniere auf „jedem“ Gerät. Allerdings soll es die App zunächst nur für iOS und Android geben. Auf den üblichen App-Marktplätzen ist sie zudem noch nicht verfügbar. Das heißt, die App ist noch nicht fertig und läuft nicht auf jedem Gerät.

Vielmehr sollen nun Entwickler*innen den Code nutzen, um daraus eigene Versionen der App zu bauen und auf den Markt zu bringen. Die EU-Kommission hofft sogar darauf, dass die App ein weltweiter „Goldstandard“ werde, wie ein Kommissionsbeamter in einem nachgelagerten Pressebriefing erklärte.

Alterskontrollen sind einerseits eine Option, mit der Plattformen Minderjährige schützen sollen; Grundlage ist das Gesetz über digitale Dienste (DSA). Andererseits sind verpflichtende Alterskontrollen eine Kernforderung für die Durchsetzung eines Social-Media-Verbots für Minderjährige, auf das mehrere EU-Mitgliedstaaten derzeit drängen.

Nutzende sollen ihr Gesicht scannen lassen

Bereits vor einem Jahr hatte die EU ein Konzept für die App vorgestellt; wenig später folgte ein Prototyp mit Google-Bindung. In der App sollen Nutzer*innen zunächst ihr Ausweisdokument hinterlegen können. Dann sollen sie per Handy-Kamera ihr Gesicht scannen lassen, wie ein neues Werbevideo der EU-Kommission zeigt.

Die App soll daraufhin prüfen, ob das gescannte Gesicht mit dem Foto auf dem Ausweis übereinstimmt. Dabei kommt offenbar ein biometrischer Vergleich zum Einsatz. Einmal eingerichtet soll die App einem Online-Dienst mitteilen können, ob man bereits 18 Jahre alt ist oder nicht – ein Klarname soll nicht übermittelt werden.

Der Screenshot zeigt das Gesicht eines Mannes auf dem Smartphone-Bildschirm im Prototyp der Alterskontroll-App.
Bist du’s wirklich? Video der EU-Kommission zeigt Gesichtserkennung in der Alterskontroll-App. – Alle Rechte vorbehalten EU-Kommission

Dass die App auch das Gesicht der Nutzer*innen scannen soll, war zuvor nicht Thema. Selbst in ihrer Rede zur Vorstellung der App betonte von der Leyen: Man wolle nicht, dass Plattformen Gesichter scannen. Ein Scan durch die Alterskontroll-App dagegen ist für die EU-Kommission offenbar in Ordnung.

Für die Akzeptanz in der Bevölkerung könnte das ein Problem sein. Gegenüber netzpolitik.org sagte etwa Anja Treichel, Geschäftsführerin des Vereins „Bundeselternnetzwerk der Migrantenorganisationen für Bildung & Teilhabe“, im März:

Viele Familien – insbesondere solche mit Flucht- oder Migrationserfahrungen und solche, die in Diktaturen/ autoritären Regimen aufgewachsen sind – sind sensibel gegenüber staatlicher oder kommerzieller Datenerfassung. Biometrische Verfahren können Vertrauen in digitale Angebote untergraben. Alterskontrollen sollten daher möglichst datensparsam und freiwillig gestaltet sein.

Von der Leyen nennt irreführende Gründe für Alterskontrollen

Die Rede der Kommissionspräsidentin zur neuen Alterskontroll-App ist an mehreren Stellen lückenhaft oder irreführend. Zunächst listet von der Leyen eine Reihe von Risiken und Gefahren für Minderjährige auf, die sich angeblich mithilfe der Alterskontroll-App bekämpfen lassen sollen:

  • Cybermobbing
  • suchtfördernde Designs
  • personalisierte Inhalte
  • Bildschirmzeit
  • schädliche und illegale Inhalte
  • Grooming, also die sexuelle Anbahnung von Kontakten durch Erwachsene

Für einen Großteil dieser Gefahren erweisen sich Alterskontrollen jedoch als Scheinlösung.

Cybermobbing erleben junge Menschen in großen Teilen im Umfeld aus Gleichaltrigen, oftmals sogar Mitschüler*innen – Alterskontrollen können dagegen nichts ausrichten.

Suchtfördernde Designs und personalisierte Inhalte lassen sich durch das Gesetz über digitale Dienste und möglicherweise den kommenden Digital Fairness Act abmildern oder gänzlich verbieten. Das schützt nicht nur Minderjährige, sondern alle. Es wäre im Vergleich dazu weniger zielführend, lediglich jüngere Menschen von betroffenen Plattformen auszuschließen.

Bei der Bildschirmzeit junger Menschen in Deutschland wiederum spielt laut KIM-Studie 2024 Fernsehen eine dominante Rolle. Alterskontrollen für Online-Dienste dürften daran wenig ändern. Die drei häufigsten Freizeit-Aktivitäten von unter 14-Jährigen in Deutschland sind der Studie zufolge: Freund*innen treffen, Fernsehen, Hausaufgaben. Erst weiter hinten kommen „Videos, Filme und Serien online“ – noch hinter der Aktivität „Draußen spielen“.

Schädliche und illegale Inhalte suchen und finden junge Menschen auch gezielt auf Seiten, die sich nicht an Regeln halten. Eine Rolle spielen dabei unter anderem Neugier und Mutproben. Alterskontrollen dürften den Zugang hierzu nicht stoppen.

Beim Grooming suchen Erwachsene über Chats Kontakt zu Minderjährigen, gerade an digitalen Orten, wo sich viele junge Menschen aufhalten. Hier könnten nach Alter abgestufte Funktionen ein Baustein sein. So lassen sich Accounts von Minderjährigen etwa abhärten, sodass Fremde sie schwerer kontaktieren können. Denkbar wäre auch, Direktnachrichten von Erwachsenen an junge Menschen einzuschränken. Flächendeckende, ausweisbasierte Kontrollen bräuchte es dafür jedoch nicht; eine Alternative sind sichere Voreinstellungen.

Von der Leyen ignoriert Warnungen aus der Wissenschaft

Die zweite Leerstelle in von der Leyens Rede: Sie blendet fundamentale Bedenken an Alterskontrollen aus. Anfang März haben 400 Forscher*innen aus 29 Ländern in einem offenen Brief gefordert: Staaten sollen ihre Pläne für Alterskontrollen stoppen. Es fehle ein klares Verständnis für die Folgen der Technologie in Bezug auf „Sicherheit, Privatsphäre, Gleichberechtigung“ und die „Autonomie“ aller Menschen. Die Einführung von Alterskontrollen ohne weitere Forschung sei „gefährlich und gesellschaftlich nicht hinnehmbar“.

Durchblick statt Schnellschüsse

Recherchen wie diese sind nur möglich durch eure Unterstützung.

Ein zentraler Kritikpunkt an Alterskontrollen sind Einschnitte in die Grundrechte auf Teilhabe und Information von allen, die die neuen Hürden nicht überwinden können oder wollen. Es geht um allein in Deutschland schätzungsweise Hunderttausende Menschen, die keine Papiere haben – oder zumindest keine, die mit einer Ausweis-App kompatibel wären. Hinzu kommen Menschen, die ihre Ausweispapiere schlicht nicht digital scannen wollen oder kein (geeignetes) Handy haben.

Für sie müsste es also Alternativen geben. Eine bereits verbreitete Methode sind – einmal mehr – KI-basierte Gesichtsscans. Dann würde eine Software das Alter einer Person abschätzen. Die deutsche Medienaufsicht empfiehlt diese Technologie bereits für unter anderem Pornoseiten; in Australien kommt sie für altersbeschränkte Social-Media-Plattformen zum Einsatz. Einerseits ist solche Software fehleranfällig und diskriminierend, andererseits birgt die Technologie Risiken für Datenschutz und Privatsphäre.

Die App soll auf Google, Apple und Pseudonyme setzen

An mindestens zwei Stellen preist von der Leyen Fähigkeiten der App an, die nicht den online beschriebenen Funktionen entsprechen.

Erstens sei die App von der Leyen zufolge „komplett anonym“. Anonym bedeutet ohne Namen. Aktivitäten lassen sich niemandem zuordnen. In den App-Spezifikationen steht jedoch: „Es werden Domain-spezifische Kennungen oder Pseudonyme verwendet“. Das kann bedeuten: Je nach Online-Dienst erhalten Nutzer*innen ein Pseudonym, zum Beispiel für eine bestimmte Videoseite. Folglich wäre es möglich, dass diese Videoseite durchaus mehrere Aktivitäten diesem einen Pseudonym zuordnen kann.

Von einem Pseudonym zum Klarnamen wäre es dann mitunter nicht mehr allzu weit. Denn Website-Betreiber*innen könnten zur Unterscheidung von Nutzer*innen weitere Eckdaten heranziehen, etwa IP-Adresse und Browser-Einstellungen. Eine tatsächlich anonyme Alterskontrolle würde dagegen ohne ein solches Domain-spezifisches Pseudonym arbeiten. Nutzer*innen würden gegenüber Website-Betreibenden bei jeder Session als jemand anderes erscheinen.

Weiter erklärte von der Leyen, die App solle für „jedes“ Gerät verfügbar sein. Die Kommissionspräsidentin zählte daraufhin jedoch keine Betriebssysteme auf, sondern Hardware: „Handy, Tablet, Computer“. Das ist irreführend. Ausdrücklich erwähnt werden in den Spezifikationen der App nur die mobilen Betriebssysteme iOS und Android. Die Veröffentlichung einer Alterskontroll-App für andere Plattformen ist demnach nur optional. Freie und alternative Betriebssysteme wie Linux fallen unter den Tisch.

Auch Nachfrage von netzpolitik.org bestätigt ein EU-Beamter, dass sich die EU-Kommission bei der bisherigen Arbeit an der App auf iOS und Android fokussiert habe. Das heißt: Wer künftig sein Alter nachweisen will, muss ein entsprechend ausgestattetes Handy haben. Allerdings wolle man sicherstellen, dass zumindest in Zukunft „jedes“ andere System abgedeckt werde, so der Beamte. Dabei verwies er auf den „Markt“.

Der Markt dürfte hier allerdings keine große Hilfe sein. Gerade wenn es um nicht-kommerzielle Alternativen geht, die wenig finanzielle Anreize bieten. Bis auf Weiteres setzt die Alterskontroll-App also auf kommerzielle, von US-Konzernen kontrollierte Betriebssysteme – eine schlechte Nachricht für sogenannte technologische Souveränität.

Wer nicht mitmachen will, soll ein VPN nutzen

Wasserdicht sind die mit der App geplanten Alterskontrollen ohnehin nicht, das weiß auch die EU-Kommission. So fragte ein Journalist im Pressebriefing, ob sich auch Tourist*innen, etwa aus den USA, mit der App verifizieren müssten, falls sie ihren Urlaub auf Instagram begleiten wollten. Daraufhin erklärte der EU-Beamte: Ja, das müssten sie – oder aber sie nutzten einen VPN-Dienst.

Mit einem VPN-Dienst können Nutzer*innen gegenüber Online-Diensten einen anderen IP-basierten Standort vortäuschen. So lässt sich der Eindruck erwecken, sie riefen eine Seite nicht etwa aus der EU auf, sondern beispielsweise von einem anderen Kontinent. Die an einen EU-Standort gebundenen Alterskontrollen entfallen.

Der Trick mit dem VPN gilt jedoch nicht nur für US-Tourist*innen, sondern für alle, die Alterskontrollen umgehen möchten. Also auch für Minderjährige, die die EU-Kommission mit ihrer Alterskontroll-App angeblich vor unter anderem Mobbing oder suchtfördernden Designs schützen will.



Source link

Weiterlesen

Datenschutz & Sicherheit

Identität bleibt geheim: EU-App für Altersnachweis kommt


Die Zeit der unverbindlichen Appelle an große Tech-Konzerne scheint in Brüssel vorbei zu sein. In einer gemeinsamen Erklärung haben EU-Kommissionspräsidentin Ursula von der Leyen (CDU) und die für die Tech-Souveränität zuständige Vizepräsidentin Henna Virkkunen am Mittwoch den Startschuss für eine neue Ära des digitalen Jugendschutzes gegeben. Kern der Offensive ist eine europaweite, von mehreren Staaten bereits getestete App zur Altersverifikation, die laut von der Leyen nun technisch bereit ist und in Kürze den Bürgern zur Verfügung stehen werde.

Weiterlesen nach der Anzeige

Damit reagiert die Kommission auf die Sorge über Risiken wie Online-Mobbing, Suchtfaktoren durch algorithmisches Design und Cyber-Grooming, also das Heranpirschen an Kinder und Jugendliche übers Netz. Die Diagnose der Kommissionschefin fällt düster aus: Jedes sechste Kind werde online gemobbt. Soziale Medien förderten ferner durch unendliches Scrollen Abhängigkeiten, die die Gehirnentwicklung beeinträchtigen könnten.

Da Plattformen bisher keine wirksamen Mechanismen vorweisen konnten, um Minderjährige vor schädlichen Inhalten zu schützen, greift die EU zur Selbsthilfe. Die neue App soll es Nutzern ermöglichen, ihr Alter gegenüber Online-Diensten nachzuweisen, ohne dabei die gesamte digitale Identität preiszugeben.

Technisch orientiert sich das Projekt am digitalen Covid-Zertifikat. Wie beim Pandemie-Begleiter setzt die Kommission auf ein Modell, das auf Smartphones, Tablets und Computern funktioniert. Nach dem Download wird die App einmalig mit einem Ausweisdokument eingerichtet. Ein besonderes Augenmerk liegt auf der Privatsphäre. Von der Leyen betonte: Die Anwendung erfülle „die weltweit höchsten Datenschutzstandards“. Das Alter werde nachgewiesen, ohne weitere persönliche Informationen preiszugeben. Die App sei „vollkommen anonym – Nutzer können nicht zurückverfolgt werden.“

Die Anwendung basiert auf dem Zero-Knowledge-Proof. Dieses kryptografische Prinzip ermöglicht es, die Korrektheit einer Information – hier das Erreichen eines bestimmten Alters – zu beweisen, ohne die zugrunde liegenden Daten selbst zu offenbaren. Das soll die informationelle Selbstbestimmung wahren. Plattformen erhalten lediglich die Bestätigung „alt genug“, ohne den Ausweis scannen zu müssen. Österreichs Alterskontrolle baut bereits auf diesem Verfahren auf.

Weiterlesen nach der Anzeige

Der Vorstoß ist eng mit der Durchsetzung des Digital Services Act (DSA) verknüpft. Virkkunen machte deutlich, dass die Kommission gegen Unternehmen wie TikTok, Facebook oder Instagram bereits wegen suchterzeugender Designs vorgehe. Auch gegen pornografische Plattformen seien Maßnahmen eingeleitet worden, da diese oft keine funktionierenden Alterskontrollen verwendeten. Die neue Anwendung entzieht den Konzernen nun die Ausrede, es gäbe keine einfache technische Lösung.

Länder wie Frankreich, Italien und Irland gelten als Vorreiter und planen, die App in ihre nationalen digitalen Brieftaschen zu integrieren. Um einen Flickenteppich zu vermeiden, will Virkkunen noch diesen Monat einen EU-weiten Koordinierungsmechanismus für die Akkreditierung nationaler Lösungen schaffen. Der Quellcode der App ist im Rahmen der digitalen Bürgeridentität EUDI offen zugänglich, um Vertrauen zu schaffen und die Einbindung etwa auch in Firmenlösungen zu erleichtern. Hierzulande soll zunächst ein Expertengremium Empfehlungen für die Sicherheit von Kindern im Netz erarbeiten.


(mki)



Source link

Weiterlesen

Beliebt