Künstliche Intelligenz
Discord führt weltweit eine Altersprüfung ein
Der Social-Media-Dienst Discord gab am Montag bekannt, dass er ab März eine Altersüberprüfung auf seiner Plattform einführt. Dann werden alle neuen und bestehenden Benutzerkonten weltweit automatisch auf eine „jugendgerechte Erfahrung mit aktualisierten Kommunikationseinstellungen, eingeschränktem Zugang zu altersbeschränkten Bereichen und Inhaltsfiltern“ eingestellt, heißt es in einer Mitteilung des Unternehmens. Um bestimmte Einstellungen zu ändern oder auf sensible Inhalte wie altersbeschränkte Kanäle, Server oder Befehle sowie ausgewählte Nachrichtenanfragen zuzugreifen, müssen Nutzer demnach möglicherweise einen Prozess der Altersüberprüfung durchlaufen.
Weiterlesen nach der Anzeige
Mehrere Methoden zur Auswahl
Discord-Nutzer können wählen, ob sie zur Altersschätzung die Gesichtserkennung nutzen oder einen Ausweis als Identitätsnachweis vorlegen möchten. In Zukunft würden weitere Optionen hinzukommen, kündigte das Unternehmen an. Ferner werde man ein Altersschätzungsmodell implementieren, das im Hintergrund läuft und dabei hilft, festzustellen, ob ein Benutzerkonto einem Erwachsenen gehört, ohne dass die Nutzer immer ihr Alter nachweisen müssen. Wenn weitere Informationen zur Zuordnung zu einer Altersgruppe erforderlich sind, werden Nutzer möglicherweise aufgefordert, mehrere Methoden zur Altersprüfung zu verwenden.
Nicht als volljährig verifizierte Nutzer bleibt der Zugriff auf altersbegrenzte Server und Kanäle verwehrt und von Discord als sensibel eingestufte Inhalte werden gefiltert. Außerdem erhalten sie Warnmeldungen bei Freundschaftsanfragen von möglicherweise unbekannten Nutzern; und Direktnachrichten von potenziell unbekannten Nutzern werden automatisch in einen separaten Posteingang gefiltert.
Schaffung eines Teen Councils
Discord hat im vergangenen Jahr bereits in Großbritannien und Australien Altersüberprüfungen eingeführt. Die nunmehrige globale Implementierung dieser Schutzfunktion basiert auf den dabei gemachten Erfahrungen. „Die weltweite Einführung von Standardeinstellungen für Jugendliche baut auf der bestehenden Sicherheitsarchitektur von Discord auf und bietet Jugendlichen starken Schutz, während verifizierte Erwachsene Flexibilität genießen“, wird Savannah Badalich, Leiterin der Produktpolitik bei Discord, in der Unternehmensmitteilung zitiert.
Neben den erweiterten Sicherheitsfunktionen für jugendliche Nutzer kündigte Discord die Schaffung eines Teen Councils an, bestehend aus 10 bis 12 Teenagern. Dieses Beratungsgremium soll der Perspektive von Jugendlichen in der Entscheidungsfindung bei Discord mehr Gewicht verleihen. „Der Teen Council wird (…) dazu beitragen, dass Discord versteht – und nicht nur annimmt –, was Teenager brauchen, wie sie sinnvolle Beziehungen aufbauen und was ihnen das Gefühl gibt, online sicher und unterstützt zu sein“, schreibt Discord. Die Beiträge des Gremiums sollen in zukünftige Produktfunktionen, Richtlinien und Bildungsressourcen einfließen, heißt es weiter. Interessierte im Alter von 13 bis 17 Jahren können sich demnach ab sofort bis zum 1. Mai 2026 für die Teilnahme am Teen Council bewerben.
Weiterlesen nach der Anzeige
Um Kinder und Jugendliche stärker vor den negativen Auswirkungen von sozialen Medien und digitalen Angeboten zu schützen, werden immer öfter Altersverifikationen oder Altersgrenzen für Nutzer diskutiert. In Australien trat Anfang Dezember das weltweit erste umfassende Verbot von Social Media für unter 16-Jährige in Kraft. Die britische Regierung erklärte, dass man Australiens Ansatz „genau“ beobachte. Andere Länder haben dagegen bereits angekündigt, ähnliche Verbote einzuführen, darunter Malaysia, Dänemark und Norwegen. Dänemark einigte sich Anfang November auf ein Mindestalter von 15 Jahren beim Zugang zu Social Media, wobei Eltern ihren Kindern bereits mit 13 Jahren die Anmeldung zu diesen Netzwerken erlauben können. Das EU-Parlament verabschiedete Ende November eine Resolution, die sich für ein EU-weites Mindestalter von 16 Jahren für Social Media ausspricht.
(akn)