Connect with us

Datenschutz & Sicherheit

Betrug, Fakeshops, Heilungsmythen: Verbraucherschützer melden, Plattformen schweigen


Ein Abnehmpflaster, das angeblich „hartnäckiges Bauchfett in nur 3 Wochen“ reduziert. Ein beheizbarer Hoodie, der Verbrennungen verursachen kann. Das Versprechen, dass „alle Krankheiten über den Darm geheilt werden können“. All diese Dinge haben gemeinsam, dass sie auf Online-Plattformen beworben werden und das laut dem Verbraucherzentrale Bundesverband (vzbv) illegal ist. Damit diese Inhalte gelöscht werden, hat der Verein sie an die entsprechenden Plattformen gemeldet.

Der Bundesverband der Verbraucherzentralen erfüllt damit eine besondere Funktion. Seit gut einem halben Jahr ist er als offizielle Meldestelle damit beauftragt, illegale Inhalte im Netz zu erkennen und sie an die Plattformen zu melden. Er ist sogenannter „Trusted Flagger“, also vertrauenswürdiger Hinweisgeber, im Bereich Betrug, Täuschung und illegale Produkte. Gemäß dem Gesetz über digitale Dienste (DSA) soll er helfen, Rechte von Nutzenden auf Online-Plattformen praktisch durchzusetzen. Die Plattformen müssen solche Meldungen vorrangig behandeln, Hinweise schnell prüfen und die Inhalte gegebenenfalls löschen. Aufgrund der besonderen Expertise der Meldestelle gelten die Meldungen als genauer und qualitativ hochwertiger als die von durchschnittlichen Nutzenden.

Plattformen reagieren nur langsam oder gar nicht

Insgesamt 60 Verstöße gegen Verbraucher*innenrecht hat der vzbv im Zeitraum von Juni bis Dezember 2025 gemeldet. Die meisten Meldungen gingen an Instagram, Google und Amazon, aber auch Facebook, eBay, TikTok, AliExpress, Shein, YouTube, Strato und Etsy waren dabei. Rund die Hälfte der gemeldeten Inhalte haben die Plattformen gelöscht, die andere Hälfte blieb online oder es gab keine Rückmeldung. Das geht aus einem Bericht hervor, den der Verein am Donnerstag vorgestellt hat.

„Oft kommen die Plattformen ihren Pflichten nur ungenügend nach. Sie reagieren teilweise langsam oder gar nicht, wenn wir illegale Inhalte melden“, sagt Ramona Pop, Vorständin des Vereins. Aus Sicht des vzbv verstoßen die Plattformen damit gegen Vorgaben des DSA. „Es darf nicht sein, dass der Verbraucherzentrale Bundesverband als Trusted Flagger Werbung für Fake Shops oder unsichere Produkte bei den Plattformen meldet und dann keine oder eine sehr späte Rückmeldung bekommt. Die Europäische Kommission und die nationale Koordinierungsstelle müssen für klare Standards in der Zusammenarbeit zwischen Plattformen und Trusted Flaggern sorgen“, so Pop weiter.

In Deutschland übernimmt der Digital Services Coordinator bei der Bundesnetzagentur die Aufgabe der nationalen Koordinierungsstelle und überwacht die Umsetzung des DSA durch die Plattformen.

Google erntet Beschwerde

Von den 13 betroffenen Plattformen ist Alphabet mit seinen Produkten Google Ads und Google Suche am stärksten negativ aufgefallen. Das Unternehmen hat nicht einen der gemeldeten Inhalte gelöscht und behält sich vor, auf Meldungen des vzbv gar nicht zu reagieren. Wegen dieser und weiterer mutmaßlicher Verstöße gegen den DSA hat der Verein deshalb Beschwerde gegen Alphabet bei der nationalen Koordinierungsstelle eingelegt. Die Beschwerde hat diese an die irische nationale Koordinierungsstelle weitergeleitet, wo sie aktuell bearbeitet wird.

„Wir sehen bisher nicht, dass unsere Meldungen im Vergleich zu Meldungen einfacher Nutzender vorrangig bearbeitet werden“, sagt Dennis Romberg gegenüber netzpolitik.org. Er ist Leiter des siebenköpfiges Teams, das neben anderen Aufgaben die Meldungen nach dem DSA recherchiert und vornimmt. „Auch über die Zeit konnten wir keine Verbesserung in der Bearbeitungsdauer feststellen“, sagt Romberg.

Sisyphusarbeit ließe sich vermeiden

Die lange Wartezeit auf Rückmeldung ist nur eine der Hürden, mit denen sich das Team in der Anfangsphase als Trusted Flagger konfrontiert sah. Zunächst ging es darum herauszufinden, wie sie die Meldungen auf den jeweiligen Plattformen überhaupt einreichen können. Die Plattformen haben hierzu sehr unterschiedliche Meldewege vorgesehen. Diese seien unübersichtlich, wenig strukturiert oder schlichtweg nicht DSA-konform, heißt es im Bericht. Ein standardisiertes Verfahren würde laut Romberg die Arbeit des Teams extrem erleichtern.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Außerdem hat sich ein anderes Problem herauskristallisiert: Selbst wenn einzelne illegale Werbeanzeigen nach einer Meldung gelöscht werden, bleiben Fake-Shops als solche auf Plattformen sichtbar – obwohl sie viele weitere solcher betrügerischen Werbeanzeigen schalten. Jedes einzelne unsichere Produkt oder irreführende Werbung zu melden sei laut vzbv eine Sisyphusarbeit. Stattdessen müssten Plattformen identische Werbeanzeigen löschen und bei kerngleichen Verstößen aus Eigeninitiative tätig werden, fordert der Verein.

Lina Ehrig, Leiterin des Teams Digitales und Medien beim vzbv und Mitglied im Beirat der nationalen Koordinierungsstelle, wünscht sich außerdem einen Wandel in der Debatte um Trusted Flagger: „Das Instrument ist in der Debatte bisher als Zensurinstrument diskreditiert worden und hat unter dieser Reduktion gelitten. Für uns ist es hingegen ein starkes Instrument des Verbraucherschutzes“, sagt sie gegenüber netzpolitik.org.

Seit Beginn des Jahres hat das Team um Romberg bereits mehr Meldungen abgesetzt als im vergangenen halben Jahr.

Laut der Webseite der Bundesnetzagentur sind aktuell drei weitere Trusted Flagger in Deutschland zugelassen: die Meldestelle REspect! der Jugendstiftung Baden-Württemberg, der Bundesverband Onlinehandel e.V. und HateAid.



Source link

Datenschutz & Sicherheit

Schlag gegen Kryptomixer – Millionen-Geldwäsche im Visier


Ermittlern in Baden-Württemberg ist ein Schlag gegen Online-Geldwäsche mit Kryptowährungen gelungen. Wie die Behörden in Stuttgart mitteilten, wurde gegen zwei Männer im Alter von 29 Jahren ein Verfahren eingeleitet. In den vergangenen Tagen wurden mehrere Wohnungen und Geschäftsräume im Raum Stuttgart sowie in Frankfurt am Main durchsucht.

Weiterlesen nach der Anzeige

Als Hauptbeschuldigter gilt ein 29-Jähriger aus dem Raum Stuttgart. Er soll von 2017 bis 2022 zwei sogenannte Kryptomixer unterhalten haben, wie die Taskforce Finanzkriminalität Baden-Württemberg (TafF BW) mitteilte. Solche Dienste vermischen etwa Kryptowährungen, um so die Verbindungen zwischen Sendern und Empfängern zu verschleiern. Nach Erkenntnissen der Ermittler betrieb der Mann diese Kryptomixer für die Währungen Bitcoin und Ethereum. Pro Transaktion soll er eine Provision kassiert haben.

Allein das bislang festgestellte Transaktionsvolumen im Bereich Ethereum belaufe sich auf etwa 140 Millionen US-Dollar. Gegen den 29-Jährigen wird unter anderem wegen des Verdachts der Geldwäsche und des Verstoßes gegen das Kreditwesengesetz (KWG) ermittelt. Ferner wird der Vorwurf der Steuerhinterziehung geprüft, weil der Mann einen Teil seiner Provisionen nicht gegenüber dem Finanzamt angab.

Der mutmaßliche Mittäter soll gegen Bezahlung „in technischen und betrieblichen Angelegenheiten“ unterstützt haben. Im Zuge der Durchsuchungen seien eine Vielzahl elektronischer Geräte und Speichermedien, Geschäftsunterlagen sowie Kryptowährungs-Wallets, also spezielle digitale Geldbörsen, und weitere Vermögenswerte beschlagnahmt worden.

Aus welchen Straftaten die Gelder stammten, war zunächst unklar. Die Ermittler machten dazu auf Anfrage keine Angaben, gleichfalls nicht zu der Frage, wie sie auf die Spur des Duos gekommen sind. Die beiden Männer befinden sich in Freiheit.

Die Taskforce Finanzkriminalität Baden-Württemberg (TafF BW) ist eine ressortübergreifende Ermittlungseinheit. Bei ihr arbeiten aktuell 30 Personen, zusammengesetzt aus sechs Mitarbeitern der Generalstaatsanwaltschaft Stuttgart, 13 Personen des Landeskriminalamts Baden-Württemberg und elf Personen der Steuerfahndung Stuttgart. Insgesamt sollen es einmal 44 Beschäftigte sein. Im Bereich der Auswerte- und Analyseprojekte wurden seit Anfang Juli 2025 etwa 130 Ermittlungsverfahren geführt. Hinzu kommen einige laufende Geldwäscheverfahren von herausgehobener Bedeutung, wie die Behörden weiter mitteilten. In einem anderen Fall konnten Ermittler bereits Krypto-Assets im Wert von 25 Millionen Euro beschlagnahmen, nachdem sie eine große Plattform stillgelegt hatten.

Weiterlesen nach der Anzeige

Lesen Sie auch


(dmk)



Source link

Weiterlesen

Datenschutz & Sicherheit

Deutsche Unternehmen ignorieren NIS2-Pflichten massiv


Deutsche Unternehmen wiegen sich in gefährlicher Sicherheit: Laut dem Cyber Security Report 2026 von Schwarz Digits unterschätzen 48 Prozent der befragten Firmen ihre Verpflichtungen unter der NIS2-Richtlinie massiv. Bei umsatzstarken Kleinunternehmen mit 10 bis 49 Mitarbeitern und mehr als 10 Millionen Euro Jahresumsatz schließen sogar 92 Prozent eine Betroffenheit fälschlicherweise aus – obwohl sie regulierungspflichtig sind.

Weiterlesen nach der Anzeige

Die repräsentative Umfrage unter 1.001 deutschen Unternehmen offenbart ein dramatisches Informationsdefizit. Während Cyberangriffe der deutschen Wirtschaft jährlich über 202 Milliarden Euro kosten und 70 Prozent aller Wirtschaftsschäden ausmachen, fehlt vielen Betrieben das Bewusstsein für ihre rechtlichen Pflichten. Die NIS2-Richtlinie ist in Deutschland seit dem 6. Dezember 2025 in Kraft und sieht empfindliche Sanktionen vor: Bei besonders wichtigen Einrichtungen drohen bis zu 10 Millionen Euro oder 2 Prozent des weltweiten Jahresumsatzes, bei wichtigen Einrichtungen bis zu 7 Millionen Euro oder 1,4 Prozent.

„Cybersicherheit ist im Jahr 2026 keine IT-Aufgabe mehr, sondern eine Existenzfrage für jede Geschäftsführung“, warnt Christian Müller, Co-CEO von Schwarz Digits. „Wer NIS2 als bürokratische Last missversteht, riskiert nicht nur schmerzhafte Sanktionen, sondern die operative Substanz seines Unternehmens.“

Besonders kritisch: 62 Prozent der Unternehmen fühlen sich bei der NIS2-Einführung von Behörden unzureichend unterstützt. Nur 21 Prozent attestieren politischen und verwaltungstechnischen Maßnahmen ausreichenden Schutz. Die Länder schneiden mit 7 Prozent positiver Bewertung am schlechtesten ab, gefolgt von Kommunen mit 12 Prozent und dem Bund mit 15 Prozent.

Während 73 Prozent der großen Unternehmen klare Regeln zum KI-Einsatz implementiert haben, stufen 54 Prozent aller Befragten das Cyberrisiko durch KI-Nutzung als nicht oder überhaupt nicht vorhanden ein. Dr. Alexander Schellong, Managing Director Institutes, Accelerators & Cybersecurity bei Schwarz Digits, zeichnet ein düsteres Bild: „In den nächsten zwölf Monaten werden autonome KI-Angriffe unsere heutigen Sicherheitsansätze überrennen. Ein zentrales Ziel wird dabei die Manipulation von KI-Entscheidungen in der realen Welt sein – der sogenannte kinetische Prompt-Hack.“

Mit diesem Begriff beschreibt Schellong Angriffe, bei denen manipulierte Eingaben die KI-Systeme zu Entscheidungen bringen, die physische Konsequenzen haben – etwa in autonomen Systemen, Robotik oder Steuerungssystemen. Die Gefahr: Solche Angriffe erfordern keine menschliche Interaktion und sind schwer zu verhindern.

Weiterlesen nach der Anzeige

Jedes zweite Unternehmen registriert Angriffe bei Zulieferern, doch 75 Prozent verzichten auf regelmäßige Sicherheitsaudits ihrer Partner. Nur ein Drittel überblickt die tatsächlichen Abhängigkeiten in der Lieferkette. Besonders verheerend: IT-Dienstleister und kompromittierte Software-Updates zählen zu den schadenträchtigsten Bedrohungen. Nach Lieferkettenangriffen kann die vollständige Betriebswiederherstellung bis zu 30 Tage dauern.

Die Cybersicherheitsbudgets liegen zwar im Durchschnitt bei 17 Prozent des IT-Budgets, bleiben aber reaktiv und regulatorisch getrieben. Trotz der massiven Bedrohungslage investieren nur 13 Prozent der Unternehmen gezielt in dedizierte Ressourcen zur Reduktion technologischer Abhängigkeiten – obwohl 42 Prozent bereit wären, für souveräne Lösungen mehr zu bezahlen.

Mit dem EU Cloud Sovereignty Framework führt der Report ein neues Bewertungsmodell für digitale Souveränität ein. Von 27 analysierten Enterprise-Produkten erfüllen nur 10 die EU-Mindestanforderungen. EU-basierte Open-Source-Lösungen führen das Ranking an, während außereuropäische proprietäre Plattformen oft aufgrund jurisdiktioneller Abhängigkeiten wie dem US CLOUD Act durchfallen. Dennoch fließen aktuell 80 Prozent der EU-Softwareausgaben an US-Anbieter.

„Digitale Souveränität ist zur strategischen Notwendigkeit gereift“, betont Rolf Schumann, Co-CEO von Schwarz Digits. „Wer sich in einseitige Abhängigkeiten außereuropäischer Plattformen begibt, verliert langfristig die Kontrolle über seine Daten und seine Handlungsfähigkeit.“

Die Frustration über rein defensive Strategien zeigt sich deutlich: 79 Prozent der Unternehmen befürworten staatliche Hackbacks, über 50 Prozent wünschen sich Hackback-Befugnisse sogar für private Akteure. Der Report wertet dies als Zeichen wachsender Frustration über die defensive Positionierung gegenüber professionalisierten Angreifern.

Der vollständige Cyber Security Report 2026 wurde am 5. März 2026 auf der Cyber Security Conference in Heilbronn veröffentlicht.


(fo)



Source link

Weiterlesen

Datenschutz & Sicherheit

Wer schlau fragt, bekommt schlaue Antworten


Soll der Staat soziale Medien für Minderjährige verbieten – und sollen alle Nutzer*innen beweisen müssen, dass sie keine Kinder mehr sind? Darum geht es in der international brodelnden Social-Media-Debatte. Australien hat ein solches Social-Media-Verbot seit Dezember. Nachmachen möchten das unter anderem die CDU, Bundeskanzler Friedrich Merz und SPD-Vizekanzler Lars Klingbeil sowie die Staats- und Regierungschef*innen weiterer EU-Länder.

In Umfragen klopfen Meinungsforscher*innen ab, wie Menschen in Deutschland das bewerten. Welche Social-Media-Regulierung ist gut, welche schlecht? Die bisherigen Ergebnisse zeigen: Je differenzierter man fragt, desto differenzierter sind die Antworten.

Mehrheiten für Verbote: Es kommt aufs Alter an

Jüngst hat das Deutsche Institut für Wirtschaftsforschung (DIW) die Ergebnisse einer repräsentativen Umfrage mit 2.685 Menschen aus Deutschland veröffentlicht. Das australische Modell mit einer Altersgrenze von 16 Jahren fällt bei den Befragten durch: Die Mehrheit von 50,4 Prozent lehnt es ab, nur 33 Prozent finden es gut.

Mit einer niedrigen Altersgrenze von 12 Jahren dagegen könnten sich laut DIW die meisten anfreunden: 71 Prozent befürworten das.

Im Widerspruch zur DIW-Umfrage stehen ältere Umfragen des ifo Instituts und des Instituts Insa. Demnach befürworten die meisten Deutschen durchaus ein Verbot bis 16 Jahre. Die Befragten hatten aber nicht die Wahl zwischen mehreren Altersstufen. Eine breite Palette an Altersstufen bekamen dagegen die Befragten durch das Bundesinstitut für Bevölkerungsforschung vorgesetzt. Die meisten (38 Prozent) entschieden sich für 14 Jahre.

14 Jahre ist auch die Grenze, auf die sich jüngst die CDU per Parteitagsbeschluss geeinigt hat. Wichtige SPD-Politiker*innen wollen sie ebenso haben. Hierzu gibt es auch eine Erhebung der Forschungsgruppe Wahlen für das ZDF-Politbarometer: Demnach finden das 81 Prozent der Befragten gut.

Wer nicht weiter bohrt, könnte an dieser Stelle den Eindruck gewinnen: Solange die Altersgrenze nicht zu hoch ist, dürfte ein Social-Media-Verbot bei den meisten Menschen in Deutschland auf Wohlwollen stoßen. Aber das greift zu kurz.

Alterskontrollen für alle: Die Frage, die fast niemand stellt

Ein Social-Media-Verbot allein würde zunächst wenig ändern, denn Altersgrenzen für soziale Medien gibt es schon heute. Viele der größten Plattformen schreiben ein Mindestalter von 13 Jahren vor und löschen Accounts, die mutmaßlich jüngeren Menschen gehören. Das betrifft etwa Instagram oder TikTok. Bei YouTube beträgt das offizielle Mindestalter sogar 16 Jahre. Würde es nach CDU und SPD gehen, dürften Kinder YouTube künftig schon früher legal nutzen als heute.

Ob 12, 14 oder 16 Jahre, der Fokus auf das Alter verkennt den springenden Punkt: die Durchsetzung. Begleitet werden sollen die derzeit diskutierten Social-Media-Verbote nämlich in aller Regel von zuverlässigen Alterskontrollen.

Im Gespräch sind etwa Verfahren, bei denen alle Menschen gegenüber vielen wichtigen Plattformen per Ausweis belegen müssen, dass sie schon alt genug sind. Sonst können sie beispielsweise kein Video auf YouTube liken. Eine häufige Alternative zu Ausweiskontrollen sind biometrische Scans des Gesichts. Auf deren Grundlage soll eine (oft als KI bezeichnete) Software eine Schätzung anstellen. Dabei passieren häufig Fehler.

Solche und weitere Verfahren zur Durchsetzung von Alterskontrollen können sehr invasiv sein. Sie bedeuten nicht nur mehr Frickelei und mehr Hürden für alle Menschen im Netz, sondern greifen auch in die Privatsphäre ein; bergen die Gefahr von Datenschutz-Skandalen – und schließen Hunderttausende Menschen aus, die schlicht keine Papiere haben, um Kontrollen zu meistern. Hunderte Forscher*innen aus Technologie und IT-Sicherheit warnen deshalb eindringlich vor den Folgen von Alterskontrollen.

Das führt zu einer Kernfrage der Social-Media-Debatte: Sind Sie bereit, sich im Internet großflächigen Kontrollen ihrer Ausweispapiere zu unterziehen oder ihr Gesicht scannen zu lassen?

Dieser Aspekt fehlt in den Umfragen vieler Meinungsforscher*innen. Daran gedacht hat zumindest das Institut YouGov im Auftrag des Internet-Branchenverbands eco. Das Ergebnis: Die meisten Befragten wollen solche Kontrollen nicht haben.

  • Eine Altersprüfung durch offiziell ausgestellte Dokumente befürworten demnach 44 Prozent.
  • Eine KI-basierte Altersschätzung befürworten nur 10 Prozent.

Dennoch wollen die meisten der von YouGov befragten Menschen (82 Prozent) eine Altersgrenze für Social Media. Das legt den Verdacht nahe: Viele finden ein Verbot gut, solange es sie nicht selbst einschränkt.

Breite Mehrheiten für mildere Regulierung

Social-Media-Verbote sind das schärfste Mittel im Versuch, junge Menschen vor digitalen Risiken zu schützen. Sie schränken umfassend Grundrechte wie Teilhabe und Information ein. Es gibt aber auch mildere Mittel. Genau danach hat das DIW gefragt – und reihenweise Zustimmung geerntet. Zum Beispiel:

  • „Kinder und Jugendliche sollten besser in Medienkompetenz geschult werden, um soziale Medien sicher nutzen zu können“ – rund 94 Prozent dafür.
  • Eltern sollten stärker darauf achten, wie ihre Kinder soziale Medien nutzen“ – rund 95 Prozent dafür.
  • „Für Kinder und Jugendliche sollten nur eingeschränkte Konten (‚Basisaccounts‘) verfügbar sein, bei denen problematische Funktionen – etwa die Kontaktaufnahme durch fremde Personen – deaktiviert sind“ – rund 88 Prozent dafür.

Einen ähnlichen Tenor hatte die Umfrage einer Marktforschungs-Agentur mit 857 Eltern und Kindern, die wir im Januar besprochen haben. Demnach wollten die befragten Kinder, Jugendlichen und Eltern soziale Medien lieber einschränken als verbieten.

Diese Tendenzen zeigen: Es braucht Fragen nach alternativen Ansätzen zu einem Social-Media-Verbot, denn sie machen differenzierte Ansichten in der Bevölkerung überhaupt erst sichtbar.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Soziale Medien: Mehrheit der Deutschen hat differenziertes Bild

Die meisten Menschen in Deutschland sehen offenbar, dass soziale Medien sowohl gut als auch schlecht sein können. Auch das zeigen die Ergebnisse der neuen DIW-Umfrage.

  • Risiken sozialer Medien sieht die überwältigende Mehrheit der Befragten. Rund 90 Prozent sagen: „Soziale Medien stellen für Kinder und Jugendliche erhebliche Gefahren dar (zum Beispiel durch Mobbing, sexualisierte Inhalte oder Kontakte mit Fremden).“
  • Chancen sozialer Medien sieht eine kleinere, aber immer noch absolute Mehrheit von rund 63 Prozent. Sie sagen: „Soziale Medien bieten Kindern und Jugendlichen wichtige Chancen (zum Beispiel sich auszutauschen, kreativ zu sein oder Zugang zu Informationen und gesellschaftlicher Teilhabe zu erhalten).“
  • Sowohl Chancen als auch Risiken erkennt ebenso eine absolute Mehrheit von rund 57 Prozent.
  • Nichts als Risiken in sozialen Medien sieht eine Minderheit von rund 19 Prozent, also rund jede*r Fünfte. „Zu dieser Gruppe gehören häufiger Ältere, Lehrkräfte sowie Personen, die soziale Medien nicht nutzen“, ergänzen die DIW-Forschenden.

Das ambivalente Bild der DIW-Umfrage zeigt: Es geht viel Information verloren, wenn Meinungsforschende nur nach Verboten fragen. Solche Zuspitzungen machen Abwägungen unsichtbar, die Menschen durchaus treffen würden, wenn man ihnen die Gelegenheit dazu gibt.

Umfragen sind keine Volksabstimmung

Ein typischer Medienbericht über Meinungsumfragen endet, sobald alle wichtigen Zahlen abgehandelt wurden. In der Folge können die verschiedenen Lager einer Kontroverse die Zahlen als Argument nutzen. Das dürfte auch hier der Fall sein: Das ZDF-Politbarometer gießt Wasser auf die Mühlen der Fans eines Social-Media-Verbots. Die DIW-Umfrage gießt Wasser auf die Mühlen der Kritiker*innen. In beiden Fällen drohen Fehlschlüsse.

Meinungsumfragen messen Meinungen; sie sind keine Volksabstimmungen. In der Social-Media-Debatte können Umfragen Hinweise liefern, welche Maßnahmen Menschen eher akzeptieren oder ablehnen würden. Was aber keine Meinungsumfrage messen kann: Ob eine Regulierung legitim, geeignet, erforderlich und angemessen ist. Dabei sind das die entscheidenden Fragen, an denen sich Regulierungen in einer Demokratie messen lassen müssen.

Wenn es um ein Social-Media-Verbot geht, spielt es dennoch eine große Rolle, wie sehr Menschen es akzeptieren. Denn so ein Verbot trifft alle unmittelbar. Alle müssten sich zu den neuen Hürden und Kontrollen verhalten. Man kann sich entweder fügen und den Ausweis zücken – oder sich widersetzen und die Kontrollen umgehen. Der Erfolg eines Social-Media-Verbots hängt eng damit zusammen, wie Menschen damit umgehen.

Die DIW-Forschenden schlussfolgern:

Die Ergebnisse verdeutlichen, dass eine wirksame Regulierung der Social-Media-Nutzung für Kinder und Jugendliche nicht nur auf pauschale Verbote setzen sollte. Differenzierte Maßnahmenbündel werden von großen Teilen der Bevölkerung akzeptiert und haben daher größere Chancen auf Umsetzung.

Für ein einheitliches Social-Media-Verbot mit flächendeckenden Alterskontrollen bräuchte es neue Gesetze in der EU. Keine neuen Regulierungen bräuchte es dagegen für mildere Mittel. Denn dafür gibt es schon das relativ neue Gesetz über digitale Dienste (DSA). Gerade läuft sogar ein Verfahren gegen TikTok, weil die EU-Kommission findet: das „süchtig machende Design von TikTok verstößt gegen den DSA“.

Welchen Weg wollen Staaten einschlagen? Mit dieser Fragen beschäftigen sich gerade gleich zwei Expert*innen-Kommissionen: Sowohl auf Deutschland-Ebene als auch auf EU-Ebene sollen Fachleute bis Sommer Antworten zur Social-Media-Debatte vorlegen.





Source link

Weiterlesen

Beliebt