Datenschutz & Sicherheit
„Total unausgegoren und technisch nicht tragfähig“
In der Europäischen Union liegt der Vorschlag der dänischen EU-Ratspräsidentschaft zur Chatkontrolle auf dem Tisch. Die deutsche Position dazu ist bedeutsam, da die Zustimmung zum Gesetz maßgeblich von dieser abhängt. Die deutsche Bundesregierung muss sich vor dem 14. Oktober auf eine Position einigen. Denn dann wird im EU-Rat über den Vorschlag abgestimmt.
Der dänische Vorschlag sieht eine verpflichtende Chatkontrolle vor. Sie soll Anbieter von Messaging- und anderen Kommunikationsdiensten die Anforderung aufbrummen, in den Nachrichten der Nutzer nach Missbrauchsfotos und -videos zu scannen. Dann sollen die Betreiber der Dienste die Nutzer-Nachrichten auf diese Inhalte untersuchen. Werden verdächtige Inhalte detektiert, wird der Nutzer der Polizei gemeldet. Soweit jedenfalls der Plan, doch der Teufel steckt im Detail.
Die Idee der Chatkontrolle wird stark und breit kritisiert, vor allem wegen der erheblichen Grundrechtseingriffe und auch wegen der weitreichenden Folgen für Whistleblower und Journalisten. Sie beinhaltet mit hoher Wahrscheinlichkeit ein Client-Side-Scanning auf Nutzergeräten. Das bedeutet, dass die Inhalte von Nachrichten direkt auf dem Gerät des Nutzers gescannt würden, noch bevor diese versendet und verschlüsselt werden.
Wir haben über die Chatkontrolle mit Klaus Landefeld, Vorstand im IT-Branchenverband „eco“, gesprochen. Der Verband engagiert sich als Partner bei INHOPE schon viele Jahre erfolgreich bei der Identifizierung und Entfernung von Kindesmissbrauchsmaterial aus dem Internet.
„Völlig falscher Weg“

netzpolitik.org: Klaus Landefeld, wie ist die Position des eco zu den Chatkontrolle-Plänen?
Klaus Landefeld: Wir haben uns seit 2022 immer dagegen ausgesprochen. Dieser neue, noch verschlimmerte Ansatz, der momentan von Dänemark in den Raum gestellt worden ist, wird von uns rundweg abgelehnt. Wir halten Chatkontrolle für einen völlig falschen Weg.
Wir betreiben ja eine Beschwerdestelle und sind daher permanent mit Strafverfolgungsbehörden zusammen in der Bekämpfung von CSAM-Inhalten aktiv. Aber verpflichtendes Scanning für quasi jegliche Kommunikation, vor allem das Client-Side-Scanning, halten wir für einen falschen Weg, weil er die Sicherheit von allen untergräbt.
netzpolitik.org: Welche Belastungen kämen eigentlich auf Unternehmen zu, wenn tatsächlich eine verpflichtende Chatkontrolle vorgeschrieben würde?
Klaus Landefeld: Das kommt auf die technischen Ausprägungen an: Also was genau müsste gescannt werden, wie funktioniert das technisch? Auch die Fragen danach müssten geklärt sein, ob alle Dienste betroffen wären, also ob beispielsweise auch E-Mail, Chats oder verschlüsselte Messenger-Apps darunterfallen. Es müssten auch die Details um die Frage geklärt sein, ob man „nur“ nach bekannten Inhalten oder auch nach neuen Inhalten scannt. Das ist ein ganz elementarer Punkt, weil mit dem Scannen nach bisher unbekannten Inhalten insbesondere auch jede Form von ganz persönlichen Bildern oder Familienfotos in die Datenbanken und die vorgeschlagenen KI-Systeme reingegeben würden.
netzpolitik.org: Was kann man zur Qualität der Software sagen, die CSAM-Inhalte erkennen soll?
Klaus Landefeld: Womit wir ein großes Problem haben, sind die Fehlerquoten. Um das ganz klar zu sagen: Zum Scanning sollen KI-Systeme verwendet werden, die bei allen Tests, die wir machen konnten, viele Fehler produzieren. Auch in unserer Beschwerdestelle werden dazu regelmäßig Tests gemacht. Denn wir prüfen dort regelmäßig: Was bringen KI-Systeme für die Bewertung von Beschwerden? Und wir sehen immer wieder: Nein, diese Systeme funktionieren nicht, sie funktionieren vor allen Dingen nicht in der nötigen Qualität, zumindest Stand heute. Deswegen halten wir den Vorschlag auch für total unausgegoren und technisch nicht tragfähig.
Interviews
Wir kommen gern ins Gespräch. Unterstütze unsere Arbeit!
netzpolitik.org: Was sind das für „KI-Systeme“, die zum Einsatz kommen? Was sollen die leisten?
Klaus Landefeld: Es sollen Systeme zum Einsatz kommen, die tatsächlich Inhalte erkennen. Sie sollen auch neue Inhalte bewerten und bestimmen, was auf Bildern gezeigt wird. Dafür kann man KI-Systeme trainieren, sie sollen beispielsweise erkennen: Auf dem Bild sind drei Leute oder fünf Leute, da sind Kinder dabei, die Leute haben Kleidung oder keine Kleidung an.
Das heißt aber auch: Die Familienbilder vom nächsten Urlaub oder Bilder von einem FKK-Strand könnten einen Verdacht auslösen. Aus meiner Sicht ist das eine gefährliche Idee. Eine ähnliche Diskussion haben wir bei der automatischen Bewertung des Alters im Bereich Social-Media-Nutzung: Können KI-Systeme durch ein Bild einer Person wirklich verlässliche Aussagen darüber machen, wie alt jemand ist? Das ist gerade in den Grenzbereichen, wo es um die Frage geht, ist jemand 14, 16 oder 18 Jahre, alles andere als zuverlässig. Es gibt keine klare Bewertung, ob jemand 18 ist oder vielleicht noch 17 oder 19 Jahre. Das funktioniert einfach momentan nicht.
netzpolitik.org: Kann solche Software das in absehbarer Zeit leisten?
Klaus Landefeld: Im Moment mit Sicherheit noch nicht. Das wird wahrscheinlich noch geraume Zeit so bleiben. Wir testen reale Systeme, die momentan existieren. Das sind Systeme, die heute von den Anbietern genutzt werden können, die uns auch angeboten werden. Dazu untersuchen wir den Stand der Forschung. Und da kommt immer wieder das Ergebnis heraus: Nein, diese Systeme sind im Moment nicht tragfähig genug, dass das funktioniert.
Parallel zu der CSAM-Diskussion haben wir wie schon erwähnt die gleichen Fragen bei Altersnachweisen bei Social-Media-Nutzung. Es wäre völlig absurd, wenn wir in diesem Bereich zu der Aussage kämen, dass eine vernünftige Bewertung durch Software nicht möglich ist, und bei der Chatkontrolle zum Schutz von Kindern soll das funktionieren.
Welche Grenzen überschritten werden
netzpolitik.org: Welche Bewertung kann eine Software heute leisten? Und was heißt das für die Chatkontrolle?
Klaus Landefeld: Heutige Systeme können relativ gut beurteilen, ob ein abgebildetes Kind sechs oder sieben Jahre alt ist oder vielleicht 16 oder 17 Jahre. Diesen Unterschied können die Systeme schon erkennen. Aber bei neuen Inhalten, also bei bisher unbekannten Inhalten muss man sich fragen: Wenn sich Menschen innerhalb der Familie zum Beispiel Bilder zuschicken, sollen dann irgendwelche KI-Systeme in diese privaten Bilder reingucken? Das ist für mich ein absolutes No-Go, denn das verletzt die Grundrechte. Wir haben einen festgeschriebenen Schutz von privater Kommunikation, und über nichts anderes reden wir hier. Denn die Chatkontrolle soll auch für individuelle Ende-zu-Ende-Kommunikation von Menschen eingeführt werden. Das ist das, wo für mich die Grenze überschritten ist.
netzpolitik.org: Ist nicht noch eine weitere Grenze überschritten? Wir reden doch eigentlich auch über Eingriffe in den Kernbereich der privaten Lebensgestaltung, also in die Intimsphäre, die in Deutschland besonders geschützt ist.
Klaus Landefeld: Das sehe ich ganz genau so. Wir haben zum Beispiel bei der Wohnraumüberwachung oder Telekommunikationsüberwachung Vorschriften, dass Ermittler aufhören müssen zuzuhören, wenn Gespräche in den Kernbereich privater Lebensgestaltung gehen. Das gehört zum Kernbereichsschutz, den wir in Deutschland haben. Interessanterweise ist das in Europa schwierig zu diskutieren, weil es diesen Kernbereichsschutz in den meisten Ländern nicht gibt.
Warum ist Chatkontrolle so gefährlich für uns alle?
netzpolitik.org: Wie könnte denn bei der Chatkontrolle technisch vorgegangen werden?
Klaus Landefeld: Bei elektronischer Kommunikation, wie wir sie heute mit Messengern haben, wird typischerweise Ende-zu-Ende-Verschlüsselung eingesetzt. Sie soll nicht untergraben werden. Das wird immer wieder betont. Das heißt: Es bleibt nur Client-Side-Scanning übrig. Das wiederum heißt: Wir haben auf unseren Geräten eine Spionagesoftware, die jede Form von Bildern scannt, die wir übertragen und an jemand anderen schicken. Die Bilder werden von einer Software im Hintergrund abgeglichen. Damit kann ich mich nicht anfreunden.
Das Problem beim Client-Side-Scanning
netzpolitik.org: Was für IT-Sicherheitsprobleme sind damit verbunden?
Klaus Landefeld: In dem Moment, wo ich Verschlüsselung durchbrechen wollte, damit das Scanning beim Anbieter stattfindet, ist völlig klar: Ich habe die Sicherheit geschwächt. Ich habe sogar die IT-Sicherheit in großem Stil untergraben.
Beim Client-Side-Scanning ist das Problem aus meiner Sicht ein bisschen anders gelagert. Natürlich könnte ich Software produzieren, bei der ich kein IT-Sicherheitsproblem im klassischen Sinne schaffe: Daten würden damit durchsucht, ähnlich wie etwa bei einem Virenscanner. Ein Virenscanner ist kein Sicherheitsproblem …
netzpolitik.org: … kann aber zu einem werden, wenn er selbst Sicherheitslücken enthält oder fehlerhaft bestückt wird.
Klaus Landefeld: Das ist genau das Thema. Denn das ist nämlich genau die Frage: Nach was suche ich eigentlich? Und wer kontrolliert, nach was ich suche? Das ist ein administratives Problem. Denn zu dem eigentlichen IT-Sicherheitsproblem kommt die Frage dazu: Wie kann ich denn sicherstellen, dass dieses Scanning nur geordnet abläuft?
Die administrative Kontrolle wird gar nicht diskutiert
netzpolitik.org: Welche Fragen stellen sich, wenn ein Client-Side-Scanning verpflichtend würde?
Klaus Landefeld: Die erste Frage wäre: Wer kontrolliert denn, wer das Client-Side-Scanning benutzen darf? Und es kommen weitere Fragen dazu: Wer darf Anforderungen stellen? Wer darf Daten einstellen, nach denen gescannt wird? Wer stellt wie sicher, dass nur etwas, was im Sinne dieser Verordnung ist, gescannt wird und nicht nach ganz anderen Inhalten?
Es ist jetzt schon völlig klar: Da werden auch Daten von Ländern eingestellt werden, von denen wir uns das vielleicht nicht wünschen. Denn Staaten, von denen wir das nicht wollen, müssen wir auch mit an Bord nehmen, denn ansonsten werden diese den Einsatz dieser Software verbieten. Polizeien dieser Staaten haben auch Muster, nach denen sie suchen wollen. Das sind vielleicht Inhalte, wo wir sagen würden, das wollen wir gar nicht.
Doch die administrative Kontrolle wird in diesem ganzen Vorschlag gar nicht richtig diskutiert. Wer stellt da eigentlich was ein? Wer kontrolliert, was wie reinkommt?
netzpolitik.org: Alternativ wurde ja auch eine freiwillige Chatkontrolle für Internet-Dienste diskutiert, die von der vergangenen dänischen EU-Ratspräsidentschaft ins Spiel gebracht worden war. Wäre das eine bessere Option?
Klaus Landefeld: Die Frage ist natürlich, wer das freiwillig umsetzt. Größere Dienste würde man wahrscheinlich über die Plattformregulierung angehen und sie verpflichten, wenn sie sehr groß sind. Für kleine und mittlere Unternehmen wäre Freiwilligkeit erstmal ein Schritt in die richtige Richtung, weil insbesondere die kleineren eine Chatkontrolle nicht umsetzen müssten.
Aber Freiwilligkeit wird in dieser Form nicht kommen, weil diese Systeme sehr aufwendig sind. Allein der Betrieb der Datenbanken hintendran, aber auch das Einführen dieser Technologien in die unternehmenseigene Software ist sehr aufwendig und für kleine mittelständische Unternehmen gar nicht zu leisten. Ich erinnere mich an Vorschläge im Jahr 2022, wo Anbieter wie Google gesagt haben, dass Dritte ihre Datenbanken von CSAM-Inhalten auch benutzen könnten. Denn klar war: Kleinere Unternehmen können diese Datenbanken gar nicht bereitstellen. Ein Ansatz der Freiwilligkweit mitigiert das Problem und macht es vielleicht besser erträglich, bietet aber keine Lösung.
Dazu kommt: Erwartet man dann von Anwendern, dass sie sich überlegen: Nutze ich jetzt einen Anbieter, der scannt, oder einen Anbieter, der nicht scannt? Das kann ja nicht die Lösung sein. Denn die Privatheit der Kommunikation sollte und muss bei allen Anbietern geschützt sein.
netzpolitik.org: Ist in Europa einheitlich definiert, welche Inhalte unter eine Chatkontrolle fallen würden?
Klaus Landefeld: Nein, es gibt beispielsweise Unterschiede bei der sog. Jugendpornographie oder auch beim Cyber Grooming. Es ist zwar völlig klar, dass sog. Kinderpornographie überall strafbar ist. Aber es gibt viele Graubereiche und sehr unterschiedliche Gesetze. Das ist natürlich ein Problem, denn nach welchem Standard sollen sich Anbieter dann richten? Wenn etwa zwei Personen miteinander kommunizieren, die in zwei unterschiedlichen Ländern sind, was ist dann das anzuwendende Rechtssystem? Und das betrifft nur die Frage, um welche Inhalte es eigentlich geht. Eine zweite Frage wäre, was melde ich weiter?
Ein Recht, das in der Praxis überhaupt nicht funktioniert
netzpolitik.org: Die Strafverfolgungsbehörden sollen ja Verdachtsfällen nachgehen. Wie könnte das technisch ablaufen?
Klaus Landefeld: Im Prinzip wäre es ja eine Entlastung des Anbieters: Verdachtsfälle werden an Strafverfolgungsbehörden gemeldet, die müssten dann tätig werden oder müssten Materialien einsehen. Doch da sind noch technische Fragen, die vorher geklärt werden müssen: Wie kommen die Strafverfolgungsbehörden denn eigentlich an dieses Material ran?
Wenn man sich praktisch vorstellt, man hätte jetzt ein Verdachtsfall aus privater Kommunikation. Es soll ja eigentlich so sein, dass das verdächtige Originalbild gar nicht beim Anbieter landet, sondern seine Software das erkennt und als Verdachtsfall meldet. Doch was passiert dann? Das ist genau der Punkt. Das Ganze ist ja nicht verbunden mit irgendeiner Speicherverpflichtung. Die Frage, was eigentlich aus so einem Verdachtsfall wird, ist völlig ungeklärt.
Man will ein Recht schaffen, das in der Praxis in dieser Form überhaupt nicht funktionieren würde, völlig unabhängig von allen Rechtsfragen. Denn rein technisch würde das in dieser Form nicht funktionieren können, ohne dass man wieder Inhalte speichert und weitergibt. Und das wäre der absolute Super-GAU: Wenn Inhalte privater Kommunikation wegen eines automatisch von KI erzeugten Verdachtsfalls gespeichert und weitergegeben würden.
netzpolitik.org: Im aktuellen Vorschlag zur Chatkontrolle sind ja auch Scans nach bisher unbekanntem Material vorgesehen. Wie realistisch ist das?
Klaus Landefeld: Für Verdachtsfälle aus neuem Material ist die Automatisierung sehr schwierig. Das sind Phantasievorstellungen, wie so etwas ablaufen könnte, die mit der Realität und mit dem, was tatsächlich von den Systemen heute geleistet werden kann, nichts zu tun haben.
Wir haben Mitarbeiter in unserer Beschwerdestelle, die jeden Tag mit dieser Materialform zu tun haben. Wir veröffentlichen jedes Jahr einen Bericht darüber, zuletzt 2024. Es geht dabei um Meldungen, die natürliche Personen an die Beschwerdestelle gemeldet haben. Die Beschwerdestelle schaut sich die Inhalte an und bewertet, ob ein Straftatbestand erfüllt ist oder nicht. Die Quoten sind sehr gering, was dann tatsächlich an Strafverfolgungsbehörden weitergegeben wird. Um die 80 Prozent erfüllen tatsächlich keinen Straftatbestand. Wenn man sich überlegt, wie oft ein Verdacht an Strafverfolgungsbehörden automatisiert weitergegeben worden wäre, dann ist das ein absolutes Unding.
netzpolitik.org: Welche Größenordnungen von automatischen Meldungen landen heute bei den Strafverfolgungsbehörden?
Klaus Landefeld: Momentan haben wir im CSAM-Bereich sehr viele NCMEC-Meldungen aus den USA, mittlerweile über 100.000 Meldungen jedes Jahr. Für jeden Fall muss das BKA im Prinzip Ermittlungen einleiten, weit überwiegend machen die Ermittler das tatsächlich. Das geht dann alles zu den Anbietern, wir erhalten diese Anfragen ja als Anbieter von Internetzugängen. Das BKA sagt, dass im weit überwiegenden Fall keine Daten mehr da seien und man diese Anzahl im Prinzip gar nicht richtig verarbeiten kann. Die Anbieter sehen das etwas anders, denn oft mangelt es nur an der Qualität der Anfragen – so erhalten wir oft nur eine IP-Adresse statt der erforderlichen IP- und Port-Kombination.
Das führt heute schon dazu, dass die Kriminalitätsstatistik negativ verzerrt wird. Konkret hängt es an der absoluten Anzahl automatisierter Meldungen aus den USA und darauf resultierenden potentieller Ermittlungsverfahren. In Europa will man das im Prinzip nun kopieren: Es sollen automatisierte Meldungen bei Verdachtsfällen erfolgen, wo dann ermittelt werden soll. Das Problem ist: Wir haben eine riesengroße Black Box mit einer sehr niedrigen Aufklärungsquote. Wenn ich vorn noch viel mehr reinstopfe, ändere ich an der Aufklärungsquote erstmal gar nichts, sie sinkt sogar weiter ab.
netzpolitik.org: Was wäre der bessere Weg?
Klaus Landefeld: Die Herausforderung wäre eigentlich, die Aufklärungsquote zu erhöhen und sich zu überlegen, wie man tatsächlich vernünftig ermitteln könnte und nicht bereits überforderte Strafverfolgungsbehörden mit noch mehr Fällen zu überfordern, die im weit überwiegenden Fall zu nichts führen und noch nicht mal einen Straftatbestand erfüllen. Man müsste Maßnahmen ergreifen, die effektiv die Aufklärungsquoten verbessern – die hierzu notwendigen Ressourcen werden aber nicht bereitgestellt.
netzpolitik.org: Vielen Dank für das Gespräch!
Datenschutz & Sicherheit
Die Woche, als ein Digitalgipfel uns zu Kund:innen machte
Liebe Kundinnen und Kunden,
Ihr seid eine:r von 450 Millionen. Von 450 Millionen „customers“ auf dem europäischen Binnenmarkt, die Start-ups, mittlere Unternehmen und Großkonzerne erreichen sollen.
Fühlt ihr euch von dieser Ansprache irritiert? Ich mich auch. Aber so sieht euch offenbar der deutsche Digitalminister, zumindest wenn es nach seiner Eröffnungsrede auf dem Gipfel zur europäischen digitalen Souveränität diese Woche geht.
Da ist viel die Rede von Wachstum durch sogenannte KI, einem Rennen der Innovation, dem sich kleine und mittelständische Betriebe anschließen sollen. Der Minister spricht die an, die für ihn dabei offenbar eine Rolle spielen: Firmen, Investoren, Forschende, politische Institutionen. Die Menschen in Europa, also in der Denke Wildbergers die Kund:innen, spielen keine aktive Rolle.
Eine solche Digitalpolitik ist ein Problem. Denn sie führt dazu, dass Regeln nur noch für Unternehmen gemacht werden. Wir sehen das gerade am Digital-Omnibus, einem Gesetzespaket, das die EU-Kommission diese Woche vorgestellt hat. Während Industrieverbände jubeln, ist die Zivilgesellschaft schockiert vom Schnellabbau von Datenschutzregeln und großzügigen Fristverschiebungen für riskante KI-Systeme. Meine Kollegen Ingo und Daniel haben Antworten auf die wichtigsten Fragen dazu zusammengestellt.
Aber nicht nur die industriefreundliche Politik wird einem mit einer derartigen Verkäufer-Mentalität auf die Füße fallen. Denn Europa besteht nicht vor allem aus Kund:innen, sondern aus vielen Millionen Menschen, die unsere digitale und analoge Welt gestalten wollen und können. Wer ihre Stimmen ignoriert, ihre Ideen als irrelevant abtut, ihre Expertise weglächelt, verschenkt die Zukunft. Wir wollen die digitale Welt nicht als Produkt kaufen, wir wollen sie gestalten.
Wir von netzpolitik.org sehen es seit vielen Jahren als eine unserer Kernaufgaben, der Zivilgesellschaft bei netzpolitischen Diskussionen eine Stimme zu geben. Der Digitalminister hat in seiner Rede schmerzhaft demonstriert, dass das heute wichtiger ist als je zuvor. Wir müssen laut sein, um uns Gehör zu verschaffen, und das schaffen wir nicht allein.
Diese Woche haben wir euch wieder vermehrt um finanzielle Unterstützung gebeten, denn das Jahresende naht. Wie immer brauchen wir noch jede Menge Geld, um unsere Arbeit zu finanzieren, die durch eure Spenden ermöglicht wird. Als Spender:innen seid ihr für uns aber weit mehr als Kund:innen unserer journalistischen Produkte. Ihr seid wie wir Teil einer digitalen Zivilgesellschaft, die für ein Internet kämpft, das nicht den Konzernen, sondern den Menschen dient. Danke dafür!
Ein schönes winterliches Wochenende wünscht euch
anna

Datenschutz & Sicherheit
Medienaufsicht: Pornofilter für Betriebssysteme kommt
Anbieter von Betriebssystemen wie Apple, Google oder Microsoft müssen demnächst sicherstellen, dass diese mit einer „Jugendschutzvorrichtung“ ausgestattet sind. Das sieht eine Novelle des Jugendmedienschutzstaatsvertrags (JMStV) vor, die von den Bundesländern verabschiedet wurde. Das Parlament von Brandenburg hatte am Mittwoch als letztes Bundesland den Weg dafür freigemacht.
Laut der Reform sollen Spielekonsolen, Smartphone, Smart-TVs und andere Geräte, die „Zugang zu Telemedien ermöglichen“, bereits auf der untersten Software-Ebene einen Filter bieten, der dafür sorgt, dass etwa der Weg zu Pornoseiten versperrt bleibt.
Eltern sollen diesen Schutzmodus mit nur einem Klick aktivieren können und dabei auch das Alter der Kinder einstellen können. Der Vertrag bezeichnet das als „One-Button-Lösung“. Anschließend sollen Browser auf dem Gerät nur noch verfügbar sein, wenn sie über „eine gesicherte Suchfunktion“ verfügen. Was das ist, wird im Text nicht näher definiert. Auch für Apps gilt, dass sie der Altersangabe entsprechen müssen.
Umstrittene Novelle
Die neuen Regeln treten am 1. Dezember 2027 in Kraft und gelten nur für Geräte, die neu in den Handel kommen. Alte Geräte, für die keine Softwareupdates mehr bereitgestellt werden, sind davon ausgenommen. Für Geräte, die bereits produziert werden, gilt eine Übergangsfrist von drei Jahren ab Bekanntgabe der neuen Regeln.
Auf die umstrittene Novelle hatten sich die Ministerpräsidenten der Länder bereits vor einem Jahr geeinigt. Tech-Konzerne wie Google und Microsoft wehrten sich gegen die Auflagen und verwiesen darauf, dass sie bereits Lösungen für den Jugendschutz anböten. Die neuen Vorschriften würden zu vielen rechtlichen und technischen Problemen führen. Auch Verbände wie die Free Software Foundation kritisierten die Pläne. Es sei etwa unklar, wie Anbieter von freier Software die Vorgaben umsetzen sollten.
Geldhahn abdrehen, Domains sperren
Zusätzlich zu den Jugendschutzfiltern bekommt die Jugendmedienaufsicht zwei weitere Werkzeuge an die Hand, um Betreiber von Pornoseiten unter Druck zu setzen. Die erste gilt der Sperre von sogenannten Ausweichdomains. Hintergrund ist der Kampf der deutschen Medienaufsicht gegen Pornoseiten, die sich weigern, das Alter ihrer Nutzer*innen zu kontrollieren. Die Medienaufsicht will diese Alterskontrollen gemäß deutschem Recht erzwingen und lässt die Seiten widerspenstiger Betreiber sperren. Internetprovider wie die Telekom müssen dann verhindern, dass ihre Kund*innen die Seiten aufrufen können.
In der Vergangenheit hatte diese Methode wenig Erfolg. XHamster und Pornhub haben einfach binnen kürzester Zeit alternative Domains eingerichtet, ein Katz-und-Maus-Spiel, bei dem die Behörde immer einen Schritt hinterher war. Mit der Novelle gilt, dass die Medienaufsicht in Zukunft auch für diese neuen Domains Netzsperren schneller anordnen darf – ohne gesondertes Verfahren.
Das zweite Werkzeug richtet sich gegen Zahlungsdienstleister und soll den Geldfluss an Pornoseiten kappen. Die jeweils zuständige Landesmedienanstalt darf nun etwa Visa oder Paypal anweisen, keine Zahlungen mehr für bestimmte Seiten abzuwickeln, wenn diese „unzulässige Angebote“ zeigen.
EU-Kommission vs. deutsche Medienaufsicht
Kritiker*innen weisen darauf hin, dass diese Maßnahmen wenig bringen, wenn es damit geht, Jugendliche von Pornoseiten fernzuhalten. So lassen sich Netzsperren mit wenigen Klicks umgehen, zum Beispiel durch VPN-Dienste, die vorgeben, eine Seite aus einem anderen Land aufzurufen. Der Download solcher Software steigt in allen Regionen rasant an, in denen Pornoseiten entweder gesperrt sind oder Alterskontrollen einführen – zuletzt etwa in Großbritannien.
Verpflichtende Alterskontrollen, wie die Medienaufsicht sie zudem vorschreiben will, würden außerdem bedeuten, dass alle Nutzer*innen von Pornoseiten ihr Alter nachweisen müssten. Die Medienaufsicht empfiehlt dafür etwa, dass die Seiten die Ausweise der Besucher*innen kontrollieren oder das Alter per biometrischer Gesichtserkennen schätzen sollen.
Einer der größten Anbieter, Pornhub, wehrt sich aktuell vor Gericht gegen die aus Deutschland angeordneten Netzsperre. Betreiber Aylo ist auf dem Standpunkt, dass nicht die Medienaufsicht, sondern die EU-Kommission für Pornhub zuständig sei. Die gesetzliche Grundlage dafür ist das Gesetz über digitale Dienste (DSA). Als EU-Verordnung habe es Vorrang gegenüber nationalen Gesetzen wie dem JMStV.
Auch der DSA sieht vor, dass Anbieter von Pornoseiten mehr für den Schutz von Minderjährigen tun müssen, er schreibt dafür aber keine verpflichtenden Alterskontrollen vor, sondern verpflichtet Anbieter lediglich dazu, “Risiken” für den Jugendschutz selbst einzuschätzen und zu minimieren. Derzeit designiert die EU-Kommission mehrere Pornoseiten zudem als „Sehr Große Online-Plattform“ und sieht damit striktere Auflagen für sie vor.
Datenschutz & Sicherheit
Cyberbande cl0p behauptet zahlreiche weitere Datendiebstähle
Etwa 30 Namen von Unternehmen sind auf der Darknet-Seite der kriminellen Vereinigung cl0p neu aufgetaucht. Darunter sind auch einige bekannte und global aktive.
Weiterlesen nach der Anzeige

Auf der Darknet-Seite von cl0p sind einige renommierte Unternehmen aufgetaucht.
(Bild: heise medien)
Unter den angeblich betroffenen Unternehmen finden sich Größen wie Broadcom, Canon, Mazda (und zusätzlich Mazda USA) oder auch der Reifenhersteller Michelin. Es finden sich von den betroffenen Unternehmen bislang noch keine Stellungnahmen oder Bestätigungen von etwaigen Datenlecks, die kürzlich erfolgt wären. Die Täter haben auf der Darknet-Leaksite von cl0p derzeit lediglich allgemeine Unterseiten ohne Details oder Ausschnitte aus den abgezogenen Daten angelegt. Es ist also unklar, in welchem Umfang und was für Daten die Kriminellen erlangt haben wollen.
Bislang glaubhafte Einbruchsberichte
Bislang waren angekündigte Datendiebstähle von cl0p echt, es handelte sich regelmäßig nicht um Bluffs. Etwa Anfang des Monats nahm cl0p Logitech und die Washington Post in die Liste der kompromittierten Unternehmen auf. Rund eine Woche später bestätigte Logitech, dass Angreifer Zugriff auf Computersysteme erlangt und dabei Daten von Kunden und Mitarbeitern kopiert haben. Die Washington Post hat Anfang der Woche ebenfalls mit einer Meldung eines Datenschutzvorfalls eingeräumt, dass Daten von knapp 10.000 ehemaligen und aktuellen Mitarbeitern sowie Auftragnehmern von kriminellen Eindringlingen kopiert wurden.
Zuletzt hatte cl0p reihenweise Opfer durch eine Sicherheitslücke in Oracles E-Business-Suite (EBS) angegriffen und dadurch unbefugt Zugriff auf sensible Daten erlangt. Anfang Oktober hat Oracle vor laufenden Angriffen auf die Lücken und darauffolgende Erpressungsversuche gewarnt. Seitdem stehen auch Updates bereit, die Admins unbedingt installieren sollten. Die Zero-Day-Sicherheitslücke war den Angreifern demnach bereits mindestens seit Juni des Jahres bekannt.
(dmk)
-
UX/UI & Webdesignvor 3 MonatenAdobe Firefly Boards › PAGE online
-
UX/UI & Webdesignvor 1 MonatIllustrierte Reise nach New York City › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Datenschutz & Sicherheitvor 3 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
Datenschutz & Sicherheitvor 2 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Online Marketing & SEOvor 3 Monaten„Buongiorno Brad“: Warum Brad Pitt für seinen Werbejob bei De’Longhi Italienisch büffeln muss
-
Online Marketing & SEOvor 3 MonatenCreator und Communities: Das plant der neue Threads-Chef
-
Entwicklung & Codevor 3 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
