Datenschutz & Sicherheit
Generative KI verzerrt unser Körperbild

Soziale Medien werden derzeit von Bildern und Videos geflutet, die von sogenannter Künstlicher Intelligenz (KI) generiert wurden. Das wirkt sich auch auf unsere kollektive Vorstellungskraft aus. Eine Untersuchung der Universität Cambridge warnt nun vor negativen Folgen für das Selbst- und Körperbild von Menschen.
Die Forscherin Aisha Sobey vom Leverhulme Centre for the Future of Intelligence hat untersucht, wie unterschiedliche Körperformen von KI-Generatoren repräsentiert werden. Ihr Befund: Darstellungen unrealistisch dünner Menschen sind der Standard, große und dicke Körper werden diskriminierend dargestellt.
„Ich bin besorgt über die steigende Zahl von Fällen von Körperunzufriedenheit und Essstörungen und dem daraus resultierenden Zeit-, Energie- und Geldaufwand“, schreibt Sobey auf Anfrage von netzpolitik.org. KI-Generatoren würden diesen Trend verstärken.
Unrealistisch dünne Körper als Standard
Für die Untersuchung verfasste die Forscherin 20 Anweisungen, auch Prompts genannt, zum Erstellen von Bildern mit generativer KI. Alle Darstellungen sollten Personen in unterschiedlichen Situationen zeigen. Manche Prompts erhielten als Zusatz eine medizinische Beschreibung größerer Körper wie „übergewichtig“ oder den Begriff „fat“, zu deutsch „fett“. Das häufig abwertend verwendete Wort wurde von Aktivist*innen zurückerobert und wird inzwischen von vielen Menschen als positive Selbstbezeichnung verwendet.
Die Prompts ließ die Wissenschaftlerin durch neun öffentlich zugängliche Bildgeneratoren laufen, darunter Adobe Firefly, Canva, Runway ML und Stable Diffusion. Ohne den Zusatz „fat“ zeigten die meisten Bilder Menschen mit sogenannter „Sample Size“. Also Menschen, die zu einer besonders dünnen Untergruppe der nicht-dicken Menschen gehören, mit für die meisten Menschen unrealistischen Maßen.
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Größere Körper hingegen wurden fast ausschließlich nur nach ausdrücklicher Aufforderung gezeigt – oder gar nicht. Manche KI-Generatoren stuften die Prompts mit dem Wort „fat“ als schädlich ein. Sie verweigerten den Dienst und produzierten keine Bilder.
Verzerrte Darstellungen
Auch waren die Bilder von dicken Menschen öfters fehlerhaft als die von dünnen Menschen. Bilder sind dann fehlerhaft, wenn die KI bestimmte anatomische Details wie einzelne Finger oder den Winkel eines Arms nicht passend nachahmen kann und deswegen unnatürlich aussehen. Aisha Sobey schließt daraus, dass die Systeme mit Datensätzen trainiert werden, in denen Abbildungen von dicken Menschen unterrepräsentiert sind. Bemerkenswert ist zudem, dass Bilder mit dem Prompt „fat“ übermäßig viele weiße Männer zeigen.
Ebenfalls auffällig sind die unterschiedlichen Gesichtsausdrücke, die die Personen in den verschiedenen Bildern tragen. Fast 25 Prozent der dargestellten dicken Personen haben laut Studie einen negativen Gesichtsausdruck, im Vergleich zu nur drei Prozent der Menschen, die ohne den Prompt „fat“ generiert wurden.
Menschen mit Behinderungen werden von Generativer KI ebenfalls unterrepräsentiert. Von den insgesamt 649 generierten Bildern zeigte nur eines eine Person mit äußerlich erkennbarer körperlicher Einschränkung.
Darstellungen von dicken Menschen zeigten zudem deutlich häufiger Personen mit Charakteristika, die gemeinhin mit Lernbehinderungen, Downsyndrom und anderen Behinderungen assoziierte werden. Die Forscherin fand diese Darstellungen bei acht Prozent der Bilder, die mit dem Prompt „fat“ generiert wurden, und nur bei zwei Prozent der Abbildungen ohne den Zusatz.
KI kann Unzufriedenheit schüren
Wissenschaftler*innen bezeichnen generative Künstliche Intelligenz auch als Spiegel der Gesellschaft. Trainiert werden die Systeme mit großen Datenmengen, die oft aus dem Internet abgeschöpft werden. Die Diversität der verwendeten Daten steht dabei in engem Zusammenhang mit der Diversität der generierten Inhalte. Die für das Training verwendeten Datensätze scheinen also große Körper nur unzulänglich abzubilden.
Sie spiegeln damit einen online immer noch vorherrschenden Standard wider, bei dem überdurchschnittlich dünne und weiße Körper ohne Behinderungen als Norm dargestellt werden. Allerdings scheint generative KI das Problem nicht nur fortzuschreiben, sondern sogar zu verschärfen, denn KI-generierte Bilder, die diskriminierende Körperbilder repräsentieren, werden wiederum für das Training der Generatoren verwendet.
Über die Sozialen Medien sickern die diskriminierenden Bilder zudem in unsere kollektive Vorstellungswelt ein. AI Forensics, ein europäischer Verein, der undurchsichtige Algorithmen überprüft, nahm im Juli 2025 eine Stichprobe und fand, dass ungefähr jedes vierte Video auf TikTok von KI generiert war. Der Unterschied zu menschlichen Creator ist, dass KI ausschließlich in den Trainings-Datensätzen vorhandene Muster reproduzieren kann, während Menschen umdenken und ihre Einstellungen ändern können.
„Die [durch generative KI] implizierten Erwartungen folgen einer langen Tradition von Modell- und Idealkörpern, aber ich würde sagen, dass es durch generative KI viel heimtückischer ist“, so Aisha Sobey gegenüber netzpolitik.org. Aus ihrer Sicht stärkt generative KI jene Systeme, „die Fettleibigkeit verteufeln und die Unsicherheiten der Menschen ausnutzen“.
Datenschutz & Sicherheit
Cisco: Teils kritische Sicherheitslücken in mehreren Produkten
In mehreren Produkten aus dem Portfolio von Cisco hat das Unternehmen Sicherheitslücken gemeldet. Aktualisierungen stehen für die zum Teil als kritisches Risiko eingestuften Schwachstellen bereit. IT-Verantwortliche sollten prüfen, ob sie verwundbare Systeme einsetzen und die Updates zügig installieren.
Weiterlesen nach der Anzeige
Am gravierendsten sind laut Cisco Sicherheitslücken in Cisco Unified Contact Center Express (Unified CCX). Aufgrund mehrerer Schwachstellen in der darin genutzten Java Remote Method Invocation (RMI) können Angreifer aus dem Netz ohne vorherige Authentifizierung beliebige Befehle ausführen, ihre Rechte zu „root“ ausweiten, Authentifizierung umgehen und beliebige Dateien hochladen – sprich, das System vollständig kompromittieren (CVE-2025-20354, CVSS 9.8; CVE-2025-20358, CVSS 9.4; beide Risiko „kritisch„). Cisco Unified CCX 12.5 SU3 ES07 und 15.0 ES01 stopfen die Sicherheitslecks.
Als hochriskant stuft Cisco eine Schwachstelle im Radius-Server ein. Die Einstellung „Reject RADIUS requests from clients with repeated failures“ der Cisco Identity Services Engine (ISE) ermöglicht nicht authentifizierten Angreifern aus dem Netz, Cisco ISE unerwartet neu starten zu lassen. Das mündet in einen Denial-of-Service (DoS). Angreifer können das mit einer bestimmten Sequenz von manipulierten Radius-Anfragen auslösen (CVE-2025-20343, CVSS 8.6, Risiko „hoch„). Die Einstellung ist standardmäßig aktiv. Betroffen ist Cisco ISE 3.4, die Fassungen davor und die neueren 3.5er-Versionen sollen dafür nicht anfällig sein. Die Version 3.4 Patch 4 soll das Problem lösen.
Mittelschwere Schwachstellen
In Ciscos Unified Contact Center Express (Unified CCX), Cisco Unified Contact Center Enterprise (Unified CCE), Cisco Packaged Contact Center Enterprise (Packaged CCE) und Cisco Unified Intelligence Center (CUIC) können angemeldete Angreifer aus dem Netz beliebigen Code einschleusen und ausführen, ihre Rechte zu „root“ ausweiten, sensible Informationen auslesen und beliebige Dateien herunterladen (CVE-2025-20375, CVE-2025-20376; beide CVSS 6.5; CVE-2025-20374, CVSS 4.9; alle Risiko „mittel“). Die Sicherheitsmitteilung nennt als korrigierte Softwareversionen Cisco Unified CCX 12.5 SU3 ES07 und 15.0 ES01 sowie Cisco Unified Intelligence Center 15.0(01) ES202508; wer noch Version 12.6 oder älter einsetzt, soll auf eine unterstützte Version migrieren.
Schließlich können angemeldete Angreifer aus dem Netz sensible Informationen auslesen oder Cross-Site-Scripting-Angriffe in Ciscos Identity Services Engine (ISE) und Cisco ISE Passive Identity Connector (ISE-PIC) ausführen (CVE-2025-20303, CVE-2025-20304, CVSS 5.4; CVE-2025-20289, CVSS 4.8; CVE-2025-20305, CVSS 4.3; alle Risiko „mittel„). Anfällig sind Cisco-ISE-Releases 3.4 und ältere, die jüngere Fassung 3.5 hingegen nicht. Wer noch 3.1 einsetzt, soll auf eine unterstützte Version migrieren, für die anderen Entwicklungszweige schließen die Versionen 3.2 Patch 8 (im Dezember 2025), 3.3 Patch 8 (im November 2025) und 3.4 Patch 4 die Sicherheitslücken.
Cisco-Schwachstellen sind für Cyberkriminelle ein lohnenswertes Ziel, ermöglicht deren Missbrauch in der Regel doch Zugang zu Netzwerken von Organisationen. So lassen sich etwa immer noch Angriffe auf eine Sicherheitslücke aus dem Jahr 2023 beobachten, die zu derzeit rund 15.000 mit der Malware „Badcandy“ infizierten Cisco-Geräten weltweit führt.
Weiterlesen nach der Anzeige
(dmk)
Datenschutz & Sicherheit
Internetseite von Trier nach Cyberangriff wieder erreichbar
Die Internetseite der Stadt Trier ist nach den Cyberattacken vom Wochenende wieder online. Der Dienstleister der Stadt habe wieder teilweise Zugriff auf die Schutzmechanismen, teilte die Stadtverwaltung mit. „Es gibt aber vorerst keine Entwarnung, denn die Angriffe auf die Seite trier.de und weitere Internetseiten der Stadt gehen weiter“, berichtete die Stadt.
Weiterlesen nach der Anzeige
Die Internetseiten der Stadt liegen den Angaben zufolge auf externen Servern. Diese Systeme seien von weiteren Systemen des Rathauses streng getrennt. Durch die Angriffe auf die Internetseite seien keinerlei Daten von Bürgerinnen und Bürgern betroffen. „Die Arbeit der Verwaltung konnte ganz normal weiterlaufen“, betonte die Stadtverwaltung.
Angriff mit Botnetzen
Die Auswertung der letzten sieben Tage habe nach Einschätzung des Dienstleisters eindeutig gezeigt, dass es sich um einen koordinierten Cyberangriff auf den externen Internetserver der Stadt handele, einen sogenannten DDoS-Angriff (Distributed Denial of Service), erklärte die Stadtverwaltung.
Dabei versuchten Angreifer, mit Botnetzen eine Webseite gezielt mit Zugriffen zu überlasten und sie so lahmzulegen. „Diese Zugriffe auf trier.de sind in den vergangenen Tagen auf ein Vielfaches der üblichen Zahl angestiegen“, hieß es.
Bereits Ende Juli hatte es den Angaben zufolge eine ähnliche Attacke gegeben. Sie war auf ein russisches Hacker-Kollektiv zurückzuführen. Der Angriff vom Wochenende soll allerdings viel heftiger als die Attacke im Sommer gewesen sein.
Weiterlesen nach der Anzeige
(dmk)
Datenschutz & Sicherheit
Deutsche Diplomaten fordern undiplomatisch Chatkontrolle
Befürworter der Chatkontrolle beschweren sich über die politische Gegenwehr. Sie wollen das Framing „Chatkontrolle“ loswerden und stattdessen über „Kinderschutz“ sprechen.
Die deutsche Botschaft in Brüssel hat letzte Woche einen Drahtbericht an die Bundesregierung verschickt. Innenpolitiker der Ständigen Vertretung fordern darin, dass Deutschland dem Chatkontrolle-Gesetz zustimmt. Wir veröffentlichen das Dokument in Volltext: „Es geht um Kinderschutz, nicht um ‚Chatkontrolle‘. Keine Verordnung ist auch keine Lösung.“
Diplomaten sind eigentlich diplomatisch. Sie vertreten ihren Staat und ihre Regierung im Ausland. Diplomaten handeln nicht nach ihren eigenen Überzeugungen, sondern nach Weisungen ihrer Regierung. Vor diesem Hintergrund ist der Ton dieses Drahtberichts ungewöhnlich.
Anlasslose Chatkontrolle tabu
Anfang Oktober verkündete Justizministerin Stefanie Hubig (SPD): „Anlasslose Chatkontrolle muss in einem Rechtsstaat tabu sein. Private Kommunikation darf nie unter Generalverdacht stehen.“
Am selben Tag machte Regierungs-Sprecher Stefan Kornelius widersprüchliche Äußerungen. Einerseits sagte er: „Die Bundesregierung hat stets betont, dass die anlasslose Chatkontrolle für sie ein Tabu ist“. Andererseite sagte er: „Wir machen hier keine Chatkontrolle. Es geht in diesem Verfahren darum, Prävention im Fall von Kindsmissbrauch durchzusetzen.“
Die Botschaft in Brüssel widerspricht der Ministerin ebenfalls. Die Diplomaten schreiben: „‚Wir wollen keine anlasslose Chatkontrolle‘, schallt es aus Berlin, obwohl selbige in Brüssel niemand fordert.“ Und: „Es geht um Kinderschutz, nicht um ‚Chatkontrolle‘.“
Irreführend bis falsch
Diese Aussagen sind irreführend bis falsch. Der Gesetzentwurf soll Internet-Dienste verpflichten, die Kommunikation ihrer Nutzer auf mutmaßliche Straftaten zu durchsuchen. Das Gesetz will Kinderschutz durch Chatkontrolle, nicht Kinderschutz statt Chatkontrolle.
Darüber hinaus fordern manche Politiker bereits eine Ausweitung der Chatkontrolle auf andere Inhalte.
Die EU-Kommission will auf Anordnung Dienste dazu verpflichten, die Chats all ihrer Nutzer zu durchsuchen – auch wenn die Nutzer keiner Straftat verdächtig sind und deshalb keinen Anlass für eine Chatkontrolle geben. Das EU-Parlament will nur Nutzer durchsuchen, die verdächtig sind – also einen Anlass zur Kontrolle geben.
Befürworter argumentieren, dass manche Dienste einen Anlass zur Chatkontrolle geben, zum Beispiel wenn sie Anonymität und Verschlüsselung anbieten. Das erinnert an die anlasslose Massenüberwachung der Geheimdienste wie NSA und BND, die milliardenfach Kommunikation der ganzen Welt abhören – ihr „Anlass“ ist die Suche nach Terroristen. Dieser Definition von „Anlass“ widerspricht unter anderem das Bundesverfassungsgericht.
Lautstarke Internet-Community
Die Innenpolitiker der Botschaft behaupten weiter, dass „eine lautstarke Internet-Community und einige großer Tech-Konzerne“ einen „enormen Druck“ aufbauen und „die Wahrnehmung im politischen Raum und der Öffentlichkeit einseitig prägen“. Demgegenüber falle es „den Kinderschutzorganisationen schwer, im öffentlichen Diskurs Gehör zu finden“.
Als Beleg für das mangelnde Gehör nennt die Vertretung eine Veranstaltung in Brüssel. Organisiert wurde die Veranstaltung von über 70 Kinderschutz-NGOs. Kinderschutz-Organisationen wie der Deutsche Kinderschutzbund, die eine Chatkontrolle ablehnen, waren offenbar nicht dabei.
Lobbyismus auf höchster Ebene
Zur Begrüßung sprachen der EU-Innenkommissar Magnus Brunner und die deutsche Missbrauchsbeauftragte Kerstin Claus. Auf dem Podium diskutierten die Kinderschützer mit Europol-Polizisten, Kommissions-Beamten und EU-Abgeordneten.
Eine Kinderschutz-Referentin von ECPAT Deutschland und die Geschäftsführerin der Internet Watch Foundation haben sogar eigene Gesprächstermine mit der Ständigen Vertretung bekommen. Vor zwei Jahren haben Recherchen aufgedeckt, wie Tech-Firmen, Stiftungen, Sicherheitsbehörden und PR-Agenturen auf höchster EU-Ebene für die Chatkontrolle lobbyieren.
Im Gegensatz dazu werden Vertreter der digitalen Zivilgesellschaft immer wieder ausgegrenzt und ausgeladen.
Chatkontrolle für WhatsApp und Signal
Die Missbrauchsbeauftragte Kerstin Claus sagte auf der Veranstaltung: „Hauptziel der CSA-Verordnung ist, Kinder vor Missbrauch und Ausbeutung online und offline zu schützen, nicht Massenüberwachung europäischer Bürger. Ja, wir müssen darüber diskutieren, welche Schutzmaßnahmen oder Einschränkungen wir benötigen, um Verstöße gegen die Privatsphäre der Kommunikation auszugleichen.“
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Claus befürwortet offenbar eine Chatkontrolle. Vor drei Jahren warb sie für „ein gestuftes Verfahren bei der Chatkontrolle“ – explizit für „Chat-Dienste wie WhatsApp, Signal sowie E-Mail-Anbieter“.
Webseiten in Deutschland
Auf der Konferenz notierten die deutschen Vertreter: „62% der Webseiten mit Darstellungen des sexuellen Missbrauchs von Kindern werden in Europa gehostet.“ Die Quelle dafür ist die Internet Watch Foundation 2022. Weiter schreiben sie: „Die Anzahl der aus Deutschland gehosteten Seiten hat sich allein zwischen 2020 und 2022 verzehnfacht.“ Auch das stammt von der Internet Watch Foundation 2022.
Diese Zahlen widersprechen denen der Bundesregierung. Laut Bundeskriminalamt sind fast die Hälfte der Verdachtsmeldungen aus den USA nach deutschem Recht strafrechtlich nicht relevant.
Bundeskriminalamt und Meldestellen erhielten 2020 relevante 1.728 Fälle und 2022 7.868 Fälle. Wenn die Polizei aktiv wird, sind diese Inhalte schnell weg. Über 99 Prozent dieser Inhalte werden innerhalb einer Woche erfolgreich gelöscht.
Immer wieder könnte die Polizei pädokriminelle Inhalte löschen, tut das aber nicht. Eine Bund-Länder-Gruppe hat einen Bericht dazu verfasst. Der soll jedoch geheim bleiben und nicht öffentlich werden.
Deutsche Sprachlosigkeit
Die deutsche Vertretung betitelt den Drahtbericht mit dem Satz „Keine Verordnung ist auch keine Lösung.“ Der erste Satz lautet: „Der Kampf gegen den sexuellen Missbrauch von Kindern droht auf EU-Ebene aufgrund der deutschen Sprachlosigkeit verloren zu gehen.“
Diese Absolutheit irritiert. Selbst vehemente Kritiker der Chatkontrolle sind nicht gegen die Bekämpfung von Missbrauch oder das gesamte Gesetz. Im Gegenteil, es gibt viele sinnvolle Vorschläge für besseren Kinderschutz im Internet. Diese werden aber von der Chatkontrolle überschattet.
Das EU-Parlament hat einen Verhandlungsentwurf beschlossen, der anlasslose Chatkontrolle ausschließt. Stattdessen sollen Internet-Dienste mehr Kinderschutz-Mechanismen einführen, wie eine Zustimmung zu unaufgeforderten Nachrichten und bessere Optionen zum Blockieren und Stummschalten. Die EU-Staaten könnten diese Position einfach übernehmen.
Stattdessen prognostiziert der Bericht, dass „noch ein schwieriger Trilog mit dem EU-Parlament wartet“. Das klingt, als ob die Innenpolitiker in Brüssel die parlamentarische Ablehnung der Chatkontrolle bedauern und in den anstehenden Verhandlungen wieder ändern wollen.
Endlich sprechfähig sein
Heute haben die Ständigen Vertreter der EU-Staaten über die Chatkontrolle verhandelt. Im Vorfeld forderte die deutsche Vertretung von der Bundesregierung: „Deutschland muss endlich sprechfähig sein.“
Hier das Dokument in Volltext:
- Geheimhaltungsgrad: Verschlusssache – Nur für den Dienstgebrauch
- Datum: 29. Oktober 2025
- Von: Ständige Vertretung der BRD bei der EU
- An: Auswärtiges Amt
- Kopie: BKAmt, BMI, BMJV, BMBFSFJ, BMWE, BMG
- Betreff: VO-Vorschlag Child Sexual Abuse: Es geht um Kinderschutz, nicht um „Chatkontrolle“. Keine Verordnung ist auch keine Lösung.
- Bezug: DKOR vom 29.07.2025 (BRUEEU_2025-07-29_67559)
- Zweck: Zur Unterrichtung
- Geschäftszeichen: 350.80
- DKOR-ID: BRUEEU_2025-10-29_64445
VO-Vorschlag Child Sexual Abuse: Es geht um Kinderschutz, nicht um „Chatkontrolle“. Keine Verordnung ist auch keine Lösung.
I. Zusammenfassung und Wertung
Der Kampf gegen den sexuellen Missbrauch von Kindern droht auf EU-Ebene aufgrund der deutschen Sprachlosigkeit verloren zu gehen. Wo es um die brutalste und perverseste Form des Missbrauchs von Kindern (insbesondere auch Säuglingen und Kleinkindern) geht, wird in Deutschland eine datenschutz- und verfassungsrechtliche Debatte geführt, die in ihrer Einseitigkeit irritiert. „Wir wollen keine anlasslose Chatkontrolle“, schallt es aus Berlin, obwohl selbige in Brüssel niemand fordert. Eine Antwort auf die uns seit Monaten gestellte Frage, was wir eigentlich wollen und wie Pädokriminelle im Netz entdeckt werden sollen, bleiben wir hingegen schuldig – trotz maximaler Kooperations- und Kompromissbereitschaft der dänischen Ratspräsidentschaft, die nach langem Warten auf unsere Vorschläge zur „Verordnung zur Festlegung von Vorschriften zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern“ inzwischen aber zu realisieren beginnt, dass sie – bei welchem Lösungsansatz auch immer – ohne uns planen muss.
In Brüssel wird die deutsche Nichtpositionierung heftig kritisiert und maßgeblich dafür verantwortlich gemacht, dass die dringend erforderliche Einigung im Rat nicht erfolgen kann. Klar ist, dass wir (wie andere MS) unter enormen Druck einer lautstarken Internet-Community und einiger großer Tech-Konzerne stehen, die die Wahrnehmung im politischen Raum und der Öffentlichkeit einseitig prägen.
Dass es den Kinderschutzorganisationen demgegenüber schwerfällt, im öffentlichen Diskurs Gehör zu finden, wurde auch hier in Brüssel anlässlich einer Konferenz der European Child Sexual Abuse Legislation Advocacy Group (ECLAG) sowie einiger begleitend geführter Gespräche der StäV deutlich. Es lohnte aber, zuzuhören.
Rund 29,2 Millionen Fälle mutmaßlichen sexuellen Missbrauchs von Kindern gab es im Jahr 2024 ausweislich eines Berichts des „National Center for Missing and Exploited Children“ (NCMEC), einer gemeinnützigen Organisation, die 1984 vom Kongress der Vereinigten Staaten gegründet wurde und bei ihr eingehende Meldungen zu sexuellen Missbrauchsdarstellungen nach einer Überprüfung an die zuständigen Strafverfolgungsbehörden u.a. in Deutschland und Europa weiterleitet. Diese Meldungen enthielten insgesamt 62,9 Millionen Missbrauchsdarstellungen. Anders formuliert: In jeder Minute gibt es nachweislich 55 Fälle mutmaßlichen sexuellen Kindesmissbrauchs und 120 Fotos oder Videos dazu. Zudem geht das BKA von einem sehr hohen Dunkelfeld aus. Eine nähere Auswertung von rund 580.000 Bildern mit 650.000 sexuell missbrauchten Kindern durch die Internet Watch Foundation ergab, ebenfalls für das Jahr 2024, dass die Opfer meist zwischen 7 und 10 (228.928 Fälle, i.e. 35%) oder aber zwischen 11 und 13 Jahre alt sind (217.780 Fälle / 33,5%). In 101.240 Fällen, also rund einem Sechstel der untersuchten Bilder, sind die Opfer zwischen 3 und 6 Jahre alt. Auf immerhin 13.032 Bildern (2%) finden sich Säuglinge und Kleinkinder zwischen 0 und 2 Jahren, die meist besonders schwerem sexuellen Missbrauch ausgesetzt sind (sog. „Kategorie A“: Penetration, Sex mit Tieren und/oder Sadismus).
Im Jahr 2025 zeigt sich bislang ein derart dramatischer Anstieg der Zahlen, dass sich das NCMEC erstmals zu einem Halbjahresbericht veranlasst sah. Im Vergleich zum ersten Halbjahr 2024 ergab sich fast eine Verdopplung der Zahlen beim sog. „Online Enticement“ (Anlocken einer Person über das Internet, oft um sie zu einer bestimmten Handlung zu bewegen) von 292.951 auf 518.720. Der Sexhandel mit Kindern stieg von 5.976 auf 62.891 Fälle. Die Zahl KI-generierter Missbrauchsdarstellungen erhöhte sich von 6.835 auf 440.419.
62% der Webseiten mit Darstellungen des sexuellen Missbrauchs von Kindern werden in Europa gehostet. Die Anzahl der aus Deutschland gehosteten Seiten hat sich allein zwischen 2020 und 2022 verzehnfacht. Nach einer Untersuchung von „Protect Children“ ist Deutsch zudem die vierthäufigste Sprache von Nutzern, die im Darknet kinderpornographische Bilder und Filme suchen und anschauen (nach Englisch, Spanisch und Russisch).
Vor diesem Hintergrund sahen auf der o.g. Konferenz sowohl Magnus Brunner, Kommissar für Inneres und Migration, als auch Kerstin Claus, Unabhängige Beauftragte für Fragen des sexuellen Kindesmissbrauchs in Deutschland, dringenden Handlungsbedarf. Eine „Nicht-Verabschiedung der Verordnung sei keine Lösung“, so Kerstin Claus. Sexueller Missbrauch sei der schwerste Verstoß gegen Kinderrechte. Es sei wichtig, dass dies auch in der öffentlichen Diskussion wahrgenommen und berücksichtigt werde („a shift of mindset is necessary“). MdEP Jeroen Lenaers, EPP NLD, schloss sich diesem Appell an. Es gehe vor allem nicht um „Chatkontrolle“, sondern um Kinderschutz. Man müsse sich auf den tatsächlichen Inhalt der Verordnung konzentrieren und den politischen Entscheidungsträgern „real life stories“ nahebringen. Eine Vertreterin von Microsoft plädierte für eine gesetzliche Regelung, da eine solche den Status-quo verbessern würde und staatliche Akteure sich zudem nicht allein auf freiwillige kooperierende Diensteanbieter verlassen sollten. Weitere Diskussionsteilnehmer stellten ebenso auf den dringend notwendigen Schutz der Kinder ab. Die EU stünden nun vor der Wahl, zu handeln oder das Phänomen zu ignorieren. Jeder weitere Tag des Nichthandels führe zu irrreversiblen Schäden.
Wir lassen mit unserer eingangs skizzierten Sprachlosigkeit gerade die Gelegenheit verstreichen, die Verhandlungen im Rat zu prägen und den Kindesschutz grundrechtskonform zu verbessern.
Schlimmer noch: Wir sind drauf und dran dafür zu sorgen, dass sich die Rechtslage verschlechtert und sexueller Missbrauch von Kindern und Säuglingen künftig nur noch in Ausnahmefällen entdeckt, beendet, verfolgt und bestraft werden kann. Derzeit können Diensteanbieter auf Basis der sog. Interims-VO noch freiwillig nach Missbrauchsdarstellungen von Kindern in ihren Diensten suchen und diese melden. Diese Möglichkeit wird mit dem Auslaufen der Interims-VO im April wegfallen. Die online gestellten Bilder und Videos sind für die Polizei aber oft die einzige Möglichkeit, um auf Fälle sexuellen Missbrauchs aufmerksam zu werden, auch weil Kinder selten über ihren Missbrauch sprechen und oft erst Jahre später verstehen, dass sie Opfer einer Straftat geworden sind. Eine schnellstmögliche Einigung des Rates auf eine allgemeine Ausrichtung ist vor diesem Hintergrund dringend geboten (siehe auch schon Bezugs-DKOR).
II. Handlungsempfehlungen
Nach drei Jahren Verhandlungen mit insgesamt 47 Sitzungen im Rat sollte auch Deutschland eine Position zu der Frage finden, wie der massenhaft stattfindende sexuelle Missbrauch von Kindern bekämpft werden kann. Im AStV vom 5. November muss Deutschland endlich sprechfähig sein. Die Zeit drängt, da nach der zunächst erforderlichen Positionierung des Rates noch ein schwieriger Trilog mit dem EP wartet, der vor dem Auslaufen der Interim-VO abgeschlossen sein sollte.
III. Im Einzelnen
Zum in der Öffentlichkeit ausschließlich unter Datenschutz/Schutz privater Kommunikation Aspekten diskutierte Vorschlag einer „Verordnung zur Festlegung von Vorschriften zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern“ (CSA–VO) fand am 16.10. eine Veranstaltung des der European Child Sexual Abuse Legislation Advocacy Group (ECLAG) unter dem Titel „Back to basics: Fighting sexual abuse with children at the centre“ statt. ECLAG vereint mehr als 70 europäische und internationale NRO im Bereich des Schutzes von Kindern, u.a. Terre des Hommes, Eurochild, ECPAT International, Internet Watch Foundation und Thorn.
In ihren Begrüßungsansprachen machten sowohl Magnus Brunner, Kommissar für Inneres und Migration, als auch Kerstin Claus, Unabhängige Beauftragte für Fragen des sexuellen Kindesmissbrauchs, klar, dass eine Verpflichtung der Diensteanbieter beim Schutz von Kindern vor sexuellem Missbrauch online sowie bei der Bekämpfung der Verbreitung von Missbrauchsdarstellungen (im Folgenden: CSAM) dringend notwendig sei.
Fiona Jennings, Irish Society for the Prevention of Cruelty to Children (ISPCC), unterstrich, dass sexueller Missbrauch von Kindern historische Ausmaße erreicht habe. Anton Toni Klančnik, Specialist in AP Twins, Europol, unterlegte diese Aussage. Insbesondere Grooming sei ein wachsendes Problem. Für Europol sei es immer eine Priorität, anhand gemeldeter Bilder und Filme das Opfer zu identifizieren. So habe man in einer 2-wöchigen Task Force mehr als 50 Opfer entdeckt und identifiziert. Er erwähnte ebenso die Operation „Cumberland“ (KI-generierte Missbrauchsdarstellungen, 19 Länder, 273 Verdächtige, 25 Festnahmen, Stand Feb 2025). Erschreckend sei auch, dass es sogenannte Pädo-Handbücher mit detaillierten Anleitungen zu sexuellem Missbrauch von Kindern gäbe.
Antonio Labrador Jimenez, DG Home European Commission, stellte klar, dass die CSA–VO einen Fokus auf Prävention setzte und in großen Teilen unumstritten sei. So werde z.B. die Einrichtung eines EU-Zentrums einstimmig begrüßt. Lediglich zu den sogenannten Detection Orders (Aufdeckungsanordnungen) gäbe es noch keine Einigung. Es sei nicht sinnvoll, sich auf Meldungen von Opfern oder ihren Angehörigen zu verlassen. Kinder würden sich nicht melden, weil sie entweder zu jung oder zu verängstigt seien. Eltern oder soziales Umfeld seien oft unwissend oder gar selbst Täter. Es sei gut, dass die Diensteanbieter Erfahrung bei der Aufdeckung von CSAM hätten. Man dürfe aber nicht außer Acht lassen, dass mittlerweile 80% der bei NCMEC eingehenden Berichte aus privater Kommunikation sei. Der VO-Entwurf stelle auch nicht auf Fragen der verschlüsselten Kommunikation ab, sondern sei bewusst technologieneutral gehalten. Fakt sei aber z.B. ein deutlicher Rückgang der Meldungen seitens Facebook, nachdem dort Ende-zu-Ende-Verschlüsselung im Messenger eingeführt worden sei. Man müsse sich zudem die Frage stellen, warum in der öffentlichen Diskussion immer Art. 7 der Grundrechtecharta der EU (Achtung der Kommunikation) über die Rechte der Kinder z.B. aus Art. 3 (Recht auf körperliche Unversehrtheit) und Art. 4 (Verbot der Folter und unmenschlicher oder erniedrigender Strafe oder Behandlung) gestellt werde. Wenn eines der Grundrechte Vorrang haben könne, dann wohl eher Art. 3, da sexueller Missbrauch von Kindern eindeutig eine unmenschliche und erniedrigende Behandlung darstelle.
MEP Jeroen Lenaers (Niederlande, EPP), Berichterstatter zur Überarbeitung der CSA-Richtlinie, nannte es einen Skandal, dass der Rat sich immer noch nicht auf eine Position geeinigt habe und zugleich die MS der blocking minority keine Ideen zur Kompromissfindung einbrächten. Man müsse auch ganz deutlich machen, dass es nicht um „Chatkontrolle“ sondern um Kinderschutz ginge. Auch er bedauere, dass der Vorschlag in der Öffentlichkeit komplett einseitig wahrgenommen werde und man mittlerweile nicht mehr über den Inhalt diskutiere. Die Position des EP zur CSA–VO sei sicher nicht optimal, aber man sei zumindest bereit für den Trilog und damit für ein Vorankommen des Vorschlags. Bei der CSA-Richtlinie komme man im Trilog leider auch nicht voran, da die Ambitionen der MS sehr gering seien.
Das zweite Podium der Veranstaltung konzentrierte sich auf technologische Aspekte.
Jasper van Heugten, KI-Experte, stellte klar, dass es bereits verlässliche Technologien zur Feststellung von CSAM gebe. Dies würden nicht unbedingt einen Eingriff in die Privatsphäre oder eine Berichtsautomatismus enthalten. Die Prämisse müsse allerdings sein, dass die gemeinsamen Werte die Technik bestimmen müsse, nicht umgekehrt. Auch sei es sinnvoll, für unterschiedliche Plattformen spezifische Technologien zu entwickeln. Bei der Diskussion zur Aufdeckung von Grooming müsse klargestellt werden, dass die Wortwahl eindeutig und deutliche unterscheidbar von normaler Kommunikation sei.
Lea Peters, ECPAT Germany, erinnerte daran, dass das Internet in seinen Anfängen nicht für Kinder designed worden sei. Mittlerweile enthalte aber fast jeder sexuelle Missbrauch von Kindern auch eine online-Komponente.
Julie Guichard, Microsoft, erläuterte die Maßnahmen von Microsoft in den Chatfunktionen der Xbox. Die KI-gestützte Software erfasse 90 Sprachen. In 2025 habe Microsoft 4,5 Millionen Inhalte entfernt, bevor diese weitergeleitet wurden. Es gäbe auch die Möglichkeit, die Sperrung von privaten Bildern bei Microsoft zu beantragen. Hinsichtlich des Problems KI-generierter Missbrauchsdarstellungen würden die Gegenmaßnahmen von Microsoft derzeit noch halten. Microsoft sehe die Möglichkeit der freiwilligen Aufdeckung als guten Anreiz für Unternehmen an; auch im Hinblick auf die Weiterentwicklung von Technologien einschließlich der notwendigen Investitionen. Auch Microsoft plädiere dafür, dass eine rechtliche Regelung den Status-quo verbessere. Dazu gehöre, die nicht kooperativen Plattformen zu verpflichten, Prävention zu gewährleisten. Die staatlichen Akteure und Entscheidungsträger dürften sich nicht auf die gutwilligen Betreiber alleine verlassen. Client-Side Scanning werde bereits gemacht, allerdings ohne die Treffer weiterzuleiten. Man dürfe nicht akzeptieren, dass Straftäter sich immer sicherer fühlten. Auch Julie Guichard sah es als wichtig an, klarzumachen, dass es um Aufdeckung und nicht um Überwachung gehe. Auf Nachfrage erläuterte sie, dass Microsoft Xbox Accounts aussetzen und sperren könne, abhängig von der Schwere des Verstoßes. Man kommuniziere dies offen und transparent, um auch dem Nutzer klar zu machen, dass z.B. Grooming Versuche nicht toleriert würden.
Alle im DKOR dargestellten Zahlen stammen aus der vorstehend skizzierten Konferenz und aus Gesprächen, die StäV auf entsprechende Anfragen am 15.10.2025 namentlich mit Lea Peters, Referentin Digitaler Kinderschutz bei ECPAT Deutschland e.V., sowie am heutigen 29.10.2025 mit Kerry Smith, CEO der Internet Watch Foundation, geführt hat. Sie sind im Internet frei zugänglich.
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Apps & Mobile Entwicklungvor 2 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
UX/UI & Webdesignvor 3 WochenIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 2 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
