Künstliche Intelligenz
Missing Link: Prävention an der Quelle – Chatkontrolle und Upload-Filter
In Brüssel und den EU-Staaten tobt eine Lobby-Schlacht, die Europas mächtigste Interessengruppen im Streit über den seit Jahren umkämpften Entwurf der EU-Kommission für eine Verordnung zur massenhaften Online-Überwachung unter dem Aufhänger des Kampfs gegen sexuellen Kindesmissbrauch in zwei Lager spaltet. Auf der einen Seite stemmen sich Tech-Konzerne – große und kleine – gegen Forderungen, die ihre Services gefährden oder neue Haftungspflichten mit sich bringen würden. Im Schulterschluss mit Bürgerrechtsorganisationen und auch Vertretern der Politik kämpfen sie für das Kommunikationsgeheimnis. Auf der anderen Seite steht ein Bündnis aus Ermittlungsbehörden und Organisationen, die sich Kinderrechte auf die Fahnen geschrieben haben.
Weiterlesen nach der Anzeige

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Letztlich geht es in der Auseinandersetzung, die ständig um eine Volte reicher wird, um ein neues Kapitel in den Crypto Wars. Neben Datenschützern machen IT-Verbände, der Kinderschutzbund und Pressevereinigungen gegen die geplante Durchleuchtung privater Kommunikation unter dem Aufhänger Chatkontrolle mobil. Fast sah es so aus, als ob die schwarz-rote Bundesregierung das Nein der Ampel aufgeben wollte. Das hätte den Weg für die Annahme der Position des EU-Ministerrates zu dem Dossier freigemacht.
Doch Anfang Oktober hieß es dann, auch CDU/CSU und SPD seien zumindest gegen eine „anlasslose“ Chatkontrolle. Ende Oktober lenkte dann auch die dänische Ratspräsidentschaft angesichts fehlender Mehrheiten überraschend ein: Sie verabschiedete sich von ihrem Standpunkt, Anbieter von Kommunikationsdiensten zur Suche nach Darstellungen sexuellen Kindesmissbrauchs verpflichten zu wollen. Es soll demnach bei der Freiwilligkeit bleiben. Doch Kritiker bemängeln auch Dänemarks neuen Entwurf und sehen darin vor allem die Gefahr von Massenüberwachung.
Die Gegenseite hat parallel ebenfalls aufgerüstet und wird auch nach dem erneuten Rückschlag versuchen, ihre Eisen im Feuer zu halten. Ihr gehören Organisationen wie die Internet Watch Foundation (IWF), das Canadian Centre for Child Protection (C3P), die International Justice Mission (IJM), ECPAT, das Netzwerk Kinderrechte, World Vision, Terre des Hommes, Innocence in Danger, die World Childhood Foundation, die Stiftung digitale Chancen, das Netzwerk Kinderrechte Deutschland und die SafeToNet Foundation an. Diese lockere Allianz versucht nun, in die „verfahrene Debatte“ einen vermeintlich neuen Ansatz zu bringen. Sie plädiert für einen „Kompromiss“, der auch in Ende-zu-Ende-verschlüsselten Diensten (E2EE) wie WhatsApp, Signal und Threema funktioniert.
Die Internet Watch Foundation legt sich ins Zeug
Der Vorschlag stellt darauf ab, Material über sexuellen Missbrauch (Child Sexual Abuse Material, CSAM) erkennen und blockieren zu können, ohne Inhalte aus Kommunikationsanwendungen auszuleiten. „Moderne On-device- und In-App-Erkennung prüft Inhalte lokal, ohne Daten zu übertragen oder die Verschlüsselung aufzuheben“, heißt es etwa bei der IJM. Apple, Meta und Google nutzten solche Verfahren bereits für den Schutz vor Nacktbildern und die Erkennung von Links mit schädlichem Content.
Die Argumentation stützt sich auf einen jüngst veröffentlichten Bericht der IWF. Die Autoren bezeichnen das von ihnen vorgeschlagene Instrument als „Upload-Prävention“. Diese sei ein technisch machbarer und datenschutzfreundlicher Weg, bekanntes CSAM zu blockieren, bevor es in durchgängig verschlüsselten Umgebungen verbreitet werden kann. Der Begriff erinnert an die ominösen Upload-Filter, für die der EU-Gesetzgeber im Kampf gegen Urheberrechtsverletzungen nach langen Debatten eingeschränkt den Weg freimachte. Diese setzen allerdings auf der Ebene von Plattformen wie YouTube an, nicht auf Endgeräten der Nutzer.
Weiterlesen nach der Anzeige
E2EE sei zwar essenziell für die Privatsphäre, räumt die IWF ein. Straftäter wählten durchgehend verschlüsselte Plattformen aber aufgrund eines geringeren Risikos der Strafverfolgung mittlerweile bewusst aus. Die Einführung von E2EE ohne Sicherheitsvorkehrungen habe zu einem drastischen Rückgang der CSAM-Meldungen geführt. Für die Opfer bedeute die fortlaufende Verbreitung ihrer Missbrauchsbilder eine ständige Bedrohung und immer wieder psychische Schäden.
Punktlandung bei Client-Side-Scanning
Die Upload-Prävention verkauft die IWF als „Sicherheitsfunktion“. Der Prozess basiere auf digitalen Fingerabdrücken. Auf dem Gerät des Senders werde ein einzigartiger Hash der Datei (Bild oder Video) erstellt. Dieses Muster werde mit einer sicheren Datenbank abgeglichen, die Hashes von bereits von Experten bestätigten illegalem CSAM enthält. Bei einer Übereinstimmung werde der Upload der Datei an der Quelle blockiert, ansonsten freigegeben.
Die Hash-Listen müssen von vertrauenswürdigen Organisationen verwaltet werden, um ihre Integrität zu gewährleisten, ist dem Papier zu entnehmen. Organisationen wie die IWF, das National Center for Missing and Exploited Children (NCMEC) und das C3P führten solche sorgfältig überprüfte Verzeichnisse. In der EU käme dafür auch das geplante Zentrum zum Kampf gegen CSAM in Frage. Kerry Smith, Geschäftsführerin des IWF, warnte vorige Woche, die aktuellen Verhandlungen auf Ratsebene seien „die letzte Chance für politische Entscheidungsträger in Europa, „diese Schutzmaßnahmen in den Alltag zu integrieren“.
Zentraler Punkt der IWF-Argumentation ist der Zeitpunkt: Die Überprüfung der Datei findet lokal auf dem Gerät des Senders statt, bevor die Datei verschlüsselt wird. Wirklich neu ist das freilich nicht. Prinzipiell ist die Upload-Prävention nichts anderes als Client-Side-Scanning (CSS). Bürgerrechtler und Wissenschaftler monieren seit Langem, dass dabei jeder verschlüsselte Chat auf den Endgeräten durchsucht werde und bei Verdachtsmeldungen eine Intervention erfolge.
Sorge vor allgemeiner Überwachungsinfrastruktur
Den CSS-Gegnern zufolge schafft die einmalige Implementierung eines lokalen Scan-Tools eine technische Infrastruktur für Überwachung. Selbst wenn es zunächst „nur“ für CSAM verwendet werde, könnte die Funktion von Regierungen künftig auf andere Inhalte ausgeweitet werden. Ein Mechanismus, der auf den Geräten von Milliarden von Nutzern installiert ist, wird als „Hintertür für alle“ und potenzielles Zensurwerkzeug verstanden.
Echte Ende-zu-Ende-Verschlüsselung basiert zudem auf dem Vertrauen, dass die App auf dem Gerät des Nutzers niemals Inhalte ohne dessen Wissen oder Einwilligung für den Dienstanbieter scannt. Eine obligatorische Durchleuchtung untergräbt diese Verlässlichkeit und die Integrität des Systems. Kryptografen warnen, dass eine gescannte Nachricht nicht mehr als wirklich E2EE-verschlüsselt betrachtet werden kann.
Bei den Hash-Listen besteht ferner immer ein Risiko für fälschliche Treffer (False Positives). Ein solcher könnte zur Blockade eines legitimen Bildes und schlimmstenfalls zur unbegründeten strafrechtlichen Verfolgung eines Nutzers führen. Dazu kommt der Einwand, dass die Hash-Listen selbst Ziel staatlicher oder krimineller Manipulation werden könnten. Eine Technologie zur verpflichtenden Überprüfung des Inhalts auf dem Gerät des Nutzers komme einem „Überwachungsschlüssel“ gleich, der universell verwendet werden könnte.
Nicht belastbare Versprechen
Upload-Prävention „klingt zwar erst einmal gut“, sagt der Bremer Informationsrechtler Dennis-Kenji Kipker heise online. Sie setze jedoch voraus, dass diese Inhalte schon auf bestimmten „Meldelisten“ vorhanden seien. Eine Verbreitung neuen Contents werde nicht verhindert. Gerade in Zeiten, in denen verstärkt KI-generiertes Material in Umlauf komme, sei die Effektivität zweifelhaft. Zudem beziehe eine solche Methode Strafverfolger nicht ein, gibt der Professor zu bedenken. Wichtiger wäre es, „echte Alternativen zum digitalen Kinderschutz auf den Weg zu bringen, statt „fachlich nicht belastbaren technischen Versprechen zu folgen“. Generell könne durch CSS die geschützte digitale Kommunikation kompromittiert werden.
Doch die andere Seite lässt nicht locker und verweist auf Erfolge auf Basis bislang erfolgter Meldungen: „IJM konnte bereits über 1300 Betroffene in Sicherheit bringen“, betont ein Sprecher der Schutzorganisation gegenüber heise online. „Die Fälle dokumentieren deutlich, wie wichtig es ist, dass Safety-by-Design auf Geräten und Plattformen umgesetzt wird.“
KI-Systeme wie Safer von Thorn und Google Content Safety API erreichten über 90 Prozent Genauigkeit bei nur 0,1 Prozent Fehlalarmrate, hebt der IJM-Sprecher hervor. Selbst das wäre zwar inakzeptabel, wenn alle False Positives zu Meldungen führten. Anders stelle sich die Sache aber dar, wenn „nur“ die Übertragung verhindert werde. Selbst der „unvollkommene“ jüngste Vorschlag der dänischen Ratspräsidentschaft habe zudem „detaillierte Mechanismen“ enthalten, um vorzubeugen, dass Regierungen den Ansatz auf andere unliebsame Inhalte erweitern.
Die Missbrauchsbeauftragte mischt mit
Die von Hollywood-Star Ashton Kutcher mitgegründete Einrichtung Thorn galt lange als treibende Lobbykraft hinter dem Verordnungsentwurf. Die Kommission beteuerte, dass ihr diese US-Stiftung „lediglich Fachwissen zur Verfügung gestellt und nicht versucht“ habe, auf die Gesetzesinitiative Einfluss zu nehmen. Das stimme nicht, hielt die EU-Bürgerbeauftragte voriges Jahr dagegen. Auch „die Geschäftsstrategie für den Einsatz von Thorn-Produkten“ wie den Filter „Safer“ sei Thema gewesen.
Das Programm ist darauf ausgelegt, auf Basis von Microsofts PhotoDNA Darstellungen sexuellen Kindesmissbrauchs durch einen Abgleich mit Hash-Werten von Bildern und Videos in Datenbanken bekannter einschlägiger Aufnahmen zu erkennen. Die Brüsseler Exekutivinstanz verließ sich einfach auf die Aussagen von Thorn und anderer großer US-Hersteller von Filterlösungen zu den vermeintlichen Trefferquoten, die sich aber als unhaltbar erwiesen.
Derweil bringt die Bundesbeauftragte gegen Kindesmissbrauch, Kerstin Claus, das „Framing der sogenannten anlasslosen Chatkontrolle“ auf die Palme. Es handle sich um einen „Kampfbegriff“, über den „jede sachliche Debatte im Keim erstickt“ werde, rügte sie gegenüber Politico. Es sollten nicht die Chats aller Bürger gelesen werden, sondern mit Richtergenehmigung ein automatisierter Abgleich mit bekannten Missbrauchsdarstellungen erfolgen. Das werde allenfalls „spezifische Chatgruppen oder Teildienste betreffen, die zuvor als Risikobereiche identifiziert wurden“. Und auch Hany Farid, Mitentwickler von PhotoDNA, wirbt weiter kräftig für den breiten Einsatz der Lösung.
(emw)
Künstliche Intelligenz
Hubble erfasst Kollision von zwei Himmelskörpern in relativ nahem Sternsystem
Das Weltraumteleskop Hubble hat mutmaßlich den Zusammenprall zweier Himmelskörper im System des Sterns Fomalhaut detektiert – und das schon zum zweiten Mal in zwei Jahrzehnten. Wissenschaftler glaubten bisher, dass solche Ereignisse deutlich seltener stattfinden.
Weiterlesen nach der Anzeige
Fomalhaut ist ein Stern im Sternbild Piscis Austrinus oder Südlicher Fisch und einer der hellsten Sterne am Himmel. Der nur etwa 25 Lichtjahre entfernte Stern ist mit 440 Millionen Jahren noch vergleichsweise jung – die Sonne ist etwa 4,57 Milliarden Jahr alt. Fomalhaut gehört mit zwei Zwergsternen einem Dreifachsystem an, das von Staubringen umgeben ist, in denen Planeten entstehen.
2004 und 2006 entdeckten Astronomen ein Objekt in einem dieser Gürtel, das sie für einen Exoplaneten hielten und das sie als Fomalhaut B bezeichneten. 2023 wollten sie den Planeten erneut mit dem Hubble-Teleskop betrachten, stellten aber fest, dass er nicht dort war, wo sie ihn erwarteten.
Sie fanden aber einen Lichtpunkt an einer anderen Stelle, nahe der ersten. Beim Vergleich der Bilder habe sich jedoch gezeigt, dass die beiden Lichtpunkte nicht aus derselben Quellen stammen konnten, sagte Jason Wang von der Northwestern University. Sie haben Fomalhaut b umbenannt in Fomalhaut Circumstellar Source 1 (CS1), der zweite Lichtpunkt hat die Bezeichnung Fomalhaut CS2 bekommen.
Kollision von Planetesimalen
Die Forscher erklären das Auftreten und das Verschwinden der Lichtpunkte als Trümmerwolken, die durch die Kollision von Planetesimale, also Bausteinen von Planeten, entstanden. Aus der Helligkeit der Lichtpunkte CS1 und CS2 schlossen sie, dass die kollidierten Objekte selbst um die 60 Kilometer groß gewesen sein müssen – und damit zu klein, um selbst auf den Bildern des Weltraumteleskops sichtbar zu sein. Die sich ausbreitenden Trümmerwolken hingegen werden vom Zentralgestirn angeleuchtet.
„Eine neue Lichtquelle im Staubgürtel, um einen Stern zu entdecken, hat uns überrascht. Das hatten wir nicht erwartet“, sagte Wang. „Unsere Hypothese ist, dass wir innerhalb von zwei Jahrzehnten zwei Kollisionen von Planetesimalen – kleinen Gesteinsobjekten, ähnlich wie Asteroiden – beobachtet haben. Kollisionen von Planetesimalen sind sehr seltene Ereignisse, und das ist das erste Mal, dass wir eine außerhalb unseres Sonnensystems gesehen haben.“
Die Forscher waren zudem erstaunt, dass sie in etwa 20 Jahren gleich zwei solcher Kollisionen beobachtet haben: „Laut der Theorie sollte eine solche Kollision einmal in 100.000 Jahren oder noch seltener auftreten“, sagte Paul Kalas, Astronom an der University of California in Berkeley und Erstautor der Studie in der Fachzeitschrift Science. Die zwei Sichtungen in 20 Jahren könnten seiner Ansicht nach Zufall gewesen sein, oder die theoretischen Modelle müssten angepasst werden.
Weiterlesen nach der Anzeige
Die Forscher wollen das Fomalhaut-System künftig mit dem James-Webb-Weltraumteleskop betrachten und erhoffen sich davon neue Erkenntnisse über CS 2 sowie über die Beschaffenheit der kollidierten Planetesimalen – und möglicherweise auch, neue Kollisionen zu beobachten.
(wpl)
Künstliche Intelligenz
Windows: Weshalb bootende USB-Datenträger maximal 2 TByte groß sein dürfen
USB-Datenträger größer 2 TByte sind längst Realität, und solange es nur darum geht, Dateien von A nach B zu transportieren, stellen sie unter Windows kein Problem dar. Meist sind solche Laufwerke schon ab Werk einsatzbereit und das Betriebssystem erkennt sie wie alle USB-Datenträger automatisch.
- Damit ein USB-Datenträger sowohl per UEFI als auch klassisch bootet, muss er mit dem antiken Partitionsschema MBR eingerichtet sein.
- Mit MBR können Sie nur maximal 2 TByte Platz partitionieren.
- GPT als Ersatz taugt nicht, weil dann nicht mehr alle PCs vom USB-Datenträger booten. Als Ergänzung funktioniert es auch nicht, weil es pro Datenträger nur ein Partitionsschema geben kann.
Anders sieht es aus, wenn Sie von so einem großen USB-Datenträger booten wollen, beispielsweise um Windows neu zu installieren, es mit dem c’t-Notfall-Windows zu reparieren oder um eine mit c’t-WIMage erzeugte Sicherung wiederherzustellen. Wobei von „wollen“ ja eigentlich keine Rede sein kann, denn wer will so etwas schon? Eigentlich soll der PC ja ganz andere Aufgaben erledigen. In so einer Situation würde es ganz besonders nerven, wenn das Booten vom USB-Datenträger scheitert. Weil es dann meist nicht mal Fehlermeldungen gibt, beginnt das Rätselraten: Liegt es am USB-Datenträger? Am USB-Anschluss? An der BIOS-Konfiguration? Am Bootloader? An noch etwas anderem? Noch verzwickter wird es, wenn das Booten an einem PC gelingt und am anderen nicht, und das ohne ersichtlichen Grund. Wieso das denn?
Ganz verhindern lassen sich solche Probleme zwar nicht, doch die Wahrscheinlichkeit, dass sie auftreten, lässt sich deutlich reduzieren, wenn der USB-Datenträger richtig eingerichtet ist. Dazu müssen Sie den nutzbaren Platz allerdings auf 2 TByte einschränken.
Das war die Leseprobe unseres heise-Plus-Artikels „Windows: Weshalb bootende USB-Datenträger maximal 2 TByte groß sein dürfen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
iX-Workshop: Microsoft 365 gegen Angriffe absichern
Mit Microsoft 365 hat Microsoft die Verwaltung von Benutzern, Lizenzen und Berechtigungen in die Cloud verlagert. Unternehmen profitieren von der zentralen Verwaltung ihrer Dienste wie Office-Anwendungen, E-Mail, Teams und SharePoint Online. Allerdings müssen diese Ressourcen auch effektiv geschützt werden.
Weiterlesen nach der Anzeige
Im zweitägigen Workshop M365 absichern: Bedrohungen kennen und Angriffe verhindern beschäftigen sich IT-Sicherheitsverantwortliche und Administratoren mit der sicheren Konfiguration und dem sicheren Betrieb von Microsoft 365. Der Schwerpunkt liegt auf der technischen Absicherung der Tenants und der darin verwalteten Identitäten, behandelt typische Angriffe und Schutzmaßnahmen, Sicherheitschecks und Audit-Tools für AD- und M365-Umgebungen sowie Logging/Monitoring mit Microsoft Sentinel. Ihr Trainer Christian Biehler zeigt typische sicherheitsrelevante Herausforderungen bei der Einführung und dem Betrieb von M365 und macht die Teilnehmenden mit den Tools vertraut, die M365 selbst zu diesem Zweck mitbringt.
|
Januar 22.01. – 23.01.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 25. Dez. 2025 |
|
November 30.11. – 01.12.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 02. Nov. 2026 |
Christian Biehler ist Sicherheitsspezialist im Bereich Windows-Ökosysteme, sowohl on-prem mit Clients, Servern und Active Directory als auch in der Microsoft Cloud mit Entra ID und M365.
Microsoft 365 und Compliance
Geht es Ihnen vorrangig um den Datenschutz- und Compliance-konformen Betrieb von Microsoft 365? Dann empfehlen wir Ihnen unseren Tagesworkshop M365: Baselines für Tenant Settings, Informationssicherheit und Datenschutz.

(ilk)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
