Connect with us

Datenschutz & Sicherheit

Signal sichert seine Chats gegen Quantencomputer


Der Messenger Signal hat ein neues Schlüsselaustauschprotokoll für seinen Kommunikationsdienst vorgestellt. „SPQR“ soll Nachrichten auch vor Angreifern mit Quantencomputern schützen und ergänzt das von Signal etablierte Double-Ratchet-Verfahren um eine dritte Komponente, weshalb die Entwickler nun von „Triple Ratchet“ sprechen.

SPQR steht nicht für den Senat und das Volk von Rom, sondern für „Sparse Post-Quantum Ratchet“. Als Post-Quanten-Verfahren bezeichnet man kryptografische Protokolle, die herkömmliche Computer ausführen können, die aber – nach aktuellem Stand der Wissenschaft – auch von Quantencomputern nicht zu knacken sind. Aktuell gibt es zwar keine Quantencomputer, die ansatzweise das Potenzial hätten, übliche Verschlüsselungs- und Signaturverfahren zu attackieren. Aber man fürchtet sich von „Harvest now, decrypt later“-Angriffen. Verschlüsselte Daten könnten heutzutage mitgeschnitten werden, um sie in Zukunft, wenn (und falls) Quantencomputer zur Verfügung stehen, zu entschlüsseln.

Signal nutzt schon seit Längerem das Post-Quanten-Protokoll PQXDH (Post-Quantum Extended Diffie-Hellman), doch dieses dient nur dem initialen Schlüsselaustausch beim Start einer Konversation. SPQR erzeugt dagegen neue Schlüssel in laufender Kommunikation, ähnlich den beiden existierenden „Ratchets“, die jedoch nicht sicher vor Quantencomputern sind.

Diese „Ratschen“ sind Komponenten des Protokolls, die sich sinnbildlich nur in eine Richtung drehen lassen: Chatteilnehmer können damit laufend neue Schlüssel erzeugen, aus denen sich jedoch keine Rückschlüsse auf ältere Schlüssel ziehen lassen. Dadurch können Angreifer in der Vergangenheit aufgezeichnetes Chiffrat nicht entschlüsseln, selbst wenn sie einen (oder beide) Chatpartner kompromittieren und die aktuellen geheimen Schlüssel erbeuten; eine Eigenschaft, die man „Forward Secrecy“ nennt.

Ferner bieten Signals Ratschen „Post-compromise security“: Weil die Geräte von Gesprächspartnern Schlüssel auch interaktiv aushandeln, kann sich die Kommunikation von der Kompromittierung der Chatteilnehmer erholen und zukünftige Nachrichten wieder sicher verschlüsseln. Der Angreifer fliegt sozusagen aus der Leitung, solange er keinen dauerhaften Zugriff auf die Schlüssel der betroffenen Geräte hat. Eine solche Selbstheilung nach einer temporären Kompromittierung ist unter anderem relevant, wenn Angreifer Backups erbeuten. Diese verschaffen ihnen Zugriff auf die zum Backup-Zeitpunkt genutzten Schlüssel. Damit können sie einige von ihnen aufgezeichnete Nachrichten entschlüsseln, auch wenn die Nachrichten aus den Chats gelöscht und nicht im Backup enthalten sind. Doch weil Signals bisherige „asymmetrische Ratsche“ und in Zukunft auch SPQR in der weitergehenden Konversation neue Schlüssel aushandeln, werden die vom Angreifer erbeuteten Schlüssel irgendwann obsolet. Anschließend ist die Kommunikation wieder sicher.

SPQR ersetzt die asymmetrische Ratsche nicht, sondern kommt zusätzlich zu ihr. Das liegt unter anderem an einer Hürde, die sehr viele Post-Quanten-Verfahren aufweisen: Ihre Schlüssel sind groß, in Signals Fall über ein Kilobyte. Das ist nicht nur sehr viel im Vergleich zu den 32-Byte-Schlüsseln der klassischen asymmetrischen Ratsche, sondern auch sehr viel im Vergleich zur Größe einer typischen Textnachricht. Daher etabliert SPQR nicht mit jedem Richtungswechsel der Kommunikation sofort einen neuen Schlüssel (wie es die klassische asymmetrische Ratsche macht). Stattdessen verteilt SPQR seine Schlüssel über mehrere Nachrichten und hält so den Overhead gering.

Das Protokoll teilt die Schlüssel allerdings nicht einfach in n Teile, sondern nutzt Erasure Codes, um Schlüsselfragmente zu kodieren. Auf diese Weise kann der Empfänger den neuen Schlüssel nutzen, sobald er n Nachrichten mit Schlüsselteilen empfangen hat, egal welche n Nachrichten es sind. Angreifer können daher neue Schlüssel nicht verhindern, indem sie die meisten Nachrichten passieren lassen, aber beispielsweise jede n-te Nachricht blockieren.

In einseitigen Chats, in denen ein Gesprächspartner sehr viel mehr Nachrichten sendet als der andere, löst aber auch diese Aufteilung nicht alle Probleme: Der schweigsame Partner behindert schnelle Schlüsselwechsel, die der gesprächige Chatter gut gebrauchen könnte. Signal modifiziert daher das zugrundeliegende Post-Quanten-Verfahren ML-KEM 768, damit Gesprächspartner schneller selbst Schlüsselfragmente erzeugen und übertragen können und nicht warten müssen, bis sie alle n Fragmente des Gegenübers erhalten haben. Das resultierende inkrementelle Verfahren nennt Signal „ML-KEM Braid“ und hat es als eigenes Protokoll dokumentiert.

SPQR und seine Komponenten sind komplexe Verfahren, deren Sicherheitseigenschaften durch Design- wie auch Implementierungsfehler gestört werden können. Ersteres versucht Signal, durch Peer-Review zu verhindern. Die Entwickler verweisen dazu auf zwei Paper bei den einschlägigen Konferenzen Eurocrypt und USENIX, die Teilaspekte des Protokolls präsentieren. Implementierungsfehler will Signal durch aufwendige formale Verifikation vermeiden: Der in Rust geschriebene Code von SPQR wird kontinuierlich und automatisiert in die Sprache F* übersetzt und dann formal verifiziert. F* ist eine funktionale, „beweisorientierte“ Sprache, die sich gut für automatisierte Beweise eignet. So will Signal bei jedem Update des Codes sichergehen, dass die Software nach wie vor alle Annahmen, Randbedingungen und Garantien von SPQR aufrechterhält.

Außerdem beschreibt Signal im Blogpost zu SPQR, wie das Protokoll verteilt werden soll: Initiale SPQR-Daten verschickt der Messenger so, dass ältere Signal-Versionen, die damit nichts anfangen können, die Daten ignorieren. Allerdings erfasst die etablierte Nachrichtenauthentifizierung sehr wohl die Daten, sodass Angreifer sie nicht einfach entfernen und so den Chat SPQR-frei halten können. Neue Clients erlauben am Beginn einer Konversation ein Downgrade: Wenn der Partner kein SPQR spricht, kommt das Protokoll nicht zum Einsatz. Downgrade-Attacken, die solch ein Verhalten ausnutzen, will Signal vermeiden, indem der Messenger das Downgrade nur bei Beginn einer Konversation erlaubt. Wenn SPQR einmal aktiviert ist, muss es weiter genutzt werden. Wenn SPQR-fähige Clients sich ausreichend weit verbreitet haben, will Signal mit einem weiteren Update die Downgrade-Option entfernen und SPQR für alle Chats erzwingen. Verbleibende Chats ohne SPQR sollen dann archiviert werden.

Viele weitere Details zum Protokoll (und einige letztlich verworfene Ideen) stehen in Signals ausführlichem Blogpost zu SPQR. Auch Forscher der Firma PQShield, die an der Protokollentwicklung beteiligt waren, haben über ihre Arbeit an SPQR gebloggt.


(syt)



Source link

Datenschutz & Sicherheit

„Total unausgegoren und technisch nicht tragfähig“


In der Europäischen Union liegt der Vorschlag der dänischen EU-Ratspräsidentschaft zur Chatkontrolle auf dem Tisch. Die deutsche Position dazu ist bedeutsam, da die Zustimmung zum Gesetz maßgeblich von dieser abhängt. Die deutsche Bundesregierung muss sich vor dem 14. Oktober auf eine Position einigen. Denn dann wird im EU-Rat über den Vorschlag abgestimmt.

Der dänische Vorschlag sieht eine verpflichtende Chatkontrolle vor. Sie soll Anbieter von Messaging- und anderen Kommunikationsdiensten die Anforderung aufbrummen, in den Nachrichten der Nutzer nach Missbrauchsfotos und -videos zu scannen. Dann sollen die Betreiber der Dienste die Nutzer-Nachrichten auf diese Inhalte untersuchen. Werden verdächtige Inhalte detektiert, wird der Nutzer der Polizei gemeldet. Soweit jedenfalls der Plan, doch der Teufel steckt im Detail.

Die Idee der Chatkontrolle wird stark und breit kritisiert, vor allem wegen der erheblichen Grundrechtseingriffe und auch wegen der weitreichenden Folgen für Whistleblower und Journalisten. Sie beinhaltet mit hoher Wahrscheinlichkeit ein Client-Side-Scanning auf Nutzergeräten. Das bedeutet, dass die Inhalte von Nachrichten direkt auf dem Gerät des Nutzers gescannt würden, noch bevor diese versendet und verschlüsselt werden.

Wir haben über die Chatkontrolle mit Klaus Landefeld, Vorstand im IT-Branchenverband „eco“, gesprochen. Der Verband engagiert sich als Partner bei INHOPE schon viele Jahre erfolgreich bei der Identifizierung und Entfernung von Kindesmissbrauchsmaterial aus dem Internet.

„Völlig falscher Weg“

Klaus Landefeld
Klaus Landefeld.

netzpolitik.org: Klaus Landefeld, wie ist die Position des eco zu den Chatkontrolle-Plänen?

Klaus Landefeld: Wir haben uns seit 2022 immer dagegen ausgesprochen. Dieser neue, noch verschlimmerte Ansatz, der momentan von Dänemark in den Raum gestellt worden ist, wird von uns rundweg abgelehnt. Wir halten Chatkontrolle für einen völlig falschen Weg.

Wir betreiben ja eine Beschwerdestelle und sind daher permanent mit Strafverfolgungsbehörden zusammen in der Bekämpfung von CSAM-Inhalten aktiv. Aber verpflichtendes Scanning für quasi jegliche Kommunikation, vor allem das Client-Side-Scanning, halten wir für einen falschen Weg, weil er die Sicherheit von allen untergräbt.

netzpolitik.org: Welche Belastungen kämen eigentlich auf Unternehmen zu, wenn tatsächlich eine verpflichtende Chatkontrolle vorgeschrieben würde?

Klaus Landefeld: Das kommt auf die technischen Ausprägungen an: Also was genau müsste gescannt werden, wie funktioniert das technisch? Auch die Fragen danach müssten geklärt sein, ob alle Dienste betroffen wären, also ob beispielsweise auch E-Mail, Chats oder verschlüsselte Messenger-Apps darunterfallen. Es müssten auch die Details um die Frage geklärt sein, ob man „nur“ nach bekannten Inhalten oder auch nach neuen Inhalten scannt. Das ist ein ganz elementarer Punkt, weil mit dem Scannen nach bisher unbekannten Inhalten insbesondere auch jede Form von ganz persönlichen Bildern oder Familienfotos in die Datenbanken und die vorgeschlagenen KI-Systeme reingegeben würden.

netzpolitik.org: Was kann man zur Qualität der Software sagen, die CSAM-Inhalte erkennen soll?

Klaus Landefeld: Womit wir ein großes Problem haben, sind die Fehlerquoten. Um das ganz klar zu sagen: Zum Scanning sollen KI-Systeme verwendet werden, die bei allen Tests, die wir machen konnten, viele Fehler produzieren. Auch in unserer Beschwerdestelle werden dazu regelmäßig Tests gemacht. Denn wir prüfen dort regelmäßig: Was bringen KI-Systeme für die Bewertung von Beschwerden? Und wir sehen immer wieder: Nein, diese Systeme funktionieren nicht, sie funktionieren vor allen Dingen nicht in der nötigen Qualität, zumindest Stand heute. Deswegen halten wir den Vorschlag auch für total unausgegoren und technisch nicht tragfähig.

Interviews

Wir kommen gern ins Gespräch. Unterstütze unsere Arbeit!

netzpolitik.org: Was sind das für „KI-Systeme“, die zum Einsatz kommen? Was sollen die leisten?

Klaus Landefeld: Es sollen Systeme zum Einsatz kommen, die tatsächlich Inhalte erkennen. Sie sollen auch neue Inhalte bewerten und bestimmen, was auf Bildern gezeigt wird. Dafür kann man KI-Systeme trainieren, sie sollen beispielsweise erkennen: Auf dem Bild sind drei Leute oder fünf Leute, da sind Kinder dabei, die Leute haben Kleidung oder keine Kleidung an.

Das heißt aber auch: Die Familienbilder vom nächsten Urlaub oder Bilder von einem FKK-Strand könnten einen Verdacht auslösen. Aus meiner Sicht ist das eine gefährliche Idee. Eine ähnliche Diskussion haben wir bei der automatischen Bewertung des Alters im Bereich Social-Media-Nutzung: Können KI-Systeme durch ein Bild einer Person wirklich verlässliche Aussagen darüber machen, wie alt jemand ist? Das ist gerade in den Grenzbereichen, wo es um die Frage geht, ist jemand 14, 16 oder 18 Jahre, alles andere als zuverlässig. Es gibt keine klare Bewertung, ob jemand 18 ist oder vielleicht noch 17 oder 19 Jahre. Das funktioniert einfach momentan nicht.

netzpolitik.org: Kann solche Software das in absehbarer Zeit leisten?

Klaus Landefeld: Im Moment mit Sicherheit noch nicht. Das wird wahrscheinlich noch geraume Zeit so bleiben. Wir testen reale Systeme, die momentan existieren. Das sind Systeme, die heute von den Anbietern genutzt werden können, die uns auch angeboten werden. Dazu untersuchen wir den Stand der Forschung. Und da kommt immer wieder das Ergebnis heraus: Nein, diese Systeme sind im Moment nicht tragfähig genug, dass das funktioniert.

Parallel zu der CSAM-Diskussion haben wir wie schon erwähnt die gleichen Fragen bei Altersnachweisen bei Social-Media-Nutzung. Es wäre völlig absurd, wenn wir in diesem Bereich zu der Aussage kämen, dass eine vernünftige Bewertung durch Software nicht möglich ist, und bei der Chatkontrolle zum Schutz von Kindern soll das funktionieren.

Welche Grenzen überschritten werden

netzpolitik.org: Welche Bewertung kann eine Software heute leisten? Und was heißt das für die Chatkontrolle?

Klaus Landefeld: Heutige Systeme können relativ gut beurteilen, ob ein abgebildetes Kind sechs oder sieben Jahre alt ist oder vielleicht 16 oder 17 Jahre. Diesen Unterschied können die Systeme schon erkennen. Aber bei neuen Inhalten, also bei bisher unbekannten Inhalten muss man sich fragen: Wenn sich Menschen innerhalb der Familie zum Beispiel Bilder zuschicken, sollen dann irgendwelche KI-Systeme in diese privaten Bilder reingucken? Das ist für mich ein absolutes No-Go, denn das verletzt die Grundrechte. Wir haben einen festgeschriebenen Schutz von privater Kommunikation, und über nichts anderes reden wir hier. Denn die Chatkontrolle soll auch für individuelle Ende-zu-Ende-Kommunikation von Menschen eingeführt werden. Das ist das, wo für mich die Grenze überschritten ist.

netzpolitik.org: Ist nicht noch eine weitere Grenze überschritten? Wir reden doch eigentlich auch über Eingriffe in den Kernbereich der privaten Lebensgestaltung, also in die Intimsphäre, die in Deutschland besonders geschützt ist.

Klaus Landefeld: Das sehe ich ganz genau so. Wir haben zum Beispiel bei der Wohnraumüberwachung oder Telekommunikationsüberwachung Vorschriften, dass Ermittler aufhören müssen zuzuhören, wenn Gespräche in den Kernbereich privater Lebensgestaltung gehen. Das gehört zum Kernbereichsschutz, den wir in Deutschland haben. Interessanterweise ist das in Europa schwierig zu diskutieren, weil es diesen Kernbereichsschutz in den meisten Ländern nicht gibt.

Warum ist Chatkontrolle so gefährlich für uns alle?

netzpolitik.org: Wie könnte denn bei der Chatkontrolle technisch vorgegangen werden?

Klaus Landefeld: Bei elektronischer Kommunikation, wie wir sie heute mit Messengern haben, wird typischerweise Ende-zu-Ende-Verschlüsselung eingesetzt. Sie soll nicht untergraben werden. Das wird immer wieder betont. Das heißt: Es bleibt nur Client-Side-Scanning übrig. Das wiederum heißt: Wir haben auf unseren Geräten eine Spionagesoftware, die jede Form von Bildern scannt, die wir übertragen und an jemand anderen schicken. Die Bilder werden von einer Software im Hintergrund abgeglichen. Damit kann ich mich nicht anfreunden.

Das Problem beim Client-Side-Scanning

netzpolitik.org: Was für IT-Sicherheitsprobleme sind damit verbunden?

Klaus Landefeld: In dem Moment, wo ich Verschlüsselung durchbrechen wollte, damit das Scanning beim Anbieter stattfindet, ist völlig klar: Ich habe die Sicherheit geschwächt. Ich habe sogar die IT-Sicherheit in großem Stil untergraben.

Beim Client-Side-Scanning ist das Problem aus meiner Sicht ein bisschen anders gelagert. Natürlich könnte ich Software produzieren, bei der ich kein IT-Sicherheitsproblem im klassischen Sinne schaffe: Daten würden damit durchsucht, ähnlich wie etwa bei einem Virenscanner. Ein Virenscanner ist kein Sicherheitsproblem …

netzpolitik.org: … kann aber zu einem werden, wenn er selbst Sicherheitslücken enthält oder fehlerhaft bestückt wird.

Klaus Landefeld: Das ist genau das Thema. Denn das ist nämlich genau die Frage: Nach was suche ich eigentlich? Und wer kontrolliert, nach was ich suche? Das ist ein administratives Problem. Denn zu dem eigentlichen IT-Sicherheitsproblem kommt die Frage dazu: Wie kann ich denn sicherstellen, dass dieses Scanning nur geordnet abläuft?

Die administrative Kontrolle wird gar nicht diskutiert

netzpolitik.org: Welche Fragen stellen sich, wenn ein Client-Side-Scanning verpflichtend würde?

Klaus Landefeld: Die erste Frage wäre: Wer kontrolliert denn, wer das Client-Side-Scanning benutzen darf? Und es kommen weitere Fragen dazu: Wer darf Anforderungen stellen? Wer darf Daten einstellen, nach denen gescannt wird? Wer stellt wie sicher, dass nur etwas, was im Sinne dieser Verordnung ist, gescannt wird und nicht nach ganz anderen Inhalten?

Es ist jetzt schon völlig klar: Da werden auch Daten von Ländern eingestellt werden, von denen wir uns das vielleicht nicht wünschen. Denn Staaten, von denen wir das nicht wollen, müssen wir auch mit an Bord nehmen, denn ansonsten werden diese den Einsatz dieser Software verbieten. Polizeien dieser Staaten haben auch Muster, nach denen sie suchen wollen. Das sind vielleicht Inhalte, wo wir sagen würden, das wollen wir gar nicht.

Doch die administrative Kontrolle wird in diesem ganzen Vorschlag gar nicht richtig diskutiert. Wer stellt da eigentlich was ein? Wer kontrolliert, was wie reinkommt?

netzpolitik.org: Alternativ wurde ja auch eine freiwillige Chatkontrolle für Internet-Dienste diskutiert, die von der vergangenen dänischen EU-Ratspräsidentschaft ins Spiel gebracht worden war. Wäre das eine bessere Option?

Klaus Landefeld: Die Frage ist natürlich, wer das freiwillig umsetzt. Größere Dienste würde man wahrscheinlich über die Plattformregulierung angehen und sie verpflichten, wenn sie sehr groß sind. Für kleine und mittlere Unternehmen wäre Freiwilligkeit erstmal ein Schritt in die richtige Richtung, weil insbesondere die kleineren eine Chatkontrolle nicht umsetzen müssten.

Aber Freiwilligkeit wird in dieser Form nicht kommen, weil diese Systeme sehr aufwendig sind. Allein der Betrieb der Datenbanken hintendran, aber auch das Einführen dieser Technologien in die unternehmenseigene Software ist sehr aufwendig und für kleine mittelständische Unternehmen gar nicht zu leisten. Ich erinnere mich an Vorschläge im Jahr 2022, wo Anbieter wie Google gesagt haben, dass Dritte ihre Datenbanken von CSAM-Inhalten auch benutzen könnten. Denn klar war: Kleinere Unternehmen können diese Datenbanken gar nicht bereitstellen. Ein Ansatz der Freiwilligkweit mitigiert das Problem und macht es vielleicht besser erträglich, bietet aber keine Lösung.

Dazu kommt: Erwartet man dann von Anwendern, dass sie sich überlegen: Nutze ich jetzt einen Anbieter, der scannt, oder einen Anbieter, der nicht scannt? Das kann ja nicht die Lösung sein. Denn die Privatheit der Kommunikation sollte und muss bei allen Anbietern geschützt sein.

netzpolitik.org: Ist in Europa einheitlich definiert, welche Inhalte unter eine Chatkontrolle fallen würden?

Klaus Landefeld: Nein, es gibt beispielsweise Unterschiede bei der sog. Jugendpornographie oder auch beim Cyber Grooming. Es ist zwar völlig klar, dass sog. Kinderpornographie überall strafbar ist. Aber es gibt viele Graubereiche und sehr unterschiedliche Gesetze. Das ist natürlich ein Problem, denn nach welchem Standard sollen sich Anbieter dann richten? Wenn etwa zwei Personen miteinander kommunizieren, die in zwei unterschiedlichen Ländern sind, was ist dann das anzuwendende Rechtssystem? Und das betrifft nur die Frage, um welche Inhalte es eigentlich geht. Eine zweite Frage wäre, was melde ich weiter?

Ein Recht, das in der Praxis überhaupt nicht funktioniert

netzpolitik.org: Die Strafverfolgungsbehörden sollen ja Verdachtsfällen nachgehen. Wie könnte das technisch ablaufen?

Klaus Landefeld: Im Prinzip wäre es ja eine Entlastung des Anbieters: Verdachtsfälle werden an Strafverfolgungsbehörden gemeldet, die müssten dann tätig werden oder müssten Materialien einsehen. Doch da sind noch technische Fragen, die vorher geklärt werden müssen: Wie kommen die Strafverfolgungsbehörden denn eigentlich an dieses Material ran?

Wenn man sich praktisch vorstellt, man hätte jetzt ein Verdachtsfall aus privater Kommunikation. Es soll ja eigentlich so sein, dass das verdächtige Originalbild gar nicht beim Anbieter landet, sondern seine Software das erkennt und als Verdachtsfall meldet. Doch was passiert dann? Das ist genau der Punkt. Das Ganze ist ja nicht verbunden mit irgendeiner Speicherverpflichtung. Die Frage, was eigentlich aus so einem Verdachtsfall wird, ist völlig ungeklärt.

Man will ein Recht schaffen, das in der Praxis in dieser Form überhaupt nicht funktionieren würde, völlig unabhängig von allen Rechtsfragen. Denn rein technisch würde das in dieser Form nicht funktionieren können, ohne dass man wieder Inhalte speichert und weitergibt. Und das wäre der absolute Super-GAU: Wenn Inhalte privater Kommunikation wegen eines automatisch von KI erzeugten Verdachtsfalls gespeichert und weitergegeben würden.

netzpolitik.org: Im aktuellen Vorschlag zur Chatkontrolle sind ja auch Scans nach bisher unbekanntem Material vorgesehen. Wie realistisch ist das?

Klaus Landefeld: Für Verdachtsfälle aus neuem Material ist die Automatisierung sehr schwierig. Das sind Phantasievorstellungen, wie so etwas ablaufen könnte, die mit der Realität und mit dem, was tatsächlich von den Systemen heute geleistet werden kann, nichts zu tun haben.

Wir haben Mitarbeiter in unserer Beschwerdestelle, die jeden Tag mit dieser Materialform zu tun haben. Wir veröffentlichen jedes Jahr einen Bericht darüber, zuletzt 2024. Es geht dabei um Meldungen, die natürliche Personen an die Beschwerdestelle gemeldet haben. Die Beschwerdestelle schaut sich die Inhalte an und bewertet, ob ein Straftatbestand erfüllt ist oder nicht. Die Quoten sind sehr gering, was dann tatsächlich an Strafverfolgungsbehörden weitergegeben wird. Um die 80 Prozent erfüllen tatsächlich keinen Straftatbestand. Wenn man sich überlegt, wie oft ein Verdacht an Strafverfolgungsbehörden automatisiert weitergegeben worden wäre, dann ist das ein absolutes Unding.

netzpolitik.org: Welche Größenordnungen von automatischen Meldungen landen heute bei den Strafverfolgungsbehörden?

Klaus Landefeld: Momentan haben wir im CSAM-Bereich sehr viele NCMEC-Meldungen aus den USA, mittlerweile über 100.000 Meldungen jedes Jahr. Für jeden Fall muss das BKA im Prinzip Ermittlungen einleiten, weit überwiegend machen die Ermittler das tatsächlich. Das geht dann alles zu den Anbietern, wir erhalten diese Anfragen ja als Anbieter von Internetzugängen. Das BKA sagt, dass im weit überwiegenden Fall keine Daten mehr da seien und man diese Anzahl im Prinzip gar nicht richtig verarbeiten kann. Die Anbieter sehen das etwas anders, denn oft mangelt es nur an der Qualität der Anfragen – so erhalten wir oft nur eine IP-Adresse statt der erforderlichen IP- und Port-Kombination.

Das führt heute schon dazu, dass die Kriminalitätsstatistik negativ verzerrt wird. Konkret hängt es an der absoluten Anzahl automatisierter Meldungen aus den USA und darauf resultierenden potentieller Ermittlungsverfahren. In Europa will man das im Prinzip nun kopieren: Es sollen automatisierte Meldungen bei Verdachtsfällen erfolgen, wo dann ermittelt werden soll. Das Problem ist: Wir haben eine riesengroße Black Box mit einer sehr niedrigen Aufklärungsquote. Wenn ich vorn noch viel mehr reinstopfe, ändere ich an der Aufklärungsquote erstmal gar nichts, sie sinkt sogar weiter ab.

netzpolitik.org: Was wäre der bessere Weg?

Klaus Landefeld: Die Herausforderung wäre eigentlich, die Aufklärungsquote zu erhöhen und sich zu überlegen, wie man tatsächlich vernünftig ermitteln könnte und nicht bereits überforderte Strafverfolgungsbehörden mit noch mehr Fällen zu überfordern, die im weit überwiegenden Fall zu nichts führen und noch nicht mal einen Straftatbestand erfüllen. Man müsste Maßnahmen ergreifen, die effektiv die Aufklärungsquoten verbessern – die hierzu notwendigen Ressourcen werden aber nicht bereitgestellt.

netzpolitik.org: Vielen Dank für das Gespräch!



Source link

Weiterlesen

Datenschutz & Sicherheit

Kinderschutzbund stellt sich gegen Chatkontrolle


Der Deutsche Kinderschutzbund stellt sich erneut gegen die EU-Pläne einer Chatkontrolle. Am 14. Oktober soll im EU-Rat über einen Vorschlag der dänischen Ratspräsidentschaft abgestimmt werden, der ein anlassloses Scannen privater Kommunikation von EU-Bürger:innen enthält. Dabei ist die Position der Bundesregierung entscheidend. Die beteiligten Ministerien sollen laut Informationen von netzpolitik.org und D64 am morgigen Dienstag über diese entscheiden.

Der mit 50.000 Einzelmitgliedern mitgliederstärkste Kinderschutzverband in Deutschland unterstützt grundsätzlich, dass die EU-Kommission Darstellungen sexualisierter Gewalt bekämpfen will. „Allerdings lehnen wir die Möglichkeit zum Scan verschlüsselter privater Kommunikation, die sogenannte Chatkontrolle, ab“, sagt Elena Frense, Fachreferentin für Medien und Digitales des Verbandes gegenüber netzpolitik.org.

„Zielgerichtete Maßnahmen statt anlassloser Überwachung“

Laut dem Verband setze die Chatkontrolle an der falschen Stelle an, da Darstellungen sexualisierter Gewalt in der Regel nicht über private Messenger, sondern File-Hosting-Dienste ausgetauscht würden. Der Verband lehnt die Chatkontrolle ab, „weil sie tief in die Privatsphäre aller eingreifen würde – auch in die von Kindern.“ Auch Kinder hätten ein Recht auf vertrauliche Kommunikation – wenn ihre Chats ohne Anlass überwacht werden, würden ihre Privatsphäre und ihre Grundrechte verletzt, so Frense weiter.

„Die Bundesregierung muss sich dafür einsetzen, dass Kinderschutz mit den Kinder- und Grundrechten vereinbar bleibt.“ Statt anlassloser Überwachung brauche es zielgerichtete Maßnahmen: Prävention, Aufklärung und klare Verpflichtungen für Anbieter: etwa verbindliche Sicherheitsauflagen, Risikoanalysen und den Scan unverschlüsselter Inhalte. „Zudem muss anlassbezogene Ermittlungsarbeit unter Nutzung existierender Ermittlungsbefugnisse ausgeweitet werden“, so die Sprecherin des Verbandes.

Zivilgesellschaft mobilisiert gegen die Chatkontrolle

Seit Jahren reden sich Hunderte von IT-Expertinnen und Sicherheitsforschern, Juristinnen, Datenschützern, Digitalorganisationen, Tech-Unternehmen, Messengern, UN-Vertretern, Kinderschützern, Wächterinnen der Internetstandards, Wissenschaftlerinnen weltweit den Mund gegen die Chatkontrolle fusselig. Eine unglaubliche Breite der Zivilgesellschaft lehnt die Chatkontrolle ab, weil sie die größte und gefährlichste Überwachungsmaschine Europas werden würde.

Das Bündnis „Chatkontrolle stoppen“ ruft derzeit dazu auf, für die Abstimmung relevante Personen und Organisationen zu kontaktieren. Das sind vor allem die an der deutschen Positionsfindung beteiligten Bundesministerien sowie die Fraktionen und Abgeordneten der Regierungsparteien im Bundestag. Am besten wirken direkte E-Mails und Telefonanrufe oder auch rechtzeitig ankommende Briefe. Auf der Website des Bündnisses gibt es Tipps und Adressen, um selbst aktiv zu werden.

Gleichzeitig hat das Bündnis eine Last-Minute-Petition gestartet, in der es die Bundesregierung auffordert, sich im EU-Rat gegen die Chatkontrolle zu stellen.



Source link

Weiterlesen

Datenschutz & Sicherheit

EU-Überwachungspläne: Last-Minute-Petition gegen Chatkontrolle gestartet


Das Bündnis „Chatkontrolle stoppen“ hat kurzfristig eine Petition gegen die Chatkontrolle gestartet. Sie richtet sich an Bundeskanzler Friedrich Merz sowie Innenminister Alexander Dobrindt, Justizministerin Stefanie Hubig sowie Digitalminister Karsten Wildberger. Die Bundesregierung soll laut Informationen von netzpolitik.org und D64 am Dienstag über die deutsche Position zur Chatkontrolle entscheiden. Über die Chatkontrolle soll am 14. Oktober in Brüssel im EU-Rat abgestimmt werden. Bislang hatte Deutschland nicht zugestimmt, das ist nun jedoch unsicher.

In der Petition heißt es unter anderem:

Wir fordern die Bundesregierung auf, die Chatkontrolle im EU-Rat klar abzulehnen. Sie muss verhindern, dass alle unsere privaten Nachrichten zukünftig ohne jeden Verdacht durchsucht werden dürfen. Deutschland muss am 14. Oktober mit „Nein“ stimmen und aktiv für den Schutz von Verschlüsselung eintreten. Die Chatkontrolle ist ein Angriff auf die Privatsphäre, auf sichere Kommunikation und auf die Grundprinzipien unseres demokratischen Rechtsstaats.

Mit der Chatkontrolle gäbe es keine vertrauliche Kommunikation mehr, so die zivilgesellschaftlichen Organisationen in der Petition. „Jede private Nachricht an Freund*innen, jedes Familienfoto, jedes Gespräch über Gesundheit, Politik oder intime Themen wird automatisiert gescannt.“ Was heute noch privat sei, würde morgen von Algorithmen ausgewertet. Dabei warnen die Initiatoren der Petition vor ungenauen Algorithmen, wodurch auch auch unproblematische Materialien an Strafverfolgungsbehörden weitergeleitet werden könnten.

Warum ist Chatkontrolle so gefährlich für uns alle?

Seit Jahren reden sich Hunderte von IT-Expertinnen und Sicherheitsforschern, Juristinnen, Datenschützern, Digitalorganisationen, Tech-Unternehmen, Messengern, UN-Vertretern, Kinderschützern, Wächterinnen der Internetstandards, Wissenschaftlerinnen weltweit den Mund gegen die Chatkontrolle fusselig.

Eine unglaubliche Breite der Zivilgesellschaft lehnt die Chatkontrolle ab, weil sie die größte und gefährlichste Überwachungsmaschine Europas werden würde.

Anruf- und Mailkampagne gegen die Chatkontrolle

Das Bündnis „Chatkontrolle stoppen“ ruft zudem dazu auf, die relevanten Personen und Organisationen zu kontaktieren. Das sind vor allem die beteiligten Bundesministerien sowie die Fraktionen und Abgeordneten der Regierungsparteien im Bundestag. Am besten wirken direkte E-Mails und Telefonanrufe, oder auch rechtzeitig ankommende Briefe. Auf der Webseite des Bündnisses gibt es Tipps und Adressen, um selbst aktiv zu werden.



Source link

Weiterlesen

Beliebt