Connect with us

Datenschutz & Sicherheit

„Schaufenster in die Zukunft der Polizeiarbeit“


In Hamburg sollen ab dem 1. September die Bewegungen von Menschen auf dem Hansa- und dem Hachmannplatz zum KI-Training genutzt werden. Dazu werden ihre Abbilder in eine Art Strichmännchen umgewandelt. Angeblich sind die personenbezogenen Daten so vollumfänglich geschützt. Dabei können tatsächlich auch nicht-anonymisierte Daten zum KI-Training weitergegeben werden.

Am Hamburger Hansaplatz war das System in 2023 bereits drei Monate in Betrieb. Im Rahmen eines Forschungsprojekts, das noch bis Februar 2026 läuft, wurde offenkundig, dass die Technologie zu ihrer eigenen Ausweitung drängt. Gleichzeitig ist unklar, wie sie am Ende tatsächlich eingesetzt werden soll.

Das Projekt ist an der Uni Hamburg und der TU Chemnitz angesiedelt. Es wird von Stephanie Schmidt und Philipp Knopp geleitet und von Fabian de Hair als wissenschaftlichem Mitarbeiter durchgeführt. Für das Gespräch mit netzpolitik.org haben sich alle drei Zeit genommen.

Kritiker*innen kommen kaum zu Wort

netzpolitik.org: Sie untersuchen die testweise Einführung eines KI-gestützten Überwachungssystems. Was genau erforschen Sie da?

Stephanie Schmidt: Wir beschäftigen uns mit den sozialen Konflikten. Wie verändern sich die sozialen Beziehungen zwischen den Akteur*innen vor Ort und auch die zu den staatlichen Akteuren wie der Polizei? Wir schauen uns auch an, was für mediale Diskurse mit dieser KI-Technologie verbunden sind.

netzpolitik.org: Sie haben ausgewertet, wie Medien über den KI-Testlauf berichten. Diese Berichterstattung ist vermutlich zentral für die gesellschaftliche Verhandlung dieser Technologie. Welche Positionen kommen da zu Wort?

Fabian de Hair: Der Diskurs ist vor allem ordnungspolitisch orientiert. Rund drei Viertel der Sprecher*innen bewerten die Technologie positiv. Sie vereine Datenschutz und Rationalisierung der polizeilichen Arbeit, so die Argumentation. Top-Sprecher der Befürworter ist der Hamburger Innensenator Andy Grote, dann folgen eine ehemalige Sprecherin der Polizei, der Polizeipräsident, der Polizeivizepräsident und Sprecher der Innenbehörde.

Risiken, Kritik und Protest sind im Vergleich dazu unterrepräsentiert. Weniger als ein Fünftel der Menschen, die in den Medien zu Wort kommen, sieht die Technologie negativ. Vor allem der der innenpolitische Sprecher der Linken ist hier eine deutlich vernehmbare Stimme. Daneben sind noch Menschen vom Einwohner*innen-Verein St. Georg und der CCC unter den Kritikern. Aber die sind weit schwächer repräsentiert als die Gegenseite.

Am Hansaplatz gibt es seit 2019 konventionelle Videoüberwachung. Medial wird er als Positivbeispiel angeführt, als Erfolgsgeschichte der Kriminalitätsbekämpfung. Und die aktuelle Entwicklung gilt als Schaufenster in die Zukunft der Polizeiarbeit. Dabei wird die KI-Kameraüberwachung insbesondere im Hinblick auf die Potenziale der Skalierung betrachtet.

Trainingsdaten gesucht: KI-Überwachung führt zu ihrer eigenen Ausweitung

netzpolitik.org: Das heißt, es wird jetzt bereits überlegt, wie man die KI-Überwachung ausweiten kann?

Philipp Knopp: Videoüberwachung ist sehr ressourcenintensiv. Da muss jemand sitzen, der Monitore überwacht und der muss auch noch konzentriert sein. Die KI soll das effizienter machen. Jetzt kann man sagen, das ist eine tolle Arbeitserleichterung für die Polizei. Wir sehen aber auch, dass mit dieser neuen Effizienz eine Ausweitungstendenz verbunden ist. Es hieß ja bereits: Wir überwachen nicht nur den Hansaplatz damit, sondern wir nehmen auch noch den deutlich belebteren Hachmannplatz am Hauptbahnhof dazu.

Fabian de Hair: Auch eine Ausweitung auf andere bestehende Kamerastandorte ist innerhalb des Mediendiskurses im Gespräch: Jungfernstieg, Reeperbahn, öffentlicher Nahverkehr beispielsweise. Und es gibt weitere Ideen: In ihrer Bewerbung auf den Förderfond InnoTecHH der Hamburger Senatskanzlei schreibt die Hamburger Polizei, dass man damit auch Großveranstaltungen wie den Hafengeburtstag oder bei Sportveranstaltungen das Stadion und dessen Umfeld überwachen könne.

Philipp Knopp: Die Notwendigkeit, neue Trainingsdaten zu generieren, hat den Effekt, dass man immer auf der Suche nach Möglichkeiten ist, diese KI einzusetzen. Hamburg hat ja extra ein Gesetz geschaffen, mit dem die Überwachungsdaten auch als Entwicklungsdaten genutzt werden können. Und wenn der Aufwand zu groß ist, die zu anonymisieren, dürfen diese Daten auch unanonymisiert weitergegeben werden.

Die Befugnis, KI mit Überwachungsdaten zu trainieren, findet sich mittlerweile auch in der geplanten Novelle zum Berliner Polizeigesetz. In Baden-Württemberg gibt es die Idee, die Bindung von Videoüberwachung an tatsächliche Kriminalitätsschwerpunkte zu entkoppeln. So könnte die Polizei auch Orte damit überwachen, wo sie nur vermutet, dass dort Kriminalität auftreten könnte, weil man von dort beispielsweise gut flüchten kann, oder weil der Ort sehr belebt oder schlecht einsehbar ist.

Wie die Technologie Verhaltensweisen diskriminiert

netzpolitik.org: Neben dem medialen haben Sie auch den parlamentarischen Diskurs in Hamburg betrachtet. Wie stehen die Parteien zu der Technologie?

Philipp Knopp: Einfach gesagt: Die Linkspartei ist dagegen, SPD und CDU sind dafür. Eine große Verschiebung ist, dass die Grünen sich sehr für die Technologie aussprechen, teils auch sehr vehement gegen die Kritik der Linkspartei argumentieren. Die Befürworter verweisen gerne auf den Datenschutzbeauftragten von Baden-Württemberg, der meint, dass die Technologie es möglich mache, datenschutzsensibler zu überwachen. Laut den Grünen ist es ein technischer Kompromiss, der das Spannungsverhältnis von Sicherheit und Freiheit auflöst.

netzpolitik.org: Was bedeutet das?

Philipp Knopp: Die Technologie rechnet Körper in Vektoren um, in Strichmännchen sozusagen. Und dann schätzt sie, ob deren Bewegungen bestimmten vordefinierten Bewegungsmustern entsprechen. Dazu gehören zum Beispiel Treten, Schlagen oder Würgen, aber auch Liegen und sogenannte aggressive oder defensive Körperhaltungen.

Das wird im Diskurs als ein Verfahren der Anonymisierung gedeutet. Alter, Geschlecht, Hautfarbe, Statur sollen nicht erkennbar sein. Das verhindere Diskriminierung und schütze Daten, heißt es. Die Kritiker der Technologie sagen hingegen, man könne ja nicht nur Alter, Geschlecht oder Hautfarbe diskriminieren, sondern auch bestimmte Praktiken. Das Argument ist, dass Praktiken wie „auf dem Boden liegen“ oder „sich aus Spaß hauen“ von bestimmten Personengruppen durchgeführt werden, zum Beispiel Obdachlosen oder Kindern. Und das sind Praktiken, die von dem System als mögliche Gefahr erkannt werden können, was zu intensiverer Überwachung führen kann.

Die Technologie löscht den Kontext: Welche Interaktionssituation liegt dort vor? Was sind die räumlichen Umstände? Sie bekommt auch keine Ausdrucksweisen mit, die wir mitkommunizieren, wenn wir Bewegungen durchführen. Das macht sie derzeit und möglicherweise auch in Zukunft unpräzise. Zudem ist die Polizei sehr zurückhaltend damit, Situationen aus der Detektion auszuschließen. Es wird also niemals nur der tatsächliche kriminelle Vorfall erkannt.

Die Daten sind auf Personen rückführbar

netzpolitik.org: Wie anonym sind diese Strichmännchen denn wirklich? Mein Bewegungsmuster ist doch so einzigartig wie ein Fingerabdruck.

Philipp Knopp: Dadurch, dass diese Daten zeit- und ortsbezogen sind, sind sie rückführbar auf die Person. Weil sich eine bestimmte Person zu einer bestimmten Zeit an einem bestimmten Ort auf diese Art und Weise bewegt. Die müssen ja auch rückführbar sein, weil die Polizei vielleicht auf diese Person zugreifen will. Das Gesamtprogramm des Fraunhofer-Instituts umfasst auch Trackingsoftware, mit der Dinge oder Personen markiert und über mehrere Kameras hinweg verfolgt werden können. Die wird allerdings aktuell nicht erprobt.

Wo die Reise hingeht, hängt auch davon ab, wie gut die Technologie ist. Die große Vision am Fraunhofer Institut ist ein meist schwarzer Bildschirm, auf dem die überwachende Person nur noch das sieht, was die KI als Gefahrensituation erkannt hat. Es ist aber auch möglich, dass die Technologie nur als Assistenzsoftware genutzt wird, die mitläuft, während weiter ein Mensch die Bildschirme überwacht. Es kann auch sein, dass die überwachende Person viel mehr Gebiete beobachtet, weil sie nur noch sehen muss, was die KI ihr anzeigt. Und es ist auch möglich, dass man die Überwachung um neue Technologien erweitert, zum Beispiel zum Tracking oder Objekterkennung.

Der Endzweck dieser Technologie, wie sie als polizeiliches Werkzeug genutzt wird, ist derzeit nicht klar. Weil die Technologie noch nicht fertig entwickelt ist, ist es auch für Menschen, NGOs oder Politik schwer zu bewerten, was sie derzeit kann und womit man in Zukunft zu rechnen hat. Diese Ungewissheit ist bei Tests im öffentlichen Raum problematisch.

netzpolitik.org: Was ist das eigentlich für ein Ort, den sie da untersuchen, dieser Hansaplatz?

Fabian de Hair: Ein enorm heterogener und vielfältiger. Der kleine Stadtteil St. Georg ist ein in Gentrifizierung befindliches Wohnquartier und Lebensort verschiedenster sozialer sowie marginalisierter Gruppen und internationaler Communitys. Der Hansaplatz ist für alle ein zentraler Durchgangs- und Verweilort. Es ist sehr schwierig, ihn zu umlaufen, wenn man nicht Umwege durch das komplette Viertel gehen will. Er wird als sehr lebhaft und als ein wichtiger, schöner Ort beschrieben. Er ist verkehrsberuhigt und hat einen großen Brunnen in der Mitte.

Seitens der Polizei gilt er als gefährlicher Ort. Es ist einer der Orte in Hamburg mit der höchsten Dichte an polizeilichen Maßnahmen. Es gibt dort visuelle Überwachung, ein Glasflaschenverbot von 17 Uhr bis morgens, eine Waffenverbotszone, und weil dort Personen der Straßenprostitution nachgehen, auch ein Kontaktverbot. Entsprechend gibt es diverse Verdrängungseffekte insbesondere von marginalisierten Gruppen in die Nebenstraßen und anliegenden Viertel.

Schaukämpfe zwischen Polizist*innen

netzpolitik.org: Wie wird sich dieser Platz verändern, wenn ab dem 1. September die Bewegungsdaten der Menschen dort zum KI-Training genutzt werden?

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Philipp Knopp: Was passieren könnte, ist, dass sich öfter mal Polizist*innen untereinander prügeln werden. Aktuell bestehen die Trainingsdaten nämlich vor allem aus Schaukämpfen zwischen Polizist*innen, die in Mannheim simuliert wurden, wo die Technik ebenfalls getestet wird. Die spielen wie in einem Film mit Regisseur und Drehbuch und verschiedenen Kamerawinkeln gezielt Konfliktsituationen wie Schlägereien nach.

netzpolitik.org: Werden sich die Platznutzer*innen angesichts der KI-Überwachung noch unbefangen dort bewegen können?

Fabian de Hair: Selbst Leute, die sich sehr ablehnend gegenüber der Technologie zeigen, leiten daraus keine anderen Nutzungspraktiken ab. Auch weil sie den Platz nicht wirklich meiden können. Weil er Durchgangsort ist oder auch der Ort, an dem die Leute arbeiten.

Philipp Knopp: Im Vergleich zu 2019, als KI-Videoüberwachung am Berliner Südkreuz getestet wurde, sind wir heute noch viel stärker daran gewöhnt, von verschiedensten Akteuren überwacht zu werden. Der Widerstand ist heute auch geringer, wie das Beispiel der Grünen in Bezug auf diese konkrete Technologie zeigt.

netzpolitik.org: Hat die Technik auch Auswirkungen auf die Freiheit, an diesem Ort politische Versammlungen abzuhalten?

Philipp Knopp: Natürlich resultiert aus der Überwachung eine Versammlungsöffentlichkeit, in der ich mich nicht mehr unbefangen mit anderen Menschen im ermächtigenden Erscheinungsraum befinde, wo ich mich verbünden kann, um politische Angelegenheiten zu klären. Sondern es ist verstärkt ein Raum der Kontrolle.

Vertrauen in die Polizei wird überflüssig

netzpolitik.org: Wie wirkt sich die KI-Überwachung auf die Beziehung zwischen den Platznutzer*innen und der Polizei aus?

Philipp Knopp: Es gibt auf jeden Fall eine Verschiebung: weg von einer Tradition, wo die Polizei vor Ort ist oder wo Bürger*innen vor Ort die Polizei per Notruf alarmieren, hin zu einer technisierten Überwachung. Das hat natürlich Folgen für die sozialen Abhängigkeitsverhältnisse der Polizei gegenüber der Bevölkerung. Wenn man auf den Notruf angewiesen ist, dann ist man auch darauf angewiesen, dass Menschen in dem konkreten Sozialraum der Polizei vertrauen. Das ist, wenn man sich voll auf die Technik verlässt, nicht mehr der Fall. Dann gibt es nur noch die Polizei und den Raum. Nicht mehr die Polizei, die Menschen und den Raum.

netzpolitik.org: Ist das auch eine Entmenschlichung von Kontrolle?

Fabian de Hair: Wir wissen aus Interviews mit Menschen, die am Hansaplatz arbeiten, dass alle Akteur*innen miteinander üblicherweise eine Form von vertrauensvollem Umgang pflegen. Das verändert sich jetzt aber.

netzpolitik.org: Als ein Ergebnis ihrer Forschung wollen Sie eine Toolbox entwickeln. Was kann man sich darunter vorstellen und wozu ist es gut?

Stephanie Schmidt: Wir nutzen unsere Erkenntnisse aus Gesprächen mit Expert*innen, Polizei und Platznutzer*innen, um gemeinsam mit Menschen, die vor Ort arbeiten, und bundesweiten NGOs eine Toolbox zu entwickeln. Sie soll lokalen zivilgesellschaftlichen Akteur*innen dabei helfen, ich informiert mit solchen KI-Anwendungen auseinanderzusetzen.

Wenn in irgendeiner Stadt eine KI-basierte Technologie angekündigt wird und sich Menschen damit beschäftigen wollen, dann finden sie in der Toolbox Quellen, die über KI bei der Polizei informieren. Hinzu kommt ein sogenanntes Sozialraummapping, mit dem man Gruppen und Nutzungsweisen im Raum erschließen kann. So lässt sich aufzuzeigen, wen man alles in den Diskurs miteinbeziehen sollte. Das dritte Tool ist eine Bewertungsmatrix, die Rechtfertigungen und Kritiken der KI mittels eines Fragenkatalogs aufschlüsselt.

Die Tools helfen auch einzuschätzen, was zivilgesellschaftliche Perspektiven auf die Technologie sein können. Jenseits davon, dass Fragen nach Datenschutz und Sicherheit einfach nur mit Ja oder Nein beantwortet werden, was ja von staatlichen Akteuren in den Vordergrund gestellt wird.



Source link

Datenschutz & Sicherheit

Online-Wahlen in Ontario: Hohes Risiko von Wahlbetrug


Am Beispiel der Kommunalwahlen Ontarios 2022 zeigen kanadische Forscher hohes Wahlbetrugsrisiko bei Online-Wahlen auf. Die Forscher dreier Universitäten haben zwar die Wahlserver nicht überprüft, aber schon bei den E-Voting-Webseiten Fehler gefunden. Noch schwerer wiegt die Handhabung der für die Stimmabgabe notwendigen Codes. In 70 Prozent der Kommunen mit Online-Wahl war das Wahlbetrugsrisiko hoch oder extrem.

Bei den Kommunalwahlen Ontarios 2022 waren 10,7 Millionen Personen wahlberechtigt. Etwa die Hälfte der Kommunen, generell kleinere, bot Online-Stimmabgabe an. Von diesen haben mehr als 70 Prozent die Stimmabgabe mittels papierenem Stimmzettel überhaupt abgeschafft. Insgesamt hätten 3,8 Millionen Ontarier online oder per Telefon abstimmen können.

Sechs E-Voting-Anbieter teilen sich den Markt der bevölkerungsreichsten Provinz Kanadas auf. Intelivote bedient die größte Zahl an Kommunen, Scytl die größte Zahl an Wahlberechtigten. In den zur Stimmabgabe aufgesetzten Webseiten des Marktführers Scytl sowie dem in Ontario weniger bedeutenden Anbieter Neuvote haben die Forscher eine Sicherheitslücke gefunden: Mittels cross-site framing attack war es Angreifern möglich, Wähler bei der Online-Stimmabgaben zu betrügen.

Denn die Stimmabgabe-Webseiten waren nicht gegen Einbettung in HTML iframes geschützt. Mit einem zwischengeschalteten Proxy und iframes und wäre es beispielsweise möglich gewesen, die angezeigte Reihenfolge der Kandidaten zu manipulieren, sodass die Stimme des Wählers vom Server anders registriert wurde, als der Wähler glaubte, zu wählen.

Das haben die Forscher Scytl demonstriert, das am nächsten Tag eine Abhilfemaßnahme ergriffen hat. Bei Neuvote haben die Forscher die Lücke zu spät bemerkt, um noch vor dem Wahlgang eingreifen zu können. Ob es solche Angriffe gegeben hat, ist unbekannt.

Leider mangelte es schon beim Schutz gegen Umleitungen auf andere, gefälschte Webseiten, ganz ohne iframes. Mittel der Wahl wäre HSTS mit Strict Transport Security, worauf Scytl verzichtet hat. Die übrigen fünf Anbieter hatten zwar HSTS, aber vier von ihnen waren nicht in den voreingestellten Listen der gängigen Webbrowser eingetragen. Damit bleibt die Webseite anfällig für eine böswillige Umleitung beim ersten Aufruf. Und weil 87 Prozent der Kommunen für ihre Online-Wahl völlig neue URLs verwendet haben, lief HSTS, selbst wenn aktiviert, regelmäßig ins Leere.

Gravierender ist allerdings das Risiko banalen Wahlbetrugs durch Verwenden fremder Wahlcodes. Das ist simpel.

Für die Stimmabgabe wird den Wählern automatisch ein Brief mit Anleitungen und ihrem persönlichen Zugangscode geschickt, ob sie das wünschen oder nicht. Viele wünschen es nicht, die Wahlbeteiligung lag unter 37 Prozent. Andere Untersuchungen haben gezeigt, dass auch E-Voting die Wahlbeteiligung langfristig nicht steigert, häufig sogar senkt.

In den meisten Fällen müssen Kanadier ihre Post abholen, von sogenannten community mailboxes, oder, in größeren Wohnhäusern, von Hausbrieffächern. Unerwünschte Post wird routinemäßig gleich vor Ort aussortiert, entweder in einen Recyclingbehälter oder, bei falscher Adressierung, in einen Behälter für den Briefträger.

Genau das geschieht auch mit den Kuverts mit den Wahlcodes. Die Empfänger vernichten nicht gewünschte Codes nicht, sondern entsorgen das Kuvert sofort – häufig ungeöffnet, weil schon von außen erkennbar ist, was drin ist. Damit ist es ein Leichtes, solche Kuverts einzusammeln und in fremdem Namen zu wählen.



Source link

Weiterlesen

Datenschutz & Sicherheit

Meta hört bald zu, wenn du dich mit der KI unterhältst


Den Meta-Chatbot können Menschen über Instagram, Whatsapp und Facebook ansprechen. Laut Meta nutzen ihn monatlich mehr als eine Milliarde Menschen. Viele davon teilen intime Informationen mit der Software.

Die Gespräche, die Menschen mit der sogenannten Künstlichen Intelligenz führen, will Meta künftig auslesen und speichern. Damit sollen Anzeigen treffsicherer personalisiert werden und die Daten sollen auch beeinflussen, welche Posts Nutzer*innen in den Sozialen Netzwerken angezeigt bekommen. Das erklärte Meta gestern in einem Blogpost. Der Konzern behält sich dabei vor, die Informationen aus den Gesprächen in allen seinen Produkten zu nutzen.

Ein Beispiel nannte der Konzern direkt: Wer sich mit der KI etwa übers Wandern unterhalte, bekomme danach womöglich Empfehlungen für Wandergruppen, Wanderstrecken von Bekannten und Werbung für Wanderschuhe angezeigt.

Auch sensible Konversationen werden ausgelesen

Meta gibt zwar an, sensible Konversationen über religiöse Ansichten, die sexuelle Orientierung, politische Meinungen, Gesundheit und ethnische Herkunft nicht für personalisierte Werbung nutzen zu wollen, die Daten werden aber dennoch mit ausgelesen.

Die neue Regelung will Meta ab dem 16. Dezember umsetzen, allerdings zunächst nicht in der EU und Großbritannien. Dort solle das Feature später ausgerollt werden, weil die hiesigen Datenschutzbestimmungen strenger seien. Für das KI-Training werden die Chatprotokolle in Europa wohl schon genutzt.

Seit Juni ist bereits bekannt, dass Meta mit Hilfe von KI Anzeigen erstellen will. Werbetreibende müssen dann nur ein Produktbild und ein Budget vorgeben. Meta möchte durch diese Investitionen die größte Einnahmequelle Werbung noch rentabler machen. Hier bieten sich auch Spielräume für individuelle Personalisierung von Anzeigen – anhand der mit dem Chatbot erhobenen Daten.

Nutzer*innen teilten unbewusst Chatprotokolle

Meta hat den Chatbot für seine Messenger erst vor wenigen Monaten in Europa eingeführt. Er stand schon mehrfach in der Kritik, etwa weil ihm erlaubt war, „sinnliche“ und „romantische“ Konversationen mit Minderjährigen zu führen. Ein anderes Mal, weil viele Nutzer*innen ihre teils sehr persönlichen Chatprotokolle scheinbar unbewusst veröffentlicht hatten.

Die Nutzer*innen können einstellen, in welchem Ausmaß die ihnen ausgespielte Werbung personalisiert werden soll, aber es gibt keine Möglichkeit, sich gegen die Datenerfassung zur Personalisierung zu wehren – außer, den Chatbot nicht zu nutzen. In Whatsapp kann es allerdings sein, dass andere Nutzer*innen ihn zu einer Konversation hinzuziehen. Das lässt sich mit der Funktion „erweiterter Chat-Datenschutz“ verhindern. Oder mit dem Verzicht auf die datensammelwütige App zugunsten von datensparsamen Alternativen.



Source link

Weiterlesen

Datenschutz & Sicherheit

„Die Chatkontrolle gefährdet die Demokratie“


Die Entscheidung um die Chatkontrolle rückt näher. Wenn die Bundesregierung ihre bisher grundrechtsfreundliche Position ändert, könnte die EU das Überwachungsprojekt doch noch beschließen. Bei der so genannten Chatkontrolle geht es um eine EU-Verordnung, die sich gegen die Verbreitung von Darstellungen sexuellen Kindesmissbrauchs (sogenannte Kinderpornografie) richten soll.

Die EU verhandelt seit drei Jahren kontrovers. Die geplante Verordnung enthält Vorschriften, die Messenger wie WhatsApp, Signal, Threema oder Telegram verpflichten sollen, die Kommunikation aller Nutzer:innen ohne jeden Verdacht zu durchsuchen.

Eine breite Front lehnt die Chatkontrolle ab. Nicht nur die IT-Fachwelt und die Wissenschaft sind gegen diese anlasslose Massenüberwachung, sondern auch zivilgesellschaftliche Organisationen aller Art.

Wir haben uns umgehört, was zivilgesellschaftliche Organisationen von der Bundesregierung erwarten – und warum die Chatkontrolle so gefährlich ist. Die Ablehnung reicht von Digital- und Journalistenverbänden über Menschenrechtsorganisationen bis hin zu Fußballfans.

„Gesamte Bevölkerung unter Generalverdacht“

Die Chatkontrolle würde das „Ende einer breit verfügbaren, vertraulichen und sicher verschlüsselten Kommunikation in Europa“ bedeuten, sagt Tom Jennissen von der Digitalen Gesellschaft. „Die gesamte Bevölkerung würde unter Generalverdacht gestellt und ihre Endgeräte mit staatlich verordneter Spyware infiziert.“ Von der Bundesregierung erwartet Jennissen, dass sie sicherstellt, dass dieser „vollkommen unverhältnismäßige Angriff auf unsere Kommunikationsgrundrechte und die IT-Sicherheit endlich vom Tisch kommt“.

Svea Windwehr vom digitalpolitischen Verein D64 sagt, dass die Chatkontrolle Grundrechte untergrabe, aber ohne den Schutz von Betroffenen zu verbessern. Jede Form der Chatkontrolle zerstöre die Verschlüsselung und die Vertraulichkeit privater Kommunikation, einem Schutz, von dem alle Menschen profitieren. „Anstatt auf vermeintliche technische Lösungen für eine komplexe gesellschaftliche Herausforderung zu setzen, müssen Ansätze gestärkt werden, die Prävention, Care und Unterstützung von Betroffenen in den Fokus rücken“, so Windwehr.

Elina Eickstädt, Sprecherin des Chaos Computer Clubs, nennt die Chatkontrolle und den vorgesehenen Bruch von vertraulicher und verschlüsselter Kommunikation den „Anfang von einem IT-Sicherheitsalptraum“. Hintertüren würden nie nur für Strafverfolgungsbehörden funktionieren, sondern immer auch für andere. „Die Bundesregierung muss sich klar gegen jeden Bruch von vertraulicher und verschlüsselter Kommunikation stellen, sie darf keinen Entwurf annehmen, der diese Prinzipien verletzt“, so Eickstädt weiter.

„Massiver Angriff auf Pressefreiheit“

Arne Semsrott von Frag den Staat sieht in der Chatkontrolle einen „massiven Angriff auf die Pressefreiheit“. Medienschaffende seien darauf angewiesen, vertraulich mit Quellen zu kommunizieren und ihre Arbeit zu schützen. „Wird diese Möglichkeit mit der Chatkotrolle genommen, schadet das der freien Presse enorm“, sagt Semsrott.

Das bestätigt auch Fabio Niewelt von Reporter ohne Grenzen. Sichere Verschlüsselung sei „unverzichtbar für vertrauliche Kommunikation und unabdingbare Voraussetzung für die Pressefreiheit“. Verschlüsselung schütze Journalist:innen und ihre Quellen, das ermögliche investigative Recherchen und erlaube es Whistleblowern, Missstände mitzuteilen. „Chatkontrolle untergräbt nicht nur das Vertrauen in sichere Kommunikation, sie gefährdet auch den Quellenschutz und unterminiert damit das Grundrecht auf Pressefreiheit“, so Niewelt weiter. Reporter ohne Grenzen fordert deswegen die Bundesregierung dazu auf, sich öffentlich gegen Chatkontrolle zu positionieren.

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

„Gefährdet die Demokratie“

Lena Rohrbach, Expertin für Menschenrechte im digitalen Zeitalter bei Amnesty International sagt: „Bei der Chatkontrolle stimmt gar nichts: Als anlasslose Massenüberwachung trifft sie alle Menschen in der EU – außer Straftäter:innen, die sie umgehen werden.“ Das Vorhaben der Chatkontrolle „gefährdet die Demokratie, weil sie eine beispiellose Kontrolle unserer Kommunikation ermöglicht, die leicht missbraucht werden kann.“ Auch sie weist darauf hin, dass Kinder „echten Schutz durch Prävention und zielgerichtete Ermittlung“ benötigen würden.

Noa Neumann aus dem Koordinierungskreis von Attac warnt vor einer „anlasslosen, präventiven Massenüberwachung und einer vollständigen Aushöhlung des Datenschutzes“. Die Bundesregierung sei dazu verpflichtet, die Rechte und die Privatsphäre von Menschen aktiv zu schützen. „Deshalb muss sie gegen die Einführung der Chatkontrolle stimmen“, so Neumann weiter.

Linda Röttig vom Dachverband der Fanhilfen erklärt, dass Fußballfans häufig von Überwachung und Datenbanken von Polizeibehörden betroffen und deswegen besonders alarmiert seien, wenn staatliche Überwachung immer weiter ausgebaut werden soll. „Daher erheben auch wir gegen die Chatkontrolle unsere Stimme und warnen gemeinsam mit vielen anderen vor den katastrophalen Folgen dieses Verordnungsentwurfs“, so Röttig weiter. Die Fußballfans fordern die Bundesregierung auf, sich gegen eine Einführung der Chatkontrolle auszusprechen und von dieser Position auch andere Mitgliedsstaaten zu überzeugen.

Druck auf Ministerien nötig

Die Bundesregierung wird sich vermutlich vor dem 14. Oktober auf eine Position einigen, dann wird im EU-Rat abgestimmt. Zur Debatte steht der dänische Vorschlag, der eine verpflichtende Chatkontrolle und Client-Side-Scanning beinhaltet.

Vertreter:innen der Zivilgesellschaft rufen dazu auf, die relevanten Personen und Organisationen zu kontaktieren. Das sind vor allem die beteiligten Bundesministerien (Innen, Justiz, Digital, Familie) sowie die Fraktionen und Abgeordneten der Regierungs-Parteien im Bundestag. Am besten wirken direkte E-Mails und Telefonanrufe, oder auch rechtzeitig ankommende Briefe. Zivilgesellschaftliche Organisationen wollen zeitnah mehr Ideen veröffentlichen, wie sich Menschen gegen die Chatkontrolle engagieren können.



Source link

Weiterlesen

Beliebt