Connect with us

Datenschutz & Sicherheit

Das geheimnisvolle KI-Programm von Europol


Kritiker bezeichnen es als Strategie zur Datenbeschaffung und Überwachung. Europol nennt es in seinem Arbeitsprogramm „Strategisches Ziel Nr. 1“: durch eine Strategie der massenhaften Datenbeschaffung zum „Kriminalinformationszentrum“ der EU zu werden.

Die Beamt*innen von Europol haben keinen Hehl daraus gemacht, dass sie Zugang zu so vielen Daten wie möglich bekommen wollen. Im Zentrum von Europols Hunger nach personenbezogenen Daten stehen wachsende KI-Ambitionen.

Diese Ambitionen werden in einem Strategiepapier der Behörde aus dem Jahr 2023 offen beschrieben. Unendlich viele Daten aus EU-Datenbanken, die fast alle Daten über EU-Bürger*innen und Migrant*innen enthalten, gehen Hand in Hand mit der Möglichkeit, KI-Tools zu nutzen.

Seit 2021 hat sich die in Den Haag ansässige EU-Polizeibehörde einer immer ehrgeizigeren, aber weitgehend geheimen Mission verschrieben, automatisierte Modelle zu entwickeln. Sie sollen die Polizeiarbeit in allen EU-Mitgliedstaaten verändern.

Diese Recherche basiert auf internen Dokumenten der Behörde, die Datenschutz- und KI-Experten analysiert haben, und wirft ernsthafte Fragen auf – nicht nur zu den Auswirkungen von Europols KI-Programms auf die Privatsphäre der Bürger*innen. Sondern auch dazu, wie sich automatisierte Prozesse ohne eine angemessene Aufsicht auf den europäischen Polizeialltag auswirken werden.

Europol teilte dem Recherche-Team auf Anfrage mit, dass es „gegenüber allen Beteiligten eine unvoreingenommene Haltung einnimmt, um sein Mandat zu erfüllen – nämlich die nationalen Behörden bei der Bekämpfung von schwerer und organisierter Kriminalität sowie Terrorismus zu unterstützen“ – und dass die Behörde „an der Spitze der Innovation und Forschung im Bereich der Strafverfolgung stehen wird“.

Massendaten bringen neue Möglichkeiten

Europol hat bei drei Hacking-Operationen der letzten Jahre eine entscheidende Rolle gespielt. 2020 und 2021 zerschlug die Behörde gemeinsam mit anderen internationalen Partnern die vermeintlich sicheren, verschlüsselten Kommunikationssysteme EncroChat, SkyECC und ANOM. Das bescherte Europol eine riesige Menge an Daten. In verschiedenen Ländern führte der Hack der Anbieter zu unzähligen Ermittlungsverfahren und Verurteilungen, viele davon wegen Drogenhandels.

Bei den Operationen agierte Europol hauptsächlich als Übergabestelle und Vermittler für Daten: von den Behörden, die diese erhielten, zu den Behörden der betroffenen Länder. Es kopierte ohne großes Aufsehen die Datensätze aus den drei Operationen in seine Datenbestände und beauftragte seine Analysten, das Material zu untersuchen. Bei EncroChat ging es dabei um mehr als 60 Millionen, bei ANOM um mehr als 27 Millionen ausgetauschte Nachrichten – eine schier unmöglich auszuwertende Menge an Material.

Diese Datendimensionen verstärkten das Interesse der Behörde, KI-Tools zu trainieren, um die Arbeit der Analysten zu beschleunigen. Die Motivation war klar: Es ging um flüchtige Kriminelle und um Menschenleben.

Im September 2021 kamen zehn Mitarbeitende der Europäischen Datenschutzbehörde nach Den Haag zum Hauptsitz von Europol. Sie sollten Europols erste Schritte beim Algorithmen-Training untersuchen. Wie sie im Oktober 2020 herausfanden, hatte Europol bereits Pläne, die EncroChat-Daten für maschinelles Lernen zu nutzen. „Das Ziel von Europol war es, sieben Machine-Learning-Modelle zu entwickeln, die einmal über den gesamten EncroChat-Datensatz laufen sollten“. Das sollte Analysten helfen, die Menge der händisch zu prüfenden Nachrichten zu reduzieren.

Bereits im Februar 2021 hatte Europol das ambitionierte Programm wieder eingestellt, als es die EU-Datenschutzbehörde nicht davon überzeugen konnte, dass es nicht notwendig sei, seine Versuche im Bereich des maschinellen Lernens zu überwachen.

Kein Grund zur Beunruhigung

Dennoch brachte die Untersuchung ans Licht, dass Europol Datenschutzvorkehrungen missachtet hatte. Die Behörde versuchte, die Entwicklung eigener KI-Modelle abzukürzen. Fast keine Unterlagen zur Überwachung des Trainings „wurden während der Zeit, in der die Modelle entwickelt wurden, erstellt“. Weiter heißt es, die Dokumente „spiegeln nur teilweise die Entwicklungspraktiken der Abteilung für Daten und KI wider”, stellten die EDSB-Mitarbeitenden fest. Der EDSB erwähnt auch, dass „Risiken im Zusammenhang von Verzerrungen beim Training und der Verwendung von ML-Modellen oder statistischer Genauigkeit nicht berücksichtigt wurden”.

Für die Analysten von Europol schien es jedoch keinen Grund zur Beunruhigung zu geben. Das geht aus Abschnitten des EDBS-Untersuchungsberichtes zu Europols frühen Machine-Learning-Tests aus dem Dezember 2022 hervor. Sie schätzten das Risiko als minimal ein, dass durch die automatisierten Verfahren eine Person fälschlicherweise in den Fokus von strafrechtlichen Ermittlungen gelangen könnte. Die in dieser Zeit entwickelten Modelle wurden aus operativen Gründen nie eingesetzt. Der Rechtsrahmen der Behörde sah kein ausdrückliches Mandat für die Entwicklung und den Einsatz von KI für Ermittlungen vor.

Das änderte sich bald, im Juni 2022 erhielt Europol neue Befugnisse. Bis dahin hatten sich die Vorhaben zur KI und die Bedeutung des Datenzugangs hin zu sexualisierten Missbrauchsdarstellungen von Minderjährigen (CSAM) verlagert. Im Mai 2022 hatte die Europäischen Kommission einen Gesetzesvorschlag zur sogenannten Chatkontrolle vorgelegt, um Inhalte von Nutzer*innen auf Missbrauchsdarstellungen zu scannen. Dieses Thema rückte in den Vordergrund der politischen Agenda und löste eine polarisierende Debatte über Pläne zur Aufhebung von Ende-zu-Ende-Verschlüsselung und die Gefahren der Massenüberwachung aus.

Diejenigen, die Europols Kapazitäten ausbauen wollten, sahen in der potenziellen Nutzung von KI zum Scannen digitaler Kommunikationsgeräte aller EU-Bürger*innen eine neue Chance. Bei einem Treffen mit einem Direktor der Generaldirektion Inneres der EU-Kommission legten Europol-Vertreter nach. Sie schlugen vor, die Technologie so anzupassen, dass sie auch für andere Zwecke als zur Erkennung von Missbrauchsdarstellungen genutzt werden könne: „Alle Daten sind nützlich und sollten an die Strafverfolgungsbehörden weitergegeben werden”.

Sie forderten von der Kommission außerdem, dass Strafverfolgungsbehörden wie Europol „KI-Tools für Ermittlungen nutzen können” sollten. Beschränkungen in der damals diskutierten KI-Verordnung zur Nutzung invasiver und riskanter KI-Systeme sollten vermieden werden.

Privater Rückkanal

Die Bedenken von Europol zu Beschränkungen durch die KI-Verordnung spiegelten die Bedenken großer privatwirtschaftlicher Akteure. Es ist kein Geheimnis, dass die Vorstellungen von Europol und Unternehmen zu Innovation und Entwicklung von KI-Modellen zusammenpassen. Im Gegenteil, in Dokumenten der Behörde wird oft erwähnt, dass enge Kontakte zur Wirtschaft als strategisch wichtig angesehen werden.

Ein relevanter Ansprechpartner für Europol war Thorn – eine US-amerikanische Non-Profit-Organisation und Entwickler eines KI-gestützten CSAM-Erkennungssystems. Strafverfolgungsbehörden können das Programm nutzen, um neue und unbekannte Missbrauchsdarstellungen zu suchen.

Seit 2022 steht Thorn an der Spitze einer Kampagne zur Unterstützung des Chatkontrolle-Vorschlags in Brüssel. Der Vorschlag würde Anbietern von Kommunikationsdiensten auf Anordnung vorschreiben, KI-Klassifikatoren wie den von Thorn entwickelten zu nutzen, um Inhalte zu durchsuchen.

Weniger bekannt ist jedoch die enge Zusammenarbeit zwischen Thorn und Europol. Eine Reihe von E-Mails zwischen dem Unternehmen und Europol zwischen September 2022 und Mai 2025 wurden durch Informationsfreiheitsanfragen öffentlich. Sie zeigen, wie eng Europols Pläne zur Entwicklung eines Erkennungsprogramms mit den Empfehlungen von Thorn verknüpft waren.

Im April 2022, kurz vor Inkrafttreten der neuen Europol-Verordnung, schickte ein Europol-Beamter eine E-Mail an Thorn, um „die Möglichkeit zu prüfen, dass die Europol-Mitarbeiter, die im Bereich Kindesmissbrauch arbeiten (das Analyseprojekt-Team „Twins”), Zugang erhalten” – zu einem Zweck, der weiterhin unklar ist. Thorn schickte ein Dokument zurück und informierte Europol darüber, welche weiteren Informationen erforderlich wären, um fortzufahren. „Ich muss betonen, dass dieses Dokument vertraulich ist und nicht weitergegeben werden darf“, steht am Ende von Thorns E-Mail.

Fünf Monate später bat Europol Thorn um Hilfe dabei, Zugang zu Bildklassifizierern zu erhalten. Diese wurden in einem Projekt entwickelt, an dem Thorn mitgearbeitet hatte. Europol wollte diese testen.

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Treffen zum Mittagessen mit Thorn

Nuno Moniz ist Associate Professor am Lucy Family Institute für Daten und Gesellschaft an der Universität Notre Dame. Für ihn wirft dieser Austausch ernsthafte Fragen hinsichtlich der Beziehung zwischen den beiden Akteuren auf: „Sie diskutieren Best Practices, erwarten den Austausch von Informationen und Ressourcen und behandeln Thorn im Wesentlichen als Partner der Strafverfolgungsbehörden mit privilegiertem Zugang.“

Mail von Thorn an Europol, der Großteil ist geschwärzt
Die Korrespondenz deutet an, dass Thorn mit Europol über die technischen Details seiner eigenen Klassifizier sprach und ungewöhnlich tiefe Einblicke in die internen KI-Pläne der Behörde erhielt – Einblicke, die nach bisherigem Wissen keinem anderen externen Akteur gewährt wurden. – Screenshot

Die enge Zusammenarbeit zwischen Europol und Thorn ging seitdem weiter, unter anderem mit einem geplanten Treffen zum Mittagessen, gefolgt von der Präsentation des CSAM-Erkennungsprogramms von Thorn im Hauptquartier von Europol in Den Haag bei einem AP-Twins-Treffen.

In den aktuellsten Korrespondenzen, die im Rahmen dieser Recherche zugänglich gemacht wurden, zeigt ein Mail-Wechsel aus dem Mai 2025, dass Thorn mit seinen Kollegen bei Europol über seine neu gebrandeten CSAM-Erkennung diskutiert.

Europol sagt, dass es „bis heute keine CSAM-Softwareprodukte von Thorn gekauft hat“. Ein Großteil der Kommunikation mit Thorn aus den Informationsfreiheitsanfragen ist jedoch in weiten Teilen geschwärzt. Einige E-Mails wurden vollständig zurückgehalten, obwohl der Europäische Bürgerbeauftragte die Behörde aufforderte, einen breiteren Zugang zu den Dokumenten zu gewähren.

Europol behauptet, dass einige der nicht offengelegten Dokumente „strategische Informationen von operativer Relevanz über die Arbeitsmethoden von Europol im Zusammenhang mit der Verwendung von Bildklassifizierern enthalten, wobei bestimmte solche Klassifizierer konkret erwähnt werden und Gegenstand interner Beratungen, aber auch externer Diskussionen mit Thorn waren”.

Auf Anfrage zu den Recherche-Ergebnissen schrieb Thorns Policy-Direktorin Emily Slifer, dass Thorn angesichts „der Art und Sensibilität” der eigenen Tätigkeiten die Zusammenarbeit mit bestimmten Strafverfolgungsbehörden nicht kommentiere. „Wie bei all unseren Kooperationen arbeiten wir in voller Übereinstimmung mit den geltenden Gesetzen und halten uns an die höchsten Standards in Bezug auf Datenschutz und ethische Verantwortung.“

Ein Sprecher von Europol erklärte gegenüber dem Rechercheteam, dass der „Kooperationsansatz der Behörde vom Grundsatz der Transparenz geleitet wird“. „Kein einziges KI-Modell von Thorn wurde für den Einsatz bei Europol in Betracht gezogen. Daher gibt es keine Zusammenarbeit mit den Entwicklern von Thorn hinsichtlich KI-Modellen, die von Europol verwendet werden oder verwendet werden sollen.“

Lückenhafte Prüfung

Nicht nur die Beratungen zwischen Europol und Thorn bleiben opak. Die Behörde weigert sich hartnäckig, eine Reihe wichtiger Dokumente zu ihrem KI-Programm offenzulegen: von Datenschutz-Folgenabschätzungen über Informationen zu verwendeten Modellen bis hin zu Protokollen ihrer Verwaltungsratssitzungen. In vielen Fällen hat Europol die gesetzlichen Fristen für die Beantwortung von Anträgen um mehrere Wochen überschritten.

Die offengelegten Dokumente bleiben oft aus fragwürdigen Gründen stark geschwärzt. Meist nannte Europol „öffentliche Sicherheit“ oder „interne Entscheidungsprozesse“ als Begründung, um Informationen zurückzuhalten. Der Europäische Bürgerbeauftragte hat solche vagen Aussagen in seinen vorläufigen Berichten immer wieder in Frage gestellt und angemerkt, dass Europol nicht ausreichend begründet hat, wie ein Bekanntwerden seine Arbeit konkret beeinträchtigen würde.

Europol teilte dem Recherche-Team mit, dass Datenschutzfolgeabschätzungen „nicht der allgemeinen Offenlegungspflicht unterliegen“, da sie „kriminellen Akteuren Vorteile gegenüber dem Interesse der öffentlichen Sicherheit verschaffen könnten“.

Fünf Transparenzbeschwerden, die im Rahmen dieser Recherche eingereicht wurden, sind derzeit beim Europäischen Bürgerbeauftragten anhängig.

Europols offensichtliche Abneigung gegen Transparenz ist jedoch nur ein Teil einer mangelhaften Rechenschaftsarchitektur. Sie soll zumindest auf dem Papier sicherstellen, dass alle Aktivitäten von Europol grundrechtliche Standards beachten – auch die Einführung von KI-Tools.

Innerhalb von Europol fällt diese Aufgabe hauptsächlich dem Grundrechtsbeauftragten der Behörde zu. Das ist seit 2022 eine interne Kontrollinstanz, die Bedenken hinsichtlich schwacher Schutzmaßnahmen im Gegensatz zu einer Ausweitung der Befugnisse durch die Europol-Reform ausräumen soll.

2023 wurde die neu geschaffene Position mit Dirk Allaerts besetzt. Die Bedenken wegen mangelnder Aufsicht konnte das nicht ausräumen. Die Rolle genießt wenig Autorität, ihre Berichte sind nicht bindend und haben keine Durchsetzungskraft. „Der Grundrechtsbeauftragte von Europol fungiert nicht als wirksamer Schutz vor den Risiken, die mit dem zunehmenden Einsatz digitaler Technologien durch die Behörde verbunden sind. Die Rolle ist institutionell schwach und verfügt nicht über interne Durchsetzungsbefugnisse, um sicherzustellen, dass seine Empfehlungen befolgt werden“, sagt Bárbara Simão, Expertin für Rechenschaftspflichten bei Article 19. Die in London ansässige, internationale Menschenrechtsorganisation beobachtet den Einfluss von Überwachung und KI-Technologien auf die Meinungs- und Informationsfreiheit. Simão hat mehrere „unverbindliche“ Bewertungen der KI-Tools von Europol durch den FRO überprüft, die das Recherche-Team erhalten hat.

„Um seine Funktion als interne Kontrollinstanz zu erfüllen, muss der Grundrechtsbeauftragte mehr sein als eine symbolische Funktion. Er muss die eingesetzten Technologien ordnungsgemäß überprüfen und braucht echte Befugnisse”, fügte sie hinzu.

Viele der unverbindlichen Berichte des Grundrechtsbeauftragten enthalten die immer wieder kopierte Passage, dass Fähigkeiten zur gründlichen Überprüfung der KI-Tools von Europol nicht vorhanden sind. „Derzeit gibt es keine Instrumente für die grundrechtliche Bewertung von Tools, die künstliche Intelligenz nutzen. Die vom Grundrechtsbeauftragten verwendete Bewertungsgrundlage orientiert sich an einem Dokument der Strategic Group on Ethics and Technology und einer Methodik für den Umgang mit Dilemmata“, heißt es in den Berichten.

Beim Grundrechtsbeauftragten gibt es keine Instrumente zur grundrechtlichen Bewertung von KI-Tools. – Screenshot

Die externe Aufsicht scheint nicht viel stärker zu sein. Der wichtigste Mechanismus – die „Joint Parliamentary Scrutiny Group“ (JPSG), in der nationale und Europa-Parlamentarier zusammenkommen, um die Aktivitäten von Europol zu überwachen – hatte nur begrenzten Zugang zu relevanten Dokumenten über die Forschungs- und Innovationsprogramme der Behörde.

Ironischerweise behauptet Europol in seiner Antwort auf die Anfragen des Europäischen Bürgerbeauftragten zu den fragwürdigen Transparenzpraktiken der Behörde, dass seine „Legitimität und Rechenschaftspflicht“ „bereits weitgehend und notwendigerweise durch die gesetzliche demokratische Kontrolle erfüllt wird, die vom Europäischen Parlament zusammen mit den nationalen Parlamenten durch die JPSG ausgeübt wird“.

Es bleibt dem EDSB überlassen, die übereilte Expansion der Behörde mit begrenzten Ressourcen und unzureichenden Befugnissen im Bereich des Datenschutzes zu überprüfen.

Daten von NCMEC

Bis zum Sommer 2023 war die Entwicklung eines eigenen CSAM-Klassifikators eine der obersten Prioritäten des KI-Programms von Europol. Ein zweiseitiges Beratungsdokument des Grundrechtsbeauftragten weist darauf hin, dass das Ziel darin bestand, „ein Tool zu entwickeln, das künstliche Intelligenz (KI) nutzt, um mutmaßliche Bilder und Videos von sexuellem Kindesmissbrauch automatisch zu klassifizieren”. In vier Zeilen ging Allaerts auf das Problem von Verzerrungen ein. Er wies darauf hin, dass eine ausgewogene Datenzusammensetzung bezüglich Alter, Geschlecht und ethnischer Zugehörigkeit notwendig sei, „um das Risiko zu begrenzen, dass das Tool CSAM nur für bestimmte ethnische Gruppen oder Geschlechter erkennt”. Die Entwicklungsphase würde in einer kontrollierten Umgebung stattfinden, um jegliches Risiko von Datenschutzverletzungen zu begrenzen.

Um das Tool zu trainieren, würde das Projekt Missbrauchsdarstellungen und Nicht-CSAM-Material verwenden. Während unklar ist, welches Material Europol für letzteres beschaffen würde, stammt das CSAM-Material größtenteils vom National Center for Missing and Exploited Children (NCMEC). NCMEC ist eine gemeinnützige Organisation aus den USA, die eng mit der US-amerikanischen Strafverfolgungsbehörden zusammenarbeitet.

Obwohl Europol die Pläne zum Training eines Erkennungsprogramms bis Ende 2023 zurückgestellt hat, fließen die vom NCMEC gelieferten Daten in das erste interne Modell ein, das im Oktober 2023 eingeführt wurde.

Die Maschine mit dem Namen EU CARES hat die Aufgabe, automatisch Daten herunterzuladen, die von US-amerikanischen Online-Dienstleistern gemeldet werden. Diese sind verpflichtet, verdächtiges Material an NCMEC zu melden. EU CARES gleicht die Daten dann mit den Beständen von Europol ab und leitet sie an die Strafverfolgungsbehörden der Mitgliedstaaten weiter.

Das Volumen des gemeldeten Materials – hauptsächlich von US-amerikanischen Digitalriesen wie Meta oder Google – wurde so groß, dass die manuelle Verarbeitung und Weitergabe nicht mehr möglich war, die Europol vor dem Einsatz von KI durchgeführt hatte.

Europol hatte in seiner eigenen Bewertung des Systems Risiken in Bezug auf „falsche Datenmeldungen durch das NCMEC“ und „falsche Treffer im Zusammenhang mit Meldungen“ festgestellt. Dennoch hat die Behörde bei ihren Berichten an den EDSB keines dieser Risiken vollständig bewertet.

Die Datenschutzbehörde betonte die „schwerwiegenden Folgen”, die Ungenauigkeiten haben könnten. Sie forderte die Europol auf, zusätzliche Maßnahmen zur Risikominderung zu ergreifen, etwa durch inkorrekt kategorisierte Informationen oder „falsche Abgleichberichte, die eine betroffene Person zu Unrecht in eine strafrechtliche Ermittlung ziehen können”. Die Folgen für eine Person wären in solchen Fällen schwerwiegend.

Als Reaktion darauf verpflichtete sich Europol, verdächtige Daten als „unbestätigt“ zu kennzeichnen, „verbesserte“ Warnungen für Auffälligkeiten hinzuzufügen und sein System zur Entfernung zurückgezogener Meldungen zu verbessern. Neben anderen Maßnahmen erklärte die Behörde, dass diese Schritte den Bedenken des EDSB hinsichtlich der Genauigkeit und der Fehler bei Querverweisen Rechnung tragen würden.

Im Februar 2025 erklärte die Europol-Direktorin Catherine De Bolle, dass EU CARES „bis Januar 2025 insgesamt 780.000 Meldungen mit ergänzenden Informationen übermittelt“ habe. Offen bleibt, wie viele davon falsch positive oder redundante Hinweise sind. Das Bundeskriminalamt, das Meldungen direkt vom NCMEC erhält, ohne das System von Europol zu nutzen, teilte auf Anfrage mit, dass von 205.728 im Jahr 2024 eingegangenen NCMEC-Meldungen 99.375 „strafrechtlich nicht relevant“ waren. Das entspricht 48,3 Prozent.

Die nächste Herausforderung: Gesichtserkennung

Obwohl Datenschutzbehörden auf Schutzmaßnahmen bei EU CARES drängten, weitete Europol den Einsatz von automatisierten Tools auf einen weiteren sensiblen Bereich aus: Gesichtserkennung.

Ab 2016 hat die Behörde mehrere kommerzielle Tools getestet und erworben. Die neueste Anschaffung, NeoFace Watch (NFW) des japanischen Technologieunternehmens NEC, sollte ein früheres internes System namens FACE ersetzen oder ergänzen, das Mitte 2020 bereits auf etwa eine Million Gesichtsbilder zugreifen konnte.

Stark geschwärzte Dokumente zeigen, dass Europol bis 2023 mit NEC an Plänen zur Datenmigration und Videoverarbeitung arbeitete. Als Europol später dem EDSB das neue Programm zur Überprüfung vorlegte, warnte dieser vor dem „Risiko einer geringeren Genauigkeit bei den Gesichtern von Minderjährigen (als eine Form der Verzerrung)” und vor einer „inkohärenten Verarbeitung”, wenn alte und neue Systeme (wie das bestehende FACE und NeoFace Watch) parallel laufen. Die Datenschutzbehörde forderte Europol auf, eine sechsmonatige Pilotphase durchzuführen, um einen akzeptablen Genauigkeitsschwellenwert zu ermitteln und falsch-positive Ergebnisse zu minimieren. Nach der Konsultation entschied Europol aus Vorsichtsmaßnahme, die Daten von Kindern unter 12 Jahren aus der Verarbeitung auszunehmen.

In seiner Vorlage an den EDSB verwies Europol auf zwei Studien des National Institute of Standards and Technology (NIST), einer US-amerikanischen Regierungsbehörde. Die Studien sollten eigentlich dazu dienen, die Entscheidung von Europol für NeoFace Watch als neues System zu untermauern. In einer der Studien gab NIST an, dass es keine „wilden Bilder“ aus dem Internet oder von Videoüberwachungskameras verwendet habe, wie sie Europol normalerweise verwenden würde.

In einem verwandten Bericht dokumentierte NIST in seinen Bewertungen des Algorithmus von NEC, dass die Verwendung von Fotos bei schlechten Lichtverhältnissen zu einer Falsch-Identizifierungsrate von bis zu 38 Prozent führe. Im Oktober 2024 wurde ein Vertrag mit NEC unterzeichnet. Gegen ähnliche Einsätze von NeoFace Watch in Großbritannien gibt es wegen Bedenken zu Verzerrungen und Datenschutz Klagen vor Gerichten.

In einer nicht bindenden Stellungnahme aus dem November desselben Jahres beschrieb der Grundrechtsbeauftragte von Europol das System als eines, das „das Risiko von Fehlalarmen erhöht“, was das Recht auf Verteidigung oder ein faires Verfahren beeinträchtigen könne. Das System wird nach der neuen KI-Verordnung der EU als Hochrisiko-System eingestuft. Dennoch gab der Grundrechtsbeauftragte das System frei und forderte die Behörde lediglich auf, bei grenzüberschreitenden Ermittlungen anzugeben, wenn das Tool eingesetzt wird, um „die Transparenz und Rechenschaftspflicht zu verbessern, die für die Aufrechterhaltung des Vertrauens der Öffentlichkeit von entscheidender Bedeutung sind“.

Der Hersteller NEC schrieb auf Anfrage, dass NeoFace Watch in der jüngsten Testrunde des NIST als „die weltweit genaueste Lösung“ abschnitt. NEC fügte hinzu, dass sein Produkt „umfangreichen unabhängigen Tests durch das National Physical Laboratory (NPL) unterzogen wurde und beim Live-Einsatz unter typischen Bedingungen keine falsch-positiven Identifizierungen aufwies“.

Hohe Genauigkeit allein macht Gesichtserkennung nicht sicher und beseitigt auch nicht die in diesem Fall dokumentierten rechtlichen Bedenken. Experten wie Luc Rocher, Professor am Oxford Internet Institute, haben gezeigt, dass die Bewertungsmethoden für die Gesichtserkennung immer noch nicht die tatsächliche Leistung in der Praxis vollständig erfassen, wo Faktoren wie Bildqualität, Bevölkerungsgröße und demografische Vielfalt zu einer erheblichen Verschlechterung der Genauigkeit führen – insbesondere bei Personen aus ethnischen Minderheiten und jungen Menschen.

Barbara Simao, Expertin bei Article 19, merkte an, dass die Betonung der technischen Performance dazu führe, „die mit Gesichtserkennungstechnologien verbundenen Risiken herunterzuspielen“, darunter die vom EDSB aufgezeigte Verzerrungen bei Minderjährigen und die von der eigenen Aufsichtsinstanz bei Europol identifizierten Gefahren für das Recht auf ein faires Verfahren.

Das Gesamtbild

Ein verbindlicher interner Fahrplan aus dem Jahr 2023 offenbart das wahre Ausmaß von Europols Bestrebungen: 25 potenzielle KI-Modelle, die von der Objekterkennung und Bildgeolokalisierung bis hin zur Deepfake-Identifizierung und der Extraktion persönlicher Merkmale reichen.

Diese Vision würde die Behörde ins Zentrum der automatisierten Polizeiarbeit in der EU befördern, da die von Europol eingesetzten Instrumente praktisch von allen Strafverfolgungsbehörden in der gesamten EU genutzt werden könnten.

Im Februar 2025 teilte Europol-Direktorin Catherine De Bolle den europäischen Gesetzgebern mit, dass die Behörde dem EDSB zehn Datenschutz-Folgenabschätzungen vorgelegt habe, sieben für bereits genutzte und drei für neue Modelle.

Mitglieder der parlamentarischen Kontrollgruppe JPSG baten Europol um einen detaillierten Bericht über sein KI-Programm. Als die Behörde diesen vorlegte, schickte sie den Abgeordneten ein vierseitiges Papier mit allgemeinen Beschreibungen ihrer internen Überprüfungsprozesse, ohne substanzielle Informationen über die KI-Systeme selbst.

Die EU-Parlamentarierin Saskia Bricmont, die Teil der JPSG ist, sagt:

Die entwickelten KI-Systeme können sehr große Risiken und Konsequenzen für Grundrechte beinhalten. Es ist von entscheidender Bedeutung, dass eine strenge und wirksame Aufsicht gewährleistet ist. Trotz der bereitgestellten Informationen ist es für die Mitglieder des EU-Parlaments nach wie vor sehr komplex, ihre Kontrollaufgabe zu erfüllen und die mit der Nutzung KI-basierter Systeme durch die Agentur verbundenen Risiken vollständig zu bewerten.

Gleichzeitig bereitet die EU-Kommission eine neue, umfassende Reform vor, um Europol zu einer „wirklich funktionsfähigen Behörde” zu machen. Das genaue Ausmaß und die Art dieser Umgestaltung ist noch unklar. Die Kommission hat jedoch vorgeschlagen, das Budget von Europol für die nächste Finanzperiode auf drei Milliarden Euro aus Steuergeldern zu verdoppeln.

Diese Recherche wurde von IJ4EU und Lighthouse Reports unterstützt und erscheint ebenfalls bei Solomon und Computer Weekly. Apostolis Fotiadis ist Journalist und recherchiert zu EU-Politik in den Bereichen Technologie, Überwachung und digitale Rechte. Giacomo Zandonini ist ein in Rom ansässiger Investigativjournalist mit einer Leidenschaft für Langformartikel, die Feldforschung mit der Analyse von Dokumenten und offenen Daten verbinden. Er berichtet über die Sicherheits- und Migrationspolitik der EU und deren Auswirkungen außerhalb der EU. Luděk Stavinoha ist Dozent für Medien und globale Entwicklung an der University of East Anglia. Er forscht zu EU-Transparenz und Migrationsmanagement.



Source link

Datenschutz & Sicherheit

Datenpanne bei Schöffenwahl in Berlin: Exponiert im Ehrenamt


Im Jahr 2023 bewirbt sich Marie als Schöffin in Berlin. „Ich wollte aktiv Verantwortung in der Gesellschaft übernehmen und an diesem demokratischen Prozess mitwirken“, sagt sie, die in Wirklichkeit anders heißt. Eine juristische Vorbildung hat sie nicht. Doch die ist auch gar nicht notwendig, um ehrenamtliche Richterin zu werden.

Mehr als 60.000 Menschen in Deutschland sind Schöff:innen. Die ehrenamtlichen Richter:innen begleiten Strafverfahren an Amts- und Landgerichten und sind formal den Berufsrichter:innen gleichgestellt, gewählt werden sie für eine Dauer von 5 Jahren. Wer als Schöff:in bestimmt wird, kann das nur mit einer besonderen Begründung ablehnen. Die aktuelle Amtszeit geht bundesweit von 2024 bis 2028.

Wie andernorts in Deutschland bereiten sich auch die Berliner Bezirke im Jahr 2023 auf die Wahl der neuen Schöff:innen an Strafgerichten und zusätzlich der ehrenamtlichen Richter:innen an Verwaltungsgerichten vor. Viele Menschen bewerben sich wie Marie freiwillig auf das Schöff:innen-Amt. Da, wo in der Bundeshauptstadt nicht genügend freiwillige Bewerber:innen zusammenkommen, unter anderem in Berlin-Mitte, werden zusätzlich zufällig ausgewählte Personen auf eine Vorschlagsliste aufgenommen.

Bei einer Sitzung im Frühjahr 2023 beschließt das Bezirksamt Mitte dann seine finale Vorschlagsliste, über die später die Bezirksverordnetenversammlung abstimmen wird. Der Vorgang wird, wie andere Beschlüsse, auf der Website des Bezirksamts veröffentlicht. Doch aus Versehen geraten auch die kompletten Vorschlagslisten ins Netz, auf ihnen eine Menge personenbezogene Daten: „Schöffenvorschlagsliste 2023 männlich freiwillig“ oder „Ehrenamt Richterin“ heißen diese. Gemeinsam enthalten sie mehr als 700 Namen mit Postleitzahl des Wohnorts, Geburtsjahr, teils erlerntem und ausgeübtem Beruf sowie bei einer der Listen sogar die genaue Anschrift und das exakte Geburtsdatum von 16 Personen. Eine Datenpanne.

Aus Versehen „Ja“ eingetragen

Im Gerichtsverfassungsgesetz ist zwar festgelegt, dass die Vorschlagslisten für neue Schöff:innen eine Woche lang zur Einsicht in der Gemeinde ausgelegt werden. In dem Formular für die Berliner Kandidat:innen heißt es jedoch extra, diese Listen würden „nur in gedruckter Form“ zur Einsicht bereitgestellt. Auch die Wochenfrist der Auslage überschreitet die Veröffentlichung des Bezirksamts deutlich.

Doch wie konnte es zu der Veröffentlichung kommen? Auf Anfrage von netzpolitik.org antwortet das Bezirksamt Mitte: „Im Protokoll der entsprechenden Bezirksamtssitzung war unter der Rubrik ‚Veröffentlichung‘ versehentlich ‚Ja‘ eingetragen worden.“ Dieser Fehler sei nicht aufgefallen, „weder dem Bezirksamts-Gremium bei der finalen Freigabe des Protokolls  noch später im Geschäftsbereich, aus dem die Bezirksamts-Vorlage kam, noch im Büro der Bezirksbürgermeisterin, das die Bezirksamts-Vorlage ins Netz geladen hat“.

So stehen die Listen im Jahr 2023 mehrere Wochen online, bis jemand einen Hinweis gibt. „Eine betroffene Person wandte sich seinerzeit an das Wahlamt“, schreibt das Bezirksamt Mitte. Man nimmt daraufhin die Listen aus dem Netz. Wann genau das geschah, kann das Bezirksamt nicht mehr sagen, „jedenfalls zeitnah nach Veröffentlichung“, heißt es auf Anfrage. Eine Meldung an die Berliner Datenschutzbehörde erfolgt damals nicht, auch die Betroffenen bekommen keine Benachrichtigung.

Ein Sprecher der Berliner Datenschutzbehörde bestätigt auf Nachfrage von netzpolitik.org, dass ein Vorfall standardmäßig „binnen 72 Stunden nach Bekanntwerden zu melden“ ist. Warum das damals nicht geschah, lässt sich heute nicht mehr nachvollziehen. Doch das Bezirksamt versäumt noch etwas anderes und denkt nicht daran, dass die Listen auch noch andernorts zu finden sein könnten, etwa im Internet Archive. Das Projekt hat sich der Langzeitarchivierung digitaler Daten verschrieben und bietet unter anderem Einblicke in historische Versionen von Websites. Und so bleiben auch die Vorschlagslisten für Schöff:innen weitere Jahre im Netz. Bis zu einem weiteren Hinweis aus unserer Redaktion Anfang Januar 2026.

Betroffene fühlen sich verunsichert und verwundbar

Diesmal reagiert das Bezirksamt umfangreich und informiert seine interne Datenschutzbeauftragte. Die meldet den Sachverhalt an die Berliner Datenschutzbehörde. Auch an das Internet Archive habe man sich direkt gewandt, heißt es gegenüber netzpolitik.org, und eine „unverzügliche Löschung beantragt“. Betroffene seien ebenfalls per Brief informiert worden. Nach unseren Informationen ist dies mittlerweile auch bei einigen der Menschen auf der Liste passiert, wie stichprobenartige Nachfragen ergeben haben.

Marie, die sich 2023 für das Schöff:innen-Amt beworben hatte, war „fassungslos“, als sie erfuhr, dass ihre persönlichen Daten im Netz veröffentlicht waren. „Ich war davon ausgegangen, dass sensible Informationen verantwortungsvoll geschützt werden“, sagt sie im Gespräch. Dass das bei der Vorschlagsliste offenbar nicht geklappt hat, habe in ihr Verunsicherung und ein Gefühl von Hilflosigkeit sowie Verwundbarkeit ausgelöst. Denn im Gegensatz zur zeitlich begrenzten öffentlichen Auslage in der Gemeinde gebe es bei der Veröffentlichung im Netz ein viel größeres Publikum – „eines, das man damit nie erreichen wollte“.

Die Tragweite des Vorfalls ist auch dem Bezirksamt offenbar bewusst. „Aus datenschutzrechtlicher Sicht handelt es sich um eine unbeabsichtigte Offenlegung personenbezogener Daten“, schreibt das Bezirksamt gegenüber netzpolitik.org. In der zugehörigen Meldung an die Berliner Datenschutzbehörde gibt das Amt unter der Frage „Welche Folgen für die Betroffenen halten Sie für wahrscheinlich?“ folgende Punkte an: „Gesellschaftliche Nachteile, Identitätsdiebstahl oder -betrug, Bedrohung, Erpressung im Kontext der Tätigkeit als Schöff:innen/Richter:innen“.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Schöff:innen verdienen besonderen Schutz

Potenzielle Schöff:innen sind in Strafverfahren besonders exponiert. Das zeigt etwa ein beinahe historischer Fall aus dem Jahr 1995. Mehrere ehrenamtliche Richter:innen verweigerten damals die Zusammenarbeit mit einem Mannheimer Richter, der in einer Urteilsbegründung den damaligen NPD-Chef und Holocaustleugner Günter Deckert „Charakterstärke, tadellose Eigenschaften und einen vorzüglichen persönlichen Eindruck“ attestiert hatte. Einige der verweigernden Schöff:innen bekamen daraufhin Drohungen.

Und erst im vergangenen Jahr zeigte ein weiterer Fall in Berlin, wie sehr Schöff:innen ins Visier geraten können. Damals verfolgte ein Angeklagter aus der sogenannten Querdenker-Szene einen Schöffen im Anschluss an seine Verhandlung. Er bedrängte den Ehrenamtsrichter vor dem Gerichtsgebäude und wollte ihn festhalten. Dem Schöffen gelang es aber, sich in Sicherheit zu bringen.

Ein Sprecher der Berliner Datenschutzbeauftragten schreibt: „Angemessene Datenschutzvorkehrungen sind bei ehrenamtlichem Engagement in öffentlich exponierten Ämtern wie dem Schöffenamt essenziell, insbesondere um die betroffenen Personen vor Belästigung, Bedrohung oder unzulässiger Einflussnahme zu schützen. Gerade Ehrenamtliche, die sich ohne gesonderte Vergütung oder neben ihrem Hauptberuf für das Gemeinwohl einsetzen, verdienen besonderen Schutz ihrer Privatsphäre, damit ihr Engagement nicht zu persönlichen Nachteilen oder Gefährdungen führt.“ Der Sprecher betont weiter, dass es sich beim Schöff:innen-Amt um eine „Bürgerpflicht“ handele. Die Vorgeschlagenen müssten sich auf eine rechtskonforme Datenverarbeitung verlassen können, „unabhängig davon, ob sie sich freiwillig gemeldet haben oder ausgelost wurden“.

Für die Zukunft müsse es „geeignete organisatorische Maßnahmen“ geben, um derartige Vorfälle zu verhindern, so das Bezirksamt. Es will nun nachbessern. Als Beispiele nennt es „die Erarbeitung von Regeln und Prüfschritten für Veröffentlichungsprozesse und verstärkte Sensibilisierung der Beschäftigten für datenschutzrechtliche Anforderungen bei Anlagen mit personenbezogenen Daten“.

Dass das Bezirksamt seine Prozesse überarbeitet, wünscht sich auch Marie. „Da muss eine Aufarbeitung stattfinden, damit sensible Daten bestmöglich geschützt werden.“ Auch eine Entschuldigung und eine Erklärung, wie das passieren konnte, würde sie sich wünschen. Ob sie sich nach dem Datenschutzvorfall noch einmal auf das Schöff:innen-Amt bewerben würde? Nein, sagt Marie. An dieser Entscheidung hat auch der Datenschutz-Vorfall einen großen Anteil. Und sie fürchtet, dass solche Vorkommnisse auch andere abhalten könnten, sich freiwillig zu melden.



Source link

Weiterlesen

Datenschutz & Sicherheit

Überwachungskonzern Palantir verklagt die „Republik“


Der Überwachungskonzern Palantir verklagt das Republik Magazin wegen dessen Berichterstattung und verlangt eine Gegendarstellung. Das gab heute die Journalistin Adrienne Fichter in sozialen Medien bekannt, ein Sprecher von Palantir bestätigte den Vorgang gegenüber netzpolitik.org.

Im Dezember hatte das Magazin berichtet, wie Palantir versuchte, in der Schweiz Fuß zu fassen – und wie das Schweizer Militär eine Zusammenarbeit ablehnte, weil es unter anderem zum Schluss kam, dass ein Abfluss von Daten aus den Palantir-Systemen technisch nicht verhindert werden könne.

Wenige andere Medien haben in letzter Zeit so viel und so detailliert über Palantir berichtet wie das kleine leser:innenfinanzierte Schweizer Magazin mit seinen 30.000 Abonnent:innen. Palantir hingegen ist ein milliardenschwerer Überwachungs- und Datenkonzern, dessen Software zahlreiche Polizeibehörden, Militärs und Geheimdienste weltweit verwenden. Auch in Deutschland arbeiten Polizeien mit dem Unternehmen zusammen. Obwohl der Einsatz der Software von Palantir höchst umstritten ist, schaffen hierzulande neue Polizeigesetze gerade die rechtliche Grundlage für den ausgeweiteten Einsatz derartiger Software.

Das Unternehmen Palantir gehört unter anderem dem rechtsgerichteten Oligarchen Peter Thiel, der aus seiner Verachtung für die Demokratie kein Geheimnis macht. Die Systeme des Konzerns helfen Trumps Polizeitruppe ICE bei ihren Abschiebe-Einsätzen und dem israelischen Militär bei dessen Kriegen. Palantir wird dem „Authoritarian Stack“ zugerechnet, also privatwirtschaftliche Unternehmen, die zunehmend in staatliche Kontroll- und Überwachungssysteme eingreifen und diese übernehmen.

Schweizer Militär warnte vor Sicherheitsrisiken

Offenbar macht investigativer Journalismus den Überwachungsriesen nervös: Im Dezember hatte Republik eine zweiteilige Recherche veröffentlicht, in der das Medium nachzeichnete, wie der Überwachungskonzern um unterschiedliche Schweizer Behörden geworben hatte. Grundlage der Recherche waren Dokumente, die das Rechercheteam durch Informationsfreiheitsanfragen erhalten hatte. Trotz sieben Jahren Klinkenputzen gelang es Palantir demnach nicht, einen Vertrag mit Schweizer Institutionen und Behörden abzuschließen.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Die Republik fand dabei etwa heraus, dass der Generalstab der Schweizer Armee die Software evaluiert hatte und zu dem Schluss gekommen war, dass die Armee auf den Einsatz von Palantir-Produkten verzichten sollte. Die Militärexperten fürchteten, dass ein Abfluss von Daten aus den Palantir-Systemen hin zu US-amerikanischen Geheimdiensten wie CIA und NSA technisch nicht verhindert werden könne.

Die Recherche fand international Widerhall, auch der Guardian berichtete. Britische Abgeordnete verwiesen auf die Schweizer Einschätzung. „Ich denke, die Schweizer Armee hat das Recht, misstrauisch zu sein“, sagte etwa der Labour-Abgeordnete Clive Lewis.

Weltpolitik vor dem Handelsgericht

Gegen diese Berichterstattung hatte Palantir laut der verantwortlichen Tech-Reporterin Adrienne Fichter in der Weihnachtszeit einen Blogbeitrag bei LinkedIn in Stellung gebracht, in dem der Palantir-Manager Courtney Bowman der Republik unter anderem Verzerrungen, Andeutungen und grenzwertige Verschwörungstheorien vorwarf. Am 29. Dezember verlangte Palantir Fichter zufolge dann per Anwaltsschreiben eine Gegendarstellung in der Republik. Das lehnte das Magazin nach eigener Aussage ab. Im Januar wiederholte der Konzern demnach seine Forderung. Die Republik lehnte wieder ab. Nun zieht Palantir also vor das Handelsgericht in Zürich um eine Gegendarstellung durchzusetzen.

Adrienne Fichter schreibt, dass der Krieg, den die autoritäre Tech-Oligarchie gegen die Medien führe, mit der Klage eine neue Stufe erreicht habe. Palantir wolle nicht, dass die Republik die Wahrheit schreibe. Die Berichterstattung mache das Unternehmen nervös. „Selbstverständlich haben wir uns stets an die hohen Standards journalistischer Arbeit gehalten. Vor der Veröffentlichung haben wir eine gründliche Faktenprüfung durchgeführt“, so Fichter weiter. Die Recherchen in Bezug auf die Schweiz und Zürich basierten neben den eigenen Erkenntnissen zudem auf der Berichterstattung renommierter Medien.

Laut Fichter hat die Republik eine „umfassende Verteidigungsschrift“ eingereicht. „Alle unsere Feststellungen können wir mit verschiedenen Dokumenten und öffentlich zugänglichen Medienberichten belegen.“ In Zürich werde nun vor dem Gericht bald Weltpolitik verhandelt, so Fichter weiter. Für sie ist klar: „Wir lassen uns nicht einschüchtern.“



Source link

Weiterlesen

Datenschutz & Sicherheit

Innenausschuss in Sachsen-Anhalt winkt massiv kritisiertes Palantir-Gesetz unverändert durch


Der Innenausschuss von Sachsen-Anhalt hatte heute einen Gesetzentwurf auf der Tagesordnung, der es in sich hat: Die Polizei soll eine Reihe neuer Befugnisse bekommen, darunter auch die polizeiliche Datenanalyse. Hinter dem Begriff versteckt sich die Idee, die verschiedenen Datentöpfe der Polizei zusammenzuführen und die Informationen darin automatisiert auszuwerten.

Bisher wird in den vier Bundesländern, die eine solche Datenanalyse in ihren Polizeigesetzen erlauben und anwenden, die Softwarelösung „Gotham“ des US-Konzerns Palantir genutzt. Aus geopolitischen Gründen ist der US-Anbieter aber gerade bei sensiblen polizeiinternen Daten alles andere als die erste Wahl. Die Softwaresysteme des Konzerns sind proprietär und die genauen Funktionen Geschäftsgeheimnisse.

Palantir

Wir berichten mehr über Palantir als uns lieb wäre. Unterstütze unsere Arbeit!

Die automatisierte polizeiliche Datenanalyse ist auch rechtlich längst kein unbeschriebenes Blatt mehr, sondern wurde bereits wegen Gesetzen in Hessen und Hamburg beim Bundesverfassungsgericht verhandelt. Beide Gesetze waren in Teilen verfassungswidrig. Auch Nordrhein-Westfalen, Bayern und Baden-Württemberg stehen gerade wegen der Datenanalyse-Regelungen in ihren Polizeigesetzen und wegen der Zusammenarbeit mit Palantir in der Kritik. Ein Urteil des Bundesverfassungsgerichts aus dem Februar 2023 macht weitreichende und detaillierte Vorgaben für solche Datenzusammenführungen.

Das Urteil, das alle deutschen Gesetzgeber bindet, scheint aber nicht überall mit der genügenden Expertise gelesen worden zu sein: In Sachsen-Anhalt war der Gesetzentwurf von Sachverständigen harsch kritisiert worden, weil er die Vorgaben aus Karlsruhe nicht ausreichend umsetzt.

Experten zerpflücken automatisierte Datenanalyse bei der Polizei Sachsen-Anhalt

Doch die Experten stießen offenbar auf taube Ohren: Ohne Korrekturen wurden die geplanten gesetzlichen Regelungen zur Datenanalyse nun von den Regierungsparteien CDU, SPD und FDP als Beschlussempfehlung an das Parlament gegeben. Der Gesetzentwurf blieb unverändert in der ursprünglichen Fassung von 14. Januar 2025, was die umstrittene Datenanalyse angeht. Die Regierungskoalition kündigte aber einen Entschließungsantrag zur zweiten Lesung im Landtag an. Der Inhalt des Antrags ist noch unbekannt.

Nicht nur ein Problem Sachsen-Anhalts

Die Juristin und Palantir-Expertin Franziska Görlitz von der Gesellschaft für Freiheitsrechte (GFF) hatte die Datenzusammenführung von Polizeidaten, die im sachsen-anhaltinischen Gesetz Strategische Datenanalysen und Operative Datenanalysen heißen, in ihrer Stellungnahme als „schwerwiegenden Grundrechtseingriff“ bewertet. Die Grenzen vor allem der Strategischen Analyse würden das Urteil des Bundesverfassungsgerichts zur automatisierten Datenanalyse aus dem Jahr 2023 missachten: Die „vorgesehenen Eingriffsschwellen“ genügten den Vorgaben aus Karlsruhe nicht.

Die Datenmenge der Analyse ist im Gesetzentwurf nicht beschränkt. Da zahlreiche polizeiliche Datenbanken und Auskunfts- und Informationssysteme einbezogen werden dürfen, ist das Polizeigesetz damit nicht nur ein Problem Sachsen-Anhalts. Denn es fließen auch Daten in die Analyse ein, die gar nicht von der dortigen Landespolizei erhoben wurden.

Portraitfoto von Jonas Botta
Jonas Botta, Forschungsreferent am FÖV.

Darauf verwies auch Jonas Botta, Sachverständiger in der Anhörung und Verfassungs- und Datenschutzjurist beim Deutschen Forschungsinstitut für öffentliche Verwaltung. Es sei keine herkunftsbezogene Beschränkung im Gesetzentwurf enthalten. So würden beispielsweise sogar Daten in die Analyse einfließen dürfen, die nicht einmal von inländischen Polizeibehörden stammen. Das betrifft etwa Geheimdienstdaten vom Verfassungsschutz, Bundesnachrichtendienst oder Militärischen Abschirmdienst, die an Polizeibehörden übermittelt wurden. Es sei nach dem Gesetzentwurf zulässig, Geheimdienstinformationen, die sich „in den polizeilichen Datenbeständen befinden, in eine Analyseplattform einzuspeisen“, so Botta in seiner Stellungnahme.

Gegenüber netzpolitik.org sagt Juristin Görlitz, dass im geplanten Polizeigesetz „weitgehend unbegrenzte Analysen riesiger Datenmengen bei der Polizei unter zu geringen Voraussetzungen“ vorgesehen seien. Das beträfe auch Daten völlig unverdächtiger Menschen, darunter beispielsweise auch vermisste Personen oder Opfer von Straftaten. Es könnten „Unbeteiligte ins Visier der Polizei geraten, ohne dass sie dafür Anlass geboten haben“.

Porträtfoto von Goerlitz
GFF-Juristin Franziska Görlitz.

Wie diese Analysen ablaufen, sei im Gesetz „kaum eingeschränkt“. Es mangele auch an „ausreichender Kontrolle und Sicherungen“, um wirksam vor Fehlern, diskriminierender Software und Missbrauch zu schützen. Das sei deswegen problematisch, weil die polizeilichen Datenanalysen weitgehende Überwachungsmaßnahmen seien, die tief in die Grundrechte eingriffen, ohne dass die Betroffenen das überhaupt mitbekämen.

Görlitz erklärt unzweideutig: „Die vom Bundesverfassungsgericht aufgestellten Anforderungen für Datenanalyse-Befugnisse sind nicht eingehalten.“

Auch hat das Gesetz in Sachsen-Anhalt weitere Defizite, die bereits in anderen Bundesländern kritisiert wurden. In Hessen liegt etwa eine Verfassungsbeschwerde der GFF gegen das dortige Polizeigesetz und die automatisierte Datenanalyse vor, die das hohe Gericht aktuell bearbeitet. Gerügt wird darin insbesondere, dass zuviele konkret im Gesetz zu regelnde Vorgaben kurzerhand in Verordnungen ausgelagert werden.

Das kritisiert Görlitz auch an den sachsen-anhaltinischen Plänen, bei denen die Befugnis zu Datenanalysen nicht ausreichend beschränkt sei. Der Gesetzgeber „überlässt es der Verwaltung, selbst Beschränkungen festzulegen“. Die Juristin hat keine Zweifel: „Der Entwurf ist daher verfassungswidrig.“

Opposition gegen eine Zusammenarbeit mit Peter Thiel und Palantir

Die Sachverständigen senkten unmissverständlich die Daumen. Und auch die Opposition im Landtag ist nicht begeistert: Sowohl die Linke als auch die Grünen sehen die Datenanalyse-Befugnisse kritisch.

Die Linken erklären gegenüber netzpolitik.org ihre Ablehnung der Pläne zur Zusammengeführung der Polizeidaten, auch weil diese Menschen einbezieht, ohne dass sie sich „was zu Schulden haben kommen lassen“. Eva von Angern, Fraktionsvorsitzende der Linken, betont: „Ein gläserner Bürger ist mit uns Linken nicht zu machen.“ Sie stellt sich explizit „gegen eine Zusammenarbeit mit Peter Thiel, der Palantir mit entwickelt hat und einer der wichtigsten Hintermänner der rechtsautoritären Wende in den USA ist“.

Die grüne Fraktion erklärt gegenüber netzpolitik.org, dass sie den vom Innenausschuss durchgewunkenen Gesetzentwurf „aufgrund des Überwachungsdrucks, der Streubreite und der Diskriminierungsgefahr“ schlicht als „ verfassungswidrig“ erachte. Das sagt Sebastian Striegel, innenpolitischer Sprecher der Fraktion Bündnis 90/Die Grünen im Landtag von Sachsen-Anhalt, und betont: „CDU, SPD und FDP haben heute im Ausschuss alle praktikablen und verfassungsrechtlichen Bedenken und Zweifel an den Gesetzesvorhaben beiseite gewischt.“

Das Gesetz sei „im Design auf Produkte des Herstellers Palantir zugeschnitten“. Die Landesregierung gebe sich hier „kenntnislos“ und schiebe „Verantwortung an den Bund ab“. Ob im Bund jedoch auch Innenminister Alexander Dobrindt (CSU) auf die Palantir-Karte setzen wird, hat er noch nicht öffentlich kundgetan.

Gefährliche AfD-Vorzeichen

Die langjährige Landesinnenministerin von Sachsen-Anhalt, Tamara Zieschang (CDU), ist offenbar keine allzu starke Verfechterin der Palantir-Softwarelösung. Sie setzt sich für eine alternative Software für die Polizei ein, die all die Datentöpfe der Behörden zusammenführt.

Allerdings steht eine solche Alternative nicht sofort zur Verfügung, anders als die Softwarelösung des US-amerikanischen Konzerns. Denn das Bundesland Bayern hatte einen Rahmenvertrag ausgehandelt, in den auch Sachsen-Anhalts Polizei kurzfristig einsteigen könnte. Daher brachte Zieschang die Systeme von Palantir als eine Art Zwischenlösung als Gespräch.

Sachsen-Anhalt will „interimsweise“ Palantir

Das geplante Polizeigesetz in Sachsen-Anhalt entsteht unter gefährlichen Vorzeichen: Im September 2026 wird dort gewählt. Und eine Regierungsübernahme der AfD scheint nicht ausgeschlossen, wenn man den Umfragen glaubt. Sie sehen die Rechtsradikalen in Sachsen-Anhalt bei Werten um die vierzig Prozent.

Selbst wenn die aktuelle Regierung aus CDU, SPD und FDP doch nicht die bisher favorisierte Interimslösung umsetzt und sich noch gegen den US-Anbieter Palantir entscheidet, könnte die AfD nach der Wahl die Karten neu mischen. Die guten Kontakte ins Trump-MAGA-Lager, in das sich auch der US-Konzern eingeordnet hat, weisen schon in diese Richtung.



Source link

Weiterlesen

Beliebt