Connect with us

Datenschutz & Sicherheit

KI in Asylverfahren birgt erhebliche Risiken



Wenn Asylverfahren mit sogenannter Künstlicher Intelligenz bearbeitet werden, entstehen erhebliche Risiken für die Grundrechte der Betroffenen, das stellt der wissenschaftliche Dienst des Europäischen Parlaments in einem Bericht fest. Dennoch würden immer mehr KI-basierte Technologien in dem Bereich eingesetzt. Asylverfahren sollen so schneller, mit weniger Aufwand und ohne Vorurteile abgeschlossen werden.

Der wissenschaftliche Dienst stellt in dem Bericht jedoch fest, dass KI-Technologien Ungenauigkeit, Voreingenommenheit, Diskriminierung, Verfahrensbeeinflussung und Datenschutzrisiken mit sich bringen. Sie kämen nur den Behörden zugute und würden dabei die Position der Asylbewerber*innen im System schwächen.

Was für KI-Technologien werden benutzt?

Im Bericht werden KI-Systeme aufgeführt, die europaweit genutzt werden. Auch Deutschland nutzt bereits einige davon. Das Bundesamt für Migration und Flüchtlinge (BAMF) verwendet beispielsweise ein KI-System, welches dazu trainiert ist, Dialekte zu erkennen, um so die Herkunft der Menschen festzustellen, die Asyl beantragen. Mit der KI-Technologie soll die Bestimmung des Herkunftslandes vereinfacht werden, besonders wenn keine Nachweise vorliegen. Das Herkunftsland und die dort drohende Art der Verfolgung haben Auswirkungen auf die Entscheidung im Asylverfahren.

Außerdem nutzt Deutschland technische Systeme zur Analyse von Handydaten. Antragstellende ohne anerkannte Ausweisdokumente müssen ihr Handy zur Durchsuchung den Behörden übergeben, damit ihr Antrag bestehen bleibt. Ein Computer erstellt einen Bericht aus allen Daten auf dem Handy, die Rückschlüsse auf das Herkunftsland ermöglichen: Vorwahlen eingespeicherter Handynummern, verwendete Sprachen in Nachrichten oder gespeicherte Standortdaten von Fotos. Wenn ein Anwalt des BAMF entscheidet, dass der Bericht notwendig ist für die Feststellung des Herkunftslandes, können Sachbearbeiter*innen diese analysierten Daten einsehen.

Grundrechte können nicht gewahrt werden

In seinem Bericht fasst der wissenschaftliche Dienst einen Bericht der europäische Agentur für Grundrechte (FRA) zusammen. Diese warnte bereits 2020, dass mehrere Grundrechte asylsuchender Menschen aus der Charta der Grundrechte der Europäischen Union bei der Verwendung von KI-Systemen durch die Behörden gefährdet würden. Dazu gehören die Würde des Menschen (Artikel 1), die Achtung des Privat- und Familienlebens (Artikel 7), der Schutz personenbezogener Daten (Artikel 8), die Gleichheit vor dem Gesetz und Nichtdiskriminierung (Artikel 20-21), das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht (Artikel 47) und das Recht auf eine gute Verwaltung (Artikel 41).

Menschen, die in der EU Asyl beantragen, fliehen meist vor Verfolgung und können sterben, wenn sie keinen Schutz bekommen. Der Bericht warnt davor, die folgenschwere Entscheidung über die Schutzbedürftigkeit mithilfe von Datenanalysen durch KI-Systeme zu treffen, da die Technologie nicht so verlässlich sei, wie sie wirke.

KI ist nicht neutral

Die Qualität einer KI ist nur so gut, wie die Qualität der Trainingsdaten. Nur eine KI, die mit sehr vielen Daten trainiert worden ist, kann aussagekräftige Ergebnisse liefern. Für jedes Herkunftsland müssen ausreichend Daten vorhanden sein. Jedoch fehlen meist Daten, so der Bericht. Auch seien die Trainingsdaten nicht gleichmäßig verteilt, sondern gefärbt durch vermehrt auftretende Herkunftsländer. Entsprechend seien Ergebnisse der KI-Systeme nicht aussagekräftig genug für Entscheidungen mit potenzieller Todesfolge, besonders bei Herkunftsländern, zu denen wenig Daten zur Verfügung stehen.

Zusätzlich treffen KI-Systeme Entscheidungen über Asylverfahren, die auf vorausgegangenen menschlichen Entscheidungen basieren. Vorurteile in menschlichen Entscheidungen würden dabei von den Systemen erlernt und repliziert. Wenn diese auch mit Daten von KI-beeinflussten Entscheidungen trainiert werden, reproduzierten sich die Vorurteile immer weiter. Somit sei die KI-Technologie, so der Bericht, eben nicht der vorgesehene unvoreingenommene Entscheidungsträger.

Daten sind eben auch nur Daten

Darüber hinaus weist die FRA darauf hin, dass die KI-Systeme etwas anhand der Daten entscheiden sollen, was logisch nicht unbedingt zusammenhängt. Nimmt man das Dialekterkennungssystem aus Deutschland als Beispiel, bedeutet ein Dialekt aus einer bestimmten Region nicht unbedingt eine Herkunft aus der Region und auch nicht die entsprechende Nationalität.

Deswegen müsse von Mitarbeiter*innen der zuständigen Behörden beachtet werden, dass die KI-Systeme keine klaren Ergebnisse liefern würden. Als Ergebnis würden sie nur Wahrscheinlichkeiten ausspucken, die auf unzureichenden Daten beruhen würden. Dazu käme die hohe Fehlerquote der KI-Systeme. Das Dialekterkennungssystem, welches das BAMF nutzt, ordnet zwei von zehn asylsuchenden Menschen mit arabischem Dialekt und fast drei von zehn asylsuchenden Menschen mit persischem Dialekt das falsche Herkunftsland zu. Menschen tendieren dazu, Technologien blind zu vertrauen, besonders einem intransparenten KI-System. Der Bericht weist auf das Risiko hin, dass Fehler eines KI-Systems den Verdacht einer Fehlbehauptung von Antragstellenden bestätigen könnten.

Ein faires Verfahren ist nicht sichergestellt

Auch wenn mit den Ergebnissen der KI-Systeme reflektiert umgegangen werde und sie nur in unterstützender Funktion genutzt würden, bestünden große Risiken. Aus juristischer Sicht sei die Fairness des Verfahrens beeinflusst. Als Schutz vor Diskriminierung und Fehlentscheidungen müssen alle Asylanträge objektiv, unvoreingenommen und individuell begutachtet werden.

Eine KI, die aus vorausgegangenen Entscheidungen lernt und so ihre Aussagen trifft, ist nicht objektiv und unvoreingenommen. Dazu generalisiere eine KI, wobei individuelle Besonderheiten jedes einzelnen Falles nicht mehr genug Beachtung fänden.

Ebenfalls juristisch wichtig ist die Möglichkeit eine Entscheidung im Asylverfahren anzufechten. Stütze sich diese Entscheidung aber auf die angebliche Neutralität der Technologie, kann ein Anfechten schwierig werden. Asylbehörden sind dazu verpflichtet, Entscheidungen ausreichend zu begründen, damit Bewerber*innen die nächsten rechtlichen Schritte einleiten können. Eine KI-unterstützte Entscheidung ließe sich durch die Intransparenz der Technologie schwer erklären, weshalb das Verfahren undurchsichtig und komplexer werden würde. Zentral stellt der wissenschaftliche Dienst des EU Parlaments fest, dass sich die Integration von KI in den Asylprozess gegen die Asylbewerber*innen richtet und nur für die Behörden einen Vorteil darstellt.

Abschließend wirft das Briefing Datenschutzbedenken auf, die durch die Einspeisung persönlicher Daten in KI-Systeme entstünden. Bei der Menge von personenbezogenen Daten, die durch KI-Systeme verarbeitet werden, könnte eine Datenschutz-Folgeabschätzung erforderlich werden, um festzustellen ob ein derart großer Eingriff in den Datenschutz verhältnismäßig ist.

Trotz Bedenken grünes Licht für KI-Systeme in Asylanträngen

Obwohl der aufgegriffene Report der FRA bereits 2020 Risiken bei KI-Systemen zur Unterstützung bei Asylansträgen festgestellt hat, werden KI-Systeme weiter in den Asylprozess integriert. Trotz der Gefahren für die Grundrechte versäumt die 2024 verabschiedete KI-Verordnung der EU, die KI-Nutzung für Asylverfahren zu regulieren und Risiken zu beseitigen. Stattdessen gelten die Transparenzregelungen der Verordnung speziell in den Bereichen der Migration und des Asyls nicht.



Source link

Datenschutz & Sicherheit

US-Investoren übernehmen Spyware-Hersteller NSO-Group | heise online


Die für ihre Überwachungssoftware Pegasus bekannte NSO-Group wird von einer US-amerikanischen Investorengruppe aufgekauft. Das bestätigt das Unternehmen gegenüber dem Online-Nachrichtenportal TechCrunch. Laut NSO-Sprecher Oded Hershowitz habe „eine amerikanische Investorengruppe Dutzende Millionen Dollar in das Unternehmen investiert und die Kontrollmehrheit erworben.“

Gegenüber TechCrunch betonte er, dass die Investition nichts daran ändere, dass das Unternehmen unter israelischer Kontrolle operiert. Der Hauptsitz verbleibe in Israel und auch die Kernoperationen werden weiter von dort ausgeführt. Die NSU-Group „wird weiterhin vollständig von den zuständigen israelischen Behörden beaufsichtigt und reguliert, darunter das Verteidigungsministerium und der israelische Regulierungsrahmen“, so Hershowitz.

Die genaue Investitionssumme sowie die Identität der Investoren nannte der Sprecher nicht. Spekulationen darüber gibt es aber längst. Wie die israelische Technik-Nachrichten-Seite Calcalist berichtet, stehe eine von dem Hollywood-Produzenten Robert Simonds geführte Gruppe hinter dem Deal. Laut Calcalist hat die Übernahme eine Vorgeschichte. Simonds war demnach offenbar bereits zuvor im Vorstand der NSO-Muttergesellschaft tätig, trat jedoch nach fünf Monaten zurück. Außerdem gebe es Hinweise darauf, dass William Wrigley Jr., ein Erbe des Wrigley-Kaugummi-Imperiums, möglicherweise an den Übernahmeplänen beteiligt ist oder war.

Eigentlich steht das Unternehmen auf der Sanktionsliste des US-Handelsministeriums, das amerikanischen Unternehmen den Handel mit dem Spyware-Anbieter untersagt. John Scott-Railton, ein leitender Forscher am Citizen Lab, der seit einem Jahrzehnt Missbrauchsfälle von NSO-Spyware untersucht, äußerte gegenüber TechCrunch Bedenken zur Übernahme: „NSO ist ein Unternehmen mit einer langen Geschichte, gegen amerikanische Interessen zu handeln und das Hacken amerikanischer Beamter zu unterstützen.“ Er bezeichnete Pegasus als „Diktator-Technik“, die nicht in die Nähe von Amerikanern gehöre.

Laut TechCrunch hatte NSO noch im Mai 2025 mithilfe einer Lobbyfirma mit Verbindungen zur Trump-Administration versucht, von der US-Blockadeliste entfernt zu werden.

Viele Spekulationen zur NSO-Übernahme stehen also im Raum. Das passt zur bisherigen Geschichte, denn seit seiner Gründung steht das Unternehmen im Zentrum zahlreicher Kontroversen. Forschungs- und Journalistengruppen sowie Amnesty International haben über Jahre hinweg dokumentiert, wie die Spionagesoftware Pegasus eingesetzt wurde, um Journalisten, Menschenrechtler und Politiker in unzähligen Ländern auszuspionieren.

Für Aufsehen sorgte in jüngerer Vergangenheit die Auseinandersetzung mit dem Meta-Konzern. Anfang Mai wurde das Unternehmen zur Zahlung von mehr als 167 Millionen US-Dollar (144 Millionen Euro) Schadensersatz an den zum Meta-Konzern gehörenden Messenger-Dienst WhatsApp verurteilt.

WhatsApp verklagte die NSO-Group bereits im Oktober 2019, weil diese angeblich durch unerlaubten Zugriff auf WhatsApp-Server die Spionagesoftware Pegasus auf den Geräten von etwa 1400 Nutzern installiert hatte, darunter eben Journalisten und Menschenrechtsaktivisten.

Die NSO-Group verteidigte sich mit dem Argument, ihre Software diene Strafverfolgungsbehörden und Geheimdiensten im Auftrag ausländischer Regierungen zur Bekämpfung von Terrorismus und anderen schweren Verbrechen.


(ssi)



Source link

Weiterlesen

Datenschutz & Sicherheit

Chatkontrolle und fünf neue Kolleg:innen


Ein Murmeltier schaut hinter einem Fels hervor.
Täglich grüßt die Chatkontrolle. (Symboltier) – Alle Rechte vorbehalten IMAGO / Andreas Stroh; Bearbeitung: netzpolitik.org


Seit der vorigen Folge sind viele neue Leute ins Team gekommen. Eine dieser Personen könnt ihr in diesem Podcast kennenlernen: unser neuer – und erster – Volontär Timur. Er erzählt über sich und das, was ihn in seinen ersten Wochen bei netzpolitik.org überrascht hat.

Außerdem sprechen wir über das Thema, das uns diese Woche am meisten beschäftigt hat: die Chatkontrolle. Zwei Jahre nach der letzten Folge mit diesem Schwerpunkt berichtet Markus, wo wir heute stehen, und wie er es weiter aushält, beständig über diesen netzpolitischen Dauerbrenner zu berichten.


In dieser Folge: Timur Vorkul, Markus Reuter und Anna Biselli.
Produktion: Serafin Dinges.
Titelmusik: Trummerschlunk.


Hier ist die MP3 zum Download. Wie gewohnt gibt es den Podcast auch im offenen ogg-Format. Ein maschinell erstelltes Transkript gibt es im txt-Format.


Unseren Podcast könnt ihr auf vielen Wegen hören. Der einfachste: in dem Player hier auf der Seite auf Play drücken. Ihr findet uns aber ebenso bei Apple Podcasts, Spotify und Deezer oder mit dem Podcatcher eures Vertrauens, die URL lautet dann netzpolitik.org/podcast.


Wir freuen uns auch über Kritik, Lob, Ideen und Fragen entweder hier in den Kommentaren oder per E-Mail an podcast@netzpolitik.org.


Links und Infos

Hausmitteilungen

Thema des Monats

Aus dem Maschinenraum

Blattkritik



Source link

Weiterlesen

Datenschutz & Sicherheit

Die Woche, in der die Bundesregierung unter Druck geriet


Liebe Leser:innen,

vor genau einer Woche stand im Wochenrückblick, dass die Bundesregierung im EU-Rat am 14. Oktober für die Chatkontrolle stimmen könnte. Auf Anfragen von uns hatte sie keine Position gegen die Überwachungspläne bezogen.

Jetzt, nur eine Woche später hat sich der Wind gedreht: Die Abstimmung im EU-Rat ist erstmal abgesagt, wohl auch weil sich die Bundesregierung am vergangenen Mittwoch gegen eine „anlasslose Chatkontrolle“ positioniert hat und es so keine Mehrheit geben würde. Das wohl gefährlichste Überwachungsprojekt Europas ist vorerst wieder abgewehrt.

Im letzten Wochenrückblick stand auch, dass es nicht zu spät für Proteste sei. Und genau das hat sich bewahrheitet: Es war nicht zu spät. Aus verschiedenen Ecken der Gesellschaft gab es Gegenwind, von Bitkom über den Kinderschutzbund bis zum Messenger-Platzhirsch WhatsApp. Aber auch jede Menge wütende Menschen, die massenweise E-Mails schrieben oder anriefen, um ihren Unmut zu äußern. Eine Petition sammelte in 48 Stunden mehr als 300.000 Unterschriften. Auf unserer Startseite gab es zwischenzeitlich kein anderes Thema mehr.

Am Ende lenkte die schwarz-rote Bundesregierung ein, nicht ohne frech zu behaupten, dass sie ja schon immer gegen die anlasslose Chatkontrolle gewesen sei.

Dieser Etappensieg der Zivilgesellschaft ist ein toller Erfolg. Er zeigt, dass es sich lohnt zu protestieren. Aber das Thema Chatkontrolle ist noch lange nicht vom Tisch. Einerseits müssen wir hierzulande ganz genau schauen, was die Bundesregierung eigentlich unter der Ablehnung einer anlasslosen Chatkontrolle versteht. Meint das auch Überwachungstools wie Client-Side-Scanning? Wie sieht es mit Zugriff bei einem „Anlass“ aus? Es darf keine Technologien auf unseren Smartphones und Computern geben, die Ende-zu-Ende-Verschlüsselung in irgendeiner Form umgehen oder schwächen. Dazu muss die Bundesregierung deutlich stehen.

Auf der anderen Seite steht im EU-Rat nur ein Teil der Mitgliedsländer gegen die Chatkontrolle. Wenn da einzelne Länder kippen, könnte die Chatkontrolle trotz des Widerstands aus Deutschland doch noch kommen. Es ist also wichtig, dass auch EU-weit Bewusstsein geschaffen wird, wie gefährlich das ist – und dass Chatkontrolle nicht zur Demokratie passt. Es bleibt also viel zu tun, wir berichten natürlich weiterhin.

Dennoch können wir uns jetzt erstmal ein Gläschen Crémant gönnen und uns freuen, dass es auch noch gute Nachrichten in dieser sonst so turbulenten Welt gibt.

Herzliche Grüße

Markus Reuter

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Der Etappensieg bei der Chatkontrolle ist das Verdienst einer quicklebendigen Zivilgesellschaft, die es geschafft hat, in klugen und unerwarteten Bündnissen die Wichtigkeit des Themas allen vor Augen zu führen. Zeit, dafür Danke zu sagen.

Lesen Sie diesen Artikel: So geht Demokratie



Source link

Weiterlesen

Beliebt