Connect with us

Datenschutz & Sicherheit

Institut für Menschenrechte: Dringende Warnung vor Gesichtserkennung


Mit einem neuen Überwachungspaket will das CSU-geführte Innenministerium unter anderem mehr Befugnisse für biometrische Gesichtserkennung schaffen. Das heißt, Polizist*innen sollen viele Menschen auf einmal anhand ihres Gesichts identifizieren und verfolgen dürfen. Verkauft werden die Pläne als Sicherheitspaket. Zwanzig zivilgesellschaftliche Organisationen sehen Grundrechte in Gefahr und lehnen die Pläne ab.

Während nun die zuständigen Ministerien über den Entwurf beraten, hat das Deutsche Institut für Menschenrechte eine aufrüttelnde Untersuchung mit Warnungen und Empfehlungen vorgelegt. Das Institut wird vom Bundestag finanziert und beobachtet als unabhängige Institution die Lage der Menschenrechte in Deutschland.

Auf insgesamt 43 Seiten fassen die Menschenrechtler*innen die Gefahren durch biometrische Gesichtserkennung zusammen. So nennt man es, wenn man Menschen anhand ihrer einzigartigen Gesichtsmerkmale identifiziert. Das sind beispielsweise die Position und Abstände von Augen, Nase, Kinn und Ohren.

Die Expert*innen schildern in ihrer Studie auch die rechtlichen Grundlagen und beschreiben, wo Behörden die Technologie in Deutschland bereits einsetzen. Am Ende machen sie sechs Empfehlungen, für die CSU-Innenminister Alexander Dobrindt direkt das Hausaufgabenheft aufschlagen könnte. Wer sich nicht durch das ganze Papier wühlen möchte, findet hier die wichtigsten Fragen und Antworten.

Warum ist biometrische Gesichtserkennung besonders?

Viele dürften es seltsam finden, wenn sie immer ein Namensschild oder gar ihren Ausweis um den Hals tragen müssten. Doch mit biometrischer Gesichtserkennung wird das eigene Gesicht zu einer Art Ausweis. Man kann es nicht ablegen und nur schwer vor Kameras verbergen. Ob auf der Straße oder im Netz – wer sich nicht stark einschränken will, gibt sein Gesicht immer wieder potenzieller biometrischer Erfassung preis. Die Expert*innen vom Deutschen Institut für Menschenrechte schreiben:

Die Fähigkeit, Menschen aus der Ferne, ohne ihr Wissen und ihre Mitwirkung, zu identifizieren, macht Gesichtserkennung zu einem Sonderfall der biometrischen Identifizierung, die einschüchternde Wirkung entfalten kann.

Was macht Gesichtserkennung so gefährlich?

Aus der Studie des Instituts gehen gleich mehrere Gefahren hervor, die biometrische Gesichtserkennung besonders bedenklich machen. Zum Beispiel:

  1. Falsche Verdächtigungen: Gesichtserkennung basiert auf Software, die Ähnlichkeiten erkennt. Dabei passieren Fehler. Das heißt, bei der Suche nach einem Verdächtigen kann die Polizei schlicht die falsche Person ins Visier nehmen und verfolgen. In den USA ist genau so etwas schon öfter passiert: Nach Verwechslungen mussten Unbeteiligte aufs Revier.
  2. Diskriminierung: Gesichtserkennung funktioniert nicht bei jeder Person gleich gut. Gerade bei Frauen oder People of Color kann die Technologie mehr Fehler machen als bei weißen Männern. Den Forschenden zufolge stelle sich die Frage, ob der Einsatz der Technologie „gegen das grund- und menschenrechtliche Diskriminierungsverbot verstößt“.
  3. Profilbildung: Biometrische Gesichtserkennung muss nicht nur punktuell geschehen. Man kann auch Personen immer wieder an mehreren Orten erkennen und dadurch Rückschlüsse ziehen. Es kann viel über einen Menschen verraten, mit wem er zum Beispiel häufig auf Demos gesichtet wird, ob er oft im Bankenviertel auftaucht oder auf dem Weg zu einer psychiatrischen Klinik. Die Forschenden verzichten zwar auf konkrete Beispiele, warnen aber vor solcher Profilbildung.
  4. Einschüchterung: Allein das Wissen, dass Behörden per Kameras Gesichtserkennung betreiben und dass dabei Fehler passieren, kann Menschen verunsichern. Die Forschenden warnen deshalb vor Abschreckungseffekten („chilling effects“). Sie könnten dazu führen, dass Menschen „auf die Wahrnehmung etwa ihrer Meinungs- und Versammlungsfreiheit verzichten“. Konkretes Beispiel: Sie trauen sich nicht mehr auf eine Demo.

Hat die KI-Verordnung nicht schon alles geregelt?

Leider nein. Die EU hat ihre Chance verpasst, biometrische Gesichtserkennung umfassend zu verbieten. Die KI-Verordnung (AI Act) formuliert nur rote Linien, die Mitgliedstaaten bei biometrischer Gesichtserkennung nicht überschreiten dürfen. Deutschland und andere EU-Staaten können aber weiterhin ihre eigenen Regeln schreiben – oder gar entscheiden, die Technologie für illegal zu erklären.


2025-07-16
1718.12
143


– für digitale Freiheitsrechte!



Euro für digitale Freiheitsrechte!

 

Noch Anfang 2024 äußerten Bundestagsabgeordnete der Ampel den Wunsch, dass Deutschland seinen Spielraum aus der KI-Verordnung nicht ausreizt und etwa biometrische Echtzeit-Überwachung verbietet. Doch das ist Schnee von gestern. Bei der schwarz-roten Bundesregierung stehen die Zeichen nicht auf weniger Überwachung, sondern auf mehr.

Wie viel Spielraum hat Deutschland bei Gesichtserkennung?

Der Spielraum für biometrische Gesichtserkennung in Deutschland ist aus vielen Richtungen begrenzt. Das Institut für Menschenrechte beschreibt eine Art Slalom entlang mehrerer Vorschriften und Grundrechte.

  • Schon aus dem Recht auf Privatsphäre ergeben sich der Studie zufolge hohe Hürden für Gesichtserkennung. „Bereits die Speicherung von Lichtbildern, verbunden mit der bloßen Möglichkeit einer Gesichtserkennung, greift in das Menschenrecht auf Privatsphäre ein“, warnen die Forschenden.
  • Konkretere Einschränkungen liefert die KI-Verordnung selbst. Für Gesichtserkennung in Echtzeit sind die Hürden höher. Hier müssen Behörden etwa Folgen für Grundrechte abschätzen und brauchen vor jeder Verwendung eine Genehmigung, etwa durch ein Gericht. Bei nachträglicher Gesichtserkennung wird die KI-Verordnung jedoch laxer – und es ist nicht einmal klar definiert, ab wann der Einsatz als nachträglich gilt.
  • Ein System zur Gesichtserkennung braucht eine Datenbank, um Gesichter abzugleichen und Personen zuzuordnen. Kommerzielle Anbieter wie PimEyes oder Clearview AI, die Milliarden Gesichter kennen, kommen der Studie zufolge für Behörden jedoch nicht in Frage. Die KI-Verordnung verbietet nämlich Datenbanken, die ungezielt Gesichtsbilder aus dem Internet auslesen. Eine Alternative sind staatliche Lichtbilddatenbanken. Dort liegen die Bilder von erkennungsdienstlich registrierten Personen – darunter Tatverdächtige und Asylsuchende.
  • Dann gibt es noch die EU-Richtlinie zum Datenschutz bei Polizei und Strafjustiz, kurz: JI-Richtlinie. Ähnlich wie die Datenschutzgrundverordnung (DSGVO) beschreibt die Richtlinie biometrische Daten als besonders schützenswert. „Deren polizeiliche Verarbeitung ist demnach nur dann erlaubt, wenn sie unbedingt erforderlich ist“, fasst die Studie zusammen.
  • Sollte das Thema einmal beim Bundesverfassungsgericht landen, dürfte es den Richter*innen wohl ums Recht auf informationelle Selbstbestimmung gehen. Die Forschenden erinnern an ältere Rechtsprechung zur Kfz-Kennzeichenkontrolle. Ob nun Autokennzeichen erfasst werden oder Gesichter – die Situation ist vergleichbar. Schon damals habe das Gericht festgestellt, dass „jeder einzelne Datenverarbeitungsvorgang grundsätzlich einen Grundrechtseingriff“ darstelle.

Längst zeigen Fälle und Pilotprojekte aus den Bundesländern, wie Behörden einfach mal loslegen. Bereits 2020 hatte das BKA nach Protesten zum G20-Gipfel in Hamburg Gesichtserkennung eingesetzt. Das Land Hessen will Gesichtserkennung am Hauptbahnhof Frankfurt/Main haben. Das Land Sachsen hat Gesichtserkennung in der Region Görlitz genutzt – zum Ärger der Landesdatenschutzbeauftragten, die das für teils verfassungswidrig hielt. Einige der Beispiele tauchen auch in der Studie auf. Die Forschenden warnen vor der „rapiden Entwicklung“.

Was empfehlen die Menschenrechtsexpert*innen?

Trotz ihrer Warnungen lehnen die Forschenden biometrische Gesichtserkennung nicht generell ab. Das unterscheidet sich von der Position einiger zivilgesellschaftlicher Institutionen, die sich schlicht für den Stopp der Technologie stark machen. Ein klares Nein könnte jahrelange Unsicherheit und Rechtsstreitigkeiten vermeiden.

Die Menschenrechtler*innen formulieren stattdessen sechs teils dringliche Empfehlungen. An ihnen kann sich Schwarz-Rot messen lassen.

  1. Zuerst signalisieren die Forschenden Halt, Stopp!, wenn auch in anderen Worten. Sie warnen vor „erheblichen rechtlichen und ethischen Fragen“ und halten es für „unerlässlich, diese Technologie nicht vorschnell einzuführen“. Stattdessen empfehlen sie, zuerst Fachleute an die Sache heranzulassen. Es braucht demnach eine „Enquete-Kommission mit Vertreter*innen aus Polizei, Daten- und Diskriminierungsschutz, Zivilgesellschaft und Wissenschaft“, um das Thema öffentlich zu diskutieren.
  2. Zweitens soll es erst einmal nicht mehr, sondern weniger Gesichtserkennung geben. Der Zugriff der Polizei auf bereits bestehende staatliche Gesichtsdatenbanken soll beschränkt werden, und zwar „dringend“, wie die Forschenden schreiben. Es brauche „klar normierte, anlassbezogene Suchen“, um „unverhältnismäßige Eingriffe in die Privatsphäre zu vermeiden“.
  3. Drittens empfehlen die Forschenden ein Verbot von „digitaler polizeilicher Beobachtung“. Hier geht es darum, dass Gesichtserkennung nicht punktuell ist, sondern eben auch Material für umfangreiche Persönlichkeitsprofile liefern könnte.
  4. Viertens soll den Forschenden zufolge biometrische Gesichtserkennung unter Richtervorbehalt gestellt werden. Das sieht die KI-Verordnung nur bei Gesichtserkennung in Echtzeit vor, nicht aber bei nachträglicher Erkennung. Deutschland darf das jedoch strenger regeln.
  5. Fünftens verlangen die Forschenden Transparenz bei polizeilicher Gesichtserkennung, „damit eine demokratische Kontrolle gewährleistet ist“. Das Institut für Menschenrechte empfiehlt Bund und Ländern, dass sie auch öffentlich einsehbar machen, welche Systeme sie für den Einsatz registrieren. Laut KI-Verordnung müssten sie das nicht öffentlich tun.
  6. Zuletzt sollte Gesichtserkennung den Menschenrechtler*innen zufolge nicht bis auf Weiteres eingeführt werden, sondern allenfalls für begrenzte Zeit. Danach könne man prüfen, neu bewerten und „idealerweise“ die Folgen für Grundrechte abschätzen.

Wie geht es jetzt weiter?

Das CSU-Innenministerium hat mit seinen Referentenentwürfen den ersten Schritt gemacht. Falls sich die schwarz-rote Regierung auf einen gemeinsamen Entwurf einigt, wären als nächstes Bundestag und Bundesrat an der Reihe.



Source link

Datenschutz & Sicherheit

Sicherheitsupdate: Schadcode-Lücken bedrohen HCL Domino


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Admins sollten ihre Instanzen mit dem Anwendungsentwicklungssystem HCL Domino zügig gegen mögliche Angriffe absichern. Geschieht das nicht, kann Schadcode Systeme kompromittieren.

Wie aus einer Warnmeldung hervorgeht, haben die Entwickler zwei Sicherheitslücken (CVE-2025-53630, Risiko „hoch„; CVE-2025-49847, Risiko „hoch„) geschlossen. Beide Schwachstellen finden sich in der Open-Source-Komponente llama.cpp für den Umgang mit großen Sprachmodellen (LLM). Im Kontext des Vocabulary-Loading-Codes können Angreifer Speicherfehler auslösen und so im schlimmsten Fall eigenen Code ausführen. Das führt in der Regel zur vollständigen Kompromittierung von Computern.

Die Entwickler geben an, dass davon HCL Domino 14.5 betroffen ist. Die Ausgabe DominoIQ Release 0825 (LlamaServerforDominoIQ_0825) soll gegen die geschilderten Angriffe geschützt sein.

​Zuletzt haben die HCL-Entwickler im Mai dieses Jahres Schwachstellen in dem Anwendungsentwicklungssystem geschlossen.


(des)



Source link

Weiterlesen

Datenschutz & Sicherheit

Abhören von Mobiltelefonen mit Radartechnik und KI möglich


Einem Team von Informatikern der Penn State University ist es gelungen, Mobiltelefongespräche mittels eines Millimeterwellenradars abzuhören. Das Radar erfasst die Vibrationen an der Oberfläche des Handys, die beim Sprechen entstehen. Die Entschlüsselung der Vibrationsmuster übernimmt eine Künstliche Intelligenz (KI).

Bereits 2022 hatten die Forscher ein ähnliches Verfahren angewendet, um Gespräche abzuhören, die mit einem Mobiltelefon geführt werden. Damals war jedoch die Abhörleistung niedriger. Das System erreichte eine Genauigkeit von 83 Prozent bei nur zehn vordefinierten Schlüsselwörtern.

Das nun entwickelte Verfahren kann mehr Wörter entschlüsseln. Verwendet wird dazu ein Millimeterwellen-Radarsensor. Die Technik wird etwa in autonomen Fahrzeugen neben Lidar verwendet, um Abstände einschätzen zu können. Bei der Abhörtechnik werden damit kleine Vibrationen erfasst, die an der Geräteoberfläche eines Mobiltelefons durch die Sprache entstehen. Die Daten sind jedoch qualitativ eher minderwertig, wie die Forscher in ihrer Studie „Wireless-Tap: Automatic Transcription of Phone Calls Using Millimeter-Wave Radar Sensing“ schreiben, die in den Proceddings der Sicherheitskonferenz ACM WiSec 2025 erschienen ist. Die sehr stark verrauschten Daten müssen daher interpretiert werden können.

Dazu verwenden die Wissenschaftler das Open-Source-KI-Spracherkennungsmodell Whisper. Eigentlich dient Whisper dazu, eindeutige Audiodaten zu transkribieren. Die Forscher wendeten eine Low-Rank-Adaption-Technik des Maschinellen Lernens an, um Whisper für die Interpretation der Radardaten zu trainieren. So mussten die Wissenschaftler das Spracherkennungsmodell nicht von Grund auf neu erstellen.

Das so speziell abgestimmte KI-Modell konnte aus den Daten Transkriptionen für einen Wortschatz von bis zu 10.000 Wörtern erstellen. Die Genauigkeit betrug dabei 60 Prozent. Insgesamt ist das eine deutliche Verbesserung gegenüber dem Verfahren von 2022, das nur zehn Wörter erkennen konnte. Das Abgehörte muss aber auch beim neuen System in den Kontext gestellt, gegebenenfalls interpretiert und korrigiert werden. Das ist ebenfalls bei Abhörverfahren durch Lippenlesen so, bei dem nur zwischen 30 Prozent und 40 Prozent der gesprochenen Wörter erfasst werden. In den Kontext gebracht, ergibt sich aber ein hohes Sprachverständnis.

Das Abhörsystem per Radar und KI funktioniert derzeit nur in einer Entfernung bis zu 6 m. Die Wissenschaftler möchten mit ihren Forschungsergebnissen darauf aufmerksam machen, wie einfach Schwachstellen von Angreifern ausgenutzt und sensible Informationen abgehört werden können. Sie wollen deshalb künftig ihr Augenmerk auf mögliche Abwehrmaßnahmen richten.


(olb)



Source link

Weiterlesen

Datenschutz & Sicherheit

Anonymisierendes Linux: Tails startet Test der 7er-Version


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Linux-Distribution Tails zum anonymen Surfen im Internet steht jetzt als Testversion der Fassung 7.0 bereit. Die Maintainer haben Tails auf eine neue Basis gestellt und liefern aktualisierte Desktopumgebungen und Softwarepakete mit.

In der Release-Ankündigung erörtern die Tails-Macher die Neuerungen. Die Basis stellt das ganz frische Debian 13, Codename „Trixie“. Für den Desktop setzen sie auf Gnome 48, das bereits seit März verfügbar ist. Weitere Änderungen, die die Tails-Maintainer nennen, umfassen etwa den Gnome Terminal, der nun der Gnome Console weicht. Bei dem Wechsel haben die Programmierer das „Root Terminal“ kaputt gemacht. Als temporäre Gegenmaßnahme sollen sich Nutzer mittels des Befehls sudo -i in der regulären Console die Root-Rechte beschaffen.

Den Gnome Image Viewer ersetzen die Entwickler durch Gnome Loupe. Kleopatra fliegt aus dem Favoriten-Ordner und lässt sich nun über „Apps“ – „Zubehör“ – „Kleopatra“ starten. Die obsolete Netzwerk-Verbindungsoption auf dem „Willkommen“-Bildschirm haben die Tails-Macher ebenfalls entfernt.

Diverse Softwarepakete bringt Tails 7.0rc1 in aktualisierten Fassungen mit: Tor Client 0.4.8.17, Thunderbird 128.13.0esr, Linux-Kernel 6.1.4 (mit verbesserter Unterstützung neuer Hardware für Grafik, WLAN und so weiter), Electrum 4.5.8, OnionShare 2.6.3, KeePassXC 2.7.10, Kleopatra 4:24.12, Inksacpe 1.4, Gimp 3.0.4, Audacity 3.7.3, Text Editor 48.3 sowie Document Scanner 46.0. Die Pakete unar, aircrack-ng und sq sind hingegen nicht mehr Bestandteil von Tails.

Tails 7.0rc1 benötigt 3 GByte RAM anstatt ehemals 2 GByte, um flüssig zu laufen. Das betreffe Schätzungen zufolge etwa zwei Prozent der Nutzer. Zudem benötigt die Distribution nun länger zum Starten. Das wollen die Entwickler jedoch bis zum endgültigen Release korrigieren. Final soll Tails 7.0 schließlich am 16. Oktober 2025 erscheinen. Die Release-Candidates sollen Interessierte die Möglichkeit bieten, die neue Fassung bereits zu testen und potenzielle Fehler aufzuspüren. Diese wollen die Entwickler dann bis zur Veröffentlichung der Release-Version ausbügeln.

Ende Juli haben die Tails-Entwickler die Version 6.18 der Distribution herausgegeben. Darin haben sie im Wesentlichen die Unterstützung von WebTunnel-basierten Bridges ins Tor-Netzwerk ergänzt. Die sollen anders als „obfs4“-Brücken die Verbindung als herkömmlichen Webtraffic tarnen. Auch die Version 6.17 von Tails hatte lediglich kleine Aktualisierungen der zentralen Pakete wie Tor-Browser im Gepäck.


(dmk)



Source link

Weiterlesen

Beliebt