Connect with us

Datenschutz & Sicherheit

Als erstes Bundesland: Hessen setzt Live-Gesichtserkennung ein


Gestern hat Hessens Innenminister Roman Poseck (CDU) einen Dammbruch verkündet. In Deutschland kommt nun erstmals automatisierte Echtzeit-Gesichtserkennung zum Einsatz. Nicht als Test, wie einst am Berliner Südkreuz, sondern als Anbruch einer neuen Ära. Die Gesichter von Menschen, die sich im Bahnhofsviertel von Frankfurt am Main aufhalten, darunter viele marginalisierte Gruppen, werden von sogenannter Künstlicher Intelligenz vermessen und mit Bildern gesuchter Personen abgeglichen. Gibt es einen Treffer, greift die Polizei zu. Die Technologie gilt als diskriminierend, weil sie bei Frauen oder People of Color mehr Fehler macht.

Die Gesichtserkennung läuft in Frankfurt, wie gestern ebenfalls bekannt wurde, bereits seit dem 10. Juli dieses Jahres. Die rechtliche Grundlage dazu schufen die hessischen Regierungsfraktionen von CDU und SPD mit einem kurzfristigen Änderungsantrag zum „Gesetz zur Stärkung der inneren Sicherheit“, das Ende vergangenen Jahres im Hessischen Landtag verabschiedetet wurde.

„Nur in einer sicheren Gesellschaft können die Menschen frei leben“, sagte Poseck gestern. Die Überwachungsinstrumente bezeichnete er als „Videoschutzanlagen“. Laut einem Bericht der hessenschau überwachen im Frankfurter Bahnhofsviertel 50 Kameras den öffentlichen Raum. Diese würden fortan auch zur Gesichtserkennung genutzt.

Alle Passant*innen werden gescannt

Gescannt werden alle, die das überwachte Areal passieren. Mit Hilfe der Gesichtserkennung wird unter ihnen nach bestimmten Personen gesucht. Um die gesuchten Personen zu erkennen, werden Vergleichsbilder in das System eingespeist. Erlaubt ist das aber nur, wenn ein Beschluss des zuständigen Amtsgerichts vorliegt.

In Frage kommt ein solcher Beschluss beispielsweise für „Gefahrenverursacher einer terroristischen Straftat“. Also nicht nur für tatsächliche Terrorist*innen oder Tatverdächtige eines Anschlages, sondern auch für Menschen, bei denen die Polizei davon ausgeht, dass sie einen Anschlag begehen könnten. „Wer unsere Sicherheit bedroht, darf sich nicht im Schutz der Anonymität im öffentlichen Raum bewegen“, so Poseck.

Außerdem soll die Technologie dabei helfen, „Vermisste und Opfer von Entführungen, Menschenhandel oder sexueller Ausbeutung“ zu finden. Poseck sagt: „Gerade in der Umgebung des Frankfurter Verkehrsknotenpunkts ist die Wahrscheinlichkeit hoch, dass vermisste Kinder und Jugendliche dort auftauchen und dann durch die KI-Videoanalyse erkannt werden.“

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Ob sie erkannt werden wollen?

Mit Technologie lässt sich das Problem aber nicht lösen. In Vermisstenfällen ist die Wahrscheinlichkeit hoch, dass sich die vermisste Person bewusst aus ihrem sozialen Umfeld entfernt hat. Im Fall von Kindern und Jugendlichen liegen oft Erfahrungen von familiärer Gewalt oder Verwahrlosung zugrunde. Manchmal ist der Grund auch einfach Freiheitsdrang.

Vermisste Erwachsene werden von der Polizei nur dann gesucht, wenn eine Gefahr für Leib und Leben vorliegt. Es ist allerdings möglich, dass Täter*innen häuslicher Gewalt ihren Opfern suizidale Tendenzen zuschreiben, um sie polizeilich – und in Frankfurt mittels Gesichtserkennung – suchen zu lassen.

Der Einsatz der Technologie wird vermutlich nicht lange auf das Frankfurter Bahnhofsviertel beschränkt bleiben. Forscher*innen, die sich mit dem testweisen Einsatz von Videoanalyse-KI in Hamburg beschäftigen, haben bereits konstatiert, dass die Technologie auf ihre eigene Ausweitung drängt. Denn je mehr Trainingsdaten in das Modell fließen, desto effektiver wird es. Das könnte auch erklären, warum etwa in Mannheim eine Videoanalyse-KI bereits seit sieben Jahren testweise läuft.

Hessen will KI-Systeme auch nach Waffen suchen lassen

Die Systeme in Hamburg und Mannheim unterscheiden sich allerdings deutlich von dem in Hessen. Die Technologie, die in den beiden Städten zum Einsatz kommt, erkennt keine Gesichter, sondern nur bestimmte Bewegungsmuster. Entsprechend des Änderungsantrages zum Gesetz zur Stärkung der inneren Sicherheit dürfen in Hessen ebenfalls Systeme eingesetzt werden, die „Bewegungsmuster, die auf die Begehung einer Straftat hindeuten“ automatisch erkennen. Mit der Umsetzung der Bewegungsmusteranalyse lässt sich Hessen anscheinend noch Zeit.

Voraussichtlich ab Ende dieses Jahres sollen aber automatisch Waffen und gefährliche Gegenstände auf den Videobildern aus dem Frankfurter Bahnhofsviertel erkannt werden. Laut dem Koalitionsvertrag von 2023 plant die Landesregierung zudem, Pass- und Personalausweisfotos für die biometrische Identifikation heranzuziehen. Die Videoüberwachung ist in Hessen, anders als beispielsweise in Hamburg, nicht auf tatsächlich kriminalitätsbelastete Orte beschränkt, sondern darf laut dem Gesetz zur Stärkung der inneren Sicherheit auch in polizeilich definierten „Angsträumen“ eingesetzt werden.



Source link

Datenschutz & Sicherheit

Patchday: Adobe schließt kritische Lücken in mehreren Produkten


In insgesamt zwölf Security-Bulletins hat Adobe aktuelle Sicherheitslücken nebst verfügbarer Updates aufgeschlüsselt. Von Lücken geplagt und nun gepatcht wurden Animate, Bridge, Connect, Commerce, Creative Cloud Desktop, Dimension, Experience Manager Screens, FrameMaker, Illustrator sowie Substance 3D Modeler, Stager und Viewer.

Weiterlesen nach der Anzeige

Je nach Produkt betreffen die Sicherheitsmängel jeweils mehrere Versionen für Windows, macOS oder auch alle verfügbaren Plattformen. Über kursierenden Exploit-Code oder gar Angriffe in freier Wildbahn ist laut Hersteller bislang nichts bekannt. Dennoch sollten Nutzer die Aktualisierungen, soweit sie nicht automatisch auf den Systemen landen, nicht auf die lange Bank schieben.

Unbefugte Codeausführung & mangelhafte Authentifizierung

Gleich fünf kritische Fixes erhielt Substance 3D Stager, gefolgt von Dimension mit vier schweren Lücken. „Critical“- und „Important“-Einstufungen tauchen aber auch in den meisten der übrigen Advisories auf. Einzige Ausnahme bildet Creative Cloud Desktop: Hier ist lediglich die macOS-Fassung von einer einzigen Lücke mit „Moderate“-Einstufung betroffen.

Wie gewohnt hält sich die Informationsfülle der verfügbaren Adobe-Advisories hinsichtlich Schwachstellen-Details in Grenzen. Auffällig ist allerdings, dass in vielen Fällen eine Ausführung beliebigen Codes im Kontext der Programme möglich ist („arbitrary code execution“). In einigen Produkten können überdies Sicherheits- und Authenzifizierungsmechanismen umgangen werden. Adobe Connect, Commerce und Experience Manager Screens weisen jeweils mehrere Cross-Site-Scripring-Lücken auf.

Weitere Details zu Lücken und verwundbaren Versionen sowie Links zu den verfügbaren Updates sind den Advisores zu entnehmen:

Weiterlesen nach der Anzeige


(ovw)



Source link

Weiterlesen

Datenschutz & Sicherheit

Geschichten aus dem DSC-Beirat: Die Krux der Perspektive



Der DSC-Beirat ist ein Gremium aus Zivilgesellschaft, Forschung und Wirtschaft. Er soll in Deutschland die Durchsetzung des Digital Services Act begleiten und den zuständigen Digital Services Coordinator unterstützen. Svea Windwehr ist Mitglied des Beirats und berichtet in dieser Kolumne regelmäßig aus den Sitzungen.

Eigentlich sollte die Sitzung im Juli die letzte für die bisherige Besetzung des DSC-Beirats gewesen sein. Denn es stand eine Neubesetzung an, für die der Ausschuss für Digitales und Staatsmodernisierung im Bundestag zuständig ist. Doch die verzögert sich voraussichtlich auf den 16. Oktober. Dann steht das Thema auf der Tagesordnung des Bundestages. Die Wahlvorschläge der Fraktionen sind bislang unbekannt, es bleibt also spannend.

Das alles führt dazu, dass ich ein weiteres Mal Einblicke aus der sechsten Beiratssitzung teilen kann. Sie hat wie wenig andere Sitzungen die Potenziale des DSC-Beirats gezeigt, aber auch die Krux der Durchsetzung des Digital Services Act (DSA).

Seltene Transparenz

Der wohl interessanteste Tagungspunkt der Sitzung war ein ausführlicher Austausch mit Prabhat Argawal. Argawal ist zuständiger Abteilungsleiter in der DG Connect, also der Generaldirektion der EU, die für die Durchsetzung des DSA gegenüber den allergrößten Plattformen verantwortlich ist. Der Austausch mit Argawal fand öffentlich statt und bot auch Menschen und Organisationen außerhalb des Beirats seltene Einblicke in den Brüsseler Maschinenraum.

Diese Offenheit war nicht immer selbstverständlich, ist inzwischen aber insbesondere dank des Engagements der zivilgesellschaftlichen Mitglieder so etwas wie eine etablierte Praxis. Man kann nur hoffen, dass der Beirat auch in seiner neuen Konstellation an dieser Praxis festhalten wird – gerade in Zeiten abnehmender Transparenz wie beim Digitalausschuss, der mittlerweile noch weniger öffentlich tagt als früher.

Prabhat Argawal gab ein Update zur internen Organisation seiner Abteilung, die zur Durchsetzung des DSA einige Referate dazugewonnen hat – unter anderem ein Referat, das sich ausschließlich auf Online-Marktplätze fokussiert. Ebenfalls noch recht jung ist ein eigenes Referat, das sich mit dem Schutz von Minderjährigen im Kontext des DSA auseinandersetzt.

Im Dickicht des Jugendschutzes

Zur Erinnerung: Der DSA regelt Fragen des Kinder- und Jugendmedienschutzes in Artikel 28. Dieser Artikel enthält, gelinde gesagt, einige Spannungen: So dürfen Diensteanbieter Minderjährigen keine personalisierte Werbung ausspielen. Sie sollen aber auch keine zusätzlichen Daten erheben, um herauszufinden, welche ihrer Nutzenden denn nun minderjährig sind. Verwirrendes Kernstück des Artikels ist die Verpflichtung, dass Diensteanbieter “geeignete und verhältnismäßige Maßnahmen” ergreifen sollen, um für ein “hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen” auf ihren Diensten zu sorgen.

Wer sich fragt, was das genau heißen soll, kann seit Juli die Leitlinien zu Artikel 28 konsultieren, in der die EU-Kommission ihre Vorstellungen einer gelungenen Umsetzung aufschreibt. Dazu gehören eine ganze Reihe sinnvoller Vorschläge, darunter: bessere Defaulteinstellungen, um die Privatsphäre zu schützen; das Abstellen von Designfeatures wie nie endenden Feeds, die süchtigmachende Effekte haben können; Maßnahmen, um Minderjährige von Lootboxen fernzuhalten.

Prabhat Argawal hat die Umsetzung genau jener Leitlinien als bisher enttäuschend eingestuft. Die Kommission prüfe noch, welche Änderungen Plattformen vorgenommen hätten, aber „in der Realität“ scheinen die Leitlinien bislang nicht angekommen zu sein.

Das mag auch mit der ungelösten Frage von Altersüberprüfungen zu tun haben. Inmitten lauter werdender Forderungen nach einem Social-Media-Verbot für Teenager sollte den Leitlinien eigentlich eine wichtige Rolle dabei zukommen, zu beantworten, wie sich Europa denn nun die Zukunft des Internets vorstellt.

Die Leitlinien zeichnen ein dementsprechend deutliches Bild: Altersüberprüfungen werden als Voraussetzung für erfolgreichen Kinder- und Jugendschutz gesehen und als geeignet und verhältnismäßig eingestuft. Das wirft Fragen auf: Altersbestimmungstechnologien können grundsätzlich umgangen werden, meist reicht dafür ein simples VPN. Ob sie also wirklich geeignete Instrumente sind, kann dahingestellt werden.

Schwerer wiegt aber ein Blick auf die Verhältnismäßigkeit ihres Einsatzes. Alle bekannten Altersbestimmungstechnologien basieren entweder auf öffentlichen Dokumenten wie Personalausweisen oder e-IDs oder der Verarbeitung anderer Daten der Nutzenden. Etwa indem ihr Nutzungsverhalten analysiert oder ihre biometrischen Daten verarbeitet werden, um ihr Alter zu schätzen. Beide Varianten bringen signifikante Datenschutzrisiken mit sich. Dazu kommt, dass nicht alle Menschen Zugang zu Ausweisdokumenten haben (eine nennenswerte Gruppe wären Kinder und Jugendliche unter 16). Sie könnten so massenhaft Zugang zu Informationen und Inhalten verlieren.

Studien zeigen zudem, dass KI-basierte Systeme, die das Alter von Nutzenden schätzen sollen, regelmäßig höhere Fehlerraten für Frauen und Menschen mit dunkleren Hauttönen haben.

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Unbeachtet dieser negativen Implikationen von Altersbestimmungstechnologien stellen sie aber einen zentralen Aspekt der Leitlinien dar. Dazu kommt, dass die Leitlinien Mitgliedstaaten dazu ermächtigen, selber zu entscheiden, ob sie Zugangsverbote für bestimmte Dienste und Alterskohorten festlegen möchten. Mit Blick auf jüngste Äußerungen dänischer, französischer oder griechischer Regierungschef:innen, die sich ausnahmslos für Social-Media-Zugangsbeschränkungen für unter 15- beziehungsweise 16-Jährige einsetzen, scheint es also nur eine Frage der Zeit, bis Social-Media-Verbote zumindest in einigen EU-Ländern Alltag werden.

Je nach Sichtweise gibt es also noch jede Menge unbeantwortete Fragen dazu, was Plattformen genau tun sollen, um Kinder und Jugendliche auf ihren Diensten zu schützen.

Wirkt der DSA?

Trotz der Enttäuschungen beim Kinder- und Jugendschutz hebt Prabhat Agarwal aber die Wirksamkeit des DSA hervor. Er berichtet, dass die Plattformen bereits viel geändert, manche ihre Systeme sogar “komplett neu aufgestellt” haben, auch wenn es von außen nicht immer sichtbar sei. Die Zusammenarbeit mit der Kommission laufe gut: Von hunderten versandten Auskunftsersuchen habe bis jetzt kein Anbieter die Antwortfrist versäumt. Es ist erfreulich zu hören, dass Kommission und Plattformen einen Modus Operandi gefunden haben. Knapp drei Jahre nach seinem Inkrafttreten scheint die Frage, ob die Durchsetzung des DSA funktioniert, aber immer mehr zu einer Frage der Perspektive zu werden.

Eine aktuelle Studie von Das NETTZ kommt zu dem Schluss, dass die Meldewege auf großen Onlineplattformen selten genutzt werden – Nutzer:innen möchten zwar problematische Inhalte melden, fühlen sich aber von unbekannten rechtlichen Kategorien, mangelndem Feedback und komplexen Verfahren abgeschreckt: Jede vierte DSA-Meldung werde demnach abgebrochen.

In Amsterdam urteilte ein Gericht kürzlich, dass Meta gegen den DSA verstößt: Der Konzern hat die Auflage, chronologische Feeds anzubieten, die nicht auf Profiling basieren, nicht richtig umgesetzt. Das sind nur zwei Beispiele für absolute DSA-Grundlagen, bei denen es auch nach drei Jahren selbst bei den größten Plattformen noch hapert. Das ist insofern erstaunlich, als dass die Kommission eine ganze Abteilung und ein Budget von über 50 Millionen Euro zur Beaufsichtigung von sehr großen Online-Plattformen zur Verfügung hat. Auf den Abschluss eines Verfahrens durch die Kommission wartet man währenddessen nach wie vor.

Auch der Forschungsdatenzugang existiert aktuell nur in der Theorie. Er ist ein Kernstück des DSA und soll es unabhängigen Forschenden ermöglichen, systemische Risiken mit Plattformdaten zu erforschen.

All diese Themen sind sehr komplex: Es ist kein Leichtes, den DSA mit Leben zu füllen. Doch angesichts der immer stärker werdenden Kritik an europäischen Ansätzen der Plattformregulierung müssen Aufsichtsbehörden entweder schlagkräftiger auftreten – oder an der Kommunikation ihrer Erfolge arbeiten.



Source link

Weiterlesen

Datenschutz & Sicherheit

Patchday XXL: Microsoft schließt teils aktiv attackierte Schwachstellen


Mit mehr als 170 geschlossenen Sicherheitslücken ist Microsofts Patchday diesen Monat überdurchschnittlich umfangreich ausgefallen. Gleich 17 Fixes für kritische Lücken stehen unter anderem für Azure, Copilot, Office sowie den Windows Server Update Service (WSUS) bereit. Überdies machen drei aktiv angegriffene Schwachstellen mit „Important“-Einstufung das (bestenfalls automatische) Einspielen der verfügbaren Updates besonders dringlich.

Weiterlesen nach der Anzeige

Aktive Exploits zielen laut Microsofts zugehörigen Advisories auf den Windows Remote Access Connection Manager (CVE-2025-59230, CVSS-Score 7.8) einen alten Agere-Modemtreiber (CVE-2025-24990, 7.8) sowie das Linux-basierte, auf Windows-Systemen nutzbare IGEL OS (CVE-2025-47827, 4.6).

Den Remote Access Connection Manager sichert ein Patch künftig gegen lokale Angreifer ab, die über die Lücke ihre Zugriffsrechte hätten ausweiten können. Der Agere-Treiber (ltmdm64.sys) wurde laut Sicherheitshinweis komplett entfernt – und mit ihm eine weitere Möglichkeit lokal zugreifender Bösewichte, schlimmstenfalls Admin-Rechte zu erlangen.

Der physischen Zugriff voraussetzende und deshalb auch lediglich mit „Medium“ bewertete Angriffsweg über IGEL OS wurde durch ein zum Patchday mitgeliefertes Update des Linux-Betriebssystems versperrt. Die Exploit-Möglichkeit dürfte aber auch im Vorfeld eher wenige, speziell konfigurierte Systeme betroffen haben.

Folgende frisch gepatchte Lücken stuft Microsoft als kritisch ein:

Weiterlesen nach der Anzeige

Die höchsten CVSS-Scores wurden in diesem Zusammenhang den Schwachstellen CVE-2025-59246 in Azure Entra ID, CVE-2025-59287 im WSUS (jeweils 9.8 von 10) sowie CVE-2025-49708 in einer Windows-Grafikkomponente (9.9) zugewiesen.

Zahlreiche Sicherheitslücken könnten unter bestimmten Voraussetzungen als Einfallstor zum Ausführen schädlichen Programmcodes aus der Ferne missbraucht werden (Remote Code Execution) – und damit etwa zum Einschleusen von Schadcode wie Ransomware oder zum Fernsteuern verwundbarer Systeme.

Viele der weiteren verfügbaren Updates hat Microsoft als „Important“ markiert beziehungsweise mit der Einstufung „High“ versehen. Sie zielen unter anderem auf das .NET-Framework, diverse Office-Komponenten, PowerShell und den Betriebssystemkern.

Detaillierte Informationen zu sämtlichen Sicherheitslücken und Patches führt Microsoft im Security Update Guide auf.


(ovw)



Source link

Weiterlesen

Beliebt