Datenschutz & Sicherheit
„Schaufenster in die Zukunft der Polizeiarbeit“
In Hamburg sollen ab dem 1. September die Bewegungen von Menschen auf dem Hansa- und dem Hachmannplatz zum KI-Training genutzt werden. Dazu werden ihre Abbilder in eine Art Strichmännchen umgewandelt. Angeblich sind die personenbezogenen Daten so vollumfänglich geschützt. Dabei können tatsächlich auch nicht-anonymisierte Daten zum KI-Training weitergegeben werden.
Am Hamburger Hansaplatz war das System in 2023 bereits drei Monate in Betrieb. Im Rahmen eines Forschungsprojekts, das noch bis Februar 2026 läuft, wurde offenkundig, dass die Technologie zu ihrer eigenen Ausweitung drängt. Gleichzeitig ist unklar, wie sie am Ende tatsächlich eingesetzt werden soll.
Das Projekt ist an der Uni Hamburg und der TU Chemnitz angesiedelt. Es wird von Stephanie Schmidt und Philipp Knopp geleitet und von Fabian de Hair als wissenschaftlichem Mitarbeiter durchgeführt. Für das Gespräch mit netzpolitik.org haben sich alle drei Zeit genommen.
Kritiker*innen kommen kaum zu Wort
netzpolitik.org: Sie untersuchen die testweise Einführung eines KI-gestützten Überwachungssystems. Was genau erforschen Sie da?
Stephanie Schmidt: Wir beschäftigen uns mit den sozialen Konflikten. Wie verändern sich die sozialen Beziehungen zwischen den Akteur*innen vor Ort und auch die zu den staatlichen Akteuren wie der Polizei? Wir schauen uns auch an, was für mediale Diskurse mit dieser KI-Technologie verbunden sind.
netzpolitik.org: Sie haben ausgewertet, wie Medien über den KI-Testlauf berichten. Diese Berichterstattung ist vermutlich zentral für die gesellschaftliche Verhandlung dieser Technologie. Welche Positionen kommen da zu Wort?
Fabian de Hair: Der Diskurs ist vor allem ordnungspolitisch orientiert. Rund drei Viertel der Sprecher*innen bewerten die Technologie positiv. Sie vereine Datenschutz und Rationalisierung der polizeilichen Arbeit, so die Argumentation. Top-Sprecher der Befürworter ist der Hamburger Innensenator Andy Grote, dann folgen eine ehemalige Sprecherin der Polizei, der Polizeipräsident, der Polizeivizepräsident und Sprecher der Innenbehörde.
Risiken, Kritik und Protest sind im Vergleich dazu unterrepräsentiert. Weniger als ein Fünftel der Menschen, die in den Medien zu Wort kommen, sieht die Technologie negativ. Vor allem der der innenpolitische Sprecher der Linken ist hier eine deutlich vernehmbare Stimme. Daneben sind noch Menschen vom Einwohner*innen-Verein St. Georg und der CCC unter den Kritikern. Aber die sind weit schwächer repräsentiert als die Gegenseite.
Am Hansaplatz gibt es seit 2019 konventionelle Videoüberwachung. Medial wird er als Positivbeispiel angeführt, als Erfolgsgeschichte der Kriminalitätsbekämpfung. Und die aktuelle Entwicklung gilt als Schaufenster in die Zukunft der Polizeiarbeit. Dabei wird die KI-Kameraüberwachung insbesondere im Hinblick auf die Potenziale der Skalierung betrachtet.
Trainingsdaten gesucht: KI-Überwachung führt zu ihrer eigenen Ausweitung
netzpolitik.org: Das heißt, es wird jetzt bereits überlegt, wie man die KI-Überwachung ausweiten kann?
Philipp Knopp: Videoüberwachung ist sehr ressourcenintensiv. Da muss jemand sitzen, der Monitore überwacht und der muss auch noch konzentriert sein. Die KI soll das effizienter machen. Jetzt kann man sagen, das ist eine tolle Arbeitserleichterung für die Polizei. Wir sehen aber auch, dass mit dieser neuen Effizienz eine Ausweitungstendenz verbunden ist. Es hieß ja bereits: Wir überwachen nicht nur den Hansaplatz damit, sondern wir nehmen auch noch den deutlich belebteren Hachmannplatz am Hauptbahnhof dazu.
Fabian de Hair: Auch eine Ausweitung auf andere bestehende Kamerastandorte ist innerhalb des Mediendiskurses im Gespräch: Jungfernstieg, Reeperbahn, öffentlicher Nahverkehr beispielsweise. Und es gibt weitere Ideen: In ihrer Bewerbung auf den Förderfond InnoTecHH der Hamburger Senatskanzlei schreibt die Hamburger Polizei, dass man damit auch Großveranstaltungen wie den Hafengeburtstag oder bei Sportveranstaltungen das Stadion und dessen Umfeld überwachen könne.
Philipp Knopp: Die Notwendigkeit, neue Trainingsdaten zu generieren, hat den Effekt, dass man immer auf der Suche nach Möglichkeiten ist, diese KI einzusetzen. Hamburg hat ja extra ein Gesetz geschaffen, mit dem die Überwachungsdaten auch als Entwicklungsdaten genutzt werden können. Und wenn der Aufwand zu groß ist, die zu anonymisieren, dürfen diese Daten auch unanonymisiert weitergegeben werden.
Die Befugnis, KI mit Überwachungsdaten zu trainieren, findet sich mittlerweile auch in der geplanten Novelle zum Berliner Polizeigesetz. In Baden-Württemberg gibt es die Idee, die Bindung von Videoüberwachung an tatsächliche Kriminalitätsschwerpunkte zu entkoppeln. So könnte die Polizei auch Orte damit überwachen, wo sie nur vermutet, dass dort Kriminalität auftreten könnte, weil man von dort beispielsweise gut flüchten kann, oder weil der Ort sehr belebt oder schlecht einsehbar ist.
Wie die Technologie Verhaltensweisen diskriminiert
netzpolitik.org: Neben dem medialen haben Sie auch den parlamentarischen Diskurs in Hamburg betrachtet. Wie stehen die Parteien zu der Technologie?
Philipp Knopp: Einfach gesagt: Die Linkspartei ist dagegen, SPD und CDU sind dafür. Eine große Verschiebung ist, dass die Grünen sich sehr für die Technologie aussprechen, teils auch sehr vehement gegen die Kritik der Linkspartei argumentieren. Die Befürworter verweisen gerne auf den Datenschutzbeauftragten von Baden-Württemberg, der meint, dass die Technologie es möglich mache, datenschutzsensibler zu überwachen. Laut den Grünen ist es ein technischer Kompromiss, der das Spannungsverhältnis von Sicherheit und Freiheit auflöst.
netzpolitik.org: Was bedeutet das?
Philipp Knopp: Die Technologie rechnet Körper in Vektoren um, in Strichmännchen sozusagen. Und dann schätzt sie, ob deren Bewegungen bestimmten vordefinierten Bewegungsmustern entsprechen. Dazu gehören zum Beispiel Treten, Schlagen oder Würgen, aber auch Liegen und sogenannte aggressive oder defensive Körperhaltungen.
Das wird im Diskurs als ein Verfahren der Anonymisierung gedeutet. Alter, Geschlecht, Hautfarbe, Statur sollen nicht erkennbar sein. Das verhindere Diskriminierung und schütze Daten, heißt es. Die Kritiker der Technologie sagen hingegen, man könne ja nicht nur Alter, Geschlecht oder Hautfarbe diskriminieren, sondern auch bestimmte Praktiken. Das Argument ist, dass Praktiken wie „auf dem Boden liegen“ oder „sich aus Spaß hauen“ von bestimmten Personengruppen durchgeführt werden, zum Beispiel Obdachlosen oder Kindern. Und das sind Praktiken, die von dem System als mögliche Gefahr erkannt werden können, was zu intensiverer Überwachung führen kann.
Die Technologie löscht den Kontext: Welche Interaktionssituation liegt dort vor? Was sind die räumlichen Umstände? Sie bekommt auch keine Ausdrucksweisen mit, die wir mitkommunizieren, wenn wir Bewegungen durchführen. Das macht sie derzeit und möglicherweise auch in Zukunft unpräzise. Zudem ist die Polizei sehr zurückhaltend damit, Situationen aus der Detektion auszuschließen. Es wird also niemals nur der tatsächliche kriminelle Vorfall erkannt.
Die Daten sind auf Personen rückführbar
netzpolitik.org: Wie anonym sind diese Strichmännchen denn wirklich? Mein Bewegungsmuster ist doch so einzigartig wie ein Fingerabdruck.
Philipp Knopp: Dadurch, dass diese Daten zeit- und ortsbezogen sind, sind sie rückführbar auf die Person. Weil sich eine bestimmte Person zu einer bestimmten Zeit an einem bestimmten Ort auf diese Art und Weise bewegt. Die müssen ja auch rückführbar sein, weil die Polizei vielleicht auf diese Person zugreifen will. Das Gesamtprogramm des Fraunhofer-Instituts umfasst auch Trackingsoftware, mit der Dinge oder Personen markiert und über mehrere Kameras hinweg verfolgt werden können. Die wird allerdings aktuell nicht erprobt.
Wo die Reise hingeht, hängt auch davon ab, wie gut die Technologie ist. Die große Vision am Fraunhofer Institut ist ein meist schwarzer Bildschirm, auf dem die überwachende Person nur noch das sieht, was die KI als Gefahrensituation erkannt hat. Es ist aber auch möglich, dass die Technologie nur als Assistenzsoftware genutzt wird, die mitläuft, während weiter ein Mensch die Bildschirme überwacht. Es kann auch sein, dass die überwachende Person viel mehr Gebiete beobachtet, weil sie nur noch sehen muss, was die KI ihr anzeigt. Und es ist auch möglich, dass man die Überwachung um neue Technologien erweitert, zum Beispiel zum Tracking oder Objekterkennung.
Der Endzweck dieser Technologie, wie sie als polizeiliches Werkzeug genutzt wird, ist derzeit nicht klar. Weil die Technologie noch nicht fertig entwickelt ist, ist es auch für Menschen, NGOs oder Politik schwer zu bewerten, was sie derzeit kann und womit man in Zukunft zu rechnen hat. Diese Ungewissheit ist bei Tests im öffentlichen Raum problematisch.
netzpolitik.org: Was ist das eigentlich für ein Ort, den sie da untersuchen, dieser Hansaplatz?
Fabian de Hair: Ein enorm heterogener und vielfältiger. Der kleine Stadtteil St. Georg ist ein in Gentrifizierung befindliches Wohnquartier und Lebensort verschiedenster sozialer sowie marginalisierter Gruppen und internationaler Communitys. Der Hansaplatz ist für alle ein zentraler Durchgangs- und Verweilort. Es ist sehr schwierig, ihn zu umlaufen, wenn man nicht Umwege durch das komplette Viertel gehen will. Er wird als sehr lebhaft und als ein wichtiger, schöner Ort beschrieben. Er ist verkehrsberuhigt und hat einen großen Brunnen in der Mitte.
Seitens der Polizei gilt er als gefährlicher Ort. Es ist einer der Orte in Hamburg mit der höchsten Dichte an polizeilichen Maßnahmen. Es gibt dort visuelle Überwachung, ein Glasflaschenverbot von 17 Uhr bis morgens, eine Waffenverbotszone, und weil dort Personen der Straßenprostitution nachgehen, auch ein Kontaktverbot. Entsprechend gibt es diverse Verdrängungseffekte insbesondere von marginalisierten Gruppen in die Nebenstraßen und anliegenden Viertel.
Schaukämpfe zwischen Polizist*innen
netzpolitik.org: Wie wird sich dieser Platz verändern, wenn ab dem 1. September die Bewegungsdaten der Menschen dort zum KI-Training genutzt werden?
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Philipp Knopp: Was passieren könnte, ist, dass sich öfter mal Polizist*innen untereinander prügeln werden. Aktuell bestehen die Trainingsdaten nämlich vor allem aus Schaukämpfen zwischen Polizist*innen, die in Mannheim simuliert wurden, wo die Technik ebenfalls getestet wird. Die spielen wie in einem Film mit Regisseur und Drehbuch und verschiedenen Kamerawinkeln gezielt Konfliktsituationen wie Schlägereien nach.
netzpolitik.org: Werden sich die Platznutzer*innen angesichts der KI-Überwachung noch unbefangen dort bewegen können?
Fabian de Hair: Selbst Leute, die sich sehr ablehnend gegenüber der Technologie zeigen, leiten daraus keine anderen Nutzungspraktiken ab. Auch weil sie den Platz nicht wirklich meiden können. Weil er Durchgangsort ist oder auch der Ort, an dem die Leute arbeiten.
Philipp Knopp: Im Vergleich zu 2019, als KI-Videoüberwachung am Berliner Südkreuz getestet wurde, sind wir heute noch viel stärker daran gewöhnt, von verschiedensten Akteuren überwacht zu werden. Der Widerstand ist heute auch geringer, wie das Beispiel der Grünen in Bezug auf diese konkrete Technologie zeigt.
netzpolitik.org: Hat die Technik auch Auswirkungen auf die Freiheit, an diesem Ort politische Versammlungen abzuhalten?
Philipp Knopp: Natürlich resultiert aus der Überwachung eine Versammlungsöffentlichkeit, in der ich mich nicht mehr unbefangen mit anderen Menschen im ermächtigenden Erscheinungsraum befinde, wo ich mich verbünden kann, um politische Angelegenheiten zu klären. Sondern es ist verstärkt ein Raum der Kontrolle.
Vertrauen in die Polizei wird überflüssig
netzpolitik.org: Wie wirkt sich die KI-Überwachung auf die Beziehung zwischen den Platznutzer*innen und der Polizei aus?
Philipp Knopp: Es gibt auf jeden Fall eine Verschiebung: weg von einer Tradition, wo die Polizei vor Ort ist oder wo Bürger*innen vor Ort die Polizei per Notruf alarmieren, hin zu einer technisierten Überwachung. Das hat natürlich Folgen für die sozialen Abhängigkeitsverhältnisse der Polizei gegenüber der Bevölkerung. Wenn man auf den Notruf angewiesen ist, dann ist man auch darauf angewiesen, dass Menschen in dem konkreten Sozialraum der Polizei vertrauen. Das ist, wenn man sich voll auf die Technik verlässt, nicht mehr der Fall. Dann gibt es nur noch die Polizei und den Raum. Nicht mehr die Polizei, die Menschen und den Raum.
netzpolitik.org: Ist das auch eine Entmenschlichung von Kontrolle?
Fabian de Hair: Wir wissen aus Interviews mit Menschen, die am Hansaplatz arbeiten, dass alle Akteur*innen miteinander üblicherweise eine Form von vertrauensvollem Umgang pflegen. Das verändert sich jetzt aber.
netzpolitik.org: Als ein Ergebnis ihrer Forschung wollen Sie eine Toolbox entwickeln. Was kann man sich darunter vorstellen und wozu ist es gut?
Stephanie Schmidt: Wir nutzen unsere Erkenntnisse aus Gesprächen mit Expert*innen, Polizei und Platznutzer*innen, um gemeinsam mit Menschen, die vor Ort arbeiten, und bundesweiten NGOs eine Toolbox zu entwickeln. Sie soll lokalen zivilgesellschaftlichen Akteur*innen dabei helfen, ich informiert mit solchen KI-Anwendungen auseinanderzusetzen.
Wenn in irgendeiner Stadt eine KI-basierte Technologie angekündigt wird und sich Menschen damit beschäftigen wollen, dann finden sie in der Toolbox Quellen, die über KI bei der Polizei informieren. Hinzu kommt ein sogenanntes Sozialraummapping, mit dem man Gruppen und Nutzungsweisen im Raum erschließen kann. So lässt sich aufzuzeigen, wen man alles in den Diskurs miteinbeziehen sollte. Das dritte Tool ist eine Bewertungsmatrix, die Rechtfertigungen und Kritiken der KI mittels eines Fragenkatalogs aufschlüsselt.
Die Tools helfen auch einzuschätzen, was zivilgesellschaftliche Perspektiven auf die Technologie sein können. Jenseits davon, dass Fragen nach Datenschutz und Sicherheit einfach nur mit Ja oder Nein beantwortet werden, was ja von staatlichen Akteuren in den Vordergrund gestellt wird.
Datenschutz & Sicherheit
Netzwerk- und Cloudmanagement: Angreifer können F5 BIG-IP-Appliances lahmlegen
Um Cloud- und Netzwerkumgebungen mit F5 BIG-IP-Appliances zu schützen, sollten Admins zeitnah die jüngst veröffentlichten Sicherheitsupdates installieren. Geschieht das nicht, können Angreifer an mehreren Sicherheitslücken ansetzen und Instanzen attackieren.
Mehrere Schwachstellen
Im Sicherheitsbereich seiner Website listet F5 weiterführende zu seinen quartalsweise erscheinenden Sicherheitsupdates auf. Konkret betroffen sind BIG-IP APM (Sicherheitsupdates 16.1.6, 17.1.2.2), BIG-IP Client SSL (Sicherheitsupdates 16.1.6, 17.1.2.2), BIG-IP APM VPN Browser Client macOS (Sicherheitspatch 7.2.5.3), F5 Access for Android (Sicherheitsupdate 3.1.2).
Alle geschlossenen Sicherheitslücken sind mit dem Bedrohungsgrad „hoch“ eingestuft. So können Angreifer etwa aufgrund eines Fehlers bei der HTTP/2-Implementierung an einer Lücke (CVE-2025-54500) für eine DoS-Attacke ansetzen. Angriffe sollen aus der Ferne und ohne Authentifizierung möglich sein.
Unter macOS können lokale Angreifer Sicherheitsmechanismen umgehen und sich höhere Nutzerrechte verschaffen (CVE-2025-48500). Auch wenn es derzeit noch keine Berichte zu laufenden Attacken gibt, sollten Admins mit dem Patchen nicht zu lange zögern. Schließlich könnten Angreifer nach erfolgreichen Attacken in Cloudinfrastrukturen von Unternehmen einsteigen und Unheil stiften.
(des)
Datenschutz & Sicherheit
BIOS-Sicherheitsupdate schließt Schadcodelücke in HP-PCs
Wer einen Computer von HP besitzt, sollte aus Sicherheitsgründen das BIOS auf den aktuellen Stand bringen. Andernfalls können Angreifer Systeme attackieren und im schlimmsten Fall Schadcode ausführen.
Angriff mit Hürden
In einer Warnmeldung von HP ist die Schwachstelle (CVE-2025-5477) mit dem Bedrohungsgrad „hoch“ aufgeführt. Erfolgreiche Attacken können dem Beitrag zufolge verschiedene Auswirkungen haben. Demzufolge können Angreifer etwa auf eigentlich abgeschottete Informationen zugreifen oder sogar eigenen Code ausführen. Letzteres führt in der Regel zu einer vollständigen Kompromittierung von PCs.
Doch aus der knappen Beschreibung der Lücke geht hervor, dass Attacken nicht ohne Weiteres möglich sind. Angreifer brauchen der Beschreibung zufolge physischen Zugriff auf ein Gerät und außerdem sei spezielles Equipment und Fachwissen nötig. Wie ein konkreter Angriff ablaufen könnte, ist bislang nicht bekannt. Unklar ist derzeit auch, ob es bereits Attacken gibt und woran man ein bereits erfolgreich attackiertes System erkennen kann.
Sicherheitspatch
In der Warnmeldung sind die verwundbaren Modelle aufgelistet. Darunter fallen Modelle folgender HP-Serien:
- Business-Notebooks etwa aus der Dragonfly-Serie
- Business-Desktop-PCs etwa aus der Elite-Minie-Serie
- Retail-Point-of-Sale Systeme (POS) etwa aus der Engage-Flex-Reihe
- Thin-Client-PCs etwa aus der mt21-Reihe
Ob Workstations bedroht sind, wird derzeit noch untersucht. Sicherheitsupdates liefert HP als Softwarepaket (SoftPaqs) aus. Deren Auflistung sprengt aber den Rahmen dieser Meldung. Besitzer von betroffenen PCs müssen in der Warnmeldung ihr Modell heraussuchen und das jeweilige Sicherheitsupdate herunterladen und installieren.
(des)
Datenschutz & Sicherheit
Plex-Mediaserver: Entwickler raten zu zügigem Sicherheitsupdate
Der Mediaserver Plex ist verwundbar und Angreifer können an einer Softwareschwachstelle ansetzen. Ein Sicherheitsupdate steht zum Download bereit.
Bislang kaum Details verfügbar
Auf die Lücke weisen die Entwickler im offiziellen Forum und in den Releasenotes der aktuellen Ausgabe 1.42.1.10060 hin. Weiterführende Informationen zur Lücke und auch eine CVE-Nummer nebst Einstufung des Bedrohungsgrads stehen aber noch aus.
Die Sicherheitslücke scheint aber so gefährlich zu sein, als dass die Verantwortlichen derzeit E-Mails an Nutzer schicken, die noch verwundbare Versionen nutzen. Die Entwickler geben an, dass die Ausgaben 1.41.7.x bis 1.42.0.x bedroht sind. Nutzer sollten so schnell wie möglich die abgesicherte Ausgabe installieren.
Auf Reddit tauschen sich Nutzer schon seit mehreren Tagen zur Sicherheitsproblematik aus.
Zuletzt sorgte Plex 2022 für Schlagzeilen, als Cyberkriminelle Nutzerdaten aus einer Datenbank kopieren konnten.
(des)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen