Connect with us

Datenschutz & Sicherheit

„Operation Lightning“: Schlag gegen Proxy-Botnet aus über 369.000 Geräten


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Europol berichtet von einem Schlag gegen den bösartigen Proxy-Dienst „SocksEscort“, den internationale Strafermittler am Mittwoch dieser Woche den kriminellen Drahtziehern und der Infrastruktur versetzt haben. Das Botnet bestand demnach aus mehr als 369.000 Drohnen aus kompromittierten Routern und IoT-Geräten, die in 163 Ländern standen.

Weiterlesen nach der Anzeige

Die europäische Polizeibehörde erklärt weiter, dass „SocksEscort“ Kunden in den vergangenen Jahren mehr als 35.000 Proxies angeboten hat. Am Mittwoch haben die Strafverfolger insgesamt 34 Domains vom Netz genommen, außerdem 23 Server aus sieben Ländern. Die USA haben zudem Kryptowährungen im Wert von 3,5 Millionen US-Dollar eingefroren. Die infizierten Modems des Botnets haben die Beamten aus dem „SocksEscort“-Dienst ausgeklinkt. Nun wollen die Strafverfolgungsbehörden die betroffenen Länder informieren und so den Weg für weitere Ermittlungen ebnen.

Im Juni 2025 haben die Ermittlungen begonnen, schreibt Europol. Dort wurde das Botnet aus infizierten Geräten entdeckt. In großer Masse sind das Heimrouter, die für diverse kriminelle Aktivitäten missbraucht wurden, etwa zur Verteilung von Ransomware, für Distributed-Denial-of-Service-Angriffe (DDoS) oder sogar für die Verbreitung von sexuellen Kindesmissbrauchsmaterialien (Child Sexual Abuse Material, CSAM). Die Heimrouter wurden durch eine Schwachstelle einer bestimmten Marke infiziert. Welche genau, sagt Europol jedoch nicht.

Kunden dieses kriminellen Angebots zahlten für die Nutzung und den Missbrauch der unterwanderten Geräte. Sie haben damit ihre eigene IP-Adresse verschleiert, während sie diverse kriminelle Aktivitäten ausgeführt haben. Die Webseite zu „SocksEscort“ bot bezahlte Proxy-Dienste an, mit denen Kunden Zugang zu den kompromittierten IP-Adressen zum Verschleiern ihrer eigenen erlangen. Die Router-Besitzer haben keine Kenntnis, dass nach einer Infektion ihre IP-Adressen für kriminelle Zwecke missbraucht wurden. Zur Zahlung mussten die Täter eine Plattform nutzen, die anonyme Käufe mittels Kryptowährungen ermöglicht. Europol schätzt, dass die Zahlungsplattform mehr als 5 Millionen Euro von den Proxy-Dienst-Kunden erhalten hat.

Internationale Strafverfolger aus Bulgarien, Deutschland, Frankreich, den Niederlanden, Rumänien, Ungarn, Österreich und den Vereinigten Staaten zusammen mit Eurojust und Europol waren an der „Operation Lightning“ beteiligt. Es ist bei weitem nicht die erste Aktion mit internationaler Kooperation der Strafverfolgungsbehörden gegen Botnets und die Hinterleute. Auch in der „Operation Endgame“ aus dem Jahr 2024 oder „Operation Endgame 2.0“ aus 2025 gingen sie gegen die Cyberkriminellen und gegen Malware-Autoren sowie Botnetze vor. Residential-Proxy-Netze sind zunehmend Ziel von Maßnahmen gegen Online-Kriminalität. Google hat etwa Ende Januar dem IPIDEA-Residential-Proxy-Netz einen empfindlichen Schlag versetzt und Millionen Geräte dort herausgezogen.


(dmk)



Source link

Datenschutz & Sicherheit

Signal reagiert auf deutsche Probleme


Eine groß angelegte Phishing-Welle läuft derzeit in Deutschland gegen Politiker, Journalisten, Diplomaten und Militärs. Weil die Ende-zu-Ende-Verschlüsselung Signals hält, was sie verspricht, setzen die Angreifer auf Überredungskunst, um Signal-Nutzer zur Herausgabe ihrer Zugangsdaten zu bewegen. Bisweilen gelingt dies, so bei der zweiten Frau im Staat. Dann eignen sich die Angreifer die fremde Identität an und spähen unter diesem Deckmantel die Kontakte des Opfers aus. Jetzt meldet sich die Stiftung, die Signal betreibt, zu Wort.

Weiterlesen nach der Anzeige

„Zu aller erst ist es wichtig, präzise zu sein, wenn es um Kritische Infrastruktur wie Signal geht”, schreibt die Signal Foundation auf Mastodon. „Signal wurde nicht ‚gehackt‘ – Verschlüsselung, Infrastruktur und Integrität des Programmcodes der Anwendung sind nicht kompromittiert.” Für die laufende Phishing-Kampagne würden sich die Angreifer als „Signal Support” ausgeben; dafür legten sie normale Signal-Konten an und änderten dann Profilname und -bild.

Dann versuchten sie, durch manipulative Mitteilungen die Zielperson zur Herausgabe ihrer Zugangsdaten zu bewegen. Dieses sogenannte social engineering hat unzählige Spielarten. Meist werden menschliche Eigenschaften wie Hilfsbereitschaft, Vertrauen, Angst oder Respekt vor Autorität ausgenutzt – hier das Vertrauen in den vermeintlichen Signal-Support. Solche Angriffe auf den Faktor Mensche „belasten jede breit genutzte Messaging-App, sobald sie die Größe Signals erreicht hat”, weiß die Stiftung.

„In den kommenden Wochen” soll Signal eine Reihe von Änderungen erfahren, „die helfen, diese Art von Angriffen zu behindern.” Was das sein wird, verrät die Stiftung noch nicht. Das Grundproblem, dass Angreifer manche Nutzer dazu bewegen, die Vordertür aufzusperren, wenn es keine Hintertür gibt, betreffe alle Plattformen.

Weiterlesen nach der Anzeige

Was genau in den einzelnen manipulativen Nachrichten steht, kann auch Signal nicht sagen, denn die Mitteilungen sind ja Ende-zu-Ende verschlüsselt. Aber es gibt Berichte von Opfern und Zielpersonen. Demnach nutzen die Täter die herausgelockten Zugangsdaten, um das Signal-Konto der Zielperson zu übernehmen und die verknüpfte Telefonnummer zu ändern. Das führt zu einer De-Registrierung des ursprünglichen Kontos.

Das wissen die Täter natürlich, weshalb sie ihren Opfern schon im Voraus weis machen, dass die De-Registrierung normal und zu erwarten sei. Die Zielperson solle sich dann einfach neu anmelden, raten die Täter. Das tun die Opfer auch, im Glauben, sich in ihr altes Konto einzuloggen – tatsächlich haben sie schlicht ein neues Signal-Konto angelegt. Die Täter kontrollieren das alte Konto und nutzen das Vertrauen, das Dritte dem Konto schenken, aus, um Informationen zu sammeln, insbesondere über bestehende Kontakte und Gruppenchats. Das Erstopfer merkt von all dem nichts, weshalb unklar ist, wie viele Betroffene es gibt.

„Bitte bleiben Sie wachsam gegen Phishing und Versuchen von Kontoübernahmen”, schließt die Stellungnahme. „Merken Sie sich, dass der Signal-Support nie nach Ihrem Registrierungscode oder Ihrer Signal-PIN fragen wird. Zur zusätzlichen Absicherung können Sie in ihren Signal-Einstellungen (unter „Konto”) die Registrierungssperre aktivieren.” Voraussetzung ist die Einrichtung einer Signal-PIN (Persönliche IdentifikationsNummer).

Die optionale Registrierungssperre erfordert die Eingabe

der PIN, wenn eine bei Signal registrierte Telefonnummer zur Registrierung auf einem anderen Endgerät genutzt werden soll. Erst wenn das ursprüngliche Gerät Signal eine Woche lang nicht genutzt hat, läuft die Sperre ab.

Die Angriffe laufen nicht nur gegen Personen in der Bundesrepublik, beispielsweise sind auch Mitglieder der Regierung der Niederlande betroffen. Bei den Angreifern handelt es sich vermutlich um russische Spione. Bereicherung oder ähnliche finanzielle Motive sind nicht bekannt.

Zwecks Spionageabwehr haben die Bundesämter für Verfassungsschutz (BfV) sowie Sicherheit in der Informationstechnik (BSI) gemeinsam einen Leitfaden veröffentlicht, der potenziellen Opfern helfen soll, rasch herauszufinden, ob sie erfolgreich attackiert worden sind. Unterdessen ermittelt die Bundesstaatsanwaltschaft; ein Ende der Angriffe ist nicht absehbar.


(ds)



Source link

Weiterlesen

Datenschutz & Sicherheit

Statt Bilderrätsel: Google führt QR-Code-Challenge gegen KI-Bots ein


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Google baut reCAPTCHA zu einer breiteren Plattform gegen Betrug und Missbrauch im Web aus. Auf seiner Cloud-Konferenz Next ’26 stellte der Konzern „Google Cloud Fraud Defense“ vor. Die Plattform soll nicht mehr nur menschliche Nutzer von klassischen Bots unterscheiden, sondern auch KI-Agenten erfassen. Google nennt das Angebot die „nächste Evolution“ von reCAPTCHA und positioniert es als Vertrauensplattform für ein „agentic web“ – also für Anwendungen, in denen autonome Software-Agenten Aufgaben für ihre Nutzer erledigen.

Weiterlesen nach der Anzeige

reCAPTCHA war ursprünglich vor allem als CAPTCHA und Bot-Abwehr bekannt. In den vergangenen Jahren hat Google das Produkt jedoch deutlich breiter aufgestellt und vermarktet es inzwischen als Risiko- und Betrugsschutz, etwa für Logins, Kontoanlagen oder Bezahlvorgänge. Fraud Defense baut darauf auf. Bestandskunden müssen laut Google weder migrieren noch ihre Site Keys, Integrationen oder Verträge anpassen.

Im Mittelpunkt der Ankündigung steht die Annahme, dass Web-Traffic künftig nicht mehr primär aus Menschen und einfachen Skripten besteht. Google rechnet mit deutlich mehr Aktivität durch KI-Agenten, die eigenständig Informationen abrufen, Entscheidungen vorbereiten und ganze Abläufe anstoßen. Ein Beispiel sind Shopping-Assistenten, die Produkte vergleichen, Warenkörbe füllen und Käufe im Namen ihrer Nutzer einleiten. Solche Systeme können erwünscht sein, eröffnen aus Sicht der Sicherheit aber neue Angriffsflächen.

Eine der wichtigsten Neuerungen ist deshalb ein Dashboard zur Messung agentischer Aktivität. Betreiber sollen darüber sehen, welche KI-Agenten und sonstigen automatisierten Systeme ihre Websites ansteuern. Google will diesen Traffic identifizieren, klassifizieren und analysieren und die Identitäten von Agenten und Nutzern miteinander verknüpfen, um Risiken besser einzuschätzen. Technisch interessant ist daran vor allem der Ansatz, automatisierte Zugriffe nicht mehr pauschal als Bot-Verkehr zu behandeln, sondern nach Vertrauenswürdigkeit, Typ und Identität zu unterscheiden.

Dafür setzt Google auch auf neue Protokolle und entstehende Standards. Die Ankündigung nennt unter anderem Web Bot Auth sowie SPIFFE (Secure Production Identity Framework for Everyone). Die Idee dahinter: Legitime Agenten sollen ihre Herkunft und Identität nicht mehr nur über leicht fälschbare Merkmale wie User-Agent-Strings oder IP-Adressen behaupten, sondern kryptografisch nachweisen. Ein verifizierter Einkaufsagent ließe sich dann anders behandeln als ein Scraper, der sich lediglich als gewöhnlicher Browser tarnt.

Als zweites zentrales Element führt Google eine Richtlinien-Engine ein. Damit sollen Unternehmen Regeln für unterschiedliche Phasen einer Sitzung festlegen – von der Registrierung über das Login bis zu Zahlung und Bestellabschluss. Die Entscheidungen orientieren sich unter anderem an Risikowerten, Automatisierungstypen und der Identität eines Agenten. In der Praxis könnte ein verifizierter KI-Agent so Produktdaten und Verfügbarkeiten abfragen dürfen, beim Zugriff auf ein Kundenkonto oder beim Auslösen einer Zahlung aber strengeren Regeln unterliegen.

Weiterlesen nach der Anzeige

Hinzu kommt eine sogenannte „AI-resistant challenge“. Dahinter steckt ein Prüfmechanismus per QR-Code, der bei verdächtigen Vorgängen eine menschliche Bestätigung verlangt. Anders als klassische Bilder- oder Texträtsel soll diese Challenge automatisierte Angriffe wirtschaftlich unattraktiv machen. Denkbar ist etwa, dass eine Anwendung bei einem riskanten Bestellvorgang einen QR-Code einblendet, den der Nutzer mit dem Smartphone scannen muss, um seine Anwesenheit nachzuweisen.

Google begründet den Umbau mit einer veränderten Bedrohungslage. Die Risiken verschöben sich von klassischer Bot-Automatisierung und ungültigem Traffic hin zu komplexeren Angriffen, etwa der Übernahme von Agentenidentitäten oder großflächigem Betrug mit synthetischen Identitäten. Mit synthetischen Identitäten meint Google Konten oder Profile, die teils aus echten, teils aus erfundenen Merkmalen bestehen und dadurch auf den ersten Blick legitim wirken.

Der Konzern verbindet die Ankündigung mit weitreichenden Leistungsversprechen. Fraud Defense nutze dieselben weltweiten Bedrohungsdaten, die auch Googles eigenes Ökosystem absichern. Das zugrunde liegende Netzwerk schütze nach Unternehmensangaben die Hälfte der Fortune-100-Konzerne und mehr als 14 Millionen Domains. Zudem spricht Google davon, Kontoübernahmen im Schnitt um 51 Prozent zu reduzieren, wenn Betreiber Risiken über die gesamte Sitzung hinweg korrelieren.

Weitere Informationen zu Google Cloud Fraud Defense und reCAPTCHA finden sich im Blogbeitrag.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Datenschutz & Sicherheit

„Die Polizei wird zum Datenlieferanten“


Erst Mannheim, dann Hamburg, dann die halbe Republik: Gerade breitet sich rasant eine Überwachungstechnologie aus, mit der die Polizei vollautomatisch Gewalt detektieren will. Wissenschaftler*innen haben die erste Ausbaustufe in Hamburg ein Jahr lang beobachtet, den medialen und parlamentarischen Diskurs dazu analysiert sowie zahlreiche Interviews mit unterschiedlichen Beteiligten und Betroffenen geführt. Das Projekt “Lokale Öffentlichkeiten und soziale Konflikte um KI-gestützte Sicherheitstechnologien“, kurz LoKI, war an der Uni Hamburg und der TU Chemnitz angesiedelt. Geleitet haben es Stephanie Schmidt und Philipp Knopp, Fabian de Hair hat als wissenschaftlichem Mitarbeiter mitgewirkt. Mit uns sprechen der Sozialwissenschaftler Knopp und der Kriminologe de Hair über die Forschungsergebnisse.

netzpolitik.org: Was haben Sie herausgefunden?

Philipp Knopp: Was da als Test gerahmt wird, ist mit dem Konzept Test eigentlich nicht ausreichend zu verstehen. Es gibt keine festgelegte Technik, die nach fixen Kriterien bewertet wird. Es ist eher ein Überwachungs-Experiment. Da werden eine Überwachungstechnologie und das Setting vor Ort kalibriert, das Verhältnis von Raum und Kamera optimiert. Gleichzeitig ändern sich die Anforderungen an die Beamt*innen, die jetzt bewerten müssen, ob die KI etwas richtig detektiert hat. Und es wurde ja auch der rechtliche Rahmen angepasst. Experiment ist nicht normativ gemeint. Wir wollen mit dem Begriff das Unfestgelegte aufzeigen. Es geht in Hamburg darum, ein experimentelles System zum Laufen zu bringen.

netzpolitik.org: Hamburg ist nach Mannheim die zweite deutsche Stadt, die Verhaltensscanner einsetzt. Zahlreiche weitere Städte und Länder haben Interesse an der Technologie angemeldet. Warum hat die gerade so einen Lauf?

Fabian de Hair: Die Technologie der sogenannten Bewegungsmusteranalyse gilt als vermeintlich bessere Alternative zur konventionellen und biometrischen Videoüberwachung. Es heißt, sie würde die Polizeiarbeit durch die Automatisierung einerseits erheblich effizienter machen, andererseits sei das technische Verfahren dazu besonders datenschutzsensibel. Überprüfbar ist das im derzeitigen Entwicklungsstadium nicht. Vielmehr wird mit einer Zukunftsvision der KI-Technologie argumentiert, deren konkrete Nutzungsszenarien offenbleiben.

Die Deutungen der vermeintlichen Vorzüge dieser KI-Überwachung finden sich insbesondere prominent im Mediendiskurs, der von Akteur*innen der inneren Sicherheit und ihren Bewertungen geprägt ist. Kritische Positionen kommen vor, aber werden nicht zum Anlass der Berichterstattung. Was sich da im Diskurs zeigt, nennen wir eine Purifizierung, eine rituelle Läuterung also, durch die bisherige zentrale Kritiken an Formen der Videoüberwachung direkt adressiert und gleichzeitig abgestreift werden. Die Purifizierung erhöht die Durchsetzbarkeit der Maßnahme, weil die Bewegungsmusteranalyse jetzt als sozusagen gute Überwachung erscheint.

Ausweitung in Aussicht

Philipp Knopp: Gleichzeitig drängt die Technologie auf ihre eigene Ausweitung. Für KI-Training braucht man Daten.

Fabian de Hair: Die Hoffnung ist: Je mehr Landespolizeien sich daran beteiligen, umso präziser wird das Modell.

netzpolitik.org: Das heißt, künftig werden immer mehr und mehr Areale damit überwacht?

Philipp Knopp: Es weiß noch niemand, worauf es am Ende hinauslaufen wird. Auch das Sondieren von Einsatzmöglichkeiten ist Teil des Experimentierens mit der neuen Technik. Es gibt die Idee des Black Screens, wo nur dann jemand auf den Bildschirm schaut, wenn die KI eine verdächtige Situation präsentiert. Dann gibt es die Variante, dass die KI als Assistenzsystem zusätzlich zur menschlichen Überwachung im Hintergrund läuft. Und dann gibt es noch Überlegungen, damit den Überwachungsbereich auszuweiten, weil man nicht mehr so viele Menschen braucht, um auf die Videobilder zu schauen und man davon ausgeht, dass diese Form der Überwachung nicht so stark in die Freiheitsrechte der Bürger*innen eingreift. Also hin zu einem Basislevel von Videoüberwachung von größeren Bereichen.

netzpolitik.org: Die Logik der Verhaltensscanner-Befürworter*innen ist: Weil da kein Mensch, sondern nur eine Software zuschaut, ist es keine Überwachung mehr.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Fabian de Hair: Das ist das Framing. Aber faktisch wird dabei die komplette Datenpipeline – also das technische Verfahren von der Vektorisierung menschlicher Körper auf Videobildern, über die Kategorisierung dieser Vektorenbündel bis zur Alarmierung – ausgeblendet. Die Praxis der Überwachung wird hier auf die Prüfung durch Polizeibeamt*innen, also das menschliche Sehen, reduziert.

99 von 100 zu Unrecht beobachtet?

netzpolitik.org: Ist die Technologie denn so effektiv wie von den Befürworter*innen erhofft?

Philipp Knopp: Es gibt da unterschiedliche Bewertungsmuster. Als Erfolg gilt auch schon die positive Resonanz von Medien und anderen Polizeien. Nach einem ersten Test wurden auch einige Kennzahlen vorgelegt. Allerdings wurden dabei die falsch-positiven Meldungen im Vergleich zu den korrekten Detektionen recht ungenau angegeben. Überwachungskritische Bewegungen haben daraufhin berechnet, dass nur etwa ein Prozent der Alarme eine korrekte Detektion war. Das heißt, in 99 von 100 Fällen wurden Menschen aus Sicht der Kritiker*innen zu Unrecht beobachtet.

netzpolitik.org: Angeblich verhindere die Verhaltensanalyse Diskriminierung, weil sie nicht berücksichtigt, welche Hautfarbe, welches Geschlecht oder Alter eine Person hat.

Fabian de Hair: Die Idee hinter dieser KI-Überwachung ist die Automatisierung von Verdachtspraktiken. Es geht um Kategorien wie zum Beispiel Schlagen, Treten, Liegen, Fallen. Der Mensch wird zu einem Bündel von Vektoren umgerechnet, wodurch der soziale Kontext eines Ortes, einer Situation oder einer Bewegung gelöscht wird. Dabei kann eine Bewegung je nach Kontext verschiedene Bedeutungen haben. Und es lässt sich auch an bestimmten Verhaltensweisen feststellen, ob jemand zu einer marginalisierten Gruppe gehört. An einem Ort wie dem Hamburger Hansaplatz, wo es unter anderem Straßenprostitution gibt, hat Stehen eine soziale Bedeutung. Weil ebenso Obdachlose den Platz nutzen, hat auch Liegen eine soziale Bedeutung. Und in der technischen Formatierung werden diese Bewegungen dann in einen Verdacht übersetzt.

Die Polizei als Akteur in der Datenökonomie

netzpolitik.org: Die Rechte für die Technologie liegen beim Fraunhofer IOSB, einer Forschungsorganisation. Trainiert wird sie mit den Daten von zahllosen Menschen in Mannheim und Hamburg.

Philipp Knopp: Das ist auch etwas Neues, das sich durch die rechtlichen Neuerungen im Hamburger Polizeigesetz anbahnt. Die Polizei wird zum Akteur in einer globalen Datenökonomie rund um KI-Training, zum Datenlieferanten. Diese Entwicklung ist nicht auf den Hamburger Fall beschränkt. Auch in anderen Bundesländern versteht die Polizei zunehmend, dass sie über besondere Daten und eine seltene Anwendungsumgebung verfügt, die sie für die Technologieentwicklung einsetzen will.

Fabian de Hair: Das ist eine sehr spezielle Form der Datenverarbeitung, die besondere Aufmerksamkeit bedarf.

Philipp Knopp: Da ist auch immer die Frage, welche sozialen Gruppen sind davon betroffen, wessen Alltag wird in diesen Daten festgehalten. Die Verhaltensanalyse wird in Hamburg auf einem Platz getestet, wo Menschen sich nicht so gut wehren können wie in einem noblen Viertel. Da gibt es viele Menschen, die keine deutschen Staatsbürger*innen sind. Es gibt Wohnungslose, Trinker*innen, Menschen, die viel Zeit auf der Straße verbringen und nicht beispielsweise in Parteien organisiert sind. Ihnen fehlen die politischen Einflussmöglichkeiten und teilweise sind die überwachten Orte für diese Menschen sehr wichtig. Sie können nicht einfach woandershin ausweichen und werden notgedrungen Teil dieses KI-Trainings.

Tanz als Widerstand

netzpolitik.org: In Hamburg sind auch Grüne und Datenschutzbehörden einverstanden mit der Verhaltensanalyse. Gibt es denn überhaupt noch Gegner*innen?

Wir sind ein spendenfinanziertes Medium.

Unterstütze auch Du unsere Arbeit mit einer Spende.

Fabian de Hair: Ja, definitiv. Das Bündnis Hansaplatz zum Beispiel. Die Aktivist*innen haben eine Demo und Veranstaltungen zum Thema organisiert sowie die Entwicklung kritisch begleitet. Es gibt auch noch andere nachbarschaftliche Organisationen am Hansaplatz, die sich ebenfalls kritisch äußern. Aber sie sind, wie bereits erwähnt, medial nicht durchgedrungen mit ihrer Position, dass es sich um eine weitergehende Kriminalisierung sozialer Probleme handele.

netzpolitik.org: Was können kritische Akteur*innen tun, um im Diskurs mehr Gewicht zu bekommen?

Philipp Knopp: Diese Tests mit Bewegungsdetektion haben interessante neue Formen der Widerständigkeit hervorgebracht: Tanzperformances, die die angenommene Korrelation von Bewegung und Kriminalität hinterfragen. Das gab es in Mannheim und darüber haben Medien dann auch berichtet. Was sich außerdem gezeigt hat: Die meisten Bündnisse, die sich mit solchen Überwachungsprojekten beschäftigen, überlegen, wie sie eine soziale Basis aufbauen und alternative Sicherheitskonzepte weiterentwickeln können wie etwa soziale Sicherheit. Sie schauen über den Anlass Kamera hinaus und stellen die Frage: Welche Probleme gibt es im Viertel und wie können wir damit arbeiten?

Fabian de Hair: Unsere Interviews zeigen, dass fehlende Transparenz seitens der Überwachungs-Betroffenen bemängelt wird. Eine Informationsgrundlage herzustellen, mit der Zivilgesellschaft und Wissenschaft agieren können, ist hier insofern elementar. In Hamburg hat Die Linke als Oppositionspartei mit vielen Kleinen Anfragen dazu beigetragen.

Das Gefühl, beobachtet zu werden

netzpolitik.org: Die Verhaltensanalyse sucht sogenanntes atypisches Verhalten. Geht damit die Gefahr einher, dass Menschen sich im Überwachungsbereich angepasster verhalten?

Philipp Knopp: Es ist schwierig, das empirisch zu belegen. Die Wirkung von Videoüberwachung lässt sich schlecht isolieren. In Medienberichten kam aber heraus, dass sich Menschen, die viel auf dem Platz sind, permanent beobachtet fühlen.

netzpolitik.org: Wenn eine KI die Videos beobachtet statt eines Menschen – wird dann die Überwachung entmenschlicht?

Philipp Knopp: Die Automatisierungsleistung der Technologie ist es, den Bürger und den Notruf auszuklammern aus der Verbindung von Polizei und Ereignis. Die Polizei muss nicht mehr hinzugerufen werden – sie kommt von alleine. Befürworter*innen sehen darin durchaus etwas Positives: Die Polizei wird unabhängig von den Bürger*innen und deren Wachsamkeit und Courage.

Die andere Seite der Medaille ist allerdings, dass gerade diese Abhängigkeit die Polizei zur Bürgernähe anhält. Um ihre Aufgabe zu erfüllen, muss sie nämlich daran arbeiten, dass die Bevölkerung ihr vertraut. Für eine demokratische Polizei ist diese Abhängigkeit von der Bevölkerung ein notwendiges Momentum externer Kontrolle. Dieser Effekt kann durch die Automatisierung abgeschwächt werden. Sie verschiebt das Verhältnis zwischen Bevölkerung und Polizei in eine bestimmte Richtung.

netzpolitik.org: Ist die KI-Überwachung eine politische Maßnahme, um Handlungsfähigkeit zu suggerieren?

Philipp Knopp: Diese Annahme wird in Studien zu Videoüberwachung häufig geäußert. Kameras sind auf jeden Fall ein kostengünstiges Mittel, um zu sagen: Wir tun etwas.



Source link

Weiterlesen

Beliebt