Connect with us

Datenschutz & Sicherheit

In Thüringen wächst ein zartes Pflänzchen Widerstand


Der Anger ist der zentrale Platz in Erfurt, Thüringens größter Stadt, wohl der meistfrequentierte Ort des Bundeslands. Zwölf Kameras sind auf das Geschehen gerichtet, acht davon hängen an einem Mast. Geht es nach der Landesregierung, werden ihre Bilder bald von einer KI untersucht, die erwünschtes von unerwünschtem Verhalten unterscheidet. Der Platz ist ein Verkehrsknotenpunkt, lässt sich entsprechend schwer umgehen. Alexis* kommt dort regelmäßig mit der Tram vorbei. „Dann habe ich immer den Impuls, die Mütze tieferzuziehen. Und der nächste Gedanke ist: Wenn jetzt die Verhaltensanalyse kommt, mache ich mich damit verdächtig“, sagt sie.

Alexis ist Gründungsmitglied einer Initiative, die sich gegen die Änderung des thüringischen Polizeigesetzes stellt. Sie hat diesen Kampf gemeinsam mit David* begonnen. Alexis und David, 28 und 26 Jahre alt, sind Nachwuchs-Jurist*innen und Antifaschist*innen. Junge Menschen, die ihr Bundesland nicht dem Rechtsruck überlassen wollen und deshalb absichtlich dort bleiben, um die Verhältnisse zu verbessern. Gewohnt, nicht aufzugeben, auch wenn die Gegner übermächtig, die Alliierten spärlich und die Kämpfe aussichtslos scheinen. In der Novelle des Thüringer Polizeigesetzes seien „haufenweise gruselige Überwachungsbefugnisse drin“, sagt David.

Alexis und David sind so etwas wie Deutschlands Speerspitze im Kampf gegen KI-basierte Überwachung, vielleicht auch nur: die letzten Partisanen. Um ihren Kampf zu verstehen, muss man etwas herauszoomen, auf das, was in Deutschland und dem Rest der Welt gerade passiert.

Ein Angriff auf die Grundrechte

Der Boom der sogenannten „Künstlichen Intelligenz“ ist omnipräsent. Die Tools erlauben Überwachungsszenarien, die drastischer sind als die Dystopie aus dem Roman 1984. Sicherheitsbehörden trainieren Videobeobachtungs-Software, die zwischen gutem und bösem Verhalten unterscheiden soll. Mit Hilfe von biometrischen Daten, etwa zum Gesicht oder dem Gang, kann jede*r Abgebildete identifiziert werden. Daten-Tools wie die von Palantir liefern zum Namen intime Informationen – etwa wer wann wo ist – und lösen weitere Verfolgungsmaßnahmen aus, beispielsweise Observationen oder Festnahmen.

Das ist nicht das schlimmstmögliche Szenario eines computergesteuerten, allsehenden, totalitären Systems, sondern einfach nur das, was in Deutschland gerade Bundesland für Bundesland eingeführt wird. Es ist ein heftiger Angriff auf das Grundrecht auf informationelle Selbstbestimmung. Der Widerstand dagegen: völlig erlahmt. Die Volkszählung von 1987 führte noch zu breitem gesellschaftlichen Widerstand, die Idee einer Vorratsdatenspeicherung rund um 2010 zu Demonstrationen mit zehntausenden Teilnehmer*innen, auch die Welle an Polizeigesetz-Verschärfungen 2018/19 führte noch zu vielfältigen Protesten.

Zur Einführung der automatisierten Überwachung in Deutschland gab es bislang eine Demonstration. Und die richtete sich gegen einen bestimmten Überwachungssoftware-Hersteller, nicht gegen die KI-Analyse von Superdatenbanken an sich.

Anscheinend hat der stetige Ausbau von Überwachungsbefugnissen die Ausdauer der Zivilgesellschaft ausgehöhlt. Womöglich hat auch der gesellschaftliche Wert, den wir intimen Daten zuschreiben, abgenommen, weil diese über Social Media so freimütig verschenkt werden.

Alexis und David könnten tatsächlich gewinnen

Auf jeden Fall sind da nun Alexis und David und bringen Hoffnung in die Welt der Bürgerrechtler*innen. Nicht nur, weil sie überhaupt den Kampf aufnehmen, der im Rest von Deutschland aufgegeben scheint, sondern auch, weil der in ihrem Fall durchaus aussichtsreich ist.

Die CDU-BSW-SPD-Koalition im Landtag hat genau die Hälfte der Sitze, also keine eigene Mehrheit. Um an der AfD, der stärksten Fraktion, vorbeizuregieren, ist sie auf Geschlossenheit angewiesen – und auf Stimmen aus der Linken.

Ronald Hande, innenpolitischer Sprecher der Links-Fraktion, sagt gegenüber netzpolitik.org: „Wir lehnen Technologien wie Verhaltensscanner, Gesichtersuchmaschinen und Datenanalyse nach Palantir-Art ab und können uns auch eine Zustimmung zu solchen Technologien nicht wirklich vorstellen.“

100 Fragen zum Gesetz

Heute wurde der Gesetzentwurf hinter verschlossenen Türen im Innenausschuss debattiert. Es ging darum, wie viel Zeit und wie viele Expert*innen die Anhörungen zum Gesetz benötigen. Die Linke hat bereits 100 Fragen zum Gesetz eingereicht und die Kontaktdaten von 100 zivilgesellschaftlichen Organisationen, die Expert*innen entsenden könnten.

Anders als in anderen Bundesländern ist es in Thüringen nicht automatisch gesetzt, dass die Regierungsfraktion mit ihrem Entwurf durchkommt. Hier geht es um jede Stimme und deswegen auch um das gesellschaftliche Klima und die Haltung der Zivilgesellschaft zu dem Entwurf. Hier setzen Alexis und David an. „Eventuell kann man mit einer großen Kampagne ja auch auf SPD und BSW einwirken“, sagt Alexis.

Das BSW ist gegenüber der Polizeigesetznovelle grundsätzlich aufgeschlossen, aber im Detail kritisch. Sven Küntzel, Innenpolitischer Sprecher der Thüringer Fraktion, sagt, bei den im Entwurf vorgesehenen Hightech-Überwachungsinstrumenten „handelt es sich um besonders eingriffsintensive Instrumente.“ Sie dürften nur unter klar definierten Voraussetzungen genutzt werden, etwa einer konkreten Gefahr, einer richterlichen Anordnung, einer wirksamen parlamentarischen Kontrolle. Außerdem müssten neue Befugnisse evaluiert und gegebenenfalls befristet werden. Der Gesetzentwurf werde nun gemeinsam mit Sachverständigen geprüft.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Voraussetzung für Videoüberwachung wird extrem locker ausgelegt

Dorothea Marx, innenpolitische Sprecherin der SPD-Fraktion, sieht in dem Entwurf hingegen bereits enge Grenzen für die High-Tech-Tools. Die Datenanalyse beispielsweise sei im Anwendungsbereich und den nutzbaren Daten beschränkt, unterliege zudem dem Richtervorbehalt. Der Einsatz von Verhaltensanalyse sei derweil auf wenige Orte beschränkt.

Letzteres ist allerdings nicht wahr. Tatsächlich wird der entsprechende Passus aus dem Polizeigesetz in Thüringen extrem locker ausgelegt. Darin heißt es, die Überwachung sei legal an Orten, an denen „Anhaltspunkte die Annahme rechtfertigen, dass dort Straftaten verabredet, vorbereitet oder verübt werden sollen“. Oft erklären Polizist*innen auch einfach spontan, dass derartige Anhaltspunkte an einem bestimmten Ort bestünden, um dort beispielsweise verdachtsunabhängige Kontrollen vornehmen zu können. Das belegen zahlreiche Kleine Anfragen der Linken.

Alexis und David haben ihren Kampf gegen das neue Polizeigesetz in mehrere Schritte strukturiert. Ihr erster Schritt: Die Öffentlichkeit aufklären über das, was da gerade passiert. „Das haben ja viele gar nicht auf dem Schirm“, sagt David. Deshalb haben sie bei einem offenen Antifa-Treffen in Erfurt einen Vortrag zum Polizeigesetz-Entwurf gehalten. „Da gab es echt viel Interesse und viele Leute, die das auch gruselig finden“, sagt er. In der Diskussion danach seien viele zu dem Schluss gekommen: Wir wollen etwas dagegen tun. Daraus sei auch die Idee eines Aktionsbündnisses entstanden.

Ein Anliegen, das viele unterstützen

Website aufsetzen, Texte schreiben, Logo ausdenken, Social-Media-Accounts bespielen, Bündnispartner*innen organisieren, eine Petition einreichen, eine Demo vor dem Landtag organisieren: Der Widerstand hat viele To-dos, berichten die Aktivist. Demnächst halten sie einen weiteren Vortrag zum Polizeigesetz in Ilmenau, Veranstaltungen in Weimar und Jena sind in Planung. Der Kampf gegen das Polizeigesetz „ist ein Anliegen, das viele unterstützen“, sagt Alexis.

Neben den KI-Tools sehen die beiden Jurist*innen auch weitere Befugnisse aus dem Gesetzentwurf kritisch. Der Taser gelte demnach als milderes Mittel zum Schlagstock, „das macht die Tür zu dessen Einsatz ganz weit auf“, sagt Alexis. Und die elektronische Fußfessel ließe sich dem Gesetzentwurf nach auch gegen „Extremisten“ einsetzen oder zur Abwehr einer Gefahr für kritische Infrastruktur. „Vor der nächsten Straßenblockade können alle potenziellen Blockierer*innen dann Fußfesseln angelegt bekommen“, sagt Alexis. Zudem könnten künftig auch von Abschiebung bedrohte Menschen per Kennzeichenscanner gejagt werden. „Da sieht man doch den Geist dieses Gesetzes“, sagt sie.

Alexis und David machen sich „ernsthafte Sorgen“ darüber, was passiert, wenn die KI-Überwachungstools in den Händen der AfD landen. „Die Datenanalyse erlaubt, ein unglaublich umfangreiches Profil von Individuen zu erstellen, das genutzt werden kann, um politische Gegner zu identifizieren“, sagt David. Diese Möglichkeit mache Demokratien extrem verwundbar.

* Namen geändert



Source link

Datenschutz & Sicherheit

Statt Bilderrätsel: Google führt QR-Code-Challenge gegen KI-Bots ein


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Google baut reCAPTCHA zu einer breiteren Plattform gegen Betrug und Missbrauch im Web aus. Auf seiner Cloud-Konferenz Next ’26 stellte der Konzern „Google Cloud Fraud Defense“ vor. Die Plattform soll nicht mehr nur menschliche Nutzer von klassischen Bots unterscheiden, sondern auch KI-Agenten erfassen. Google nennt das Angebot die „nächste Evolution“ von reCAPTCHA und positioniert es als Vertrauensplattform für ein „agentic web“ – also für Anwendungen, in denen autonome Software-Agenten Aufgaben für ihre Nutzer erledigen.

Weiterlesen nach der Anzeige

reCAPTCHA war ursprünglich vor allem als CAPTCHA und Bot-Abwehr bekannt. In den vergangenen Jahren hat Google das Produkt jedoch deutlich breiter aufgestellt und vermarktet es inzwischen als Risiko- und Betrugsschutz, etwa für Logins, Kontoanlagen oder Bezahlvorgänge. Fraud Defense baut darauf auf. Bestandskunden müssen laut Google weder migrieren noch ihre Site Keys, Integrationen oder Verträge anpassen.

Im Mittelpunkt der Ankündigung steht die Annahme, dass Web-Traffic künftig nicht mehr primär aus Menschen und einfachen Skripten besteht. Google rechnet mit deutlich mehr Aktivität durch KI-Agenten, die eigenständig Informationen abrufen, Entscheidungen vorbereiten und ganze Abläufe anstoßen. Ein Beispiel sind Shopping-Assistenten, die Produkte vergleichen, Warenkörbe füllen und Käufe im Namen ihrer Nutzer einleiten. Solche Systeme können erwünscht sein, eröffnen aus Sicht der Sicherheit aber neue Angriffsflächen.

Eine der wichtigsten Neuerungen ist deshalb ein Dashboard zur Messung agentischer Aktivität. Betreiber sollen darüber sehen, welche KI-Agenten und sonstigen automatisierten Systeme ihre Websites ansteuern. Google will diesen Traffic identifizieren, klassifizieren und analysieren und die Identitäten von Agenten und Nutzern miteinander verknüpfen, um Risiken besser einzuschätzen. Technisch interessant ist daran vor allem der Ansatz, automatisierte Zugriffe nicht mehr pauschal als Bot-Verkehr zu behandeln, sondern nach Vertrauenswürdigkeit, Typ und Identität zu unterscheiden.

Dafür setzt Google auch auf neue Protokolle und entstehende Standards. Die Ankündigung nennt unter anderem Web Bot Auth sowie SPIFFE (Secure Production Identity Framework for Everyone). Die Idee dahinter: Legitime Agenten sollen ihre Herkunft und Identität nicht mehr nur über leicht fälschbare Merkmale wie User-Agent-Strings oder IP-Adressen behaupten, sondern kryptografisch nachweisen. Ein verifizierter Einkaufsagent ließe sich dann anders behandeln als ein Scraper, der sich lediglich als gewöhnlicher Browser tarnt.

Als zweites zentrales Element führt Google eine Richtlinien-Engine ein. Damit sollen Unternehmen Regeln für unterschiedliche Phasen einer Sitzung festlegen – von der Registrierung über das Login bis zu Zahlung und Bestellabschluss. Die Entscheidungen orientieren sich unter anderem an Risikowerten, Automatisierungstypen und der Identität eines Agenten. In der Praxis könnte ein verifizierter KI-Agent so Produktdaten und Verfügbarkeiten abfragen dürfen, beim Zugriff auf ein Kundenkonto oder beim Auslösen einer Zahlung aber strengeren Regeln unterliegen.

Weiterlesen nach der Anzeige

Hinzu kommt eine sogenannte „AI-resistant challenge“. Dahinter steckt ein Prüfmechanismus per QR-Code, der bei verdächtigen Vorgängen eine menschliche Bestätigung verlangt. Anders als klassische Bilder- oder Texträtsel soll diese Challenge automatisierte Angriffe wirtschaftlich unattraktiv machen. Denkbar ist etwa, dass eine Anwendung bei einem riskanten Bestellvorgang einen QR-Code einblendet, den der Nutzer mit dem Smartphone scannen muss, um seine Anwesenheit nachzuweisen.

Google begründet den Umbau mit einer veränderten Bedrohungslage. Die Risiken verschöben sich von klassischer Bot-Automatisierung und ungültigem Traffic hin zu komplexeren Angriffen, etwa der Übernahme von Agentenidentitäten oder großflächigem Betrug mit synthetischen Identitäten. Mit synthetischen Identitäten meint Google Konten oder Profile, die teils aus echten, teils aus erfundenen Merkmalen bestehen und dadurch auf den ersten Blick legitim wirken.

Der Konzern verbindet die Ankündigung mit weitreichenden Leistungsversprechen. Fraud Defense nutze dieselben weltweiten Bedrohungsdaten, die auch Googles eigenes Ökosystem absichern. Das zugrunde liegende Netzwerk schütze nach Unternehmensangaben die Hälfte der Fortune-100-Konzerne und mehr als 14 Millionen Domains. Zudem spricht Google davon, Kontoübernahmen im Schnitt um 51 Prozent zu reduzieren, wenn Betreiber Risiken über die gesamte Sitzung hinweg korrelieren.

Weitere Informationen zu Google Cloud Fraud Defense und reCAPTCHA finden sich im Blogbeitrag.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Datenschutz & Sicherheit

„Die Polizei wird zum Datenlieferanten“


Erst Mannheim, dann Hamburg, dann die halbe Republik: Gerade breitet sich rasant eine Überwachungstechnologie aus, mit der die Polizei vollautomatisch Gewalt detektieren will. Wissenschaftler*innen haben die erste Ausbaustufe in Hamburg ein Jahr lang beobachtet, den medialen und parlamentarischen Diskurs dazu analysiert sowie zahlreiche Interviews mit unterschiedlichen Beteiligten und Betroffenen geführt. Das Projekt “Lokale Öffentlichkeiten und soziale Konflikte um KI-gestützte Sicherheitstechnologien“, kurz LoKI, war an der Uni Hamburg und der TU Chemnitz angesiedelt. Geleitet haben es Stephanie Schmidt und Philipp Knopp, Fabian de Hair hat als wissenschaftlichem Mitarbeiter mitgewirkt. Mit uns sprechen der Sozialwissenschaftler Knopp und der Kriminologe de Hair über die Forschungsergebnisse.

netzpolitik.org: Was haben Sie herausgefunden?

Philipp Knopp: Was da als Test gerahmt wird, ist mit dem Konzept Test eigentlich nicht ausreichend zu verstehen. Es gibt keine festgelegte Technik, die nach fixen Kriterien bewertet wird. Es ist eher ein Überwachungs-Experiment. Da werden eine Überwachungstechnologie und das Setting vor Ort kalibriert, das Verhältnis von Raum und Kamera optimiert. Gleichzeitig ändern sich die Anforderungen an die Beamt*innen, die jetzt bewerten müssen, ob die KI etwas richtig detektiert hat. Und es wurde ja auch der rechtliche Rahmen angepasst. Experiment ist nicht normativ gemeint. Wir wollen mit dem Begriff das Unfestgelegte aufzeigen. Es geht in Hamburg darum, ein experimentelles System zum Laufen zu bringen.

netzpolitik.org: Hamburg ist nach Mannheim die zweite deutsche Stadt, die Verhaltensscanner einsetzt. Zahlreiche weitere Städte und Länder haben Interesse an der Technologie angemeldet. Warum hat die gerade so einen Lauf?

Fabian de Hair: Die Technologie der sogenannten Bewegungsmusteranalyse gilt als vermeintlich bessere Alternative zur konventionellen und biometrischen Videoüberwachung. Es heißt, sie würde die Polizeiarbeit durch die Automatisierung einerseits erheblich effizienter machen, andererseits sei das technische Verfahren dazu besonders datenschutzsensibel. Überprüfbar ist das im derzeitigen Entwicklungsstadium nicht. Vielmehr wird mit einer Zukunftsvision der KI-Technologie argumentiert, deren konkrete Nutzungsszenarien offenbleiben.

Die Deutungen der vermeintlichen Vorzüge dieser KI-Überwachung finden sich insbesondere prominent im Mediendiskurs, der von Akteur*innen der inneren Sicherheit und ihren Bewertungen geprägt ist. Kritische Positionen kommen vor, aber werden nicht zum Anlass der Berichterstattung. Was sich da im Diskurs zeigt, nennen wir eine Purifizierung, eine rituelle Läuterung also, durch die bisherige zentrale Kritiken an Formen der Videoüberwachung direkt adressiert und gleichzeitig abgestreift werden. Die Purifizierung erhöht die Durchsetzbarkeit der Maßnahme, weil die Bewegungsmusteranalyse jetzt als sozusagen gute Überwachung erscheint.

Ausweitung in Aussicht

Philipp Knopp: Gleichzeitig drängt die Technologie auf ihre eigene Ausweitung. Für KI-Training braucht man Daten.

Fabian de Hair: Die Hoffnung ist: Je mehr Landespolizeien sich daran beteiligen, umso präziser wird das Modell.

netzpolitik.org: Das heißt, künftig werden immer mehr und mehr Areale damit überwacht?

Philipp Knopp: Es weiß noch niemand, worauf es am Ende hinauslaufen wird. Auch das Sondieren von Einsatzmöglichkeiten ist Teil des Experimentierens mit der neuen Technik. Es gibt die Idee des Black Screens, wo nur dann jemand auf den Bildschirm schaut, wenn die KI eine verdächtige Situation präsentiert. Dann gibt es die Variante, dass die KI als Assistenzsystem zusätzlich zur menschlichen Überwachung im Hintergrund läuft. Und dann gibt es noch Überlegungen, damit den Überwachungsbereich auszuweiten, weil man nicht mehr so viele Menschen braucht, um auf die Videobilder zu schauen und man davon ausgeht, dass diese Form der Überwachung nicht so stark in die Freiheitsrechte der Bürger*innen eingreift. Also hin zu einem Basislevel von Videoüberwachung von größeren Bereichen.

netzpolitik.org: Die Logik der Verhaltensscanner-Befürworter*innen ist: Weil da kein Mensch, sondern nur eine Software zuschaut, ist es keine Überwachung mehr.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Fabian de Hair: Das ist das Framing. Aber faktisch wird dabei die komplette Datenpipeline – also das technische Verfahren von der Vektorisierung menschlicher Körper auf Videobildern, über die Kategorisierung dieser Vektorenbündel bis zur Alarmierung – ausgeblendet. Die Praxis der Überwachung wird hier auf die Prüfung durch Polizeibeamt*innen, also das menschliche Sehen, reduziert.

99 von 100 zu Unrecht beobachtet?

netzpolitik.org: Ist die Technologie denn so effektiv wie von den Befürworter*innen erhofft?

Philipp Knopp: Es gibt da unterschiedliche Bewertungsmuster. Als Erfolg gilt auch schon die positive Resonanz von Medien und anderen Polizeien. Nach einem ersten Test wurden auch einige Kennzahlen vorgelegt. Allerdings wurden dabei die falsch-positiven Meldungen im Vergleich zu den korrekten Detektionen recht ungenau angegeben. Überwachungskritische Bewegungen haben daraufhin berechnet, dass nur etwa ein Prozent der Alarme eine korrekte Detektion war. Das heißt, in 99 von 100 Fällen wurden Menschen aus Sicht der Kritiker*innen zu Unrecht beobachtet.

netzpolitik.org: Angeblich verhindere die Verhaltensanalyse Diskriminierung, weil sie nicht berücksichtigt, welche Hautfarbe, welches Geschlecht oder Alter eine Person hat.

Fabian de Hair: Die Idee hinter dieser KI-Überwachung ist die Automatisierung von Verdachtspraktiken. Es geht um Kategorien wie zum Beispiel Schlagen, Treten, Liegen, Fallen. Der Mensch wird zu einem Bündel von Vektoren umgerechnet, wodurch der soziale Kontext eines Ortes, einer Situation oder einer Bewegung gelöscht wird. Dabei kann eine Bewegung je nach Kontext verschiedene Bedeutungen haben. Und es lässt sich auch an bestimmten Verhaltensweisen feststellen, ob jemand zu einer marginalisierten Gruppe gehört. An einem Ort wie dem Hamburger Hansaplatz, wo es unter anderem Straßenprostitution gibt, hat Stehen eine soziale Bedeutung. Weil ebenso Obdachlose den Platz nutzen, hat auch Liegen eine soziale Bedeutung. Und in der technischen Formatierung werden diese Bewegungen dann in einen Verdacht übersetzt.

Die Polizei als Akteur in der Datenökonomie

netzpolitik.org: Die Rechte für die Technologie liegen beim Fraunhofer IOSB, einer Forschungsorganisation. Trainiert wird sie mit den Daten von zahllosen Menschen in Mannheim und Hamburg.

Philipp Knopp: Das ist auch etwas Neues, das sich durch die rechtlichen Neuerungen im Hamburger Polizeigesetz anbahnt. Die Polizei wird zum Akteur in einer globalen Datenökonomie rund um KI-Training, zum Datenlieferanten. Diese Entwicklung ist nicht auf den Hamburger Fall beschränkt. Auch in anderen Bundesländern versteht die Polizei zunehmend, dass sie über besondere Daten und eine seltene Anwendungsumgebung verfügt, die sie für die Technologieentwicklung einsetzen will.

Fabian de Hair: Das ist eine sehr spezielle Form der Datenverarbeitung, die besondere Aufmerksamkeit bedarf.

Philipp Knopp: Da ist auch immer die Frage, welche sozialen Gruppen sind davon betroffen, wessen Alltag wird in diesen Daten festgehalten. Die Verhaltensanalyse wird in Hamburg auf einem Platz getestet, wo Menschen sich nicht so gut wehren können wie in einem noblen Viertel. Da gibt es viele Menschen, die keine deutschen Staatsbürger*innen sind. Es gibt Wohnungslose, Trinker*innen, Menschen, die viel Zeit auf der Straße verbringen und nicht beispielsweise in Parteien organisiert sind. Ihnen fehlen die politischen Einflussmöglichkeiten und teilweise sind die überwachten Orte für diese Menschen sehr wichtig. Sie können nicht einfach woandershin ausweichen und werden notgedrungen Teil dieses KI-Trainings.

Tanz als Widerstand

netzpolitik.org: In Hamburg sind auch Grüne und Datenschutzbehörden einverstanden mit der Verhaltensanalyse. Gibt es denn überhaupt noch Gegner*innen?

Wir sind ein spendenfinanziertes Medium.

Unterstütze auch Du unsere Arbeit mit einer Spende.

Fabian de Hair: Ja, definitiv. Das Bündnis Hansaplatz zum Beispiel. Die Aktivist*innen haben eine Demo und Veranstaltungen zum Thema organisiert sowie die Entwicklung kritisch begleitet. Es gibt auch noch andere nachbarschaftliche Organisationen am Hansaplatz, die sich ebenfalls kritisch äußern. Aber sie sind, wie bereits erwähnt, medial nicht durchgedrungen mit ihrer Position, dass es sich um eine weitergehende Kriminalisierung sozialer Probleme handele.

netzpolitik.org: Was können kritische Akteur*innen tun, um im Diskurs mehr Gewicht zu bekommen?

Philipp Knopp: Diese Tests mit Bewegungsdetektion haben interessante neue Formen der Widerständigkeit hervorgebracht: Tanzperformances, die die angenommene Korrelation von Bewegung und Kriminalität hinterfragen. Das gab es in Mannheim und darüber haben Medien dann auch berichtet. Was sich außerdem gezeigt hat: Die meisten Bündnisse, die sich mit solchen Überwachungsprojekten beschäftigen, überlegen, wie sie eine soziale Basis aufbauen und alternative Sicherheitskonzepte weiterentwickeln können wie etwa soziale Sicherheit. Sie schauen über den Anlass Kamera hinaus und stellen die Frage: Welche Probleme gibt es im Viertel und wie können wir damit arbeiten?

Fabian de Hair: Unsere Interviews zeigen, dass fehlende Transparenz seitens der Überwachungs-Betroffenen bemängelt wird. Eine Informationsgrundlage herzustellen, mit der Zivilgesellschaft und Wissenschaft agieren können, ist hier insofern elementar. In Hamburg hat Die Linke als Oppositionspartei mit vielen Kleinen Anfragen dazu beigetragen.

Das Gefühl, beobachtet zu werden

netzpolitik.org: Die Verhaltensanalyse sucht sogenanntes atypisches Verhalten. Geht damit die Gefahr einher, dass Menschen sich im Überwachungsbereich angepasster verhalten?

Philipp Knopp: Es ist schwierig, das empirisch zu belegen. Die Wirkung von Videoüberwachung lässt sich schlecht isolieren. In Medienberichten kam aber heraus, dass sich Menschen, die viel auf dem Platz sind, permanent beobachtet fühlen.

netzpolitik.org: Wenn eine KI die Videos beobachtet statt eines Menschen – wird dann die Überwachung entmenschlicht?

Philipp Knopp: Die Automatisierungsleistung der Technologie ist es, den Bürger und den Notruf auszuklammern aus der Verbindung von Polizei und Ereignis. Die Polizei muss nicht mehr hinzugerufen werden – sie kommt von alleine. Befürworter*innen sehen darin durchaus etwas Positives: Die Polizei wird unabhängig von den Bürger*innen und deren Wachsamkeit und Courage.

Die andere Seite der Medaille ist allerdings, dass gerade diese Abhängigkeit die Polizei zur Bürgernähe anhält. Um ihre Aufgabe zu erfüllen, muss sie nämlich daran arbeiten, dass die Bevölkerung ihr vertraut. Für eine demokratische Polizei ist diese Abhängigkeit von der Bevölkerung ein notwendiges Momentum externer Kontrolle. Dieser Effekt kann durch die Automatisierung abgeschwächt werden. Sie verschiebt das Verhältnis zwischen Bevölkerung und Polizei in eine bestimmte Richtung.

netzpolitik.org: Ist die KI-Überwachung eine politische Maßnahme, um Handlungsfähigkeit zu suggerieren?

Philipp Knopp: Diese Annahme wird in Studien zu Videoüberwachung häufig geäußert. Kameras sind auf jeden Fall ein kostengünstiges Mittel, um zu sagen: Wir tun etwas.



Source link

Weiterlesen

Datenschutz & Sicherheit

BSI definiert, wann eine Cloud wirklich souverän ist


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Nicht erst seit dem Beginn der zweiten Amtszeit Donald Trumps wird diskutiert, ob die Abhängigkeit von nichteuropäischen Cloud-Anbietern zu groß ist – von Hyperscalern wie AWS und Azure ebenso wie von Alibaba oder Huawei Cloud. Insbesondere für sicherheitskritische Anwendungen der öffentlichen Verwaltung und für Betreiber kritischer Infrastrukturen und Dienstleistungen gilt: Auf der Suche nach performanten und unabhängigen Lösungen gibt es viele Versprechungen – doch bei den Kriterien gibt es oft wenig Klarheit. Ist eine Cloudlösung souverän, wenn sie technisch sicher in der EU betrieben wird? Unabhängig von der Infrastruktur eines US-Unternehmens? Ohne Abhängigkeit von Instanzen außerhalb? Technische IT-Sicherheit ist das eine, technische Souveränität ein nicht immer deckungsgleiches Anforderungsprofil.

Weiterlesen nach der Anzeige

Die engeren Sicherheitseigenschaften von Cloud-Diensten definiert bereits der kürzlich aktualisierte Cloud Computing Compliance Criteria Catalogue (C5). Der nun vorgestellte Vorschlag des Bundesamtes für Sicherheit in der Informationstechnik (BSI) setzt beim zweiten Begriff an: Die Fachleute der Bonner Bundesbehörde haben mit ihren heute veröffentlichten „Criteria Enabling Cloud Computing Autonomy“ (C3A) einen Vorschlag vorgelegt. Nutzer sollen damit von vornherein prüfen können, ob ein Dienst tatsächlich zu ihrem jeweiligen Souveränitäts-Risiko passt. Die Behörde begleitet die Diskussionen seit vielen Jahren als IT-Sicherheitsdienstleister der Bundesverwaltung. Sie will damit vor allem eines leisten: „Es geht uns um technisch tragfähige Lösungen, die konkrete Bedingungen formulieren“, sagt Thomas Caspers, Vizepräsident des BSI.




Für den IT Summit 2026 suchen wir praxisnahe Berichte von Menschen, die Projekte zur digitalen Souveränität planen, leiten oder umsetzen. Vorträge und Keynotes auf dem IT Summit dauern 45 Minuten inklusive 5 Minuten Fagen und Antworten. Idealerweise kombinieren sie praktische Erfahrungen mit technischer Tiefe, sodass die Zuhörer und Zuhörerinnen konkrete Learnings mit nach Hause nehmen. Reichen Sie Ihre Vortragsideen bis zum 17. Mai 2026 ein.

Weniger diplomatisch interpretiert: Statt politisch lange über die Unabhängigkeit eines Anbieters zu diskutieren, will die Behörde mit einem konkreten Vorschlag in die Debatte um die Folgen des Cloud and AI Development Act (CADA) einsteigen. Den CADA will die EU-Kommission nach aktueller Zeitplanung am 27. Mai vorlegen; anschließend beraten ihn Mitgliedstaaten und Europaparlament. Denn Beobachter erwarten, dass EU-Vizekommissionspräsidentin Henna Virkkunen mit dem CADA klarere Kriterien für Cloud-Souveränität vorgibt – und Diskussion und Lobbying mit der Vorstellung des Vorhabens im Mai erst richtig beginnen.

Dabei baut das BSI unter anderem auf sechs der acht Kriterien auf, die die eigentlich nur für die EU-Kommissions-eigene IT zuständige Generaldirektion DIGIT im vergangenen Jahr definiert hatte und konkretisiert diese um breitere Erfahrungen. Vor allem die französische IT-Sicherheitsbehörde ANSSI und das BSI haben umfangreiche Erfahrungen mit verschiedenen Abhängigkeitsvariationen gesammelt – in Deutschland zum Beispiel mit der SAP-Microsoft-Kooperation DelosCloud, mit Stackit von Schwarz-Digits oder der T-Systems-Sovereign-Cloud in Kooperation mit Google, mit Anforderungen etwa für „Polizei 2020“ (P20) oder für Amazons European Sovereign Cloud-Angebot. Parallel testete die dem französischen Premierminister unterstellte Behörde einen anderen Pfad, bei dem für die öffentliche Verwaltung stets französische Unternehmen beteiligt sind – beispielsweise der Rüstungskonzern Thales beim im Dezember nach den französischen SecNumCloud-Anforderungen zertifizierten S3NS, das zusammen mit Google betrieben wird oder etwa SAP auf OVH-Hardware.

Genau solche Erfahrungen sollen nun für die Zukunft relevant werden. Dass das BSI die C3A-Systematik nicht im luftleeren Raum entwickelt hat, sondern auch mit Anbietern gesprochen hat, zeigen auch eng daran angelehnte eigene Bewertungsstandards aus der Branche. „Wir haben unter anderem am Beispiel der AWS European Sovereign Cloud gesehen, wie viele Mechanismen eine Rolle spielen, um eine Cloud betriebsfähig zu halten“, erklärt Caspers. „Komplett entkoppelt wird man solche Angebote aber nicht über Jahre weiterbetreiben können.“

Weiterlesen nach der Anzeige

In den C3A sieht das dann beispielsweise so aus: SOV-4-09-C der C3A definiert, was bei einem Disconnect – also der Abkopplung von der außereuropäischen Betreibercloud – gewährleistet sein muss: Im Kern muss der Betrieb weiterlaufen, ohne dass Verfügbarkeit, Integrität, Authentizität und Vertraulichkeit leiden. Zudem muss es einen dokumentierten Prozess für das Vorgehen und die Durchführung der Abkopplung geben und der Betreiber muss dies mindestens einmal jährlich getestet und dokumentiert haben, inklusive der Ergebnisse des Tests. Wer das weitergehende Kriterium SOV-4-09-AC erfüllen will, muss zudem seine Dokumentation mit den zuständigen IT-Sicherheitsbehörden am Ort des Rechenzentrums auf deren Verlangen hin teilen.

Ähnlich konkret sind auch die Vorgaben in juristischer Hinsicht, etwa wenn es darum geht, dass die Anbieter keiner Nicht-EU-Jurisdiktion unterliegen dürfen oder bei der Frage, von wo aus Mitarbeiter die wesentlichen IT-Pflegemaßnahmen durchführen. Und auch bei der Auswahl der Mitarbeiter gibt es entsprechend gestufte Kriterien: So verlangt SOV-4-01-C1, dass alle Mitarbeiter, die logischen oder physischen Zugang zu Betriebsmitteln des Clouddienstleisters haben, eine EU-Staatsbürgerschaft und einen EU-Wohnsitz haben müssen – noch schärfer ist die Anforderung nach SOV-4-01-C2: dann müssen alle Mitarbeiter nicht nur EU-Bürger sein, sondern auch ihren Wohnsitz innerhalb der Bundesrepublik haben.

Dieses Kriterium kommt insbesondere für Hochsicherheitsanwendungen in Frage, etwa für Sicherheitsbehörden oder auch die Bundeswehr. Für die hat das BSI zwar keine direkte gesetzliche Zuständigkeit. Doch für den Fall der Fälle enthalten die C3A ebenfalls Prüfkriterien. Denn was im grundgesetzlich geregelten Verteidigungsfall erfüllt sein sollte, wird nun auch klar definiert: entsprechend dem Muster aller Notstandsgesetzgebung müssen Clouddienstleister in der Lage sein, den Betrieb an die Bundesbehörden zu übergeben – „inklusive des notwendigen Materials und Personals“.

So wie ursprünglich auch beim C5-Katalog, der zwischenzeitlich jedoch etwa im Sozialgesetzbuch für die Gesundheits-IT qua Gesetz für verbindlich erklärt wurde, ist das bei den C3A ebenfalls nicht direkt der Fall. „Die Criteria Enabling Cloud Computing Autonomy sind aus sich heraus nicht verbindlich“, erklärt Caspers. „Sie können aber natürlich im Rahmen von Gesetzgebung oder bei Ausschreibungen zu Mindestanforderungen erklärt werden.“ Die C3A können jedoch, meint der Vizepräsident des Bundesamtes für Sicherheit in der Informationstechnik, „zur Benchmark der Bundesverwaltung werden.“

Das kommt auch durch eine Wechselwirkung der Vorgaben. „Stellen des Bundes sind verpflichtet, den IT-Grundschutz des BSI umzusetzen“, erklärt Martin Bierwirth, Referatsleiter Cloud-Sicherheit beim BSI. „Sofern sie externe Cloud-Dienste nutzen, müssen sie in diesem Rahmen auch den Baustein OPS 2.2 anwenden und erfüllen.“ Auf diesem baue auch der Mindeststandard zur Nutzung externer Cloud-Dienste (MST-NCD) auf. Die C3A wiederum würden auf dem C5 aufbauen und dessen Kriterien zur Informationssicherheit mit dem Thema digitale Souveränität ergänzen. Wer also nicht nur sichere, sondern auch souveräne Vorgaben erfüllen muss, wird darum in der Bundesrepublik absehbar schwer herumkommen. Ob große Hyperscaler diese erfüllen können, dürfte vom jeweiligen Anforderungsprofil der Kunden abhängen – und vom Druck, souveräne Lösungen wählen zu müssen.

Je nachdem, wie sich die europäische Diskussion weiterentwickelt, könnten die neuen Kriterien aber auch jenseits von Rhein und Oder eine maßgebliche Rolle spielen. Sollten mit dem Cloud and AI Development Act der EU solche Kriterien Einzug in die Anhänge der IT-Sicherheitsgesetze wie NIS2 oder Cybersecurity Act finden, würde wohl kaum ein Weg an dem deutschen Vorschlag vorbeiführen.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Beliebt