Datenschutz & Sicherheit
Hier wird die Überwachung getestet, die so viele Städte wollen
„Popeln würde ich hier lieber nicht“, sagt Svenja. Die Enddreißigerin steht auf dem Mannheimer Marktplatz und beäugt argwöhnisch eine Dachkante. Dort sind sechs Kameras installiert. Fünf davon zeigen ungefähr in ihre Richtung. Die sechste ist eine dreh-, kipp- und zoomfähige Kuppelkamera, bei der nur die kameraführende Person in der Polizei-Leitstelle weiß, was sie gerade filmt. Svenja dreht sich um und sieht eine weitere Kuppelkamera. „Das ist ja überhaupt nicht gruselig“, sagt sie und lacht trocken.
Svenja wusste bis eben nicht, dass sie gefilmt wird. Und auch nicht, dass eine Software ihr Verhalten analysiert und bei bestimmten Bewegungen Alarm auslöst. Ein Reporter von netzpolitik.org hat sie darauf aufmerksam gemacht. Es ist nicht so, dass sie regelmäßig in der Nase popeln würde, wie sie beteuert. Aber als sie die Kameras sieht, spürt sie direkt den Drang zur Selbstbeschränkung. Dass ihr erster Gedanke dabei der Nasenreinigung galt, ist ihr unangenehm. Sie bittet uns, für diesen Artikel ihren Vornamen zu ändern.
70 Kameras filmen den öffentlichen Raum in Mannheim. Bei 46 dieser Kameras untersucht eine Software die Bewegungsmuster der überwachten Menschen. Dafür verwandelt sie die Personen in Strichmännchen mit Knotenpunkten an den Gelenken und erfasst, wie sich die Gliedmaßen bewegen. So soll die Software vor allem Schläge, Tritte, Schubse, Rempler und Würgegriffe erkennen, aber auch andere Bewegungen wie Stehen, Gehen, Rennen, Rad- und Rollerfahren, Taumeln, Tanzen, Sitzen, etwas Tragen und jemanden Umarmen. Auch aggressive oder defensive Körperhaltungen soll die Software detektieren, so die Mannheimer Polizei.
„Mannheimer Modell“ haben die Verantwortlichen das Projekt genannt, das seit 2018 im Einsatz ist. Die Software soll dabei nicht nur Bewegungsmuster von mutmaßlich kriminellen Handlungen erfassen, sondern auch „Normalsituationen“, so die Mannheimer Polizei. Das sei erforderlich, „um diese von den polizeilich relevanten Sachverhalten abzugrenzen.“
Eine sogenannte KI schaut also mit 46 Augen permanent zu, was Menschen in Mannheim so treiben. Die Stadt ist ein Reallabor – und Passant*innen wie Svenja sind so etwas wie Labormäuse.

So arbeiten die Überwachenden
Die Aufnahmen der Mannheimer Kameras laufen im Führungs- und Lagezentrum des Polizeipräsidiums Mannheim zusammen. Dort beobachten Polizist*innen das Geschehen in der Stadt permanent auf einer Vielzahl von Bildschirmen. Wenn die Software ein verdächtiges Bewegungsmuster erkennt, ertönt ein Alarm. Auf einem der Bildschirme erscheint ein Hinweisfenster. In diesem sehen die Beamt*innen die Situation, die den Alarm ausgelöst hat, umrahmt von einem gelben Rechteck; daneben das Livebild der entsprechenden Überwachungskamera. Die zuständige Person entscheidet dann, ob die Polizei einschreitet, erklärt die Mannheimer Polizei weiter.
Mindestens 72 Stunden, also drei Tage lang, werden die Bilder gespeichert. Bei polizeilicher Relevanz bleiben sie sogar bis zu 28 Tage im System; bei Verwendung als Beweismittel noch länger. Die Mannheimer Polizei will mit der Software ihre Einsatzbelastung senken und Effizienz steigern.
Die gruselige Anziehungskraft der KI-Überwachung
Das Mannheimer Modell löst bei vielen Sicherheitsbehörden und -politiker*innen Begehrlichkeiten aus. Seit dem ersten September 2025 läuft es auch hinter Hamburger Kameras. Laut dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (Fraunhofer IOSB), das die Technologie entwickelt, haben weitere Städte und Kommunen Interesse bekundet. In Berlin wollen die Regierungsparteien das Polizeigesetz ändern, um den Einsatz der Technologie zu erlauben. In Hessen liegt diese Erlaubnis bereits vor; Innenminister Roman Poseck (CDU) nennt das Mannheimer Modell „vorbildhaft“. In Baden-Württemberg hat die grün-schwarze Landesregierung angekündigt, es ausweiten zu wollen, das nächste Testgelände ist Heidelberg.
Thomas Strobl (CDU), Innenminister des grün-schwarz regierten Baden-Württemberg, nannte das Mannheimer Modell im Mai 2025 einen „nationalen Leuchtturm“. Anlässlich der Verlängerung der Trainingsphase im Jahr 2023 sagte er, es sei „Vorbild für Maßnahmen an Kriminalitätsschwerpunkten im ganzen Land, wenn nicht europaweit.“ Christian Specht (CDU), heute Mannheims Oberbürgermeister, hat die KI-Überwachung im Jahr 2018 als Sicherheitsdezernent auf den Weg gebracht. Er fügte hinzu: „Viele sicherheitspolitische Augen sind gespannt auf uns gerichtet.“
Zu Beginn der automatisierten Verhaltenskontrolle in Mannheim gab es einigen Protest. Eine Gruppe namens „George-Orwell-Ultras“ riet in einem satirischen Video dazu, sich hinter Frachtcontainern auf dem Alten Messplatz vor der Erfassung durch die Kameras zu schützen. Ein Bündnis linker Gruppen lud zum Silent Dance gegen Überwachung; die lokalen Grünen unterstützten eine Petition dagegen. Heute sind die Grünen in Mannheim weniger kritisch. „Mehr Kameras sollen es nicht werden“, sagt die Kreisvorsitzende Tamara Beckh. Die Videoüberwachung könne ergänzend sinnvoll sein, „wir wollen aber eher auf eine personelle Stärkung der Polizei setzen“.
Die Gefahr der Ausweitung

Jackenwetter, Dauerregen. Die Mannheimer Innenstadt ist dennoch sehr belebt an diesem Mittwochvormittag im September 2025. Menschen, die Kapuzen tragen, eilen mit gesenkten Köpfen über den Bahnhofsvorplatz. Tobias Roser steht zwischen ihnen unter seinem Regenschirm und zeigt um sich. „Da, da, da und da“, sagt er. Roser weiß genau, wo die Kameras hängen. Er lebt hier in der Gegend um den Hauptbahnhof und muss sie täglich passieren.
Roser ist Mitglied der Linksjugend solid, der Jugendorganisation der Partei Die Linke. Er fürchtet, dass die automatisierte Verhaltensanalyse ein großer Schritt hin zu einem Überwachungsstaat ist, „den man dann schlüsselfertig übergibt, wenn die Radikalen an die Macht kommen“. Wenn man einmal mit KI-gestützter Überwachung angefangen habe, läge es nahe, weiter aufzurüsten: etwa mit Technologie, die Gesichter erkennt, Lippen liest oder Menschen am Gang identifiziert.
Zwei Erweiterungen des Mannheimer Modells sind bereits geplant: Die Software soll in Zukunft bestimmte Gegenstände, etwa Waffen, erkennen. Und wenn sie eine mutmaßliche Straftat entdeckt, können die gefilmten Gesichter bald vom Landeskriminalamt durch eine Gesichtersuchmaschine gejagt werden. Im September 2024 hat die Landesregierung beschlossen, Lizenzen für eine solche Software zu kaufen.
Die Polizei hat auch nach sieben Jahren keine Ahnung, was die Verhaltenskontrolle bringt
Das Mannheimer Modell ist auch nach sieben Jahren weit von einem evidenzbasierten Betrieb entfernt. Die Vision seiner Fans sind schwarze Bildschirme, die nur anspringen, wenn die Software einen Alarm generiert. Tatsächlich wird dieses Konzept in der Mannheimer Videoüberwachungszentrale bisher nur auf einem einzelnen Bildschirm erprobt. Daneben gibt es zahlreiche weitere Monitore, auf denen weiter Beamt*innen das Geschehen in der Stadt beobachten. Der versprochene Vorteil für die Privatsphäre ist in der Praxis also nicht gegeben.
Die Mannheimer Polizei kann oder will auf Anfrage zudem nicht sagen, wie oft die Software angeschlagen hat und wie oft dadurch eine strafbare Handlung entdeckt wurde. „Der für das Projekt ablesbare Erfolg besteht in der stetigen Weiterentwicklung des Systems und kann zum derzeitigen Projektstand nicht mit Kennzahlen dargestellt werden“, schreibt sie.
Zu Beginn des Projekts hoffte die Mannheimer Polizei noch, das System könne irgendwann auch die Bewegungen bei einem Drogendeal oder Taschendiebstahl erkennen. Das zeigt die auf dem Kanal der Filmakademie Baden-Württemberg veröffentlichte Dokumentation „all eyes on you“. Heute schreibt die Polizei: „Ob das Ziel der Detektion von feinmotorischen Handlungsweisen erreicht werden kann, kann derzeit nicht beantwortet werden.“
Nach aktuellem Stand läuft das Projekt bis 2026. Eine unabhängige Evaluation ist nicht geplant. Nur das Landespolizeipräsidium im Innenministerium soll das Projekt nach seinem Abschluss begutachten. Der Landesdatenschutzbeauftragte Baden-Württemberg schreibt auf Anfrage von netzpolitik.org, dass die Maßnahme wegen der hohen Eingriffsintensität in Grundrechte eigentlich regelmäßig evaluiert werden müsse.
Noch steht die Überwachung rechtlich auf dünnem Eis

Die softwarebasierte Verhaltenserkennung begann mit Kameras am Willy-Brandt-Platz vor dem Mannheimer Hauptbahnhof und am Paradeplatz und wurde dann auf die Kurpfalzstraße – meist Breite Straße genannt –, den Marktplatz und zuletzt den Alten Messplatz ausgedehnt. Die Verwaltung hatte zudem geprüft, ob es nach dem aktuellen Polizeigesetz erlaubt ist, auch am Plankenkopf und auf dem südlichen Bahnhofsvorplatz Kameras aufzustellen, musste die Pläne jedoch verwerfen. „Bei beiden Bereichen konnte kein Kriminalitätsbrennpunkt begründet werden, weshalb die rechtlichen Möglichkeiten für einen Videoschutz nicht vorliegen“, schreibt die Mannheimer Polizei auf Anfrage von netzpolitik.org.
Rechtliche Voraussetzung für die Überwachung ist ein im Vergleich zum restlichen Stadtgebiet erhöhtes Aufkommen von Straftaten. Sinkt die relative Kriminalitätsbelastung deutlich, müssen die KI-Kameras nach baden-württembergischem Polizeigesetz wieder abgebaut werden. Deshalb musste die Stadt auch die Kameras, die sie ab 2001 aufgestellt hatte, im Jahr 2007 wieder entfernen. Nur der nördliche Bahnhofsvorplatz ist bis heute durchgängig videoüberwacht.
Die von der Polizei erfasste Straßenkriminalität in den überwachten Gebieten liegt nach einem zwischenzeitlichen Tief wieder auf der Höhe des Jahres vor der Einführung der Videoüberwachung. Die Drogendelikte sind nach Angaben der Polizei zum Teil deutlich zurückgegangen; das entspricht dem Trend in der gesamten Stadt. Besonders aussagekräftig ist die Kriminalitätsbelastung allerdings nicht. Denn die Zahl der erfassten Straftaten steigt automatisch dort, wo die Polizei genauer hinschaut.
Videoüberwachung nach Gefühl
Künftig will sich die Polizei in Mannheim bei der Überwachung des öffentlichen Raums durch Kameras nicht einmal mehr an den eigenen Kennzahlen orientieren müssen, sondern sie von der Kriminalitätsentwicklung entkoppeln. Laut Polizei soll ein Rechtsgutachten untersuchen, ob auch „strukturelle Kriminalitätsbrennpunkte“ per Video überwacht werden dürfen. Gemeint sind Orte, die aus Sicht der Polizei durch soziale, wirtschaftliche und infrastrukturelle Faktoren eine „erhöhte Tatgelegenheitsstruktur“ aufweisen – unabhängig davon, ob dort tatsächlich solche Taten erfasst wurden. Das würde der Polizei viel Spielraum geben, um Überwachung an immer mehr Orten zu legitimieren.
Laut einer Antwort der Stadt Mannheim auf eine Anfrage der Grünen aus dem Jahr 2024 arbeitet die Stadt an einer Novellierung des Polizeigesetzes von Baden-Württemberg mit, um solche „strukturellen Kriminalitätsbrennpunkte“ auch landesweit einzuführen. Somit wäre Videoüberwachung selbst dann möglich, wenn die Zahl der erfassten Straftaten sinkt.
Dieser Ansatz erinnert an das hessische Polizeigesetz. Dort ist die Rede von„Angsträumen“ und „gefühlten Kriminalitätsschwerpunkten“. Sie zeichnen sich ebenfalls durch „Tatgelegenheitsstrukturen“ aus und würden von der Bevölkerung gemieden, so die Begründung der entsprechenden Änderung des Polizeigesetzes, die im Dezember 2024 verabschiedet wurde.
Der baden-württembergische Datenschutzbeauftragte warnt davor, Gesetze zu verabschieden, die Gefühle zur Grundlage polizeilicher Maßnahmen machen. Die Aufsichtsbehörde verstehe zwar den Drang, das Sicherheitsgefühl der Bürger*innen ernst zu nehmen. Sie sehe aber Gefahren, wenn der Staat Maßnahmen mit hoher Eingriffsintensität für die Grundrechte mit Gefühlen begründe. „Der Staat muss für seine Bürger_innen berechenbar und sein Handeln nachvollziehbar und vorhersehbar sein. Vor diesem Hintergrund erschließt sich uns nicht, wie man mit der Intention in Freiheitsrechte einzugreifen, Gefühle oder Eindrücke objektivieren und rationalisieren könnte.“
Worauf die Kameras zielen, will die Polizei geheimhalten

Während die Polizei in Mannheim den öffentlichen Raum zunehmend durchleuchten möchte, will sie sich selbst nicht in die Karten schauen lassen. Eine Karte mit den genauen Positionen und Ausrichtungen der Kameras will die Behörde auf Anfrage nicht herausgeben – aus „polizeitaktischen Gründen“. Es gibt zwar eine Karte mit rot markierten Überwachungszonen auf der Website der Stadt und eine leicht abweichende mit blau markierten Überwachungszonen auf der Website der Polizei, aber beide weichen von der Realität ab.
So ist dort beispielsweise die Kurpfalzbrücke nicht markiert. Dabei wurde diese mindestens zeitweise von einer Kamera überwacht. Das hat der Prozess eines Mannes gezeigt, der mit Hilfe der Überwachungsbilder eine Verurteilung wegen Widerstand gegen Vollstreckungsbeamte abwehren konnte. Wieso die Kamera einen Bereich abgebildet hat, der nicht entsprechend gekennzeichnet ist, hat die Polizei bis Redaktionsschluss nicht beantwortet.
Die Kurpfalzstraße auf Höhe des Paradeplatzes ist auf der Karte der Stadt ebenfalls nicht als überwacht markiert, dabei zeigen mehrere Kameras deutlich darauf. Die Karte der Polizei zählt dieses Areal zur überwachten Zone; ebenso das südliche Ende des Alten Messplatzes. Laut der Karte der Stadt Mannheim ist dieser Bereich von der Überwachung ausgenommen; dabei sagte ein Polizist 2024, dass er zumindest teilweise von Kameras erfasst wird. Eine Sprecherin der Stadt schreibt auf Anfrage, die Karte solle nur einen „groben Überblick“ geben.
Eine detaillierte Karte mit den Kamera-Ausrichtungen und erfassten Arealen hätte vermutlich auch nur eine kurze Gültigkeit. Im Zuge von Optimierungen komme es gelegentlich vor, dass Kameras nachjustiert werden, schreibt die Polizei auf netzpolitik.org-Anfrage. Protokolle dazu gebe es nicht. Private Immobilien, sowie Areale „die nicht in den videogeschützten Bereich fallen“, würden aber verpixelt.
Die Software braucht viele Schlägereien
Eine Hürde bei der Entwicklung der Verhaltenserkennung ist der Mangel an Beispielen für reale Straftaten. Die Software kann nur dann einen Schlag von einem Fistbump unterscheiden, wenn sie beides häufig zu sehen bekommt.
In der Praxis gibt es in deutschen Innenstädten viel weniger Schlägereien als für KI-Forschende wünschenswert wäre. „Wie sich im Verlauf des Projektes zeigte, stehen leider nur sehr begrenzt öffentliche Daten zur Verfügung“, schreibt die Mannheimer Polizei. Wohl auch deshalb haben Polizist*innen Schlägereien zum KI-Training simuliert. Gestellte Situationen spielen „eine wichtige Rolle“, schreibt das Fraunhofer IOSB, das die Software entwickelt.

Der Datenwissenschaftler Heiko Paulheim von der Universität Mannheim sieht das kritisch. Wenn die Datengrundlage der Software zum großen Teil aus inszenierten Kämpfen zwischen meist weißen und männlich gelesenen Polizisten bestünde, könne das darauf hinauslaufen, dass die KI bei Frauen und BIPoC weniger zuverlässig funktioniert und öfter zu Unrecht anschlägt.
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Auch auf anderem Wege können marginalisierte Gruppen vermehrt ins Visier der KI-basierten Überwachung geraten. Die Mannheimer Software erkennt beispielsweise auch liegende Menschen – und wer in der Öffentlichkeit liegt, ist oft obdachlos. Bislang darf die Software nur bei Hinweisen auf eine Straftat Alarm schlagen. Die Landesregierung plant aber, den Einsatz der Verhaltenserkennung auch gegen Menschen in einer mutmaßlich hilflosen Lage zu erlauben.
Wer das Mannheimer Modell zahlt – und wem die Software gehört
In der Kooperation zwischen Stadt und Polizei Mannheim und dem Fraunhofer IOSB teilen sich die Parteien die Kosten. Die Polizei zahlte 190.000 Euro für Videoarbeitsplätze und Videomanagementsoftware, Speicher- und Serverstruktur. „Personalkosten wurden nicht erhoben“, schreibt sie. Die Stadt zahlte 860.000 Euro für Erwerb, Montage und Verkabelung der Kameras. Das Fraunhofer IOSB finanziert die Software-Entwicklung.
Die Software des Mannheimer Modells gehört dem Fraunhofer IOSB. Es habe sich vertraglich verpflichtet, auf eine kommerzielle Verwertung „vorerst zu verzichten“, schreibt das Institut an netzpolitik.org. Die Polizei Baden-Württemberg könne die Software, wenn sie marktreif werden sollte, kostenfrei nutzen, schreibt die Mannheimer Polizei.
Die Trainingsdaten für das Mannheimer Modell liefern Menschen in Mannheim – oftmals nichtsahnend – kostenlos.
Drogendeals knapp außerhalb des Videobilds

Der Wilde Wein, der die Fassade der Alten Feuerwache am Alten Messplatz erobert hat, umrankt acht Kameras. Vor ihren Linsen springen und gleiten Skateboarder über selbstgebaute Rampen und Rails, Kinder planschen in den Fontänen eines Brunnens, Menschen konsumieren offen Cannabis und Lachgas – und den Spritzen auf dem Boden zufolge wohl auch mehr.
So berichtet es der Journalist Manuel Schülke bei einem Spaziergang über den Platz. Er ist Redakteur beim hyperlokalen Nachrichtenportal Neckarstadtblog und hat sich ausgiebig mit der Mannheimer Videoüberwachung beschäftigt. Schülke sagt: „Ich habe meine Zweifel, dass die bringt, was sie soll.“ Zu häufig lese er im Polizeibericht von Straftaten im Überwachungsbereich, bei denen keine Streife rechtzeitig vor Ort war und trotz Videoaufzeichnung Zeug*innen gesucht werden. „Da hat die Abschreckung nicht funktioniert und die anschließende Strafverfolgung ist auch mau“, sagt er.
Damit die Kameras potenzielle Kriminelle nicht einfach in die Nebenstraßen verdrängen, sind bestimmte Polizist*innen dazu abgestellt, um die videoüberwachten Areale zu patrouillieren. Sie sollen auch eingreifen, wenn eine Kamera eine Straftat filmt.
Schülke zufolge spielen sich Drogendelikte auf dem Platz oftmals knapp außerhalb des überwachten Bereichs ab, etwa in einem anliegenden Parkhaus oder dort, wo der Platz an die Neckarwiese grenzt. Im November 2024 hat die Polizei in diesem Teilareal eine Razzia gegen Drogenhändler*innen durchgeführt.
Schülke hatte zur Einführung der Kameras versucht, Beispielbilder zu bekommen, die zeigen, welche Bereiche die Kameras am Platz aufnehmen; die Polizei habe die Antwort aus ermittlungstaktischen Gründen verweigert. „Es gibt da uneinsehbare Areale und die wollen nicht, dass das jemand weiß“, sagt der Journalist.
Gut einsehbar für die Kameras seien dagegen die Eingänge zu sensitiven Einrichtungen aus dem Gesundheitsbereich, darunter Praxen für Psychotherapie, ein Zentrum für sexuelle Gesundheit und eine psychologische Beratungsstelle für queere Menschen.
Das denken die Mannheimer*innen über die Überwachung
Nino (56) steht auf der Kurpfalzstraße nahe des Marktplatzes und meint, die Mannheimer Kameras gut zu kennen. Dann kreist sein Zeigefinger aber doch erst einmal orientierungslos, während er mit der anderen Hand sein Bier festhält. „Ah da“, sagt Nino nach einer Weile und deutet auf eines der Geräte. „Ich finds scheiße“, sagt er. Da ist Nino nicht allein. Fünf Prozent der Mannheimer*innen versuchen laut einer Untersuchung von 2022/23, die überwachten Areale möglichst zu vermeiden.
Manuela (52) und Karin (77) wollen gerade den Marktplatz überqueren. Manuela sagt, als “Monnemerinnen“ seien sie inzwischen an die Überwachung gewöhnt, aber für sie sei sie nicht nötig. Sie und Karin fühlten sich hier sicher, auch nachts. „Und wenn die noch 1.000 Kameras aufhängen, macht das die Welt auch nicht besser“, sagt Karin. Manuela erinnert an den Polizisten Rouven Laur, der 2024 hier auf dem Marktplatz erstochen wurde. „Wer was machen will, der macht das auch mit Kameras“, sagt sie.
Manuela, Karin und Nino sind drei von insgesamt zwölf Passant*innen, die wir in Mannheim auf die Kameras angesprochen haben. Die drei wussten von den Kameras, die sie beobachten – die anderen neun aber nicht.

Das könnte auch an der zurückhaltenden Beschilderung liegen. Die weißen Warntafeln sind so groß wie ein DIN-A3-Papier und hängen ziemlich hoch. Sie sind unauffällig gefärbt und mit viel Text in kleiner Schriftgröße bestückt. Dort stehen Kontaktdaten der Polizei, ihres Datenschutzbeauftragten und der zuständigen Aufsichtsbehörde; Zweck und Rechtsgrundlage der Datenverarbeitung, Betroffenenrechte und Speicherdauer. Daneben ist ein Kamerasymbol im Bierdeckelformat zu sehen. Kein Wort von softwarebasierter Verhaltenskontrolle.
Interessant ist der Kontrast zu den Schildern „Richtiges Verhalten bei aggressivem Betteln“, die Passant*innen dazu aufrufen, bettelnde Menschen dem Ordnungsamt zu melden. Diese Schilder sind doppelt so groß wie die Kamera-Warnschilder und knallrot.

Datenschutz & Sicherheit
Zeroday Cloud: Hacker-Wettbewerb winkt mit 4,5 Millionen US-Dollar Preisgeld
Noch bis zum 1. Dezember 2025 können ambitionierte Hacker im Rahmen des erstmalig stattfindenden Wettbewerbs Zeroday Cloud (Eigenschreibweise: zeroday.cloud) ihren Exploit-Code einreichen.
Weiterlesen nach der Anzeige
Erfolgreichen Teilnehmern winken Preisgelder in Höhe von insgesamt rund 4,5 Millionen US-Dollar, verteilt auf mehr als 20 weitverbreitete Anwendungen, die auf verschiedene Arten eng mit Cloud-Technologien in Verbindung stehen. Dazu zählen etwa das Nvidia Container Toolkit, Kubernetes, Grafana, Docker, Apache Tomcat, PostgreSQL, Jenkins, Gitlab CE und der Linux-Kernel.
Wichtigste Bedingung des vom Cloudsicherheits-Unternehmen Wiz in Zusammenarbeit mit AWS (Amazon Web Services), Google und Microsoft veranstalteten Contests: Es muss sich um einen Zero-Day-Exploit, also einen Angriff auf eine neu entdeckte, bislang unbekannte Lücke handeln. Ferner muss der Angriff letztlich zur vollständigen Kompromittierung des verwundbaren Systems führen („0-click unauthenticated Remote Code Execution“).
Details und Fallstricke bei der Anmeldung
Die gesamte Liste möglicher Angriffsziele nebst Preisgeldern können Interessierte der Website des Zeroday Cloud-Wettbewerbs entnehmen. Dort findet man auch die genauen Teilnahmebedingungen, Anmeldeformulare und weitere Informationen. Vorkonfigurierte Zielsysteme zum Einbinden in Docker haben die Veranstalter in einem eigenen GitHub-Repository hinterlegt.
Teilnehmer, deren Beitrag von der Jury akzeptiert wird, haben die Gelegenheit, ihren Exploit im Rahmen der im Dezember in London stattfindenden Konferenz Black Hat Europe live zu demonstrieren. Gelingt dort der Angriff, haben sie gewonnen. Der betreffende Exploit wird anschließend im Zuge eines Responsible-Disclosure-Verfahrens an den betreffenden Hersteller übermittelt, um diesem ausreichend Zeit zum Schließen der Lücke zu geben.
Wichtig bei der Anmeldung: Laut Veranstalter müssen sich einzeln oder auch als Team Teilnehmende bereits bis zum 20. November auf der Bug-Bounty-Plattform HackerOne registrieren, den vorgeschriebenen Identitätsnachweis erbracht und bestimmte Steuer- und sonstige Angaben übermittelt haben. Die Frist bis zum 1. Dezember bezieht sich also missverständlicherweise nur auf den Exploit selbst.
Weiterlesen nach der Anzeige
Wer sich auf der Contest-Webseite informiert, sollte unbedingt auch das Kleingedruckte lesen.
(Bild: zeroday.cloud / Screenshot)
Den Schwarzmarkt überbieten
Mit einem Wettbewerb, der sich speziell auf die Cloud fokussiert, füllt Wiz eine wichtige Lücke. Denn als Speicherort riesiger Mengen von Unternehmensdaten rückt diese immer stärker ins Visier von Cybergangstern. So zapfen etwa einige Ransomware-Gangs mittlerweile gezielt Cloudspeicher an, um möglichst effizient an Informationen zu gelangen, die sich für eine Erpressung eignen. Andere verschlüsseln Daten gleich an Ort und Stelle. Oder sie zerstören Cloud-Backups, um ihre Chance auf ein Lösegeld zu erhöhen.
Exploit-Code, der rechtzeitig in die richtigen Hände gelangt, hilft Unternehmen dabei, Angreifern einen Schritt voraus zu sein. Hohe Geldbeträge als Preis eines Wettbewerbs stellen in diesem Zusammenhang viel mehr als nur eine nette Belohnung für wohlmeinende, hilfsbereite Sicherheitsforscher dar. Mit ihnen lassen sich vielmehr auch Teilnehmer anlocken, die ihre Zero-Day-Exploits sonst womöglich in Untergrundforen feilbieten und dort letztlich an Kriminelle verkaufen würden, die schon für den nächsten Angriff in den Startlöchern stehen.
Dass es darauf ankommt, die Preise des Schwarzmarkts zu überbieten, erkennen immer mehr Unternehmen. Zuletzt baute etwa Apple sein Bug-Bounty-Programm massiv aus: Die bisherigen Zahlungen wurden verdoppelt bis vervierfacht. So bot das Unternehmen bislang für einen Zero-Click-Angriff aus der Ferne, der keine Nutzerinteraktion verlangt und die Geräteübernahme ermöglicht, bis zu einer Million Dollar. Nun sind es zwei Millionen.
(ovw)
Datenschutz & Sicherheit
Was ist bei der Chatkontrolle unter „anlassbezogen“ zu verstehen?
Es war keine Sternstunde des deutschen Parlaments: Obwohl die Chatkontrolle-Abstimmung im Rat der EU längst von der Tagesordnung genommen worden war, musste sich der Bundestag heute mit einem Antrag der AfD befassen. Die Partei beantragte darin (pdf), dass die Bundesregierung „bei der bevorstehenden Abstimmung“ über die Chatkontrolle „mit Nein“ stimmen solle. Doch die Abstimmung ist auf Dezember vertagt.
Durch die Tatsache, dass also gar keine Abstimmung akut bevorsteht, war der AfD der Spott der Redner aus dem anderen Parteien für den Antrag sicher. Konrad Körner von der CSU nannte ihn einen bloßen „Schaufensterantrag“. Es stehe nicht nur keine Abstimmung an, es gäbe ja nicht mal einen neuen Entwurf, über den man streiten könne.
Mit dem Begriff Chatkontrolle ist ein EU-Vorhaben gemeint, dass die Anbieter von Messaging- und anderen Kommunikationsdiensten verpflichten soll, in den Nachrichten der Nutzer nach Missbrauchsfotos und -videos (CSAM) zu scannen. Dagegen hat sich eine ganze Phalanx an Kritikern ausgesprochen.
Die Fraktionen des Deutschen Bundestages hatten sich letzte Woche auf Antrag von Grünen und Linken schon allesamt gegen den dänischen Vorschlag zur Chatkontrolle ausgesprochen. Genauer gesagt gegen eine „anlasslose Chatkontrolle“, wie die Regierungsparteien auch diesmal nicht müde wurden zu spezifizieren. Jeanne Dillschneider von den Grünen pochte in ihrem heutigen Statement daher auf eine inhaltliche Klärung. Man warte bisher „vergeblich“ auf eine klare Ablehnung durch das Bundesinnenministerium (BMI) und auch auf eine Klärung, was mit einer „anlassbezogenen“ Chatkontrolle technisch gemeint sein könnte.
Das wollte auch Sonja Lemke (Linke) wissen und wies darauf hin, dass die Bundesregierung in ihrem Formulierungen „jedesmal ein ‚anlasslos‘“ einfüge. Dabei bliebe bewußt offen „was ein Anlass sein kann“ und ob technisch auch das Client-Side-Scanning abgelehnt werde.
Nur nicht „anlasslos“
Die Aussagen der drei Vertreter der Regierungsparteien, die in der kurzen Debatte sprachen, brachten wenige neue Erkenntnisse, aber immerhin ein paar deutliche Worte. Zuletzt war von der dänischen Regierung eine verpflichtende Chatkontrolle und Client-Side-Scanning befürwortet worden.
Katja Strauss-Köster von der CDU betonte, dass erfreulich viele Dienste-Anbieter freiwillig Missbrauchsmaterial aufdecken und an die Behörden melden würden. Aber diese freiwilligen Maßnahmen laufen im April 2026 aus, daher drohe „eine gefährliche Lücke“, wenn man nun nicht handele. Sie wolle eine „solide rechtliche Grundlage“, um den „Status Quo“ zu sichern, also das dauerhafte freiwillige Scannen. Eine solche EU-Verordnung sei anzustreben.
Verpflichtende Maßnahme hingegen solle es „nur im Einzelfall“ geben, so Strauss-Köster. „Ohne konkreten Verdacht“ dürfe private Kommunikation „nicht eingesehen werden“. Sie sagte außerdem, dass „Ende-zu-Ende-Verschlüsselung zentral für unsere Sicherheit“ sei, daher dürfe sie „nicht geschwächt werden“.
Da gab es Applaus aus der CDU/CSU-Fraktion. Doch Strauss-Köster war noch nicht ganz fertig mit ihren Ausführungen: Denn „gleichzeitig dürfen wir verschlüsselte Kommunikation nicht völlig ausnehmen“, fuhr sie fort. Man müsse das „Dunkelfeld“ in den Blick nehmen können. Wie dieser Spagat technisch zu meistern wäre, ließ sie allerdings offen.
Der dänische Vorschlag sei eine Verbesserung gewesen. Es sei dennoch richtig, „dass die Bundesregierung dem nicht zugestimmt hat“. Sie sei für „starke Garantien für Datenschutz und Privatsphäre“, das hätte auch das europäische Parlament vorgegeben. Insgesamt war die kurze Rede Strauss-Kösters eher ein Plädoyer für das freiwillige Scannen.
Carolin Wagner von der SPD betonte, dass im deutschen Parlament Einigkeit bestanden habe: Eine „anlasslose Überwachung privater Inhalte“ sei bereits abgelehnt worden. Es solle auch „keinen Zwang zum Client-Side-Scanning und keinen Zwang in der Aufweichung von Ende-zu-Ende-Verschlüsselung“ geben.
Da war es wieder, das Wörtchen „anlasslos“. Dennoch positionierte sich Wagner am deutlichsten gegen die verschiedenen vorstellbaren technischen Optionen.
CSAM
Wir berichten seit Jahren unter dem Stichwort CSAM (Child Sexual Abuse Material) über politische Vorhaben im Kampf gegen Missbrauchsdarstellungen von Kindern. Unterstütze unsere Arbeit!
Konrad Körner (CSU) war der dritte und letzte der Regierungsparteivertreter und betonte pflichtschuldig, man verteidige die Grundrechte und wolle „keine anlasslose Chatkontrolle“. Man setze sich hingegen für „anlassbezogene Maßnahmen“ ein. Dieser Begriff sei nicht in einer „aufgebauschten Debatte“ zu skandalisieren, schließlich wolle der Bürger, dass sowohl seine Chats als auch seine Kinder sicher seien. Es gehe dabei nämlich um „Ermittlungsbefugnisse“, wenn es einen „Anlass oder Verdacht“ gäbe, dass jemand solches strafbare Material verschicke.
Es gehe hier um „wichtige technische Details“, so Körner. Diese Details würden darüber entscheiden, ob „wir mit einem Gesetz eine Büchse der Pandora öffnen“ könnten. „Glauben Sie mir“, sagte der Abgeordnete, „auch wir haben da große Bedenken“. Denn mit Blick zur AfD sagte Körner: „Wenn Sie an der Macht wären, würde jede inkorrekte Äußerung in der Stammtischgruppe zum Hassverbrechen stilisiert, oder wenn die anderen reden, würde jeder depperte Genderstern noch zum Vaterlandsverrat.“
Das Niveau der Debatte hatte er damit wohl nicht erhöht, aber doch klargestellt, was die CDU/CSU-Fraktion unter „anlassbezogen“ versteht.
Der Schutz von Kindern
Die Abgeordneten betonten, dass nicht vergessen werden dürfe, dass es in der EU-Verordnung um den Schutz von Kindern gehe. Doch der Deutsche Kinderschutzbund und andere Kinderschützer stellten sich mehrfach und deutlich gegen die EU-Pläne einer Chatkontrolle.
Lemke von den Linken beklagte, dass immer wieder „sexuelle Gewalt an Kinder vorgeschoben“ werde. Es gäbe doch zahlreiche Maßnahmen, die man sofort dagegen ergreifen könne, etwa in den Ausstattungen von Jugendämtern, Schulen, Kitas und in der Jugendhilfe, bei Erziehern und Sozialarbeitern. „Keinem Kind ist durch Chatkontrolle geholfen“, betonte sie.
Datenschutz & Sicherheit
EU-Abgeordnete fordern strengere Regeln für Jugendschutz
Online-Plattformen tun nicht genug, um Minderjährige vor Risiken im Netz zu schützen, finden die Abgeordneten aus dem Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) im EU-Parlament. Am gestrigen Donnerstag haben sie auf 26 Seiten Forderungen nach Verschärfungen und teils neuen Maßnahmen vorgelegt. Die Themen reichen von Videospielen über süchtig machende Designs und KI bis zum Umgang von Plattformen mit minderjährigen Influencern.
Eine der brisantesten Forderungen in dem Papier ist ein EU-weites einheitliches Mindestalter von 16 Jahren für die Nutzung sozialer Netzwerke, Video-Plattformen und sogenannter “AI Companions” (KI Begleiter). Mit Zustimmung der Eltern könnte die Altersgrenze demnach auf 13 Jahre sinken.
Australien hat sich auf eine solche Altersgrenze bereits geeinigt, die Umsetzung ist für Dezember geplant. Umsetzbar ist eine solche Grenze in der Regel nur durch strenge Alterskontrollen. Dafür haben sich etwa die Digitalminister der EU-Staaten kürzlich ausgesprochen. Unter anderem EDRi, der Dachverband von Organisationen für digitale Freiheitsrechte, lehnt diesen Ansatz allerdings ab.
Hohe Hürden für Alterskontrollen
Bereits heute ist die Nutzung von Instagram und TikTok erst ab 13 Jahren erlaubt, doch es gibt derzeit keine strengen Kontrollen des Mindestalters. Für eine feste und pauschale Altersschranke müsste wohl ein neues Gesetz geschaffen werden, denn das Gesetz über digitale Dienste (DSA) sieht Altersbegrenzungen nur als eine von mehreren Maßnahmen vor, die Dienste ergreifen können, um Risiken für Nutzende zu minimieren. Im Rahmen der DSA-Umsetzung diskutiert die EU-Kommission gerade, in welchen Fällen welche Form von Alterskontrollen angemessen sind.
Die Parlamentarier sprechen sich in ihrem Papier dafür aus, Alterskontrollen möglichst einfach, sicher und „datenschutzfreundlich“ zu gestalten. Sie sind der Ansicht, dass etwa die geplante digitale Brieftasche (EUDI-Wallet) diese Ziele erfüllen könnte. Ausdrücklich befürworten sie die derzeit laufende Entwicklung einer App zur Altersüberprüfung im Auftrag der EU-Kommission, deren Funktion später in der EUDI-Wallet aufgehen soll. Sie empfehlen, dafür sogenannte “Zero-Knowledge-Proof”-Protokolle zu nutzen. Online-Dienste sollen dadurch nur eine Ja/Nein-Antwort erhalten, also erfahren, ob eine Person alt genug ist, ohne sie identifizieren zu können.
Wie auch andere Befürworter solcher Maßnahmen blendet der Ausschuss aus, dass sich Alterskontrollen leicht umgehen lassen und zahlreiche neue Probleme schaffen, etwa mit Blick auf Teilhabe und Overblocking. Die Abgeordneten fordern zumindest, dass alle Maßnahmen im Zusammenhang mit Alterskontrollen „gründlich auf ihre Auswirkungen auf die Grundrechte geprüft werden, um die Verankerung von Überwachungspraktiken zu vermeiden“. Zudem sollten Regelungen nur dann geschaffen werden, „wenn sie unbedingt notwendig und verhältnismäßig sind“.
Weitreichende Verbote zum Schutz von Minderjährigen
Weiter betont der Ausschuss in seinem Papier, dass Alterskontrollen kein Wundermittel („silver bullet“) seien. Sie entbinden demnach Plattformen nicht von der Verantwortung, ihre Produkte von Beginn an sicher zu gestalten („safe by design“). Die Abgeordneten fordern deshalb, dass Designelemente mit dem „größten Suchtpotenzial“ für Minderjährige gänzlich abgestellt werden sollen. Dazu gehören Empfehlungsalgorithmen, die basierend auf dem Verhalten der Nutzenden weitere Inhalte vorschlagen – und damit eine immense Sogwirkung entfalten.
Ebenso soll das „Profiling“ von Minderjährigen verboten werden, also die Erstellung von Profilen der Nutzenden mithilfe ihrer Daten, die sich ebenfalls für die Empfehlung von Inhalten und für Werbung nutzen lassen. In Online-Spielen, auf die Minderjährige Zugriff haben, sollen „Glücksspiel-Mechanismen“ wie Lootboxen verboten werden. Das sind virtuelle Produkte, deren Inhalt man erst nach dem Öffnen sieht.
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Teils lassen sich solche Missstände bereits auf Grundlage des DSA bearbeiten, allerdings lediglich von Fall zu Fall, je nach Risiko eines betroffenen Dienstes. Die Forderungen des Ausschusses nach grundsätzlichen Verboten gehen darüber hinaus. Ein Gelegenheitsfenster für derart strengere Gesetze wäre der geplante Digital Fairness Act der Europäischen Union, den der Ausschuss in seinem Papier mehrfach erwähnt. Aktuell läuft noch eine öffentliche Konsultation zu dem Vorhaben, das für das letzte Quartal 2026 geplant ist.
Plattform-Manager sollen persönlich haften
Der Ausschuss fordert die EU-Kommission weiter dazu auf, den DSA und die KI-Verordnung (AI Act) konsequent durchzusetzen. Die Kommission solle es demnach in Erwägung ziehen, bei ernsten und dauerhaften Regelverstößen Führungskräfte eines Konzerns persönlich haften zu lassen. Ähnlich handhabt es der britische Online Safety Act.
Die Abgeordneten wollen zudem, dass Plattformen aufhören, minderjährige Influencer („Kidfluencer“) zu unterstützen. Ihre Inhalte sollen demnach nicht mehr monetarisiert werden, und Kinder sollten auch keine anderen finanziellen oder materiellen Anreize von Plattformen erhalten. Nicht davon berührt wären wohl Werbe-Deals mit Privatunternehmen, eine der größten Einnahmequellen von Influencern. Oftmals werden Kidfluencer von ihren Eltern begleitet und gemanagt; das Publikum wiederum ist oftmals selbst minderjährig.
Die Entschließung der Vorschläge hat der Ausschuss mit breiter Mehrheit (32 von 46 Stimmen) angenommen. Es gab fünf Stimmen dagegen und neun Enthaltungen. Ende November sollen dann das Plenum über den Vorschlag abstimmen. Die Diskussion der Vorschläge aus der Sitzung vom 24. September 2025 kann man sich hier als Video ansehen.
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 Monaten
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Monaten
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 Monat
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 3 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows