Datenschutz & Sicherheit
Mit minimalen Anpassungen in Richtung Überwachungsstaat
Die sächsische Polizei soll Bilder im Internet biometrisch auswerten dürfen – zumindest wenn es nach dem Willen der sächsischen Regierung geht. Und das ist lange nicht die einzige massive Befugniserweiterung der Polizei, die die Regierung plant. Auch Verhaltensscanner, verdeckte Kennzeichenerkennung und eine automatisierte Datenanalyse sollen kommen. Lediglich bei zwei problematischen Plänen machte das Innenministerium einen Rückzieher. Unter Zeitdruck muss nun der sächsische Landtag entscheiden.
Geringfügige Änderungen für eine „rechtsstaatlich sehr hohe Qualität“
Am Dienstag beschloss das Kabinett den Gesetzentwurf für das Sächsische Polizeivollzugsdienstgesetz (SächsPVDG). Dieser fällt in Teilen weniger scharf aus als die ursprünglich geplante Novelle. Wenn man den sächsischen Innenminister Armin Schuster (CDU) fragt, sogar ein gutes Stück zurückhaltender. Sein Referentenentwurf aus dem Herbst war auf viel Kritik gestoßen, auch die mitregierende SPD kritisierte einige der geplanten Befugniserweiterungen.
Im Vergleich dazu enthielten die neuen Pläne „sehr viele grundrechtssichernde Bestimmungen“, so Schuster. Er verweist auf Richtervorbehalte, Lösch- und Berichtspflichten. „Für Polizisten ist dieses Gesetz eine Herausforderung“, sagte der Innenminister auf einer Pressekonferenz am Dienstag nach der Kabinettssitzung. Der Entwurf habe nun eine „rechtsstaatlich sehr hohe Qualität“, betonte er.
Tatsächlich gibt es bei den meisten Bestimmungen des Entwurfs, wenn überhaupt, geringfügige Änderungen und Konkretisierungen. So ist der präventive Staatstrojaner-Einsatz zur Quellen-Telekommunikationsüberwachung nach wie vor enthalten, ebenso Verhaltensscanner, die gesetzlichen Grundlagen für eine Datenanalyse-Plattform sowie der biometrische Abgleich von Gesichtern und Stimmen mit dem Internet.
Kein Palantir, keine Drohnen gegen Handy-Sünder:innen
Gestrichen wurde vor allem das Filmen in Autos, um Handy-Nutzer:innen am Steuer zu erwischen. Diese Vorschrift sollte laut dem ursprünglichen Entwurf sogar mit Drohnen umgesetzt werden.
Die sächsische Datenschutzbeauftragte Juliane Hundert hielt das für „offensichtlich verfassungswidrig“ und sprach von einer „auf der Hand liegenden Unverhältnismäßigkeit“. Ihrer Empfehlung nach einer ersatzlosen Streichung folgte die sächsische Regierung offenbar.
Außerdem setzte die SPD durch, dass Palantir keinen sächsischen Auftrag für eine polizeiliche Datenanalyse-Plattform bekommt. Der Verzicht wird vom sächsischen Innenminister bedauert: „Der Vorsprung der Firma Palantir ist mit Händen greifbar“, sagte Schuster. Man führe Gespräche mit anderen Anbietern. Laut Kostenplanung im Entwurf rechnet die Staatsregierung mit einer zentralen Bereitstellung durch den Bund, an der man sich dann finanziell beteiligt.
Das 3-Stufen-Modell der polizeilichen Datenanalyse
Weiterhin enthalten ist die Vorschrift, die ermöglichen soll, dass die Polizei eine Plattform zur automatisierten Datenanalyse nutzt. Inzwischen findet sich im Entwurf dafür ein 3-Stufen-Modell.
Auf der ersten Stufe steht ein einfacher Datenabgleich, bei dem jede:r Polizist:in personenbezogene Daten in den Beständen der Polizei Sachsen suchen kann. Ausgenommen sind Biometrie-Daten, personenbezogene Daten von Unbeteiligten aus der Vorgangsbearbeitung sowie Daten aus der Wohnraumüberwachung.
Auf der nächsten Stufe folgt die Befugnis, Daten zur Gewinnung neuer Erkenntnisse automatisiert zusammenzuführen und auszuwerten. Voraussetzung ist ein drohender erheblicher Angriff auf den Staat oder Leib, Leben oder Freiheit einer Person. Für drohende terroristische Straftaten liegt die Gefahrenschwelle niedriger. Anordnen dürfen diese Art der Datenanalyse nur hochrangige Polizist:innen, wie etwa die Präsidentin einer Polizeidirektion.
Polizeidaten fürs KI-Training – auch ohne Pseudonymisierung
Nur bei der dritten und letzten Stufe muss die Polizei eine richterliche Erlaubnis einholen. Diese Stufe umfasst den Einsatz von „selbstlernender KI“ sowie die Bildung von Verhaltensprofilen.
Nach wie vor plant die Staatsregierung, der Polizei auch das Training und Testen von eigenen KI-Anwendungen mit echten Polizeidaten zu erlauben. Erlaubt ist außerdem die Weitergabe personenbezogener Daten an Drittanbieter, die mit der Polizei zusammenarbeiten.
Voraussetzung dafür ist, dass die Anonymisierung und Pseudonymisierung sowie die Verarbeitung bei der Polizei „nur mit unverhältnismäßigen Aufwand möglich“ ist. Auch diese Vorschrift wurde, trotz Kritik von der SPD-Fraktion und der Opposition, im Vergleich zum letzten Entwurf aus dem Herbst kaum angepasst.
Gesichtersuche im Netz – im Einklang mit der KI-Verordnung?
Auch der „Klette-Paragraf“, wie ihn Armin Schuster nennt, hat im Gesetzesentwurf weiterhin Bestand. Die RAF-Terroristin Daniela Klette war bis zu ihrer Festnahme 2024 mehrere Jahrzehnte untergetaucht. Dennoch fanden zwei Journalisten im Dezember 2023 Hinweise auf Klettes Aufenthaltsort über die Gesichtersuchmaschine PimEyes. „Diese Blamage darf so nie wieder passieren“, betonte Schuster in der Pressekonferenz.
Dieser biometrische Abgleich von Gesichtern und Stimmen mit Internetdaten wurde trotz viel Kritik kaum angepasst. Die Polizei soll nun lediglich nach Opfern und potenziellen Täter:innen suchen dürfen.
Doch es gibt Zweifel, ob die von Innenminister Armin Schuster als „Klette-Paragraf“ bezeichnete Vorschrift grundsätzlich mit der KI-Verordung der EU in Einklang zu bringen ist.
Laut einem Gutachten von AlgorithmWatch ist es technisch nicht umsetzbar, frei verfügbare Bilder aus dem Internet für einen Abgleich praktikabel durchsuchbar zu machen, ohne eine Datenbank dieser Bilder zu erstellen. Das verbietet die KI-Verordnung.
Das sächsische Innenministerium rechtfertigt die Pläne auf Anfrage von netzpolitik.org damit, dass das Gutachten auf die Erstellung einer anlassunabhängigen Datenbank abziele, das vorgeschlagene Gesetz aber „auf den anlassbezogenen Auftragsbereich der Gefahrenabwehr“ fokussiere. Das Innenministerium schreibt weiter:
Zu OSINT-Recherchen werden sowohl Sachbearbeiter als auch Tools eingesetzt, die sich der grundsätzlichen Datenbankstruktur des Internets bedienen und keine polizeieigene Datenbank für alle Informationen des Internets erstellen.“ Die Methodik hielte sich an die von den Informationsanbietern gesetzten Grenzen, so das Ministerium weiter. „OSINT-Recherchen sind für einen anlassbezogenen Lichtbildvergleich mit Bildern aus dem Internet rechtmäßig unter Wahrung der DSGVO sowie europäischen Datenschutzrichtlinien.
Tatsächlich aber ist es laut KI-Verordnung unerheblich, ob die Polizei selbst eine anlassunabhängige Datenbank mit allen Bildern erstellt oder eine von Drittanbietern nutzt. Konkret verbietet die Verordnung in Artikel 5 (1e) „das Inverkehrbringen, die Inbetriebnahme […] oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“.
Videoüberwachung mit Mustererkennung
Auch Verhaltensscanner und Gesichtserkennung in der Videoüberwachung sind weiterhin vorgesehen. Die Verhaltensscanner sollen Beamt:innen alarmieren, wenn die Software auf den Kamerabildern Bewegungsmuster erkennt, die auf Waffen, gefährliche Gegenstände oder die Begehung einer Straftat hindeuten. Die Beamt:innen sollen dann überprüfen, ob die Software zurecht angeschlagen hat. Sie können daraufhin auch eine automatisierte Nachverfolgung des vermeintlich gefährlichen Menschen durch die verschiedenen Kameras in die Wege leiten.
Diese Form der Überwachung soll prinzipiell nicht nur an allen Kriminalitätsschwerpunkten möglich sein, sondern etwa auch in Straßenbahnen und Bussen, wenn die Polizei annimmt, dass dort künftig Straftaten begangen werden.
Obwohl die SPD-Fraktion sich explizit gegen diese Vorschrift aussprach, ist auch die Möglichkeit eines Live-Gesichtsscans im Gesetzentwurf enthalten. Eingeschränkt wurde hier nur die Menge an Menschen, nach denen die Polizei suchen darf, nämlich nach Terrorverdächtigen sowie vermissten Menschen und Opfern von Entführungen und Menschenhandel.
Diese „Echtzeit-biometrische Fernidentifizierung“ muss von Richter:innen angeordnet werden, die auch Umfang und Dauer der Maßnahme absegnen müssen. Obwohl also prinzipiell alle gescannt werden, die durch das Kamerabild laufen, soll die Software nur nach einzelnen Menschen suchen.
Völlig unverändert: Staatstrojaner, Kennzeichenscan und Bodycams
Bei anderen Befugniserweiterungen hat sich nichts verändert.
Der Bodycam-Einsatz in Wohnungen soll weiterhin erlaubt werden. Auch der Einsatz von Staatstrojanern zur Gefahrenabwehr im Rahmen der Quellen-TKÜ soll möglich sein. Der Innenminister wollte zudem die verdeckte Online-Durchsuchung von Computern einführen, hat das aber nicht „durchgekriegt“, wie er bei der Pressekonferenz freimütig zugab. Auch die CDU-Fraktion macht Druck.
Nach wie vor ist das verdeckte automatisierte Scannen von Auto-Kennzeichen geplant. Diese Überwachungsmaßnahme soll in grenznahen Regionen erfolgen. Das Innenministerium begründet die Maßnahme explizit mit der Suche nach Autodieben und gestohlenen Fahrzeugen. Der verdeckte Scan ist bis zu 30 Kilometer vor der Grenze zu Tschechien oder Polen erlaubt. Das entspricht etwa der Hälfte der Fläche Sachsens.
Bei den Tasern gibt es einen Kompromiss. SPD- und BSW-Fraktion plädierten auf eine gestaffelte Einführung. Die Staatsregierung schafft nun zwar die Rechtsgrundlage, um alle Polizist:innen damit auszustatten. Über die nächsten drei Jahre sollen allerdings nur 120 Stück angeschafft werden. Außerdem ist eine verpflichtende Evaluation im Jahr 2029 vorgesehen.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Minority Report und chinesische Verhältnisse
Auch wenn die Minderheitskoalition den Entwurf im Vergleich zur vorherigen Version in Details verändert hat, bleibt es bei einer massiven Erweiterung der Polizeibefugnisse. Der Dresdener Chaos Computer Club (C3D2) kritisiert das: „Die Landesregierung will klassische Mittel der Strafverfolgung auf Landesebene einführen und verschiebt damit die rechtliche Grenze der behördlichen Befugnisse: Gefahrenabwehr ist Sache des Landes, Strafverfolgung des Bundes.“ Als Beispiel nennen sie die Staatstrojaner, deren Einsatz bundesweit durch die Strafprozessordnung geregelt ist.
Der Verein erinnert in seiner Mitteilung an dystopische Welten wie „Minority Report“, in denen Predictive-Policing die Unschuldsvermutung ersetzt. „Sicherheitsbehörden bauen derzeit solche Systeme aus, ungeachtet der juristischen Grenzen und gesellschaftlichen Folgen für die Demokratie und individuelle Freiheiten.“
Der C3D2 warnt insbesondere vor der Einführung einer Plattform zur automatischen Datenanalyse. Diese sei „moderne Rasterfahndung mit Vorhersagefunktion“, so die Sprecherin weiter. „Ob es Palantir wird oder eine andere vergleichbare Lösung, ist letztendlich egal. Solche Systeme funktionieren in der Regel nur, wenn sie an möglichst viele Sensoren und Datenbanken angeschlossen sind“, heißt es in der Mitteilung. Die Einführung einer solchen Software öffne die Büchse der Pandora.
„Der Chaos Computer Club sieht die Novelle des Sächsischen Polizeigesetzes als einen erneuten Angriff auf die informationelle Selbstbestimmung, die rechtsstaatlich gebotene Gewaltenteilung sowie als Gefahr für eine offene und demokratische Gesellschaft.“
Aus dem Landtag kommt die schärfste Reaktion von der Fraktion Bündnis 90/Die Grünen: „Der massive Einsatz von KI zu Überwachungszwecken, die intelligente Videoüberwachung und die Möglichkeit des Datenabgriffs aus dem Internet sind keine Lappalien, sondern schwerwiegende Eingriffe in die Bürgerrechte aller Menschen in Sachsen“, sagte der innenpolitische Sprecher der Grünen-Fraktion, Valentin Lippmann. Er wiederholte seine Kritik aus dem Herbst, wonach sich der Entwurf eher an chinesischen Überwachungsfantasien orientiere als an dem Grundgesetz.
Grüne und Linke scheiden als Mehrheitsbeschaffer aus
Die Linksfraktion äußerte sich in einer ersten Mitteilung zurückhaltender und verwies darauf, den aktuellen Entwurf noch nicht zu kennen. In der Vergangenheit hatte auch sie die geplanten Befugnisse für die automatisierte Datenanalyse, verdeckte Kennzeichenerkennung und biometrische Suche im Internet zurückgewiesen.
Aufgrund der Mehrheitsverhältnisse im Landtag und die klare Ablehnung der Grünen ist die Position der Linken für die Staatsregierung aber nicht entscheidend. Der schwarz-roten Minderheitskoalition fehlen zehn Stimmen. AfD (40) und Bündnis Sahra Wagenknecht (15) können den Entwurf durch ihre alleinige Zustimmung über die Ziellinie bringen, Grüne (7) und Linke (6) müssten hingegen gemeinsam mit der Minderheitskoalition votieren.
AfD nicht konstruktiv, BSW sieht noch Änderungsbedarf
Eine Zusammenarbeit mit der AfD haben CDU und SPD in ihrem Koalitionsvertrag ausgeschlossen. Die AfD hat keine Stellungnahme im Konsultationsprozess abgegeben. Als einzig verbleibende Option bleibt der Koalition damit das BSW.
Dessen innenpolitischer Sprecher Bernd Rudolph kündigte Anpassungen im parlamentarischen Verfahren an. Besonders bei den Themen automatisierte Datenanalyse, Training von KI-Systemen mit Polizeidaten und Tasern sieht die BSW-Fraktion noch Änderungsbedarf. „Der vorliegende Gesetz-Entwurf enthält sinnvolle Modernisierungen, aber auch gefährliche Überdehnungen.“ Man wolle ein Polizeigesetz, das wirksam schützt, aber nicht überwacht.
Die Uhr tickt
Viel Zeit für Änderungen im Parlament bleibt indes nicht mehr. Wegen eines Urteils des Verfassungsgerichtshofs laufen einige Polizeibefugnisse aus dem aktuellen sächsischen Polizeigesetz bald aus. Grüne und Linke hatten gegen das Gesetz geklagt, der sächsische Verfassungsgerichtshof gab ihnen in Teilen recht und setzte für manche Polizeibefugnisse eine Frist: Bis zum 30. Juni braucht es eine neue Regelung, sonst laufen sie aus.
Den Fraktionen verbleiben damit noch gut vier Monate für den gesamten parlamentarischen Prozess.
Grüne und Linke kritisieren die Regierung für den engen Zeitplan. Selbst Innenminister Schuster räumt ein, dass der Landtag „jetzt nicht komfortabel“, aber ausreichend Zeit habe. Man habe das durchgerechnet, versicherte Schuster.
Geplant ist, das Gesetz am 24. Juni im Plenum zu beschließen. Damit das alles zeitlich klappt, wurde eine Sondersitzung des Innenausschusses angesetzt. Bereits am 27. März steht die Sachverständigenanhörung im Landtag an.
Datenschutz & Sicherheit
Crime-as-a-Service: Regierung warnt vor hochprofessionellen kriminellen Netzen
Die Zeiten, in denen organisierte Kriminalität (OK) als starr strukturierte Gruppierung agierte, gehört der Vergangenheit an. In ihrer Antwort auf eine Anfrage der AfD-Bundestagsfraktion zeichnet die Bundesregierung das Bild einer hochflexiblen, funktional organisierten kriminellen Ökonomie. Das Schlagwort lautet „Crime-as-a-Service“ (CaaS): Kriminelle Gruppen gehen dazu über, spezialisierte Dienste einzukaufen, um getrennte Teilprozesse ihrer Taten abzudecken.
Weiterlesen nach der Anzeige
Anstatt alle Kompetenzen im eigenen Haus zu bündeln, agieren moderne Täterstrukturen laut der Auskunft konspirativ, international vernetzt. Sie nutzten modernste Technologien sowie Messenger-Dienste, um sich regelmäßig neue, profitable Handlungsfelder zu erschließen.
Supermarkt der Schattenwirtschaft
Im Bereich der Cyberkriminalität ist dieses Modell zum Standard geworden. Dem federführenden Innenministerium zufolge ist CaaS ein elementarer Bestandteil dieses Sektors. In der digitalen Underground Economy werde ein Großteil der für Cyberattacken benötigten Komponenten als Dienstleistung angeboten. Das senke Eintrittshürden: Auch technisch weniger versierte Akteure würden in die Lage versetzt, komplexe Angriffe durchzuführen.
Prominentes Beispiel ist „Ransomware-as-a-Service“. Dabei vermarkten spezialisierte Entwickler ihre Schadsoftware und stellen sie „Affiliates“ gegen Gebühr oder eine Beteiligung am erpressten Lösegeld zur Verfügung.
Ein Faktor für Planung, Koordination und Verschleierung dieser Aktivitäten ist der Einsatz digitaler Kommunikations- und Infrastruktursysteme. Die Exekutive betont, dass diese strukturellen Entwicklungen systematisch erfasst und analysiert werden müssten, um eine wirksame strategische Bekämpfung zu ermöglichen.
Gewalt auf Bestellung: Perfides Outsourcing
Die Auslagerung von Tatbeiträgen beschränkt sich nicht auf die digitale Welt. Die Regierung berichtet von einer Zunahme von „Violence-as-a-Service“. Dabei werden teils schwerste Auftragstaten wie Drohungen unter Verwendung von Explosivstoffen, physische Gewalt oder sogar Tötungsdelikte über digitale Plattformen koordiniert.
Weiterlesen nach der Anzeige
Erschreckend sei vor allem die Rekrutierung, heißt es: Insbesondere Minderjährige und junge Erwachsene würden für diese Aufgaben angeworben. Schweden gilt als stark betroffen und hat ein vierstufiges Rekrutierungsmodell identifiziert, das vom Auftraggeber über Vermittler bis zum ausführenden Täter reicht.
Die Hintermänner nutzen gezielte Strategien zur Risikominimierung, um hochrangige Mitglieder der Netzwerke zu schützen und das Entdeckungsrisiko zu verringern. Zudem dient die Ansprache Jugendlicher der Kostenminimierung, da diese oft geringere Entlohnungen akzeptieren oder leichter manipuliert und ausgebeutet werden können. Zugleich ermöglichen die Kontaktnetzwerke dieser jungen Täter kriminellen Gruppen neue Zugänge zu Abnehmern etwa von Drogen und fördern die territoriale Verankerung. Die Trennung von Planung, Steuerung und operativer Durchführung erschwert die Zurechenbarkeit von Verantwortung.
Professionelle Geldwäsche und Identitätsbetrug
Daneben umfasst das Portfolio krimineller Dienstleister Angebote in den Bereichen Geldwäsche, Fälschungskriminalität oder die Bereitstellung technischer Infrastruktur wie verschlüsselter Messenger. Zwar waschen laut einer Europol-Studie noch immer 96 Prozent der untersuchten Netzwerke ihre Erträge selbst. Doch der Zugriff auf spezialisierte externe Dienstleister wird beliebter. Diese Profis nehmen inkriminierte Vermögenswerte an und zahlen dafür „sauberes“ Geld an ihre Kunden aus.
Ferner verwenden OK-Mitglieder verstärkt gefälschte oder gestohlene Identitätsdokumente, um unentdeckt zu bleiben und ihre Aktivitäten über lange Zeiträume fortzusetzen. Auch dafür werden teils externe Angebote genutzt, sofern die Gruppen diese Leistungen nicht selbst erbringen können. Das korrespondiert mit einem steigenden Gewaltpotenzial, was Konflikte zwischen rivalisierenden Gruppen vermehrt in den öffentlichen Raum trägt. Das Innenressort sieht in dieser schleichenden Unterwanderung von Staat und Gesellschaft durch OK-Strukturen ein erhebliches Gefahrenpotenzial.
Strategische Gegenmaßnahmen
Die Antwort der Sicherheitsbehörden besteht aus mehr internationaler Zusammenarbeit. Ziel bleibt die Zerschlagung krimineller Strukturen. Dabei soll sichergestellt werden, dass Gruppierungen in finanzieller Hinsicht nachhaltig getroffen werden. Der Missbrauch staatlicher und gewerblicher Strukturen wird der Strategie nach durch enge Kooperation verschiedener Institutionen verhindert. Die Regierung unterstreicht, dass eine Kombination repressiver und präventiver Ansätze nötig sei.
Auf europäischer Ebene koordiniert den Kampf die European Multidisciplinary Platform Against Criminal Threats (Empact). Im laufenden Zyklus bis 2029 liegt ein Schwerpunkt auf der Identifizierung und Zerschlagung der bedrohlichsten kriminellen Netzwerke sowie von Personen in Schlüsselfunktionen. Deutschland integriert Erkenntnisse aus dieser Einschätzung in die strategische Bewertung der OK, um dem Phänomen der Gewaltdelegation und neuen digitalen Geschäftsmodellen begegnen zu können. Empact soll so helfen, einschlägige Netzwerke dauerhaft zu brechen.
Lesen Sie auch
(nie)
Datenschutz & Sicherheit
Rockstar bestätigt Cyberangriff und Datendiebstahl
Zum wiederholten Mal ist Rockstar Opfer eines Cyberangriffs geworden: Der Entwickler des von vielen sehnsüchtig erwarteten Spiels GTA6 bestätigte, dass es einen Angriff auf seine Systeme gab und Daten entwendet wurden. Die bekannte Cybercrime-Gruppe ShinyHunters richtete derweil auf ihrer Webseite ein Erpresserschreiben an Rockstar.
Weiterlesen nach der Anzeige
Rockstar bestätigte Kotaku, „dass im Zusammenhang mit einer Datenpanne bei einem Drittanbieter auf eine begrenzte Menge an unwesentlichen Unternehmensdaten zugegriffen wurde.“ Der Vorfall habe keine Auswirkungen auf das Unternehmen oder seine Spieler.
Zugriff auf Snowflake
Die Cybergang ShinyHunters erklärte auf ihrer Webseite, sie habe Rockstars Snowflake-Instanzen mithilfe des Drittanbieter-Tools AnoDot kompromittiert. An Rockstar richtete sie die Forderung, bis zum 14. April in Kontakt zu treten und Geld zu zahlen, damit die erbeuteten Daten nicht publik werden. Wieviel die Cyberkriminellen fordern oder welche Daten sie besitzen, sagten sie in dem öffentlichen Statement nicht.
Mit AnoDot können Unternehmen unter anderem ihre Cloud-Kosten überwachen, auch Rockstar tut das. Das KI-Tool soll anhand zahlreicher gesammelter Daten ungewöhnliche Veränderungen erkennen, welche sich negativ auf die Einnahmen des Unternehmens auswirken könnten. Und der Vorfall bei Rockstar Games ist möglicherweise die Folge eines Cyberangriffs auf AnoDot, ebenfalls ausgeführt von ShinyHunters.
Cybersicherheitsvorfall bei AnoDot
BleepingComputer berichtete diese Woche über Probleme, die zunächst bei diversen Cloud- und SaaS-Anbietern auftraten, in deren Software sich das Tool einbinden lässt – etwa auch bei Snowflake. Das Unternehmen konnte das Problem schnell auf AnoDot zurückführen, da sich Angreifer mit AnoDot-Zugangsdaten in die Snowflake-Systeme einloggten.
BleepingComputer erfuhr aus mehreren Quellen, unter anderem von Snowflake, dass es bei AnoDot einen Sicherheitsvorfall gegeben hat. AnoDot selbst informiert auf einer Supportseite darüber, dass derzeit weltweit Probleme beim Abrufen von Datenproben auftreten. AnoDot nahm seine Datenkollektoren für die Dienste Snowflake, S3 und Kinesis demnach bereits am 4. April offline. Die Datenkollektoren sind auch weiterhin offline (Stand: Sonntag, 12. April, 14:55 Uhr).
Weiterlesen nach der Anzeige
Derweil läuft die Frist von ShinyHunters für Rockstar Games weiter. Die Bande ist berüchtigt und hat bereits zahlreiche Cyberangriffe durchgeführt, unter anderem stahl sie dabei Millionen von Nutzerdaten beim Konzertkartenshop Ticketmaster und dem Auto-Verkaufsdienstleister Carguru. Dass ShinyHunters jetzt an die Öffentlichkeit geht, könnte dafür sprechen, dass sie durchaus etwas gegen Rockstar in der Hand haben.
Es ist nicht das erste Mal, dass Cyberkriminelle bei Rockstar Daten entwenden. Bei einem anderen Cyberangriff 2022 erbeutete die Cybercrime-Gruppe Lapsus$ Gameplay-Videos von GTA6 und stellte diese ins Netz. Später wurde bekannt, dass der Angriff von einem Teenager ausgeführt wurde, der sich von einem Hotelzimmer aus mit einem Smartphone, einem Amazon Fire TV Stick und einem Fernseher Zugang zu den Cloud-Diensten verschaffte. Für den Angriff auf Rockstar Games wurde er auch angeklagt und verurteilt, zu dem Zeitpunkt war er 18 Jahre alt.
Lesen Sie auch
(nen)
Datenschutz & Sicherheit
Degitalisierung: Das ruhmreiche Zaunweißen

Es war einmal ein Junge, der hatte etwas ausgefressen, und als Strafe dafür wies ihm seine Tante eine besonders harte Strafe zu: Samstags, wenn die anderen Jungs im Fluss schwimmen durften, sollte er den riesigen Zaun vor dem Haus seiner Tante Polly streichen. Er hat eben missmutig mit der Arbeit begonnen, als sein Kumpel Ben vorbeikommt. Der verspottet ihn wegen der mühseligen Arbeit. Doch unser Junge ist schlau: „Das macht doch keine Mühe, das ist der reine Spaß! Wann kann man schon mal ganz allein solch einen großen Zaun streichen?!“
Da staunt Ben – denn Spaß will jeder haben. Statt Plackerei die reine Freude? Ben bettelt geradezu, mitmachen zu dürfen. Er zahlt sogar dafür. Einen saftigen Apfel. Und er streicht wie ein Verrückter, während unser Held im Schatten liegt. Nach und nach kommen noch mehr Willige, und sie alle geben einiges dafür, den Zaun Tante Pollys streichen zu dürfen. Abends ist unser Freund reich – seine Taschen sind voller kleiner Schätze.
Dieser Einstieg für die heutige Degitalisierung ist ein abgewandeltes Zitat eines Essays von Wolf Lotter aus einer Brand Eins von 2007 mit dem Titel Elementarteilchen [€]. Damals ging es um die Beschreibung der Funktionsweise des Web 2.0. User würden mehr oder weniger freiwillig sogar dafür bezahlen, die Arbeit anderer Leute machen zu dürfen.
Lotter greift einen Vorgang auf, den Mark Twain „Das ruhmreiche Zaunweißen“ nannte, ein lehrreiches Stück aus seinem Romanepos „Tom Sawyer“. Das war 1876. Heute ist 2026, und diesen Prozess, an dem sich im Wesentlichen nichts geändert hat, nennt man Künstliche Intelligenz.
Im Zeitalter der sogenannten Künstlichen Intelligenz ist das aber alles viel besser, oder? Agentische KI macht ja jetzt die Arbeit und wir können die Füße hochlegen, oder? Natürlich nicht. Die Genese heutiger Systeme künstlicher Intelligenz ist leider wieder nur eine andere Art des ruhmreichen Zaunweißens. Immer wieder. In dieser Episode geht es mehr oder weniger um die Schaffung eines Mythos – oder um den Mythos um Anthropics Mythos aus Anlass aktueller Ereignisse.
Militär und Maven
Die Ereignisse, bei denen Menschen freudig und freiwillig die eigentliche Arbeit anderer machen, beginnen im Kontext Anthropic im Januar 2026 mit einem Streit zwischen Anthropic und dem amerikanischen Verteidigungsministerium. Dem vorausgegangen war eine vertragliche Vereinbarung von Googles Gemini für eine neue militärische KI-Plattform mit dem Titel GenAI.mil im Dezember 2025. Im Januar kam es dann zum Bruch von Anthropic und dem Pentagon, wegen der Weigerung Anthropics, seine Technologien für autonome Waffen oder Massenüberwachung freizugeben. Anthropics Technologien wurden dann zum Lieferkettenrisiko seitens des Pentagons erklärt und OpenAI sprang in die Bresche als neuer Technologielieferant.
Das erste ruhmreiche Zaunstreichen im Sinne Anthropics begann dann in der Folge dieser Ereignisse. Abos von OpenAIs ChatGPT wurden massenhaft gekündigt – Hashtag Cancel ChatGPT – und die Öffentlichkeit und Medien schwangen gleich freudig die Pinsel am Zaun mit. Man müsse jetzt gleich Abos bei OpenAI kündigen, forderte etwa der Guardian. Viele ehemalige OpenAI-Kund*innen wanderten ab zu Anthropic.
Das ist am Ende aber leider nur scheinheiliges Zaunstreichen für ein weiteres Big-Tech-Unternehmen, das nur auf eine andere Art problematisch ist. Kriegsführung ist inzwischen an vielen Fronten von KI-Technologie durchzogen, sei es in Gaza, in der Ukraine oder jetzt im Iran. Die Markierung und Auswahl von militärischen Zielen hat sich durch KI stark beschleunigt, es werden mehr Ziele schneller angegriffen und die Kollateralschäden in der Zivilbevölkerung nehmen damit eher zu.
Anthropic für Verantwortungsbewusstsein zu feiern beim Aufzeigen von Grenzen für die militärische Nutzung ist also etwas arg einfältig. Die militärische Initiative des Pentagons namens Maven, die KI mehr und mehr in militärische Operationen einbinden wird, basiert zwar im Kern auf Software von Palantir – Palantir hat aber Schwierigkeiten, Technologie von Anthropic nach dem Disput mit dem Pentagon wieder aus Maven zu entfernen. Weil Anthropics Claude eben schon sehr lange tief mit militärischen Anwendungsfällen verwoben ist und aktiv genutzt wird, etwa wohl auch bei der US-Militäroperation zur Festnahme des venezolanischen Präsidenten Nicolás Maduro.
Kein amerikanisches Big-Tech-Unternehmen kann also wegen seines Pazifismus gefeiert werden. Sie sind alle ähnlich tief in den Bereich des Militärs oder der Geheimdienste verstrickt, behaupten nur mehr oder weniger lautstark, zu den Guten zu gehören. Öffentlichkeit und Medien haben Anthropic aber aktiv geholfen, den eigenen Zaun weiß zu streichen beziehungsweise sich eine weiße Weste nach außen hin zu geben.
Mythos und Marketing
Inmitten dieser Melange aus Hype und verzerrter Außendarstellung kommt nun ein Mythos um ein neues KI-Modell namens Mythos. Das ist im Wesentlichen erst einmal im Kern ein neues Large-Language-Modell, wie so häufig, besser in diversen synthetischen Benchmarks. Aber besonders viel besser in der Fähigkeit, Sicherheitslücken in Software zu finden. Oder um es mit den Worten von Anthropic zu sagen: „strikingly capable at computer security tasks“.
Das Bemerkenswerte ist jetzt, ohne auf die eigentlichen Fähigkeiten eingehen zu müssen, der Hype um diese Ankündigung. IT-Security ist normalerweise ein Feld, in dem es eine konstante Bedrohungslage mit diversen Sicherheitsrisiken gibt, die im täglichen Arbeiten so negativ aufstoßen können. Datenleaks, DDoS-Angriffe, Zero-Day-Exploits, kann alles täglich passieren.
Daher ist es oftmals sinnvoll, nicht in Alarmismus zu verfallen, weil das Bedrohungen nicht weniger bedrohlich macht, sondern eher den Blick auf das Wesentliche verstellt und passende Gegenhandlungen wegen Hektik und Anspannung verlangsamt. Die Kommunikation um Mythos wird aber selbst zu einer Art Mythos erhoben. Da ist dieses mythische neue Sprachmodell, das ab morgen alle Computersysteme unsicher macht – überspitzt gesagt, aber nicht weit entfernt von der medialen Darstellung.
Claudia Plattner, Präsidentin des Bundesamtes für Sicherheit in der Informationstechnik, ließ sich zu einem Endorsement unter öffentlicher Nennung eines noch nicht neutral geprüftem Produkts eines kommerziellen, ausländischen Herstellers hinreißen, das für eine ansonsten eher um Neutralität bemühte Bundesbehörde doch eher selten ist: Das BSI nehme die Ankündigungen von Anthropic sehr ernst und erwarte „Umwälzungen im Umgang mit Sicherheitslücken und in der Schwachstellenlandschaft insgesamt“. Selbst wenn es so ist, tut das Feld der Informationssicherheit auch hier gut daran, nicht wieder den Zaun für andere zu weißen.
Die Kommunikation um die Security-Fähigkeiten von Mythos ist eher Doomsday-Marketing [€] und führt vor allem bei vielen für die IT-Sicherheit Verantwortlichen zum Kampf gegen FUD – Fear, Uncertainty und Doubt sowie eben Untergangsszenarien. Eigentlich gibt es schon länger entsprechend fähige KI-Modelle, die Lücken wie die von Mythos bisher wohl finden können, eventuell nur mit einem etwas spezifischeren Kontext und einem engeren Scope der automatisierten Analyse.
Und nicht jede der von Anthropic präsentierten Lücken ist gleich ein Riesenproblem, wie etwa Red Hat für den Linux-Kernel erklären muss. Die reißerische und mythische Kommunikation von Anthropic selbst blockiert also erst einmal Kapazitäten bei IT-Security-Expert*innen, die wesentlich besser im Absichern von Software und Prozessen zur Absicherung gebraucht werden können. Aber viele Medien pinseln lieber weiter am Zaun mit.
Gesetzt den Fall, der Hype um Mythos ist, sagen wir mal, auch nur zu einem Zehntel berechtigt, dann ist doch die Frage angebracht, wie wir mit der Situation umgehen sollten, damit kein globales IT-Sicherheitsdesaster droht. Auch hier geht vieles leider in Richtung Zaunweißen, weniger in eine faire Kooperation zur Verbesserung der IT-Sicherheit. Dieser Aspekt ist weniger in Technologie begründet, sondern eher in der soziologischen Wirkung von KI auf IT-Security und Programmierung.
Glasswing und Hollowing
Als besonders – aus Eigensicht – verantwortungsbewusstes KI-Unternehmen geht Anthropic mit Mythos ja sorgsam um. Mythos wird aus Sicherheitsgründen erst einmal nicht öffentlich zur Verfügung gestellt. Mit Project Glasswing wolle man Unternehmen und wichtigen Open-Source-Maintainern dabei helfen, durch geregelten Zugang auf Mythos-Systeme durch automatisierte Analysen auf Lücken prüfen und diese somit besser absichern zu können. Auffällig ist bei der Auswahl der Unternehmen ein gewisser Hang zu „America First“, da es sich hauptsächlich um Unternehmen mit Hauptsitz in den USA handelt wie Apple, Google, Nvidia, Broadcom und Microsoft. Indirekt findet hier durch eine Vorauswahl eines Privatunternehmens und der Regierung in den USA ja auch eine gewisse geopolitische Vorentscheidung statt. Sichere Software gibt es in Zukunft auch „America First“?
Wenn Erkenntnisse aus Glasswing auf eine Open-Source-Community treffen, ist aber nicht unbedingt mit Freudenschreien zu rechnen. Der gesamte KI-Hype in der Softwareentwicklung hat vielen Open-Source-Maintainern eher offensiv in die Fresse geschlagen, um das deutlich zu sagen.
Da ist zum Beispiel ein Stellenabbau von 75 Prozent bei dem Start-up hinter dem CSS-Framework Tailwind, auch wegen immer mehr Sprachmodellen, die bisher auskömmliche Zusatzangebote wie Servicedienstleistungen oder Premium-Abos zu Tailwind immer uninteressanter machen. Bug-Bounty-Programme, die kleine finanzielle Belohnungen für gemeldete Sicherheitslücken zahlen, müssen schließen wegen zu viel AI Slop, also schlechten oder sinnfreien Beiträgen. Beispiele dafür sind etwa das Schließen des Internet Bug Bounty oder des Bug-Bounty-Programms hinter curl, dort als Versuch, das „Terror Reporting“ einzudämmen. Dazu musste das größte Code-Repository der Welt, GitHub, jüngst eingestehen, dass die KI-Welle eine Art „Eternal September“ eingeläutet habe, also einer Menge neuer, aber eher ungeeigneter Beiträge auf der Plattform – nicht zuletzt durch die durch GitHub selbst bereitgestellten KI-Assistenten wie GitHub Copilot.
Dazu werden Open-Source-Lizenzen, im Open-Source-Bereich eine oftmals fast schon unantastbare Vereinbarung von Nutzungsbedingungen, aktiv durch sogenannte „Clean Room“-Neuentwicklungen wie bei chardet unterwandert.
Programmier*innen hingegen beginnen im Job durch wachsenden KI-Einsatz immer mehr auszubrennen, wie sich etwa auf Plattformen wie Reddit zunehmend kundtut. Im Arbeitsmarkt, etwa in der Schweiz, deutet sich bei Software-Entwickler*innen eine steigende Arbeitslosigkeit in bestimmten Altersgruppen an. Programmieren als Job durchläuft eine Phase des Hollowing-out – speziell wegen KI.
Genau in diese schwierige Phase, insbesondere für Open-Source-Maintainer, kommt nun also ein gehyptes Modell, das Hunderte neue Sicherheitslücken androht, die unbedingt ganz schnell gepatcht werden müssen. Sicherheit von Open-Source-Projekten ist schon immer eine undankbare Aufgabe, wie auch die in Project Glasswing eingebundene Linux Foundation schreibt. Soll nun dafür irgendwer dankbar sein, wenn eine Technologie erst die Grundlagen der etablierten Zusammenarbeit angreift und dann auch noch eine Flut von neuer Arbeit beschert?
Das ist in etwa so, als würde Tante Pollys Zaun von Tausenden Freiwilligen überrannt werden, die wild durcheinander versuchen, den Zaun zu weißen. Mit der Entspannung und dem Spaß wäre es dann auch für Tom Sawyer vorbei.
Mögliche Verbesserungen durch von KI generierte Patches sind eher schwierig an Open-Source-Maintainer heranzutragen, solange KI-Unternehmen nicht glaubwürdig mit der Open-Source-Community und deren Werten und Zielen übereinkommen. Bisher ist das gehörig gescheitert.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Dennoch stellt sich Anthropic selbst als besonders verantwortungsbewusstes Unternehmen dar, in etwa so, wie OpenAI das schon seit Jahren immer wieder tut.
Milliarden und Verantwortung
OpenAI hat immer wieder in seiner Geschichte die PR-Strategie verfolgt, wie Anthropic es jetzt tut, und auf die Gefahren seiner neuen Produkte selbst hingewiesen – allerdings oft, um selbst einen Mythos um seine Produkte zu erzeugen.
Bei OpenAI war das beim Modell zum Klonen von Stimmen namens Voice Engine schon 2024 der Fall. Zu gefährlich, um es auf den Markt zu bringen, so die Eigenaussage.
Auch 2019 wurde der Release von GPT-2 von OpenAI mit einer „zu gefährlich“-PR-Strategie begleitet. Bemerkenswert ist dabei aus heutiger Zeit weniger das Kommunikationsmuster, sondern das, was im Juni 2019 im Repräsentantenhaus in einem Ausschuss anlässlich der Gefahr von Fake Media und KI von OpenAI-Vertretern zu den Akten gegeben wurde. Auch damals gab es bereits „staged releases“ in Form von kleineren Modellen, denen dann schrittweise größere Modelle folgten. Die Herangehensweise von Anthropic bei Mythos ist also nicht neu.
Interessant ist aber das damalige Eingeständnis, dass es schwer werden dürfte, KI-Technologie kontrollieren zu können.
In Bezug auf Stimm-Klon-Software etwa stellte OpenAI fest:
Viele der Kontrollmöglichkeiten sind weniger technischer Natur, im Gegensatz zu den Systemen, die die Technologie umgeben. (Eine Möglichkeit, sich zum Beispiel gegen Menschen zu schützen, die bei Telemarketing-Betrug KI-synthetisierte Stimmen einsetzen, besteht darin, es Kriminellen einfach schwerer zu machen, Telefonnummern zu fälschen.)
Stimmsynthesierungssoftware können wir natürlich voll funktionsfähig entwickeln, wir können sie jedoch nicht kontrollieren. Aber vielleicht löst mein Problem ja die Telefongesellschaft? – Wie sehr kann man sich aus der Verantwortung stehlen wollen?
Eigentlich sind aus Sicht von KI-Unternehmen die Kontrollmöglichkeiten somit gar nicht innerhalb der Technologie möglich, die sie mit viel Aufwand erschaffen, also vor allem mit viel, viel Geld. Das ist alles nicht möglich trotz in der Genese von KI bereitwillig ignorierten Problemen, die einer Art von Kontrolle unterliegen hätten können, wie etwa digitalem Kolonialismus, immensem Ressourcen- und Energieverbrauch, hoher Machtkonzentration, ungehemmter Datenkonsum, Wegbereitung des Faschismus, Plagiarismus und Desinformation. Alles Probleme, die bei der Schaffung von KI-Technologie ja bislang schweigend akzeptiert oder sogar erst geschaffen wurden. Alles nicht kontrollierbar? Falls aber mal jemand auf nur eines oder zwei dieser Probleme hinweist, wie etwa die Nutzung urheberrechtlich geschützter Inhalte im Falle der britischen Regierung, ist das dann alles zu teuer.
Das Grundproblem bislang jeglicher Technologie auf Basis von KI ist es immer wieder gewesen, die Technologie und die damit verbundenen Macher*innen selbst als unschuldig zu sehen. CEOs von KI-Unternehmen wie Sam Altman von OpenAI oder Dario Amodei von Anthropic tragen die Verantwortung für Multi-Milliarden-Unternehmen, scheren sich aber einen feuchten Kehricht um die Wirkung ihrer Technologien. Sie externalisieren ihre Probleme, internalisieren aber den Gewinn.
Jegliches Commitment zu „Sicherheit“ und „Verantwortung“ ist nicht mehr als ein PR-Stunt, bei dem viele Externe auch noch fleißig den Pinsel schwingen, um den Zaun zu weißen. Für Unternehmen, denen lange Jahre lang schon viel zu viel durchgehen gelassen wurde. Das ist bei Mythos nicht viel anders als bei all den vermeintlich guten, aber letztlich schädlichen „KI-Innovationen“ der Jahre zuvor.
Denn letztlich geht es KI-Unternehmen oft nur um ihr oftmals fragiles Ego. Wir sollten daher alle damit aufhören, ihnen auch noch freudig den Zaun zu weißen.
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
