Datenschutz & Sicherheit
Palantir und biometrische Überwachung: Dobrindts „Sicherheitspaket“ missachtet Grundrechte
Seit vorletzter Woche ist bekannt, wie die Pläne von Bundesinnenminister Alexander Dobrindt (CSU) für die Polizeibehörden des Bundes aussehen: Wir haben den Referentenentwurf eines „Sicherheitspakets“ seines Hauses veröffentlicht.
Die polizeilichen Bundesbehörden hatten Palantir unter SPD-Vorgängerin Nancy Faeser meiden müssen. Nun plant Dobrindt, dem US-Konzern die Türen zu öffnen. Sowohl das Bundeskriminalamt als auch die Bundespolizei sollen Datenanalysesoftware wie die von Palantir nutzen dürfen, um „verschiedene Datenbestände technisch zusammenzuführen“ und dann automatisiert zu analysieren. Dobrindts Initiative stößt mitten in eine bereits laufende Debatte, ob und unter welchen Bedingungen personenbezogene Daten aus polizeilichen Systemen in einer Analysesoftware zusammengeführt und ausgewertet werden dürfen.
Zwei der Kabinettskollegen von Dobrindt haben sich zu den Palantir-Plänen bereits zu Wort gemeldet. Justizministerin Stefanie Hubig (SPD) hat Bedenken und mahnt die Einhaltung rechtsstaatlicher Grundsätze an.
Auf die Frage, ob es eine gute Idee sei, Software von Palantir für die Polizei zu nutzen, sagte hingegen Digitalminister Karsten Wildberger (CDU): Wenn ein Anbieter eine solche Technologie bereitstellt, sollten wir in sie investieren.
Laut den Plänen Dobrindts sollen das BKA und die Bundespolizei außerdem mit Hilfe von biometrischen Abgleichen im Internet nach Menschen fahnden dürfen. Das BKA dürfte dann das Netz etwa nach Gesichtern oder anderen biometrischen Merkmalen von Verdächtigen, aber auch nach Opfern oder Zeugen durchforsten.
Die automatisierte Analyse von Polizeidaten über eine Vielzahl von Menschen und das Abgrasen des Internet nach biometrischen Mustern völlig Unbeteiligter sind beides ohne Zweifel weitreichende und neuartige Befugnisse. Welche Kritikpunkte Experten an Dobrindts Überwachungsplänen vorbringen, haben wir zusammengetragen.
Regierung kennt keine Alternativen zu Palantir
Das Bundesinnenministerium hat eingeräumt, den Einsatz von Palantir-Software zu prüfen. Deswegen war der US-Konzern auch Thema in der Regierungspressekonferenz am Mittwoch. Ein Sprecher des Innenministers, Lars Harmsen, räumte ein, dass aktuell diese „Prüfung“ stattfinde, deren Ausgang er natürlich nicht vorwegnehmen könne. Er konnte auch keine Zwischenergebnisse mitteilen. Die Software des US-Konzerns Palantir werde dabei auch geprüft, jedoch behandele man das Thema insgesamt „produktneutral“.
Tilo Jung stellte in der Regierungspressekonferenz die Gretchen-Frage, ob der Regierung Alternativen zu Palantir denn überhaupt bekannt seien. Harmsen gab die mantraartige Auskunft, dass Palantir aufgrund des „europaweit durchgeführten“ Vergabeverfahrens in Bayern als das „einzige Unternehmen“ bekannt sei, das eine „marktverfügbare Software“ anbietet, die den hohen definierten Anforderungen entspräche. Aber man strebe grundsätzlich eine europäische oder deutsche Lösung an.
Mitbewerber von Palantir sehen diese wiederholten Aussagen zur Alternativlosigkeit selbstverständlich kritisch. So sagt etwa Robert Simmeth, der Deutschland-Geschäftsführer vom konkurrierenden Softwarekonzern SAS, gegenüber netzpolitik.org: „Palantir hat kein technisches Monopol. Es gibt leistungsfähige Alternativen“, sie seien auch „rechtsstaatlich kompatibel“.
„Gift für die Demokratie“
Das Vorhaben Dobrindts, eine Software zur Datenanalyse bei den Polizeien des Bundes einzusetzen, stößt bei Lena Rohrbach, Expertin für Menschenrechte im digitalen Zeitalter bei Amnesty International in Deutschland, auf wenig Gegenliebe. „Das Wort ‚Datenanalyse‘ klingt nach einem präzisen und nachvollziehbaren Vorgang, aber das Gegenteil ist der Fall. Zuvor nicht verknüpfte Daten werden zusammengeführt, um eine umfassendere Überwachung zu ermöglichen“, sagt Rohrbach gegenüber netzpolitik.org. Denn es handele sich um eine „auf einem geheimen Code basierende Software“, die Schlussfolgerungen ziehe, „die der Mensch vor dem Rechner oftmals nicht nachvollziehen kann“.
Carola Otte von der Humanistischen Union kritisiert auch die Art der personenbezogenen Daten aus den Systemen des BKA, der Bundespolizei und aller Polizeibehörden, die verknüpft werden sollen: Dort enthalten seien auch „Daten von Zeuginnen und Zeugen, Opfern, Beschuldigten und Unbeteiligten, die nicht durch die wenigen Einschränkungen im Gesetzentwurf ausgefiltert werden“. An die zu verwendende Software werden außerdem „keinerlei Anforderungen gestellt, zum Beispiel an Transparenz oder Erklärbarkeit der Ergebnisse“.
Das kritisiert auch Rohrbach: Die verwendete Software sei intransparent, der Quellcode im Falle von Palantir oder anderen privaten Unternehmen „nicht einsehbar“. Deswegen könnten sich Betroffene „nur schwer gegen falsche Verdächtigungen wehren“, sofern sie überhaupt von der Auswertung oder von polizeilichen Folgemaßnahmen erfahren würden.
Palantir bietet mit seiner Software vor allem die Analyse komplexer Datensätze und die Erkennung von Mustern in Daten an. Solche Auswertungsprozesse werden von dem Konzern zwar bereits seit vielen Jahren angeboten, heute aber als „Künstliche Intelligenz“ vermarktet. Rohrbach weist darauf hin, dass KI in dieser Form oft „marginalisierte Gruppen, etwa People of Colour, Alleinerziehende, arme Menschen oder Menschen mit Migrationsgeschichte“ diskriminiere.
Die Menschenrechtsexpertin verweist auch auf die Amnesty-Recherchen zum Einsatz solcher Software durch Behörden, beispielsweise in den Niederlanden, Serbien, Großbritannien oder den Vereinigten Staaten. Sie hätten solche Diskriminierungen immer wieder aufgezeigt. „Es ist auch hier zu erwarten“, sagt Rohrbach. „Menschen werden nicht wissen, welche Verhaltensweisen Datenspuren hinterlassen, die das System verdächtig findet. Das schüchtert ein und ist Gift für die Demokratie und eine starke Zivilgesellschaft.“
Dabei könnten Menschen ins Visier der Behörden geraten, „die einfach nur im falschen Stadtteil unterwegs waren, gemeinsame Bekannte mit einer verdächtigen Person teilen oder im Netz ein lustiges Video geteilt haben, das von einer polizeibekannten Person stammt“. Manche solcher Systeme würden prinzipiell auch „die Totalüberwachung der Bevölkerung und das Generieren von Listen regierungskritischer Personen“ ermöglichen. Deswegen seien sie „eine akute Gefahr für Menschenrechte und Demokratie“, so Rohrbach gegenüber netzpolitik.org. Das sei in Dobrindts Paket zwar nicht unmittelbar vorgesehen, müsse aber als Warnszenario gesehen werden, um das Potential solcher Software zu verstehen.
Das Problem in der Praxis
Teresa Morrkopf-Widlok, Vorsitzende des netzpolitischen Vereins LOAD, sieht zwar die Notwendigkeit, dass „BKA und Bundespolizei handlungsfähig und zeitgemäß ausgestattet“ sein müssen. „Aber wenn es allein darum geht, große Datenmengen auszuwerten, braucht es dafür kein ‚Wundertool‘ von Palantir.“ Das eigentliche Problem liege nämlich in der Praxis oft woanders: „Die Datenbestände sind vielfach veraltet oder schlecht gepflegt, genau dort müsste man zuerst ansetzen“, so Morrkopf-Widlok.
Sie warnt: Solange nicht gewährleistet sei, dass „falsche Einträge oder überholte Informationen systematisch erkannt und aussortiert werden und die Zweckbindung der Daten“ erhalten bliebe, solle man „gegenüber den Heilsversprechen solcher Softwarelösungen skeptisch“ sein.
Diese Heilsversprechen bestehen beispielsweise in der Behauptung von Palantir, dass die angebotene Software Strafverfolgungsbehörden effizienter machen würde. Nach eigenen Angaben analysiere die Software enorme Datenmengen und erkenne darin Muster, die andere Anbieter nicht oder nur schwer finden würden. Unabhängige Nachweise für diese Behauptungen gibt es nicht.
Rainer Rehak vom Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) warnt deshalb vor der Zusammenarbeit mit Palantir. Denn der Nutzen sei „nie transparent dargelegt“ worden. Somit seien „die demokratisch gebotenen Verhältnismäßigkeitsüberlegungen unmöglich“.
Anlasslose biometrische Massenüberwachung
Der Referentenentwurf von Dobrindt enthält auch sehr weitgehende Biometrie-Befugnisse. Das BKA und die Bundespolizei sollen über die Auswertung von biometrischen Daten in „öffentlich zugänglichen Daten aus dem Internet“ beispielsweise die Gesichter von Menschen abgleichen dürfen. Auch Bewegungs-, Verhaltens- oder Sprechererkennung dürften künftig von beiden Behörden genutzt werden. Praktisch könnten dann alle Bilder, Audiodateien und Videos, die Behörden im Internet finden können, automatisiert anhand von biometrischen Merkmalen abgeklopft werden. Der öffentliche Raum Internet, in dem Millionen Menschen Bilder und Filme teilen und permanent miteinander kommunizieren, würde quasi seinen Charakter ändern: Alles würde zum potentiellen biometrischen Fahndungsrohstoff.
Sabine Grützmacher, stellvertretende Vorsitzende des netzpolitischen Vereins LOAD, kritisiert diese neuen Biometrie-Befugnisse: „Der Entwurf setzt auf biometrische Erfassung und anlasslose Massenüberwachung trotz tiefgreifender Grundrechtseingriffe und bekannter Chilling-Effekte.“ Der Begriff Chilling-Effekt bezieht sich auf eine Einschüchterung von Menschen durch staatliche Überwachungsmaßnahmen, die zu einer ungewünschten Verhaltensänderung führen können.
Dass künftig zum Beispiel „private Social-Media-Beiträge“ überwacht werden sollen, sieht Grützmacher besonders kritisch. Das ginge „zulasten von Bürgerrechten“ und sei „sicherheitspolitisch wie demokratisch nicht nachvollziehbar“.
Der Verband der Internetwirtschaft eco sieht den Referentenentwurf ebenfalls kritisch und fordert die Regierung auf, das Gesetzespaket gar nicht erst ins parlamentarische Verfahren einzubringen. Der eco-Vorstandsvorsitzende Oliver Süme sagt, Ermittlungsarbeit brauche „rechtsstaatliche Grenzen, nicht anlasslose Massenüberwachung“. Eine „biometrische Vollerfassung im Netz ist grundrechtswidrig“.
Carola Otte von der Humanistischen Union betont, wie „schwerwiegend in die Rechte einer riesigen Anzahl von Personen auf der ganzen Welt“ eingegriffen werde. Es sei schwer vorstellbar, welche Straftatbestände einen solch großen Eingriff rechtfertigen könnten, sagt sie, „jedenfalls sicher nicht alle der genannten, die unter anderem bestimmte Formen des Sozialhilfebetrugs oder der Kleindealerei beinhalten“.
Rainer Rehak vom FIfF erklärt gegenüber netzpolitik.org, dass „kein denkbares gesellschaftliches Bedrohungsszenario“ diese Art der Biometrienutzung rechtfertigen würde. Sie würden „ungeahnte Massen-Idenfikationen und -Kontrolle ermöglichen, aber gleichzeitig prinzipiell sehr fehleranfällig“ sein.
„Eindeutig datenschutzwidrige Tools“
Auch Thilo Weichert von der Deutschen Vereinigung für Datenschutz kritisiert die Ausweitung der automatisierten Gesichtserkennung: Die geplanten Regelungen seien „in Bezug auf den Begriff des ‚biometrischen Abgleichs‘ zu unbestimmt. Sie legitimieren die polizeiliche Nutzung eindeutig datenschutzwidriger Tools und Internet-Dienstleistungen.“
Auch die Einschränkung, die der Referentenentwurf enthält, überzeugt Weichert nicht. Denn im Entwurf heißt es, dass die öffentlich zugänglichen Daten aus dem Internet „nicht in Echtzeit erhoben“ werden dürfen. Der erfahrene Jurist und langjährige Landesdatenschützer erklärt gegenüber netzpolitik.org: „Der Ausschluss des Abgleichs ‚in Echtzeit‘ ist ein ungeeigneter Versuch, sich in den Einklang mit der KI-Verordnung zu bringen.“
Carola Otte von der Humanistischen Union betont, dass nach dem Referentenentwurf kaum ein anderes Szenario vorstellbar sei, als dass die biometrischen Daten „heruntergeladen und in einer Datenbank gespeichert werden sollen, von wo aus sie dann automatisiert ausgewertet werden sollen“. Wenn das die Intention sein, dann läge ein Verstoß gegen die KI-Verordnung vor.
Schon als ein erstes „Sicherheitspaket“ der damaligen Ampel-Regierung vorgestellt wurde, war die Antwort auf eine Frage unbeantwortet geblieben, sagt Rohrbach von Amnesty, nämlich „wie der Abgleich mit dem Internet funktionieren soll, ohne die KI-Verordnung der EU zu verletzen“. Denn die KI-Verordnung verbiete den Aufbau von ungezielt ausgelesenen Gesichtsdatenbanken. Das aber sei „die technische Voraussetzung für die Pläne von Innenminister Dobrindt“. Das Problem sei „weiter ungelöst“, so Rohrbach.
Wenn zur biometrischen Datenverarbeitung „auf externe Anbieter wie PimEyes oder Clearview zugegriffen“ werden sollte, dann sieht Otte zusätzlich einen Verstoß gegen die Datenschutzgrundverordnung durch die kommerziellen Anbieter.
Auf die DSGVO verweist auch Weichert. Biometrische Identifizierungsdaten fielen nach den europarechtlichen Vorgaben der DSGVO und der JI-Datenschutzrichtlinie „als besonders geschützte Kategorie personenbezogener Daten unter einen besonderen rechtlichen Schutz“. Dieser Schutz gründe auf dem Grundrecht auf Datenschutz gemäß Artikel 8 der Grundrechte-Charta.
Er betont gegenüber netzpolitik.org: „Die Regelungsvorschläge Dobrindts missachten diese Vorgaben“ und auch den Verhältnismäßigkeitsgrundsatz. Weichert ist sich sicher: Diese Vorschläge „werden vor dem Europäischen Gerichtshof keine Gnade finden“.
Biometrie
Wir berichten seit zwei Jahrzehnten unter dem Stichwort Biometrie über die Nutzung von Körperdaten von Menschen. Unterstütze unsere Arbeit!
Lena Rohrbach von Amnesty International in Deutschland bewertet Dobrindts Vorhaben ebenfalls als „weder mit der EU-Richtlinie über Datenschutz in der Strafverfolgung noch der DSGVO oder der KI-Verordnung vereinbar“. Sie sieht auch keine Verhältnismäßigkeit gegeben.
Sie erklärt gegenüber netzpolitik.org: „Wenn Gesichtserkennungstechnologie alle Gesichter im Netz erfassen darf, um einige wenige Menschen zu suchen, ist das unverhältnismäßig und verletzt daher Menschenrechte.“ Das könne außerdem zu „Chilling Effects“ führen. Sie befürchtet, es könne „Menschen zum Beispiel davon abhalten, eine Demonstration zu besuchen, da davon häufig Fotos im Internet veröffentlicht werden, die dann durchsucht werden dürfen“.
Carola Otte von der Humanistischen Union erklärt gegenüber netzpolitik.org zu den geplanten biometrischen Regelungen: „Wir sehen diese Maßnahmen als völlig unverhältnismäßig und als gefährlich für die gesamte Gesellschaft an.“
Rainer Rehak vom FIfF geht davon aus, dass Dobrindts „Sicherheitspaket“ vermutlich „EU-rechtlich scheitern wird“. Doch er gibt zu bedenken: „Wir warnen allerdings dringend vor einer vorschnellen Verrechtlichung der Diskussion“, denn das Vorhaben an sich drücke ein Gesellschafts- und Sicherheitsverständnis aus, „was im Kern bekämpft werden muss, weil es prinzipiell einer freiheitlichen Gesellschaft entgegensteht“.
Trump geleckt
Zusammenarbeit mit Anbietern wie Palantir
Dobrindts Vorhaben könnten sowohl bei der biometrischen Auswertung als auch bei der automatisierten polizeilichen Datenanalyse die Zusammenarbeit mit kommerziellen Anbietern aus dem Ausland bedeuten. Zwar ist im CDU-CSU-SPD-Koalitionsvertrag noch betont, dass „digitale Souveränität“ Berücksichtigung finden soll. Allerdings erlaubt der Referentenentwurf nun explizit „die Zusammenarbeit mit Dritten, auch außerhalb der Europäischen Union“.
Carola Otte von der Humanistischen Union bewertet diese Erlaubnis als „skandalös“. „Offensichtlich sollen durch diese Erlaubnis Kooperationen mit Anbietern wie Palantir, PimEyes oder Clearview vorbereitet werden.“ Otte erklärt gegenüber netzpolitik.org, dass PimEyes und Clearview ganz offenkundig gegen die DSGVO verstoßen würden.
Den Konzern Palantir, gegen den auch in den Vereinigten Staaten protestiert wird, und dessen Mitgründer Peter Thiel sieht Otte kritisch. Der Milliardär Thiel sei ein „erklärter Gegner der Demokratie, der mit der aktuellen Regierung in den USA gut vernetzt ist“. Man mache sich mit solchen Kooperationen „weiterhin abhängig von den Interessen internationaler Konzerne, die teilweise bewusst die europäischen Datenschutzregelungen ignorieren“.
Rohrbach von Amnesty weist darauf hin, dass Palantir wegen seiner US-Aktivitäten als Partner kritisch zu betrachten sei: „Die Menschenrechte stehen in den USA im Dauerfeuer, Palantir ist daran aktiv beteiligt. Nach den UN-Leitprinzipien für Wirtschaft und Menschenrechte sollten öffentliche Stellen mit gutem Beispiel vorangehen und nicht bei Unternehmen einkaufen, die an Menschenrechtsverletzungen beteiligt sind.“ Sie fordert, dass die deutschen Behörden eine „Beschaffungsrichtlinie erhalten, die die Menschenrechtsbilanz eines Unternehmens künftig zwingend berücksichtigt“.
Rainer Rehak sieht im konkreten Fall von Palantir „durch seine zentralen Figuren Alex Karp und Peter Thiel eine Sonderstellung“. Das sei durch deren politische Äußerungen deutlich geworden. Rehak sagt über Karp und Thiel gegenüber netzpolitik.org: „Beide helfen aktiv bei der Faschisierung der USA unter Donald Trump, sprechen öffentlich vom Töten der ‚Feinde der USA‘ und nutzen all ihre Mittel, um den Rest der Welt ‚auf Linie‘ zu bringen. Vor diesem Hintergrund ist gerade die Nutzung der Software von Palantir die kurzfristigste und schlechteste Wahl, weil sie nicht nur eine fatale Abhängigkeit festigt, sondern dieses ultrarechte Projekt auch noch mit deutschen Steuermillionen mitfinanziert.“
Rehak bewertet die von Dobrindt geplante explizite Erlaubnis zur Zusammenarbeit mit kommerziellen Anbietern aber auch generell mit großer Skepsis: „Wir sehen die Auslagerung von genuin staatlichen Aufgaben in kommerzielle Bereiche hoch kritisch.“ Denn die „profitorientierte Logik von Märkten“, die sich an Angebot und Nachfrage orientiere, stehe der „Sorgelogik von staatlichem Handeln“ oft entgegen.
Er gibt auch zu bedenken, dass die Nutzung von kommerziellen Anbietern aus dem Ausland bedeute, „dass keine adäquate Kontrolle der Firmen möglich ist und bei solch großen Projekten zudem eine dauerhafte Abhängigkeit entsteht“. Das sei „das Gegenteil von digitaler Souveränität“.
Thilo Weichert von der Deutschen Vereinigung für Datenschutz pocht ebenfalls auf den Grundsatz „digitaler Souveränität“, aber auch auf „die verfassungsmäßige Pflicht, hoheitliche Gewalt nur durch gesetzlich geregelte und demokratische kontrollierte Behörden auszuüben“. Das stehe aus seiner Sicht im Widerspruch zu dem Ansatz, „wesentliche hoheitliche Aufgaben an kommerzielle Anbieter in Nicht-EU-Staaten auszulagern“.
Lena Rohrbach von Amnesty ist es wichtig, zu betonen: „KI-Analysen persönlicher Daten durch Behörden gehen immer mit Menschenrechtsrisiken einher und können in vielen Fällen Menschenrechte verletzen. Der Einsatz eines ‚Palantir made in Germany‘ oder einer deutschen biometrischen Überwachungssoftware wäre noch immer eine Gefahr für Menschenrechte und Demokratie.“
Kurswechsel in der Sicherheitspolitik gefordert
Amnesty International hat schon länger ein beobachtendes Auge auf Gesichtserkennungstechnologien und KI-Analysewerkzeuge für menschenrechtsfeindliche Zwecke, in Ländern wie Russland oder China schon länger, in den Vereinigten Staaten ganz aktuell. Rohrbach von Amnesty bemängelt, dass Dobrindts politische Agenda in die falsche Richtung geht, und fordert wegen des „zunehmenden Einflusses menschenrechtsfeindlicher und antidemokratischer Kräfte“ stattdessen einen „Kurswechsel in der Sicherheitspolitik“.
Sonst drohe eine Unsicherheitspolitik: „Ein schlüsselfertiger Überwachungsstaat ist brandgefährlich, weil er zur Unterdrückung von Protest, zur Diskriminierung und Verfolgung genutzt werden kann, wenn menschenrechtsfeindliche Kräfte an die Macht gelangen.“
Datenschutz & Sicherheit
Kritische Lücke in Firebox-Firewalls: WatchGuard rät zu zügigem Firmwareupdate
Aufgrund einer „kritischen“ Sicherheitslücke sind Attacken auf einige Firewalls des Herstellers WatchGuard vorstellbar. Auch wenn es dem Hersteller zufolge noch keine Hinweise auf Attacken gibt, empfiehlt er eine zügige Aktualisierung.
Schadcode-Attacke möglich
In einer Warnmeldung listet WatchGuard die verwundbaren Fireboxmodelle wie T15, T70 und M4800 auf. Der Beitrag liest sich so, als wären Instanzen nur verwundbar, wenn sie mit Mobile User VPN mit IKEv2 und Branch Office VPN mit IKEv2 und Dynamic Gateway Peer konfiguriert sind. Offensichtlich sind Geräte auch angreifbar, wenn es diese Konfiguration in der Vergangenheit mal gegeben hat, sie aber mittlerweile gelöscht wurde.
Ist das gegeben, können Angreifer der Beschreibung zufolge aus der Ferne und ohne Authentifizierung an der Schwachstelle (CVE-2025-9242 „kritisch„) ansetzen. Das führe dann zu einem Speicherfehler (out-of-bounds) und Angreifer können Schadcode ausführen. Aufgrund der Einstufung der Lücke ist davon auszugehen, dass Systeme im Anschluss als vollständig kompromittiert gelten. Wie Angriffe im Detail ablaufen könnten, ist bislang nicht bekannt.
Instanzen absichern
Um Attacken vorzubeugen, müssen Admins eine der reparierten Versionen von Fireware OS installieren:
- 12.3.1_Update3 (B722811)
- 12.5.13
- 12.11.4
- 2025.1.1
Die Entwickler weisen darauf hin, dass der Support für Fireware OS 11.x ausgelaufen ist und der Versionsstrang keine Sicherheitspatches mehr bekommt. An dieser Stelle müssen Adins ein Upgrade auf eine noch unterstützte Ausgabe durchführen. Wenn Admins den Sicherheitspatch nicht umgehend installieren können, empfiehlt der Hersteller die Absicherung über eine temporäre Lösung.
(des)
Datenschutz & Sicherheit
Schwachstellen bedrohen HPE Aruba Networking EdgeConnect SD-WAN
Angreifer können Wide Area Networks (WAN) attackieren, die auf HPE Aruba Networking EdgeConnect SD-WAN fußen. Die Entwickler haben jüngst mehrere Sicherheitslücken geschlossen. Nach erfolgreichen Attacken können Angreifer unter anderem Sicherheitsbeschränkungen umgehen oder sogar Schadcode ausführen, um Systeme vollständig zu kompromittieren.
Multiple Gefahren
In einer Warnmeldung schreiben die Entwickler, dass sie insgesamt neun Softwareschwachstellen geschlossen haben. Davon ist der Großteil mit dem Bedrohungsgrad „hoch“ eingestuft.
Aufgrund von Fehlern im Command-Line-Interface können etwa entfernte Angreifer an einer Lücke (CVE-2025-37123) ansetzen, um sich höhere Nutzerrechte anzueignen und im Anschluss eigenen Code mit Root-Rechten auszuführen. Dafür müssen sie aber bereits authentifiziert sein.
Für das erfolgreiche Ausnutzen einer weiteren Lücke (CVE-2025-37124) ist hingegen keine Authentifizierung nötig. An dieser Stelle können Angreifer auf einem nicht näher beschriebenen Weg Traffic am Firewallschutz vorbeischleusen.
Weiterhin ist das Ausführen von Befehlen auf Systemebene möglich (CVE-2025-37126). Fehler in der Kryptografie (CVE-2025-37127) führen dazu, dass Angreifer die Kontrolle über Systeme erlangen können.
WANs gegen mögliche Attacken schützen
Um Angriffen vorzubeugen, müssen Admins HPE Aruba Networking EdgeConnect SD-WAN 9.5.4.1 oder 9.4.4.2 installieren. HPE versichert, dass ihnen derzeit keine Attacken bekannt sind. Das kann sich aber schnell ändern, weswegen Admins die Sicherheitspatches zeitnah installieren sollten.
Zusätzlich sollte sichergestellt sein, dass etwa das Web-Interface von außen nur für ausgewählte Konten erreichbar ist und etwa Firewallregeln den Zugriff einschränken. Außerdem raten die Entwickler zur Authentifizierung RADIUS oder TACACS einzusetzen.
(des)
Datenschutz & Sicherheit
Datenschutz und KI: Schluss mit der Zögerlichkeit!
Hinter weitverbreiteten KI-Anwendungen stehen generative Sprach- und Bildmodelle, die mit riesigen Datenmengen gefüttert werden, auch mit personenbezogenen Daten. Das Problem: Teile der Trainingsdaten, darunter personenbezogene, lassen sich aus vielen der Modelle extrahieren. Unter welchen Umständen sich ein Modell zu viel „merkt“ und wie sich das verhindern lässt, ist bislang wenig erforscht. Zugleich werden Extrahierungsmethoden immer besser. Anbieter*innen können bislang nicht verhindern, dass Modelle personenbezogene Trainingsdaten ausgeben. Auch Chatbots können personenbezogene Daten von anderen verraten.
Außerdem „halluzinieren“ die Modelle. Sie generieren also falsche Informationen, die nicht in den Trainingsdaten enthalten sind. Weil KI-Unternehmen diese nicht offenlegen, können Forscher*innen nicht zuverlässig messen, wann ein Modell Informationen erfindet und wann es unrichtige Trainingsdaten wiedergibt. Zuverlässige Methoden zur Vermeidung von Halluzinationen gibt es bisher nicht.
Werden personenbezogene Daten aus einem Modell extrahiert, kann für Betroffene gerade die Kombination aus „Erinnerung“ und „Halluzination“ gefährlich sein. Ein mit personenbezogenen Daten trainiertes Modell generiert unter Umständen Falschinformationen über sie. Gerade bei öffentlichen Modellen besteht das Risiko, dass Nutzer*innen diese Informationen unkritisch weiterverbreiten.
Meta fragt lieber nicht um Erlaubnis
Mit Llama (Large Language Model Meta AI) ist auch Meta an dem KI-Rennen beteiligt. Meta nutzt Llama für eigene KI-Funktionen wie Transkriptions- oder Suchfeatures auf Instagram, Facebook und WhatsApp sowie für Chatbots oder in KI-Brillen, die das Unternehmen anbietet. Außerdem stellt Meta seine Modelle anderen zur Nutzung bereit. So können etwa Forscher*innen die Modelle testen oder Unternehmen auf Basis von Llama KI-Dienstleistungen oder -Produkte anbieten.
Im Juni 2024 informierte Meta die Nutzer*innen von Instagram und Facebook über eine Aktualisierung seiner Datenschutzrichtlinie. Diese Aktualisierung ließ Metas Vorhaben erkennen, seine KI-Modelle mit Nutzer*innendaten zu trainieren. Die Nutzer*innen konnten dem zwar widersprechen, die Widerspruchsmöglichkeit war jedoch schwer auffindbar.
Nachdem Datenschutzorganisationen wie noyb Meta scharf kritisierten, veröffentlichte der Konzern noch gleichen Monat weitere Informationen zum geplanten Training. Demnach beabsichtigte der Konzern, nur noch öffentliche Daten für das Training zu verwenden. Kurz darauf verkündete Meta, die irische Datenschutzbehörde verzögere das Training in der EU. Im April 2025 verkündete der Konzern dann den baldigen Trainingsstart.
Was trainiert Meta eigentlich mit welchen Daten?
Inzwischen hat der Konzern damit begonnen, seine KI mit den Daten europäischer Nutzer*innen zu trainieren. Unklar ist weiterhin, welche Daten dafür genau genutzt werden. Meta stellt im Vergleich zu anderen KI-Unternehmen zwar mehr Informationen über das Training mit Social-Media-Daten bereit. Diese Informationen haben sich aber immer wieder verändert und lassen Fragen offen.
Das betrifft insbesondere den Umgang mit sensiblen Daten. Bei Llama handelt es sich um ein multimodales Sprachmodell, das neben Texten auch Bilder, Videos und Tondateien verarbeitet. Der für das Training genutzte Social-Media-Content umfasst damit etwa auch Fotos der Nutzer*innen. Metas Datenschutzinformationen verweisen auf öffentliche Inhalte wie Beiträge, Kommentare und Audiospuren.
Inzwischen heißt es in den Datenschutzinformationen, dass auch Daten von Drittpartner*innen und KI-Interaktionen für die KI-Entwicklung genutzt würden. Als Beispiele für KI-Interaktionen nennt Meta Nachrichten, die Nutzer*innen oder andere Personen von der KI erhalten, mit ihr teilen oder an diese senden.
Diese Angaben schließen private Sprachnachrichten und Transkriptionen nicht aus. Metas Umschreibung passt auch auf Chatverläufe mit Chatbots. Solche Chatverläufe können besonders sensible Daten enthalten, wenn etwa Chatbots für intime Gespräche zu mentaler Gesundheit oder parasoziale romantische Beziehungen genutzt werden.
Verbraucherzentrale scheitert vor Gericht
Um den Beginn des Trainings zu verhindern, hat die Verbraucherzentrale Nordrhein-Westfalen im Mai 2025 einen Eilantrag beim Oberlandesgericht (OLG) Köln gestellt. Sie argumentierte insbesondere, dass Meta das Training nicht auf eine wirksame Rechtsgrundlage stützen könne, ist mit dem Eilantrag jedoch gescheitert. Das Urteil und Einblicke in die mündliche Verhandlung in Köln offenbaren erhebliche Mängel.
Meta hatte sich entschieden, keine Einwilligungen einzuholen, sondern beruft sich auf ein berechtigtes Interesse an der Nutzung der Daten für KI-Training. Die Verbraucherzentrale hält das für unzureichend, doch das Gericht folgt Metas Argumentation in seinem Urteil. Nach der Datenschutzgrundverordnung (DSGVO) können berechtigte Interessen die Verarbeitung personenbezogener Daten rechtfertigen, solange die Interessen Betroffener nicht schwerer wiegen. Dabei müssen diese der Datenverarbeitung aber widersprechen können.
Die Verbraucherzentrale NRW hat darauf hingewiesen, dass nicht alle Betroffenen widersprechen können. Facebook- und Instagram-Beiträge enthalten zuhauf personenbezogene Daten von Nicht-Nutzer*innen. Die Widerspruchsfunktion steht aber nur Nutzer*innen offen. Das Gericht ignoriert diesen Einwand. Zudem behauptet es ohne Begründung und trotz gegenteiliger Hinweise, Meta erfülle die Anforderungen der DSGVO an den Schutz von Minderjährigen.
Das Gericht halluziniert niedrige Risiken herbei
Berechtigte Interessen geben außerdem keine Rechtsgrundlage für Verarbeitungen her, die für Betroffene zu riskant sind. Das OLG Köln behauptet, die Risiken für Nutzer*innen seien gering. Dabei legt das Urteil nahe, dass die Richter*innen nicht verstanden haben, was Meta trainiert. Das Wort „Llama“ taucht im gesamten Urteil nicht auf. Auch beschreibt das Gericht keine Anwendungsszenarien.
Auf diese kommt es aber entscheidend an. Ein Transkriptionsfeature gibt wahrscheinlich keine extrahierbaren Daten aus. Aus Llama selbst werden jedoch sicher Daten extrahiert. Forscher*innen wenden Extrahierungsmethoden auf alle bekannten Modelle an. Je nachdem, welche Arten von Daten wie gut extrahierbar sind, könnte es dabei versehentlich auch zu Datenlecks kommen.
Gerichte prüfen in Eilverfahren die Rechtslage nur „kursorisch“, also nicht im Detail. Das OLG Köln reiht dabei aber mit großem Selbstbewusstsein Behauptungen aneinander, die aus Sicht der Datenschutzforschung haltlos sind. Selbst wenn Metas Training transparent genug wäre, fehlt es an tragfähigen Forschungsergebnissen für die Einschätzung des Gerichts.
Ein grober Fehler des Urteils betrifft besondere Kategorien personenbezogener Daten. Das sind sensible Daten, die die DSGVO besonders schützt, zum Beispiel Daten über Race, religiöse Anschauungen oder sexuelle Orientierungen. Social-Media-Daten enthalten viele solcher Daten. Besondere Kategorien personenbezogener Daten dürfen nicht auf Basis berechtigter Interessen verarbeitet werden, sondern nur unter strengeren Voraussetzungen, in vielen Fällen nur aufgrund von Einwilligungen. Das OLG Köln stört sich daran nicht.
Stattdessen behauptet das Gericht, dass die Anwendung der besonderen Schutzanforderungen nicht geboten sei. Das Urteil stellt hier wieder auf ein nicht weiter begründetes geringes Risiko ab. Dabei kommt es gerade im Bereich des maschinellen Lernens leicht zu unbemerkten Modellbias, also zu systematischen Fehleinschätzungen, die zum Beispiel zu rassistischer Diskriminierung führen. Besondere Kategorien personenbezogener Daten bergen dabei potenziell besonders hohe Risiken.
Bedenkliche Informationslage
Bedenklich ist zudem die Informationslage, auf die sich das Gericht stützt. In diesem Fall sind das vor allem die Angaben von Meta selbst. Das ist in einem Eilverfahren an sich nicht zu beanstanden – weil es schnell gehen muss, gelten geringere Beweisanforderungen. Gerichte arbeiten daher mit eidesstattlichen Versicherungen, formellen Erklärungen der Parteien. Um Falschangaben vorzubeugen, sind falsche eidesstattliche Versicherungen nach dem Strafgesetzbuch strafbar.
Das Urteil stellt entscheidend auf eidesstattliche Versicherungen von Metas Produktmanager für generative KI ab. Zwei in der mündlichen Verhandlung in Köln anwesende Personen berichten allerdings, dass die Versicherungen nie formgerecht abgegeben worden sind. (Die Autorin hat von zwei in der Verhandlung in Köln anwesenden Personen Informationen zum Ablauf der mündlichen Verhandlung und dabei getroffenen Aussagen des Gerichts erhalten. Eine der Personen ist seitens der klagenden Verbraucherzentrale am Verfahren beteiligt, die andere Person hat den Prozess beobachtet, ohne daran beteiligt zu sein.)
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Eidesstattliche Versicherungen müssen mündlich oder im Original mit händischer Unterschrift abgegeben werden. Selbst wenn die Erklärungen von Meta formgerecht wären, hätte sich das OLG Köln besser nicht darauf verlassen. Es gibt zwar keine Anzeichen dafür, dass diese Falschangaben enthalten. Durch das deutsche Strafgesetzbuch wäre deren Richtigkeit aber nicht abgesichert: Falls der in Kalifornien ansässige Manager nicht einreisen will, hätten Falschangaben keine strafrechtlichen Folgen für ihn.
Zudem legt das Urteil nahe, dass Metas Erklärungen inhaltlich dünn sind. Sie bestätigen etwa das Funktionieren der Widerspruchsfunktion. Eine Pressemitteilung der für Meta zuständigen irischen Datenschutzbehörde (Data Protection Commission, DPC) zeigt jedoch, dass die Behörde Meta zur Nachbesserung der Widerspruchsfunktion aufgefordert hat. Es bleibt somit zweifelhaft, ob Widersprüche in der Vergangenheit einfach genug möglich waren und funktioniert haben.
Datenschutzbehörden lassen Meta erst mal machen
Auch die Pressemitteilung der irischen Datenschutzbehörde und der Umgang des Gerichts damit verdienen besondere Aufmerksamkeit. Die für ihre Nachsicht gegenüber Datenkonzernen bekannte Behörde hat die Pressemitteilung am Vorabend der mündlichen Verhandlung in Köln veröffentlicht. Sollte die Behörde sich etwa mit Meta abgestimmt und so das Verfahren beeinflusst haben?
Das OLG Köln hat nach Berichten Anwesender schon in der mündlichen Verhandlung signalisiert, der Rechtsauffassung der irischen Behörde wahrscheinlich folgen zu müssen, warum auch immer das Gericht sich an deren Einschätzung auch nur lose gebunden fühlt. Das ist nicht nur im Hinblick auf die Gewaltenteilung bedenklich. Die Pressemitteilung enthält auch keinerlei Rechtsauffassung zur Frage nach der Datenschutzkonformität, der das Gericht folgen könnte. Sie enthält schlicht gar keine rechtliche Einschätzung. Es heißt lediglich, Meta habe in Absprache mit der Behörde Maßnahmen zur Verbesserung des Datenschutzes ergriffen und verfolge die Umsetzung weiter.
Aus der Pressemitteilung wird ersichtlich, dass die irische Behörde Meta nur beraten hat. Das war dem OLG Köln auch von Metas Hauptaufsichtsbehörde in Deutschland, dem Hamburger Datenschutzbeauftragten, bekannt. Im Urteil heißt es ausdrücklich, die Behörde habe Meta das Training „bislang“ nicht untersagt und beobachte derzeit die Folgen der Trainings.
Der Hamburger Datenschutzbeauftragte hatte im Juli 2024 die Datenschutzauswirkungen des Trainings generativer Sprachmodelle noch unterschätzt. Nach Berichten aus der mündlichen Verhandlung hat er angesichts seiner Einblicke in Metas Training diese Auffassung zurückgenommen, erhebliche Datenschutzbedenken geäußert und zunächst sogar ein eigenes Verfahren gegen Meta angekündigt. Außerdem berichtete er, dass die irische Behörde plane, ein Verletzungsverfahren im Oktober einzuleiten. Das spricht dafür, dass europäische Datenschutzbehörden von Verstößen wissen, Meta aber zunächst gewähren lassen.
Wider den KI-Hype
Die Bedeutung des Kölner Verfahrens weist über Meta und über Deutschland hinaus. Das Urteil und die Vorgänge im Prozess legen nahe, dass europäische Gerichte und Aufsichtsbehörden bei KI dem Ansatz „Abwarten und Teetrinken“ folgen. Es lässt sich nur spekulieren, welche Rollen hier der Druck des KI-Hypes, Innovationspläne der EU oder auch blanke Naivität spielen.
Dabei macht die DSGVO nicht nur klare Vorgaben an KI-Unternehmen, sondern bietet diesen auch ausreichende Möglichkeiten, sich an die Vorgaben zu halten. Demnach müssen KI-Unternehmen die Datenschutzkonformität ihrer Vorhaben begründet nachweisen. Sie dürfen ihre Modelle trainieren und testen – allerdings nur zu reinen Forschungszwecken und ohne die KI in der Praxis einzusetzen – und damit blind auf die Menschheit loszulassen. Gerichte und Aufsichtsbehörden sollten diese Vorgaben durchsetzen, anstatt sich dem KI-Hype zu beugen.
Prof. Dr. Paulina Jo Pesch ist Juniorprofessorin für Bürgerliches Recht sowie das Recht der Digitalisierung, des Datenschutzes und der Künstlichen Intelligenz am Institut für Recht und Technik der Friedrich-Alexander-Universität Erlangen-Nürnberg. Sie koordiniert das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) geförderte interdisziplinäre Forschungsprojekt SMARD-GOV, das Datenschutzaspekte großer Sprachmodelle erforscht.
Eine englischsprachige Langfassung der Analyse des Verfahrens sowie eines weiteren Verfahrens beim OLG Schleswig-Holstein ist im CR-online blog erschienen.
-
UX/UI & Webdesignvor 1 Monat
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 Wochen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 1 Monat
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 4 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 3 Tagen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Digital Business & Startupsvor 3 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier