Datenschutz & Sicherheit
Undurchsichtige Gesundheitsdatenbank-Pläne nach Brandbrief vorerst gestoppt

Die rot-schwarze Koalition in Berlin wollte die Charité dazu befähigen, auf Basis eines reformierten Universitätsmedizingesetzes eine neue Gesundheitsdatenbank aufzubauen. Ziel ist es, den Standort Berlin als Zentrum für Wissenschaft, Forschung, Lehre und Innovation zwischen Hochschulen und Instituten zu fördern. Wie sensible personenbezogene Daten geschützt werden, bleibt in dem Vorhaben jedoch unklar, kritisiert die Berliner Datenschutzbeauftragte Meike Kamp.
Als dringliche Beschlussempfehlung hatten CDU und SPD am 15. Januar eine Änderungsvorlage ins Abgeordnetenhaus eingebracht, bevor sich Kamp am 20. Januar einschaltete. Nach scharfer Kritik in einem Brandbrief, den wir veröffentlichen, teilte der Sprecher für Inneres der SPD-Fraktion, Martin Matz, nun die vorläufige Verfahrenseinstellung mit.
Matz zeigte sich Kamps Kritik gegenüber offen. Die Datenbank-Pläne erachte er aber weiterhin als wichtig und will das Vorhaben bis 2029 verwirklichen. Wie es mit dem Vorhaben weitergeht, ist derzeit allerdings offen: In der heutigen Plenarsitzung stand das Thema auf der Tagesordnung, wurde dann aber kurzfristig vertagt.
Senat verstößt gegen Berliner Datenschutzgesetz
Betreffen neue Gesetzesvorhaben den sensiblen Bereich der personenbezogenen Datenverarbeitung – wie in diesem Fall von Gesundheitsdaten – schreibt das Berliner Datenschutzgesetz vor, die Datenschutzbeauftragte verpflichtend zu konsultieren.
Den Kontakt hatten in diesem Fall aber weder Senat noch Abgeordnetenhaus gesucht. Laut des Brandbriefs hatte die Koalition das vor dem parlamentarischen Beschluss auch nicht mehr vor. Schließlich hatten offenbar Teile der Opposition die Datenschutzbehörde auf den Änderungsentwurf hingewiesen.
Unklar ist bisher auch, warum die Charité als weitere betroffene Partei nicht in das Vorhaben einbezogen wurde. Schließlich wäre sie das ausführende Organ gewesen. Nach Angaben eines Sprechers der Charité war sie weder Initiator noch auf andere Weise in die Formulierung des Änderungsentwurfs eingebunden.
Zweck der Datenbank nicht ersichtlich
Kritisch beurteilte Kamp den Änderungsentwurf außerdem hinsichtlich unklarer und unverständlicher Inhalte. Die Datenbank soll mit nicht personenbezogenen Daten gefüttert werden, heißt es im ersten Absatz des neuen Paragraphen. Jedoch würden die folgenden Absätze dann nur Regelungen für den Umgang mit personenbezogenen Daten behandeln.
Es sei daher anzunehmen, dass an der Charité erhobene personenbezogene Daten in nicht personenbezogene Daten umgewandelt werden. Dafür wären dann Vorgaben für Anonymisierungsverfahren notwendig. Angaben, um welche Daten es konkret gehe, wer sie erheben soll und wie sie anonymisiert und in die Datenbank eingespeist werden sollen, fehlen jedoch.
Die jetzige Fassung sehe außerdem eine „staatenübergreifende Nutzung“ vor. Daten könnten somit auch an Dritte außerhalb der EU übermittelt werden. Handele es sich dann doch um personenbezogene Daten, greifen für diesen Fall bestehende Regelungen, unter anderem die Datenschutzgrundverordnung.
Die Notwendigkeit einer neuen Vorschrift bleibt unklar, urteilt Kamp. Erst einmal müsse der Zweck einer neuen Gesundheitsdatenbank verdeutlicht werden. Dann könne geprüft werden, ob dafür eine Erweiterung der bestehenden Gesetzeslage nötig wäre.
Datenschutz zuerst
Tobias Schulze, Fraktionsvorsitzender für die Linke im Berliner Abgeordnetenhaus, schließt sich der geäußerten Kritik an: „Solche Nachlässigkeiten können wir uns besonders in dem sensiblen Bereich von Gesundheitsdaten nicht leisten. Forschung mit Gesundheitsdaten kann sinnvolle Dienste leisten. Gerade damit dieser Mehrwert nicht delegitimiert wird, ist wirkungsvoller Datenschutz besonders wichtig.“
Anonymisierung und Pseudonymisierung sind entscheidende Schritte auf dem Weg dahin, da sie „wichtige Maßnahmen für eine datenschutzkonforme und datensparsame Datenverarbeitung“ darstellen, betont Simon Rebiger, Pressesprecher der Berliner Datenschutzbeauftragten gegenüber netzpolitik.org.
Anonymisierte Daten dürfen nicht mit verfügbaren Zusatzinformationen auf eine betroffene Person zurückzuführen sein, betont Rebiger. Bei vielen Methoden verbleiben jedoch Restrisiken. Schätzen Verantwortliche diese nach allgemeinem Ermessen als unbeachtlich ein, gelten Daten als anonym und unterliegen nicht mehr dem Datenschutzrecht.
Im Unterschied dazu müsse bei der Pseudonymisierung nur sichergestellt sein, dass eine bestimmte Personengruppe, der die Daten zugänglich gemacht wird, Betroffene in keinem Fall identifizieren kann, so Rebiger. In solchen Fällen können pseudonymisierte Daten unter bestimmten Umständen als anonym gelten. Ansonsten bleiben die Daten personenbezogen und sind datenschutzrechtlich beschränkt.
Derzeit erarbeitet die Datenschutzkonferenz praktische Hilfestellungen für auf Einzelfälle zugeschnittene Verfahren. Sensible Gesundheitsdaten werden zum Beispiel bei der Übermittlung von Daten aus dem Krebsregister erfasst oder wenn KI-Modelle mit radiometrischen Aufnahmen trainiert werden.
Hier das Dokument in Volltext:
Viertes Gesetz zur Änderung des Berliner Universitätsmedizingesetzes (Drucksache 19/2763)
Änderungsantrag der Fraktion der CDU und der Fraktion der SPD
Dringliche Beschlussempfehlung des Ausschusses für Wissenschaft und Forschung vom 12. Januar 2026
Hier: § 38 Zentrale Gesundheitsdatenbank
Sehr geehrte Frau Präsidentin,
sehr geehrte Vorsitzende der Ausschüsse des Abgeordnetenhauses von Berlin,
ich nehme Bezug auf einen Änderungsantrag zum Vierten Gesetz zur Änderung des Berliner Universitätsmedizingesetzes der Fraktion der CDU und der Fraktion der SPD, der im Ausschuss für Wissenschaft und Forschung am 12. Januar 2026 angenommen und zur dringlichen Beschlussfassung in die 78. Plenarsitzung am 15. Januar 2026 eingebracht wurde.
Die dringliche Beschlussempfehlung sieht durch Einfügung eines neuen § 38 in das Berliner Universitätsmedizingesetz die Errichtung einer zentralen Gesundheitsdatenbank durch die Charité vor, die entsprechend mit Verarbeitungen von Gesundheitsdaten einhergeht. Ich bin entgegen der Vorgaben aus § 11 Abs. 2 Satz 2 Berliner Datenschutzgesetz bisher nicht zu diesem Gesetzesentwurf beteiligt bzw. angehört worden, obwohl die mit der Vorschrift vorgesehenen Errichtung einer zentralen Gesundheitsdatenbank auch die Verarbeitung von personenbezogenen Gesundheitsdaten und damit besonders sensible Bereiche der personenbezogenen Datenverarbeitung betrifft. Irritierend ist insbesondere, dass – wie die Erörterung in der Sitzung des Ausschusses für Wissenschaft und Forschung zeigte – die Beteiligung meiner Behörde auch vor Beschlussfassung im Parlament bewusst nicht mehr vorgesehen ist.
Auch inhaltlich ist die vorgeschlagene Regelung zu kritisieren: Abgesehen davon, dass die Beschlussempfehlung und der Änderungsantrag keine Begründung enthalten, aus welchen Grün- den aus Sicht des Gesetzgebers die Errichtung einer Gesundheitsdatenbank notwendig erscheint, ist der Gesetzesentwurf in seiner derzeitigen Form unklar und unverständlich. Meinen für den Bereich Wissenschaft und Forschung zuständigen Mitarbeiter:innen, die eine besondere Expertise in Bezug auf die Voraussetzungen für die Zulässigkeit der Verarbeitung personenbezogener Gesundheitsdaten haben, erschließt sich der konkrete Regelungsgehalt des § 38 des Entwurfs nicht. Ich habe daher erhebliche Zweifel, ob den Rechtsanwender:innen, insbesondere in der Charité und unter den Forschenden, die Voraussetzungen der Norm in der derzeitigen Fassung verständlich werden wird.
Dies möchte ich im Einzelnen erläutern:
- Nach Abs. 1 soll eine zentrale Datenbank mit „nicht personenbezogenen Gesundheitsdaten“ errichtet werden. Aus der Vorschrift wird nicht klar, was hierunter zu verstehen ist und woher diese Daten stammen. Es ist davon auszugehen, dass es sich um die Gesundheitsdaten handelt, die die Charité im Rahmen der Behandlung und Versorgung ihrer Patient:innen erhoben hat. Damit diese personenbezogenen Daten nicht mehr personenbezogen sind, muss zunächst eine Anonymisierung durch die Charité erfolgen. Dies setzt eine Regelung voraus, die die Verarbeitung der Daten zum Zweck der Anonymisierung zum Gegenstand hat. Eine solche enthält die Vorschrift jedoch nicht.
- Abs. 3 legt fest, dass eine „staatenübergreifende Nutzung“ der Datenbank zulässig sein soll, sofern die „Vorgaben des Datenschutzes“ eingehalten werden. Fragen wirft an dieser Stelle bereits auf, dass in Absatz 1 der Vorschrift von einer Datenbank mit nicht personenbezogenen Daten die Rede ist, hier jedoch auf die Vor- gaben des Datenschutzes hingewiesen wird. Zudem ist die Vorschrift unbestimmt und zeigt keinen klaren Regelungsinhalt auf. Eine „staatenübergreifende Nutzung“ ist nichts anderes als eine Übermittlung oder eine Offenlegung der entsprechenden Daten an Dritte außerhalb Deutschlands oder der EU. Entsprechende Regelungen finden sich bereits in § 25 LKG bzw. in § 6 Abs. 3 GDNG sowie bei möglicher Drittstaatenübermittlung in Kapitel V der DSGVO.
- Abs. 4 S. 1 regelt sodann, dass auch personenbezogene Daten „im Rahmen einer Nutzungsvereinbarung“ zu erheben sind. Gänzlich unklar bleibt, was unter einer solchen Nutzungsvereinbarung verstanden und zwischen wem eine solche Nutzungsvereinbarung geschlossen werden soll. Ferner bleibt unklar, durch wen hier- bei welche Stellen personenbezogenen Daten erhoben werden sollen, und ob und inwieweit diese in die Gesundheitsdatenbank aufzunehmen sind
- Ferner sind nach Abs. 4 S. 2 „anderweitig erhobene und für Forschung und Lehre relevante Daten unter den Voraussetzungen des § 17 BlnDSG […] in die Gesundheitsdatenbank aufzunehmen“. Diese Vorschrift ist ebenfalls unbestimmt und erfüllt den verfassungsgemäßen Grundsatz der Bestimmtheit des Gesetzes nicht. Zunächst ist unklar, welche Daten in die Gesundheitsdatenbank aufgenommen werden sollen. Aus der Formulierung „anderweitig erhoben“ wird nicht deutlich, wer diese Daten erhoben haben soll (ggf. die Charité). Ferner ist unklar, in welchen Kontexten die Daten erhoben worden sein sollen. Darüber hinaus ist nicht klar, ob es sich um Gesundheitsdaten handeln soll, was ausdrücklich im Gesetzestext zu benennen wäre. Um dem verfassungsrechtlichen Bestimmtheitsgebot gerecht zu werden, müsste explizit beschrieben werden, in welchem Zusammenhang von wem welche personenbezogenen Daten erhoben worden sind.
- Die Formulierung, dass „für Forschung Lehre relevante Daten“ aufzunehmen sind, ist ebenfalls zu unbestimmt. Unklar bleibt, was unter „Relevanz“ zu verstehen ist und wer über diese Relevanz entscheidet.
- Auch der Verweis auf § 17 BlnDSG ist nicht verständlich. Zunächst ist anzumerken, dass das BlnDSG nach § 2 Abs. 1 BlnDSG für die Verarbeitung personenbezogener Daten durch Behörden und sonstige öffentliche Stellen des Landes Berlin gilt. Sollte hiermit die Charité angesprochen werden, ist § 25 LKG eine speziellere Norm, die vorrangig anzuwenden wäre. Für Forschende, Studierende oder sonstige Nutzende kann § 17 BlnDSG keine Anwendung finden, weil es sich bei diesem Personenkreis um keine öffentlichen Stellen des Landes Berlin handelt, für die das BlnDSG ausschließlich Anwendung findet (§ 2 Abs. 1 BlnDSG).
- Ferner enthält Abs. 4 S. 2 eigene Voraussetzungen, die vor Aufnahme der Daten in die Gesundheitsdatenbank zu beachten sind. Gänzlich unklar bleibt das Verhältnis dieser Voraussetzungen zu den in § 17 BlnDSG und § 25 LKG formulierten Voraussetzungen, die die Verarbeitung von (Gesundheits-)Daten zu wissenschaftlichen Forschungszwecken zum Gegenstand haben. Es wird nicht deutlich, welche Regelungen des § 17 BlnDSG und § 25 LKG entsprechend gelten sollen und in welchem Verhältnis diese Rechtsgrundlagen zur Verarbeitung der Daten in der Gesundheitsdatenbank stehen. Hierbei ist ebenfalls nicht nachvollziehbar, wie diese Voraussetzungen erfüllt werden können oder welche Voraussetzungen konkret zu erfüllen sind.
- Abs. 4 S. 2 regelt ausdrücklich die Aufnahme der Daten in die Gesundheitsdatenbank, nicht die erst nachgelagerte Nutzung durch Forschende oder Studierende. Abs. 4 S. 2 Nr. 2 regelt jedoch beispielsweise als Voraussetzung, dass „der Forschungszweck die Möglichkeit der Zuordnung erfordert, die betroffene Person zu diesem Zweck eingewilligt hat“. Diese Voraussetzung kann jedoch erst dann geprüft werden und erfüllt sein, wenn eine Nutzung der Datenbank für ein Forschungsvorhaben erfolgen soll. Der Forschungszweck ergibt sich nämlich erst aus einem konkreten Forschungsvorhaben, für das eine Nutzung der in der Gesundheitsdatenbank aufgenommenen Daten beantragt wird. Für die vorgelagerte und hier ausschließlich geregelte Aufnahme der Daten in die Gesundheitsdatenbank kann die Voraussetzung des Nr. 2 daher nicht geprüft werden. Dasselbe gilt für die Voraussetzung Nr. 3, nach der das öffentliche Interesse an der Durchführung eines konkreten Forschungsvorhabens überwiegen muss und der konkrete Forschungszweck nicht auf andere Weise zu erreichen ist.
- Gänzlich unbeachtet bleibt bei Abs. 4 S. 2 auch, dass die Datenbank nach Abs. 2 nicht nur zu wissenschaftlichen und forschungsbezogenen, sondern auch zu lehrbezogenen und innovationsorientierten Zwecken genutzt werden soll, über die Nutzung zu (wissenschaftlichen) Forschungszwecken also hinausgeht.
- Ferner enthält Abs. 4 S. 3 die Regelung, dass personenbezogene Daten, soweit dies nach dem Forschungszweck erforderlich ist, zu anonymisieren sind. Auch hier stellt sich das Problem, dass auf einen konkreten Forschungszweck abgestellt wird, und nicht auf die grundsätzliche Aufnahme / Verarbeitung der personenbezogenen Daten in der Datenbank.
- Schließlich sei insgesamt anzumerken, dass zwar Abs. 1 ausdrücklich regelt, dass eine zentrale Datenbank mit nicht personenbezogenen Daten errichtet werden soll, die weiteren Absätze jedoch nur Regelungen zu personenbezogenen Daten enthalten. Ich empfehle daher dringend, die Vorschrift erheblich zu überarbeiten. Dabei wäre es zunächst erforderlich, die mit der Errichtung der Gesundheitsdatenbank verfolgten Zwecke klarzustellen, und dabei auch zu überprüfen, ob die Vorschrift vor dem Hintergrund bereits bestehender gesetzlicher Regelungen überhaupt notwendig ist.
Ich empfehle daher dringend, die Vorschrift erheblich zu überarbeiten. Dabei wäre es zunächst erforderlich, die mit der Errichtung der Gesundheitsdatenbank verfolgten Zwecke klarzustellen, und dabei auch zu überprüfen, ob die Vorschrift vor dem Hintergrund bereits bestehender gesetzlicher Regelungen überhaupt notwendig ist.
Datenschutz & Sicherheit
AWS S3: Account Regional Namespaces machen Bucketsquatting den Garaus
Amazon Web Services (AWS) hat Account Regional Namespaces für Amazon S3 General Purpose Buckets eingeführt. Damit können Kunden Bucket-Namen in einem reservierten Namespace pro Konto und Region erstellen – die bisher geltende global eindeutige Namensvergabe wird damit optional. Die Funktion steht seit dem 12. März 2026 in 37 AWS-Regionen bereit, darunter die Frankfurter Region eu-central-1.
Weiterlesen nach der Anzeige
Wie AWS in seinem Blog erläutert, folgen die neuen Bucket-Namen dem Schema . Ein Beispiel: mybucket-123456789012-us-east-1-an. Das Suffix aus Konto-ID, Region und dem Kürzel an wird dabei auf die maximal erlaubten 63 Zeichen des Bucket-Namens angerechnet, sodass die verfügbare Präfixlänge je nach Region variiert. Nur der jeweilige Kontoinhaber kann Buckets mit seinem Suffix erstellen – andere Konten erhalten einen entsprechenden Fehler.
AWS behebt damit ein zentrales Problem: das sogenannte Bucketsquatting (auch Bucketsniping). Dabei registrieren Angreifer gelöschte oder vorhersagbare globale Bucket-Namen, um Datenverkehr abzufangen oder Dienste zu stören. Weil viele Organisationen vorhersehbare Namenskonventionen wie myapp-us-east-1 verwenden, war das Risiko bislang hoch. Die neue Funktion verhindert dies bei neuen Buckets vollständig, da die Namen kontoexklusiv reserviert sind.
Erzwingung per IAM-Policy und SCP
AWS stellt einen neuen Condition Key s3:x-amz-bucket-namespace bereit, mit dem Administratoren die Nutzung der Account Regional Namespaces über IAM-Policies oder Service Control Policies (SCP) erzwingen können. In Multi-Account-Setups innerhalb von AWS Organizations lässt sich so organisationsweit sicherstellen, dass nur noch kontogebundene Bucket-Namen erstellt werden. AWS empfiehlt, die neuen Namespaces standardmäßig für alle neuen Buckets zu verwenden, sofern keine zwingenden Gründe dagegen sprechen.
Erstellung und IaC-Unterstützung
In der AWS-Management-Console lässt sich beim Einrichten eines Buckets „Account Regional namespace“ direkt als Namespace-Option auswählen. Über die AWS CLI legt man ein Bucket im neuen Namespace wie folgt an: aws s3api create-bucket --bucket mybucket-123456789012-us-east-1-an --bucket-namespace account-regional --region us-east-1. Für Python-Entwickler bietet AWS im Blog ein Boto3-Beispiel mit dynamischer Namensgenerierung über STS. CloudFormation unterstützt die Funktion bereits mit den Parametern BucketNamespace und BucketNamePrefix. Terraform-Support ist hingegen noch in Arbeit – ein entsprechendes GitHub-Issue wurde am 12. März 2026 eröffnet.
Weiterlesen nach der Anzeige
Bestehende S3-Buckets bleiben von der Neuerung unberührt. Eine Umbenennung vorhandener Buckets ist nicht möglich; wer migrieren möchte, muss neue Buckets im regionalen Namespace erstellen und die Daten etwa per aws s3 sync übertragen. Alle S3-Features und APIs sind mit den neuen Namespaces vollständig kompatibel, Änderungen an bestehenden Anwendungen sind laut AWS nicht nötig. Zusätzliche Kosten fallen für die Nutzung der Account Regional Namespaces nicht an.
Ausgenommen von der Verfügbarkeit sind derzeit lediglich die Regionen Middle East (Bahrain) und Middle East (UAE). Amazons Objektspeicher S3 feierte erst kürzlich sein 20-jähriges Bestehen – die neuen Namespaces schließen nun eine seit Jahren bekannte Sicherheitslücke im Namenskonzept des Dienstes.
(fo)
Datenschutz & Sicherheit
Bundesregierung will biometrische Fotofahndung im Netz
Die Bundesregierung will der Polizei erlauben, für die Strafverfolgung und Terrorismusbekämpfung künftig das Internet nach Gesichtern zu durchsuchen. Ein Fahndungsfoto soll dafür mit allen im öffentlichen Internet auffindbaren Gesichtern biometrisch abgeglichen werden können. Bundesjustizministerin Stefanie Hubig (SPD) und Bundesinnenminister Alexander Dobrindt (CSU) haben sich dazu vergangenen Donnerstag auf drei Gesetzentwürfe geeinigt.
Biometrische Gesichtserkennung beruht darauf, dass jedes Gesicht einzigartige Merkmale hat, etwa den Abstand von Augen, Nasenspitze und Kinn. Diese Merkmale lassen ich vermessen und als Daten darstellen, das sogenannte Template. Diese Templates werden dann automatisiert miteinander verglichen.
Sicherheitspolitiker*innen fordern den Einsatz dieser Fahndungsmethode spätestens seitdem Journalist*innen Ende 2023 das untergetauchte mutmaßliche ehemalige RAF-Mitglied Daniela Klette aufspürten. Sie verwendeten dafür die kommerzielle Gesichtersuchmaschine PimEyes und fanden Bilder von Klette, die unter neuer Identität in Berlin lebte.
Allerdings verbietet die KI-Verordnung der Europäischen Union, Gesichtsbilder aus dem Internet wahllos einzusammeln und daraus biometrische Datenbanken zu erstellen. Die Ministerien wollen dieses Verbot offenbar gezielt umgehen. Sie betonen, dass für das Auslesen der Daten keine KI-Systeme genutzt würden. Außerdem würden beim geplanten „Ad-hoc-Vergleich“ keine Daten dauerhaft gespeichert. Wie dies technisch umgesetzt werden soll, geht aus den Gesetzentwürfen nicht hervor.
Das Vorhaben knüpft an die Debatte um das sogenannte Sicherheitspaket im Herbst 2024 an. Damals scheiterte die Ampel-Regierung mit ihren Plänen, weil den Ländern einige der geplanten Überwachungsbefugnisse nicht weit genug gingen.
Insgesamt bringt die Bundesregierung jetzt drei Gesetzentwürfe auf den Weg. Bundesjustizministerin Hubig stellte die geplanten Änderungen in der Strafprozessordnung (StPO) vor. Parallel kommen aus dem Bundesinnenministerium zwei Entwürfe mit vergleichbaren Befugnissen für die Polizeibehörden des Bundes.
Wie der biometrische Abgleich funktionieren soll
Laut den Plänen aus dem Justizministerium soll die Polizei die biometrische Fahndung einsetzen dürfen, um die Identität oder den Aufenthaltsort von Beschuldigten oder Zeug*innen festzustellen. Erlaubt sein soll das beim Verdacht einer Straftat von erheblicher Bedeutung – das sind etwa Mord und Vergewaltigung, aber auch Steuerhinterziehung, Geldwäsche oder Drogendelikte.
Einen Abgleich mit „öffentlich zugänglichen Echtzeitbildern“ schließt das Gesetz explizit aus. Außerdem darf der Abgleich nur auf Anordnung einer Staatsanwaltschaft erfolgen. Sollte der Einsatz keine Ermittlungsansätze, also Treffer, ergeben, müssen die Daten nach dem Abgleich wieder gelöscht werden.
Keine Datenbank mit Milliarden von Gesichtern
Um im öffentlichen Internet nach Personen suchen zu können, müssen Ermittlungsbehörden die öffentlich im Netz verfügbaren Fotos von Gesichtern zunächst durchsuchen, sammeln und in Templates umrechnen. Dabei entsteht eine Datenbank mit den biometrischen Entsprechungen von möglicherweise Milliarden von Gesichtern.
Das Ministerium betont, dass diese Vergleichsdatenbank bei dem geplanten „Ad-hoc-Abgleich“ nicht dauerhaft gespeichert würde. Die Templates müssten stattdessen für jeden Abgleich neu erstellt werden. Damit sei die „Erstellung einer dauerhaften Datenbank, die aus dem Internet erhobene Lichtbilder und/oder zugehörige Templates vorhält, […] ausgeschlossen“.
Allerdings steht das so nicht explizit im Gesetzentwurf. Dieser legt nur fest, dass die „beim Abgleich erhobenen und verarbeiteten Daten“ im Anschluss „unverzüglich“ zu löschen sind, wenn sie für die weiteren Ermittlungen nicht relevant sind. Die Referenzdatenbank selbst erwähnt der Text nicht explizit.
EU-KI-Verordnung: Warum das Vorhaben problematisch ist
Hinzu kommt: Artikel 5 der KI-Verordnung verbietet „das Inverkehrbringen, die Inbetriebnahme […] oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“.
Aus Sicht von Dirk Lewandowski ist die Sache damit eindeutig. Der Professor für Information Research & Information Retrieval an der Hochschule für Angewandte Wissenschaften Hamburg hat für die Organisation AlgorithmWatch ein Gutachten erstellt. Darin kommt er zu dem Schluss, dass die KI-Verordnung es „ausnahmslos“ verbiete, „durch ein anlassloses Scraping von Gesichter-Aufnahmen Datenbanken zur Gesichtserkennung aufzubauen“.
Ohne eine solche Referenzdatenbank könne der Abgleich nicht sinnvoll duchgeführt werden. Laut Lewandowski scheitere ein solches Vorhaben damit rechtlich wie praktisch.
Bundestagsgutachten: Wie das Verbot umgangen werden könnte
Ein Gutachten der Wissenschaftlichen Dienste des Deutschen Bundestages kommt allerdings zu einem leicht anderen Schluss. Demnach verbiete die KI-Verordnung nicht den Aufbau einer Datenbank, sondern nur das „ungezielte Auslesen von Gesichtsbildern mittels KI […], da es die Privatsphäre und den Datenschutz der Betroffenen erheblich beeinträchtigt und das Gefühl ständiger Überwachung erzeugt“.
Das in der KI-Verordnung festgelegte Verbot gelte demnach nur dann, wenn die Strafverfolgungsbehörden die Datenbanken mit Hilfe von KI-Systemen erstellen. Werden dafür keine solchen Systeme verwendet, greife die Verordnung nicht. Die Kernfrage sei also, „ob – und wenn ja, wann – bei dem biometrischen Abgleich mit Bildern aus dem Internet KI ins Spiel kommt“.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Datenbanken von Bildern aus dem Internet könnten auch ohne Künstliche Intelligenz erstellt werden, schreiben die Wissenschaftlichen Dienste weiter. So können beispielsweise Bilder mit herkömmlichen Methoden aus dem Netz heruntergeladen und dann in einer Datenbank gespeichert werden.
„Der Einsatz von KI ist also nicht zwingend erforderlich, um einen biometrischen Abgleich mit Bildern aus dem Internet durchzuführen“, so das Fazit der Wissenschaftlichen Dienste, sondern es komme „auf die konkrete Ausgestaltung und technische Umsetzung des in den Gesetzesentwürfen vorgesehenen biometrischen Abgleichs an“.
Ministerium geht durch die Hintertür
Das Justizministerium argumentiert in die gleiche Richtung. In der Gesetzesbegründung schreibt das Ministerium, ein Verbot durch die KI-Verordnung gelte nicht, „sofern für das Auslesen der Daten keine KI-Systeme eingesetzt werden“.
Diese Auslegung vertritt auch die EU-Kommission in ihren Leitlinien zur Einhaltung der Verbote aus der KI-Verordnung. Die Sichtweise würde allerdings bedeuten, dass auch andere Datenbanken zur Gesichtersuche, etwa von kommerziellen Anbietern wie PimEyes und Clearview, in der EU nicht verboten wären.
Damit würde die Kommission explizit die erklärte Absicht des EU-Parlaments umgehen. Dieses hatte bei den Verhandlungen um die KI-Verordnung auf das Verbot bestanden, weil mit der Gesichtersuche die Anonymität im öffentlichen Raum bedroht wird und es die gesellschaftlichen Auswirkungen einer solchen Überwachungsmöglichkeit fürchtete.
Fachleute für den Schutz von Grundrechten weisen bereits seit Jahren auf die Gefahren hin, die mit der biometrischen Gesichtersuche einhergehen: Die biometrischen Merkmale eines Gesichtes sind unveränderlich. Mit Hilfe der Suche lassen sich Fotos einer Person im Internet finden – und darüber indirekt wahrscheinlich auch ihr Name, der Arbeitgeber oder der Wohnort. Ein Schnappschuss reicht dafür aus.
Das erhöht nicht nur das Risiko für Stalking, sondern kann dazu führen, dass man sich auch auf einer Demonstration, bei einem Arztbesuch oder in anderen Situationen ständig beobachtet fühlt und sein Verhalten entsprechend anpasst. Der Chaos Computer Club spricht in einer Stellungnahme von der „Idee einer allgegenwärtigen Überwachung und Datenrasterung, der niemand mehr ausweichen kann“.
Die Ministerien haben die Gesetzentwürfe jetzt an die Länder geschickt. Auch Verbände können jetzt bis Anfang April ihre Kritik und Verbesserungsvorschläge zu den Vorhaben einreichen – einiges davon könnte in die Entwürfe einfließen. Eines des Gesetze benötigt zudem die Zustimmung des Bundesrates.
Datenschutz & Sicherheit
Google: 17,1 Millionen US-Dollar im Bug-Bounty-Programm 2025 ausgezahlt
Google hat Zahlen zu seinem Bug-Bounty-Programm „Vulnerability Reward Program“ (VRP) für das Jahr 2025 veröffentlicht. Mehr als 17 Millionen US-Dollar konnten IT-Sicherheitsforscher in dem Jahr einheimsen, ein neuer Höhepunkt.
Weiterlesen nach der Anzeige
In einem Blog-Beitrag schreibt Google weiter, dass die Prämien an mehr als 700 IT-Forscher quer über den Globus verteilt ausgezahlt wurden. Im abgelaufenen Jahr haben genauer gesagt 747 IT-Forscher insgesamt 17,1 Millionen US-Dollar erhalten, 2024 bekamen demnach 660 Analysten zusammen 11,8 Millionen US-Dollar. Die ausgezahlte Summe liegt damit um mehr als 40 Prozent höher und ist die höchste seit Start des VRP.
Das VRP untergliedert sich in mehrere Einzelprogramme, etwa für Android und Geräte, Chrome, Cloud, KI oder Open-Source-Software. Das Android-Programm alleine hat rund 2,9 Millionen US-Dollar ausgeschüttet. Google investiert dem eigenen Bekunden nach in die Härtung der Plattform. Der Einsatz von speichersicheren Sprachen und Hardware-Maßnahmen habe zu einer Verschiebung der Taktiken der Angreifer geführt – die müssen ihre bösartigen Werkzeugkästen dadurch anpassen. Die ausgeklügeltsten Exploits setzten mehr auf Logikfehler anstatt auf Code-Schwachstellen. KI stellt eine Erweiterung der Angriffsfläche dar, hier haben Forscher etwa Logikfehler in der Gemini-Implementierung auf den Geräten entdeckt, etwa um den Sperrbildschirm zu umgehen.
Interessante Zahlen aus den Teil-Programmen von VRP
In Google Chrome haben mehr als 100 IT-Forscher Prämien erhalten, zusammen mehr als 3,7 Millionen US-Dollar. Die Sandbox der JavaScript-Engine v8 war einer der Schwerpunkte, darin fanden sich neue Möglichkeiten zum Ausbruch. Google hebt zwei IT-Sicherheitsforscher hervor, die Logikfehler in der Interprozesskommunikation gefunden, deren Missbrauch demonstriert und dafür schließlich sogar 250.000 US-Dollar erhalten haben.
Das Cloud-Bug-Bounty-Programm hat noch mehr IT-Forscher angezogen. 143 Experten haben für gemeldete Schwachstellen mehr als 3,5 Millionen US-Dollar erhalten. Insgesamt 1774 Sicherheitsmeldungen hat Google für die Cloud-Dienste im Jahr 2025 verarbeitet. Seit vergangenem Oktober betreibt Google zudem ein Bug-Bounty-Programm speziell für KI-Anwendungen. Alleine dabei konnten IT-Forscher bereits 390.000 US-Dollar an Prämien einstreichen; insgesamt flossen 2025 für KI-Schwachstellen sogar 890.000 US-Dollar. Bei der ersten KI-Sicherheitsveranstaltung „AI bugSWAT“ von Google in Tokio kamen demnach alleine schon 70 gültige Meldungen zusammen, die ihren Entdeckern 400.000 US-Dollar einbrachten. Der Open-Source-Software-Bereich fällt dagegen stark ab. Von 192 eingereichten Fehlermeldungen konnten 62 eine Prämie erhalten – insgesamt gab es knapp 330.000 US-Dollar.
Im Jahr 2026 plant Google weitere Veranstaltungen vergleichbar mit der in Tokio, die das Unternehmen „bugSWAT“ nennt. Außerdem steht eine IT-Sicherheitskonferenz mit dem Namen „ESCAL8“ auf dem Programm.
Weiterlesen nach der Anzeige
Einen detaillierten Bericht hatte Google zuletzt für das Jahr 2023 vorgelegt. Dort hatten 632 IT-Forscher zusammen 10 Millionen US-Dollar an Prämien erhalten.
(dmk)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 4 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
