Connect with us

Datenschutz & Sicherheit

Plötzlich Facebook-Lobbyistin: Irlands einst höchste Datenschützerin wechselt die Seite


Jahrelang stand Helen Dixon in der Kritik, weil sie als irische Datenschutzbeauftragte zu nachsichtig mit Tech-Konzernen gewesen sei. Jetzt arbeitet sie für eine Anwaltskanzlei, die Meta in Verfahren gegen ihre Behörde vertreten hat. Für Datenschützende kommt das nur wenig überraschend.

Eine weiße Frau mittleren Alters im schicken Anzug spricht auf einem Podium.
Die ehemalige irische Datenschutzbeauftragte Helen Dixon auf der Suche nach ihrem Glück: diesmal bei einer Meta-freundlichen Anwaltskanzlei. CC-BY-NC-ND 2.0 Stuart Isett

Ein ganzes Jahrzehnt lang hat Helen Dixon eine der wichtigsten Regulierungsbehörden der Welt geleitet: als Chefin der irischen Datenschutzbehörde hatte sie die Chance, Tech-Giganten wie Meta, Apple und Google zur Einhaltung von Datenschutzregeln zu zwingen. Jetzt hat sie einen neuen Job: Die ehemalige Datenschutzbeauftragte arbeitet künftig für die Anwaltskanzlei Mason Hayes & Curran, die Meta in Gerichtsverfahren gegen eben diese Behörde vertreten hat. Das teilte Dixon in einem Post auf LinkedIn mit.

Die irische Data Protection Commission (DPC) ist federführend für viele grenzüberschreitende Verfahren gegen große Tech-Unternehmen. Denn Irland ist der Europasitz von Google, Meta, Microsoft und anderen Konzernen. Damit nimmt die Behörde eine Schlüsselposition bei der Durchsetzung der europäischen Datenschutzgrundverordnung (DSGVO) ein. Bis Februar 2024 war Dixon Chefin der DPC.

„Nach über 18 Jahren in leitenden Positionen im Regulierungsbereich und insbesondere in der globalen digitalen Regulierung habe ich beschlossen, dass es an der Zeit ist, die Fragen aus verschiedenen Blickwinkeln zu betrachten und hoffentlich bessere Antworten zu finden“, sagte Dixon gegenüber der Tageszeitung The Irish Times. Unmittelbar vor dem Wechsel in die Anwaltskanzlei hat die Juristin ein Jahr lang bei der irischen Telekommunikationsaufsicht gearbeitet.

Strafen gegen Big Tech nur unwillig verhängt

Nicht ganz so locker sieht der bekannte Jurist und Datenschützer Max Schrems Dixons Wechsel in die Big-Tech-freundliche Anwaltskanzlei. „Jeder einigermaßen professionelle Mitarbeiter im öffentlichen Dienst oder jede einigermaßen professionelle Anwaltskanzlei würde sich zutiefst schämen“, kommentiert er unter Dixons Post auf LinkedIn.

Das Problem sei nicht nur, dass „die Anwaltskanzlei von Meta die ehemalige Datenschutzbeauftragte ‚kauft’“. Solche Schritte zerstörten auch jegliches Vertrauen der Öffentlichkeit in Rechtsstaatlichkeit und die demokratische Ordnung. „Das ist ein großer Schaden für den Ruf der irischen Datenschutzbehörde, für Irland als ‚ordentliches‘ Land in der EU und für unsere europäische Rechtsordnung“, schreibt Schrems weiter.

Für Schrems und andere Datenschutzexpert*innen dürfte Dixons neuer Job nicht überraschend kommen. Denn schon als Leiterin der irischen Datenschutzbehörde stand sie in Kritik, im Interesse von Big Tech zu handeln. Der ehemalige deutsche Bundesdatenschutzbeauftragte Ulrich Kelber hat Dixon beispielsweise vorgeworfen, wichtige Verfahren gegen Tech-Konzerne absichtlich zu verzögern und ihr Zögern mit unwahren Behauptungen zu verschleiern.

Unter der Leitung von Dixon hat die irische Datenschutzbehörde zwar hohe Geldstrafen gegen Tech-Giganten verhängt. Allerdings kamen solche Vorstöße oft nur auf Druck von Gerichten und anderen Aufsichtsbehörden zustande. So beispielsweise die Entscheidung vom Mai 2023, Meta mit einer Rekordstrafe in Höhe von 1,2 Milliarden Euro zu belegen. Damals ging es um die unrechtmäßige Übermittlung europäischer Daten in die USA. Um zu diesem Ergebnis zu kommen, hatte Schrems die irische Datenschutzbehörde drei Mal verklagt und zehn Jahre lang Gerichtsverfahren geführt. Schließlich musste der Europäische Datenschutzausschuss die Behörde in Irland verpflichten, eine Strafe gegen Meta zu verhängen.

Dixons Nachfolgerin ist ehemalige Meta-Lobbyistin

Nicht nur Dixons Personalie hat in den letzten Wochen für Aufsehen gesorgt. Erst Ende Februar haben mehrere NGOs die Abberufung von Aura Salla von ihrem Posten als Chef-Verhandlerin von europäischen Digitalgesetzen im EU-Parlament gefordert. Die konservative finnische Abgeordnete, die nun im Industrieausschuss die Verhandlungen zum Digitalen Omnibus führen soll, ist Metas ehemalige Chef-Lobbyistin. Bei dem Digitalen Omnibus handelt es sich um ein Gesetzespaket, das europäische Digitalregulierungen vereinfachen soll. Aktuell steht es in der Kritik wichtige datenschutzrechtliche Errungenschaften aufzuweichen.

Aus der Privatwirtschaft in ein wichtiges Amt kam auch Niamh Sweeney. Die ehemalige hochrangige Meta-Lobbyistin ist seit September 2025 eine der Leiter*innen der irischen Datenschutzbehörde und damit Dixons Nachfolgerin.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.



Source link

Datenschutz & Sicherheit

Statt Bilderrätsel: Google führt QR-Code-Challenge gegen KI-Bots ein


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Google baut reCAPTCHA zu einer breiteren Plattform gegen Betrug und Missbrauch im Web aus. Auf seiner Cloud-Konferenz Next ’26 stellte der Konzern „Google Cloud Fraud Defense“ vor. Die Plattform soll nicht mehr nur menschliche Nutzer von klassischen Bots unterscheiden, sondern auch KI-Agenten erfassen. Google nennt das Angebot die „nächste Evolution“ von reCAPTCHA und positioniert es als Vertrauensplattform für ein „agentic web“ – also für Anwendungen, in denen autonome Software-Agenten Aufgaben für ihre Nutzer erledigen.

Weiterlesen nach der Anzeige

reCAPTCHA war ursprünglich vor allem als CAPTCHA und Bot-Abwehr bekannt. In den vergangenen Jahren hat Google das Produkt jedoch deutlich breiter aufgestellt und vermarktet es inzwischen als Risiko- und Betrugsschutz, etwa für Logins, Kontoanlagen oder Bezahlvorgänge. Fraud Defense baut darauf auf. Bestandskunden müssen laut Google weder migrieren noch ihre Site Keys, Integrationen oder Verträge anpassen.

Im Mittelpunkt der Ankündigung steht die Annahme, dass Web-Traffic künftig nicht mehr primär aus Menschen und einfachen Skripten besteht. Google rechnet mit deutlich mehr Aktivität durch KI-Agenten, die eigenständig Informationen abrufen, Entscheidungen vorbereiten und ganze Abläufe anstoßen. Ein Beispiel sind Shopping-Assistenten, die Produkte vergleichen, Warenkörbe füllen und Käufe im Namen ihrer Nutzer einleiten. Solche Systeme können erwünscht sein, eröffnen aus Sicht der Sicherheit aber neue Angriffsflächen.

Eine der wichtigsten Neuerungen ist deshalb ein Dashboard zur Messung agentischer Aktivität. Betreiber sollen darüber sehen, welche KI-Agenten und sonstigen automatisierten Systeme ihre Websites ansteuern. Google will diesen Traffic identifizieren, klassifizieren und analysieren und die Identitäten von Agenten und Nutzern miteinander verknüpfen, um Risiken besser einzuschätzen. Technisch interessant ist daran vor allem der Ansatz, automatisierte Zugriffe nicht mehr pauschal als Bot-Verkehr zu behandeln, sondern nach Vertrauenswürdigkeit, Typ und Identität zu unterscheiden.

Dafür setzt Google auch auf neue Protokolle und entstehende Standards. Die Ankündigung nennt unter anderem Web Bot Auth sowie SPIFFE (Secure Production Identity Framework for Everyone). Die Idee dahinter: Legitime Agenten sollen ihre Herkunft und Identität nicht mehr nur über leicht fälschbare Merkmale wie User-Agent-Strings oder IP-Adressen behaupten, sondern kryptografisch nachweisen. Ein verifizierter Einkaufsagent ließe sich dann anders behandeln als ein Scraper, der sich lediglich als gewöhnlicher Browser tarnt.

Als zweites zentrales Element führt Google eine Richtlinien-Engine ein. Damit sollen Unternehmen Regeln für unterschiedliche Phasen einer Sitzung festlegen – von der Registrierung über das Login bis zu Zahlung und Bestellabschluss. Die Entscheidungen orientieren sich unter anderem an Risikowerten, Automatisierungstypen und der Identität eines Agenten. In der Praxis könnte ein verifizierter KI-Agent so Produktdaten und Verfügbarkeiten abfragen dürfen, beim Zugriff auf ein Kundenkonto oder beim Auslösen einer Zahlung aber strengeren Regeln unterliegen.

Weiterlesen nach der Anzeige

Hinzu kommt eine sogenannte „AI-resistant challenge“. Dahinter steckt ein Prüfmechanismus per QR-Code, der bei verdächtigen Vorgängen eine menschliche Bestätigung verlangt. Anders als klassische Bilder- oder Texträtsel soll diese Challenge automatisierte Angriffe wirtschaftlich unattraktiv machen. Denkbar ist etwa, dass eine Anwendung bei einem riskanten Bestellvorgang einen QR-Code einblendet, den der Nutzer mit dem Smartphone scannen muss, um seine Anwesenheit nachzuweisen.

Google begründet den Umbau mit einer veränderten Bedrohungslage. Die Risiken verschöben sich von klassischer Bot-Automatisierung und ungültigem Traffic hin zu komplexeren Angriffen, etwa der Übernahme von Agentenidentitäten oder großflächigem Betrug mit synthetischen Identitäten. Mit synthetischen Identitäten meint Google Konten oder Profile, die teils aus echten, teils aus erfundenen Merkmalen bestehen und dadurch auf den ersten Blick legitim wirken.

Der Konzern verbindet die Ankündigung mit weitreichenden Leistungsversprechen. Fraud Defense nutze dieselben weltweiten Bedrohungsdaten, die auch Googles eigenes Ökosystem absichern. Das zugrunde liegende Netzwerk schütze nach Unternehmensangaben die Hälfte der Fortune-100-Konzerne und mehr als 14 Millionen Domains. Zudem spricht Google davon, Kontoübernahmen im Schnitt um 51 Prozent zu reduzieren, wenn Betreiber Risiken über die gesamte Sitzung hinweg korrelieren.

Weitere Informationen zu Google Cloud Fraud Defense und reCAPTCHA finden sich im Blogbeitrag.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Datenschutz & Sicherheit

„Die Polizei wird zum Datenlieferanten“


Erst Mannheim, dann Hamburg, dann die halbe Republik: Gerade breitet sich rasant eine Überwachungstechnologie aus, mit der die Polizei vollautomatisch Gewalt detektieren will. Wissenschaftler*innen haben die erste Ausbaustufe in Hamburg ein Jahr lang beobachtet, den medialen und parlamentarischen Diskurs dazu analysiert sowie zahlreiche Interviews mit unterschiedlichen Beteiligten und Betroffenen geführt. Das Projekt “Lokale Öffentlichkeiten und soziale Konflikte um KI-gestützte Sicherheitstechnologien“, kurz LoKI, war an der Uni Hamburg und der TU Chemnitz angesiedelt. Geleitet haben es Stephanie Schmidt und Philipp Knopp, Fabian de Hair hat als wissenschaftlichem Mitarbeiter mitgewirkt. Mit uns sprechen der Sozialwissenschaftler Knopp und der Kriminologe de Hair über die Forschungsergebnisse.

netzpolitik.org: Was haben Sie herausgefunden?

Philipp Knopp: Was da als Test gerahmt wird, ist mit dem Konzept Test eigentlich nicht ausreichend zu verstehen. Es gibt keine festgelegte Technik, die nach fixen Kriterien bewertet wird. Es ist eher ein Überwachungs-Experiment. Da werden eine Überwachungstechnologie und das Setting vor Ort kalibriert, das Verhältnis von Raum und Kamera optimiert. Gleichzeitig ändern sich die Anforderungen an die Beamt*innen, die jetzt bewerten müssen, ob die KI etwas richtig detektiert hat. Und es wurde ja auch der rechtliche Rahmen angepasst. Experiment ist nicht normativ gemeint. Wir wollen mit dem Begriff das Unfestgelegte aufzeigen. Es geht in Hamburg darum, ein experimentelles System zum Laufen zu bringen.

netzpolitik.org: Hamburg ist nach Mannheim die zweite deutsche Stadt, die Verhaltensscanner einsetzt. Zahlreiche weitere Städte und Länder haben Interesse an der Technologie angemeldet. Warum hat die gerade so einen Lauf?

Fabian de Hair: Die Technologie der sogenannten Bewegungsmusteranalyse gilt als vermeintlich bessere Alternative zur konventionellen und biometrischen Videoüberwachung. Es heißt, sie würde die Polizeiarbeit durch die Automatisierung einerseits erheblich effizienter machen, andererseits sei das technische Verfahren dazu besonders datenschutzsensibel. Überprüfbar ist das im derzeitigen Entwicklungsstadium nicht. Vielmehr wird mit einer Zukunftsvision der KI-Technologie argumentiert, deren konkrete Nutzungsszenarien offenbleiben.

Die Deutungen der vermeintlichen Vorzüge dieser KI-Überwachung finden sich insbesondere prominent im Mediendiskurs, der von Akteur*innen der inneren Sicherheit und ihren Bewertungen geprägt ist. Kritische Positionen kommen vor, aber werden nicht zum Anlass der Berichterstattung. Was sich da im Diskurs zeigt, nennen wir eine Purifizierung, eine rituelle Läuterung also, durch die bisherige zentrale Kritiken an Formen der Videoüberwachung direkt adressiert und gleichzeitig abgestreift werden. Die Purifizierung erhöht die Durchsetzbarkeit der Maßnahme, weil die Bewegungsmusteranalyse jetzt als sozusagen gute Überwachung erscheint.

Ausweitung in Aussicht

Philipp Knopp: Gleichzeitig drängt die Technologie auf ihre eigene Ausweitung. Für KI-Training braucht man Daten.

Fabian de Hair: Die Hoffnung ist: Je mehr Landespolizeien sich daran beteiligen, umso präziser wird das Modell.

netzpolitik.org: Das heißt, künftig werden immer mehr und mehr Areale damit überwacht?

Philipp Knopp: Es weiß noch niemand, worauf es am Ende hinauslaufen wird. Auch das Sondieren von Einsatzmöglichkeiten ist Teil des Experimentierens mit der neuen Technik. Es gibt die Idee des Black Screens, wo nur dann jemand auf den Bildschirm schaut, wenn die KI eine verdächtige Situation präsentiert. Dann gibt es die Variante, dass die KI als Assistenzsystem zusätzlich zur menschlichen Überwachung im Hintergrund läuft. Und dann gibt es noch Überlegungen, damit den Überwachungsbereich auszuweiten, weil man nicht mehr so viele Menschen braucht, um auf die Videobilder zu schauen und man davon ausgeht, dass diese Form der Überwachung nicht so stark in die Freiheitsrechte der Bürger*innen eingreift. Also hin zu einem Basislevel von Videoüberwachung von größeren Bereichen.

netzpolitik.org: Die Logik der Verhaltensscanner-Befürworter*innen ist: Weil da kein Mensch, sondern nur eine Software zuschaut, ist es keine Überwachung mehr.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Fabian de Hair: Das ist das Framing. Aber faktisch wird dabei die komplette Datenpipeline – also das technische Verfahren von der Vektorisierung menschlicher Körper auf Videobildern, über die Kategorisierung dieser Vektorenbündel bis zur Alarmierung – ausgeblendet. Die Praxis der Überwachung wird hier auf die Prüfung durch Polizeibeamt*innen, also das menschliche Sehen, reduziert.

99 von 100 zu Unrecht beobachtet?

netzpolitik.org: Ist die Technologie denn so effektiv wie von den Befürworter*innen erhofft?

Philipp Knopp: Es gibt da unterschiedliche Bewertungsmuster. Als Erfolg gilt auch schon die positive Resonanz von Medien und anderen Polizeien. Nach einem ersten Test wurden auch einige Kennzahlen vorgelegt. Allerdings wurden dabei die falsch-positiven Meldungen im Vergleich zu den korrekten Detektionen recht ungenau angegeben. Überwachungskritische Bewegungen haben daraufhin berechnet, dass nur etwa ein Prozent der Alarme eine korrekte Detektion war. Das heißt, in 99 von 100 Fällen wurden Menschen aus Sicht der Kritiker*innen zu Unrecht beobachtet.

netzpolitik.org: Angeblich verhindere die Verhaltensanalyse Diskriminierung, weil sie nicht berücksichtigt, welche Hautfarbe, welches Geschlecht oder Alter eine Person hat.

Fabian de Hair: Die Idee hinter dieser KI-Überwachung ist die Automatisierung von Verdachtspraktiken. Es geht um Kategorien wie zum Beispiel Schlagen, Treten, Liegen, Fallen. Der Mensch wird zu einem Bündel von Vektoren umgerechnet, wodurch der soziale Kontext eines Ortes, einer Situation oder einer Bewegung gelöscht wird. Dabei kann eine Bewegung je nach Kontext verschiedene Bedeutungen haben. Und es lässt sich auch an bestimmten Verhaltensweisen feststellen, ob jemand zu einer marginalisierten Gruppe gehört. An einem Ort wie dem Hamburger Hansaplatz, wo es unter anderem Straßenprostitution gibt, hat Stehen eine soziale Bedeutung. Weil ebenso Obdachlose den Platz nutzen, hat auch Liegen eine soziale Bedeutung. Und in der technischen Formatierung werden diese Bewegungen dann in einen Verdacht übersetzt.

Die Polizei als Akteur in der Datenökonomie

netzpolitik.org: Die Rechte für die Technologie liegen beim Fraunhofer IOSB, einer Forschungsorganisation. Trainiert wird sie mit den Daten von zahllosen Menschen in Mannheim und Hamburg.

Philipp Knopp: Das ist auch etwas Neues, das sich durch die rechtlichen Neuerungen im Hamburger Polizeigesetz anbahnt. Die Polizei wird zum Akteur in einer globalen Datenökonomie rund um KI-Training, zum Datenlieferanten. Diese Entwicklung ist nicht auf den Hamburger Fall beschränkt. Auch in anderen Bundesländern versteht die Polizei zunehmend, dass sie über besondere Daten und eine seltene Anwendungsumgebung verfügt, die sie für die Technologieentwicklung einsetzen will.

Fabian de Hair: Das ist eine sehr spezielle Form der Datenverarbeitung, die besondere Aufmerksamkeit bedarf.

Philipp Knopp: Da ist auch immer die Frage, welche sozialen Gruppen sind davon betroffen, wessen Alltag wird in diesen Daten festgehalten. Die Verhaltensanalyse wird in Hamburg auf einem Platz getestet, wo Menschen sich nicht so gut wehren können wie in einem noblen Viertel. Da gibt es viele Menschen, die keine deutschen Staatsbürger*innen sind. Es gibt Wohnungslose, Trinker*innen, Menschen, die viel Zeit auf der Straße verbringen und nicht beispielsweise in Parteien organisiert sind. Ihnen fehlen die politischen Einflussmöglichkeiten und teilweise sind die überwachten Orte für diese Menschen sehr wichtig. Sie können nicht einfach woandershin ausweichen und werden notgedrungen Teil dieses KI-Trainings.

Tanz als Widerstand

netzpolitik.org: In Hamburg sind auch Grüne und Datenschutzbehörden einverstanden mit der Verhaltensanalyse. Gibt es denn überhaupt noch Gegner*innen?

Wir sind ein spendenfinanziertes Medium.

Unterstütze auch Du unsere Arbeit mit einer Spende.

Fabian de Hair: Ja, definitiv. Das Bündnis Hansaplatz zum Beispiel. Die Aktivist*innen haben eine Demo und Veranstaltungen zum Thema organisiert sowie die Entwicklung kritisch begleitet. Es gibt auch noch andere nachbarschaftliche Organisationen am Hansaplatz, die sich ebenfalls kritisch äußern. Aber sie sind, wie bereits erwähnt, medial nicht durchgedrungen mit ihrer Position, dass es sich um eine weitergehende Kriminalisierung sozialer Probleme handele.

netzpolitik.org: Was können kritische Akteur*innen tun, um im Diskurs mehr Gewicht zu bekommen?

Philipp Knopp: Diese Tests mit Bewegungsdetektion haben interessante neue Formen der Widerständigkeit hervorgebracht: Tanzperformances, die die angenommene Korrelation von Bewegung und Kriminalität hinterfragen. Das gab es in Mannheim und darüber haben Medien dann auch berichtet. Was sich außerdem gezeigt hat: Die meisten Bündnisse, die sich mit solchen Überwachungsprojekten beschäftigen, überlegen, wie sie eine soziale Basis aufbauen und alternative Sicherheitskonzepte weiterentwickeln können wie etwa soziale Sicherheit. Sie schauen über den Anlass Kamera hinaus und stellen die Frage: Welche Probleme gibt es im Viertel und wie können wir damit arbeiten?

Fabian de Hair: Unsere Interviews zeigen, dass fehlende Transparenz seitens der Überwachungs-Betroffenen bemängelt wird. Eine Informationsgrundlage herzustellen, mit der Zivilgesellschaft und Wissenschaft agieren können, ist hier insofern elementar. In Hamburg hat Die Linke als Oppositionspartei mit vielen Kleinen Anfragen dazu beigetragen.

Das Gefühl, beobachtet zu werden

netzpolitik.org: Die Verhaltensanalyse sucht sogenanntes atypisches Verhalten. Geht damit die Gefahr einher, dass Menschen sich im Überwachungsbereich angepasster verhalten?

Philipp Knopp: Es ist schwierig, das empirisch zu belegen. Die Wirkung von Videoüberwachung lässt sich schlecht isolieren. In Medienberichten kam aber heraus, dass sich Menschen, die viel auf dem Platz sind, permanent beobachtet fühlen.

netzpolitik.org: Wenn eine KI die Videos beobachtet statt eines Menschen – wird dann die Überwachung entmenschlicht?

Philipp Knopp: Die Automatisierungsleistung der Technologie ist es, den Bürger und den Notruf auszuklammern aus der Verbindung von Polizei und Ereignis. Die Polizei muss nicht mehr hinzugerufen werden – sie kommt von alleine. Befürworter*innen sehen darin durchaus etwas Positives: Die Polizei wird unabhängig von den Bürger*innen und deren Wachsamkeit und Courage.

Die andere Seite der Medaille ist allerdings, dass gerade diese Abhängigkeit die Polizei zur Bürgernähe anhält. Um ihre Aufgabe zu erfüllen, muss sie nämlich daran arbeiten, dass die Bevölkerung ihr vertraut. Für eine demokratische Polizei ist diese Abhängigkeit von der Bevölkerung ein notwendiges Momentum externer Kontrolle. Dieser Effekt kann durch die Automatisierung abgeschwächt werden. Sie verschiebt das Verhältnis zwischen Bevölkerung und Polizei in eine bestimmte Richtung.

netzpolitik.org: Ist die KI-Überwachung eine politische Maßnahme, um Handlungsfähigkeit zu suggerieren?

Philipp Knopp: Diese Annahme wird in Studien zu Videoüberwachung häufig geäußert. Kameras sind auf jeden Fall ein kostengünstiges Mittel, um zu sagen: Wir tun etwas.



Source link

Weiterlesen

Datenschutz & Sicherheit

BSI definiert, wann eine Cloud wirklich souverän ist


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Nicht erst seit dem Beginn der zweiten Amtszeit Donald Trumps wird diskutiert, ob die Abhängigkeit von nichteuropäischen Cloud-Anbietern zu groß ist – von Hyperscalern wie AWS und Azure ebenso wie von Alibaba oder Huawei Cloud. Insbesondere für sicherheitskritische Anwendungen der öffentlichen Verwaltung und für Betreiber kritischer Infrastrukturen und Dienstleistungen gilt: Auf der Suche nach performanten und unabhängigen Lösungen gibt es viele Versprechungen – doch bei den Kriterien gibt es oft wenig Klarheit. Ist eine Cloudlösung souverän, wenn sie technisch sicher in der EU betrieben wird? Unabhängig von der Infrastruktur eines US-Unternehmens? Ohne Abhängigkeit von Instanzen außerhalb? Technische IT-Sicherheit ist das eine, technische Souveränität ein nicht immer deckungsgleiches Anforderungsprofil.

Weiterlesen nach der Anzeige

Die engeren Sicherheitseigenschaften von Cloud-Diensten definiert bereits der kürzlich aktualisierte Cloud Computing Compliance Criteria Catalogue (C5). Der nun vorgestellte Vorschlag des Bundesamtes für Sicherheit in der Informationstechnik (BSI) setzt beim zweiten Begriff an: Die Fachleute der Bonner Bundesbehörde haben mit ihren heute veröffentlichten „Criteria Enabling Cloud Computing Autonomy“ (C3A) einen Vorschlag vorgelegt. Nutzer sollen damit von vornherein prüfen können, ob ein Dienst tatsächlich zu ihrem jeweiligen Souveränitäts-Risiko passt. Die Behörde begleitet die Diskussionen seit vielen Jahren als IT-Sicherheitsdienstleister der Bundesverwaltung. Sie will damit vor allem eines leisten: „Es geht uns um technisch tragfähige Lösungen, die konkrete Bedingungen formulieren“, sagt Thomas Caspers, Vizepräsident des BSI.




Für den IT Summit 2026 suchen wir praxisnahe Berichte von Menschen, die Projekte zur digitalen Souveränität planen, leiten oder umsetzen. Vorträge und Keynotes auf dem IT Summit dauern 45 Minuten inklusive 5 Minuten Fagen und Antworten. Idealerweise kombinieren sie praktische Erfahrungen mit technischer Tiefe, sodass die Zuhörer und Zuhörerinnen konkrete Learnings mit nach Hause nehmen. Reichen Sie Ihre Vortragsideen bis zum 17. Mai 2026 ein.

Weniger diplomatisch interpretiert: Statt politisch lange über die Unabhängigkeit eines Anbieters zu diskutieren, will die Behörde mit einem konkreten Vorschlag in die Debatte um die Folgen des Cloud and AI Development Act (CADA) einsteigen. Den CADA will die EU-Kommission nach aktueller Zeitplanung am 27. Mai vorlegen; anschließend beraten ihn Mitgliedstaaten und Europaparlament. Denn Beobachter erwarten, dass EU-Vizekommissionspräsidentin Henna Virkkunen mit dem CADA klarere Kriterien für Cloud-Souveränität vorgibt – und Diskussion und Lobbying mit der Vorstellung des Vorhabens im Mai erst richtig beginnen.

Dabei baut das BSI unter anderem auf sechs der acht Kriterien auf, die die eigentlich nur für die EU-Kommissions-eigene IT zuständige Generaldirektion DIGIT im vergangenen Jahr definiert hatte und konkretisiert diese um breitere Erfahrungen. Vor allem die französische IT-Sicherheitsbehörde ANSSI und das BSI haben umfangreiche Erfahrungen mit verschiedenen Abhängigkeitsvariationen gesammelt – in Deutschland zum Beispiel mit der SAP-Microsoft-Kooperation DelosCloud, mit Stackit von Schwarz-Digits oder der T-Systems-Sovereign-Cloud in Kooperation mit Google, mit Anforderungen etwa für „Polizei 2020“ (P20) oder für Amazons European Sovereign Cloud-Angebot. Parallel testete die dem französischen Premierminister unterstellte Behörde einen anderen Pfad, bei dem für die öffentliche Verwaltung stets französische Unternehmen beteiligt sind – beispielsweise der Rüstungskonzern Thales beim im Dezember nach den französischen SecNumCloud-Anforderungen zertifizierten S3NS, das zusammen mit Google betrieben wird oder etwa SAP auf OVH-Hardware.

Genau solche Erfahrungen sollen nun für die Zukunft relevant werden. Dass das BSI die C3A-Systematik nicht im luftleeren Raum entwickelt hat, sondern auch mit Anbietern gesprochen hat, zeigen auch eng daran angelehnte eigene Bewertungsstandards aus der Branche. „Wir haben unter anderem am Beispiel der AWS European Sovereign Cloud gesehen, wie viele Mechanismen eine Rolle spielen, um eine Cloud betriebsfähig zu halten“, erklärt Caspers. „Komplett entkoppelt wird man solche Angebote aber nicht über Jahre weiterbetreiben können.“

Weiterlesen nach der Anzeige

In den C3A sieht das dann beispielsweise so aus: SOV-4-09-C der C3A definiert, was bei einem Disconnect – also der Abkopplung von der außereuropäischen Betreibercloud – gewährleistet sein muss: Im Kern muss der Betrieb weiterlaufen, ohne dass Verfügbarkeit, Integrität, Authentizität und Vertraulichkeit leiden. Zudem muss es einen dokumentierten Prozess für das Vorgehen und die Durchführung der Abkopplung geben und der Betreiber muss dies mindestens einmal jährlich getestet und dokumentiert haben, inklusive der Ergebnisse des Tests. Wer das weitergehende Kriterium SOV-4-09-AC erfüllen will, muss zudem seine Dokumentation mit den zuständigen IT-Sicherheitsbehörden am Ort des Rechenzentrums auf deren Verlangen hin teilen.

Ähnlich konkret sind auch die Vorgaben in juristischer Hinsicht, etwa wenn es darum geht, dass die Anbieter keiner Nicht-EU-Jurisdiktion unterliegen dürfen oder bei der Frage, von wo aus Mitarbeiter die wesentlichen IT-Pflegemaßnahmen durchführen. Und auch bei der Auswahl der Mitarbeiter gibt es entsprechend gestufte Kriterien: So verlangt SOV-4-01-C1, dass alle Mitarbeiter, die logischen oder physischen Zugang zu Betriebsmitteln des Clouddienstleisters haben, eine EU-Staatsbürgerschaft und einen EU-Wohnsitz haben müssen – noch schärfer ist die Anforderung nach SOV-4-01-C2: dann müssen alle Mitarbeiter nicht nur EU-Bürger sein, sondern auch ihren Wohnsitz innerhalb der Bundesrepublik haben.

Dieses Kriterium kommt insbesondere für Hochsicherheitsanwendungen in Frage, etwa für Sicherheitsbehörden oder auch die Bundeswehr. Für die hat das BSI zwar keine direkte gesetzliche Zuständigkeit. Doch für den Fall der Fälle enthalten die C3A ebenfalls Prüfkriterien. Denn was im grundgesetzlich geregelten Verteidigungsfall erfüllt sein sollte, wird nun auch klar definiert: entsprechend dem Muster aller Notstandsgesetzgebung müssen Clouddienstleister in der Lage sein, den Betrieb an die Bundesbehörden zu übergeben – „inklusive des notwendigen Materials und Personals“.

So wie ursprünglich auch beim C5-Katalog, der zwischenzeitlich jedoch etwa im Sozialgesetzbuch für die Gesundheits-IT qua Gesetz für verbindlich erklärt wurde, ist das bei den C3A ebenfalls nicht direkt der Fall. „Die Criteria Enabling Cloud Computing Autonomy sind aus sich heraus nicht verbindlich“, erklärt Caspers. „Sie können aber natürlich im Rahmen von Gesetzgebung oder bei Ausschreibungen zu Mindestanforderungen erklärt werden.“ Die C3A können jedoch, meint der Vizepräsident des Bundesamtes für Sicherheit in der Informationstechnik, „zur Benchmark der Bundesverwaltung werden.“

Das kommt auch durch eine Wechselwirkung der Vorgaben. „Stellen des Bundes sind verpflichtet, den IT-Grundschutz des BSI umzusetzen“, erklärt Martin Bierwirth, Referatsleiter Cloud-Sicherheit beim BSI. „Sofern sie externe Cloud-Dienste nutzen, müssen sie in diesem Rahmen auch den Baustein OPS 2.2 anwenden und erfüllen.“ Auf diesem baue auch der Mindeststandard zur Nutzung externer Cloud-Dienste (MST-NCD) auf. Die C3A wiederum würden auf dem C5 aufbauen und dessen Kriterien zur Informationssicherheit mit dem Thema digitale Souveränität ergänzen. Wer also nicht nur sichere, sondern auch souveräne Vorgaben erfüllen muss, wird darum in der Bundesrepublik absehbar schwer herumkommen. Ob große Hyperscaler diese erfüllen können, dürfte vom jeweiligen Anforderungsprofil der Kunden abhängen – und vom Druck, souveräne Lösungen wählen zu müssen.

Je nachdem, wie sich die europäische Diskussion weiterentwickelt, könnten die neuen Kriterien aber auch jenseits von Rhein und Oder eine maßgebliche Rolle spielen. Sollten mit dem Cloud and AI Development Act der EU solche Kriterien Einzug in die Anhänge der IT-Sicherheitsgesetze wie NIS2 oder Cybersecurity Act finden, würde wohl kaum ein Weg an dem deutschen Vorschlag vorbeiführen.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Beliebt