Datenschutz & Sicherheit
Harte Zeiten für den demokratischen Rechtsstaat
Bereits seit einigen Jahren schwappt eine neue Welle von Reformen der jeweiligen Länderpolizeigesetze durch die Republik, mit denen man die polizeilichen Befugnisse an technische Entwicklungen anpassen möchte.
Die Bundesregierung will ein neues Bundespolizeigesetz schaffen, netzpolitik.org hat den Gesetzentwurf veröffentlicht. Amnesty International hat dazu eine Stellungnahme eingereicht.
Staatstrojaner Quellen-TKÜ
Was bereits in zahlreichen Ländergesetzen geregelt und allen 19 Geheimdiensten erlaubt ist, soll nun auch der Bundespolizei möglich werden: Der Einsatz von Staatstrojanern für die Quellen-Telekommunikationsüberwachung, kurz Quellen-TKÜ. Dabei wird eine Spionage-Software auf das Telefon gespielt, um auch verschlüsselte Kommunikation – etwa über Messenger – zu überwachen. Die Ampel-Koalition hatte in ihrem Entwurf für eine Reform desselben Gesetzes noch auf den Trojaner-Einsatz verzichtet.
Mittels einer „Quellen-TKÜ-Plus“ soll die Bundespolizei nun jedoch sogar bestimmte, bereits abgeschlossene Kommunikation auf dem Gerät auslesen dürfen. Damit verschwimmt die Grenze zur Online-Durchsuchung – eine Grenze, die laut Expert*innen ohnehin technisch nicht klar einzuhalten ist.
Zusätzlich beinhaltet selbst die laufende Kommunikation heutzutage äußerst umfassende Datenbestände oft persönlichen Inhalts. Schließlich werden zahlreiche an sich ruhende Datenbestände regelmäßig (z.B. für das Erstellen von Backups in Clouds) in laufende Kommunikation „verwandelt“ und versendet.
Das Bundesverfassungsgericht hat auch aus diesen Gründen kürzlich anerkannt, dass die Quellen-TKÜ neben dem Fernmeldegeheimnis auch noch in das Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme („IT-Grundrecht“) eingreift. Zuvor hatte es das nur für die Online-Durchsuchung angenommen. Kurz: Dass diese neue Befugnis ein Grundrechtseingriff ist, der über eine normale Telekommunikationsüberwachung weit hinausgeht, liegt auf der Hand.
Ausnutzen von Schwachstellen
Dabei werden wieder einmal Überwachungsbefugnisse ausgeweitet, ohne grundlegende Hausaufgaben gemacht zu haben. Denn die Installation der Trojaner erfordert oft das Ausnutzen von Schwachstellen des IT-Systems – so dass staatliche Behörden einen Anreiz haben, ihnen bekannte Schwachstellen nicht dem Hersteller zu melden. Das Einfallstor für Schadsoftware bleibt offen, für alle Menschen.
Amnesty International ist jeden Tag mit den Folgen konfrontiert: Amnestys Security Lab recherchierte den Einsatz von Spyware wie „Pegasus“ oder „Predator“ gegen Medienschaffende, Oppositionelle und Menschenrechtsverteidiger*innen weltweit. Nahezu täglich beraten unsere Kolleg*innen Betroffene, die wegen ihres menschenrechtlichen oder demokratischen Engagements weltweit überwacht – und weiter in Gefahr gebracht werden.
Das passiert auch, weil deutsche Behörden noch immer nicht über ein einheitliches Schwachstellenmanagement verfügen, das ihnen vorschreibt, unbekannte Schwachstellen dem Hersteller zu melden und die Risiken der Trojaner-Praxis für die Allgemeinheit zu prüfen. Auch Unternehmen, kritische Infrastrukturen und die breite Bevölkerung sind betroffen, wie das Beispiel der Schadsoftware „WannaCry“ zeigte.
Trojaner gegen Proteste?
Amnesty International ist außerdem besorgt, dass Telekommunikationsüberwachung und Quellen-TKÜ auch gegen Menschen eingesetzt werden könnten, die friedliche Proteste planen. Denn die Quellen-TKÜ soll bezüglich Straftaten erlaubt werden, die etwa die Störung von öffentlichen Betrieben oder bestimmte Eingriffe in den Straßenverkehr erfassen, und zum Schutz von Einrichtungen des Bahn- und Luftverkehrs – Orten, an denen oft Proteste etwa für mehr Klimaschutz oder gegen Abschiebungen stattfinden.
Im Klima einer zunehmenden Repression friedlichen Protests bedarf es dringend entsprechender Klarstellungen, die einen solchen Missbrauch ausschließen.
Risiken für Missbrauch
Auch anderweitig bestehen grundsätzliche Missbrauchsrisiken. Die Berichte der Datenschutzbeauftragten decken immer wieder erschreckende Fälle von Datenmissbrauch durch die Polizei auf.
So wurde in Mecklenburg-Vorpommern den minderjährigen Opfern von Sexualstraftaten mit dienstlich erlangten Daten von Polizeibeamten nachgestellt. In Bayern hat eine Polizeibeamtin jüngst ihr privates Umfeld umfassend mit vertraulichen dienstlichen Daten versorgt.
Fluggastdaten
Auch ansonsten geht der Entwurf für ein neues Bundespolizeigesetz eher sorglos mit persönlichen Daten um. Bisher müssen Airlines die Daten von Fluggästen nur an die Polizei weitergeben, wenn diese das für bestimmte Strecken angeordnet hatte. Künftig sollen sie proaktiv und pauschal die Fluggastdaten aus allen Flügen über die Schengen-Außengrenzen nach Deutschland an die Polizei übermitteln. Aus Sicht der Polizei entfällt damit der Aufwand, bestimmte Risikostrecken zu identifizieren. Sie erhält einfach alle Daten, es könnte sich ja irgendwo etwas finden lassen.
Aus Sicht von Amnesty International ist dies ein nicht auf das Notwendige beschränkter, unverhältnismäßiger Eingriff in die informationelle Selbstbestimmung und ein weiterer Schritt hin zum gläsernen Passagier. Dabei hat der Gerichtshof der Europäischen Union schon mehrfach zur Fluggastdatenrichtlinie festgestellt, dass solche Daten nur weitergegeben werden dürfen, soweit dies notwendig ist.
Der jetzt drohende Schwenk passt in die allgemeine sicherheitspolitische Entwicklung, erst einmal möglichst viele Daten zu sammeln und diese anschließend zu analysieren, statt nur unbedingt notwendige Überwachung möglichst gezielt an Verdachtsmomenten festzumachen.
Errichtungsordnung
Zu diesem Negativtrend passt auch, dass die bisher im Bundespolizeigesetz erforderliche „Errichtungsordnung“ für automatisierte Dateien gestrichen werden soll. Dadurch wird bei der Errichtung automatisierter Dateien zukünftig keine Anhörung der*des Bundesdatenschutzbeauftragten mehr benötigt.
Das ist ein Schritt rückwärts, denn diese Anhörung dient dem Schutz der Betroffenen erstens durch eine unabhängige Kontrollinstanz und zweitens bereits präventiv, das heißt bevor die fragliche Datei eingerichtet wurde. Es ist umso besorgniserregender, als der automatisierten Datenverarbeitung eine immer größere Rolle zukommt.
Der damalige Bundesdatenschutzbeauftragte hatte die Streichung dieser Schutzmaßnahme bereits im Entwurf der Ampelregierung 2024 kritisiert. Das Problem ist also bekannt und das Festhalten daran kein Versehen.
BodyCams
Der Einsatz von BodyCams findet eine immer weitere Verbreitung bei den Polizeien. Dies ist grundsätzlich kein Problem, allerdings gibt es einiges zu beachten.
Pioniere bei der Einführung solcher BodyCams waren die USA und das Vereinigte Königreich. Hier erfolgte die Einführung unter der Prämisse des Bürgerrechtsschutzes, nachdem es zahlreiche schockierende Übergriffe durch Polizeibeamt*innen gegeben hat. In Deutschland sah man in den Geräten hingegen ein Mittel, um vermeintlich zunehmender Gewalt gegen Polizeikräfte zu begegnen. Dass es diese behauptete Zunahme gibt, erscheint dabei äußerst zweifelhaft.
Gleichwohl steht dies der Einführung nicht im Weg, soweit gewisse Mindeststandards beachtet werden. Entscheidend ist, dass die Aufnahmen auch den Betroffenen polizeilicher Maßnahmen zur Verfügung stehen. Dafür sollten die Betroffenen einen gesetzlichen Anspruch darauf erhalten, dass die Kamera bei jeder Durchführung von Zwangsmaßnahmen sowie auf ihr Verlangen hin eingeschaltet wird – etwa wenn Betroffene den Eindruck haben, dass eine Situation nicht rechtmäßig abläuft. Im Gesetzesentwurf ist das nicht der Fall. Stattdessen bekommt die Polizei einen großen Ermessensspielraum, darf also selbst entscheiden, ob sie die BodyCam einschaltet.
Kameraaufnahmen
Kameraaufnahmen sollten so gesichert werden, dass sie vor dem Zugriff von Unbefugten gesichert sind. Immer wieder sind in der Vergangenheit Beweismittel verschwunden, die eine Verurteilung von Polizeigewalt möglich gemacht hätten. Außerdem müssen die Aufnahmen lange genug gespeichert werden, damit Betroffene ausreichend Zeit haben, um über eine Anzeige gegen die Polizei nachzudenken und sich einen Rechtsbeistand zu suchen. Der Gesetzentwurf sieht 30 Tage vor, ein geeigneter Zeitraum.
Mit Blick auf einen möglichen „Function Creep“ – eine Ausweitung der Nutzung in der Zukunft – sei darauf hingewiesen, dass mit modernen BodyCams mittlerweile sehr viel möglich ist. Sie können zentral aufgeschaltet und mit anderen stationären Kameras zusammengeführt werden, um dann Menschen elektronisch zu taggen, also zu markieren.
So würde durch das System praktisch „automatisch“ nach Menschen gesucht. Ein äußerst orwellianisches Szenario, das unterbunden werden muss – der Trend zu immer mehr biometrischer Überwachung geht jedoch in eine andere Richtung.
Kennzeichnungspflicht
Das neue Bundespolizeigesetz ist aber auch an anderen Stellen nicht auf Höhe der Zeit. Während in den meisten Bundesländern mittlerweile eine Kennzeichnungspflicht bei der Polizei eingeführt wurde und auch der Entwurf der Ampelregierung dies vorsah, soll diese nun für die Bundespolizei nicht mehr kommen.
Aus rechtsstaatlicher Sicht ist das nicht nachvollziehbar. Die individuelle Identifizierbarkeit ist ein zentrale Notwendigkeit, um bei Fehlverhalten von Polizist*innen effektive Ermittlungen führen zu können. Dies haben von Amnesty International recherchierte Fälle ergeben, darauf hat auch der Europäische Gerichtshof für Menschenrechte in dem Verfahren „Hentschel und Stark gegen Deutschland“ hingewiesen.
Immer wieder scheitern Ermittlungen gegen Polizeibeamt*innen daran, dass einzelne Täter nicht ermittelt werden können. Das fällt insbesondere beim Einsatz von sogenannten geschlossenen Einheiten, etwa bei Versammlungs- oder Fußball-Lagen, auf. Da die Bereitschaftspolizei der Bundespolizei häufig auch beim Fußball im Einsatz ist oder auch im Rahmen von Versammlungslagen bei den Bundesländern aushilft, ist nicht nachvollziehbar, warum eine Einführung unterbleiben soll.
Racial Profiling
In einer pluralen Gesellschaft ist die Polizei auch mit neuen Herausforderungen konfrontiert. Hierzu zählt der Umgang mit Racial Profiling. Bei Racial Profiling handelt es sich um eine Ermittlungspraxis, bei der Menschen aufgrund äußerer Merkmale, wie etwa der Hautfarbe, kontrolliert werden.
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Diese Praxis stellt eine Diskriminierung dar und verstößt gegen das Diskriminierungsverbot aus der Europäischen Menschenrechtskonvention und dem Grundgesetz. Mittlerweile gibt es eine Reihe von Urteilen in Deutschland, die bestätigen, dass dieses Vorgehen der Polizei auch hier existiert.
Auch deshalb fordert Amnesty International die Einführung sogenannter Kontrollquittungen, die im Entwurf der Ampelregierung noch vorgesehen waren – von Schwarz-Rot nun aber abgelehnt werden.
Solche Quittungen würden im Rahmen jeder Kontrolle ausgestellt und erläutern dem Betroffenen, warum er oder sie gerade kontrolliert wurde. Dies schafft Transparenz und gibt durch die erfassten Daten, wie Kontrollzeitpunkt oder -ort, der Polizei die Möglichkeit, ihr eigenes Verhalten zu evaluieren.
Auch wäre es möglich, dass die Betroffenen, natürlich ausschließlich freiwillig, ihre eigene Ethnie angeben, der sie sich zuschreiben. So könnte auch aufgedeckt werden, wenn marginalisierte Personengruppen besonders häufig kontrolliert werden. In England hat man hiermit gute Erfahrungen gemacht.
Anlasslose Kontrollen
Für eine solche Evaluation gibt es gute Gründe. Denn bereits jetzt ist im Bundespolizeigesetz die Möglichkeit für anlasslose Kontrollen vorgesehen, die im Entwurf sogar noch ausgeweitet wird. Anlasslose Kontrollen sind jedoch ein Einfallstor für Racial Profiling und sollten nach Ansicht von Amnesty International abgeschafft werden.
Die eigene Statistik der Bundespolizei zeigt außerdem, dass die Erfolgsrate dieser Kontrollen extrem gering ist. In manchen Jahren liegt sie bei unter einem Promille – nicht einmal jede tausendste Kontrolle ist ein Treffer. Dies zeigt eindrucksvoll auf, dass solche Kontrollen nicht nur ein Problem für die Betroffenen sind, sondern auch für die Polizei selbst.
Durch die Kontrollquittungen wären die eingesetzten Polizeibeamt*innen gezwungen, sich bewusster mit den Kontrollen auseinanderzusetzen. Dies hilft, Racial Profiling zu vermeiden. Gleichzeitig kann die Auswertung aufzeigen, wo die Polizei effektiv arbeitet – und wo nicht. Auch dies schützt Menschenrechte. Der Aufwand wäre für die Polizeibeamt*innen selbst durch moderne Geräte nur minimal. Rationale Gründe für einen Verzicht auf die Quittungen sind daher nicht ersichtlich.
Präventivgewahrsam
Besonders sinister wird es im Bereich des Gewahrsams. Wie bereits in verschiedenen Ländergesetzen soll auch die Bundespolizei die Möglichkeit erhalten, Menschen in Präventivgewahrsam zu nehmen.
Amnesty International lehnt die Möglichkeit einer administrativen Inhaftierung grundsätzlich ab. Wird das Gesetz in dieser Form verabschiedet, wird es der Bundespolizei künftig möglich sein, Menschen bereits aufgrund einer Ordnungswidrigkeit „von erheblicher Bedeutung für die Allgemeinheit“ in Gewahrsam zu nehmen.
Aus Sicht von Amnesty International ist die Eingriffsgrundlage, sofern unbedingt an einer Präventivhaft festgehalten werden soll, auf den Schutz von Gefahren für Leib und Leben und die unmittelbare Begehung oder Fortsetzung von Straftaten, die insbesondere dem Schutz hochrangiger Rechtsgüter dienen, zu beschränken und ein verpflichtender Rechtsbeistand einzuführen.
Denn im Bereich von Ingewahrsamnahmen besteht keine Unschuldsvermutung und kein Recht auf Pflichtverteidigung. Darüber hinaus kommt es gerade im Gewahrsamsbereich von Polizeistationen immer wieder zu Übergriffen durch die Polizei. Dies ist besonders problematisch, da es sich hier um Räumlichkeiten handelt, die von der Öffentlichkeit abgeschottet sind. Insofern besteht für die Opfer von Übergriffen häufig eine Beweisnot.
Gerade für diesen Bereich fordert Amnesty International daher immer eine Videoüberwachung. Dies hat zum einen präventive Wirkung, hilft zum anderen aber auch den Opfern, wenn dennoch Übergriffe stattfinden.
Schritt Richtung Überwachungsstaat
Insgesamt ist leider festzuhalten, dass das neue schwarz-rote Polizeigesetz ein Schritt in Richtung Autoritarismus und Überwachungsstaat darstellt. Gegenüber dem Entwurf der Ampelregierung wurden zwei zentrale Schutzmaßnahmen für Menschenrechte – Kennzeichnungspflicht und Kontrollquittungen – wieder gestrichen.
Das ist Ausdruck eines besorgniserregenden Trends: Während staatlichen Behörden immer tiefere Eingriffe in Menschenrechte erlaubt werden, gibt man sich nicht einmal mehr die Mühe, Demokratie und Rechtsstaat zu stärken, indem man hinreichende Kontrolle ausübt und vulnerable Gruppen schützt.
Lena Rohrbach ist Expertin für Menschenrechte im digitalen Zeitalter bei Amnesty International in Deutschland. Philipp Krüger ist Experte für Polizei bei Amnesty International in Deutschland.
Datenschutz & Sicherheit
Sicherheitsleck in Dolby Digital Plus Decoder in Android, iOS, macOS und Windows
Eine Sicherheitslücke im Dolby Digital Plus Unified Decoder machte Android, iOS, macOS und Windows anfällig für Angriffe. Sie ermöglichte etwa Zero-Click-Attacken auf Android-Geräte. Aktualisierungen zum Stopfen des Sicherheitslecks stehen bereits zur Verfügung.
Weiterlesen nach der Anzeige
Darüber berichtet Googles Project Zero in einem Bug-Eintrag. Aufgrund eines Integer-Überlaufs bei der Verarbeitung von Daten durch den DDPlus Unified Decoder können Schreibzugriffe in einen Heap-artigen Puffer über die vorgesehenen Speichergrenzen hinaus erfolgen. Dadurch lassen sich Strukturen wie Zeiger überschreiben. „Unter Android führt dies zu einer Zero-Click-Schwachstelle, da Android lokal alle Audio-Nachrichten und -Anhänge zur Transkription dekodiert, mit diesem Decoder, und das ohne, dass Nutzer mit dem Gerät interagieren“, erklären die Programmierer dort.
Zero-Click-Code-Ausführung auf Android-Handy
Sie haben Beispieldateien erstellt, die die Lücke demonstrieren und einen Absturz anfälliger Geräte auslösen. Getestet haben die IT-Forscher Googles Pixel 9 sowie Samsungs S24, die mit einem SIGSEGV (Segmentation Fault) abstürzten. MacBook Air M1 mit macOS 26.0.1 und iOS 26.0.1 auf einem iPhone 17 Pro stürzten hingegen mit einer „-bounds-safety trap“ ab, also Sicherheitsmechanismen in der verwendeten Programmierumgebung. Die IT-Sicherheitsspezialisten haben eingeschleusten Code durch diese Schwachstelle auf Googles Pixel 9 mit Android 16 und Firmware BP2A.250605.031.A2 ausführen können.
Die Schwachstelle gilt dem Bug-Eintrag zufolge als gefixt. Microsoft hat sie vergangene Woche mit den Oktober-Sicherheitsupdates für diverse Windows-Versionen ausgebessert(CVE-2025-54957, CVSS 7.0, Risiko „hoch„). Für ChromeOS hat Google dafür Mitte September eine Betriebssystemaktualisierung verteilt.
Dolby hat eine eigene Sicherheitsmitteilung veröffentlicht, in der das Unternehmen das Sicherheitsrisiko mit einem CVSS-Wert von 6.7 lediglich als „mittel“ einstuft. Betroffen sind demnach die Softwareversionen UDC v4.5 bis v4.13. Der Hersteller fordert Anbieter auf, deren Geräte Dolby Digital Plus einsetzen, ihren Dolby-Repräsentanten zu kontaktieren, um die jüngsten Dolby-Digital-Plus-Dateien zu erhalten. Endkunden sollten sicherstellen, dass ihre Geräte auf dem aktuellen Stand sind.
Zuletzt gab es etwa Ende August in WhatsApp eine Zero-Click-Lücke, die iOS- und macOS-Geräte ohne Nutzerbestätigung verwundbar machte.
Weiterlesen nach der Anzeige
(dmk)
Datenschutz & Sicherheit
WhatsApp kämpft gegen Spam: Nachrichtenlimit bei ausbleibender Reaktion
WhatsApp will Spam den Kampf ansagen. Dazu plant die Messenger-Plattform, die Anzahl an Nachrichten einzuschränken, die Privatnutzer und Unternehmen senden können, wenn (unbekannte) Empfänger darauf nicht reagieren.
Weiterlesen nach der Anzeige
Das hat das Magazin TechCrunch in Erfahrung gebracht. Demnach rechnet WhatsApp alle Nachrichten, die Nutzer und Unternehmen versenden, auf ein monatliches Budget an – außer, die Absender erhalten eine Antwort. Wie hoch die maximale Anzahl an unbeantworteten Nachrichten vor der Sperre ist, nannte WhatsApp nicht. Die App soll jedoch ein Pop-up-Fenster als Warnung anzeigen, sofern sich Betroffene dem Limit nähern, sodass sie möglicherweise die Blockade noch abwenden können.
Gegenüber TechCrunch hat WhatsApp erklärt, die Funktion „in mehreren Ländern in den kommenden Wochen“ scharfzuschalten. Durchschnitts-User seien nicht betroffen, da sie üblicherweise die Grenzen nicht erreichen. Der Mechanismus sei dafür ausgelegt, effektiv gegen Menschen und Geschäfte vorzugehen, die massig Nachrichten verschicken und Leute zuspammen.
Spamschutz ist sinnvoll
Spam-Versand in WhatsApp scheint ein lukratives Geschäftsmodell zu sein. Die IT-Forscher von Socket haben eine Kampagne entdeckt, bei der der Chrome Web Store mit 131 Klonen einer WhatsApp-Web-Automatisierungs-Erweiterung geflutet wurde. Im Visier der Spammer sind derzeit insbesondere brasilianische Nutzerinnen und Nutzer.
Wie die IT-Sicherheitsforscher von Socket in einem Blog-Beitrag berichten, injiziert sich der Code der Browser-Erweiterungen direkt in die WhatsApp-Webseite und läuft dort neben den eigenen Skripten von WhatsApp. Er automatisiert Massenkontakte und plant diese so, dass sie die Anti-Spam-Maßnahmen von WhatsApp unterlaufen. Die Autoren der Original-Erweiterung suchen Kunden, die für die Massen-Spams zahlen – dafür versprechen sie ein Vielfaches an Gewinn – und ihre Marken sowie Webseiten zur Verfügung stellen. Daher ist der gleiche Code mit unterschiedlichen Marken als Aufmacher den Forschern zufolge bereits 131 Mal im Chrome Web Store aufgetaucht. In der Analyse zählen sie alle bösartigen Erweiterungen in den Indizien für eine Infektion (Indicators of Compromise, IOCs) auf. Zudem haben sie die Erweiterungen an Google gemeldet, damit sie aus dem Store entfernt werden.
Bereits im April hat WhatsApp erste Maßnahmen gegen unerwünschte Werbebotschaften ergriffen. Dazu hat die Messenger-Plattform die Broadcast-Funktion eingeschränkt, mit der Nutzer und Unternehmen viele Nutzer auf einmal erreichen können. Zu dem Zeitpunkt hat WhatsApp noch die passenden Limits ausgetestet. Die damals aktuelle Beta-Version erlaubte 30 Broadcast-Nachrichten im Monat. Für weitere Mitteilungen empfahl WhatsApp, dass Betroffene Status-Updates oder Kanäle nutzen sollten.
Weiterlesen nach der Anzeige
(dmk)
Datenschutz & Sicherheit
Wie anonymes Bezahlen möglich wäre
Wie anonym können wir künftig noch bezahlen? Diese Frage stellt sich vermehrt in einer Welt, in der digitale Zahlungsmethoden sich immer weiter verbreiten. Die Europäische Zentralbank wirbt für den Digitalen Euro immer wieder mit einem Level an Privatsphäre, dass „Bargeld-ähnlich“ oder „Bargeld-nah“ sein soll. Nun hat der Europäische Datenschutzausschuss, in dem nationale und der EU-Datenschutzbeauftragte zusammenkommen, ein Gutachten in Auftrag gegeben.
Eine der zentralen Fragen: Wie nahe kommt der digitale Euro an Bargeld und welche technischen Möglichkeiten für Anonymität gibt es? Das hat der Kryptographie-Professor Tibor Jager (Universität Wuppertal) für den Datenschutzausschuss untersucht.
Für den Kontext: Der Digitale Euro, Fach-Abkürzung „D€“, steht gerade im Fokus der EU-Institutionen. Die Europäische Zentralbank (EZB) treibt die technische Umsetzung voran. Parallel dazu gibt es einen Gesetzgebungsprozess, Parlament und Rat beraten gerade über den Vorschlag der Europäischen Kommission.
Digitale Zahlungen online und offline
In der Praxis soll der Digitale Euro online und offline funktionieren. Das Online-System kommt da ins Spiel, wo man den digitalen Euro etwa für das Einkaufen im Internet nutzt. Das Offline-System soll Bargeld möglichst ähnlich sein. Damit sollen etwa Privatpersonen einkaufen, aber auch Geld untereinander transferieren können, ohne dass eine Bank oder ein Zahlungsdienstleister das autorisieren oder mitbekommen muss. „Die Offline-Funktionalität des Digitalen Euro soll es Verbrauchern ermöglichen, auch in Notfällen wie Strom- oder Netzwerkausfällen weiterhin Zahlungen zu tätigen“, schreibt die EZB in ihrem neuesten Fortschrittsbericht.
Tibor Jager kommt in seinem Gutachten zu dem Schluss, dass ein anonymer Offline-D€ durchaus möglich ist. „Es existiert eine Bandbreite kryptografischer Werkzeuge, die man nutzen kann, um Sicherheit vor Fälschungen sowie Anonymität auf sehr starke Weise sicherzustellen“, schreibt er. Anonymität heißt in diesem Kontext: nicht verknüpfbar. Voreinander sind Zahler und Bezahlte zwar nicht anonym, allerdings sollten Dritte den Zahlvorgang nicht nachverfolgen können.
Konkret nennt Jager unter anderem das Verfahren der Blinden Signaturen. Dadurch könnte auch sichergestellt werden, dass Banken zwar sehen, dass ein bestimmter Betrag abgehoben oder eingezahlt wird, aber nicht die Token-ID, quasi die digitale Seriennummer. Das soll die Nachverfolgung des D€ verhindern.
Das Problem mit dem „Double Spending“
Eine Problem nennt Jager im Gutachten allerdings immer wieder: Wie kann man bei Offline-Transaktionen „Double Spending“ verhindern? Also dass eine Person denselben Digitalen Euro mehrmals ausgibt. Im Vergleich zu Bargeld wandert beim digitalen Euro ja kein physischer Geldschein über den Ladentisch.
Während es laut Gutachten vergleichsweise einfach ist, zu verhindern, dass Unbefugte neue Digitale Euros erschaffen, sei das unbefugte Kopieren von D€ schwieriger zu verhindern, vor allem in einem Privatsphäre-schonenden Offline-System. Dann könnte eine Person mit ihrem D€ zweimal offline bezahlen. Aber nur der erste Empfänger könnte diesen D€ „einlösen“, bei der zweiten bezahlten Person würde das Umwandeln abgelehnt.
Unlösbar ist dieses Problem aber nicht. Laut dem Gutachten gibt es mehrere Schutzmechanismen gegen „Double Spending“:
Sichere Hardware: Schon jetzt ist geplant, dass der Digitale Euro in einer bestimmten Hardware-Umgebung auf dem Smartphone verwaltet wird, die sich durch andere Software auf dem Gerät nicht verändern lässt. Jager weist in seinem Gutachten darauf hin, dass es in der Geschichte immer wieder erfolgreiche Angriffe auf sichere Hardware-Elemente gegeben habe. Zudem werde die Sicherheit dieser Umgebung dadurch erschwert, dass nicht Personen von außen, sondern die Nutzer:innen selbst versuchen könnten, das System zu manipulieren. Um das Risiko gering zu halten, sollte die Hardware möglichst wenige Aufgaben erfüllen. Dementsprechend sollten die Anonymität der Zahlungen und andere Sicherheitsmechanismen durch kryptografische Verfahren abgedeckt werden, die nicht auf entsprechenden Hardware-Sicherheitsmechanismen basieren.
Semi-Offline-Lösung: In diesem Szenario wäre nur die Zahlerin offline, der Bezahlte müsste mit dem System verbunden bleiben, das dann den übertragenen D€ direkt verifizieren könnte. Auch wenn diese Idee aus Sicherheitsperspektive attraktiv ist, untergräbt sie eines der zentralen Versprechen des Offline-D€: Dass man mit ihm auch ohne Internetverbindung bezahlen kann, etwa während eines Stromausfalls.
Kleinere Einschränkungen: Das Gutachten nennt etwa Transfer-Limits, also Beschränkungen, wie oft und wie viel Geld mit dem Offline-D€ übertragen werden könnte. Dies mache Manipulationen weniger lukrativ. Auch aus finanzwirtschaftlicher Sicht wird beim D€ über über Halte-Limits diskutiert, also wie viele Digitale Euros man besitzen darf, bis diese in normales Bankguthaben umgewandelt würden. Das Gutachten diskutiert auch Ablaufdaten für die Tokens des Digitalen Euros.
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Aufdecken statt Verhindern: Zudem könnte man sich weniger auf die Verhinderung als auf die Aufdeckung von „Double Spending“ konzentrieren. „Die Grundidee dieses Ansatzes besteht darin, einen Auditor einzuführen, der die Identität der Nutzer:innen nur in Fällen von Doppelausgaben offenlegen kann, während ehrliche Nutzer:innen bei normaler Nutzung vollständig anonym bleiben (auch gegenüber dem Auditor)“, schreibt Jager. Auch das sei durch das Blinde-Signaturen-Verfahren möglich.
Sicherheit braucht Transparenz
Alle diese Ideen führen an anderen Stellen zu Nachteilen. Diese Abwägungen müssten gut ausbalanciert werden, heißt es in dem Gutachten. Der Idee von Security by Obscurity („Sicherheit durch Unklarheit“) erteilt das Gutachten eine klare Absage. Insgesamt könne man die Sicherheit des Digitalen Euros nur durch Transparenz erhöhen. Die technischen Anforderungen und Protokolle müssten öffentlich sein, fordert Jager. Es sollte Open-Source-Implementierungen für die entsprechende Soft- und Hardware geben. Sicherheitsforscher:innen und ethische Hacker:innen sollten aktiv ermutigt werden, das System auf Schwachstellen zu testen.
Die Berliner Beauftragte für Datenschutz und Informationsfreiheit, Meike Kamp, hatte das Gutachten beim Europäischen Datenschutzausschuss angeregt. Gegenüber netzpolitik.org sagt sie: „Das Gutachten erklärt, vor welchen technischen Herausforder ungen eine anonymeOffline-Version des Digitalen Euros steht und zeigt, wie man sie lösen kann.“ Damit könne eine Bargeld-ähnliche Funktion machbar sein, die Betrug verhindert und trotzdem anonyme Zahlungen bis zu einem bestimmten Betrag ermöglicht, sagt Kamp.
„Ein hoher Datenschutzstandard ist entscheidend, um das Vertrauen der Bürger:innen in diese neue Form der Währung zu sichern. Die Möglichkeit, kleinere Beträge anonym zu bezahlen, würde den Digitalen Euro einzigartig machen und ihn von anderen digitalen Zahlungsmethoden abheben.“
Welche Datenschutzanforderungen die EU-Institutionen gesetzlich festlegen, wird sich in den kommenden Monaten entscheiden. Nach Auskunft von Damian Boeselager (Volt, Greens/EFA), Schattenberichterstatter des EU-Parlaments zum Digitalen Euro, will das Parlament im Mai 2026 seine Position verabschieden. Die dänische Ratspräsidentschaft will die Position der Mitgliedsstaaten noch in diesem Jahr verabschieden, berichten mehrere Quellen. Sobald Parlament und Rat ihre Positionen beschlossen haben, kann der Trilog beginnen, also die Verhandlung zwischen Ministerrat (den Mitgliedsstaaten), EU-Parlament und EU-Kommission.
Hinweis: Das Gutachten ist in englischer Sprache verfasst. Die direkten Zitate wurden übersetzt.
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 Monaten
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Monaten
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 Monat
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 3 Tagen
Illustrierte Reise nach New York City › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen