Datenschutz & Sicherheit
Notepad++: Sicherheitsupdate gegen Codeschmuggel-Lücke | heise online
Notepad++ ist in Version 8.9.2 erschienen. Die neue Fassung verbessert Sicherheitsmechanismen und schließt eine hochriskante Sicherheitslücke, durch die Angreifer beliebigen Code ausführen können.
Weiterlesen nach der Anzeige
In der Versionsankündigung von Notepad++ 8.9.2 schreibt der Entwickler Don Ho, dass er die Sicherheit verbessert und eine weitere Sicherheitslücke darin geschlossen habe. Zu den Verbesserungen zählt etwa, dass der Updater jetzt die Integrität und Authentizität des vom Server zurückgelieferten XML überprüft; dazu setzt er auf XMLDSig, also kryptografische Signaturen. Der automatische Updater WinGUp entfernt zwei curl-Optionen, integriert die curl-Bibliothek statisch, anstatt sie dynamisch (und damit unter Umständen anfällig) zu laden, und startet nur noch signierte Programme. Auch das trägt zur Härtung der Sicherheit bei.
Außerdem schließt Notepad++ 8.9.2 eine Sicherheitslücke, die auftreten kann, wenn der Windows-Explorer ohne absoluten Pfad zur ausführbaren Datei gestartet wird. Dadurch könnte eine manipulierte „explorer.exe“ gestartet werden, sofern Angreifer auf das Arbeitsverzeichnis des Prozesses zugreifen können. Das würde zur Ausführung beliebigen Codes im Kontext der laufenden Anwendung führen (CVE-2026-25926, CVSS 7.3, Risiko „hoch“).
Update schließt Lücken und behebt Fehler
Neben diesen sicherheitsrelevanten Korrekturen bringt die neue Version auch weitere Fehlerbehebungen mit. So stürzt etwa die Plug-in-Installation in einigen Situationen nicht mehr ab. Im Kontextmenü gab es eine Regression, durch die Lokalisationskürzel nicht rechtsbündig ausgerichtet waren. Und neu dabei ist eine Funktion „Auswahl redigieren“.
Notepad++-Nutzer und -Nutzerinnen sowie IT-Verantwortliche sollten die bereitstehende Aktualisierung zügig installieren. In der Versionsankündigung stehen auch Downloads für unterschiedliche Plattformen sowie die Quelltexte bereit.
Die Sicherheitslücke im Notepad++-Updater wurde im Dezember vergangenen Jahres bekannt. Untersuchungsergebnisse vom Anfang Februar zeigen, dass die Angreifer, die darüber gezielt Malware verteilt hatten, offenbar staatliche Akteure waren.
Weiterlesen nach der Anzeige
(dmk)
Datenschutz & Sicherheit
Microsoft startet Vorschau auf Security Dashboard for AI
Microsoft hat die öffentliche Vorschau auf das „Security Dashboard for AI“ herausgegeben. Es soll IT-Verantwortlichen eine einfache Übersicht zu Risiken der verwendeten KI-Assistenten, Apps und Plattformen liefern.
Weiterlesen nach der Anzeige
In einem Blog-Beitrag stellt Microsoft das Security Dashboard for AI vor. Das wurde bereits zur Ignite-Messe 2025 angekündigt, wo Microsoft einen KI-Schwerpunkt gesetzt hatte. Das Unternehmen will mit dem Security-Dashboard einen klaren Überblick über KI-Risiken wie Datenlecks, Schwachstellen in Modellen, Fehlkonfigurationen und „unethische Agenten-Aktionen“ für IT-Sicherheitspersonal liefern, die die gesamte KI-Umgebung, KI-Plattformen, Apps sowie Agenten umfasst.
„Das Security Dashboard for AI bietet Führungskräften einen einheitlichen Überblick über KI-Risiken, indem es Sicherheits-, Identitäts- und Datenrisiken aus Defender, Entra und Purview in einem einzigen interaktiven Dashboard zusammenfasst“, erklärt Microsoft. Der Übersichts-Tab des Dashboards liefert eine Wertungsübersicht mit Karten, die sofort ersichtlich machen, wo Risiken liegen können, die die IT-Sicherheitsteams angehen müssen. Er erfasst zudem die Implementierung der Security-for-AI-Möglichkeiten von Microsoft in der Organisation und liefert Empfehlungen zur Verbesserung der KI-Sicherheit.
KI-Inventur
Das Dashboard umfasst zudem ein KI-Inventar mit umfassenden Ansichten zum Auffinden von KI-Einsatz, Risikobewertungen und Gegenmaßnahmen mit einer breiten Abdeckung von KI-Agenten, Modellen, MCP-Servern und Apps. Das Security Dashboard for AI kann dabei mit allen von Microsofts Entra, Defender und Purview unterstützten Microsoft-KI-Lösungen umgehen, unter anderem mit Microsoft 365 Copilot, Copilot Studio-Agenten sowie Foundry-Anwendungen und -Agenten. Außerdem erkennt es KI-Modelle, -Anwendungen und -Agenten von Drittanbietern wie Google Gemini, OpenAI ChatGPT und MCP-Server.
Microsoft verspricht, dass das Dashboard einen zusammenfassenden Überblick über KI-bezogene Sicherheitsrisiken bietet und KI-gestützte Erkenntnisse von Security Copilot nutzt, um die kritischsten Risiken innerhalb einer Umgebung zu identifizieren. So sollen IT-Sicherheitsteams die drängendsten Risiken schnell identifizieren und angehen können. Und natürlich können die IT-Sicherheitsbeauftragten auch mit KI-Prompts durch die entdeckten Risiken gehen und genauer analysieren.
Microsoft-Security-Kunden können direkt mit der Nutzung der Vorschauversion des Security Dashboard for AI loslegen. Es ist in der Lizenz zu Microsoft Defender, Entra und Purview enthalten.
Weiterlesen nach der Anzeige
(dmk)
Datenschutz & Sicherheit
„Hass im Netz führt dazu, dass Frauen eher leise auftreten“
Ingrid Brodnig beobachtet seit Jahren die Debattenkultur im Netz, wenn man diese so bezeichnen kann. Die österreichische Journalistin hat sich spezialisiert auf Bücher und Beiträge zu Falschinformationen und digitaler Gewalt. Während der Corona-Pandemie galt sie als gefragte Expertin, um Verschwörungstheorien rund um die Pandemie einzuordnen. Noch länger beschäftigt sich Brodnig mit dem, was oftmals unter „Hass im Netz“ gefasst wird: Hetzkampagnen, gezielten Bedrohungen und Beleidigungen im digitalen Raum, die oft unterhalb der Schwelle zur Straftat liegen und doch große Wirkung entfalten.
Sechs Sachbücher hat Brodnig bislang veröffentlicht – unter anderem zu den Auswirkungen des Onlineseins auf die Gesellschaft, Falschnachrichten, Anonymität und zur Macht der großen Plattformen. Jetzt folgt ein weiteres. Für die Recherche hat sie mit Abgeordneten und Politikerinnen aus Deutschland und Österreich über ihre Erfahrungen mit Alltagsgewalt im Internet gesprochen, darunter Renate Künast und Anke Domscheit-Berg.
„Eine substanzielle Aufarbeitung erfolgt kaum“
netzpolitik.org: Dass Politikerinnen im Netz besonders häufig bedroht und massiv beleidigt werden, ist kein neues Phänomen. Warum greifen Sie das Thema erneut auf?
Ingrid Brodnig: Wir sehen diese Fälle in den Medien. Da geht es jedes Jahr um eine andere Person: Renate Künast, Ricarda Lang, Heidi Reichinnek. Eine substanzielle Aufarbeitung erfolgt aber kaum.
Wir beschäftigen uns kurz damit und freuen uns, dass Renate Künast einen juristischen Erfolg erzielt. Aber die Geschichte endet ja damit nicht.Ich wollte von den Politikerinnen erfahren: Wie erfahren sie die Anfeindungen? Und welche wiederkehrenden Muster lassen sich darin erkennen?
netzpolitik.org: Was haben Sie erfahren?
Ingrid Brodnig: Ich mache das an einem Beispiel fest. Vor ein paar Jahren gab es eine schreckliche Massenvergewaltigung in einem Bus in Indien, die Frau starb. Zu dieser Zeit schrieb jemand auf Twitter einer Politikerin, er würde ihr gerne eine Busfahrt durch Indien spendieren.
Das ist eine verklausulierte Vergewaltigungsdrohung, die aus juristischer Sicht womöglich nicht als Vergewaltigungsdrohung eingestuft wird. Denn es wird keine Absicht formuliert im Sinne von: „Ich werde dich vergewaltigen.“ Die Frau sagte dazu: Es macht keinen Unterschied, ob das verklausuliert ist oder nicht, der Effekt ist der gleiche. Das reicht bis hin zu körperlichen Folgen, Herzzustände, Schlaflosigkeit, Zittern plötzlich vor einem TV-Auftritt.
netzpolitik.org: Sie wollen, dass die Menschen so mehr über die Folgen der Gewalt erfahren?
Ingrid Brodnig: Es gibt ein großes Bewusstsein dafür, dass Hass im Netz gegen Frauen existiert, aber die Debatte verpufft schnell an dieser Erkenntnis. Wenn man diese digitale Gewalt genauer beschreibt, dann wird viel klarer, was die Betroffenen erleben und was es auslöst.
„Es ist schlimmer geworden in den vergangenen 10 Jahren“
netzpolitik.org: Sie haben bereits vor zehn Jahren ein Buch mit dem Titel “Hass im Netz” geschrieben, das sich auch mit der Gewalt gegen Politikerinnen befasst. Was hat sich seitdem verändert?
Ingrid Brodnig: Es ist schlimmer geworden. Ich habe zur Vorbereitung das alte Buch nochmal zur Hand genommen und gemerkt: Vieles darin würde ich heute nicht einmal mehr zitieren, weil es mir zu harmlos erscheint.
Es gab eine Verrohung und auch Zermürbung in diesen zehn Jahren. Wir haben uns als Gesellschaft an vieles gewöhnt. Was vor zehn Jahren noch für eine aufgeregte Offline-Debatte gesorgt hätte, empfinden wir heute schon als Business as Usual.
Gleichzeitig haben auch die Plattformen wesentliche Rückschritte gemacht. Dort konnte man eine Phase des Einlenkens beobachten, speziell nach der US-Präsidentschaftswahl im Jahr 2016. Damals wurde klar, wie stark Facebook und andere Plattformen für Propaganda genutzt wurden. Auch die EU schaute streng auf die Plattformen.
Dieser Eindruck ist mit der Wiederwahl von Donald Trump komplett gekippt. Meta hat seine Richtlinien in vielen Punkten aufgeweicht. Formen der Beleidigung und Herabwürdigung gegen Frauen oder LGBTIQ-Personen sind jetzt explizit erlaubt. Man darf LGBTIQ-Personen auf Facebook und Instagram jetzt als “psychisch krank oder anormal” bezeichnen.
„Frausein an sich ist eine Gefahr“
netzpolitik.org: Sie schreiben, die Erfahrungen dieser Politiker*innen seien für sie ein Symbol für den Zustand der Demokratie. Was meinen sie damit?
Ingrid Brodnig: Ich habe zehn Typen von wiederkehrenden geschlechtsspezifischen Beleidigungen und Bedrohungen herausgearbeitet. Ein Typus besteht in der Abwertung, die auf einer sexuellen Verwertungslogik basiert. Das wäre so ein Kommentar wie: “Niemand will dich ficken.” Frauen stehen also besonders im Fokus.
Politikerinnen sind Frauen und sie sind sehr sichtbar. Beides ist eine Gefahrensituation im Internet. Mit Sichtbarkeit steigt die Wahrscheinlichkeit, dass Communitys auf mich aufmerksam werden, die für gänzlich andere Werte eintreten oder an mir ein Exempel statuieren wollen.
Und Frausein an sich ist eine Gefahr, weil wir eine sehr starke maskulinistische Szene im Netz haben, deren Mitglieder moderne, selbstbewusste Frauen als zentrales Problem ansehen.
Demokratie baut darauf auf, dass die unterschiedlichsten Bevölkerungsgruppen gleichwertig an der politischen Debatte teilhaben können. Das wurde hart erkämpft. Ich glaube, dass derzeit die Gefahr besteht, dass wir hier auf verschiedenen Ebenen Rückschritte machen.
netzpolitik.org: Ein gängiger Einwand lautet, wer in der Öffentlichkeit steht, müsse eben mehr aushalten, auch wenn es mal unfair zugeht.
Ingrid Brodnig: Renate Künast sagte zu mir, als Politikerin hätten die meisten ein bisschen Hornhaut auf der Seele. Für ihr Team seien die Hasskommentare gegen sie anfangs schwerer auszuhalten gewesen als für sie selbst.
Mir macht das Sorge, wenn Menschen in öffentlichen Debatten in einer Demokratie Hornhaut auf der Seele brauchen, um hier überhaupt mitmachen zu können. Es ist immer leichter, eine solche dicke Haut einzufordern, wenn man nicht weiß, was Menschen erleben. Und bei Frauen ist der Verdacht natürlich besonders groß, dass sie einfach zu feinfühlig seien.
Das fehlt beim Schutz vor digitaler Gewalt
netzpolitik.org: Ziehen Frauen sich tatsächlich schneller zurück nach solchen Erfahrungen?
Ingrid Brodnig: Hass im Netz führt tatsächlich dazu, dass Frauen eher leise auftreten oder gar verstummen. 42 Prozent der Frauen, die hasserfüllte Kommentare erhalten, werden vorsichtiger beim Formulieren ihrer Meinung. Bei Männern sind es 16 Prozent, ergab eine norwegische Studie. Das ist ein demokratisches Alarmsignal!
Aber das bedeutet nicht, das Frauen zu schwach sind. Alle Geschlechter erleben digitale Gewalt. Und in jedem einzelnen Fall ist das falsch.
Bei Frauen gibt es allerdings diese spezielle sexualisierte Komponente. Und die hat zum einen eine besonders einschüchternde Wirkung. Zum anderen bekommen Frauen von klein auf gesagt, sie müssten sich vor Gefahren schützen. Es ist oft Teil ihrer Sozialisation, dass sie lernen, den Raum lieber zu verlassen, als zu riskieren, dass die Situation sich weiter zuspitzt.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
„Wir haben eine Zweiklassensituation“
netzpolitik.org: In Deutschland wird seit Jahren über Ansätze debattiert, um die Rechte von Betroffene zu stärken. Das Bundesjustizministerium arbeitet an einem „digitalen Gewaltschutzgesetz“. Betroffene sollen damit leichter auf dem Privatklageweg erfahren, wer hinter einem anonymen Account steckt. Was halten Sie davon?
Ingrid Brodnig: Das erscheint mir sinnvoll. Derzeit sind sehr häufig die Kosten einer Privatklage ein hohes Hindernis. Wir haben eine Zweiklassensituation, wo diejenigen, die es sich leisten können, leichter gegen digitale Gewalt vorgehen können als andere. Alles, was dazu beiträgt, das Kostenhindernis zu verringern, ist gut.
netzpolitik.org: Die Pläne für das Gesetz sehen außerdem vor, dass Accounts künftig nach wiederholten Rechtsverletzungen per Gerichtsbeschluss gesperrt werden. Ist das angemessen?
Ingrid Brodnig: Wir müssen eine Lösung finden für Personen, die fortwährend andere Menschen verletzen oder falsche Informationen verbreiten. Wir müssen dann aber auch die Frage nach der Resozialisierung stellen. Wann wird einem Menschen beispielsweise wieder zugesprochen, dass er oder sie wieder posten darf? Bei vielen dieser Nachschärfungen gilt: Der Teufel liegt im Detail. Es bleibt Feinstarbeit.
„Die EU präsentiert sich gerne als Champions der digitalen Grundrechte“
netzpolitik.org: Auf EU-Ebene soll seit 2024 der Digital Services Act die Rechte von Nutzer*innen auf den großen Plattformen stärken. Meta, TikTok und Co. müssen etwa Meldeverfahren anbieten, die “leicht zugänglich und benutzerfreundlich” sind. Hat das zu einer Verbesserung beigetragen?
Ingrid Brodnig: Ohne den Digital Services Act wären wir derzeit sicher schlechter dran in Zeiten, in denen die großen Tech-Plattformen den Schulterschluss mit der Trump-Regierung üben. Der DSA ermöglicht es, hohe Geldbußen zu verhängen, wenn Unternehmen systemisch Risiken ignorieren oder Meldefunktionen fehlen. Aber diese Regeln müssen auch durchgesetzt werden. Bisher gab es aber nur eine negative Entscheidung aus Sicht der Plattformen, nämlich die 120 Millionen Euro Geldbuße für X.
Die EU-Kommission und die EU als Ganzes präsentieren sich gerne als Champions der digitalen Grundrechte. Und auf dem Papier hat die EU auch gute Regeln geschaffen. Aber erst die nächsten ein, zwei Jahre werden zeigen, ob sie dieses Versprechen auch einlöst. Ob ich genügend geschützt werde, wenn Falsches über mich verbreitet wird, wenn ich fertig gemacht werde, wenn ich eingeschränkt werde.
Kann die EU-Kommission die großen Plattformen kontrollieren? Kann sie potenziell rechtswidrige Kommentare auch ernsthaft und rasch prüfen? Und kann sie genügend gegen systemische Risiken unternehmen? An all diesen Fragen wird sich zeigen, wie mutig und selbstbewusst die EU auftritt – auch und gerade gegen die Konzerne in den USA.
„Jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt“
netzpolitik.org: Was könnte die Bundesregierung konkret tun, um die von Ihnen beschriebene Gewalt einzudämmen?
Ingrid Brodnig: Ich sehe einige konkrete Stellschrauben. Deutschland kann als Staat einige Rechtslücken schließen oder bürokratische Hürden nehmen. Zum Beispiel die Kostenreduktion. Oder auch bildbasierte digitale Gewalt stärker ahnden, zum Beispiel sexualisierte Deepfakes. Das löst das Problem nicht als Ganzes. Aber jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt. Und die Regierung muss auf europäischer Ebene den Druck erhöhen, damit die eigentlich sinnvollen Regeln auch umgesetzt werden.
netzpolitik.org: Was können Einzelpersonen in dieser Situation beitragen?
Ingrid Brodnig: In der Tat, es gibt eine dritte Ebene: die Persönliche. Ich habe auch mit der Psychotherapeutin und Psychologin Dorothee Scholz gesprochen, die mit Betroffenen digitaler Gewalt zusammenarbeitet. Aus ihrer Sicht kann es die Weltwahrnehmung sehr verändern, wenn Menschen den ganzen Tag nur Hasskommentare lesen.
Das heißt aber auch: Ich kann den Betroffenen solcher Vorfälle schreiben – öffentlich oder privat – und ihnen sagen: Das hast du nicht verdient, lass dich nicht unterkriegen oder du leistest wichtige Arbeit. Auch das hilft.
„Feindbild Frau. Wie Politikerinnen im Netz bedroht, beleidigt und verdrängt werden – und was wir alle dagegen tun können“ von Ingrid Brodnig erscheint am 25. Februar 2026 im Brandstätter Verlag. Die Autorin hält am 23.2. und am 16.3. Lesungen in Wien sowie am 26.2. eine Lesung in Berlin.
Datenschutz & Sicherheit
Wo der Digitale Omnibus der EU gerade hinrollt

Am 19. November 2025 präsentierte die Europäische Kommission den sogenannten „Digitalen Omnibus“: Mit zwei Gesetzen will die EU ihre Digitalregulierung überarbeiten und auf einen Schlag zahlreiche bestehende Gesetze ändern. Die Kommission will mit dem Paket Regeln vereinfachen, Bürokratie abbauen und so die Wettbewerbsfähigkeit Europas steigern.
Das erste dieser Gesetze, das die Datenschutzgrundverordnung (DSGVO), mehrere Datennutzungsgesetze und die Meldung von Cyber-Vorfällen betrifft, wird „Datenomnibus“ genannt. Das zweite Gesetz, welches die KI-Verordnung ändert, heißt „KI-Omnibus“. Für beide Vorhaben hat die Kommission ein hohes Tempo vorgegeben, die Änderungen sollen so schnell wie möglich beschlossen werden. Während dies beim KI-Omnibus, der unter anderem Teile der europäischen KI-Verordnung aufschieben soll, realistisch erscheint, dürften sich die Verhandlungen um den Datenomnibus deutlich länger hinziehen.
Sollen sexualisierte Deepfakes verboten werden?
Für den KI-Omnibus sind im Parlament zwei Ausschüsse verantwortlich: der Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) und der Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE). Daher gibt es in diesem Fall auch zwei federführende Abgeordnete, die sogenannten Berichterstatter:innen: Michael McNamara ist Teil der Fraktion der Liberalen, Arba Kokalari gehört der konservativen EVP an, zu der auch CDU/CSU gehören.
Sie haben am 4. Februar gemeinsam ihren ersten Berichtsentwurf vorgelegt. Dieser beschreibt, wie sie die KI-Verordnung im Vergleich zum Vorschlag der EU-Kommission verändern wollen. Die verantwortlichen Abgeordneten anderer Fraktionen, die sogenannten Schattenberichterstatter:innen, haben bis zum 12. Februar ihre Änderungswünsche vorgelegt. Diese sind noch nicht öffentlich.
Bekannt ist jetzt schon, dass derzeit diskutiert wird, ob die Erstellung von sexualisierten Deepfakes im Rahmen des Omnibusses verboten werden soll – und unter welchen Umständen. Nach dem Skandal um Elon Musks Chatbot Grok, mit dem Nutzer:innen unfreiwillige Nacktbilder von Frauen und Minderjährigen erstellt haben, gibt es dafür gerade viel politischen Willen, sowohl im Parlament als auch unter den Mitgliedstaaten. Wie ein solches Verbot ausgestaltet werden könnte, ist jedoch umstritten.
Bei den Verhandlungen wird auch diskutiert, wer die Verantwortung für KI-Schulungen haben soll – die Anbieter der KI-Systeme oder die Regierungen. Außerdem soll entschieden werden, ob die verschobenen Fristen für Hochrisiko-Systeme fest oder flexibel sein werden. Dass sie überhaupt verschoben werden, scheint unter den Verhandelnden niemand mehr anzufechten. Ein weiteres Thema ist die Zentralisierung der Aufsicht im KI-Büro der EU-Kommission und das KI-Training mit sensiblen Daten, um Verzerrungen zu vermeiden. Ebenfalls besprochen werden mögliche Ausnahmen im Transparenzregister für KI-Systeme.
KI-Omnibus könnte bald schon am Ziel sein
Bereits nächste Woche startet im Parlament die Verhandlung, deren Ziel ein finaler Bericht ist. Es ist vorgesehen, dass die beiden Ausschüsse am 18. März darüber abstimmen. Damit würde dann die Parlamentsposition stehen und wäre bereit für den sogenannten Trilog mit der EU-Kommission und den Mitgliedstaaten.
Letztere erarbeiten im Moment ebenfalls ihre Position im Rat der Europäischen Union. Derzeit finden die Gespräche auf Ebene der Arbeitsgruppe „Vereinfachung“ statt. Es gibt bereits zwei Entwürfe. Wenn der Text final ist, wird er an die Diplomat:innen im „Ausschuss der Ständigen Vertreter“ gegeben. Auf der höchsten Ebene ist der Rat für Allgemeine Angelegenheiten für den KI-Omnibus verantwortlich.
Das Steuer hat dabei die derzeitige Ratspräsidentschaft Zypern in der Hand. Sie hat bereits angekündigt, den KI-Omnibus mit Priorität zu behandeln. Und das nicht ohne Grund: Schließlich sollen im Omnibus die Fristen für Hochrisiko-KI-Systeme angepasst werden, die eigentlich ab dem 2. August 2026 gelten würden. Der Omnibus muss daher spätestens bis zu diesem Datum in Kraft treten.
Insgesamt scheinen sich Rat und Parlament beim KI-Omnibus bisher relativ einig zu sein. Sie tendieren in vielen Punkten dazu, zum ursprünglichen Text der KI-Verordnung zurückzugehen. Unterschiede gibt es selbstverständlich in den Details.
Institutionen warnen vor Datenomnibus
Unübersichtlicher und umstrittener ist die Lage beim Datenomnibus. Während die Zusammenlegung von Datennutzungsgesetzen oder die Vereinfachung der Meldewege bei IT-Sicherheitsvorfällen für relativ wenig Aufregung gesorgt haben, ist um die Datenschutzaspekte des Vorhabens eine heftige Debatte entbrannt.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
De EU-Kommission behauptet weiter steif und fest, lediglich technische Änderungen vorgeschlagen zu haben, die das Datenschutzniveau in der EU nicht verändern würden. Inzwischen mehren sich jedoch die Stimmen, die sagen: Vorschläge wie eine erleichterte Nutzbarkeit von Daten für KI, Einschränkungen von Betroffenenrechten oder eine Änderung der Definition personenbezogener Daten würde an Grundpfeilern des Datenschutzes rütteln.
In diesen Chor hat sich vergangene Woche auch der Europäische Datenschutzausschuss (EDSA) eingereiht, in dem die nationalen Datenschutzbehörden der EU zusammenarbeiten. „Einige vorgeschlagene Änderungen geben Anlass zu erheblichen Bedenken, da sie das Schutzniveau für Einzelpersonen beeinträchtigen, Rechtsunsicherheit schaffen und die Anwendung des Datenschutzrechts erschweren können“, heißt es in einer gemeinsamen Erklärung des EDSA mit dem Europäischen Datenschutzbeauftragten Wojciech Wiewiórowski.
Ehemalige Meta-Lobbyistin verhandelt über Datenschutz
Zwar begrüße man einige Vorschläge, die zu tatsächlichen Vereinfachungen führen. Darunter falle etwa eine Anhebung des Risikoschwellenwerts, ab dem eine Datenschutzverletzung der zuständigen Datenschutzbehörde gemeldet werden muss, oder die Verlängerung der Frist für die Meldung von Datenpannen. Auch Vorschläge zu Vereinfachungen bei Cookie-Bannern begrüßen die Datenschützer:innen.
Deutlich länger ist jedoch die Liste der gravierenden Mängel, die die Datenschützer:innen ausmachen. Allen voran kritisieren die Behörden die vorgeschlagene Neudefinition personenbezogener Daten, die pseudonymisierte Daten unter Umständen von der DSGVO ausnehmen würde. Dazu heißt es von der Vorsitzenden des Europäischen Datenschutzausschusses, Anu Talus: „Wir fordern die beiden gesetzgebenden Organe jedoch nachdrücklich auf, die vorgeschlagenen Änderungen der Definition personenbezogener Daten nicht anzunehmen, da sie den Schutz personenbezogener Daten erheblich schwächen könnten.“
Was die beiden angesprochenen Organe, das Europäische Parlament und der Rat der Mitgliedstaaten, mit dem Input der Datenschutz-Expert:innen anfangen werden, ist derzeit noch ziemlich offen. Der Datenomnibus wird zwar in den legislativen Prioritäten für 2026 genannt, auf welche sich die drei EU-Institutionen Ende des Jahres einigten. Das bedeutet: Das Vorhaben soll eigentlich noch in diesem Jahr abgeschlossen werden. Eine Positionierung des Rates ist nach Auskunft von Beobachter:innen in den nächsten Monaten allerdings nicht zu erwarten.
Im Parlament stellt man sich ebenfalls auf langwierige und zähe Verhandlungen ein. Hier teilen sich auch beim Datenomnibus zwei Ausschüsse die Federführung. Während im LIBE-Ausschuss für Bürgerliche Freiheiten die Sozialdemokratin Marina Kaljurand Berichterstatterin für das Thema ist, hat im Industrieausschuss (ITRE) Aura Salla das Ruder übernommen. Die finnische Politikerin von der konservativen Europäischen Volkspartei war von 2020 bis 2023 Chef-Lobbyistin des US-Tech-Konzerns Meta in Brüssel. Mit Blick auf den Datenomnibus sagte sie im Januar auf einer Veranstaltung: „Wir müssen deregulieren, nicht nur vereinfachen.“
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 1 WocheCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 2 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
