Datenschutz & Sicherheit
EU setzt auf Künstliche Intelligenz gegen Terror
Die EU-Kommission sieht Europa mit einer Vielzahl terroristischer Bedrohungen konfrontiert. So nutzten Terrorist:innen und gewalttätige Extremist:innen das Internet-Ökosystem aus, darunter soziale Medien und Online-Gaming, um ihre Inhalte zu verbreiten und Nutzer:innen zu rekrutieren. Sie würden ihre Anschläge über Ende-zu-Ende-verschlüsselte Kanäle planen, zur Finanzierung Krypto-Währungen oder NFTs heranziehen und mit generativen KI-Chatbots Bombenbau-Anleitungen erstellen. Leicht verfügbare 3D-Drucker und Drohnen würden die Gefahr nur verstärken, warnt die Brüsseler Behörde.
Gegen solche Bedrohungen will die EU-Kommission mit einem neuen Anti-Terror-Ansatz vorgehen, den die Kommissar:innen Henna Virkkunen und Magnus Brunner am vergangenen Donnerstag in Brüssel vorgestellt haben. Er ist ein Kernstück ihrer „ProtectEU“-Strategie aus dem Vorjahr. Ein guter Teil der vorgeschlagenen Maßnahmen konzentriert sich dabei auf die Online-Welt.
Zwar sei die Anzahl großer koordinierter Terroranschläge zurückgegangen, aber die Gefahrenlage bleibe weiterhin hoch, begründet die Kommission ihre Strategie. Seit dem Jahr 2019 seien überwiegend Einzeltäter:innen und kleine Terrorzellen für Anschläge verantwortlich gewesen, und nicht alle davon waren Dschihadisten: Hinzu kämen vermehrt Täter:innen, die Demokratie ablehnten oder von Hass gegen Jüd:innen, Muslim:innen und andere gesellschaftliche Minderheiten getrieben seien. Am anderen Ende des Spektrums stünden hybride Angriffe von Nationalstaaten wie Russland auf EU-Länder, heißt es im Strategiepapier.
Verknüpft ist die Strategie mit bereits bestehenden Gesetzen, vor allem mit dem Digital Services Act (DSA) und der Verordnung zu terroristischen Inhalten im Netz (Terrorist Content Online, TCO). Beide Gesetze haben die Verbreitung und Eindämmung illegaler Inhalte im Netz im Blick.
Anti-Terror-Verordnung soll überarbeitet werden
Während es die Kommission beim DSA vorrangig bei einer verbesserten Durchsetzung belassen will, stellt sie eine etwaige Überarbeitung der TCO-Verordnung in den Raum. Dies wird maßgeblich von der Evaluation des Gesetzes abhängen, die sie bis zum Jahresende abschließen will. Stärker in den Anti-Terror-Kampf einbezogen werden soll zudem das Europäische Gremium für digitale Dienste, in dem sich die DSA-Koordinator:innen für digitale Dienste der Mitgliedstaaten beraten.
Eigentlich wäre die TCO-Evaluation bereits im Sommer 2024 fällig gewesen. Teile davon hat die Kommission jedoch an die Agentur der Europäischen Union für Grundrechte (FRA) abgegeben. Ihren Bericht hat die Agentur erst Ende Januar vorgelegt. Dieser könnte der Kommission durchaus Kopfschmerzen bereiten: So weist der Bericht etwa auf unklare Interpretationen der Regeln hin und warnt vor sogenanntem Overblocking, also wenn Online-Dienste im Zweifel eher mehr löschen als zu wenig.
Davon seien nicht alle gleich betroffen, schreiben die Autor:innen: „Die Studie kommt zu dem Schluss, dass die Moderationspraktiken von Behörden und Plattformen bestimmte Gruppen, beispielsweise Muslime und arabischsprachige Menschen, unverhältnismäßig stark betreffen können, während rechtsextreme Inhalte oft weniger streng kontrolliert werden.“
Filtern mit Hash-Datenbanken
Indes bleibt der Kommission ein gewisser Handlungsspielraum, sie ist nicht vollständig auf mühselige Gesetzesänderungen angewiesen. So soll etwa Europol eine Datenbank mit sogenannten „Hashes“, also digitalen Fingerabdrücken mutmaßlich illegaler Dateien, selbst aufbauen. Einmal darin abgelegt, ist das Hochladen identischer Kopien bei teilnehmenden Online-Diensten nicht mehr möglich. Die Kooperation mit dem Global Internet Forum to Counter Terrorism (GIFCT), welches eine solche Datenbank seit Jahren betreibt, soll dabei weiter bestehen bleiben.
Neben der Zusammenarbeit mit dem GIFCT, das von Unternehmen wie Meta, Microsoft und Alphabet gegründet wurde, will die Kommission die Partnerschaft mit der Industrie im Rahmen des EU-Internetforums verstärken. In dem informellen Gremium tauscht sich die Kommission mit EU-Ländern, Polizeien und vor allem mit den Anbietern von Online-Diensten aus. Ziel ist es, auf freiwilliger Basis mutmaßlich terroristische Inhalte aus dem Netz zu fegen. Inzwischen hat sich das Aufgabengebiet des Gremiums deutlich vergrößert, behandelt werden unter anderem auch Kindesmissbrauch und Drogenhandel.
Davon verspricht sich die Kommission viel, wie sich an einer Passage des Strategiepapiers beispielhaft ablesen lässt: „Die Kommission wird mit Europol zusammenarbeiten, um die KI-gestützte Erkennung extremistischer Inhalte, gemeinsame Bedrohungsindikatoren und eine schnellere Zusammenarbeit zwischen Plattformen, Strafverfolgungsbehörden und Forschern zur Identifizierung KI-generierter Propaganda und koordinierter Radikalisierungskampagnen zu verbessern.“
Strategie zielt auf Online-Gaming
Stärker ins Visier sollen künftig Online-Gaming-Dienste geraten. Zum einen sollen im Rahmen des EU-Internetforums die Hersteller:innen von Spielen enger mit Strafverfolgungsbehörden kooperieren, um die Rekrutierung von Minderjährigen zu verhindern. Zum anderen soll Europol auf solchen Diensten Terror-Propaganda oder Anwerbungsversuche entdecken, monitoren und analysieren können.
Gerade im Gaming-Bereich könnte dies schnell zu Problemen führen, sagt Chloé Berthélémy von der Digital-NGO European Digital Rights (EDRi). „Wenn die Kommission den Einsatz von Hash-Datenbanken und automatisierter Inhaltserkennung und Uploadfiltern vorantreiben will, könnte sie das Risiko einer höheren Rate an Fehlalarmen erheblich unterschätzen“, so die Digitalexpertin.
Viele Online-Spiele würden Gewaltdarstellungen wie Schießereien enthalten, sagt Berthélémy. Es wäre sehr schwierig zu unterscheiden zwischen Spieler:innen, die einfach nur Spaß haben, und solchen, die andere für tatsächliche Gewalttaten zu rekrutieren versuchen. Automatisierte Filter seien jedoch dafür bekannt, den Kontext nur unzureichend zu berücksichtigen, der für diese Unterscheidung entscheidend ist.
Vor dem automatisierten Overblocking-Phänomen warnt auch die Grundrechte-Agentur in ihrem Bericht. Demnach könne Overblocking nicht zwangsläufig durch eine „ausreichend robuste menschliche Aufsicht“ kompensiert werden, da die menschliche Überprüfung von Inhalten, die von automatisierten Tools gemeldet wurden, aufgrund von „Faktoren wie Zeitmangel, fehlenden Sprachkenntnissen und unzureichenden Arbeitsbedingungen der Inhaltsmoderatoren eingeschränkt sein kann“.
Insgesamt würde dies viele Rechte von Online-Nutzer:innen beeinträchtigen. Zudem könnten sich vor allem Menschen betroffener Gruppen aus bestimmten gesellschaftlichen Auseinandersetzungen zurückziehen, heißt es im FRA-Bericht. „Ein solcher abschreckender Effekt (‚chilling effect‘) kann sehr große Menschengruppen betreffen und sich von der Meinungs- und Informationsfreiheit auf andere Rechte wie die Versammlungs- und Vereinigungsfreiheit ausdehnen“, mahnt die Grundrechte-Agentur.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Polizeibehörden reisen mit
Verschärfen will die Kommission zudem eine Reihe an Reisebestimmungen. So will sie verstärkt mit vertrauenswürdigen Drittländern zusammenarbeiten, um an biografische und biometrische Daten potenzieller Terrorist:innen zu gelangen. Diese Daten sollen in das Schengen Information System (SIS) einfließen – ungeachtet immer wieder auftretender Probleme mit dem System.
Auch innereuropäische Reisen sollen künftig besser nachvollzogen werden können. Schon heute werden Flüge und Fluggäste in der EU detailliert überwacht, der Kommission zufolge könnte dies auf andere Reisearten ausgeweitet werden. Um Schlupflöcher zu schließen, untersuche die Kommission derzeit, wie sich das bestehende Fluggastdaten-Modell auf See- und Landverkehr sowie auf Privatflüge erweitern lässt. Sollte eine derartige Regelung kommen, dürfte die Zahl der Fehlalarme drastisch ansteigen: Einer Studie zufolge werden jährlich mindestens 500.000 Personen zu Unrecht verdächtigt.
Lücken macht die Kommission auch bei der Nachvollziehbarkeit von Finanzströmen aus. Hierbei soll zunächst eine Studie „die notwendigen Maßnahmen zur Einrichtung eines künftigen EU-weiten Systems zur Erfassung von Finanzdaten für die Verfolgung von Terrorismusfinanzierung und Erträgen aus organisierter Kriminalität bewerten und festlegen“. Das System soll bis 2030 eingerichtet sein und Transaktionen innerhalb der EU und des einheitlichen europäischen Zahlungsverkehrsraums (SEPA), Kryptotransfers sowie Online-Überweisungen abdecken.
Einen besonders heiklen Punkt berührt das Strategiepapier nur kurz: den „rechtmäßigen Zugang zu Daten für Strafverfolgung“. Üblicherweise meint die Kommission damit den Zugriff auf verschlüsselte Inhalte, denn das Verschlüsseln digitaler Kommunikation führe zu einem „Going-Dark“-Problem. Wie es damit weitergehen soll, geht aus dem Papier nicht hervor. Allerdings betont die Kommission, ihren bereits feststehenden Fahrplan umsetzen zu wollen. Demnach soll es mehr Datenaustausch zwischen Ermittlungsbehörden geben, Europol soll mehr Daten entschüsseln, und KI-Tools sollen auf die Datenberge losgelassen werden, die bei Ermittlungen anfallen oder anderweitig in Polizei-Datenbanken landen.
Starren in die digitale Glaskugel
Auf diesen Trend, der auch hierzulande die Polizei erfasst hat, will die Kommission jedenfalls weiter setzen. Das Sammeln und KI-gestützte Analysieren von Daten durchzieht die gesamte Strategie, zudem sollen sich etwa vom EU-Projekt „Horizon Europe“ finanzierte Forschungsprojekte vermehrt mit Sicherheitsthemen beschäftigen. Die Richtung gibt die Strategie vor: „Zu den Forschungsschwerpunkten gehören Früherkennungsmethoden und Innovationen in Technologien wie KI.“
Allzu lange warten will die Kommission hierbei nicht. Sie kündigt an, konkrete Leitlinien zu verabschieden, um „Strafverfolgungsbehörden und Justiz bei der Verbesserung ihrer Fähigkeit zur Erkennung und Abwehr von Bedrohungen mithilfe zertifizierter, vertrauenswürdiger KI-Systeme für risikoreiche Anwendungen zu unterstützen und dabei die Grundrechte zu wahren. Die Strategie zur Anwendung von KI wird die Entwicklung und den Einsatz von KI-Lösungen für die innere Sicherheit weiter fördern“, heißt es in der Mitteilung.
Besonders der Fokus auf „Früherkennung“ bereitet der Digital-Aktivistin Berthélémy Sorgen. Üblicherweise laufen solche Ansätze auf „algorithmische Profilerstellung und vorhersagende Polizeisysteme“ hinaus, sagt sie. „Sie sind verheerend für Grundrechte, insbesondere für das Recht auf Privatsphäre, das Recht auf Nichtdiskriminierung und die Unschuldsvermutung.“ Darüber hinaus lenke die massive Investition öffentlicher Gelder in Sicherheitstechnologien wichtige Ressourcen von alternativen Maßnahmen ab, die sich als wirksamer erweisen könnten und gleichzeitig die Grundrechte achten würden.
„Die neue Strategie zur Terrorismusbekämpfung basiert auf der Annahme, dass KI-gestützte Tools zur Inhaltserkennung präzise und effektiv sind – was wissenschaftlich keineswegs belegt ist“, sagt Berthélémy. „Im Gegenteil, sie greifen massiv in Grundrechte ein, da sie häufig legitime Online-Inhalte fälschlicherweise als solche kennzeichnen, selbst wenn die Beurteilung auf Hashwerten beruht.“
Datenschutz & Sicherheit
Angriffe auf VMware Aria Operations beobachtet
Die US-amerikanische Cybersicherheitsbehörde CISA warnt vor beobachteten Angriffen auf eine Sicherheitslücke in VMware Aria Operations und auf Qualcomm-Prozessoren von Android-Geräten. Admins von VMware Aria Operations können sich mit dem Anwenden von Updates behelfen, für einige verwundbare Android-Geräte stehen ebenfalls Aktualisierungen bereit.
Weiterlesen nach der Anzeige
Die CISA hat die beiden attackierten Schwachstellen in der Nacht zum Mittwoch dieser Woche in den „Known Exploited Vulnerabilities“-Katalog (KEV) aufgenommen. Eine der Lücken betrifft die Qualcomm-Prozessoren von Android-Mobilgeräten. Darin können Angreifer einen „Speicherfehler bei Verwendung von Ausrichtungen (Alignments) für die Speicherallokation“ missbrauchen – solche Speicherfehler können oftmals zum Ausführen von eingeschleustem Schadcode führen (CVE-2026-21385, CVSS 7.8, Risiko „hoch“). Da die CISA keine Hinweise gibt, wie die Angriffe aussehen, ist jedoch unklar, in welchem Umfang die Attacken laufen. Auch Google hat den Missbrauch der Lücke zum Android-Patchday am Dienstag dieser Woche eingeräumt, aber auch hier fehlen jedwede Details. Die Lücken sollen die Android-Sicherheitspatch-Level 2026-03-01 sowie 2026-03-05 schließen.
Schwachstelle in VMware Aria Operations angegriffen
In der vergangenen Woche hatte Broadcom eine Warnung veröffentlicht, die Sicherheitslecks in VMware Aria Operations betraf. Die Software kommt auch in Cloud Foundation, Telco Cloud Platform, Telco Cloud Infrastructure und vSphere Foundation zum Einsatz, sodass auch diese verwundbar sind.
Die CISA meldet nun Angriffe auf eine Schwachstelle, die nicht authentifizierten Akteuren das Ausführen beliebiger Befehle und in der Folge von beliebigem Schadcode aus dem Netz in VMware Aria Operations ermöglicht. Die Software muss dazu jedoch im Status einer Support-unterstützten Produktmigration sein (CVE-2026-22719, CVSS 8.1, Risiko „hoch“). Unklar ist, ob die Angreifer die Software selbst in diesen Status bringen können. Broadcom hat die eigene Warnung aktualisiert und darin ergänzt, dass dem Unternehmen Berichte bekannt seien, denen zufolge die Lücke in freier Wildbahn attackiert werde. Es könne deren Wahrheitsgehalt jedoch nicht unabhängig prüfen. Admins sollten unabhängig von der Broadcom-Einschätzung die verfügbaren Aktualisierungen zügig anwenden, um die Angriffsfläche der eigenen IT-Infrastruktur zu reduzieren.
(dmk)
Datenschutz & Sicherheit
Bodycams an Rettungskräften sind überflüssig
Die Berliner Feuerwehr wird gerade zunehmend mit Bodycams ausgerüstet. Dabei halten die meisten der Einsatzkräfte das für eine richtig lausige Idee. Im Oktober 2024 erschien eine Auswertung zum Einsatz der am Körper getragenen Kameras in Berlin. Darin heißt es: „Die befragten Feuerwehrleute äußerten sich ganz überwiegend besorgt darüber, welchen Einfluss die Bodycam auf die Beziehung zu ihren Patient:innen hat, und stuften das neue Einsatzmittel deshalb mehrheitlich als kontraproduktiv ein.“
Menschen rufen den Notdienst in Extremsituationen, die oft mit Scham behaftet sind. Feuerwehrleute erhalten Einblick in körperliche und psychische Leiden und auch in die Lebensumstände derer, die sie gerufen haben. Sie haben ein Vertrauensverhältnis zu den Menschen, denen sie helfen. Wenn dann plötzlich eine Kamera dabei ist, kann das Angst und Ablehnung auslösen und die Hilfe erschweren, so die Argumentation der Feuerwehrleute.
Dennoch wurden 2025 für die Berliner Feuerwehr 700 Bodycams beschafft, 256 sind bereits im Einsatz. Für ihre Nutzung geschult wurden bereits 2.160 Mitarbeitende. Es ist zu erwarten, dass das Instrument weiter ausgerollt wird.
Keine Aufnahme relevant
Nun kam aber heraus: Das Tragen der Bodycams tut nicht das, was es soll. Mit den Geräten sollen Angriffe auf Einsatzkräfte dokumentiert werden. In 307 Fällen zeichneten Feuerwehrleute Situationen auf, keine einzige dieser Aufnahmen wurde in einer rechtlichen Auseinandersetzung relevant. Ein möglicher abschreckender Effekt auf potenzielle Gewalttäter*innen ist nicht belegt.
Das ergab eine Kleine Anfrage von Vasili Franco, innenpolitischer Sprecher der Grünen im Abgeordnetenhaus, die netzpolitik.org vorab vorliegt. Er sagt: „Obwohl die Berliner Bodycamstudie den Einsatz im Rettungsdienst eindeutig als kontraproduktiv bewertet hat, hält der Senat aus ideologischen Gründen daran fest.“
Auch die Berliner Polizei setzt Bodycams ein. 2025 hat das Land für Feuerwehr und Polizei zusammen 3.000 Bodycams für rund zwei Millionen Euro angeschafft.
Bodycams könnten theoretisch auch ein Werkzeug sein, um die Rechtmäßigkeit von Polizeieinsätzen zu überprüfen. Bislang liegt die Frage, ob die Bodycam aufzeichnet, allerdings im relativ freien Ermessen der Beamt*innen. Es wäre möglich, die Bodycam mit Sensoren zu verbinden, so dass sie automatisch anspringt, wenn Dienstpistole oder Taser gezückt werden, doch darauf verzichtet Berlin. Zu hoch seien die Kosten dafür.
Datenschutz & Sicherheit
Ausschuss stimmt gegen freiwillige Chatkontrolle
Die Ausnahmeregel, die Internet-Diensten eine freiwillige Chatkontrolle erlaubt, hat gestern einen Dämpfer bekommen. Die EU-Abgeordneten im Ausschuss für bürgerliche Freiheiten, Justiz und Inneres haben eine Verlängerung der Ausnahme-Verordnung gestern überraschend abgelehnt.
Eigentlich verbietet die Datenschutzrichtlinie für elektronische Kommunikation das Überwachen von Nachrichten ohne Einwilligung der betroffenen Nutzer. Seit 2021 erlaubt eine vorübergehende Ausnahme Anbietern eine freiwillige Chatkontrolle. Kommission und Rat wollen diese Ausnahme ein zweites Mal verlängern. Das Parlament verhandelt gerade seine Position.
Gleichzeitig verhandeln die EU-Gesetzgeber über die CSA-Verordnung. Dieses Gesetz ist ungleich wichtiger: Es wird dauerhaft gelten, es könnte Anbieter auch gegen ihren Willen verpflichten, eine Chatkontrolle durchzuführen, und es könnte auch verschlüsselte Kommunikation betreffen.
Den einen zu viel, den anderen zu wenig
Die Verhandlungen zur vorübergehenden freiwilligen Chatkontrolle finden vor diesem Hintergrund statt. Kommission, Rat und Konservative wollen die freiwillige Chatkontrolle wie bisher ohne Änderungen verlängern, bis das dauerhafte Gesetz in Kraft tritt.
Sozialdemokraten wollen die Dauer der freiwilligen Chatkontrolle begrenzen. Liberale, Grüne und Linken wollen die freiwillige Chatkontrolle auf Verdächtige begrenzen.
Die gestrige Abstimmung war dementsprechend kompliziert. Von 25 Änderungsanträgen wurden einige angenommen, andere nicht.
Ein Antrag, die Chatkontrolle auf bekannte Inhalte zu beschränken und Verschlüsselung zu schützen, fiel durch. Ein Antrag, die Dauer der Ausnahmeregel zu verkürzen, wurde ebenso abgelehnt. Ein Antrag, dass die Kommission jährlich Bericht erstatten muss, wurde angenommen. Ein Antrag, den Verhandlungen zur CSA-Verordnung nicht vorzugreifen und Verschlüsselung zu schützen, kam ebenfalls durch.
Mit diesen Änderungen war niemand vollständig glücklich. Den Rechten geht die Chatkontrolle nicht weit genug. Den Linken geht die Chatkontrolle zu weit.
Am Ende stimmten 38 Abgeordnete gegen den Kompromissvorschlag, 28 dafür, drei enthielten sich.
Vom Ausschuss ins Plenum
Dieses Ergebnis hat viele überrascht, auch im Parlament. Wir haben einige Abgeordneten-Büros und das Ausschuss-Sekretariat angefragt. Viele haben so eine Situation noch nicht erlebt. Wie der Prozess weitergeht, ist nicht ganz sicher.
Nach der Abstimmung im Ausschuss geht der Gesetzentwurf nächste Woche ins Plenum des Parlaments. Dort können alle Abgeordneten darüber abstimmen. Da der Entwurf jedoch im Ausschuss durchgefallen ist, wird der Ausschuss dem Plenum empfehlen, ebenfalls dagegen zu stimmen.
Einige zivilgesellschaftliche Akteure wünschen sich eine Ablehnung. Das ist jedoch nicht sehr wahrscheinlich. Immerhin argumentieren Befürworter wie Kommission, Rat und Tech-Unternehmen damit, dass die Chatkontrolle Kindesmissbrauch bekämpft – auch wenn die offiziellen Zahlen das nicht belegen können.
Die vorübergehende Ausnahme gilt bis zum 3. April. Gibt es bis dahin keine Einigung, ist die freiwillige Chatkontrolle wieder verboten. Das entspricht zwar dem Gesetz. Aber das wollen viele Akteure verhindern.
Konservative wollen Chatkontrolle
Viele Abgeordnete und Fraktionen werden ihre Strategie überdenken und anpassen. Vor allem die Konservativen wollen die Chatkontrolle, auch wenn sie im Ausschuss gegen den Kompromiss gestimmt haben.
Die Berichterstatterin für das Gesetz ist die deutsche Sozialdemokratin Birgit Sippel. Ihr Team arbeitet jetzt daran, doch noch eine Einigung für die vorübergehende freiwillige Chatkontrolle zu finden.
Nach dem Beschluss des Parlaments folgt der Trilog mit Kommission und Rat. Parallel dazu verhandeln die Institutionen über die dauerhafte und verpflichtende Chatkontrolle.
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Social Mediavor 2 TagenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
