Datenschutz & Sicherheit
HPE AutoPass License Server erlaubt Umgehung der Authentifizierung
Im HPE AutoPass License Server (APLS) haben IT-Sicherheitsforscher von Trend Micros Zero-Day-Initiative (ZDI) eine schwerwiegende Sicherheitslücke aufgespürt, die Angreifern Zugriff unter Umgehung der Authentifizierung erlaubt. Aktualisierte Software soll das richten.
Weiterlesen nach der Anzeige
Hewlett Packard Enterprise warnt in einem Support-Beitrag vor der Schwachstelle. Details finden sich dort nicht, HPE schreibt lediglich: „Eine potenzielle Schwachstelle wurde in HPE AutoPass License Server (APLS) entdeckt. Sie könnte aus der Ferne missbraucht werden und erlaubt die Umgehung der Authentifizierung“ (CVE-2026-23600, CVSS [v3.1] 7.3, Risiko „hoch“). Laut CVE-Eintrag landet die Einstufung nach CVSS4 jedoch bei 10.0 und somit der Risiko-Einstufung als „kritisch“.
HPE APLS-Lücke: Betroffene Systeme
Unter den betroffenen Systemen nennen die Autoren insbesondere die HPE StoreOnce Virtual Storage Appliance (VSA). HPE StoreOnce ist ein Cloud-Backup-System. Die virtuelle Appliance läuft dabei in einer virtuellen Maschine. Der HPE AutoPass License Server dient der Verwaltung und Verteilung von Softwarelizenzen. HPE hält sich bedeckt mit Informationen darüber, was Angreifer mit dem unbefugten Zugang anstellen können – aufgrund des Schweregrads der Lücke ist jedoch wahrscheinlich, dass sie das System kompromittieren und nicht lediglich die Lizenzverteilung selbst manipulieren können.
Die Sicherheitslücke soll laut der Autoren des Support-Beitrags in Version HPE AutoPass License Server (APLS) 9.19 oder neuer geschlossen sein. Diese steht auf einer eigenen Download-Seite zur Verfügung. IT-Verantwortliche sollten die aktuelle Fassung zügig installieren.
Vor etwa einem Monat wurden Schwachstellen in der Netzwerk-Verwaltungssoftware HPE Aruba Fabric Composer bekannt. Angreifer haben dadurch Schadcode auf verwundbare Instanzen geschoben und diese so kompromittieren können.
(dmk)
Datenschutz & Sicherheit
EU-Abgeordnete wollen sexualisierte Deepfakes verbieten

Der Skandal um Elon Musks Chatbot Grok im Januar hat gezeigt, wie groß das Problem von sexualisierten Deepfakes ist. Mit nur einem Klick erstellten Nutzer:innen hunderttausendfach unfreiwillige Nacktbilder von Frauen und Minderjährigen, die oft täuschend echt wirken. Fachleute bezeichnen das als digitale Gewalt.
Jetzt nutzen Abgeordnete im Europäischen Parlament den Moment, um eine rechtliche Lösung zu finden. Denn sie verhandeln aktuell den KI-Omnibus, ein Gesetz, das die KI-Verordnung der EU verändert. Das Parlament und die Mitgliedstaaten diskutieren dabei den Vorschlag der Kommission, können aber auch eigene neue Punkte einbringen.
KI-Systeme zur Erstellung von Nacktbildern seien in der aktuellen Liste der verbotenen Praktiken der KI-Verordnung nicht ausdrücklich aufgeführt – das sollte sich ändern, findet der Berichterstatter für den KI-Omnibus, Michael McNamara (Renew). Der liberale Abgeordnete äußerte den Vorschlag schon im Januar gegenüber Politico.
„Fahrlässig“ es nicht zu versuchen
Von Seiten des Parlaments als Gesetzgeber wäre es nach Ansicht von McNamara „fahrlässig“, nicht wenigstens die Möglichkeit zu prüfen, diese Deepfakes zu verbieten.
Gemeinsam mit anderen Abgeordneten seiner Fraktion setzt er sich für ein Verbot der erstellenden KI-Systeme ein, wie in den öffentlich einsehbaren Änderungsanträgen zum KI-Omnibus deutlich wird. Dort heißt es: Der wirksame Schutz von Frauen und Minderjährigen, die unverhältnismäßig stark betroffen seien, erfordere ein ausdrückliches Verbot solcher KI-Systeme.
„Der Grok-Skandal zeigt, wie leicht generative KI dazu missbraucht werden kann, um nicht einvernehmliche intime Bilder und sogar kindesmissbräuchliche Darstellungen zu erstellen“, sagt auch Brando Benifei (S&D), der als Schattenberichterstatter den KI-Omnibus verhandelt.
Die KI-Verordnung enthält zwar eine Pflicht zur Kennzeichnung von Deepfakes, die eigentlich ab August dieses Jahres gelten sollte, die Kommission will sie um sechs Monate verschieben. „Aber Transparenz verhindert nicht den Schaden“, meint Benifei.
Zwei mögliche Wege
Gemeinsam mit seinen Fraktionskolleg:innen schlägt er in den Änderungsanträgen zwei Optionen vor: Entweder könnten die Deepfakes im Artikel 5 der KI-Verordnung zu verbotenen KI-Anwendungen aufgenommen werden oder im Artikel 50, welcher die Transparenzpflichten für Anbieter beschreibt.
Bei der zweiten Option müssten Anbieter generativer KI-Systeme Schutzmaßnahmen implementieren, um die Erstellung sexualisierter Deepfakes („nicht einvernehmliche Nacktheit oder sexuell eindeutiges Verhalten“) ohne Zustimmung der Betroffenen zu verhindern.
Wichtig ist dem Italiener dabei, die erneute Öffnung des Gesetzes „so begrenzt wie möglich“ zu halten. Benifei war bei den Verhandlungen zur KI-Verordnung 2023 federführend gewesen.
Abgeordnete von Renew, der Linken und den Grünen befürworten ebenfalls, die Deepfakes in die Liste verbotener Praktiken aufzunehmen. Die Formulierungen variieren leicht je nach Fraktion. Der größte Unterschied ist der Aspekt der Zustimmung: Renew, S&D und die Linken wollen die Erstellung von Deepfakes ohne Zustimmung der Betroffenen verbieten.
Grüne wollen grundsätzliches Verbot
Die Grünen, die schon seit Januar ein Verbot von KI-gestützten „Entkleidungs-Apps“ fordern, wollen hingegen einen Schritt weiter gehen und die Erstellung von sexualisierten Deepfakes grundsätzlich verbieten. Damit wollen sie rechtliche Klarheit schaffen. Denn wie sollte ein Tool wissen, ob die Zustimmung einer betroffenen Person vorliegt?
Alle Vorschläge haben gemeinsam, dass sie die Unternehmen statt die Nutzer:innen in die Pflicht nehmen wollen.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
In der konservativen EVP ist man noch etwas zurückhaltend. Axel Voss ist ebenfalls Schattenberichterstatter für den KI-Omnibus. Er erklärt gegenüber netzpolitik.org: „Für uns ist klar: moralisch und ethisch sind solche Anwendungen höchst problematisch, insbesondere wenn Persönlichkeitsrechte verletzt werden.“
Ein Verbot könne richtig sein, entscheidend sei jedoch, ob es rechtlich wirksam, klar abgrenzbar und in allen Ländern der Europäischen Union einheitlich durchsetzbar ist. „Wenn ein Verbot ein effektives und rechtssicheres Mittel zur Unterbindung solcher Praktiken darstellt, unterstützen wir das“, meint Voss.
Darüber hinaus spricht sich die EVP-Abgeordnete Regina Doherty in den Änderungsanträgen dafür aus, die Nutzung von KI-Systemen zur Erstellung von kindesmissbräuchlichem Material zu verbieten.
Auch EU-Länder diskutieren Deepfakes
Im Parlament starten nun die Verhandlungen zwischen den verantwortlichen Abgeordneten. Wenn alles gut läuft, sollen die beiden verantwortlichen Ausschüsse für Verbraucher und für Justiz voraussichtlich am 18. März über einen Kompromisstext abstimmen. Parallel dazu arbeiten die Mitgliedstaaten an ihrer Position.
Wie Mlex berichtet, kommt das Thema in den bisherigen zwei Kompromisstexten der Ratspräsidentschaft zum KI-Omnibus nicht vor. Bei den Treffen der Arbeitsgruppe der Mitgliedstaaten sei es aber schon diskutiert worden. Spanien will ein Verbot erreichen, wie auch schon national, und wird laut Mlex von mehreren Mitgliedstaaten unterstützt, darunter Frankreich, Irland und Slowenien.
Bislang ist es in der EU strafbar, nicht-einvernehmliche, sexuelle Deepfakes zu verbreiten, nicht aber, sie zu erstellen. So sieht es die neue Richtlinie zur Bekämpfung von Gewalt gegen Frauen vor. Die Mitgliedstaaten haben noch bis Juni 2027 Zeit, sie national umzusetzen.
Die Digitalkommissarin Henna Virkkunen wies auf Nachfrage eines Journalisten vor einem Monat ebenfalls auf diese Richtlinie und die derzeitigen Diskussionen in den anderen EU-Institutionen hin. Außerdem sagte sie: „Wir prüfen derzeit, ob unsere Gesetzgebung klar genug ist oder wir etwas hinzufügen müssen.“
Datenschutz & Sicherheit
Patchday: Attacken auf Android-Smartphones beobachtet
Aufgrund von laufenden Attacken sollten Besitzer von Android-Smartphones die verfügbaren Sicherheitsupdates installieren. Diese Patches gibt es aber nur für Geräte, die sich noch im Support befinden.
Weiterlesen nach der Anzeige
Jetzt patchen!
Wie aus einer Warnmeldung hervorgeht, haben Googles Androidentwickler insgesamt knapp 140 Schwachstellen geschlossen. In dem Beitrag warnen die Entwickler auch vor laufenden Attacken auf eine Schwachstelle in einer Grafik-/Display-Komponente von Qualcomm. Die Lücke (CVE-2026-21385) ist mit dem Bedrohungsgrad „hoch“ eingestuft.
Was Angreifer nach einer erfolgreichen Attacke konkret anstellen können, ist bislang unklar. Unbekannt ist derzeit auch, in welchem Ausmaß die Angriffe ablaufen. Google schreibt von Attacken in „begrenztem Umfang“.
Weitere Gefahren
Die verbleibenden Sicherheitslücken betreffen das Framework, Kernel-Komponenten, das System und verschiedene Komponenten von Arm, Imagination, Qualcomm, MediaTek und Unisoc. Über „kritische“ Schwachstellen im Framework (Android 16-qpr2: CVE-2026-0047) und im System (Android 16: CVE-2026-0006, Android 14, 15, 16, 16-qpr2 CVE-2025-48631) können sich Angreifer höhere Rechte verschaffen oder Schadcode ausführen. Auch DoS-Attacken sind möglich.
Durch das erfolgreiche Ausnutzen der verbleibenden Lücken, die mit dem Bedrohungsgrad „hoch“ eingestuft sind, können sich Angreifer primär höhere Nutzerrechte aneignen. Es können aber auch Informationen geleakt werden.
Google versichert, die Schwachstellen mit den Patch Levels 2026-03-01 und 2026-03-05 geschlossen zu haben. In diesem Monat gibt es so viele Sicherheitsupdates, weil Google seit Juli 2025 monatlich nur noch nach ihrer Einschätzung nach besonders gefährliche Lücken schließt. Verbleibende Updates werden seitdem quartalsweise veröffentlicht.
Weiterlesen nach der Anzeige

Neben Google veröffentlichen noch weitere Hersteller regelmäßig Sicherheitspatches – aber meist nur für einige Produktserien. Geräte anderer Hersteller bekommen die Updates erheblich später oder, im schlimmsten Fall, gar nicht.
(des)
Datenschutz & Sicherheit
Polizei Berlin: Zahlreiche Verletzte durch Taser-Einsatz
Seit Mai 2024 sind in Berlin Distanzelektroimpulsgeräte, auch Taser genannt, im flächendeckenden Einsatz. 255 der Waffen nutzen die Polizist*innen, dazu kommt eine geheime Zahl von Tasern beim Berliner SEK. Der Taser wurde als polizeiliche Waffe neben Schlagstock, Pfefferspray und Pistole eingeführt.
Im Jahr 2025 haben Berliner Polizist*innen 62 Mal mit Tasern auf Menschen geschossen. Das sind deutlich mehr Fälle als noch im Jahr zuvor (49). Dabei wurden 58 Personen verletzt. Das sind fast doppelt so viele wie im Jahr zuvor (32). Das ergab eine Kleine Anfrage von Vasili Franco, dem innenpolitischen Sprecher der Grünen im Abgeordnetenhaus, die netzpolitik.org exklusiv vorliegt.
Franco sagt: „Dass mehr Tasereinsätze zu mehr Verletzten führen, scheint für die Innenverwaltung völlig irrelevant zu sein.“
Extreme Schmerzen
Bei der Nutzung eines Tasers werden zwei Elektroden abgeschossen, sie sollen sich in die Haut des Gegenübers bohren, woraufhin über Drähte, die daran hängen, Strom mit sehr hoher Spannung in das Opfer geleitet wird. Für gewöhnlich bricht es dadurch zusammen. Betroffene berichten von extremen Schmerzen.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Immer wieder sterben Menschen, nachdem sie getasert wurden. Besonders für Menschen mit Vorerkrankungen kann der Taser eine tödliche Waffe sein. In den USA sind allein zwischen 2000 und 2017 mehr als 1.000 Menschen bei Polizeimaßnahmen gestorben, in denen Taser eingesetzt wurden. Die Menschenrechtsorganisation Amnesty International kritisiert zudem den weltweiten Missbrauch der Elektro-Waffen (PDF).
Dennoch gilt der Taser im Vergleich zur Schusswaffe als milderes Mittel. Das zeigt sich auch daran, dass die Polizist*innen deutlich freizügiger damit umgehen. Die Hemmschwelle zum Taser-Einsatz ist vergleichsweise gering, was ein Missbrauchspotenzial mit sich bringt. Oft reicht angeblich auch schon die Drohung mit dem Taser, um eine Situation zu befrieden, allerdings drückten die Berliner Polizist*innen im vergangenen Jahr, wenn sie den Taser einmal gezogen hatten, in 42 Prozent der Fälle auch ab.
Normalisierung „erheblicher Gewaltanwendung“ befürchtet
Oft wird der Taser gegen Menschen in psychischen Ausnahmesituationen eingesetzt. Allein acht Menschen wurden 2025 in Berlin getasert, weil sie Suizid verüben wollten. In einem Fall wurde ein Mensch per Elektroschock niedergestreckt, weil er mit einer Krücke um sich schlug. In anderen Fällen reichte „wirkte bedrohlich“ oder „nahm nicht die Hände aus der Tasche, näherte sich“ oder „Versteifen des Körpers“ als Grund für den Taser-Einsatz.
Neben den gesundheitlichen Risiken sehen Experten wie der Strafrechtsprofessor Andreas Ruch, die Ausweitung des Einsatzes von Tasern als die große Gefahr. Er schreibt in einem Artikel im Verfassungsblog: „Weil bekannt ist, dass der Taser in einer Vielzahl von Fällen als Elektroschocker unmittelbar gegen den Körper von Personen gerichtet wird, um deren Willen zu beugen, ist außerdem zu befürchten, dass Beamte die Geräte künftig extensiv nutzen und sich damit eine Form erheblicher polizeilicher Gewaltanwendung schleichend normalisiert.“
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 TagCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
