Datenschutz & Sicherheit
Sicherheitspatch: Authentifizierung von SolarWinds Web Help Desk umgehbar
Mehrere Softwareschwachstellen bedrohen Systeme mit SolarWinds Web Help Desk. Nutzen Angreifer die Lücken erfolgreich aus, können sie Systeme im schlimmsten Fall vollständig kompromittieren. Eine reparierte Ausgabe steht zum Download bereit.
Weiterlesen nach der Anzeige
Mehrere Schwachstellen
In einem Beitrag zur gepatchten Version WHD 2026.1 sind unter anderem die Sicherheitslücken (CVE-2025-40536 „hoch“, CVE-2025-40537 „hoch“, CVE-2025-40551 „kritisch“, CVE-2025-40552 „kritisch“, CVE-2025-40553 „kritisch“, CVE-2025-40554 „kritisch“) aufgelistet. Admins sollten sicherstellen, dass sie die reparierte Ausgabe zeitnah installieren. Geschieht das nicht, könnten Angreifer nach erfolgreichen Attacken die volle Kontrolle über Systeme erlangen.
Über zwei kritische Schwachstellen können Angreifer Schadcode auf Hostsystemen ausführen. Die beiden verbleibenden kritischen Lücken betreffen die Authentifizierung, und Angreifer können etwa bestimmte Befehle ausführen, was eigentlich nur angemeldete Nutzer dürfen.
Wie Attacken im Detail ablaufen können, ist bislang nicht bekannt. Unklar ist auch, an welchen Parametern Admins bereits attackierte Systeme erkennen können. In der Warnmeldung gibt es derzeit keine Hinweise, dass Angreifer die Lücken bereits ausnutzen.
Weitere Reparaturen
Ferner haben die Entwickler in der aktuellen Ausgabe eigenen Angaben zufolge mehrere Bugs ausgemerzt. So komme es etwa in FIPS-Umgebungen nicht mehr zu Verschlüsselungsfehlern. Es gibt aber auch noch ungelöste Fehler. Derzeit ist der Linux- und macOS-Support wegen Next.js-Problemen nicht gegeben.
Zusätzlich haben die Entwickler das Interface grafisch überarbeitet. Die Auswahl der neuen Oberfläche ist optional.
Weiterlesen nach der Anzeige
(des)
Datenschutz & Sicherheit
JavaScript-Sandbox vm2: kritische Lücke erlaubt Ausbruch
vm2 ist eine JavaScript-Sandbox für Node.js. Deren Entwicklung wurde 2023 eigentlich eingestellt. In der Software wurde eine weitere Sicherheitslücke entdeckt, die den Ausbruch aus der gesicherten Umgebung und die Ausführung von beliebigem Code ermöglicht. Ein Update steht bereit.
Weiterlesen nach der Anzeige
In der Schwachstellenmeldung erklären die Autoren, dass die Filterung der Eingaben an die Callback-Funktionen von Promise.prototype.then und Promise.prototype.catch umgangen werden kann. Dadurch können Angreifer aus der Sandbox ausbrechen und eigenen Code starten (CVE-2026-22709, CVSS 9.8, Risiko „kritisch“). Während die Callback-Funktion von localPromise.prototype.then in „lib/setup-sandbox.js“ eine Filterung vornimmt, fehlt diese in globalPromise.prototype.then, erklären die Autoren weiter. Der Patch für die Datei ist recht übersichtlich und ergänzt die Filterung.
Die Version 3.10.2 von vm2 korrigiert den Fehler. Ein Proof-of-Concept-Exploit ist bereits verfügbar. Bösartige Akteure können die Lücke daher schnell in ihr Standard-Repertoire aufnehmen. Seit wenigen Tagen ist zudem die noch aktuellere Version 3.10.3 verfügbar. Die Korrekturen darin sollen ebenfalls etwa Ausbrüchen aus der Sandbox vorbeugen. Entwickler sollten daher auf diese Version aktualisieren, sofern sie noch vm2 einsetzen.
Beendetes Projekt wiederbelebt
Der Initiator des vm2-Projekts, Patrik Simek, hatte Mitte 2023 eigentlich das Ende des Projekts verkündet. Kurz zuvor wurde eine kritische Sicherheitslücke gefunden, für die keine Fehlerkorrektur programmiert wurde. Simek hatte daher Entwicklern empfohlen, stattdessen auf das ebenfalls quelloffene isolated-vm zu wechseln.
Bislang eher unbemerkt blieben neue Commits im Projekt von Ende Oktober 2025. Unter dem Titel „Resurrection“ hat Simek damit die Weiterentwicklung von vm2 mit Versionssprung auf 3.10 angestoßen. Während Simek sich ursprünglich deutlich zu den Gründen für das Aus geäußert hatte – die wachsende Komplexität von Node.js sei nicht mehr handhabbar –, finden sich keine Hinweise für die Motivation, nach mehr als zwei Jahren doch wieder weiterzumachen.
Wer bisher das Ende des Projekts nicht mitbekommen und daher eine veraltete, mit Sicherheitslücken gespickte Version von vm2 im Einsatz hat, sollte zügig auf die fehlerkorrigierte Fassung umsteigen.
Weiterlesen nach der Anzeige
(dmk)
Datenschutz & Sicherheit
Polizeigewerkschaft bebildert Pressemitteilung mit generiertem Schockerfoto
Beim einem Zweitligaspiel der Fußball-Männerteams des 1. FC Magdeburg und Dynamo Dresden am vergangenen Samstag gab es Ausschreitungen. Nach Polizeiangaben soll es 70 verletzte Polizisten gegeben haben. Der sächsische Landesverband der Gewerkschaft der Polizei (GdP) gab dazu eine Pressemitteilung heraus und bebilderte sie mit einem KI-generierten fotorealistischen Bild. Darauf zu sehen: ein blutender Polizist, der von zwei Kollegen gestützt wird.
Dieses Bild war klein mit dem Hinweis „KI: ChatGPT“ gekennzeichnet, erweckt aber auf den ersten Blick den Eindruck, dass dies ein echtes Bild sei. In sozialen Medien sorgte die Bebilderung für Empörung. So kritisierte der Forscher Daniel Mullis auf Bluesky: „Es ist das erste Mal, dass ich solche Bilder von seriösen Stellen sehe, die Ereignisse so darstellen, dass sie besser ins eigene Bild passen.“ Das sei nicht gut, der Deutsche Gewerkschaftsbund, in dem die Gewerkschaft Mitglied ist, dürfe hier nicht schweigen.
Polizeigewerkschaft: „Symbolische Illustration“
Auf Nachfrage, warum die Gewerkschaft hier ein solches Bild einsetze, hat der GdP-Landesvorsitzende Jan Krumlovsky netzpolitik.org geantwortet, dass das KI-generierte Bild als „symbolische Illustration“ eingesetzt worden sei. „Diese Entscheidung erfolgte bewusst, um auf das Thema Gewalt gegen Einsatzkräfte im Zusammenhang mit dem Fußballspiel aufmerksam zu machen, ohne reale Einsatzkräfte, Beteiligte oder konkrete Einsatzsituationen abzubilden“, so Krumlovsky weiter. Als Begründungen nennt der Polizeigewerkschafter den Schutz von Persönlichkeitsrechten, laufende Ermittlungen sowie den respektvollen Umgang mit betroffenen Kolleginnen und Kollegen.

Krumlovsky betont, dass das Bild als KI-generiert gekennzeichnet ist. „Es sollte keine dokumentarische Abbildung eines realen Ereignisses darstellen, sondern der thematischen Einordnung dienen“, so der Gewerkschafter weiter. Für die Gewerkschaft sei entscheidend, dass der Einsatz von Illustrationen – unabhängig davon, ob sie KI-generiert oder auf andere Weise erstellt sind – transparent erfolge und keinen dokumentarischen Anspruch erheben würde.
DJV: „Immer ein Grund, hellhörig zu werden“
Unabhängig davon würde die GdP Sachsen die internen Abläufe im Umgang mit KI-generierten Inhalten „weiter präzisieren“, insbesondere bezüglich Kennzeichnung und Kontextualisierung. Nach unserer Presseanfrage hat die Polizeigewerkschaft noch einen weiteren Hinweis auf das generierte Foto unter dem Text angebracht und expliziter in der Quellenangabe den Zusatz „KI-generiert“ ergänzt. Das Bild selbst nutzt sie weiter.
Der Bundesvorsitzende des Deutschen Journalisten-Verbands Mika Beuster kommentiert gegenüber netzpolitik.org: „KI-Fotos sind immer ein Grund, hellhörig zu werden.“ Journalist:innen, aber auch die Öffentlichkeit, sollten sich immer kritisch fragen, warum auf KI-Material zurückgegriffen wird, so Beuster weiter. Der Verband spreche sich zudem bei der Nutzung von KI-generierten Bildern für größtmögliche Transparenz aus.
Der Fotojournalist Kai Schwerdt kritisierte bei Bluesky: „Auch wenn das Bild als KI-generiert gekennzeichnet ist, finde ich es bedenklich, wenn die Gewerkschaft der Polizei (GdP) solche Bilder zu dramaturgischen Zwecken einsetzt. Es ist eine bewusste Abkehr von der Realität. Als wäre die nicht schon übel genug.“
Datenschutz & Sicherheit
Kommission empfiehlt Abbau von Grundrechten
Der Sozialstaat stehe vor einem „digitalen Neustart“. Das verkündete Bundesarbeitsministerin Bärbel Bas (SPD), als sie am Dienstag den Abschlussbericht der „Kommission zur Sozialstaatsreform“ entgegennahm.
Die Kommission empfiehlt insgesamt 26 Maßnahmen, um den Sozialstaat zu „modernisieren“. Sie sollen das Sozialleistungssystem vereinheitlichen, mehr „Erwerbsanreize“ für Leistungsbeziehende schaffen und rechtliche Vorgaben vereinfachen.
Das Schutzniveau des Sozialstaats werde dadurch nicht gesenkt, betonte Bas. Stattdessen zielten die Empfehlungen darauf ab, den Leistungsvollzug effizienter zu machen. Vor allem die Empfehlungen zur Verwaltungsdigitalisierung wertet die Ministerin dahingehend als „Quantensprung“.
Tatsächlich droht aber gerade hier ein Abbau elementarer Schutzvorkehrungen. Denn die Kommission will unter anderem den Datenschutz aufweichen und Verfahren weitgehend automatisiert „auch unter Nutzung von Künstlicher Intelligenz“ beschleunigen. Wohlfahrtsverbände befürchten, dass ohnehin benachteiligte Menschengruppen zusätzlich diskriminiert werden.
Plattformbasierte Modernisierung mit Sozialportal
Der Kommission gehörten Vertreter:innen des Bundes, der Länder und der Kommunen an. Vertreter:innen aus der Wissenschaft oder der Zivilgesellschaft waren in dem Gremium nicht vertreten. Es führte aber Gespräche mit insgesamt 90 Expert:innen und Interessenvertreter:innen unterschiedlicher Verbände und Sozialpartner.
Für eine „konsequente Ende-zu-Ende-Digitalisierung“ strebt die Kommission quasi im Backend eine „technisch sichere und souveräne Technologieplattform für Bund, Länder und Kommunen“ mit einheitlichen Standards und Schnittstellen an. Die Basiskomponenten dafür soll der Deutschland-Stack liefern, das Prestigeprojekt des Bundesdigitalministeriums.
Im Frontend sollen Bürger:innen alle Leistungen gebündelt über ein zentrales „Sozialportal“ einsehen sowie Anträge stellen und Bescheide abrufen können. Der Sozialstaat soll für sie so „transparenter und leichter zugänglich“ werden.
Behördenübergreifender Datenaustausch
Damit Verwaltungen leichter untereinander Daten austauschen können, sollen sie behördenübergreifend die steuerliche Identifikationsnummer nutzen. Diese lebenslang gültige Personenkennziffer erhalten alle Bürger:innen vom Bundeszentralamt für Steuern bei Geburt.
Schon die Ampel-Regierung hatte geplant, die Steuer-ID dazu zu nutzen, um Verwaltungsdaten zusammenzuführen. Jurist:innen und Datenschützer:innen kritisieren die Einführung einer solchen Personenkennzahl unter anderem mit Bezug auf das Volkszählungsurteils des Bundesverfassungsgerichts als verfassungswidrig.
Darüber hinaus spricht sich die Kommission dafür aus, das sogenannte Once-Only-Prinzip konsequent umzusetzen. Es sieht vor, dass Bürger:innen ihre Antragsdaten nur noch einer Behörde mitteilen, die diese dann an andere Behörden weitergeben kann.
Der „komplexe“ Sozialdatenschutz
Dafür müsse der Gesetzgeber aber zum einen den „komplexen Sozialdatenschutz“ aufweichen. Konkret empfiehlt die Kommission, entsprechende Regelungen im Ersten und im Zehnten Buch Sozialgesetzbuch zusammenzuführen. Zum anderen müsse dafür der Ersterhebungsgrundsatz reformiert oder gar gestrichen werden – sofern dies „mit dem verfassungsrechtlich verankerten Recht auf informationelle Selbstbestimmung vereinbar wäre“.
Der Ersterhebungsgrundsatz sieht vor, dass personenbezogene Sozialdaten grundsätzlich direkt bei der betroffenen Person selbst erhoben werden müssen und nicht etwa beim Arbeitgeber. Betroffene Person können so derzeit selbst darüber entscheiden, ob und wie ihre Daten preis- und weitergegeben werden.
Mehr KI, weniger Kontrolle
Darüber hinaus will die Kommission Verwaltungsverfahren mit dem Einsatz sogenannter Künstlicher Intelligenz beschleunigen. Auf diese Weise will sie auch den „sich verschärfenden Fachkräfteengpässen“ begegnen.
So sollen „rein regelgebundene Prozesse ohne Ermessens- und Beurteilungsspielraum“ künftig „weitgehend automatisiert ablaufen“. Damit sind Verwaltungsprozesse gemeint, bei denen ein Sachverhalt formal auf klare Voraussetzungen geprüft wird – also etwa ob eine Frist eingehalten wurde oder ein:e Antragssteller:in ein bestimmtes Alter erreicht hat.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Aber auch bei Ermessensentscheidungen soll KI verstärkt zum Einsatz kommen – allerdings nur „unterstützend“, wie der Bericht betont. Die Entscheidungen müssten „in menschlicher Hand“ verbleiben. Zugleich spricht sich die Kommission dafür aus, das sogenannte Vier-Augen-Prinzip einzuschränken. Es sieht vor, dass mindestens zwei Behördenmitarbeitende gemeinsam einen Sachverhalt prüfen.
Wohlfahrtsverbände warnen vor KI-Einsatz
Der Paritätische Wohlfahrtsverband sieht diese Empfehlungen „überaus kritisch“. „Auch ‚unterstützende‘ KI kann systematische Benachteiligung verstärken“, schreibt der Verband auf Anfrage von netzpolitik.org. „Besonders gravierend ist die fehlende Transparenz vieler KI‑Modelle und die Gefahr, soziale Feinheiten auszublenden.“ Das Vier-Augen-Prinzip sei „ein unverzichtbarer Schutzmechanismus im Sozialstaat“ und insbesondere bei KI-gestützten Verfahren wichtig. „Hier brauchen wir mehr Kontrolle, nicht weniger“, so der Verband.
„Nachvollziehbarkeit und Transparenz müssen zu jeder Zeit gewährleistet sein“, mahnt auch der Arbeiterwohlfahrt Bundesverband. Er verweist auf Forschungsergebnisse, wonach Algorithmen dazu neigen, ohnehin benachteiligte Menschengruppen weiter zu diskriminieren. „Sofern der Ermessensspielraum nicht zugunsten der Bürgerinnen und Bürger genutzt wird, muss deshalb immer durch eine qualifizierte Person entschieden werden“, schreibt die Arbeiterwohlfahrt.
Selbst dann seien die Risiken aber noch immer hoch, sagt die Bundestagsabgeordnete Sonja Lemke (Die Linke). Diverse Studien und Umfragen hätten gezeigt, dass Menschen KI-Ergebnissen recht blind vertrauten. „Daher besteht die Gefahr, dass Ermessensentscheidungen, die von der KI unterstützt werden, am Ende faktisch allein von der KI getroffen werden – mit allem Bias, rassistischen und sexistischen Vorurteilen, die in ihr stecken“, so Lemke gegenüber netzpolitik.org. „Das ist Politik auf Kosten derjenigen, die existenziell von Sozialleistungen abhängig sind.“
„Commitment“ oder Grundgesetzänderung
Die Kommission drängt auf eine rasche und einheitliche Umsetzung ihrer Empfehlungen. Bund, Länder und Kommunen müssten bundesweit geltende Vorgaben festlegen. Dazu zählen einheitliche Datenformate, Schnittstellen und IT-Dienste.
Dafür brauche es insbesondere ein „Commitment“ der Kommunen, betonte die Arbeitsministerin am Dienstag im ARD-Morgenmagazin. Nicht jede Kommune könne künftig ihre eigene Software behalten, so Bas.
Gelingt eine solche Einigung nicht, spricht sich die Kommission dafür aus, Artikel 91c des Grundgesetzes so anzupassen, dass „durch zustimmungspflichtige Bundesgesetze Standards, Sicherheitsanforderungen und Komponenten verbindlich festgelegt werden können“. Dafür braucht die schwarz-rote Koalition allerdings mindestens eine Zwei-Drittel-Mehrheit im Bundestag – und damit die Unterstützung der Linkspartei oder der AfD.
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
