Connect with us

Datenschutz & Sicherheit

Was plant die EU-Kommission bei KI und Datenschutz?


Drei Personen in formellen Setting sprechen und scherzen miteinander
Offenbar auf einer Linie: Ursula von der Leyen, Emmanuel Macron und Friedrich Merz Ende Oktober in Brüssel. – Alle Rechte vorbehalten IMAGO / Anadolu Agency

Offiziell will die EU-Kommission mit ihrem gestern vorgestellten Omnibus-Paket eine Reihe europäischer Digitalgesetze in Einklang bringen. Das soll nach eigener Aussage vor allem kleinen und mittelständischen Unternehmen sowie europäischen Start-ups helfen.

Durch Bürokratieabbau, Vereinfachung der EU-Rechtsvorschriften und einen besseren Datenzugang „schaffen wir Raum für Innovationen und deren Vermarktung in Europa“, sagt die zuständige Kommissionsvizepräsidentin Henna Virkkunen. „Dies tun wir auf europäische Art und Weise: indem wir sicherstellen, dass die Grundrechte der Nutzer:innen in vollem Umfang geschützt bleiben.“

Vor allem die deutsche und die französische Regierung haben sich jüngst für weitgehende Änderungen und Deregulierung eingesetzt. Aber auch die US-Regierung hat in den vergangenen Monaten den Druck auf die EU und ihre Mitgliedsländer erhöht, die europäischen Standards bei den Datenschutz- und Verbraucherschutzrechten zu senken.

Wir beantworten die zentralen Fragen zum „Digitalen Omnibus“: Welche kritischen Veränderungen strebt die Kommission bei der Regulierung von sogenannter Künstlicher Intelligenz an? Inwiefern will sie den Datenschutz aufweichen? Und verschaffen weniger Cookie-Banner den Nutzer:innen mehr Rechte?

Was plant die EU-Kommission mit Blick auf die KI-Verordnung?

  • Die Kommission will die Umsetzung eines Teils der KI-Verordnung um fast eineinhalb Jahre nach hinten schieben. Das betrifft vor allem die sogenannten Hochrisiko-Systeme. Konkret geht es um zwei Fristen.
  • Erstens beim Einsatz bestimmter KI-Anwendungen, wie sie im Anhang III der KI-Verordnung definiert sind. Das betrifft Systeme, die etwa in Beschäftigungsverhältnissen, bei der Migrationskontrolle oder bei biometrischer Videoüberwachung zum Einsatz kommen.
    • Die ursprüngliche Frist für die Umsetzung dieser Regeln war der 2. August 2026. Nun sollen Unternehmen sechs Monate mehr Zeit erhalten, die hier genannten Anforderungen umzusetzen.
    • Zunächst aber muss die Kommission die hierfür erforderlichen Standards finalisieren. Das muss sie nun bis Juni 2027 tun, damit die Regeln, wie von der Kommission angekündigt, ab Dezember 2027 gelten können.
  • Zweitens verschieben sich die Umsetzungsfristen für hochriskante KI-Systeme etwa im Medizin-, Justiz- oder Maschinenbereich. Deren Vorgaben finden sich in Anhang I der KI-Verordnung. Solche Anbieter sollen die Vorgaben sogar erst ab Dezember 2028 einhalten.
  • In beiden Fällen will die Kommission die Regulierung offenkundig verzögern, damit europäische Anbieter im KI-Wettlauf aufholen können. Ebendies hatten Vertreter:innen der deutschen und der französischen Regierung auch auf dem „Gipfel zur Europäischen Digitalen Souveränität“ betont. Dabei geht die Kommission mit ihrem Vorschlag noch über die Forderungen der deutschen und französischen Regierung hinaus. Sie hatten eine Verzögerung von 12 Monaten gefordert. Als Begründung dafür gab Henna Virkkunen an, dass die Kommission die notwendigen Standards noch nicht ausgearbeitet habe.

Warum sollen KI-Systeme mit personenbezogenen Daten ohne Einwilligung trainiert werden dürfen?

  • In den vergangenen Jahren gab es wiederholt einen Aufschrei, wenn Unternehmen wie Meta oder LinkedIn entschieden, die Daten ihrer Nutzer:innen für das Training von KI-Modellen zu nutzen, ohne die Einwilligung ihrer Nutzer:innen einzuholen. Die Kommission will klarstellen, dass dies rechtmäßig ist.
  • Die Datenschutzgrundverordnung (DSGVO) sieht unterschiedliche Rechtsgrundlagen für die Verarbeitung von personenbezogenen Daten vor. Neben der Einwilligung, die Nutzer:innen den stärksten Schutz bieten soll, gibt es zum Beispiel auch das sogenannte berechtigte Interesse. Datenverarbeiter:innen müssen hierbei in einer Abwägung zu dem Schluss kommen, dass ihre Interessen die der Nutzer:innen überwiegen, müssen diesen aber eine Widerspruchsmöglichkeit anbieten.
  • Genau das haben Meta, LinkedIn und Co. getan – und die Widerspruchsmöglichkeit dabei so umständlich gestaltet, dass sie möglichst wenige Leute nutzen können.
  • Dagegen hatte die Verbraucherzentrale NRW mit einem Eilantrag beim Oberlandesgericht Köln geklagt und verloren. Zuvor hatte bereits der Europäische Datenschutzausschuss den Weg für KI-Training auf Basis des berechtigten Interesses geebnet.
  • Die EU-Kommission will diese Lesart nun gesetzlich festschreiben. Zum Schutz der Nutzer:innen soll es Informations- und Widerspruchsmöglichkeiten geben.
  • Das Problem: Einige Datenschutzexpert:innen kritisieren das „legitime Interesse“ als Rechtsgrundlage schon seit langem, unter anderem, weil die Risiken nicht absehbar seien. KI-Firmen könnten in der Regel nicht sagen, wessen Daten verarbeitet werden und ob dabei besonders geschützte sensible Daten eingeflossen seien, schrieb etwa Jura-Professorin Paulina Jo Pesch in einem Gastbeitrag auf netzpolitik.org.
  • Die EU-Kommission begründet den Freifahrtschein für das Training und den Betrieb von KI-Modellen damit, dass Europa im KI-Wettrennen aufholen soll und europäischen Firmen mehr Innovationen ermöglicht werden müsse. Der KI-Markt wird jedoch von großen Tech-Firmen aus den USA dominiert, sodass vor allem diese von dem Schritt profitieren dürften. Auf Nachfrage bei einer Pressekonferenz am Mittwoch konnte die Kommission nicht erklären, wie die Maßnahme europäischen Unternehmen beim Aufholen helfen soll.

Auf Crash-Kurs mit digitalen Grundrechten

Inwiefern will die Kommission die Datenschutzgrundverordnung einschränken?

  • Die Kommission will pseudonymisierte Daten überwiegend nicht mehr als personenbezogene Daten definieren und vom Schutz durch die DSGVO ausnehmen. Solche Ausnahmen soll es künftig etwa dann geben, wenn es unwahrscheinlich ist, dass der Datenverarbeiter eine betroffene Person über ihre Daten identifizieren kann.
  • Pseudonymisierung meint in der Regel, dass Daten keine direkten Identifikationsmerkmale wie den Namen oder die Telefonnummer einer Person enthalten. Stattdessen werden Pseudonyme vergeben, etwa individuelle IDs.
  • Das Problem: Anders als bei einer Anonymisierung ist es bei der Pseudonymisierung oft leicht möglich, die betroffene Person zu re-identifizieren. Wir haben das erst jüngst in der Databroker-Files-Recherche vorgeführt, bei der wir von Datenhändlern kostenlos Millionen Standortdaten aus Belgien erhielten. Die Daten enthielten keine Namen, sondern waren lediglich pseudonymen Werbe-IDs zugeordnet. So konnten wir die einzelnen Standorte zu Bewegungsprofilen zusammensetzen und mit einfachen Mitteln hochrangiges Personal der Europäischen Union identifizieren und ausspionieren.
  • Die EU-Kommission beruft sich bei ihrem Vorschlag auf ein Urteil des Europäischen Gerichtshofs. Dieser hatte die Definition personenbezogener Daten in der Vergangenheit mehrfach weit ausgelegt. Im September 2025 entschied er erstmalig, dass Pseudonymisierung dazu führen kann, dass diese Definition, was personenbezogene Daten sind, enger gefasst wird.
  • Kritiker:innen wenden ein, dass die Kommission mit ihrem Vorschlag weit über das Urteil des EuGH hinausgeht und zudem vorherige Rechtsprechung zur weiten Auslegung des Personenbezuges ignoriert.
  • Die Datenschutzorganisation noyb kritisiert zudem, dass der vorgeschlagene „subjektive Ansatz“, bei dem von Fall zu Fall entschieden wird, ob pseudonymisierte Daten personenbezogen sind, zu Chaos führen und Datenschutz verhindern werde. Das sei wie ein Waffengesetz, das nur dann gelte, wenn der Besitzer einer Waffe freiwillig sage, dass er damit jemanden erschießen wolle. Es drohten deshalb endlose Debatten darüber, was die tatsächlichen Möglichkeiten und Absichten eines Unternehmens zur Re-Identifikation sein könnten. Die DSGVO wäre dann kaum noch durchsetzbar.
  • Auch die Fraktionen der Sozialdemokraten, Liberalen und Grünen im Europaparlament warnten vor der Änderung. „Diese Definition schafft erhebliche Rechtsunsicherheit und große Lücken für Unternehmen und würde den Anwendungsbereich der Verordnung drastisch einschränken. Es stellt sich die Frage, ob die Verordnung dann überhaupt noch Adressaten hätte“, schrieben etwa führende sozialdemokratische Abgeordnete.

Was schlägt die Kommission zu Cookies vor?

  • Cookie-Banner gelten als Symbol für den gescheiterten Datenschutz im Netz. Unternehmen dürfen das Online-Verhalten von Menschen eigentlich nur tracken, wenn diese freiwillig und informiert zugestimmt haben. Cookie-Banner lassen Nutzer:innen aber oft weder eine freie Wahl, noch informieren sie sie ausreichend über das Tracking. Dabei kann eine Einwilligung hier weitgehende Folgen haben, denn Tracking-Firmen sehen sie als Freifahrtschein, um uns komplett zu durchleuchten, in Kategorien zu stecken und unsere Daten an Databroker zu verschleudern.
  • Die Kommission will der Cookie-Banner-Flut und der „Zustimmungsmüdigkeit“ bei den Nutzenden begegnen und „den Weg für automatisierte und maschinenlesbare Angaben zu individuellen Präferenzen und deren Berücksichtigung durch Website-Anbieter ebnen, sobald entsprechende Standards verfügbar sind“.
  • Konkret bedeutet das: Browser, Apps, Betriebssysteme oder Einwilligungsmanager sollen Signale an Websites senden, die individuelle Entscheidungen der Nutzenden übermitteln, ob diese Cookies annehmen oder ablehnen wollen.
  • Website-Anbieter sollen rechtlich verpflichtet werden, diese Signale zu akzeptieren und maximal alle sechs Monate erneut nachzufragen, ob man nicht doch Tracking-Cookies akzeptieren möchte.
  • Ausgenommen von dieser Regel sollen Medienanbieter (media service providers) sein – „angesichts der Bedeutung des unabhängigen Journalismus in einer demokratischen Gesellschaft und um dessen wirtschaftliche Grundlage nicht zu untergraben“.
  • Die Kommission schlägt zudem vor, dass die Mitgliedsstaaten diese Regeln durch nationale Gesetze aushebeln können.

Warum sollen Unternehmen aus Sicherheitsgründen auf unsere Geräte zugreifen dürfen?

  • Technisch gesehen geht es bei Cookies darum, dass andere (kleine) Dateien auf unseren Rechnern und Telefonen speichern und auslesen dürfen. Dieser Zugriff auf den Speicher kann auch anderen Zwecken als Werbe-Tracking dienen. Für einige davon will die EU-Kommission eine Art Freifahrtschein ausstellen, etwa für das Erstellen von Besucherstatistiken, für das Bereitstellen von angefragten Diensten oder für Sicherheitszwecke.
  • Es wäre dann klargestellt, dass es beim Setzen von Cookies oder anderweitigem Zugriff auf den Gerätespeicher für diese Zwecke keine vorherige Einwilligung braucht.
  • Die Datenschutzorganisation noyb sieht vor allem die weitgehenden Befugnisse für Sicherheitszwecke kritisch, weil nicht klar genug definiert ist, was damit gemeint ist und weil Unternehmen Sicherheitsgründe vorschieben könnten: „Während die allgemeine Richtung der Änderungen verständlich ist, ist die Formulierung extrem freizügig und würde auch exzessive „Durchsuchungen“ von Nutzergeräten zu (winzigen) Sicherheitszwecken erlauben.“

Wie sollen Betroffenenrechte eingeschränkt werden?

  • Auch eine zentrale Errungenschaft der DSGVO kommt unter Druck: die Betroffenenrechte. Anträge auf Auskunft, Berichtigung oder Löschung von Daten sollen künftig abgelehnt werden können, wenn sie „missbräuchlich“ seien. Die Ausübung dieser Rechte soll nur noch gestattet sein, wenn sie „Datenschutzzwecken“ dient.

Kehrtwende für die „Innovationsführerschaft“

Wie fallen die Reaktionen aus?

  • European Digital Rights (EDRi), die Dachorganisation europäischer Digital-NGOs, lässt kein gutes Haar am Vorschlag der EU-Kommission. Dieser berge die Gefahr, ein „über Jahrzehnte hinweg mühsam aufgebautes regelbasiertes System zu zerstören“. Dadurch würden „die Grundlagen von Menschenrechten und der Digitalpolitik in der EU gefährdet“.
  • Auch der Datenschutzexperte Max Schrems und seine Organisation noyb bekräftigen ihre Kritik an den Plänen. Sie warnen: Die EU-Kommission wolle „Kernprinzipien der DSGVO zerstören“.
  • Vom deutschen Verbraucherzentrale Bundesverband kommt ebenfalls Kritik. „Statt unter dem Deckmantel von Entbürokratisierung Verbraucherschutz und Grundrechte abzubauen, muss die EU für klare Regeln sorgen und gleichzeitig das bestehende Schutzniveau erhalten“, sagt Verbandsvorständin Ramona Pop. „Mit ihren Plänen setzt die EU jedoch das Vertrauen der Verbraucherinnen und Verbraucher aufs Spiel.“
  • Industrieverbände zeigen sich hingegen eher erfreut – sowohl über den deutsch-französischen Vorstoß in dieser Woche als auch über die Gesetzesvorschläge der Kommission. Der Bundesverband Digitale Wirtschaft etwa befürchtet allerdings auch neue Komplexität statt Vereinfachung.
  • Und der Branchenverband Bitkom e. V. verlangt, „mehr Mut, Bürokratie und Überregulierung drastisch zu reduzieren“. Zugleich fordern Bitkom und der Verband der Automobilwirtschaft, die DSGVO grundsätzlich zu überarbeiten.

Was hat die Kommission auf den letzten Metern gestrichen?

  • Nicht mehr enthalten ist ein Vorschlag, Online-Tracking auf Basis anderer Rechtsgrundlagen als der Einwilligung zu ermöglichen. Dies hätte bedeutet, dass Tracking-Firmen das Online-Verhalten von Menschen auch ohne Einwilligung auf Basis ihres „berechtigten Interesses“ hätten rechtfertigen können.
  • Der geleakte Zwischenentwurf sah vor, dass die Vorgaben des Artikel 9 der Datenschutzgrundverordnung aufgeweicht werden. Durch diesen Artikel sind Daten besonders geschützt, aus denen die „ethnische Herkunft, politische Meinungen, religiöse oder weltanschauliche Überzeugungen oder die Gewerkschaftszugehörigkeit hervorgehen“. Außerdem gehört dazu „die Verarbeitung von genetischen Daten, biometrischen Daten zur eindeutigen Identifizierung einer natürlichen Person, Gesundheitsdaten oder Daten zum Sexualleben oder der sexuellen Orientierung einer natürlichen Person“. Diese sensiblen Daten hätten enger definiert werden sollen. Besonders geschützt wären dann nur noch jene Daten gewesen, die die genannten Informationen explizit offenbaren. Das ist nun offenbar erst einmal vom Tisch.

Wie geht’s jetzt weiter?

  • Der Omnibus nimmt nun den normalen Weg der EU-Gesetzgebung. Die Vorschläge der Kommission werden also unter den 27 EU-Staaten im Rat sowie im Europäischen Parlament diskutiert. Die einzelnen Institutionen kommen zu eigenen Positionen und müssen sich im Anschluss im sogenannten Trilog-Verfahren einigen.
  • Die EU-Kommission macht bei ihren Vereinfachungsvorhaben allerdings ordentlich Druck. Statt wie üblich Jahre soll die Beratung am besten nur wenige Monate in Anspruch nehmen.
  • Im Parlament wird bereits Kritik am digitalen Omnibus laut. So haben Sozialdemokraten und Grüne bereits angekündigt, gegen die Aushöhlung des Datenschutzes zu stimmen. Nach der gestrigen Vorstellung der Vorschläge positionierte sich auch die Linke dagegen.
  • Allerdings könnte die konservative EVP-Fraktion erneut mit Stimmen der extremen Rechten wie bereits beim ersten Omnibus-Paket am 13. November eine Mehrheit bilden und auch dieses Gesetzespaket durchwinken.



Source link

Datenschutz & Sicherheit

Degitalisierung: Entfremdung



Unsere Erfindungen sind meistens niedliche Spielsachen, die unsere Aufmerksamkeit von ernsten Dingen ablenken. Sie sind nur verbesserte Mittel zu einem unverbesserten Zweck – zu einem Zweck, der auf die einfachste Weise von vornherein hätte erreicht werden können.

Sparsamkeit, Walden oder Leben in den Wäldern, Henry D. Thoreau

Die heutige Degitalisierung wird sich in dieser Zeit mit dem tieferen Sinn hinter allerlei Digitalisierungsbemühungen, im Speziellen sogenannter Künstlicher Intelligenz, beschäftigen müssen. Dass KI jetzt wieder Thema sein muss, ist auch mir inzwischen selbst nervig, aber genau diese permanente Durchsetzung in jeglichen Bereichen des Arbeits- und inzwischen auch Privatlebens braucht leider immer eine klare Thematisierung. Im Wesentlichen soll es aber auch um die Entfremdung gehen, die wir gerade durchleben.

Den Ton für diese Kolumne setzt dazu ein gewisser Henry Thoreau, der in Walden die einleitenden Worte in einer Blockhütte ab 1845 im Wald ersann. Quasi als eine Art Aussteiger oder Einsiedler, der sich schon im 19. Jahrhundert vom Fortschritt der Industrialisierung eine Auszeit nahm und im Wald über die Welt nachdachte.

Im 19. Jahrhundert befand sich Thoreau inmitten des ersten Maschinenzeitalters und brauchte eine Pause im Wald. Ein emotionales Bedürfnis, das allzu viele im Bereich der Informationstechnologie in den letzten Jahren immer wieder selbst verspürt haben dürften. Denn heute befinden wir uns quasi im zweiten Maschinenzeitalter, dem der Künstlichen Intelligenz, das auch kognitive Arbeitskontexte erfassen wird.

Üblicherweise sind solche Momente in der Geschichte aber auch weitere Gelegenheiten zur Entfremdung. Zur Entfremdung von sinnvollen Zwecken, für die all diese neue Technik genutzt werden könnte. Zur Entfremdung vor allem für „einfache“ Arbeitende. Nicht zum ersten Mal.

Marx und Manchesterkapitalismus

Entfremdung bzw. entfremdete Arbeit ist ein zentrales Konzept im Werk von Karl Marx. In der Zeit der ersten Industrialisierung hat Marx eine vierfache Entfremdung des arbeitenden Individuums in Bezug auf seine Arbeit attestiert. Nach Marx geschieht diese Entfremdung zwischen dem arbeitenden Individuum und dem Kapitalisten zum einen auf Ebene des Produkts der eigenen Arbeit, weil das Produkt der Arbeit ja gar nicht mehr dem Individuum selbst gehört, sondern anderen. Die Entfremdung geschieht auch auf der Ebene der Tätigkeit, die keine eigenen Bedürfnisse mehr befriedigt und auch keine freie und bewusste Tätigkeit mit der Umwelt oder Gesellschaft ermöglicht. Letztlich entfremdet sich der Mensch vom Menschen selbst.

In die Zeit der Industrialisierung und von Marx fällt auch eine Phase des besonders auf die Interessen von Unternehmen ausgerichteten Kapitalismus, des sogenannten Manchesterkapitalismus. Eine Zeit, in der vor allem in Großbritannien, aber nicht nur dort, Kinderarbeit, lange Arbeitszeiten von bis zu 14 Stunden, Hungerlöhne, Armut und das Fehlen jeglicher sozialer und gesundheitlicher Schutzmaßnahmen etwa bei Arbeitsunfällen vollkommen normal waren. Gewerkschaften oder politische Interessenvertretungen wurden lange Zeit unterdrückt. Die Lage trotz all des vermeintlichen technischen Fortschritts für einen Großteil der Bevölkerung elend.

Gebessert hat sich die Lage ein wenig erst durch Gesetze zum Arbeitsschutz, etwa durch das Festlegen von maximalen Arbeitszeiten und durch das schrittweise Verbot von Kinderarbeit, zumindest für Kinder unter 12.

Nur scheint sich im zweiten Maschinenzeitalter vieles, was wir eigentlich aus der Geschichte gelernt haben sollten, wiederholen zu müssen. Denn im modernen Techkapitalismus droht sich sowohl die Entfremdung als auch das Elend auf die gleiche, wenn auch an diese Zeit angepasste, Art und Weise zu wiederholen. In beiden Industrialisierungen geht es auch immer um Maschinen, in der Industrialisierung etwa um Dampfmaschinen und Webstühle, in der KI-Industrialisierung um massive Rechenzentren.

Musk und Techkapitalismus

Eines der ersten wirklich riesigen, auf KI spezialisierten Rechenzentren, ist Colossus von xAI, einem Unternehmen, das von Elon Musk gegründet wurde. Colossus war zu seiner Eröffnung Mitte 2024 der damals wohl schnellste Supercomputer der Welt.

Im Hype um KI wird immer wieder von den weltverändernden Möglichkeiten von Künstlicher Intelligenz gesprochen. Medikamente können schneller entwickelt werden, indem Proteine besser modelliert werden können. Wetter kann besser vorhergesagt werden. Das wäre vielleicht sogar ein sinnhafter Einsatz von KI. Nur forciert Musk den „vermeintlich freien“ Einsatz von KI für ganz andere Zwecke und damit auch von Supercomputern wie Colossus.

Grok, der Chatbot von xAI, flutet seit einiger Zeit den ehemals relevanten Kurznachrichtendienst Twitter, jetzt unter Musks Eigentümerschaft X genannt, mit massenhaft sexualisierten Deepfakes. Die Diskussion nahm in den letzten Tagen zu. Der selbst nicht ganz widerspruchsarme Kulturstaatsminister Wolfram Weimer bezeichnete das als eine „Industrialisierung der sexuellen Belästigung“. Die ansonsten eher seriös aufbereitete Financial Times illustrierte die Plattform X wegen der Ereignisse als eine Deepfake-Pornoseite, deren Mitarbeitende dort als eine Ansammlung von Clowns in einem Zirkuszelt dargestellt wurden.

Der typische techkapitalistische Einsatz dieser Tage führt also ebenfalls zu einer mehrfachen Entfremdung. Menschen oder Künstler*innen, die ihrer Werke und möglichen Einnahmen daraus beraubt werden, sei es bei Texten, Bildern, Illustrationen, Musik oder Filmen. Menschen, die im Sinne von digitalem Kolonialismus für KI-Modelle abartigen Content labeln und sortieren müssen. Menschen, die sich bei dieser Tätigkeit fühlen, als würde ihr Leben enden. Gigantomanische Rechenzentren, die in den nächsten Jahren Musks Colossus locker um das fast Zehnfache übertreffen werden und sich dabei in keinster Weise um die Auswirkungen auf Umwelt und Gesellschaft scheren. Energiebedarfe, die bis in den Gigawattbereich reichen, was dem Energiebedarf US-amerikanischer Großstädte wie Los Angeles entspricht. Ein Energiehunger, der mit zusätzlichen fossilen Energiequellen oder Atomreaktoren gestillt werden muss – bei denen aber die Entsorgung des Atommülls vollkommen unklar sind.

Dazu entfremdet sich auch noch das Finanzsystem immer weiter von der Realität überhaupt noch tragbarer Geschäftsmodelle. Moral ist dabei sowieso egal: Musks xAI sammelt weiter fleißig Geld ein und verbrennt es gleich wieder. Zuletzt fremdeln Anbieter von KI-Lösungen mit dem Konzept von Verantwortung für ihr eigenes Handeln. Hersteller von Chatbots zahlen lieber stillschweigend bei Gerichtsverfahren im Hintergrund Vergleiche, um nicht öffentlich in der Verantwortung für die Konsequenzen ihrer Produkte haften zu müssen.

Auf der anderen Seite starten Akteure wie OpenAI aber KI-Assistenten für die eigene Gesundheit – natürlich auf eigene Gefahr der Nutzenden.

Währenddessen wachsen die Rechenaufwände und die dafür notwendigen Rechenzentren in ihren Anforderungen immer weiter. Anwendungsfälle, die für die Menschheit von irgendeinem nachhaltigen Nutzen wären, werden aber damit kaum umgesetzt. Der Großteil der Rechenleistung wandert in Sprachmodelle, Videogeneratoren und Vision-Modelle. Eingesetzt als eher niedliche Spielsachen, ohne sich aber um ernste Dinge wie den Klimawandel oder die gesellschaftliche Ungleichheit zu scheren.

Grenzen und Wachstum

In manchen Momenten muss die fortschreitende KI-Industrialisierung aber immer wieder mit erstrebenswerten Zukunftsvisionen dargestellt werden, um sie weiter am Leben zu halten, teils geradezu mit marxistisch anmutenden Elementen.

Sam Altman, CEO von OpenAI, versprach etwa 2024 ein Grundeinkommen für alle – wenn denn bald GPT-7 superintelligent sein solle. 2024 veröffentlichte OpenResearch eine von Altman mitfinanzierte Studie zur Wirkung eines bedingungslosen Grundeinkommens, deren Erkenntnisse durchaus unterschiedlich interpretiert wurden.

Altmans Einsatz für ein Grundeinkommen sollte aber nicht ohne seine eigenen Hintergedanken interpretiert werden. Aufgrund des geradezu kannibalistischen Verbrauchs von Ressourcen, die Systeme wie die von OpenAI aufweisen, muss Altman zumindest irgendeine Vision anbieten, die seine Maschinerie am Leben halten kann. Aber Altman ist ein Betrüger, immer wieder.

Das Wachstum der KI-Branche wird aktuell gerade etwas gebremst durch das Erreichen des Limits von produzierbaren Rechenressourcen wie Arbeitsspeicher oder aus dem Internet aufgesaugten Inhalten. LLMs auf der anderen Seite zerstören gerade aktiv ihre eigenen aufgesogenen Inhalte, wie etwa im aktuellen Beispiel des Open Source CSS-Frameworks Tailwind, das in dieser Woche massive Entlassungen wegen KI offenlegte.

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

In der finanziellen Realität ist aber auch der KI-Primus OpenAI bei seinem Geschäftsmodell schon längst bei Überlegungen zu Erotikinhalten und Werbung angekommen. Dabei sind in die KI-Branche bereits bis 2024 Investitionen gesteckt worden, von denen mehrere Mondprogramme und Manhattan-Projekte finanziert hätten werden könnten.

Bei all diesen Anlässen für Entfremdung ist aber die Frage: Was sind die Alternativen? KI als Teil des Rentensystems? Das ist bei techkapitalistischen Unternehmen, die von der EU geradezu mit Samthandschuhen angefasst werden, schwerlich vorstellbar.

Entfremdung und Rebellion

Ein möglicher Weg aus dieser Entfremdung ist in Thoreaus Worten vom Anfang zu finden. KI in der heutigen Form sind oftmals nur verschlimmbesserte Mittel zu einem kapitalistischen Zweck mit all den schlimmen negativen Konsequenzen.

Politisch wird jetzt vielleicht gefordert, dass es „europäische KI“ brauche mit „europäischen Werten“. Im Wesen von aktuellen KI-Systemen sind aber, ganz gleich welcher Herkunft diese sind, Elemente angelegt, die sich nicht von dieser Technologie trennen lassen. KI ist eine konservative Technologie, sie begünstigt wenige Kapitalisten oder Faschisten immens, bringt einer Mehrheit nur wenige Vorteile und diskriminiert Minderheiten, sei es durch Bias oder schweren Zugang zu aktueller digitaler Technik. Darüber hinaus bleibt die erratische Art des Handelns ein Wesensbestandteil dieser Systeme.

Der Weg aus der Entfremdung ist zuallererst die Erkenntnis, dass KI und die Versprechungen, die sie bringen soll, oftmals aus einer überaus beschränkten Sichtweise kommen. Häufig findet das mittlere oder obere Management in den niedlichen KI-Spielzeugen die vermeintliche Lösung für viele Probleme.

Zu wenig Pflegepersonal im Krankenhaus? Lässt sich bestimmt mit KI-unterstützten Apps für Schichtplanung und Gig Economy „lösen“. Macht die Situation aber nur schlimmer. Zu wenig Geld im Gesundheitssystem? Muss nur mit digitalen Tools besser geleitet werden, am liebsten noch mit Kontaktgebühren. Am besten wäre es doch, gleich die Krankenkassen mit KI tagesaktuell auf Behandlungsdaten agieren zu lassen.

All diese durch KI unterstützten Lösungsvorschläge sind oftmals nur elitäre Projektionen. Lösungen, die nur für einen Teil von Problemen eines Themenbereichs funktionieren und aus Sicht des Managements damit die Lösung für alle Probleme sein müssten, es aber nicht sind.

Die technologische Entfremdung entsteht nicht durch diejenigen, die unrealistische Versprechungen mittels KI machen und verkaufen wollen. Versprechungen wie die einer Superintelligenz, die jetzt 2026 nur noch ein Problem entfernt sei, was eigentlich 2024 schon hätte kommen sollen.

Die technologische Entfremdung des digitalen Maschinenzeitalters entsteht durch zu viele Käufer*innen im Management von Unternehmen, im Gesundheitswesen oder in Verwaltungen [€], die diesen Versprechungen trotz ihrer überzogenen Vorhersagen und trotz ihrer negativen Konsequenzen weiter hinterherlaufen.

Die Frage ist nicht, ob KI in aktueller Form sinnvolle Anwendungen hat. Die Frage ist, ob wir uns als Gesellschaft erst noch einmal jahrelang entfremden müssen, um dann zu erkennen, dass wir vieles aus den Verheißungen von Digitalisierung und KI auch auf einfache oder andere Weise hätten erreichen können – ganz ohne die destruktiven Einflüsse des aktuellen Techkapitalismus.



Source link

Weiterlesen

Datenschutz & Sicherheit

Die Woche, in der Politiker*innen auf X den Deepfakes zusahen



Liebe Leser*innen,

in der zweiten Woche des Jahres hat uns unter anderem die anhaltende Tatenlosigkeit zum Chatbot Grok beschäftigt. Seit wir am Mittwoch über Musks polemische Reaktion und die leeren Worte der Sprecher*innen von X berichtet haben, geht die Woche ohne nennenswerte Reaktion der dort Verantwortlichen zu Ende.

Dafür hielt der Freitag ein Update des Chatbots bereit: Die Bildgenerierung von Grok ist nun nur noch zahlenden Abonnent*innen vorenthalten und steht nicht mehr allen Menschen auf der Plattform X zur Verfügung. Laut den Medienberichten ist das Tool aber noch über die Grok-App und -Website verfügbar. In Zukunft heißt es dann einfach: Wer in Musks dicke Tasche einzahlt oder einen kleinen Umweg nimmt, kann weiter sexualisierte Deepfakes verbreiten.

Die Frage bleibt, wie lange Regulierungsbehörden noch bei so etwas zusehen oder ob sie doch irgendwann in Aktion treten.

In den vergangenen Tagen war besonders Kritik aus Frankreich und Großbritannien gegenüber X laut zu hören. Der britischen Kommunikationsbehörde Ofcom steht inzwischen frei, Sanktionen gegen xAI und Grok zu verhängen. Laut des britischen Online Safety Act ist als letzter Schritt sogar eine Sperre von X möglich.

Die EU-Kommission geht einen anderen Weg. Sie hat am Donnerstag bei Musks Unternehmen angewiesen, dass dieses interne Dokumente und Daten zu Grok bis Ende 2026 aufbewahren muss. Zu einem späteren Zeitpunkt könnte dann eine Untersuchung beginnen.

Politiker*innen hängen zu sehr an der Plattform

Das eigentlich Verwunderliche an dieser neuen Episode des Absturzes der einstigen Informationsplattform ist jedoch die eher achselzuckende Reaktion von Abgeordneten, Bundesministerien und auch der EU-Kommission. Sie posten einfach weiter auf der Plattform X, als sei in den vergangenen Jahren, Monaten und Wochen nichts passiert.

Sie tun so, als habe Musk nicht X um eine funktionierende Moderation beraubt, als habe es keine Eingriffe des Milliardärs in Wahlkämpfe zu Gunsten rechter Parteien gegeben, als sei X noch eine normale Plattform und nicht ein Instrument zum Pushen rechtsradikaler Narrative geworden. Nun kommt also sexualisierte digitale Gewalt direkt aus Musks Chatbot dazu – und Ministerien und Abgeordnete berufen sich auf eine angebliche Informationspflicht, die sie quasi zum Bleiben auf der Plattform zwinge. Dabei gibt es seit Musks Plattformübernahme zahlreiche bekannte Stimmen und Institutionen, die einfach Schluss mit X gemacht haben.

Wir haben Bundestagsabgeordnete, zwei deutsche Ministerien und die EU-Kommission gefragt, warum sie immer noch auf X aktiv sind: Mehr Lavieren als in diesen Antworten geht kaum.

Euch ein schönes Wochenende mit Schneespaziergängen statt X

Laura

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Immer wieder wird Chatbot-Herstellern vorgeworfen, die Sicherheit von Kindern und Jugendlichen zu gefährden. In fünf Fällen wollen Character Industries und Alphabet die Klagen mit Geld aus der Welt schaffen. Damit sorgen die Unternehmen dafür, dass es weiterhin keinen Präzedenzfall gibt, nach dem Techunternehmen für ihre KI-Chatbots rechtliche Konsequenzen tragen müssen.

Lesen Sie diesen Artikel: KI-Hersteller entschädigen Familien



Source link

Weiterlesen

Datenschutz & Sicherheit

Kritische Lücke in Automatisierungstool: n8n erlaubt Codeschmuggel


Die No-Code-Automatisierungslösung n8n erfreut sich großer Beliebtheit, erlaubt sie doch auch Programmieranfängern, mit einem grafischen Werkzeug komplexe Abläufe einzurichten, API-Anfragen zu stellen und LLMs automatisiert zu nutzen. Vier kritische Sicherheitslücken, eine davon gar mit der Maximalwertung von 10 Punkten, verleiden Systemverwaltern jedoch aktuell die Freude an dem Werkzeug. Experten sind uneins, wie kritisch die Lücke ist.

Weiterlesen nach der Anzeige

Wenn Sicherheitslücken mit griffigen, möglichst gruselig klingenden Namen auftauchen, ahnt der geneigte Leser oft nichts Gutes, so auch bei „Ni8mare“. So nannte die Sicherheitsfirma Cyera den Fehler mit der CVE-ID CVE-2026-21858 und stufte ihn als kritisch ein – nebst CVSS-Maximalwertung von 10. Sobald ein per n8n erstelltes Webformular aus dem Web zugänglich ist, sei es Angreifern möglich, beliebige Dateien des n8n-Servers auszulesen.

Doch eine neue Analyse der Lücke durch Horizon3.ai relativiert das Risiko: Zwar sei die Sicherheitslücke tatsächlich vorhanden und aus der Ferne ausnutzbar, doch gebe es mehrere Vorbedingungen, die bei keinem Kunden des Unternehmens erfüllt seien. So fehle es meist an einer Möglichkeit, die gewonnenen Daten zu exfiltrieren. Admins sollten ihre n8n-Instanzen flicken, Panik sei jedoch unangebracht.

Zusätzlich zu „Ni8mare“ gibt es noch „N8scape“ (CVE-2025-68668, CVSS 9,9, kritisch), eine bereits in der Weihnachtszeit publizierte Lücke, die angemeldeten Nutzern ungeplant erlaubt, Python-Code auf dem n8n-Hostsystem auszuführen. Dafür müssen sie jedoch ausreichend Berechtigungen besitzen, um Arbeitsabläufe zu erstellen oder zu verändern. Ebenfalls ungeplante Codeausführung bietet CVE-2027-21877 (CVSS 9,9, kritisch).

Die aktuell größte Gefahr geht jedoch von einer Lücke aus, die gar nicht als kritisch ausgewiesen ist: CVE-2025-68613 stellt zwar mit einem CVSS-Punktwert von 8,8 „nur“ eine „hohe“ Gefahr dar, lässt sich aber mit „Ni8mare“ verknüpfen, wie ein „Proof of Concept“-Exploit (PoC) beweist. Setzt man diesen auf eine verwundbare n8n-Instanz an, so lassen sich nicht nur Dateien des Hostsystems auslesen, sondern zusätzlich beliebige Systemkommandos ausführen (Remote Code Execution, RCE). Die abwiegelnde Analyse von Horizon3.ai mag also für „Ni8mare“ allein stimmen, erweist sich aber im Zusammenspiel mit einer zusätzlichen Sicherheitslücke als trügerisch.


PoC für n8n-Lücke CVE-2026-21858 + CVE-2025-68613

PoC für n8n-Lücke CVE-2026-21858 + CVE-2025-68613

Bin ich drin? Das war ja einfach! Dieser Exploit verkettet zwei Sicherheitslücken zur Codeausführung bei n8n, hier in einem Docker-Container.

Weiterlesen nach der Anzeige

Wer n8n auf eigenen Systemen einsetzt, etwa als Docker-Container, sollte direkt ein Update auf Version 2.0.0 erwägen. Zwar sind einige der kritischen Sicherheitslücken auch in Versionen des 1.x-Baums behoben, doch dessen Produktunterstützung endet bald: Am 15. März 2026 ist Schluss, drei Monate nach Veröffentlichung von n8n 2.0.0.

Neben den vier kritischen Lücken finden sich in der Sicherheitslücken-Übersicht auf GitHub weitere Sicherheitsprobleme, die in den letzten Tagen und Wochen bereinigt wurden.

n8n ist eine deutsche Start-up-Erfolgsgeschichte. Das Projekt gewann kürzlich mit einem Zuwachs von 112.400 GitHub-Sternen im Jahr 2025 die „Rising Stars“ des beliebtesten JavaScript-Projekts, die dahinterstehende n8n GmbH gilt nach einer neunstelligen Finanzspritze als „Einhorn“ mit einer Bewertung von 2,5 Milliarden US-Dollar.


(cku)



Source link

Weiterlesen

Beliebt