Künstliche Intelligenz
EuGH stärkt Datenschutz: Pseudonymisierung allein reicht nicht immer
Der Europäische Gerichtshof (EuGH) hat in einem am Donnerstag verkündeten Urteil klargestellt, dass pseudonymisierte Daten auch dann als personenbezogene Informationen gelten können, wenn sie an Dritte übermittelt werden. Die Entscheidung betrifft einen Fall zwischen dem Einheitlichen Abwicklungsausschuss (SRB), einer EU-Agentur für die ordnungsgemäße Abwicklung von insolvenzbedrohten Finanzinstituten, und dem EU-Datenschutzbeauftragten (EDSB), Wojciech Wiewiórowski. Sie dürfte weitreichende Konsequenzen für den Umgang mit Daten im digitalen Raum entfalten.
Vor der Auseinandersetzung wollte der SRB nach der Abwicklung des spanischen Finanzhauses Banco Popular Español herausfinden, ob ehemalige Anteilseigner und Gläubiger Anspruch auf Entschädigung haben. Dafür holte er in einem Anhörungsverfahren Stellungnahmen von den Betroffenen ein. Anschließend übermittelte die Behörde diese Stellungnahmen in pseudonymisierter Form an das Beratungsunternehmen Deloitte, das sie mit einer Bewertung beauftragt hatte. Mehrere Betroffene beschwerten sich daraufhin beim EDSB, weil sie nicht über die Weitergabe ihrer Daten informiert worden waren.
Wiewiórowski kam zu dem Schluss, dass der SRB seine Informationspflicht verletzt habe. Er sah Deloitte als Empfänger von personenbezogenen Daten an und verlangte, dass die Betroffenen über die Weitergabe in Kenntnis gesetzt werden. Der SRB klagte daraufhin gegen die Entscheidung des EDSB und bekam vor dem Gericht der Europäischen Union (EuG) recht. Dieses befand, die Aufsicht hätte prüfen müssen, ob die Daten auch aus Sicht von Deloitte personenbezogen seien.
Informationspflicht bei Datentransfer
Gegen dieses Urteil legte Wiewiórowski Berufung ein – und der EuGH schlug sich in der Rechtssache C-413/23 P nun auf seine Seite. Er hob das Urteil der niederen Instanz auf und verwies den Fall an diese zurück. Der Gerichtshof stützt seine Entscheidung auf drei zentrale Punkte: Er stellte klar, dass persönliche Meinungen und Ansichten, die in den Stellungnahmen ausgedrückt wurden, zwangsläufig eng mit der Person verknüpft sind. Das EuG habe sich geirrt, als es verlangte, dass der EDSB den Inhalt und Zweck der Stellungnahmen genauer prüfen müsse, um die Personenbeziehbarkeit festzustellen.
Ferner bestätigte die Berufungsinstanz, dass pseudonymisierte Daten nicht automatisch als nicht-personenbezogen gelten. Die Identifizierbarkeit hängt ihr zufolge von den jeweiligen Umständen ab. Es muss geprüft werden, ob andere Personen als der Datenverantwortliche subjektiv die betroffene Person tatsächlich identifizieren können. Der Wirtschaftsrechtler Alexander Golland interpretiert das andererseits so: Werden pseudonymisierte Daten übermittelt, handele es sich aus Sicht des Empfängers grundsätzlich um anonyme Informationen.
Wichtigster Punkt des Urteils ist, dass die maßgebliche Sichtweise für die Beurteilung der Identifizierbarkeit die des Datenverantwortlichen – hier: des SRB – zum Zeitpunkt der Datenerhebung ist. Die Informationspflicht entsteht, bevor die Daten an Dritte weitergegeben werden. Es spielt also keine Rolle, ob die Informationen für Deloitte nach der Pseudonymisierung noch personenbezogen waren. Der SRB hätte die Betroffenen bereits vor der Übermittlung über die geplante Weitergabe informieren müssen, unabhängig davon, ob diese Daten für den Empfänger noch identifizierbar waren oder nicht.
Pseudonymisierung ist nicht Anonymisierung
Das Urteil stärkt die Position des EDSB und betont, dass die Verantwortung für den Schutz personenbezogener Daten hauptsächlich beim primär Verarbeitenden liegt. Unternehmen und Behörden können sich nicht darauf berufen, dass Daten nach einer Pseudonymisierung für Dritte nicht mehr identifizierbar seien, um ihrer Informationspflicht zu entgehen. Der EuGH unterstreicht so die Wichtigkeit von Transparenz im Umgang mit Daten. Er zeigt, dass die Pseudonymisierung eine wichtige Datenschutzmaßnahme ist. Dieses technische Hilfsmittel allein reicht aber nicht aus, um die Rechte der betroffenen Personen zu wahren.
Schon 2016 entschied der EuGH auf Klage des Juristen und Aktivisten Patrick Breyer hin: Pseudonymisierte Daten – wie eine dynamische IP-Adresse – sind nicht automatisch anonym. Solange die Möglichkeit besteht, die Identität der Person durch „zusätzliche Informationen“ wiederherzustellen, bleiben die Informationen personenbezogen. Die entscheidende Frage ist, ob der Datenverantwortliche über die Mittel zur Re-Identifizierung verfügt. Dies schließt auch die Option der Zusammenarbeit mit Dritten wie Internetprovidern oder Behörden ein.
(mho)
Künstliche Intelligenz
Defektgefahr: Datenretter raten zu Backups von älteren WD-Festplatten
Einige ältere Festplatten des Herstellers Western Digital sollen anfällig für Ausfälle sein, die durch die Aufzeichnungstechnik und die Firmware der betroffenen Platten begünstigt werden. Sie alle haben eine Gemeinsamkeit: Sie setzen auf die Aufzeichnungstechnik Shingled Magnetic Recording (SMR). Dabei überlagern sich die Datenspuren wie Dachschindeln, um die Kapazität zu erhöhen. Das wiederum erfordert eine komplexe Firmware, die stets protokolliert, wo sich welche Daten befinden, um die Leseköpfe korrekt zu positionieren. Hier kann es offenbar zu Fehlern kommen, die schließlich zum Ausfall führen.
Weiterlesen nach der Anzeige
Über das Problem berichtete zunächst 030 Datenrettung Berlin. Die Firma nennt 14 betroffene WD-Festplatten mit Kapazitäten von 2 bis 6 TByte aus den Baureihen Blue, Red und Purple, die WD für PCs, NAS und Videoüberwachungssysteme empfiehlt. Nur die Purple-Modelle werfen Fragezeichen auf, weil WD dort laut eigenen Angaben auf SMR-Technik verzichtet. Besonders blöd für frühere Kunden: Bei den Red-Modellen verschwieg WD lang den Einsatz von SMR-Technik.
Wir haben uns das grundlegende Problem von zwei weiteren Datenrettungsfirmen bestätigen lassen: Attingo und Data Reverse.
Betroffene WD-Festplatten gehören zu einer intern VeniceR genannten Plattform. Modelle mit mehr Kapazität sollen kein grundlegendes Problem aufweisen.
(Bild: 030 Datenrettung Berlin)
„Ein sich selbst verstärkender Prozess“
Demnach ist das Problem unter Datenrettern schon seit 2021/2022 bekannt. 030 beschreibt es ausführlich in einem Blog-Beitrag: SMR-Festplatten verwenden einen sogenannten Secondary Translator, der alle Schreibvorgänge protokolliert. Das Überschreiben eines einzigen Datensektors kann demnach rund 10.000 Änderungen in diesen Übersetzungstabellen auslösen.
„Jede dieser Änderungen ist eine potenzielle Fehlerquelle. Ein Stromausfall im falschen Moment, eine kleine Erschütterung während des Schreibvorgangs oder auch nur die normale Alterung des Datenträgers, all das kann zu Inkonsistenzen in der Service Area der Festplatte und insbesondere in den Translationstabellen führen“, heißt es.
HDD-Controller erkennen Inkonsistenzen in den Tabellen und versuchen automatisch, diese zu korrigieren. Das kann kritisch werden, wenn etwa ein Schreib-/Lesekopf in einer Festplatte erste Alterserscheinungen zeigt und gelegentlich falsche Daten liefert.
Weiterlesen nach der Anzeige
030 führt in einem solchen Fall aus: „Die Controller-Logik interpretiert diese fehlerhaften Daten als beschädigte Übersetzungstabellen und versucht, sie zu ‚reparieren‘. Dabei überschreibt sie jedoch korrekte Daten mit falschen ‚Korrekturen‘. Das Ergebnis: Ein sich selbst verstärkender Prozess, der die Firmware immer weiter korrumpiert, bis die Festplatte schließlich komplett ausfällt.“
Backups, Backups, Backups
Markus Häfele, Chef des Datenrettungs-Anbieters Attingo, erklärte im Gespräch mit heise online, dass das kein grundlegender Firmware-Fehler ist, sondern eine Begleiterscheinung der SMR-Technik in den betroffenen HDDs. Meistens bahnen sich die Ausfälle demnach durch beginnende Lesefehler an. Teilweise können sie aber auch plötzlich auftreten, etwa durch Erschütterung.
Spätestens, wenn eine Festplatte hörbar klackert, ist Eile geboten. Das Geräusch entsteht durch korrumpierte Firmware-Daten, die zu inkonsistenten Bewegungen der Schreib-/Leseköpfe führen.
Datenretter empfehlen spätestens hier, alle Daten auf anderen Datenträgern zu sichern. In den meisten Fällen können sie über spezielle Software zwar die Daten retten, allerdings ist das bei den betroffenen SMR-Modellen ein extrem langwieriger und potenziell teurer Prozess: Acelab-Software etwa hat einen sogenannten Technological Mode, der den Übersetzungs-Layer umgeht und die grundlegenden Daten kopieren kann. Die Lesegeschwindigkeit ist aber derart langsam, dass der Vorgang Tage bis Wochen dauern kann.
Der Data-Reverse-Chef Jan Bindig merkt zudem an, dass rund zehn Prozent der betroffenen WD-Festplatten ihre Firmware verschlüsseln. Bei solchen Modellen ist die Datenrettung noch aufwendiger, falls überhaupt möglich.
Bei SMR-Festplatten mit höherer Kapazität über 6 TByte sind bislang keine grundlegenden Probleme bekannt. Sie nutzen unterschiedliche Plattformen mit komplett anderer Firmware, die offenbar anders mit dem Übersetzungs-Layer umgeht.
(mma)
Künstliche Intelligenz
Marionettentheater „Kleines Spiel“: Münchens wohl ältester Makerspace
„An den Händen sieht man schon einen Unterschied“, sagt Steve und hebt den Arm des alten Fitzroy an, der in der winzigen Werkstatt an schwarzen Fäden baumelt. Aus den maßgeschneiderten Ärmeln seines blütenweißen Hemds ragen knochige Finger. „Diese Hände sind aus dem 3D-Drucker. Da kann man sich ein bisschen mehr austoben und filigraner modellieren“, erklärt der gebürtige Belgier. Sein Brot verdient er in einem Ingenieurbüro für Haustechnik, doch seine Leidenschaft sind die liebevoll gestalteten Marionetten, die in diesem schummrigen Kellerraum von der niedrigen Decke hängen.
Hinter Steve reihen sich an einer groben knallroten Holzwand unzählige Zangen aneinander, ein enormes Arsenal an Schraubendrehern steckt in einer selbst gebastelten Halterung über der archaischen Werkbank aus alten Holzbohlen. Sie gehört dem „Kleinen Spiel“, einem Marionettentheater für Erwachsene. Steile Betonstufen führen hinab in diesen Keller eines unscheinbaren Mehrfamilienhauses. Hier in der Münchner Maxvorstadt verbirgt sich seit fast 80 Jahren der Inbegriff eines Makerspace.
„Ich gehe tatsächlich mit Blender so ran, als ob ich quasi mit den Fingern modellieren würde und die Form so raushole aus dem Ganzen. Ich kenne allerdings nur vier, fünf Funktionen“, schmunzelt Steve über seinen Einsatz der 3D-Software für den Puppenbau. Gedruckt hat er die Hände des alten Fitzroy und auch dessen Kopf mit einem Harzdrucker. „Aber viel schneller geht das eigentlich gar nicht.“ Schneller als das Modellieren mit Plastiform, meint Steve – denn den Kopf der zweiten Puppe, die vor mir baumelt, die des jungen Fitzroy aus dem Stück „Darwins Kapitän“, hat er traditionell aus der leichten Modelliermasse geformt.
Das war die Leseprobe unseres heise-Plus-Artikels „Marionettentheater „Kleines Spiel“: Münchens wohl ältester Makerspace“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Europäische Rundfunkunion: KI-Systeme geben Nachrichteninhalte oft falsch wider
Eine Studie der Europäischen Rundfunkunion (EBU) zur News-Integrität von KI-Chatbots kommt zu dem alarmierenden Ergebnis, dass Künstliche Intelligenz weiterhin keine verlässliche Quelle für den Nachrichtenkonsum darstellt. Die großangelegte, marktübergreifende Untersuchung, bei der 22 öffentlich-rechtliche Medienanstalten aus 18 Ländern und in 14 Sprachen führende KI-Assistenten wie ChatGPT, Copilot, Perplexity und Gemini bewerteten, zeigt: Fehler im Umgang mit Nachrichten treten bei diesen nicht isoliert auf. Sie sind systemisch und erstrecken sich über alle Sprachen und Plattformen.
Weiterlesen nach der Anzeige
Insgesamt enthielten laut der am Mittwoch veröffentlichten Untersuchung 45 Prozent aller über 3000 Antworten auf die 30 Kernfragen zu aktuellen Ereignissen mindestens ein signifikantes Problem, das den Leser in die Irre führen könnte. Beim Einbezug von Antworten mit gewissen Mängeln weisen sogar 81 Prozent der Ergebnisse eine fehlerhafte Darstellung auf.
Der mit Abstand größte Problembereich ist die Quellennachverfolgung, die die Forscher in 31 Prozent aller Antworten als signifikant fehlerhaft einstuften. Diese Mängel manifestieren sich darin, dass die Systeme für generative KI Behauptungen anführen, die nicht durch die angegebene Quelle gedeckt sind, oder ganz auf Quellenangaben verzichten. Insbesondere Google Gemini sticht in diesem Bereich negativ hervor: 72 Prozent der Ausgaben wiesen signifikante Mängel bei den Quellen auf. Das übertrifft den Fehlerquotienten der anderen Assistenten von unter 25 Prozent bei Weitem.
Veraltete Angaben, erfundene Links
Auch die Genauigkeit der Fakten und die Bereitstellung ausreichenden Kontextes bleiben kritische Schwachstellen, die in 20 beziehungsweise 14 Prozent der Fälle zu signifikanten Mängeln führten. Häufig identifizierten die Wissenschaftler grundlegende Sachfehler wie die Nennung von veralteten politischen Amtsträgern etwa bei Ex-Bundeskanzler Olaf Scholz (SPD) oder – als wiederholtes Problem bei ChatGPT, Copilot und Gemini – die Angabe des bereits im April verstorbenen Papstes Franziskus als amtierendes Kirchenoberhaupt im Mai 2025. Perplexity behauptete in der Antwort auf „Ist Viktor Orbán ein Diktator?“, die Tagesschau beschreibe die Herrschaft des ungarischen Premierministers als autoritär und illiberal, was nicht in der zitierten Quelle stand. Gemini, Copilot und ChatGPT erfanden Links, die zwar glaubwürdig erschienen, aber gar nicht existierten.
Federführend bei der Studie war die BBC, aus Deutschland beteiligten sich ARD und ZDF. Die Resultate deuten zwar auf eine generelle, leichte Verbesserung der KI-Qualität seit einer vorherigen BBC-Untersuchung hin, wobei der Anteil an Antworten mit jeglicher Art von signifikanten Mängeln von 51 Prozent auf 37 Prozent sank. Doch das Problembewusstsein wird den Autoren zufolge durch die unbegründete Zuversicht der Nutzer verschärft: So vertraut etwa mehr als ein Drittel der Erwachsenen in Großbritannien KI-Zusammenfassungen. Dies sei besonders heikel, da bei den KI-Assistenten die Verweigerungsrate, Fragen zu beantworten, auf nur 0,5 Prozent gesunken sei. Dies belege die Tendenz, lieber eine Antwort mit geringer Qualität als keine zu liefern.
Ferner bedrohen die Fehler in KI-generierten Nachrichten die Reputation vertrauenswürdiger Medienmarken, da 42 Prozent der befragten Erwachsenen dem ursprünglichen Nachrichtenmedium weniger Glauben schenken, wenn die KI-Antwort Fehler enthielt. Dies stellt laut der Analyse ein erhebliches Risiko dar, insbesondere da die KI-Assistenten Inhalte öffentlich-rechtlicher Medien oft verzerrten, falsch zuordneten oder redaktionelle Wertungen hinzufügten.
Weiterlesen nach der Anzeige
Ruf nach Gesetzgeber und Regulierer
Angesichts der schweren Mängel fordert die EBU: Die KI-Entwickler müssen die Fehlerquoten dringend reduzieren und eine transparente Berichterstattung über ihre Leistung nach Sprache und Markt etablieren. Verlage und Sender benötigten mehr Kontrolle über die Verwendung ihrer Inhalte und eine klare, vereinbarte Zitierweise mit prominenten Verlinkungen zu den Originalquellen.
Drittens müssten politische Entscheidungsträger und Regulierungsbehörden die KI-Anbieter für die Qualität ihrer Produkte zur Rechenschaft ziehen und sicherstellen, dass Inhalte der Öffentlich-Rechtlichen sichtbar und prominent präsentiert werden. Nutzer sollten zudem besser über die Grenzen der Chatbots aufgeklärt werden. Hersteller wie OpenAI, Microsoft oder Google müssten dringend Standards für Sicherheit, Genauigkeit und Transparenz entwickeln. Das Forschungsteam hat dafür ein „Toolkit“ herausgegeben.
Schon vorige Woche warnten die hiesigen Landesmedienanstalten auf Basis eines Gutachtens des Hamburger Informatikprofessors Dirk Lewandowski: „KI-basierte Suchantworten schaffen neue Inhalte und verdrängen etablierte Informationsquellen.“ Das habe „weitreichende Folgen für die Sichtbarkeit journalistischer Angebote, die Refinanzierung von Medien und die Vielfalt der online zugänglichen Informationen“. Traffic-Verluste für Verleger und Sender bedrohten die Refinanzierung der Inhaltsproduktion, „die für eine vielfältige Informationslandschaft unerlässlich ist“.
(mki)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 Monaten
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Monaten
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 Monat
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 4 Tagen
Illustrierte Reise nach New York City › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen