Künstliche Intelligenz
Kölner Urteil: Meta darf auch sensible Daten fürs KI-Training verwenden
Ende Mai enttäuschte das Oberlandesgericht (OLG) Köln Experten mit seiner Ansage, dass Meta die Daten aller volljährigen europäischen Nutzer von Facebook und Instagram für das Training eigener KI-Anwendungen wie dem großen Sprachmodell LLaMA nutzen darf. Die Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider etwa kritisierte die Eilentscheidung als „unfassbar“. Weiter verärgern dürfte die Hüter der Privatsphäre nun, dass Meta und andere Betreiber sozialer Netzwerke selbst sensible Daten wie Gesundheitsinformationen oder Angaben zu politischen, religiösen oder sexuellen Einstellungen für legitime Zwecke wie das Anlernen von KI-Systemen verwenden dürfen.
Die Datenschutz-Grundverordnung (DSGVO) enthält prinzipiell in Artikel 9 ein Verbot der Verarbeitung sensibler personenbezogener Informationen. Doch dieses wird von einem langen Ausnahmekatalog eingeschränkt. Demnach greift die Untersagung etwa nicht, wenn die betroffene Person heikle Daten selbst „offensichtlich öffentlich gemacht“ hat.
Laut der jetzt veröffentlichten Urteilsbegründung sieht das OLG diese Vorgabe erfüllt, wenn ein Nutzer einschlägige Informationen über sich in sein öffentliches Nutzerkonto eines Social-Media-Dienstes einstellt oder in einem öffentlichen Posting teilt (Az.: 15 UKl 2/25). Dem durchschnittlichen User müsse in einem solchen Fall bewusst sein, „dass diese Daten von jedermann zur Kenntnis genommen werden können und sogar mittels Suchmaschinen auffindbar sind“.
Auch Daten Dritter sind kein Problem
Sogar wenn sensible Informationen Dritter betroffen sind, unterliegen diese laut den Kölner Richtern nicht dem Verbot nach Artikel 19 DSGVO. Sie gehen davon aus, dass die Untersagung im konkreten Fall einer „Aktivierung“ durch einen Antrag des betroffenen Dritten auf Herausnahme seiner Daten aus dem veröffentlichten Beitrag beziehungsweise aus dem Trainingsdatensatz bedürfte. Ganz sicher ist sich der 15. Zivilsenat hier aber nicht. Er deutet an, diese Frage dem Europäischen Gerichtshof (EuGH) vorlegen zu wollen, sollte es zu einem Hauptsacheverfahren kommen.
Das OLG begründet seine Ansicht damit, dass der europäische Gesetzgeber in der KI-Verordnung die Notwendigkeit des Trainings großer generativer KI-Modelle mit „riesigen Mengen an Text, Bildern, Videos und anderen Daten“ ausdrücklich anerkannt habe. Dabei sei seit Längerem bekannt, dass Firmen Webscraping zum Gewinnen von KI-Trainingsdaten nutzten. Das berge stets die Gefahr der – unbeabsichtigten und nicht zielgerichteten – Verarbeitung sensibler Daten. Mit dem AI Act verfolge die Politik auch das Ziel, eine „Vorreiterrolle“ der EU bei generativer Künstlicher Intelligenz zu erlangen.
Deidentifizierung statt Anonymisierung
Der von der Verbraucherzentrale NRW verklagte Social-Media-Betreiber hat laut dem Urteil auch glaubhaft gemacht, „Maßnahmen zu Deidentifizierung der Datensätze vorzunehmen“. Vollständige Namen, E-Mail-Adressen, Telefonnummern, nationale Identifikationsnummern, Benutzerkennungen, Kredit-/Debitkartennummern, Bankkonten, Fahrzeugkennzeichen, IP-Adressen und Postanschriften würden nur in unstrukturierter Form und „tokenisiert“ zusammengestellt. Damit sei zwar keine Anonymisierung verbunden. Insbesondere würden die Gesichter der auf Fotos erkennbaren Personen nicht verborgen. Trotzdem steht für den Senat außer Zweifel, dass dieses Vorgehen „insgesamt das entsprechende Risiko mindern wird“.
Valentino Halim, Rechtsanwalt bei der Wirtschaftskanzlei Oppenhoff, begrüßte gegenüber heise online die „unternehmensfreundliche und KI-Technologien ‚ermöglichende‘ Entscheidung“. Die Begründung des Gerichts sei in Teilen durchaus überraschend. Es bleibe abzuwarten, ob der EuGH „die enge Interpretation des Verarbeitungsverbots für sensitive Daten in einem etwaigen Vorlageverfahren mittragen“ würde. Daten- und Verbraucherschützer mahnen Nutzer, von ihrem Widerspruchsrecht Gebrauch zu machen.
(olb)
Künstliche Intelligenz
KI-Chatverlauf zurücksetzen senkt CO₂-Ausstoß | heise online
Ein Forschungsteam des Versicherungskonzerns Axa hat untersucht, welchen Einfluss Anwender von KI-Chatbots auf ihren CO₂-Fußabdruck ausüben können. In ihrem Fachartikel Mitigating the Carbon Footprint of Chatbots as Consumers, der bei Springer Nature veröffentlicht wurde, formulieren die Forscher einen verblüffend einfachen Tipp: Sobald das Thema wechselt, sollte ein neuer Chat gestartet und somit der Chatverlauf zurückgesetzt werden.
Diese Empfehlung basiert auf einem Mechanismus, mit dem KI-Chatbots einen konsistenten Gesprächsverlauf simulieren. Da KI-Modelle kein Gedächtnis besitzen, fügen sie bei jeder Interaktion die gesamte vorherige Chat-Historie der Anfrage hinzu. Für den Benutzer unsichtbar, erhöht dieses Verfahren im Laufe der Konversation fortwährend die Anzahl der verwendeten Token. Je mehr Token verarbeitet werden müssen, desto höher ist der Rechenaufwand – und damit auch der Energieverbrauch.
Die Forscher wollten herausfinden, wie viel sich durch die Handlungsempfehlung einsparen lässt. Dafür analysierten sie anonymisierte Logdaten eines GPT-basierten Chatbots aus einer internen Anwendung mit über 190.000 Einträgen. Eine entsprechende Simulation zeigte, dass sich der Tokenverbrauch für die vorliegenden Daten um bis zu 19 Prozent senken ließe.
Fazit
Das größte Optimierungspotenzial liegt dennoch bei den KI-Dienstleistern. Benutzer können aber unnötige Rechenlast vermeiden, indem sie konsequent einen neuen Chat beginnen, sobald sich der Kontext ändert und frühere Nachrichten für den weiteren Verlauf irrelevant werden. Wer KI-Chatbots nutzt, kann so sein CO₂-Aufkommen zumindest teilweise reduzieren.
Transparenzhinweis: Der Autor Boris Ruf ist ebenfalls Hauptautor der Studie.
(fo)
Künstliche Intelligenz
Quizauflösung: Fehlersuche mittels ICMP-Rückmeldungen | heise online
Die Fehlersuche in IP-Netzwerken fällt nicht leicht, denn einem Netzwerkschluckauf können viele Ursachen zugrunde liegen. Profi-Admins kennen aber Wege, um das klassische und meist aufwendige Troubleshooting abzukürzen.
Beispielsweise kann man Fehlerquellen anhand von ICMP-Rückmeldungen der Netzwerkgeräte eingrenzen, die an einem fehlgeschlagenen IP-Dialog beteiligt sind. Welche Meldungen das sind und wie man sie interpretiert, haben wir ausführlich im Artikel „Sondengänger: ICMP-Meldungen zur Fehlersuche im Netz einspannen“ beschrieben.
Am Ende des Beitrags „Netzwerkpraxis: Fehlersuche mittels ICMP-Rückmeldungen“ hatten wir vier Netzwerkanalyse-Aufgaben gestellt. Die Grundlage dafür bildet ein Verkehrsmitschnitt, den man mit dem Analysetool Wireshark öffnet und mit einem Display-Filter siebt. Hier folgen die Antworten zu den Aufgaben.
Das war die Leseprobe unseres heise-Plus-Artikels „Quizauflösung: Fehlersuche mittels ICMP-Rückmeldungen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Fahrprofil im Visier: Wie Carsharing-Anbieter ihre Nutzer überwachen
Die Verheißung des Carsharings ist die grenzenlose Freiheit auf vier Rädern, ohne die Last eines eigenen Autos. Doch die Realität holt viele Nutzer ein und weckt den Verdacht, dass das Versprechen der Anbieter zunehmend von Spitzelei und fragwürdigen Strafgebühren überschattet wird. Das trübt die Attraktivität des Modells fürs Fahrzeugteilen.
Der Fall des Hamburger Marketingexperten Engin Buldak, über den der Spiegel berichtet, ist exemplarisch: Nach einer 16-minütigen Fahrt mit einem geliehenen Auto erhielt er eine ominöse „Verwarnung“ wegen „auffälligen Fahrverhaltens“. Miles Mobility, der größte Carsharing-Anbieter Deutschlands, drohte ihm bei einem Wiederholungsfall eine Strafe von 250 Euro an – ohne konkrete Beweise oder Details. Buldak, der seit 14 Jahren unfallfrei fährt, fühlt sich laut dem Bericht zu Unrecht beschuldigt und bevormundet. Er bezweifelt die Genauigkeit der eingesetzten Messtechnik. Die Art und Weise, wie Carsharing-Anbieter mit den Daten umgingen und ihren Kunden konfrontativ gegenüberträten, sei „ungeheuerlich“.
Sensoren als heimliche Kontrolleure
Solche Fälle häufen sich. Dahinter steckt Technik, die nicht alle begeistert: Moderne Carsharing-Fahrzeuge sind mit unzähligen Sensoren ausgestattet, die eigentlich Assistenzsysteme beflügeln sollen. Dazu kommen oft an der Windschutzscheibe angebrachte Telematik-Boxen, die scheinbar auch verdächtige Fahrdaten an die Zentralen der Anbieter sowie gegebenenfalls an Kfz-Versicherer übermitteln. Starkes Beschleunigen, Driften, aber auch Rauchen oder Vapen im Auto werden erkannt und führen zu teils drastischen Gebühren.
Ein Blick in die Allgemeinen Geschäfts- und Mietbedingungen von Miles zeigt eine ganze Liste solcher Strafpauschalen: 250 Euro für „aggressives Fahrverhalten“, 150 Euro für eine „Sonderreinigung“ und 100 Euro für Rauchen etwa. Die Verbraucherzentrale Baden-Württemberg kritisiert diese nicht sofort ins Auge stechenden Zusatzgebühren laut dem Spiegel. Oliver Buttler, Abteilungsleiter für Verbraucherrecht, hält die Höhe der Gebühren oft für unverhältnismäßig und rechtlich unzulässig. Er rät Betroffenen, sich gegen solche Forderungen zur Wehr zu setzen.
Datenschutz droht, auf der Strecke zu bleiben
Eine Miles-Sprecherin verteidigte das Vorgehen der Firma. Die Sensordaten sollten eine „unsachgemäße Fahrweise“ erkennen und die Kunden ermahnen. Die angedrohten Strafen dienten „als Druckmittel für mehr Vertragstreue“ und sollten bei erheblichen Verstößen auch Kosten für die potenzielle Außerbetriebnahme der Fahrzeuge kompensieren.
Dass die für Carsharing eingesetzten Autos umfassend getrackt werden, gilt prinzipiell seit vielen Jahren als problematisch. Zum Teil entstehen sekundengenaue Bewegungsprofile, wobei der Datenschutz sprichwörtlich auf der Strecke zu bleiben droht. Eigentlich wollten die EU-Verkehrsminister aber schon mit der Amsterdamer Erklärung von 2016 bei der Nutzung von Fahrzeuginformationen einen wirksamen Schutz der Privatsphäre garantiert wissen und zugleich auf eine höhere Verkehrssicherheit hinarbeiten.
Miles stand 2023 selbst unter Verdacht, seit 2019 Parkgebühren in Höhe von bis zu 30 Millionen Euro nicht an das Land Berlin abgeführt zu haben. Der Anbieter habe die GPS-Daten der Fahrzeugstandorte manipuliert, so der Vorwurf, um die Zahlungen zu umgehen.
Das Park-Dilemma: Wer ist verantwortlich?
Immer wieder sorgt auch das Abstellen der Fahrzeuge für Streit. Die Anbieter pochen auf die sogenannte 48-Stunden-Regel, nach der der letzte Nutzer dafür verantwortlich ist, dass das Auto zwei Tage lang legal parken darf. Dies führt zu fragwürdigen Situationen, in denen Kunden für Bußgelder und Abschleppkosten belangt werden, obwohl einschlägige Verfahren später eingestellt worden sind.
Grundsätzlich gilt Carsharing als Erfolgsmodell. Mit über 5,5 Millionen registrierten App-Anwendern und 297 Anbietern boomt der Markt. Doch die steigende Anonymität, die mit dem vollständig digitalen Anmelde- und Mietprozess einhergeht, zieht auch schwarze Schafe an. Sportliche Spritztouren, Vandalismus und Diebstahl gelten für manche Nutzer als Kavaliersdelikt. Einige Anbieter reagieren darauf, indem sie jüngere Fahrer am Wochenende ausschließen.
(mack)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 1 Monat
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Apps & Mobile Entwicklungvor 1 Monat
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen
-
Social Mediavor 2 Monaten
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten