Entwicklung & Code

Kommentar: Von wegen KI bedroht Jobs – Daten sind wirklich in Gefahr!


Die Angst vor der KI ist oft von theoretischer Natur, insbesondere die Sorge: KI frisst meinen Job. In der Bankbranche gehen Analysten von 200.000 wegfallenden Stellen aus. Dem stehen aber eine Million unbesetzbarer Stellen im öffentlichen Dienst im Jahr 2030 gegenüber. Hier werden wir der KI noch dankbar sein.

Ganz konkret für die allermeisten Menschen sind hingegen Gefahren, die es jetzt schon gibt und persönliche Daten betreffen – die Daten aller Menschen, die in irgendeiner Form im Internet erscheinen, auf Webseiten, in Berichten, in Datenbanken oder in Social-Media-Profilen. Denn all das saugen sich die großen LLM-Modelle beim Training ein und spucken es auf Prompt-Anfrage in freundlicher Sprache hübsch verpackt wieder aus. Wie ein dicker Wal filtern sie statt des Planktons persönliche Daten aus der Flut und verdauen sie.

Man könnte einwenden, dass die großen Player der Branche wie Google, Meta und Microsoft sich diese Daten ohnehin schon immer in ihren großen Bauch einverleiben. Aber die mit KI betriebene Art der Verwertung erreicht eine neue Dimension an Performance, verständiger Kompilation und leichter Auswertbarkeit für fast jedermann.

Das Ausmaß des Datensaugens zeigt eine Untersuchung der Datenschutzfirma incogni, laut der die LLM-Betreiber nicht nur im Internet sammeln – oft unter Ignorieren der robots.txt – sondern auch in diffusen „Datenbanken“ (Claude), bei „Marketingpartnern“ (Gemini und Meta) bei „Datenbrokern“ (Microsoft), bei „Sicherheitspartnern“ (ChatGPT, Gemini und DeepSeek) oder auf dem Handy. Hier gibt es Standortdaten (Gemini und Meta), Telefonnummern (DeepSeek, Gemini und Pi) oder sogar Fotos (Grok, auch mit Dritten geteilt) zum Verzehr. Eine Opt-out-Möglichkeit hierfür bietet keiner der LLM-Betreiber in der Studie.

Anders beim Umgang mit den Prompt- und Chat-Daten: Hier können Anwenderinnen und Anwender bei ChatGPT, Copilot, Mistral und Grok erklären, dass die KI-Firmen ihre Kommunikationsdaten nicht verwenden sollen. Anthropic verzichtet für seine Claude-Modelle prinzipiell auf Daten über User-Eingaben. Alle anderen Firmen in der Untersuchung schweigen darüber.

Die LLM-Betreiber verletzen mit diesem monströsen Datensee grundlegende Prinzipien des Datenschutzes, beispielsweise, dass persönliche Daten nicht so leicht zusammengeführt werden sollen („Mandantentrennung“), um das Entstehen ebensolcher Datenpools an sensiblen Daten zu verhindern. Genau das geschieht aber derzeit beim LLM-Training.

Theoretisch werden damit leichtgängige Antworten auf Fragen möglich wie „Mit wem war Susi in den vergangenen Jahren im Urlaub?“, falls Susi das gelegentlich irgendwo halböffentlich gepostet hat. Möglicherweise fischen die KI-Interfaces wie ChatGPT solche Fragen heraus, im LLM-Bauch stecken die Antworten dennoch drin. Und mit geschicktem Prompting lässt sich mehr herauskitzeln als das, was der LLM-Betreiber vielleicht möchte – Sicherheitsexperten kennen das.

Die KI liefert hier Zusammenhänge, die mit einer traditionellen Google-Suche weitaus aufwendiger oder sogar unmöglich gewesen wären. Diese Gefahr ist konkreter als der für die meisten Menschen erstmal nur theoretisch drohende Jobverlust. Genau deshalb sollten sich gerade Social-Media-Freunde im KI-Zeitalter stärker bewusst machen, wer oder was sich ihre halböffentlichen Daten einverleibt – es könnte ein Datenhai mit Walfischbauch sein.


(who)



Source link

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Beliebt

Die mobile Version verlassen