Künstliche Intelligenz

Opt-out nötig: Anthropic nutzt künftig Nutzerdaten fürs Training


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Es ist eine auf den ersten Blick kleine Änderung der Nutzungsbedingungen mit großen Auswirkungen: KI-Anbieter Anthropic will künftig Chat-Transkripte und Code-Sessions der Consumer-Versionen von Claude für das Training neuer KI-Modelle verwenden. Bislang zeichnete sich Anthropic dadurch aus, dass es anders als seine Mitbewerber darauf verzichtete. Nutzer können der geplanten Verwendung der Daten allerdings widersprechen. Die Änderungen betreffen Claude Free, Pro und Max sowie die Nutzung von Claude Code.

Parallel zur Datennutzung für das Training verlängert Anthropic die Datenspeicherfrist von 30 Tagen auf fünf Jahre für Nutzer, die der Datenverwendung zustimmen. Diese drastische Verlängerung begründet das Unternehmen mit den langwierigen Entwicklungszyklen von KI-Modellen: Modelle, die heute veröffentlicht werden, begannen ihre Entwicklung vor 18 bis 24 Monaten. Die konsistente Datenbasis über längere Zeiträume solle zu stabileren und vorhersagbareren Modellverhalten führen.

Die verlängerte Speicherdauer betrifft ausschließlich neue oder fortgesetzte Chat- und Coding-Sessions. Bestehende Gespräche bleiben unberührt, es sei denn, der Nutzer setzt diese fort. Werden individuelle Chats gelöscht, fließen sie laut Anthropic nicht in künftige Trainingszyklen ein.

Ausdrücklich ausgenommen von den neuen Regelungen sind kommerzielle Dienste wie Claude for Work, Claude Gov, Claude for Education sowie die API-Nutzung über Drittanbieter wie Amazon Bedrock oder Google Cloud’s Vertex AI. Diese Enterprise-Kunden sollen weiterhin darauf vertrauen können, dass ihre Daten nicht für Trainingszwecke verwendet werden.

Bestehende Nutzer haben bis zum 28. September 2025 Zeit, über ihre Präferenzen zu entscheiden. Die Einstellung kann jederzeit in den Datenschutzoptionen geändert werden und gilt dann jeweils für neue Chats. Neue Nutzer werden bereits während der Registrierung zur Entscheidung aufgefordert. Anthropic betont, dass Nutzer stets die Kontrolle über diese Einstellung behalten.

Zum Schutz der Privatsphäre setzt Anthropic nach eigenen Angaben eine Kombination aus Tools und automatisierten Prozessen ein, um sensible Daten zu filtern oder unkenntlich zu machen. Das Unternehmen versichert, Nutzerdaten nicht an Dritte zu verkaufen.

Die Entscheidung spiegelt den intensiven Wettbewerb im KI-Markt wider. Daten aus realen Interaktionen liefern wertvolle Einblicke darüber, welche Antworten für Nutzer am hilfreichsten und genauesten sind, erklärt Anthropic. Gerade bei Programmierhilfe durch KI seien diese Rückkopplungen für die Modellverbesserung entscheidend.


(mki)



Source link

Beliebt

Die mobile Version verlassen