Online Marketing & SEO
Claude trainiert KI bald mit deinen Daten – das kannst du tun
Anthropic will Details aus Chats und Coding Sessions standardmäßig für das KI-Training nutzen und fünf Jahre speichern. User werden zur Akzeptanz animiert, haben aber auch Opt-out-Möglichkeiten.
Das KI-Unternehmen Anthropic ändert die Richtlinien zur Privatsphäre und zu den Nutzungsbedingungen. Dabei treten diese Änderungen zum 28. September in Kraft und werden fortan das KI-Training mit User-Daten ermöglichen. Nicht alle User sind betroffen, doch es geht um die meisten, die das populäre KI-Tool Claude oder die gleichnamigen KI-Modelle nutzen. Deshalb gilt es für die Nutzer:innen, jetzt zu handeln und sich über die Opt-out-Optionen zu informieren.
Anthropic pusht Coding‑KI:
Das kann Claude Opus 4.1

Was sich im Umgang mit Claude ändert
Im Blog Post zur Änderung der Bedingungen stellt Anthropic zunächst klar, dass User mit kommerziellem Zugang zu Claude nicht betroffen sein werden. Auch die API-Nutzung und Third-Party-Integrationen wie bei Amazon Bedrock und Google Clouds Vertex AI sind ausgenommen. Für Free, Pro und Max User aber gilt, dass ab dem 28. September neue oder weitergeführte Chats mit Claude sowie Coding Sessions als Trainingsbasis für die KI-Modelle des Unternehmens genutzt werden – sofern kein Widerspruch erfolgt.
[…] We’re now giving users the choice to allow their data to be used to improve Claude and strengthen our safeguards against harmful usage like scams and abuse. Adjusting your preferences is easy and can be done at any time […],
schreibt Anthropic. Ab sofort schickt das Unternehmen Benachrichtigungen an die User. Stimmen sie den erneuerten Nutzungsbedingungen zu, stimmen sie auch der Nutzung ihrer Daten für das KI-Training zu. Diese Daten werden dann fünf Jahre lang gespeichert. Bis dato werden Prompts und Konversationen nur 30 Tage gespeichert.
Dass Anthropic auf möglichst viele User hofft, die genau das tun, ohne ins Detail zu gehen, lässt sich daran ablesen, dass die Nachricht nicht besonders prominent distribuiert wurde. Zudem machte das Unternehmen diese Woche mit der Feature-Neuheit Claude for Chrome von sich reden, einem Agent, der eigenständig im Browser für User agieren kann.
Claude für Chrome ist da:
Agent arbeitet im Browser für dich
Darüber hinaus betont Anthropic deutlich, dass die User dem Unternehmen mit ihrer Zustimmung dabei helfen würden, Claude noch deutlich besser zu machen.
By participating, you’ll help us improve model safety, making our systems for detecting harmful content more accurate and less likely to flag harmless conversations. You’ll also help future Claude models improve at skills like coding, analysis, and reasoning, ultimately leading to better models for all users.
Doch die Nutzer:innen müssen nicht zustimmen. Zum einen können sie jederzeit in den Privatsphäreeinstellungen ihre Präferenz angeben und auch wieder ändern. Zum anderen werden neue User bereits beim Registrierungsprozess nach der Präferenz gefragt. Für bestehende User gibt es dann die Pop-up-Fenster zur Auswahl. Wer sich gegen die Speicherung entscheidet, muss aber weiterhin mit der 30-Tage-Frist der Datenspeicherung rechnen, die bei der Claude-Nutzung Standard ist. Während die Erlaubnis zur Datennutzung einen Beitrag zu optimierten KI-Diensten leisten kann, sollten sich die User darüber im Klaren sein, dass ihre Konversationen und Coding-Kontexte Teil einer riesigen Datenbasis werden, über deren Einsatz sie keinerlei Kontrolle haben. Bei Anthropic lassen sich die Dienste indes auch ohne diese Zustimmung nutzen. Meta etwa koppelt die Nutzung der Meta AI auf Plattformen wie WhatsApp oder Facebook an die notwendige Erlaubnis der User, die Nutzungskontexte als Datenbasis für das KI-Training einzusetzen.