Apps & Mobile Entwicklung
Claude: Anthropic nutzt Chats ab September fürs KI-Training
Anthropic hat neue Nutzungsbedingungen für den KI-Chatbot Claude vorgestellt. Chats sollen demnach nun für bis zu fünf Jahre gespeichert und ohne Widerspruch des Nutzers auch für das Trainieren neuer Modelle genutzt werden. Die Änderungen betreffen mit Claude Free, Pro, Max und Code alle privaten Nutzer.
Opt-Out wird zum Standard
Im Gegensatz zu ChatGPT nutzte Anthropic bisher keine Chats für das Training seiner KI-Modelle, das übliche freiwillige Häkchen in den Einstellungen existierte schlicht nicht. Ab dem 28. September ändert Anthropic jedoch seinen Ansatz: Beim Bestätigen der neuen Nutzungsbedingungen wird der Haken eingeführt und automatisch gesetzt. Das Unternehmen kommuniziert diesen Schritt über ein neues Pop-Up bis Ende September nach eigenen Angaben transparent. Nutzer müssen sich nun jedoch selbst aktiv darum kümmern, dass ihre Chats nicht für das KI-Training genutzt werden, wenn sie dies nicht wünschen.
Daten werden länger gespeichert
Die Zustimmung kommt jedoch mit einer weiteren Veränderung: Chats, die mit Anthropic für das Trainieren neuer Modelle geteilt werden, werden nun nicht mehr nur für 30 Tage, sondern für fünf Jahre gespeichert. Nutzer können diese verlängerte Speicherung ihrer Daten nur verhindern, wenn sie beim Bestätigen der Nutzungsbedingungen den neuen Haken deaktivieren. Dann werden die Chats weiterhin nur für 30 Tage gespeichert. Weiterhin soll es jedoch möglich sein, Chats zu löschen und so zu verhindern, dass diese für zukünftige Trainingsläufe neuer KI-Modelle genutzt werden.
If you change your setting on providing your data for training or delete your account, we’ll exclude your data from future model training. If you delete individual chats, they won’t be included in future training either.
Anthropic
Nur private Nutzer betroffen
Ausgenommen von beiden Änderungen sind laut dem Unternehmen jedoch Nutzer, die Claude über kommerzielle Verträge nutzen. Damit werden Chats über Claude for Work (Team und Enterprise), API-Zugriffe, Amazon Bedrock, Google Cloud Vertex API und Claude Gov sowie Claude for Education nicht zum KI-Training verwendet.
Konsistente Datensätze für das KI-Training als Ziel
Anthropic begründet den Schritt damit, dass die Entwicklung neuer KI-Modelle sich über mehrere Jahre erstrecke. Mit der neuen Speicherrichtlinie könne das Unternehmen sicherstellen, dass Datensätze zum Training sich nicht fortlaufend stark verändern und damit über den gesamten Entwicklungszeitraum konsistenter bleiben – was schlussendlich auch zu Modellen führen soll, die selbst konsistenter mit vorigen Versionen sind. Plötzliche Veränderungen in der „Denkweise“ zwischen zwei KI-Modellen sollen so vermindert werden.
AI development cycles span years—models released today began development 18 to 24 months ago. Keeping data consistent across the training process helps make the models more consistent, too: models trained on similar data will respond, reason, and produce outputs in similar ways, making the changes between model upgrades much smoother for users.
Anthropic
Opt-Out auch nachträglich möglich
Zudem versichert das Unternehmen, dass es weiterhin möglich sei, auch nachträglich den Opt-Out vorzunehmen und alle zukünftigen Chats ab diesem Zeitpunkt wieder vom Training auszunehmen.