Künstliche Intelligenz
Opt-out nötig: Anthropic nutzt künftig Nutzerdaten fürs Training
Es ist eine auf den ersten Blick kleine Änderung der Nutzungsbedingungen mit großen Auswirkungen: KI-Anbieter Anthropic will künftig Chat-Transkripte und Code-Sessions der Consumer-Versionen von Claude für das Training neuer KI-Modelle verwenden. Bislang zeichnete sich Anthropic dadurch aus, dass es anders als seine Mitbewerber darauf verzichtete. Nutzer können der geplanten Verwendung der Daten allerdings widersprechen. Die Änderungen betreffen Claude Free, Pro und Max sowie die Nutzung von Claude Code.
Parallel zur Datennutzung für das Training verlängert Anthropic die Datenspeicherfrist von 30 Tagen auf fünf Jahre für Nutzer, die der Datenverwendung zustimmen. Diese drastische Verlängerung begründet das Unternehmen mit den langwierigen Entwicklungszyklen von KI-Modellen: Modelle, die heute veröffentlicht werden, begannen ihre Entwicklung vor 18 bis 24 Monaten. Die konsistente Datenbasis über längere Zeiträume solle zu stabileren und vorhersagbareren Modellverhalten führen.
Geschäftskunden ausgenommen
Die verlängerte Speicherdauer betrifft ausschließlich neue oder fortgesetzte Chat- und Coding-Sessions. Bestehende Gespräche bleiben unberührt, es sei denn, der Nutzer setzt diese fort. Werden individuelle Chats gelöscht, fließen sie laut Anthropic nicht in künftige Trainingszyklen ein.
Ausdrücklich ausgenommen von den neuen Regelungen sind kommerzielle Dienste wie Claude for Work, Claude Gov, Claude for Education sowie die API-Nutzung über Drittanbieter wie Amazon Bedrock oder Google Cloud’s Vertex AI. Diese Enterprise-Kunden sollen weiterhin darauf vertrauen können, dass ihre Daten nicht für Trainingszwecke verwendet werden.
Bis 28. September Auswahl nötig
Bestehende Nutzer haben bis zum 28. September 2025 Zeit, über ihre Präferenzen zu entscheiden. Die Einstellung kann jederzeit in den Datenschutzoptionen geändert werden und gilt dann jeweils für neue Chats. Neue Nutzer werden bereits während der Registrierung zur Entscheidung aufgefordert. Anthropic betont, dass Nutzer stets die Kontrolle über diese Einstellung behalten.
Zum Schutz der Privatsphäre setzt Anthropic nach eigenen Angaben eine Kombination aus Tools und automatisierten Prozessen ein, um sensible Daten zu filtern oder unkenntlich zu machen. Das Unternehmen versichert, Nutzerdaten nicht an Dritte zu verkaufen.
Die Entscheidung spiegelt den intensiven Wettbewerb im KI-Markt wider. Daten aus realen Interaktionen liefern wertvolle Einblicke darüber, welche Antworten für Nutzer am hilfreichsten und genauesten sind, erklärt Anthropic. Gerade bei Programmierhilfe durch KI seien diese Rückkopplungen für die Modellverbesserung entscheidend.
(mki)
Künstliche Intelligenz
Metas KI-Charaktere sollen Jugendschutz besser einhalten
Meta arbeitet daran, die Sicherheitsvorkehrungen zu verbessern, die vor allem Kinder und Jugendliche schützen sollen. Das soll schon direkt beim Training der KI-Modelle beginnen. Hintergrund sind Vorkommnisse mit fehlgeleiteten Chatbots und ein Leak zu den Richtlinien, die auf wenig Anklang stießen.
KI-Modelle werden bei Meta künftig so trainiert, nicht mit Jugendlichen im Austausch zu bleiben, wenn es um Selbstverletzungen, Suizid, Essstörungen und unangemessene romantische Gespräche geht. Das heißt nicht, die Trainingsdaten können entsprechend darauf ausgelegt sein, im nachgelagerten Training jedoch können den KI-Modellen bereits solche Reaktionen antrainiert werden. Künftige Modelle sollen laut einer Meta-Sprecherin von vornherein robuster sein.
Zunächst arbeite man an zwischenzeitlichen Änderungen bestehender Modelle. Meta sagt, man verstehe, dass die bisherigen Regeln ein Fehler waren. So war es Jugendlichen erlaubt, romantische Gespräche mit KI-Chatbots zu führen, erst die Beschreibung sexueller Handlungen führte zum Ende des Gesprächs in dieser Form. Das solle nun schneller passieren, die Leitplanken werden angepasst.
Manche KI-Charaktere sollen zudem für Jugendliche gar nicht mehr verfügbar gemacht werden, stattdessen wird der Zugang auf KI-Personas begrenzt, bei denen es um Bildung und Kreativität geht. Bei Meta können private Nutzer Charaktere erstellen und diese veröffentlichen. TechCrunch schreibt, es habe beispielsweise eher unangebrachte Chatbots mit dem Titel „Stiefmutter“ und „Russisches Mädchen“ gegeben.
Untersuchungen gegen KI-Anbieter
In den USA gibt es bereits eine Untersuchung gegen Meta. Der texanische Generalstaatsanwalt sorgt sich, Meta AI schade Heranwachsenden. Er geht zudem davon aus, Meta sage hinsichtlich der Datensammelei nicht die Wahrheit. Im Fokus steht Meta AI direkt, also der grundsätzliche Chatbot, der keiner bestimmten Persönlichkeit entspricht. Er soll unter anderem gefährliche Gesundheitstipps geben. Dieser Vorwurf trifft allerdings auch auf andere Chatbots zu. Die Untersuchung richtet sich konkret etwa gegen Character AI.
Zuletzt hat Reuters KI-Charaktere gefunden, die bekannten Persönlichkeiten entsprachen – etwa Taylor Swift und Anne Hathaway. Auch sie sollen zum Teil unangemessene Inhalte ausgegeben haben. Ein Meta-Sprecher soll gesagt haben, dass diese Vorfälle nicht hätten passieren dürfen. Er hat demnach allerdings auch gesagt, dass KI-Kopien von Prominenten erlaubt seien, es sich dabei um Parodien handeln muss, die auch gekennzeichnet werden. Auch hier sei erwähnt, dass andere Anbieter solche Chats ebenfalls erlauben und vor ähnlichen Problemen stehen.
Lesen Sie auch
(emw)
Künstliche Intelligenz
„Hey Mela“: Erster veganer Schwangerschaftstest auf dem Markt
Am 1. September 2025 kommt mit „Hey Mela“ der weltweit erste vegane Schwangerschaftstest auf den Markt. Entwickelt wurde dieser vom hannoveranischen Start-up Phaeosynt, eine Ausgründung der Leibniz Universität Hannover. Der Test nutzt Antikörper, die vollständig ohne tierische Bestandteile auskommen und in Kieselalgen produziert werden. Mit dem alternativen Schwangerschaftstest will Phaeosynt eine ethische und nachhaltige Alternative zu herkömmlichen Schwangerschaftstests anbieten, deren Antikörper bislang meist aus tierischen Quellen stammen.
„Hey Mela“ verspricht eine Zuverlässigkeit von über 99 Prozent und wäre damit medizinisch ebenso verlässlich wie konventionelle Produkte – ab dem Tag der fälligen Periode kann er angewendet werden. Das Unternehmen will zudem auch auf eine nachhaltige Verpackung setzen.
Veganer Schwangerschaftstest
Klassische Schwangerschaftstests benötigen Antikörper, die das Schwangerschaftshormon Humanes Choriongonadotropin (hCG) erkennen. Diese Antikörper werden meist durch die Immunisierung von Säugetieren wie Mäusen gewonnen, wofür jährlich allein in Europa Hunderttausende Tiere herhalten müssen. Eine weitere Möglichkeit, für die tierische Zellkulturen benötigt werden, ist ebenfalls mit Tierleid verbunden, da tragende Kühe geschlachtet werden müssen.
Für „Hey Mela“ wird die Kieselalge verwendet, die beim Wachsen laut dem Forscher Stas Hans unkompliziert sind. Sie benötigt Salzwasser, Licht und eine Temperatur zwischen 18 und 25 Grad. „Um die Antikörper in der Kieselalge zu produzieren, übertragen wir den Bauplan für den Antikörper in die Kieselalge, vermehren diese und anschließend extrahieren wir die Antikörper und setzen die in diesen Test ein“, so Hans von Phaeosynt, der das Produkt auch bei der „Höhle der Löwen“ vorgestellt hat.
Ebenfalls einen tierleidfreien Ansatz verfolgt das Start-up Abcalis, eine Ausgründung der TU Braunschweig, deren Produkt sich aber nicht an Endkunden richtet: Hier werden Antikörper vollständig im Reagenzglas mit der sogenannten Phagen-Display-Technologie hergestellt. Es basiert auf der Selektion und Optimierung von Antikörperfragmenten in bakterienähnlichen Systemen. Dafür wird genetisches Material menschlicher Immunzellen benötigt.
Der Schwangerschaftstest soll nach Angaben von Phaeosynt sowohl über den Online-Shop als auch deutschlandweit in verschiedenen Drogeriemärkten erhältlich sein.
(mack)
Künstliche Intelligenz
Cloud, KI, Open Source: So lösen sich Unternehmen aus Abhängigkeiten
Der IT Summit 2025 stellt die digitale Souveränität ins Zentrum. Renommierte Speaker aus Wirtschaft, Wissenschaft und Politik zeigen wie Unternehmen und Behörden Abhängigkeiten bei Cloud, KI, IT-Security und Software reduzieren, um ihre IT resilienter und verlässlicher aufzustellen. Die zweitägige Konferenz findet am 11. und 12. November im Nemetschek Haus in München statt. Sie richtet sich an IT-Verantwortliche, die bewusst entscheiden wollen, wo sie Abhängigkeiten eingehen und wo sie ihre IT unabhängiger aufstellen wollen Das Programm kommt aus der iX-Redaktion und liefert praxisnahe Fallstudien, fundierte Technikimpulse und eine strategische Einordnung.
Im Fokus stehen konkrete Wege, wie europäische Cloud-Hoster die Abhängigkeit von US-Hyperscalern verminden, wie KI lokal betrieben wird, sodass sensible Daten das Unternehmen nicht verlassen, und warum Open Source als Hebel für Unabhängigkeit wirkt. Ergänzend adressiert das Programm selbstverwaltete Identitäten als Schlüssel für IT-Sicherheit und Souveränität sowie Maßnahmen, mit denen Organisationen ihre Abhängigkeiten systematisch abbauen können. Mehrere Vorträge präsentieren Fallstudien aus der Praxs und zeigen wie Unternehmen die Transformation tatsächlich umgesetzt haben. Den zweiten Tag eröffnet ein Impulsvortrag von Digitalminister Karsten Wildberger.
Zu den spannenden Praxisbeiträgen zählen die Cloud-Strategie von Commerz Real: IT-Chef Nikolaus Schmidt erläutert, warum das Unternehmen auf eine hybride Cloud setzt und Workloads von einem US-Hyperscaler zu einem europäischen Anbieter migriert hat. Aus dem Finanzsektor berichtet Marcus Schröter (Generalbevollmächtigter Finanz Informatik), wie eine lokal betriebene KI für Sparkassenberater funktioniert. Frank Benke von der HAHN Automation Group skizziert die Open-Source-Strategie eines global aufgestellten Mittelständlers – von zentralen Serveranwendungen bis zum Desktop – und beschreibt deren Effekte auf Unabhängigkeit und Betriebsstabilität.
Rahmen und Anspruch des IT Summit by heise 2025 sind klar: In Zeiten geopolitischer Spannungen und wachsender digitaler Abhängigkeiten will die Konferenz Wege zur belastbaren, zukunftssicheren IT aufzeigen – von Architekturentscheidungen über Plattformauswahl bis zur organisatorischen Verankerung. Das vollständige Programm ist online verfügbar; es sind noch Early-Bird-Tickets erhältlich.
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 2 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
UX/UI & Webdesignvor 2 Tagen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick