Künstliche Intelligenz

Metas KI-Charaktere sollen Jugendschutz besser einhalten


Meta arbeitet daran, die Sicherheitsvorkehrungen zu verbessern, die vor allem Kinder und Jugendliche schützen sollen. Das soll schon direkt beim Training der KI-Modelle beginnen. Hintergrund sind Vorkommnisse mit fehlgeleiteten Chatbots und ein Leak zu den Richtlinien, die auf wenig Anklang stießen.

KI-Modelle werden bei Meta künftig so trainiert, nicht mit Jugendlichen im Austausch zu bleiben, wenn es um Selbstverletzungen, Suizid, Essstörungen und unangemessene romantische Gespräche geht. Das heißt nicht, die Trainingsdaten können entsprechend darauf ausgelegt sein, im nachgelagerten Training jedoch können den KI-Modellen bereits solche Reaktionen antrainiert werden. Künftige Modelle sollen laut einer Meta-Sprecherin von vornherein robuster sein.

Zunächst arbeite man an zwischenzeitlichen Änderungen bestehender Modelle. Meta sagt, man verstehe, dass die bisherigen Regeln ein Fehler waren. So war es Jugendlichen erlaubt, romantische Gespräche mit KI-Chatbots zu führen, erst die Beschreibung sexueller Handlungen führte zum Ende des Gesprächs in dieser Form. Das solle nun schneller passieren, die Leitplanken werden angepasst.

Manche KI-Charaktere sollen zudem für Jugendliche gar nicht mehr verfügbar gemacht werden, stattdessen wird der Zugang auf KI-Personas begrenzt, bei denen es um Bildung und Kreativität geht. Bei Meta können private Nutzer Charaktere erstellen und diese veröffentlichen. TechCrunch schreibt, es habe beispielsweise eher unangebrachte Chatbots mit dem Titel „Stiefmutter“ und „Russisches Mädchen“ gegeben.

In den USA gibt es bereits eine Untersuchung gegen Meta. Der texanische Generalstaatsanwalt sorgt sich, Meta AI schade Heranwachsenden. Er geht zudem davon aus, Meta sage hinsichtlich der Datensammelei nicht die Wahrheit. Im Fokus steht Meta AI direkt, also der grundsätzliche Chatbot, der keiner bestimmten Persönlichkeit entspricht. Er soll unter anderem gefährliche Gesundheitstipps geben. Dieser Vorwurf trifft allerdings auch auf andere Chatbots zu. Die Untersuchung richtet sich konkret etwa gegen Character AI.

Zuletzt hat Reuters KI-Charaktere gefunden, die bekannten Persönlichkeiten entsprachen – etwa Taylor Swift und Anne Hathaway. Auch sie sollen zum Teil unangemessene Inhalte ausgegeben haben. Ein Meta-Sprecher soll gesagt haben, dass diese Vorfälle nicht hätten passieren dürfen. Er hat demnach allerdings auch gesagt, dass KI-Kopien von Prominenten erlaubt seien, es sich dabei um Parodien handeln muss, die auch gekennzeichnet werden. Auch hier sei erwähnt, dass andere Anbieter solche Chats ebenfalls erlauben und vor ähnlichen Problemen stehen.

Lesen Sie auch


(emw)



Source link

Beliebt

Die mobile Version verlassen