Künstliche Intelligenz

US-Behörde untersucht Chatbots auf Kindersicherheit


Wie messen, testen und überwachen US-Datenkonzerne ihre öffentlichen KI-Chatbots auf deren negative Auswirkungen auf Kinder und Jugendliche? Dieser Frage geht die US-Bundesbehörde FTC (Federal Trade Commission). Dazu hat sie interne Unterlagen von Alphabet, Character Technologies, Meta Platforms (inklusive Instagram), OpenAI, Snap und X.Ai angefordert.

Besondere Sorge hat die FTC in Bezug auf Fälle, bei denen ein Chatbot nicht für ein einzelnes Anliegen kurz benutzt wird, sondern wenn er länger, als Bezugsperson (Companion), fungiert. Die behördliche Untersuchung soll laut Mitteilung ergründen, welche Schritte die Firmen gesetzt haben, um die Sicherheit ihrer Chatbots bei Einsatz als Bezugsperson zu evaluieren, die Nutzung durch Kinder und Jugendliche einzuschränken und potenzielle negative Effekte auf sie hintanzuhalten, und wie sie die Anwender und deren Eltern auf die von ihren Bots ausgehenden Gefahren hinweisen. Zudem will sie die Einhaltung des US-Kinderdatenschutzrechts (beruhend auf dem Gesetz COPPA) überprüfen und sich über die Geschäftsmodelle informieren.

Aktueller Anlass sind die Mitte August durchgesickerten internen Richtlinien Meta Platforms für Training wie Betrieb generativer KI (GenAI: Content Risk Standards). Sie erlauben Rassismus, falsche medizinische Behauptungen und anzügliche Chats mit Minderjährigen. Dass Metas KI-Chatbots mit Teenagern flirten oder sexuelle Rollenspiele durchführen, war bereits bekannt. Neu ist der Nachweis, dass dies kein Fehler war, sondern Metas expliziten Richtlinien entsprochen hat.

Nach einer Anfrage Reuters hat Meta den Abschnitt, der Flirts und romantische Chats mit Kindern erlaubt, entfernt. Das muss man Meta glauben: Die neuen Richtlinien hält der Datenkonzern unter Verschluss. Da ist es kein Wunder, dass Behörden genauer hinschauen. Ein US-Senator hat bereits eine Untersuchung Metas angeregt, ein anderer möchte amerikanische KI-Unternehmen hingegen ein Jahrzehnt lang ohne rechtliche Einschränkungen frei experimentieren lassen.

In den USA sind bereits mehrere Klagen hinterbliebener Eltern gegen Betreiber generativer KI-Chatbots anhängig, weil sie Kinder in den Suizid getrieben, dabei mit Anleitungen und Ermunterungen unterstützt und/oder keine Hilfe organisiert haben sollen. Im August haben die Justizminister aus 44 US-Staaten der KI-Branche die Rute ins Fenster gestellt. „Ihr werdet dafür verantwortlich gemacht, wenn Ihr wissentlich Kindern schadet“, heißt es in einem offenen Brief, den die National Association of Attorneys General an mehrere Datenkonzerne geschickt hat. Es gäbe bereits Hinweise auf strukturelle und systematische Gefahren, die von KI-Assistenten für Heranwachsende ausgehen.


(ds)



Source link

Beliebt

Die mobile Version verlassen