Künstliche Intelligenz

US-Staatsanwalt untersucht KI-Chatbots von Meta und Character.ai


Weil die KI-Chatbots von Meta und Character.ai potenziell gefährlich sein können, hat der US-Staatsanwalt Ken Paxton eine Untersuchung eingeleitet. Konkret geht es um die Sicherheit von Heranwachsenden und vermeintliche Gesundheitstipps, die KI-Modelle geben. Paxton ist bekannt dafür, KI und Social Media kritisch gegenüberzustehen.

Es hat bereits Berichte gegeben, in denen Kinder und Jugendliche seltsame bis gefährliche Tipps von Chatbots bekommen haben. In den USA wird Character.ai von mehreren Eltern verklagt. Die KI-Personas des Unternehmens sollen Kinder in die Isolation getrieben haben, eine Mutter behauptet, die KI habe maßgeblich zum Suizid ihres 14-jährigen Sohnes beigetragen. Character.ai hat wegen dieser Vorwürfe bereits angekündigt, weitere Sicherheitsmaßnahmen zu ergreifen. Dazu gehört, dass Eltern die Möglichkeit bekommen, die Konten der Kinder zu überwachen.

Nun heißt es in einer Pressemitteilung des Generalstaatsanwaltes: Man habe eine Untersuchung gegen Chatbot-Plattformen eingeleitet, „da diese möglicherweise irreführende Geschäftspraktiken anwenden und sich in ihrer Vermarktung fälschlicherweise als Tools für die psychische Gesundheit darstellen.“ KI-Chatbots ahmen laut Paxton Berufsträger aus dem Bereich Gesundheitsvorsorge nach und können fatale Tipps geben. Zudem sieht der Staatsanwalt ein Problem darin, dass Nutzer sensible Informationen preisgeben würden und diese zum Teil von den Anbietern für andere Zwecke genutzt würden – etwa für das Ausspielen von personalisierter Werbung, aber auch um Algorithmen zu entwickeln.

Die Untersuchung soll nun klären, ob die Unternehmen damit gegen das Verbraucherschutzrecht des Bundesstaates Texas verstoßen. Dieses verbietet etwa betrügerische Behauptungen und falsche Angaben zum Datenschutz – was bedeutet, Paxton geht davon aus, dass die Unternehmen falsche Angaben machen. Informationen aus Meta AI, also dem Chatbot von Meta, sollten etwa laut Meta nicht für Werbezwecke genutzt werden.

Paxton schreibt: „Indem sie sich als Quelle emotionaler Unterstützung ausgeben, können KI-Plattformen schutzbedürftige Nutzer, insbesondere Kinder, dazu verleiten, zu glauben, dass sie legitime psychologische Betreuung erhalten.“ Dabei würden ihnen allgemeine Antworten präsentiert, „die auf Grundlage gesammelter personenbezogener Daten erstellt und als therapeutische Ratschläge getarnt sind.“

Zahlreiche Tech-Unternehmen sind zuletzt aus Kalifornien und vor allem dem Silicon Valley nach Texas gezogen. Meta hatte erst kürzlich die Moderationsabteilung der USA nach Texas verlegt. Mark Zuckerberg sprach davon, zurück zu den Wurzeln der Redefreiheit zu kehren, was demnach nach texanischem Recht einfacher ist als in Kalifornien. Faktenchecker hat er zugleich gekündigt. Auch X, Apple, Amazon und Google haben große Büros in Texas. Tesla hat dort sein Headquarter eingerichtet, Elon Musk holte nach der Übernahme von Twitter auch X in den Bundesstaat. Die Hauptstadt Austin trägt inzwischen den Beinamen Silicon Hills. Doch der dortige Generalstaatsanwalt empfängt die Unternehmen offenbar mit nicht ganz so weit ausgebreiteten Armen.

Meta sieht sich zudem einer Klage aus Missouri entgegen. Da geht es ebenfalls um die Richtlinien für Gespräche zwischen KI-Chatbots und Minderjährigen. Ein geleaktes Dokument zeigt, Flirten und sogar Andeutungen von sexuellem Interesse sind erlaubt, nur die Beschreibung expliziter sexueller Handlungen nicht.


(emw)



Source link

Beliebt

Die mobile Version verlassen