Künstliche Intelligenz

OpenAI: Suizidhilfe sei Missbrauch von ChatGPT


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Problem liegt bekanntlich ja immer bei den anderen. So auch im Fall eines 16-Jährigen aus den USA, der Suizid begangen hat. Der Jugendliche hatte zuvor ausführliche Konversationen mit ChatGPT geführt. Dabei bot der Chatbot unter anderem an, beim Verfassen eines Abschiedsbriefes zu helfen. Die Eltern des Jugendlichen haben aufgrund der Chats OpenAI verklagt. Es geht um die Mithilfe zum Suizid und keine angemessenen Sicherheitsmaßnahmen des Chatbots. Doch OpenAI beruft sich nun darauf, dass der 16-Jährige den Chatbot missbraucht habe.

Weiterlesen nach der Anzeige

Deshalb sieht OpenAI sich auch nicht in der Verantwortung, schreibt das Unternehmen in einem Blogbeitrag, in dem sie konkret Stellung zu dem Fall beziehen. Immerhin: OpenAI schreibt darin auch, dass sie für die eigene Verteidigung Informationen zum Fall herausgeben müssen, was ihnen offenbar unangenehm ist – beziehungsweise scheint ihnen klar zu sein, dass dies Menschen und Angehörige verletzen kann. Aber: Das Gericht müsse alle Informationen bekommen. Demnach sei das in der Anklage nicht der Fall.

Wie nun unter anderem TechCrunch berichtet, soll der Jugendliche mehr als neun Monate intensiv mit ChatGPT kommuniziert haben. Dabei soll der Chatbot mehr als 100 Mal darauf aufmerksam gemacht haben, dass er sich Hilfe suchen solle. Und auch in der Klage der Eltern steht demnach, dass der Junge die Sicherheitsvorkehrungen umgehen konnte, sodass ChatGPT ihm „technische Spezifikationen für alles von Überdosis über Ertrinken bis hin zu Kohlenmonoxidvergiftung“ lieferte. ChatGPT soll von einem „schönen Selbstmord“ geschrieben haben.

Das macht sich OpenAI nun zunutze und sagt, da der 16-Jährige die Sicherheitsmaßnahmen ausgehebelt hat, habe er gegen die Nutzungsbedingungen verstoßen, weshalb das Unternehmen also nicht mehr verantwortlich sei. Zudem beruft sich OpenAI darauf, dass auch in der FAQ zu ChatGPT stehe, man solle sich nicht auf das verlassen, was der Chatbot sagt.

In den USA gibt es weitere Klagen gegen OpenAI, weil Jugendliche sich nach langen Konversationen mit ChatGPT selbst verletzt haben. Ein Problem ist, dass KI-Chatbots darauf aus sind, Nutzer zu bestärken. Sie unterstützen jegliches Verhalten. Das liegt unter anderem am Aufbau der dahintersteckenden KI-Modelle. Diese lernen durch positive Bestärkung, die Antworten werden dadurch in der Regel besser, aber eben auch problematischer.

Weiterlesen nach der Anzeige

OpenAI hat bereits eine Reihe Verbesserungen an ChatGPT angekündigt. Der Chatbot soll sensibler reagieren bei Anfragen, die auf mentale gesundheitliche Probleme hindeuten. Das heißt, ganz von sich weisen kann OpenAI die Mitverantwortung offensichtlich doch nicht.

Auch andere Anbieter arbeiten an der Sicherheit ihrer Chatbots – vor allem für Jugendliche und Menschen mit Schwierigkeiten. Meta AI soll beispielsweise etwas zu freizügig mit sexuellen Inhalten gewesen sein. In den USA gibt es daher auch schon Untersuchungen, wie schädlich KI-Chatbots sein können.

Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.


(emw)



Source link

Beliebt

Die mobile Version verlassen