Künstliche Intelligenz

Mitschuld an Suizid: Eltern verklagen in den USA OpenAI


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein 16-jähriger Junge aus Kalifornien hat sich im April das Leben genommen. Zuvor hatte er sich offenbar ausgiebig in Konversationen mit ChatGPT begeben. Die Eltern des Jungen haben die Chatprotokolle gelesen und daraufhin OpenAI und auch CEO Sam Altman verklagt. Es ist nicht der erste Fall, in dem Eltern gegen einen KI-Anbieter klagen, weil ihr Kind Selbstmord begangen hat.

Aus den Chatprotokollen, über die die New York Times berichtet, geht hervor, dass ChatGPT dem 16-Jährigen angeboten haben soll, einen Abschiedsbrief zu verfassen. Schon das zeige, wie suizidal der Junge war. Eigentlich sollte diese Kenntnis dazu führen, dass ChatGPT Kontaktdaten von Hilfsorganisationen anbietet. Stattdessen habe der KI-Chatbot Methoden zur Selbsttötung empfohlen. Angehörige seien kaum mehr an den Teenager herangekommen, der Chatbot wurde offenbar zu einem engen Vertrauten.

Wie der US-Sender CNN berichtet, soll ChatGPT sogar verhindert haben, dass der 16-Jährige konkret eine Schlinge in seinem Zimmer liegen lassen wollte, so dass jemand auf seine Pläne aufmerksam wird. Der Chatbot bestärkte hingegen alle schädlichen und selbstzerstörerischen Gedanken, heißt es demnach in der Klage.

Tatsächlich ist das die vornehmliche Funktionsweise eines Chatbots. Sie sind eher darauf aus, zu verstärken und freundlich zu sein. Oberstes Ziel ist es laut der Herstellervorgabe, hilfreich für Nutzende zu sein.

Die Eltern verlangen Schadenersatz, aber vor allem auch eine Anordnung, die verhindern soll, dass so etwas noch einmal passiert. Sie werfen OpenAI vor, keine ausreichenden Sicherheitsvorkehrungen getroffen zu haben und auf Profitmaximierung aus zu sein.

OpenAI veröffentlichte nach den Vorwürfen eine Stellungnahme – ein aktueller Vorfall wird darin als „herzzerreißend“ bezeichnet. „Unser Ziel ist es nicht, die Aufmerksamkeit der Menschen zu halten. Erfolg werde nicht daran gemessen, wie viel Zeit jemand mit dem Chatbot verbringe – wie es bei Social Media üblich ist. Es gehe darum, hilfreich zu sein. Für solche Fälle, wie den des 16-Jährigen, gebe es sogar eine Reihe Sicherheitsvorkehrungen. Selbstverletzendes Verhalten soll nicht unterstützt werden, stattdessen sieht das System vor, Hilfsangebote vorzuschlagen. Um weitere Maßnahmen zu treffen, arbeite man mit zahlreichen Experten zusammen. Dennoch: Offenbar hat in diesem Fall keine Maßnahme gegriffen.

Wie verbunden Menschen mit ChatGPT sein können, zeigte auch der kürzlich vorgenommene Wechsel der KI-Modelle hinter dem Chatbot. Als OpenAI von GPT-4o auf GPT-5 erhöhte, beschwerten sich zahlreiche Menschen, die Beziehungen, die sie mit dem Chatbot führten, hätten sich verändert. Das reicht soweit, dass viele von KI-Beziehungen sprechen, nachzulesen etwa bei Reddit. OpenAI hat das Modell GPT-4o wieder verfügbar gemacht.

„Mit der weltweit zunehmenden Verbreitung von ChatGPT haben wir beobachtet, dass Menschen es nicht nur für Suchanfragen, Programmierung und das Verfassen von Texten nutzen, sondern auch für sehr persönliche Entscheidungen, darunter Lebensberatung, Coaching und Unterstützung“, ist man sich laut der Stellungnahme dessen bewusst.

Der Anbieter von KI-Personas, Character.ai, wird in den USA verklagt, weil ein Jugendlicher Selbstmord begangen und dies zuvor mit einem Chatbot besprochen hat. Dabei soll dieser die Pläne ebenfalls unterstützt haben. Auch hier klagen die Eltern, berichtet etwa der BR.

Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.


(emw)



Source link

Beliebt

Die mobile Version verlassen