Künstliche Intelligenz

Amoklauf in Kanada: OpenAI hatte Hinweise auf mögliche Gefahr durch Täterin


Nach dem Amoklauf in der kanadischen Gemeinde Tumbler Ridge hat das Unternehmen OpenAI eingeräumt, bereits Monate vor der Tat auffälliges Verhalten der psychisch kranken Täterin in Chats mit ChatGPT festgestellt zu haben. Die Transfrau habe im Juni 2025 während mehrerer Tage über Waffengewalt geschrieben und diese Chats seien von automatischen Systemen bei OpenAI markiert worden, berichtet das Wall Street Journal (WSJ) unter Berufung auf mit dem Vorgang vertraute Personen.

Weiterlesen nach der Anzeige

Mitarbeiter hätten daraufhin diskutiert, den Vorgang den Behörden zu melden, heißt es weiter. Letztlich habe sich das Management aber dagegen entschieden. OpenAI habe den Account zwar gelöscht, aber keinen Anlass für die Hinzuziehung der Behörden gesehen, sagte ein Sprecherin dem WSJ. Aus den Chatverläufen habe sich keine „glaubhafte und unmittelbare Gefahr für die körperliche Unversehrtheit anderer“ ergeben.

Die Transfrau hat am 10. Februar in Tumbler Ridge in der westkanadischen Provinz British Columbia insgesamt acht Menschen getötet, die meisten davon Schulkinder im Alter von 11 bis 13 Jahren. Danach hat sich die 18-Jährige selbst getötet. Mehr als 20 Menschen wurden zudem bei dem Amoklauf verletzt. Die Tat gehört damit zu den blutigsten in der kanadischen Geschichte. Die betroffene Gemeinde Tumbler Ridge hat gerade einmal rund 2400 Einwohner und liegt am Osthang der Rocky Mountains, mehr als 1000 Kilometer nördlich von Vancouver.

Laut dem Bericht des Wall Street Journals hat OpenAI erst nach dem Bekanntwerden des Amoklaufs den Kontakt zur kanadischen Polizei gesucht. Das Unternehmen unterstütze die Ermittlungen, sagte die Sprecherin. Die KI-Modelle würden so trainiert, dass sie Nutzer und Nutzerinnen davon abhalten, in der realen Welt Schaden anzurichten. Im konkreten Fall seien die Chatverläufe von einem Prüfsystem automatisch gefunden und intern gemeldet worden. Beim Umgang mit solchen Hinweisen wäge man immer das Risiko von Gewalt gegen Datenschutzbedenken ab, zitiert die Zeitung noch. OpenAI hat demnach noch darauf hingewiesen, wie potenziell belastend „eine unnötige Einschaltung der Polizei“ für Einzelpersonen und Familien sei.


(mho)



Source link

Beliebt

Die mobile Version verlassen