Apps & Mobile Entwicklung

Darknet-Betreiber in den USA: Zwei ChatGPT-Prompts als Grundlage für Gerichtsbeschluss


In den USA nutzte die Strafverfolgungsbehörde Homeland Security Investigations ChatGPT-Prompts, um einen Tatverdächtigen zu identifizieren. Diese Form eines „reverse AI prompt request“ – also eine Rückwärtssuche – ist neu, berichtet Forbes.

Der Fall drehte sich um den Betreiber von 15 Darknet-Plattformen, über die Material von Kindesmissbrauch verbreitet wurde. Die Webseiten hatten insgesamt rund 300.000 Nutzer.

Rückwärtssuche basierend auf harmlosen ChatGPT-Prompts

Die Ermittler waren verdeckt auf der Plattform unterwegs und chatteten dort mit dem Administrator. In diesen Gesprächen berichtete der Verdächtige, dass er ChatGPT nutze. Diese Chatverläufe hatten eigentlich nichts mit dem Fall zu tun. Er nannte Prompts wie „What would happen if Sherlock Holmes met Q from Star Trek?“, in einer anderen Diskussion ging es um ein 200.000-Wörter-Gedicht, in dessen Rahmen er ein Gedicht im Trump-Stil über seine Liebe zu dem Song YMCA von den Village People erhielt. Dieses Gedicht kopierte er.

Die US-Behörde nutzte diese Daten als Grundlage, um bei OpenAI die Herausgabe von Informationen anzufordern. Die Liste umfasste sowohl die Namen und Adressen der relevanten Konten, die Inhalte von weiteren Chatverläufen sowie Kontoinformationen wie Zahlungsdaten.

Dass Suchmaschinenbetreiber wie Google aufgefordert werden, die Daten von Nutzern herauszugeben, die bestimmte Suchbegriffe verwendet haben, ist bekannt. Bei generativen KI-Diensten ist diese Form der Rückwärtssuche laut Forbes neu.

Welche Daten genau übermittelt werden, geht aus den Fallakten nicht hervor. Veröffentlicht wurden diese in der letzten Woche vom US-Bundesstaat Maine. Die Dokumente zeigen lediglich, dass OpenAI nach Informationen gesucht und eine Excel-Tabelle übermittelt hat, heißt es im Forbes-Bericht. Unklar sei etwa, inwiefern die Daten genutzt werden, um weitere Betreiber der Darknet-Webseiten zu enttarnen.

Verdächtiger wurde ohne ChatGPT-Daten enttarnt

OpenAI wollte den Fall auf Anfrage von Forbes nicht kommentieren. Die US-Behörden benötigten am Ende auch nicht die ChatGPT-Daten, um den Tatverdächtigen zu identifizieren. Der Verdächtige hatte im Verlauf des Chats schon weitere Informationen genannt, die ausreichten, um ihn zu enttarnen. Er teilte etwa mit, dass er an Gesundheitschecks teilnimmt, sieben Jahre in Deutschland gelebt hat und sein Vater in Afghanistan diente. Später stellte sich heraus, dass die Person auf der Ramstein Air Force Base in Deutschland tätig war und sich beim amerikanischen Verteidigungsministerium beworben hatte. Er wurde nun angeklagt wegen Verschwörung und des Vertriebs von Kindesmissbrauchsmaterial.

OpenAI selbst verkündet regelmäßig, die Verbreitung von Kindesmissbrauchsmaterial über den Dienst einzudämmen. Daten des Unternehmens zufolge meldete OpenAI zwischen Juli und Dezember 2024 insgesamt 31.500 Inhalte in diesem Kontext an das National Center for Missing and Exploited Children. Im selben Zeitraum hat OpenAI laut Forbes 71 Behördenanfragen zu Nutzerkonten oder Inhalten erhalten, die zur Herausgabe von Informationen über 132 ChatGPT-Konten führten.

Ermittler nehmen ChatGPT verstärkt ins Visier

Was der Fall zeigt, ist der verstärkte Fokus von Ermittlungsbehörden auf KI-Dienste wie ChatGPT, erklärte Jennifer Lynch, Anwältin bei der Electronic Frontier Foundation, gegenüber Forbes. Angesichts eines Gerichtsbeschlusses, der auf zwei Prompt-Eingaben eines Nutzers basiere, würden sich auch grundsätzliche Datenschutzfragen stellen.

Auf ChatGPT-Inhalte greifen Behörden ohnehin zu. Der Spiegel berichtete vor Kurzem von einem Vandalismus-Fall in den USA, in dem der Verdächtige nach der Tat bei ChatGPT erklärte, wie er auf Autos herumgesprungen ist. Die Chatverläufe finden sich nun in den Gerichtsdokumenten.



Source link

Beliebt

Die mobile Version verlassen