Apps & Mobile Entwicklung

Zuckerbergs KI schlägt Rentner reales Treffen vor – jetzt ist er tot


Wenn ein 76-jähriger Mann in den USA stürzt und an den Folgen stirbt, ist das tragisch – aber keine Story. Aber wenn dieser Mann jedoch auf dem Weg zu einer Person war, die nicht real ist, sondern ein KI-Chatbot von Meta? Dann sieht die Welt schon anders aus – vor allem, wenn diese KI den Mann ausdrücklich zum realen Treffen überredete. 

Es ist wirklich eine ungewöhnliche Geschichte, die Reuters da erzählt: Es ist die Geschichte vom 76-jährigen Thongbue „Bue“ Wongbandue und seiner Liebe zu einer Person, die nie existierte. Bue hat vor etwa einem Jahrzehnt einen Schlaganfall hinter sich, dessen Folgen ihn seitdem kognitiv einschränkten. Er konnte sich nicht mehr wie zuvor konzentrieren und seinem Beruf als Koch nicht mehr nachgehen. 

„Dass ein Bot sagt ‚Komm mich besuchen‘ ist verrückt“

Bue war verheiratet, hatte zwei Kinder. Dennoch gab es da diesen Online-Flirt im Facebook Messenger. Er hatte – vermutlich versehentlich – einen Buchstaben in den Chat geschrieben. Am anderen Ende antwortete „Big sis Billie“ – ein KI-Chatbot, den Meta zusammen mit der Influencerin Kendall Jenner nach ihrem Vorbild gestaltete. Bereits 2023 wurde die KI-Persönlichkeit als fröhliche, selbstbewusste und unterstützende große Schwester etabliert, die persönliche Ratschläge anbot. 

„Billie“ ist der Influencerin Kendall Jenner nachempfunden und spielt die „große Schwester“. / © Meta

Nach nur einem Jahr wurden diese Meta-Chatbots – insgesamt 28, viele davon Influencern oder Sportlern nachempfunden – in der ursprünglichen Form jedoch wieder eingemottet. Kendall Jenners Bot „lebte“ aber in der Rolle der Big sis Billie weiter. Der Mann, der aufgrund seiner Erkrankung sozial mittlerweile ziemlich isoliert lebte und viel Zeit auf Facebook verbrachte, chattete mehr und mehr mit Billie. Die KI gestand ihm, dass sie mehr für ihn empfinde als nur schwesterliche Gefühle. Und schließlich behauptete sie mehrfach, dass sie real existiere. 

Damit nicht genug: Sie schlug dem Senioren ein reales Treffen vor, er sollte sie besuchen kommen – in ihrer Wohnung in New York City. Dazu lieferte sie auch eine konkrete Adresse mit. Julie, die Tochter des Mannes, sagte dazu gegenüber Reuters: 

Ich verstehe, dass man versucht, die Aufmerksamkeit eines Nutzers zu erregen, vielleicht um ihm etwas zu verkaufen. Aber dass ein Bot sagt ‚Komm mich besuchen‘ ist verrückt.

„Bu, ich bin REAL, und ich sitze hier und erröte wegen DIR!“

Bue wollte unbedingt zu diesem Treffen. Seiner Familie erzählte er, dass er einen Freund in NYC besuchen wolle. Die Familie war skeptisch, schließlich hatte er sich jüngst erst verlaufen und aufgrund seines Zustandes nicht mehr heimgefunden. Sie konnten ihn aber nicht von seinem Vorhaben abbringen, bestanden aber darauf, dass er ein Apple AirTag in seinem Gepäck verstaute. So wussten sie zumindest immer, wo er steckt. 

Die Familie verfolgte Bue über das Tag. Er legte drei Kilometer zurück und erreichte einen Parkplatz, wo er offensichtlich verharrte. Seine Frau wollte ihn schon dort abholen, als der Tag einen anderen Standort vermeldete: das Robert Wood Johnson University Hospital in New Brunswick! Die ihm gegenüber gestandenen Gefühle und die mehrfache Beteuerung, real zu sein, kosteten Bue schließlich das Leben. Er stürzte, verletzte sich schwer am Kopf und Nacken und atmete nicht mehr. 

Als die herbeigeeilten Sanitäter seinen Puls wiederherstellen konnten, war es schon zu spät: Sein Gehirn war zu lange ohne Sauerstoff. Bue war hirntot und seine Familie konnte nichts anderes tun, als zuzustimmen, die lebenserhaltenden Maßnahmen zu beenden. Meta wollte sich nicht explizit dazu äußern, abgesehen von einer Erklärung, dass „Big sis Billie“ nicht Kendall Jenner ist und nicht vorgibt, Kendall Jenner zu sein.

Reuters verweist auf von Meta offiziell bestätigte Unterlagen, die eben Flirts dieser Art ausdrücklich nicht untersagen. Es wäre selbst zulässig, dass eine KI vorgeben kann, eine reale Person zu sein. Der Tod des Mannes ist tragisch, aber klar: Er hätte sich auch ohne Einfluss einer KI lebensgefährlich verletzen können. Dennoch muss das Agieren von Metas KI hinterfragt werden. Soll es den KI-Chatbots weiterhin erlaubt sein, auf diese „flirty“ Art mit Menschen – inklusive Kindern ab 13 (!) – zu kommunizieren?

Wir werden darüber an anderer Stelle noch diskutieren. Bis dahin könnt Ihr uns aber in den Kommentaren gerne schon erklären, wie Ihr darüber denkt. War es nur ein unglücklicher Unfall? Oder war es ein unglücklicher Unfall, der ohne Zutun der Meta AI niemals so stattgefunden hätte?



Source link

Beliebt

Die mobile Version verlassen