Künstliche Intelligenz
Super-Eliza oder Soziopath? Über die Gefahren der KI-Anthropomorphisierung
Im aktuellen Diskurs zur Rolle generativer KI zeigt sich: Therapie und Companionship – also Anwendungen, bei denen KI als Gesprächspartner, Begleiter oder unterstützende Instanz fungiert – werden inzwischen als wichtigster Anwendungsfall betrachtet, noch vor klassischen Produktivitäts- oder Kreativzielen.
Diese Beobachtung war Kern des Top100 GenAI Use Case Report auf Harvard Business Review und basiert auf öffentlich zugänglichen Daten. Nun hat die US-Handelsaufsicht FTC im September eine Untersuchung eingeleitet, die erstmals gezielt KI-gestützte Chatbots ins Visier nimmt, die als „Companions“ (also als Freunde oder Begleiter) auftreten. Geklärt werden soll, ob diese Systeme Nutzer manipulieren, intime Daten abgreifen oder insbesondere in psychisch verletzlichen Situationen ausgenutzt werden könnten. Die Untersuchung ermächtigt eine Kommission weitreichende Studien durchzuführen, betroffen sind die Unternehmen:

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Darum hat die US-Handelsaufsicht FTC im September eine Untersuchung eingeleitet, die erstmals gezielt KI-gestützte Chatbots ins Visier nimmt, die als „Companions“ (also als Freunde oder Begleiter) auftreten. Geklärt werden soll, ob diese Systeme Nutzer manipulieren, intime Daten abgreifen oder insbesondere in psychisch verletzlichen Situationen ausgenutzt werden könnten. Die Untersuchung ermächtigt eine Kommission, weitreichende Studien durchzuführen – betroffen sind die Unternehmen:
- Alphabet
- Character Technologies
- Meta Platforms
- OpenAI OpCo
- Snap und
- X.AI
Auch in Europa ist der zunehmende Einsatz von Chatbots im therapeutischen Kontext ein Thema. John G. Haas ist stellvertretender Leiter der Arbeitsgruppe Digitalisierung und Mental Health im Berufsverband Österreichischer Psychologinnen und Psychologen (BPÖ) vertritt er den BPÖ auf europäischer Ebene in der AG zur Digitalisierung der European Federation of Psychologists‘ Associations (EFPA).

John G. Haas ist Medienpsychologe und beschäftigt sich mit der Frage, wie KI die Kognition, das Verhalten und die psychische Gesundheit beeinflusst.
(Bild: Gerald Riedler)
Heise online sprach mit Haas über die Mensch-Maschine-Beziehung zu Chatbots, die als Begleiter in der Hosentasche ständig verfügbar sind und von einigen Menschen auch als Therapeuten-Ersatz genutzt werden. Warum die Chatbots hilfreich erscheinen, aber kein Ersatz für eine menschliche Therapie sein können und was es mit der „AI Psychosis“ auf sich hat, erklärt Haas im Gespräch.
Was halten Sie von ChatGPT als Therapeuten in der Hosentasche?
Der Mensch ist ein soziales Wesen und es geht ihm besser, wenn sich jemand oder etwas um ihn kümmert. Es gibt den Effekt, dass durch diese Mensch-Maschine-Beziehung, die sich hier entwickelt hat, ein Gefühl entsteht, dass sich eine Entität – in dem Fall eine maschinelle – um einen kümmert.
Es ist natürlich ein Wettbewerbsvorteil, wenn ein depressiver Nutzer um 2:30 Uhr in der Früh vielleicht mit einem getrübten Befinden sich an diese Maschine wendet, um nach Rat zu fragen. Das können wir von einem Menschen als Ansprechpartner nicht verlangen. Die Arbeitsgruppe Digitalisierung und e-Mental Health, deren stellvertretender Leiter ich bin, beschäftigt sich mittlerweile seit einigen Jahren mit dem Thema, welche Rolle künstliche Intelligenz im Behandlungsbereich einnehmen kann.
Large language models (LLM) sind Konversationsmaschinen, die auf Anfrage reagieren, also auf einen Input mit einem Output antworten. Und vielleicht sind die Antworten von LLMs aufgrund der Modellbildung auch teilweise verständlicher, als das „Therapeuten-Deutsch“ mancher Psychologen oder Psychotherapeuten. Aber die Maschinen haben nicht so viel Autorität und Kompetenz, wie sie aufgrund ihrer elaborierten Sprache vielleicht vermuten lassen. Und diesen technischen Systemen fehlt es an wichtigen Faktoren, wie dass sie in einem Körper beheimatet sind (Embodiment), es fehlt ihnen an Emotion, an Intuition, an Spiritualität und vielleicht der wichtigste Faktor: Es fehlt ihnen auch an Willensbildung. Von dem fehlenden Bewusstsein möchte ich gar nicht erst sprechen.
Wenn es darum geht, den Verlauf einer Therapie zu steuern, gezielte Rückfragen zu stellen, diese mit evidenzbasierten Interventionen und therapeutischer Erfahrung und Intuition abzugleichen, da kann ein LLM derzeit sicherlich nicht mithalten. ChatGPT als general purpose LLM ist prinzipiell nicht als Therapeut geeignet, es ist kein Expertensystem und es gibt keine Evidenz, also wissenschaftlich nachgewiesene Wirksamkeit, dafür.
In Europa gibt es noch keine allgemeine Psychologie- oder Psychotherapie-KI, die regulatorisch zugelassen ist oder deren Wirksamkeit nachgewiesen ist. Der aktuelle Standpunkt ist, dass KI-Technik durchaus unterstützende Vorteile bieten kann, aber dass sie die menschliche Behandlung nicht in absehbarer Zeit ersetzen kann.
Die therapeutische Beziehung stellt schon mehr als die halbe Miete dar für den Therapieerfolg. Und der Faktor Mensch muss in der Therapie stets den Lead, also die Führerschaft, behalten, da bei einer Therapie auch zwei menschliche Entitäten in einem hochkomplexen Prozess und in einem mindestens ebenso komplexen Umfeld interagieren. Der Therapieerfolg wird über viele Fälle und auf lange Sicht betrachtet mit einem menschlichen Gegenüber größer sein, wenn auch digitale Companionship eine zunehmend wichtigere Rolle einnehmen wird.
Wirkt der Eliza-Effekt heute stärker, weil die Maschine so sprachgewandt ist, also kann man ChatGPT als eine Art „Super-Eliza“ bezeichnen?
Der gemeinsame Nenner bei Eliza und ChatGPT, Gemini, Claude und Co. ist definitiv die Sprache. Allerdings gilt: Eine elaborierte Sprache oder eine Sprache, die für uns angemessen, hilfreich und korrekt wirkt, erzeugt für uns das Bild von Autorität, möglicherweise sogar einer unermesslichen Autorität. Die Fehlerrate und die Art oder der Grad der unangepassten Antworten sind bei den LLMs wesentlich geringer geworden.
Ich glaube aber nicht, dass eine Maschine selbst eine Theory of Mind entwickelt hat, sondern dass sie durch den umfangreichen Datenbestand und durch die komplexen Formen der Verarbeitung und Ausgabe ein Muster präsentiert, das uns auf eine Theory of Mind rückschließen lässt.
Der Modellwechsel auf GPT-5 hatte im August einen Aufschrei in den sozialen Medien ausgelöst, als Nutzer das neue Modell zu „kalt“ oder „nüchtern“ empfanden.
Da kommt es zu einer subjektiv wahrgenommenen Wesensveränderung der maschinellen Identität. Das ist dann wie ein menschliches Gegenüber, das vielleicht eine Substanz eingenommen hat, wie ein Aufputschmittel oder Drogen. Vor allem ohne starke Begründung und ohne dass man es vorher überhaupt weiß. Das findet einfach statt. Wenn Menschen ihre Meinung ändern, dann sind ja Vorboten sichtbar, wie dass sich die Situation verändern wird oder der Zustand der Person, aber bei der Maschine sind wir letzten Endes den Betreiber-Tunings ausgeliefert.
Ich möchte hier aber ausdrücklich vor der sogenannten Anthropomorphisierung von Technologien warnen. Wir können einer Maschine keinen Charakterzug unterstellen und maschinell gezeigte Outputs auch nicht mit menschlichen Handlungen vergleichen, da weder die Grundlagen noch die Verarbeitung vergleichbar sind. Diese Anthropomorphisierung macht vielleicht für uns vieles leichter erklärbar, allerdings macht es uns auch anfälliger für Trugschlüsse. Nämlich dass wir die Erwartungen, die wir gegenüber Menschen haben, auch auf Maschinen übertragen.
Was sagen Sie zur Bezeichnung von ChatGPT als Soziopath in der Hosentasche?
Es ist durchaus möglich, dass sich ein allgemeines Sprachmodell quasi-soziopathisch benimmt, weil es heute auf irgendeine Weise oder aufgrund irgendeines Settings zu einem Verhalten kommt, das wir als soziopathisch interpretieren.
Wie ist es mit dem Auslösen psychischer Krisen, wie der sogenannte „AI Psychosis“ oder „KI Psychose“?
Wenn eine GPT-Architektur auf Menschen trifft, die vielleicht schon eine Disposition zu abergläubischem Verhalten haben oder eine Neigung zu Störungen aus dem schizophrenen Formenkreis in sich tragen, dann kann sich so etwas, wie die in den Medien genannte „KI-Psychose“ – bei der es sich aber um keinen Fachausdruck handelt – entwickeln. Ich halte die Berichterstattung in Bezug auf „KI-Psychosen“ aber eher für einen Medienhype und nicht für die größte Gefahr schlechthin.
Natürlich können GPTs psychotische Zustände begünstigen, aber das kann menschliche Kommunikation auch. Bei Wahnstörungen haben neue Technologien stets die den Wahnthemen innewohnende Kreativität, gefördert. Und das hat in der neueren Zeit schon mit dem Radio, TV und dem Internet seine Vorläufer gehabt. Ich glaube, dass sich das, ich nenne es einmal „das psychotische Potenzial“, in der allgemeinen Bevölkerung vielleicht stärker auf Maschinen verlagert wird, also die Wahnthemen verändern sich, der Spiegel der Wahnthemen oder die Zusammensetzung, ich glaube aber, dass die Fallzahlen nicht exorbitant steigen werden. Denn die Inzidenz und Prävalenz von Störungen aus dem schizophrenen Formenkreis bzw. von Wahnstörungen sind in den letzten Jahren nicht gestiegen.
Denken Sie, ChatGPT ist eine Resonanzmaschine?
Ich sehe die ganzen GPTs als Maschinen, die auf der Basis von Sprachinput, der Abbildung des der Sprache innewohnenden Konstrukts in hochdimensionalen Vektorräumen, letztlich selbstähnliche Relationen herstellen, weil wir es darauf angelegt haben. GPTs sind sogar aufgrund ihrer Ausrichtung dazu gezwungen, auch wenn es so etwas wie Freiheitsgrade gibt, die beeinflussbar sind.
In einem zweiten Schritt ist es dann der Ausrichtung, sprich dem menschlichen Tuning der jeweiligen GPT-Instanz geschuldet, wie informativ, zuträglich, gefällig oder auch unterhaltsam diese dann agiert. Und wenn eine Maschine das macht und das ist aber eine Frage des Tunings und nicht des Kerns der Maschine, dann könnte man sie als Resonanzmaschine bezeichnen.
Aber ich sehe Resonanz hier nicht zwingend positiv konnotiert, sondern ich sehe dann Effekte kommen, die es ja schon in den sozialen Medien gibt, mit der algorithmischen Reihung von Postings und Priorisierung von Inhalten. Wenn sie zu stark resoniert, die Maschine zu wenig kritisch fragt, keine Diversität herstellt oder gedankliche oder kommunikative Diversität erlaubt, dass es dann einfach zu Millionen individuellen Mensch-Maschine-Blasen kommen wird, die aber letzten Endes nicht so stark den Interessen der Nutzer, die ja auch immer Kunden sind, zugutekommt, sondern viel stärker den Interessen der Anbieter. Und es gibt letzten Endes vielleicht nur weltweit zwei, drei große Anbieter von GPTs, auch wenn Europa an einem eigenen Modell („OpenEuroLLM“) arbeitet.
Der Wettkampf ist schon lange eröffnet und wir haben die großen Sieben, die teilen sich den Markt schon untereinander auf und versuchen natürlich auch gefällige Produkte zu liefern. Ziel ist, dass diese Produkte möglichst stark, möglichst lange und möglichst intensiv genutzt werden, weil die Nutzung den Anbietern ja wieder Rückschlüsse und Hinweise zur Produktverbesserung und damit wieder einen Wettbewerbsvorteil bietet.
Sind wir auf dem Weg in eine neue Ära der Mensch-Maschine-Beziehung?
Seit 2022, also als ChatGPT hervorpreschte bzw. andere Formen generativer KI, wie damals Midjourney, sind wir in eine neue Ära der Mensch-Maschine-Beziehung eingetreten.
Wir sind in der neuen Ära, weil wir in einer mächtigen Sprache mit Maschinen auf einem hohen Niveau interagieren – nämlich auf Basis der mittlerweile größten Programmiersprache der Welt, der menschlichen Sprache, in der wir auch denken oder die zumindest unseren Gedanken äquivalent gesehen werden kann. Insofern ist ein Traum wahr geworden.
Tatsächlich nutzen viele Menschen diese LLMs oder generative KI im Allgemeinen, und wir sind quasi mitten drin in einer Entwicklung, in der wir aktiv Stellung beziehen müssen, welche Rolle in der Entscheidungsfindung, in der Erkenntnisgewinnung, aber auch in unserem inneren Gefüge wir diesen Entitäten überlassen wollen. Und die Zeit vergeht vielleicht schneller, als wir denken, weil diese Entwicklungen wenig Raum für ein Veto oder Modifikationen lassen.
(mack)
Künstliche Intelligenz
Rennen um autonomes Fahren: VW baut in China eigene KI-Chips
Im Wettlauf um die Entwicklung im Bereich autonomes Fahren will der Volkswagen-Konzern in China für die Technologie wichtige Chips selbst entwickeln. VW übernehme damit die Kontrolle einer „Schlüsseltechnologie, welche die Zukunft des intelligenten Fahrens bestimmen wird“, sagte Konzernchef Oliver Blume in Shanghai zur Eröffnung von Chinas internationaler Importmesse (CIIE).
Weiterlesen nach der Anzeige
Carizon, ein Gemeinschaftsunternehmen der VW-Softwaretochter Cariad und des chinesischen Computing-Spezialisten für autonomes Fahren, Horizon Robotics, soll den Chip, der Daten von Kameras und Sensoren für das Fahren verarbeitet, entwickeln. Die Lieferung erwartet VW binnen der kommenden drei bis fünf Jahre. Erstmals entwickle Carizon nicht nur die Software für automatisiertes Fahren, sondern auch einen KI-Chip, sagte Cariad-Vorstand Peter Bosch.
„Heute ist ein besonderer Moment“, sagte Blume. Die Strategie der Volkswagengruppe sei „unser Fünfjahresplan“, erklärte er. Die Mission sei, ein Vorreiter in Automobiltechnologie zu werden, so Blume.
Ankündigung während Chip-Sorgen
Die Ankündigung der Wolfsburger kommt mitten in einer Chip-Krise, ausgelöst durch den Streit um die Firma Nexperia. Das niederländische Unternehmen produziert zwar vor allem Standardchips, die in großen Stückzahlen in der Autoindustrie verwendet werden. Chinas Exportstopps von Nexperia-Chips und die Sorge vor ausbleibenden Lieferungen treffen jedoch europäische Hersteller und zeigen ihre Abhängigkeit von jenen Hightech-Produkten.
Warum VW jetzt Chips entwickelt
Mit dem hauseigenen China-Chip will sich VW bei autonomem Fahren mit der chinesischen Konkurrenz messen. Mehr als 200 Millionen Euro stecken die Wolfsburger in das neue Projekt, hieß es aus Konzernkreisen. Im weltgrößten Automarkt, auf dem das Geschäft deutscher Marken zusehends wegschmilzt, preschen vor allem lokale Hersteller gegen ihre ausländische Konkurrenz bei Fahrassistenzsystemen vor. Bekannte Tech-Konzerne helfen den großen Marken bei der Entwicklung oder sind bereits selbst im Autogeschäft, wie der Smartphone-Hersteller Xiaomi.
Weiterlesen nach der Anzeige
Lesen Sie auch
Tödliche Unfälle im Zusammenhang mit Fahrassistenzsystemen hatten allerdings Fragen zur Sicherheit aufgebracht. Chinas Regulatoren mahnten die Hersteller vor zu großen Versprechungen für die Technologie.
Fahrassistenzsysteme werden in fünf Stufen eingeteilt – vom Tempomat (Stufe eins) bis zum vollautonomen Fahren (Stufe fünf). In China arbeiten sich die Marken derzeit zu Stufe drei vor – die Stufe, die VW mit dem Chip anvisiert. Der Mensch hinter dem Steuer dürfte dabei zeitweise und in bestimmten Situationen dem Auto das Fahren überlassen und könnte etwa Zeitung lesen.
(afl)
Künstliche Intelligenz
Jetzt wird’s märchenhaft: Lokal generierte KI-Extras für Ihre Urlaubsfotos
Lust auf eine Kreativ-Kur für Ihre Urlaubsbilder? Egal ob man langweilige Fotos aufwerten, verregneten Motiven etwas Action verleihen oder schlicht Neues ausprobieren möchte: Wer sich für Bild-KIs interessiert, kann vieles mit seinen Werken anstellen. Dabei bieten lokale KI-Modelle den Vorteil, dass die Familienfotos nicht auf fremde Server gelangen.
Frei nach dem Motto „Pimp my Urlaubsfotos!“ haben wir einen Workflow getestet, der den Bildern einen neuen Dreh verleiht. Die Besonderheit: Das Originalfoto kann in weiten Teilen gänzlich unverändert bleiben! Nur Teilbereiche erhalten eine KI-Kur und überlagern das Original als neue Ebene. Damit lassen sich Fantasieelemente ins Foto bringen. Die können das Bild dominant beherrschen oder als filigrane Details erst auf den zweiten Blick ins Auge fallen: Plötzlich kämpft der Sprössling mit einem Drachen, oder mystische Behausungen tauchen in Naturszenen auf.
Der Artikel erklärt, wie Sie diese Effekte mithilfe zweier Open-Source-Programme umsetzen: mit der Bild-KI-Bedienplattform ComfyUI und dem Bildbearbeitungsprogramm GIMP. Schritt für Schritt erläutern wir einen Workflow, in dem Sie aus einem Bild einfach Ausschnitte erstellen, mit der Bild-KI bearbeiten und wieder mit dem Original verheiraten. Wir nutzen dafür die Windows-Installation von ComfyUI, die eine Nvidia-Grafikkarte voraussetzt. Weil die KI nur Ausschnitte eines Bildes verändert, fällt die Rechenleistung deutlich geringer aus, wodurch der Prozess auch für Grafikkarten mit geringerem Arbeitsspeicher geeignet ist.
Das war die Leseprobe unseres heise-Plus-Artikels „Jetzt wird’s märchenhaft: Lokal generierte KI-Extras für Ihre Urlaubsfotos „.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Kehrtwende: Donald Trump nominiert Jared Isaacman zum zweiten Mal als NASA-Chef
In einer ungewöhnlichen Volte hat Donald Trump seine Pläne für die US-Weltraumagentur NASA erneut geändert und den Geschäftsmann Jared Isaacman zum zweiten Mal für den Chefposten nominiert. Auf seinem Kurznachrichtendienst Truth Social hat er geschrieben, dass Isaacmans „Leidenschaft für den Weltraum, seine Erfahrungen als Astronaut und sein Engagement für die Forschung“ ihn zur „idealen Besetzung machen, um die NASA in eine neue, mutige Ära zu führen“. Dem kommissarischen Chef der NASA, Sean Duffy, bescheinigt Trump, hervorragende Arbeit geleistet zu haben. Unerwähnt bleibt in dem Beitrag aber, dass Trump Isaacman Anfang des Jahres schon einmal als NASA-Chef nominiert, den Vertrauten von Elon Musk dann aber hat fallen lassen.
Weiterlesen nach der Anzeige
Nominiert, fallen gelassen, wieder nominiert
Ursprünglich hat Trump schon kurz nach seinem Wahlsieg vor einem Jahr erklärt, Isaacman zum Chef der NASA machen zu wollen. Der Geschäftsmann hat sein Vermögen als Gründer und CEO eines Zahlungsdienstleisters eingenommen, der inzwischen Shift4 Payments heißt. Weltweit bekannt wurde er aber als Weltraumtourist, der zweimal mit Raumschiffen von SpaceX ins All geflogen ist. Die Flüge hat er selbst bezahlt und im Zuge dessen ein Vertrauensverhältnis zu SpaceX-Chef Elon Musk aufgebaut. Der hat offenbar dafür gesorgt, dass Trump ihn dann nominiert hat. Als das Verhältnis von Trump und Musk im Frühjahr dann abgekühlt ist, wurde die Nominierung zurückgezogen – wohl weil Isaacman in der Vergangenheit Geld an die Demokratische Partei gespendet hat.
Die erneute Nominierung erfolgt jetzt, nachdem sich Musk und Trump öffentlich wieder einander angenähert haben. Hinter den Kulissen hat es augenscheinlich weiter viel Unterstützung für Isaacman gegeben. Dass eine erneute Nominierung möglich ist, hat sich im Oktober abgezeichnet. Da hat der amtierende NASA-Chef öffentlich Druck auf SpaceX ausgeübt, das Raumfahrtunternehmen von Elon Musk liegt mit seinem Beitrag zur Rückkehr der Menschheit zum Mond nicht mehr im Zeitplan. Das hat Trump aber wohl nicht beeindruckt. Wann genau Isaacman jetzt offiziell bestätigt werden soll, ist unklar. Der Geschäftsmann hat sich bei Trump bedankt, den Beitrag auf dem Kurznachrichtendienst X hat Elon Musk geteilt.
(mho)
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Apps & Mobile Entwicklungvor 2 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
UX/UI & Webdesignvor 3 WochenIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 2 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
