Connect with us

Künstliche Intelligenz

Super-Eliza oder Soziopath? Über die Gefahren der KI-Anthropomorphisierung


Im aktuellen Diskurs zur Rolle generativer KI zeigt sich: Therapie und Companionship – also Anwendungen, bei denen KI als Gesprächspartner, Begleiter oder unterstützende Instanz fungiert – werden inzwischen als wichtigster Anwendungsfall betrachtet, noch vor klassischen Produktivitäts- oder Kreativzielen.

Diese Beobachtung war Kern des Top100 GenAI Use Case Report auf Harvard Business Review und basiert auf öffentlich zugänglichen Daten. Nun hat die US-Handelsaufsicht FTC im September eine Untersuchung eingeleitet, die erstmals gezielt KI-gestützte Chatbots ins Visier nimmt, die als „Companions“ (also als Freunde oder Begleiter) auftreten. Geklärt werden soll, ob diese Systeme Nutzer manipulieren, intime Daten abgreifen oder insbesondere in psychisch verletzlichen Situationen ausgenutzt werden könnten. Die Untersuchung ermächtigt eine Kommission weitreichende Studien durchzuführen, betroffen sind die Unternehmen:




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Darum hat die US-Handelsaufsicht FTC im September eine Untersuchung eingeleitet, die erstmals gezielt KI-gestützte Chatbots ins Visier nimmt, die als „Companions“ (also als Freunde oder Begleiter) auftreten. Geklärt werden soll, ob diese Systeme Nutzer manipulieren, intime Daten abgreifen oder insbesondere in psychisch verletzlichen Situationen ausgenutzt werden könnten. Die Untersuchung ermächtigt eine Kommission, weitreichende Studien durchzuführen – betroffen sind die Unternehmen:

  • Alphabet
  • Character Technologies
  • Instagram
  • Meta Platforms
  • OpenAI OpCo
  • Snap und
  • X.AI

Auch in Europa ist der zunehmende Einsatz von Chatbots im therapeutischen Kontext ein Thema. John G. Haas ist stellvertretender Leiter der Arbeitsgruppe Digitalisierung und Mental Health im Berufsverband Österreichischer Psychologinnen und Psychologen (BPÖ) vertritt er den BPÖ auf europäischer Ebene in der AG zur Digitalisierung der European Federation of Psychologists‘ Associations (EFPA).


John Haas

John Haas

John G. Haas ist Medienpsychologe und beschäftigt sich mit der Frage, wie KI die Kognition, das Verhalten und die psychische Gesundheit beeinflusst.

(Bild: Gerald Riedler)

Heise online sprach mit Haas über die Mensch-Maschine-Beziehung zu Chatbots, die als Begleiter in der Hosentasche ständig verfügbar sind und von einigen Menschen auch als Therapeuten-Ersatz genutzt werden. Warum die Chatbots hilfreich erscheinen, aber kein Ersatz für eine menschliche Therapie sein können und was es mit der „AI Psychosis“ auf sich hat, erklärt Haas im Gespräch.

Was halten Sie von ChatGPT als Therapeuten in der Hosentasche?

Der Mensch ist ein soziales Wesen und es geht ihm besser, wenn sich jemand oder etwas um ihn kümmert. Es gibt den Effekt, dass durch diese Mensch-Maschine-Beziehung, die sich hier entwickelt hat, ein Gefühl entsteht, dass sich eine Entität – in dem Fall eine maschinelle – um einen kümmert.

Es ist natürlich ein Wettbewerbsvorteil, wenn ein depressiver Nutzer um 2:30 Uhr in der Früh vielleicht mit einem getrübten Befinden sich an diese Maschine wendet, um nach Rat zu fragen. Das können wir von einem Menschen als Ansprechpartner nicht verlangen. Die Arbeitsgruppe Digitalisierung und e-Mental Health, deren stellvertretender Leiter ich bin, beschäftigt sich mittlerweile seit einigen Jahren mit dem Thema, welche Rolle künstliche Intelligenz im Behandlungsbereich einnehmen kann.

Large language models (LLM) sind Konversationsmaschinen, die auf Anfrage reagieren, also auf einen Input mit einem Output antworten. Und vielleicht sind die Antworten von LLMs aufgrund der Modellbildung auch teilweise verständlicher, als das „Therapeuten-Deutsch“ mancher Psychologen oder Psychotherapeuten. Aber die Maschinen haben nicht so viel Autorität und Kompetenz, wie sie aufgrund ihrer elaborierten Sprache vielleicht vermuten lassen. Und diesen technischen Systemen fehlt es an wichtigen Faktoren, wie dass sie in einem Körper beheimatet sind (Embodiment), es fehlt ihnen an Emotion, an Intuition, an Spiritualität und vielleicht der wichtigste Faktor: Es fehlt ihnen auch an Willensbildung. Von dem fehlenden Bewusstsein möchte ich gar nicht erst sprechen.

Wenn es darum geht, den Verlauf einer Therapie zu steuern, gezielte Rückfragen zu stellen, diese mit evidenzbasierten Interventionen und therapeutischer Erfahrung und Intuition abzugleichen, da kann ein LLM derzeit sicherlich nicht mithalten. ChatGPT als general purpose LLM ist prinzipiell nicht als Therapeut geeignet, es ist kein Expertensystem und es gibt keine Evidenz, also wissenschaftlich nachgewiesene Wirksamkeit, dafür.

In Europa gibt es noch keine allgemeine Psychologie- oder Psychotherapie-KI, die regulatorisch zugelassen ist oder deren Wirksamkeit nachgewiesen ist. Der aktuelle Standpunkt ist, dass KI-Technik durchaus unterstützende Vorteile bieten kann, aber dass sie die menschliche Behandlung nicht in absehbarer Zeit ersetzen kann.

Die therapeutische Beziehung stellt schon mehr als die halbe Miete dar für den Therapieerfolg. Und der Faktor Mensch muss in der Therapie stets den Lead, also die Führerschaft, behalten, da bei einer Therapie auch zwei menschliche Entitäten in einem hochkomplexen Prozess und in einem mindestens ebenso komplexen Umfeld interagieren. Der Therapieerfolg wird über viele Fälle und auf lange Sicht betrachtet mit einem menschlichen Gegenüber größer sein, wenn auch digitale Companionship eine zunehmend wichtigere Rolle einnehmen wird.

Wirkt der Eliza-Effekt heute stärker, weil die Maschine so sprachgewandt ist, also kann man ChatGPT als eine Art „Super-Eliza“ bezeichnen?

Der gemeinsame Nenner bei Eliza und ChatGPT, Gemini, Claude und Co. ist definitiv die Sprache. Allerdings gilt: Eine elaborierte Sprache oder eine Sprache, die für uns angemessen, hilfreich und korrekt wirkt, erzeugt für uns das Bild von Autorität, möglicherweise sogar einer unermesslichen Autorität. Die Fehlerrate und die Art oder der Grad der unangepassten Antworten sind bei den LLMs wesentlich geringer geworden.

Ich glaube aber nicht, dass eine Maschine selbst eine Theory of Mind entwickelt hat, sondern dass sie durch den umfangreichen Datenbestand und durch die komplexen Formen der Verarbeitung und Ausgabe ein Muster präsentiert, das uns auf eine Theory of Mind rückschließen lässt.

Der Modellwechsel auf GPT-5 hatte im August einen Aufschrei in den sozialen Medien ausgelöst, als Nutzer das neue Modell zu „kalt“ oder „nüchtern“ empfanden.

Da kommt es zu einer subjektiv wahrgenommenen Wesensveränderung der maschinellen Identität. Das ist dann wie ein menschliches Gegenüber, das vielleicht eine Substanz eingenommen hat, wie ein Aufputschmittel oder Drogen. Vor allem ohne starke Begründung und ohne dass man es vorher überhaupt weiß. Das findet einfach statt. Wenn Menschen ihre Meinung ändern, dann sind ja Vorboten sichtbar, wie dass sich die Situation verändern wird oder der Zustand der Person, aber bei der Maschine sind wir letzten Endes den Betreiber-Tunings ausgeliefert.

Ich möchte hier aber ausdrücklich vor der sogenannten Anthropomorphisierung von Technologien warnen. Wir können einer Maschine keinen Charakterzug unterstellen und maschinell gezeigte Outputs auch nicht mit menschlichen Handlungen vergleichen, da weder die Grundlagen noch die Verarbeitung vergleichbar sind. Diese Anthropomorphisierung macht vielleicht für uns vieles leichter erklärbar, allerdings macht es uns auch anfälliger für Trugschlüsse. Nämlich dass wir die Erwartungen, die wir gegenüber Menschen haben, auch auf Maschinen übertragen.

Was sagen Sie zur Bezeichnung von ChatGPT als Soziopath in der Hosentasche?

Es ist durchaus möglich, dass sich ein allgemeines Sprachmodell quasi-soziopathisch benimmt, weil es heute auf irgendeine Weise oder aufgrund irgendeines Settings zu einem Verhalten kommt, das wir als soziopathisch interpretieren.

Wie ist es mit dem Auslösen psychischer Krisen, wie der sogenannte „AI Psychosis“ oder „KI Psychose“?

Wenn eine GPT-Architektur auf Menschen trifft, die vielleicht schon eine Disposition zu abergläubischem Verhalten haben oder eine Neigung zu Störungen aus dem schizophrenen Formenkreis in sich tragen, dann kann sich so etwas, wie die in den Medien genannte „KI-Psychose“ – bei der es sich aber um keinen Fachausdruck handelt – entwickeln. Ich halte die Berichterstattung in Bezug auf „KI-Psychosen“ aber eher für einen Medienhype und nicht für die größte Gefahr schlechthin.

Natürlich können GPTs psychotische Zustände begünstigen, aber das kann menschliche Kommunikation auch. Bei Wahnstörungen haben neue Technologien stets die den Wahnthemen innewohnende Kreativität, gefördert. Und das hat in der neueren Zeit schon mit dem Radio, TV und dem Internet seine Vorläufer gehabt. Ich glaube, dass sich das, ich nenne es einmal „das psychotische Potenzial“, in der allgemeinen Bevölkerung vielleicht stärker auf Maschinen verlagert wird, also die Wahnthemen verändern sich, der Spiegel der Wahnthemen oder die Zusammensetzung, ich glaube aber, dass die Fallzahlen nicht exorbitant steigen werden. Denn die Inzidenz und Prävalenz von Störungen aus dem schizophrenen Formenkreis bzw. von Wahnstörungen sind in den letzten Jahren nicht gestiegen.

Denken Sie, ChatGPT ist eine Resonanzmaschine?

Ich sehe die ganzen GPTs als Maschinen, die auf der Basis von Sprachinput, der Abbildung des der Sprache innewohnenden Konstrukts in hochdimensionalen Vektorräumen, letztlich selbstähnliche Relationen herstellen, weil wir es darauf angelegt haben. GPTs sind sogar aufgrund ihrer Ausrichtung dazu gezwungen, auch wenn es so etwas wie Freiheitsgrade gibt, die beeinflussbar sind.

In einem zweiten Schritt ist es dann der Ausrichtung, sprich dem menschlichen Tuning der jeweiligen GPT-Instanz geschuldet, wie informativ, zuträglich, gefällig oder auch unterhaltsam diese dann agiert. Und wenn eine Maschine das macht und das ist aber eine Frage des Tunings und nicht des Kerns der Maschine, dann könnte man sie als Resonanzmaschine bezeichnen.

Aber ich sehe Resonanz hier nicht zwingend positiv konnotiert, sondern ich sehe dann Effekte kommen, die es ja schon in den sozialen Medien gibt, mit der algorithmischen Reihung von Postings und Priorisierung von Inhalten. Wenn sie zu stark resoniert, die Maschine zu wenig kritisch fragt, keine Diversität herstellt oder gedankliche oder kommunikative Diversität erlaubt, dass es dann einfach zu Millionen individuellen Mensch-Maschine-Blasen kommen wird, die aber letzten Endes nicht so stark den Interessen der Nutzer, die ja auch immer Kunden sind, zugutekommt, sondern viel stärker den Interessen der Anbieter. Und es gibt letzten Endes vielleicht nur weltweit zwei, drei große Anbieter von GPTs, auch wenn Europa an einem eigenen Modell („OpenEuroLLM“) arbeitet.

Der Wettkampf ist schon lange eröffnet und wir haben die großen Sieben, die teilen sich den Markt schon untereinander auf und versuchen natürlich auch gefällige Produkte zu liefern. Ziel ist, dass diese Produkte möglichst stark, möglichst lange und möglichst intensiv genutzt werden, weil die Nutzung den Anbietern ja wieder Rückschlüsse und Hinweise zur Produktverbesserung und damit wieder einen Wettbewerbsvorteil bietet.

Sind wir auf dem Weg in eine neue Ära der Mensch-Maschine-Beziehung?

Seit 2022, also als ChatGPT hervorpreschte bzw. andere Formen generativer KI, wie damals Midjourney, sind wir in eine neue Ära der Mensch-Maschine-Beziehung eingetreten.

Wir sind in der neuen Ära, weil wir in einer mächtigen Sprache mit Maschinen auf einem hohen Niveau interagieren – nämlich auf Basis der mittlerweile größten Programmiersprache der Welt, der menschlichen Sprache, in der wir auch denken oder die zumindest unseren Gedanken äquivalent gesehen werden kann. Insofern ist ein Traum wahr geworden.

Tatsächlich nutzen viele Menschen diese LLMs oder generative KI im Allgemeinen, und wir sind quasi mitten drin in einer Entwicklung, in der wir aktiv Stellung beziehen müssen, welche Rolle in der Entscheidungsfindung, in der Erkenntnisgewinnung, aber auch in unserem inneren Gefüge wir diesen Entitäten überlassen wollen. Und die Zeit vergeht vielleicht schneller, als wir denken, weil diese Entwicklungen wenig Raum für ein Veto oder Modifikationen lassen.


(mack)



Source link

Künstliche Intelligenz

Gutachter: EU-Kommission will eine „uferlose Sonderrechtszone“ für KI


Die EU-Kommission verspricht mit dem geplanten Paket für einen „digitalen Omnibus“ einen Befreiungsschlag gegen Bürokratie. Doch der Widerstand gegen das Vorhaben wächst ständig. Rechtsexperten der Kanzlei Spirit Legal warnen in einem Gutachten im Auftrag des Bundesverbands der Verbraucherzentralen (vzbv) nun eindringlich davor, dass der Entwurf einen systematischen Bruch mit den Prinzipien der Datenschutz-Grundverordnung (DSGVO) darstelle und die Privatsphäre von hunderten Millionen Verbrauchern gefährde.

Weiterlesen nach der Anzeige

Im Zentrum der Kritik steht der vorgesehene Artikel 88c, der spezielle Erleichterungen für die Datenverarbeitung im Kontext von Künstlicher Intelligenz (KI) vorsieht. Die Gutachter Peter Hense und David Wagner warnen hier vor einer „uferlosen Sonderrechtszone“. Da der Begriff des KI-Systems extrem weit gefasst sei, könnten Unternehmen künftig fast jede automatisierte Datenverarbeitung als KI-relevant deklarieren, um strengen Datenschutzregeln zu entgehen. Damit würde die technikneutrale Logik der DSGVO durch ein technologiespezifisches Privileg ersetzt, das vor allem Diensteanbietern nütze.

Für alarmierend halten die Juristen die geplante Aufweichung beim Umgang mit sensiblen Daten wie Gesundheitsinformationen oder politischen Ansichten. Der Entwurf suggeriere, dass deren Verarbeitung umso eher gerechtfertigt sei, je größer die Datenmengen sind. Das verkehre den Grundsatz der Datensparsamkeit ins Gegenteil: Massenhaftes Absaugen von Informationen werde belohnt, solange es dem Training von KI-Modellen diene. Die Gutachter sehen darin gefährliche Vorrechte für Big-Tech-Konzerne.

Die Autoren bemängeln zudem, dass wesentliche Schutzmechanismen lediglich in die rechtlich unverbindlichen Erwägungsgründe verschoben würden. Ein Beispiel sind technische Opt-out-Verfahren, mit denen Nutzer der Verwendung ihrer Daten widersprechen können. Ohne Verankerung im verbindlichen Normtext fehle den Aufsichtsbehörden die Handhabe, Verstöße effektiv zu sanktionieren. Gerade beim Web-Scraping würden so Daten von Personen erfasst, die oft gar keine Möglichkeit hätten, von ihrem Widerspruchsrecht überhaupt Kenntnis zu erhalten.

Um diesen Fehlentwicklungen entgegenzuwirken, bringen die Gutachter eine spezifische Rechtsgrundlage fürs KI-Training ins Spiel. Unternehmen sollten erst dann auf personenbezogene Informationen zugreifen dürfen, wenn sie nachweisen können, dass ihr Ziel nicht auch mit anonymisierten oder synthetischen Daten erreicht werden könne. Zudem müsse gewährleistet werden, dass KI-Modelle keine persönlichen Informationen in ihren Antworten reproduzieren („Data Leakage“). Dafür seien strenge technische Standards bereits im Trainingsprozess nötig.

Ein Kapitel widmet sich dem Schutz vulnerabler Gruppen. Da Minderjährige die Tragweite der Datenverarbeitung für KI oft nicht überblicken könnten, plädieren die Verfasser für eine ausdrückliche Einwilligungspflicht der Eltern. Zudem sollten Betroffene mit Erreichen der Volljährigkeit ein voraussetzungsloses Recht erhalten, die weitere Nutzung ihrer Daten in bestehenden Modellen zu untersagen. Ohne solche Leitplanken drohe die digitale Souveränität der nächsten Generation dauerhaft verloren zu gehen.

Weiterlesen nach der Anzeige

Die politische Dimension dieser Erkenntnisse ist laut vzbv-Vorständin Ramona Pop enorm. Sie warnt davor, dass die Kommission unter dem Deckmantel der Innovation vor allem US-amerikanischen Plattformen einen Freibrief ausstellen wolle. Big Tech könnte juristische Grauzonen leicht ausnutzen, während europäische Firmen und Verbraucher das Nachsehen hätten. Echte Rechtssicherheit entstehe nur durch klare Regeln. Brüssel schlage dagegen vage Ausnahmetatbestände vor, die erst über Jahre gerichtlich geklärt werden müssten.

Dass Datenschutz kein Hemmschuh, sondern ein Wirtschaftsfaktor ist, belegen aktuelle Ergebnisse einer repräsentativen Online-Befragung für den vzbv. Für 87 Prozent der Verbraucher ist demnach Vertrauen die Grundvoraussetzung für die Nutzung digitaler Dienste. Die DSGVO fungiert dabei als wichtiger Anker: Über 60 Prozent der Befragten vertrauen Unternehmen eher, wenn diese nachweislich europäische Vorschriften einhalten. Eine Verwässerung dieser Standards riskiert so auch die gesellschaftliche Akzeptanz neuer Technologien.

Der Digital-Omnibus wird nun im EU-Rat und im Parlament beraten. Die Einwände aus der Zivilgesellschaft sind kaum überhörbar. Das Paket steht im Verdacht, primär auf massiven Druck der US-Regierung zurückzugehen, anstatt europäische Bürger- und Wirtschaftsinteressen zu vertreten. Betroffenenrechte würden unter dem Deckmantel von „Vereinfachungen“ abgeschwächt, heißt es. KI-Firmen wolle die Kommission einen Blankoscheck ausstellen, um europäische Daten abzusaugen.


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

Dwarf Mini: Leichtes Smart-Teleskop für Astrofotografie unterwegs im Test


Seit etwa zwei Jahren liefern sich die chinesischen Hersteller ZWO (Zhen Wang Optical) und Dwarflabs ein Rennen um das kleinste und leichteste Smart-Teleskop. Bisher hatte ZWO die Nase mit dem Seestar S30 vorn. Nun legt Dwarflabs mit dem Dwarf Mini nach, einer kompakten Variante des Dwarf III.

Das kleine Teleskop ist in knapp zehn Minuten aufgebaut. Das gelingt auch unerfahrenen Nutzern. Bemerkenswert ist, dass der Hersteller das Gewicht dieser Geräteklasse erstmals unter ein Kilogramm gedrückt hat. Wie beim Dwarf III ist auch beim Dwarf Mini kein Stativ enthalten – man kann aber Fotostative nutzen. Beim Design hielt sich der Hersteller an die bewährte Bauform mit einem beweglichen Arm auf einer horizontal rotierenden Basis. Diese azimutale Montierung kann jeden Punkt am Himmel anfahren und verlangt Nutzern kein aufwendiges Einrichten ab.

Die technischen Details des Dwarf Mini entsprechen weitgehend denen des Seestar S30 – beide lösen nur Full-HD auf statt wie das Dwarf III 4K. Verschiedene Filter sind eingebaut: ein Astrofilter gegen Lichtverschmutzung, der Schmalband für spezifische Wellenlängen und ein Black-Filter, der den Sensor abdunkelt. Den mitgelieferten Solarfilter bringt man magnetisch an der Frontlinse an.


Das war die Leseprobe unseres heise-Plus-Artikels „Dwarf Mini: Leichtes Smart-Teleskop für Astrofotografie unterwegs im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Videospiele: Zwölf persönliche Empfehlungen für die Feiertage


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Auf dem Handy, am PC oder mit VR-Brille auf dem Schädel: In der heise-Redaktion herrscht kein Konsens über die spielerische Freizeitgestaltung an den Feiertagen. Wir haben uns unter den Kollegen umgehört, was sie an Weihnachten und zwischen den Jahren spielen. Das Ergebnis ist ein Mix aus mal mehr und mal weniger tiefschürfenden Spiele-Tipps, die wir in einer Bilderstrecke zusammengefasst haben.

Weiterlesen nach der Anzeige


„Winter Burrow“ (Liane M. Dubowy)

Durch den Schnee stapfen und es mir im Warmen gemütlich machen: Das will ich über die Feiertage auch im Spiel. Deshalb freue ich mich schon darauf, in „Winter Burrow“ einzutauchen. Das Indie-Game von Pine Creek Games punktet mit ordentlichen Survival-Herausforderungen: eisige Kälte, angriffslustige Feinde und knappe Rohstoffe. Aber es hat eben auch: chillige Musik, knuffige Grafik, eine große Portion Niedlichkeit und hilfsbereite Waldbewohner, die mit neuen Rezepten und Keksen aushelfen.

In isometrischer Perspektive schlüpfe ich in die Rolle der Maus, deren Elternhaus in Trümmern liegt. Mit wenig Aufwand wird aus dem Baumstumpf aber schnell ein gemütliches Zuhause, eine sichere Zuflucht im eiskalten Winter. Nach und nach baut die Maus das Haus aus. Dazu lernt sie allerlei neue Dinge, baut Werkzeuge, sammelt oder fertigt das dafür nötige Material und nimmt die Hilfe der anderen Waldbewohner in Anspruch. Den Hunger stillen gesammelte Beeren, Pilze, die sie im Ofen zu Waldmarmelade, Keksen und Kuchen verarbeitet. Um der Kälte zu trotzen, kann sie sich im Ohrensessel vor dem Kamin einrollen und einen warmen Pulli gegen die Kälte stricken.

Für mich ist also alles dabei: Die Welt, oder besser den Wald, erkunden, die Figuren und ihre Geschichten kennenlernen, in Kämpfen bestehen, und gemütliches Bauen. Winter Burrow verspricht eine recht einzigartige Kombination aus Gemütlichkeit und Überlebenskampf, die ich in entspannten Stunden mit dem Steam Deck auf dem Sofa erkunden will. (lmd@heise.de) (Bild:

heise medien

)

Für weitere, objektivere Empfehlungen lohnt sich der Blick auf die Auszeichnungen der Game Awards, die am 11. Januar vergeben wurden. Die Auswahl der Titel, die dort für das Spiel des Jahres nominiert waren, ist nämlich wirklich gelungen: Das Rundentaktikspiel „Clair Obscure“ kam Anfang des Jahres fast aus dem Nichts, um zum Spielephänomen des Jahres zu werden. Die Wahl zum Spiel des Jahres war reine Formalität. Wer Lust auf eine sinnvolle Weiterentwicklung des „Final Fantasy“-Spielprinzips mit stark französischem Einschlag hat, sollte sich „Clair Obscure“ unbedingt anschauen.

Auch „Kingdom Come: Deliverance 2“ hat sich die Nominierung redlich verdient: Das beste First-Person-Rollenspiel seit „Skyrim“ nimmt sein Mittelalter-Setting ernst und bietet ein spannendes, stellenweise witziges und immer glaubhaftes Abenteuer im Tschechien des frühen 15. Jahrhunderts. Losspielen sollte man aber nur in der Bereitschaft, sich auf ein langsame und fordernde Erfahrung einzulassen – „KCD2“ ist bewusst anders als viele RPG-Konkurrenten, die Spieler von einem Action-Spektakel ins nächste werfen.

Wer es gemütlich mag, kann sich „Tiny Bookshop“ vom Kölner Studio Neoludic Games ansehen, das beim Deutschen Entwicklerpreis zum Spiel des Jahres gekürt wurde. In „Tiny Bookshop“ betreiben Spieler einen mobilen Bücher-Bauwagen. Den Kaufinteressenten müssen die richtigen Bücher empfohlen werden, Deko-Optionen sorgen für gemütliches Ambiente. Zu den weiteren Indie-Highlights des Jahres zählen das Flipperspiel „Ball x Pit“ und das Knobelspiel „Blue Prince“.

Weiterlesen nach der Anzeige

„Anno 117“ kam zu spät auf den Markt, um für den Deutschen Entwicklerpreis infrage zu kommen, ist aber auch so empfehlenswert. Wer sich eine Switch 2 gekauft und „Mario Kart World“ schon durchgespielt hat, kommt um „Donkey Kong: Bananza“ nicht herum, das die aus Vorgängern bekannten Sprungpassagen einem neuen Spieldesign mit zerstörbaren Levels opfert. Das neue „Metroid Prime 4“ ist auch ein gutes Spiel, reicht aber nicht ganz an die Qualität der Vorgänger heran.


(dahe)



Source link

Weiterlesen

Beliebt