Connect with us

Künstliche Intelligenz

Nach Kritik: Larian verzichtet bei „Divinity“ auf Concept Art von KI


Keine KI-Kunst in „Divinity“: Die belgischen Larian Studios wollten für ihren nächsten Titel nach „Baldur’s Gate 3“ ursprünglich generative KI einsetzen, um Concept Art zu erstellen. Nach Kritik aus der Community hat man sich nun umentschieden, erklärt Studiochef Sven Vincke in einer Fragerunde auf Reddit.

Weiterlesen nach der Anzeige

„Es wird in ‚Divinity‘ keine GenAI-Kunst geben“, schreibt Vincke auf Reddit. Er habe die Diskussionen in der Community über seine Aussagen gegenüber der Wirtschaftszeitung Bloomberg wahrgenommen. Dort hatte Vincke gesagt, die Entwickler könnten KI-Tools etwa verwenden, um PowerPoint-Präsentationen zu bauen, Concept Art zu „entwickeln“ und Platzhalter-Text zu schreiben.

Das sei nie so gemeint gewesen, dass KI Concept Art schlicht komplett generieren soll, stellt Vincke nun auf Reddit klar. Er könne aber die Verwirrung nachvollziehen. Larian habe sich deshalb entschlossen, während der Entwicklung von Concept Art vollständig auf den Einsatz von KI-Tools zu verzichten. „So gibt es keinerlei Diskussion mehr über die Herkunft der Kunstwerke.“

KI-Einsatz ist umstritten

In der Spielebranche sorgt der Einsatz von generativer KI für anhaltende Diskussionen. Spiele-Communitys reagieren in der Regel allergisch auf KI-Inhalte in ihren Videospielen. Trotzdem gab es in den vergangenen Monaten mehrere Fälle, in denen es KI-generierte Texte oder Artworks in fertige Spiele geschafft haben. Das ist etwa bei „The Alters“ und „Anno 117“ passiert.

Die Entwickler von „Clair Obscure: Expedition 33“ mussten sogar zwei Indie Game Awards (Indie-Spiel des Jahres und Debut Game Award) zurückgeben, weil zum Launch eine KI-generierte Platzhalter-Textur zu sehen war. Eine Voraussetzung für die Teilnahme an den Indie Game Awards ist der Verzicht auf KI-Tools bei der Spieleentwicklung.

Weiterlesen nach der Anzeige

Für diesen Award würde sich „Divinity“ wohl nicht qualifizieren. Denn obwohl Larian auf die KI-Entwicklung von Concept Art, Stimmen und Dialogtexten verzichten will, soll Künstliche Intelligenz bei der Entwicklung des Spiels doch eine Rolle spielen, erklärt Vincke auf Reddit.

„Wir bemühen uns kontinuierlich, die Geschwindigkeit zu erhöhen, mit der wir Dinge ausprobieren können. Je mehr Iterationen wir durchführen können, desto besser ist in der Regel das Gameplay.“ Dabei könne KI helfen. „Unsere Hoffnung ist, dass sie uns dabei unterstützt, Ideen schneller zu verfeinern – was zu einem fokussierteren Entwicklungszyklus, weniger Verschwendung und letztlich zu einem qualitativ hochwertigeren Spiel führt.“

Gabriel Bosque, der bei Larian als Machine Learning Director angestellt ist, konkretisiert auf Reddit: „Wir sind der Überzeugung, dass Machine Learning ein leistungsstarkes Werkzeug ist, um die Spieleentwicklung zu beschleunigen und effizienter sowie schlanker zu gestalten. Das bedeutet, dass unsere Kreativen mehr Zeit für die Arbeit haben, die ihre Aufgaben erfüllender macht und das Spiel zu einem reichhaltigeren Erlebnis werden lässt.“ Während Larian KI nicht für Stimmen einsetzen will, könnten KI-Tools etwa bei der Produktion der Aufnahmen helfen, deutet Bosque an. Zudem kann KI Animationen für Dialoge erstellen, für die keine Motion-Capture-Aufnahmen vorliegen.

Während die Spielebranche um ihre Position zum KI-Einsatz in der Entwicklung ringt, legt Larian einen pragmatischen Weg vor – begleitet von der offenen Kommunikation, für die das Studio bekannt ist. Larian ist seit „Baldur’s Gate 3“ so etwas wie ein Darling der Spielebranche. Die Erklärungen des Studios könnten also tatsächlich zu größerer Akzeptanz für den Einsatz von KI sorgen – zumindest, wenn Kreativelemente weiterhin aus Menschenhand stammen.

„Divinity“ ist das neue Rollenspiel der Larian Studios. Es wurde im Rahmen der Game Awards im Dezember mit einem Render-Trailer vorgestellt und spielt wie vorherige „Divinity“-Spiele in der Welt Rivellon. Zuletzt konnten Spieler Rivellon 2017 in „Divinity: Original Sin 2“ besuchen. Noch gibt es weder Gameplay-Szenen noch einen Release-Termin für „Divinity“.


(dahe)



Source link

Künstliche Intelligenz

Telekom will KI-Assistenten in Mobilfunknetz integrieren


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Deutsche Telekom plant, einen KI-Assistenten für Telefonate einzuführen. Das teilte Abdu Mudesir, Vorstand für Produkt und Technologie bei der Telekom, im Gespräch mit der Frankfurter Allgemeinen Zeitung mit. Der „Magenta AI Call Assistant“ genannte KI-gestützte Assistent soll kommende Woche auf dem Mobile World Congress in Barcelona, der weltweit größten Mobilfunkmesse, vorgestellt werden.

Weiterlesen nach der Anzeige

Der KI-Assistent wird direkt in das von der Telekom betriebene Mobilfunknetz integriert und soll KI-Funktionen somit auch für Menschen ohne Smartphone zugänglich machen. Mittels des Ausrufs „Hey Magenta“ kann der KI-Assistent zukünftig zu Telefongesprächen hinzugezogen werden und soll dann etwa für Fragen, Live-Übersetzungen, Gesprächsprotokolle oder automatisierte Kalendereinträge zur Verfügung stehen. „Unser KI-Assistent agiert als vertrauensvoller Partner für alle Kunden“, sagte Mudesir der gegenüber der Zeitung.

Damit der KI-Assistent aufgerufen werden kann, muss das Telefonat aus dem Netz der Telekom begonnen werden. Angerufene Personen können derweil auch im Netz der konkurrierenden Mobilfunknetzbetreiber in Deutschland, etwa Vodafone oder Telefónica, eingewählt sein.

Dass die Deutsche Telekom den „Magenta AI Call Assistant“ nicht im Alleingang entwickelt hat, gilt als unstrittig. Mit wem sie sich verpartnert hat, will der DAX-Konzern derweil noch nicht verraten. Mudesir zufolge arbeitet man mit den besten in der Industrie zusammen, darunter sowohl europäische als auch amerikanische Unternehmen.

Die Telekom wäre der erste Netzbetreiber weltweit, der einen KI-Assistenten direkt in ein Mobilfunknetz integriert. Bislang setzen die großen US-Technologiekonzerne auf Apps, die den Zugang zu KI-Chatbots ermöglichen. Autonome KI-Agenten greifen auf die Modellfamilien der großen KI-Entwickler wie OpenAI, Google oder Anthropic derweil meist via APIs zu.

Der „Magenta AI Call Assistant“ ist indes nicht die einzige Neuerung auf dem Gebiet der Künstlichen Intelligenz, die die Telekom auf dem Mobile World Congress vorstellen will. Laut Präsentationsunterlagen, die dem Handelsblatt vorliegen, will das DAX-Unternehmen kommende Woche eine eigene KI-Brille präsentieren. Eine Telekom-Sprecherin habe den Inhalt der Unterlagen auf Anfrage bestätigt. Auf dem Mobile World Congress werde man einen funktionierenden Prototyp im Rahmen einer Live-Demo vorstellen. Gleichzeitig betonte die Sprecherin der Telekom, dass es sich bei dem Produkt lediglich um eine Designstudie und keine Produktankündigung handele. Ziel sei es, zu demonstrieren, was mit verfügbarer Hardware und KI-Infrastruktur möglich sei.

Weiterlesen nach der Anzeige

Den Informationen des Handelsblatts zufolge ist der chinesische Hersteller RayNeo, eine Tochterfirma des chinesischen Elektronikkonzerns TCL, an der Entwicklung der Smart Glasses der Telekom beteiligt. Mutmaßlich basiert die KI-Brille auf dem bereits erhältlichen Modell RayNeo X3 Pro. Das verfügt über zwei integrierte Bildschirme, eine Kamera sowie Mikrofone und Lautsprecher.

In die Smart Glasses will die Telekom mutmaßlich ihre eigene Software „Magenta AI“ integrieren. Die smarte Brille soll dann über agentische KI-Fähigkeiten verfügen. Nutzer sollen per Sprachbefehlen Informationen abrufen, Texte übersetzen oder Hinweise zur Umgebung erhalten können. Damit würde die Brille dem Funktionsumfang der Smart Glasses von Meta und Ray-Ban ähneln.


(rah)



Source link

Weiterlesen

Künstliche Intelligenz

„ChatGPT Health“: Schwächen bei medizinischen Notfällen und der Suizidprävention


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im Januar 2026 hat OpenAI mit „ChatGPT Health“ einen Service eingeführt, der als erste digitale Anlaufstelle für Gesundheitsfragen dienen soll. Entscheidend für einen solchen Einsatz ist, dass KI die Schwere und Dringlichkeit eines Problems korrekt bewertet. Die Skala der Empfehlungen reicht dabei von „zu Hause auskurieren“ über „einen Arzt in den nächsten Wochen aufsuchen“ bis zum sofortigen Gang in eine Notaufnahme.

Weiterlesen nach der Anzeige

Forscher haben nun in einer im Fachjournal Nature Medicine veröffentlichten Studie systematisch untersucht, wie verlässlich und sicher diese KI-basierte Triage in der Praxis funktioniert, und stießen dabei auf bedenkliche Mängel.

Um die Genauigkeit der KI realitätsnah und kontrolliert zu überprüfen, entwarfen Mediziner 60 detaillierte klinische Fallbeispiele aus 21 Fachbereichen. Diese Fälle wurden dabei methodisch variiert und in den Textvorgaben (Prompts) veränderten die Forscher Merkmale wie Geschlecht und Hautfarbe der fiktiven Patienten, simulierten Hürden wie fehlende Transportmöglichkeiten oder bauten psychologische Faktoren ein, wie etwa die verharmlosende Aussage durch einen Angehörigen.

Insgesamt wurden 960 dieser Anfragen an ChatGPT Health gestellt. Die Triage-Empfehlungen der KI wurden anschließend mit der unabhängigen Einschätzung eines ärztlichen Expertenteams (basierend auf etablierten klinischen Leitlinien) verglichen.

Weiterlesen nach der Anzeige

Die Auswertung zeigte ein gemischtes Bild. Bei medizinischen Alltagsproblemen mittleren Schweregrades stimmten die Empfehlungen der KI meist mit denen der Ärztinnen und Ärzte überein. An den Rändern des Schweregrades, also bei völliger Harmlosigkeit oder bei akuter Lebensgefahr, sank die Leistung jedoch deutlich ab.

Unter-Triage (Verpasste Notfälle): In 51,6 Prozent der echten medizinischen Notfälle bewertete die KI die Lage als zu harmlos. Bei Patienten mit einer schweren diabetischen Entgleisung (Ketoazidose) oder einem akuten Asthma-Anfall riet das System beispielsweise dazu, innerhalb der nächsten 24 bis 48 Stunden einen Arzt aufzusuchen, anstatt den sofortigen Weg in die Notaufnahme zu empfehlen. Die KI erkannte im Text zwar teils die kritischen Symptome, gewichtete diese aber oft falsch (etwa mit dem Argument, der Patient spreche trotz Atemnot noch in ganzen Sätzen).

Umgekehrt zeigte sich ChatGPT Health bei harmlosen Beschwerden oft sehr vorsichtig. Fast 65 Prozent der Fälle, die laut Leitlinien problemlos zu Hause beobachtet werden könnten, stufte das System als behandlungsbedürftig ein und riet zu einem Arztbesuch. Dies birgt laut den Forschern potenziell das Risiko, Ressourcen im Gesundheitssystem unnötig zu belasten.

Beide Fehler (Unter- und Über-Triage) sind natürlich problematisch, wobei insbesondere eine Unter-Triage gefährlich sein kann, wenn Patientinnen und Patienten zu spät die notwendige medizinische Hilfe bekommen. Bei Routinefällen, welche weder besonders dringend, noch harmlos waren, zeigte ChatGPT Health eine gute Leistung und stimmte in 93 Prozent der Fälle mit der ärztlichen Empfehlung überein.

Die Studie untersuchte außerdem, inwieweit psychologische Effekte die KI-basierte Ersteinschätzung beeinflussen. Es zeigte sich, dass ChatGPT Health anfällig für den sogenannten „Anchoring Bias“ (Ankereffekt) ist. Wurde in einem medizinischen Grenzfall beiläufig erwähnt, dass Freunde die Symptome als nicht besorgniserregend einstuften, ließ sich die KI davon oft beeinflussen. Die Wahrscheinlichkeit, dass das System daraufhin eine weniger dringliche Einschätzung abgab, stieg deutlich an (Odds Ratio von 11,7).

Keinen statistisch signifikanten Einfluss auf die Triage-Empfehlungen hatten hingegen demografische Faktoren wie Hautfarbe oder Geschlecht der Patientinnen und Patienten in den konstruierten Fällen.

Ein weiterer Schwerpunkt der Untersuchung war der Umgang der KI mit psychischen Notlagen. Um Nutzer zu schützen, verfügt ChatGPT Health über einen Mechanismus, der bei Suizidgedanken ein Warnbanner mit dem Hinweis „Hilfe ist verfügbar“ und einem Verweis auf Krisenhotlines einblendet.

Die Studie zeigte hier verschiedene Mängel auf. Dieser Schutzmechanismus funktioniert in der Untersuchung zuverlässig bei vagen, eher passiven Aussagen zu Suizidgedanken. Äußerte ein fiktiver Patient jedoch einen konkreten Suizidplan (beispielsweise die Absicht, bestimmte Tabletten einzunehmen) und lieferte gleichzeitig unauffällige medizinische Laborwerte mit, blieb das Warnbanner meist aus. Das System fokussierte sich in diesen Fällen stark auf die körperlichen Parameter – mit Hinweisen wie „Ihre Laborwerte sind normal und deuten auf keine medizinische Ursache für diese Gedanken hin“ und erkannte den akuten psychischen Notfall oft nicht.

Die Autoren der Studie leiten aus ihren Ergebnissen Empfehlungen für den künftigen Einsatz von KI im Gesundheitsmarkt ab. Anbieter wie OpenAI versehen ihre Systeme mit rechtlichen Hinweisen, dass diese keine ärztliche Diagnose ersetzen. Es ist aber nicht unwahrscheinlich, dass viele Menschen einen Arztbesuch verschieben oder vermeiden würden, wenn ihnen die KI versichert, es bestehe kein ernsthaftes Problem.

Die Wissenschaftler schlussfolgern, dass Systeme, die als erster Kontaktpunkt für medizinische Einschätzungen genutzt werden, strengeren Prüfungen unterliegen sollten. Sie schlagen vor, dass patientengerichtete KI-Tools im Gesundheitsbereich vor einer breiten Veröffentlichung ähnliche externe Sicherheits- und Zulassungsprüfungen durchlaufen sollten wie klassische Medizinprodukte, um den Patientenschutz verlässlich zu gewährleisten.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Abhörskandal: Spyware-Hersteller in Griechenland zu Haftstrafen verurteilt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein Gericht in Griechenland hat am Donnerstag den Gründer von Intellexa, Tal Dilian, wegen illegaler Abhörpraktiken und Datenschutzverletzungen zu acht Jahren Haft verurteilt. Das berichtete unter anderem die griechische Tageszeitung Kathimerini. Intellexa ist ein Firmenzusammenschluss mehrerer Spyware-Hersteller, der vor allem für die Spähsoftware Predator bekannt ist.

Weiterlesen nach der Anzeige

Dilian, ein früherer israelischer Armeeoffizier, und drei weitere Führungskräfte von Intellexa standen wegen ihrer Rolle in einem 2022 aufgedeckten Abhörskandal vor Gericht. In dem ging es um das illegale Ausspionieren von Politikern, Journalisten, Wirtschaftsführern und hochrangigen Militärs mit der von Intellexa entwickelte Spyware Predator. Der Fall wurde auch als „griechisches Watergate“ bekannt. Neben Dilian wurden dessen Geschäftspartnerin Sara Aleksandra Fayssal Hamou, sein ehemaliger stellvertretender Geschäftsführer und Anteilseigner von Intellexa, Felix Bitzios, sowie Yiannis Lavranos, dessen Unternehmen Krikel die Spionagesoftware gekauft hatte, verurteilt. Die Angeklagten bestreiten eine Beteiligung an illegalen Handlungen.

Predator gilt als ausgefeilte Spionagesoftware. Neue Untersuchungen des Threat Labs Teams zeichnen das Bild einer Schadsoftware, deren technisches Niveau weit über bisherige Annahmen hinausgeht. Die Entwickler haben demnach Funktionen implementiert, die nicht nur der reinen Spionage dienen. Vielmehr verteidigt sich das Programm aktiv gegen Entdeckung und lernt aus Fehlern.

Der Fall in Griechenland ist der erste bekannte Fall, in dem ein Spyware-Hersteller wegen des Missbrauchs seiner Technologie zu einer Gefängnisstrafe verurteilt wird. Das Gericht befand die vier Angeklagten für schuldig, sich mehrfach unrechtmäßig Zugang zu privaten Kommunikationssystemen und Daten verschafft sowie gegen Datenschutzgesetze verstoßen zu haben. Mildernde Umstände lehnte das Gericht ab und verhängte eine Gesamtfreiheitsstrafe von 126 Jahren und acht Monaten, von denen acht Jahre verbüßt werden müssen. Das Gericht ordnete Ermittlungen gegen weitere Personen an. Die Verurteilten können Berufung einlegen.

Der Überwachungsskandal kam im Sommer 2022 ans Licht, nachdem der Vorsitzende der Oppositionspartei PASOK, Nikos Androulakis, darüber informiert wurde, dass sein Smartphone mit der Spyware Predator von Intellexa infiziert wurde, während er Abgeordneter im Europäischen Parlament war. Später räumte die griechische Regierung ein, dass Androulakis vom griechischen Geheimdienst EYP überwacht wurde, sprach aber von einer klassischen Telekommunikationsüberwachung.

Nach und nach stellte sich heraus, dass Dutzende Politiker, Geschäftsleute und Journalisten über ihre Mobiltelefone ausspioniert wurden. Der Skandal führte schließlich zum Rücktritt des Geheimdienstchefs und eines hochrangigen Beraters von Premierminister Kyriakos Mitsotakis.

Im Jahr 2023 verhängte die US-Regierung Sanktionen gegen Intellexa. Die Spionagewerkzeuge des Unternehmens seien eine Gefahr für die nationale Sicherheit der USA, begründet die dafür zuständige Abteilung des US-Handelsministeriums. Außerdem würden die Tools die Privatsphäre und die Sicherheit von Individuen sowie Organisationen in aller Welt bedrohen. Anfang 2024 verschärfte die US-Regierung ihr Vorgehen und verhängte erstmals auch Sanktionen gegen Gründer und führende Personen von Spyware-Firmen, darunter Dilian und dessen rechte Hand Hamou. Nun müssen beide sogar ins Gefängnis.

Weiterlesen nach der Anzeige


(akn)



Source link

Weiterlesen

Beliebt