Connect with us

Künstliche Intelligenz

Nach Kritik: Larian verzichtet bei „Divinity“ auf Concept Art von KI


Keine KI-Kunst in „Divinity“: Die belgischen Larian Studios wollten für ihren nächsten Titel nach „Baldur’s Gate 3“ ursprünglich generative KI einsetzen, um Concept Art zu erstellen. Nach Kritik aus der Community hat man sich nun umentschieden, erklärt Studiochef Sven Vincke in einer Fragerunde auf Reddit.

Weiterlesen nach der Anzeige

„Es wird in ‚Divinity‘ keine GenAI-Kunst geben“, schreibt Vincke auf Reddit. Er habe die Diskussionen in der Community über seine Aussagen gegenüber der Wirtschaftszeitung Bloomberg wahrgenommen. Dort hatte Vincke gesagt, die Entwickler könnten KI-Tools etwa verwenden, um PowerPoint-Präsentationen zu bauen, Concept Art zu „entwickeln“ und Platzhalter-Text zu schreiben.

Das sei nie so gemeint gewesen, dass KI Concept Art schlicht komplett generieren soll, stellt Vincke nun auf Reddit klar. Er könne aber die Verwirrung nachvollziehen. Larian habe sich deshalb entschlossen, während der Entwicklung von Concept Art vollständig auf den Einsatz von KI-Tools zu verzichten. „So gibt es keinerlei Diskussion mehr über die Herkunft der Kunstwerke.“

KI-Einsatz ist umstritten

In der Spielebranche sorgt der Einsatz von generativer KI für anhaltende Diskussionen. Spiele-Communitys reagieren in der Regel allergisch auf KI-Inhalte in ihren Videospielen. Trotzdem gab es in den vergangenen Monaten mehrere Fälle, in denen es KI-generierte Texte oder Artworks in fertige Spiele geschafft haben. Das ist etwa bei „The Alters“ und „Anno 117“ passiert.

Die Entwickler von „Clair Obscure: Expedition 33“ mussten sogar zwei Indie Game Awards (Indie-Spiel des Jahres und Debut Game Award) zurückgeben, weil zum Launch eine KI-generierte Platzhalter-Textur zu sehen war. Eine Voraussetzung für die Teilnahme an den Indie Game Awards ist der Verzicht auf KI-Tools bei der Spieleentwicklung.

Weiterlesen nach der Anzeige

Für diesen Award würde sich „Divinity“ wohl nicht qualifizieren. Denn obwohl Larian auf die KI-Entwicklung von Concept Art, Stimmen und Dialogtexten verzichten will, soll Künstliche Intelligenz bei der Entwicklung des Spiels doch eine Rolle spielen, erklärt Vincke auf Reddit.

„Wir bemühen uns kontinuierlich, die Geschwindigkeit zu erhöhen, mit der wir Dinge ausprobieren können. Je mehr Iterationen wir durchführen können, desto besser ist in der Regel das Gameplay.“ Dabei könne KI helfen. „Unsere Hoffnung ist, dass sie uns dabei unterstützt, Ideen schneller zu verfeinern – was zu einem fokussierteren Entwicklungszyklus, weniger Verschwendung und letztlich zu einem qualitativ hochwertigeren Spiel führt.“

Gabriel Bosque, der bei Larian als Machine Learning Director angestellt ist, konkretisiert auf Reddit: „Wir sind der Überzeugung, dass Machine Learning ein leistungsstarkes Werkzeug ist, um die Spieleentwicklung zu beschleunigen und effizienter sowie schlanker zu gestalten. Das bedeutet, dass unsere Kreativen mehr Zeit für die Arbeit haben, die ihre Aufgaben erfüllender macht und das Spiel zu einem reichhaltigeren Erlebnis werden lässt.“ Während Larian KI nicht für Stimmen einsetzen will, könnten KI-Tools etwa bei der Produktion der Aufnahmen helfen, deutet Bosque an. Zudem kann KI Animationen für Dialoge erstellen, für die keine Motion-Capture-Aufnahmen vorliegen.

Während die Spielebranche um ihre Position zum KI-Einsatz in der Entwicklung ringt, legt Larian einen pragmatischen Weg vor – begleitet von der offenen Kommunikation, für die das Studio bekannt ist. Larian ist seit „Baldur’s Gate 3“ so etwas wie ein Darling der Spielebranche. Die Erklärungen des Studios könnten also tatsächlich zu größerer Akzeptanz für den Einsatz von KI sorgen – zumindest, wenn Kreativelemente weiterhin aus Menschenhand stammen.

„Divinity“ ist das neue Rollenspiel der Larian Studios. Es wurde im Rahmen der Game Awards im Dezember mit einem Render-Trailer vorgestellt und spielt wie vorherige „Divinity“-Spiele in der Welt Rivellon. Zuletzt konnten Spieler Rivellon 2017 in „Divinity: Original Sin 2“ besuchen. Noch gibt es weder Gameplay-Szenen noch einen Release-Termin für „Divinity“.


(dahe)



Source link

Künstliche Intelligenz

„ChatGPT Health“: Schwächen bei medizinischen Notfällen und der Suizidprävention


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im Januar 2026 hat OpenAI mit „ChatGPT Health“ einen Service eingeführt, der als erste digitale Anlaufstelle für Gesundheitsfragen dienen soll. Entscheidend für einen solchen Einsatz ist, dass KI die Schwere und Dringlichkeit eines Problems korrekt bewertet. Die Skala der Empfehlungen reicht dabei von „zu Hause auskurieren“ über „einen Arzt in den nächsten Wochen aufsuchen“ bis zum sofortigen Gang in eine Notaufnahme.

Weiterlesen nach der Anzeige

Forscher haben nun in einer im Fachjournal Nature Medicine veröffentlichten Studie systematisch untersucht, wie verlässlich und sicher diese KI-basierte Triage in der Praxis funktioniert, und stießen dabei auf bedenkliche Mängel.

Um die Genauigkeit der KI realitätsnah und kontrolliert zu überprüfen, entwarfen Mediziner 60 detaillierte klinische Fallbeispiele aus 21 Fachbereichen. Diese Fälle wurden dabei methodisch variiert und in den Textvorgaben (Prompts) veränderten die Forscher Merkmale wie Geschlecht und Hautfarbe der fiktiven Patienten, simulierten Hürden wie fehlende Transportmöglichkeiten oder bauten psychologische Faktoren ein, wie etwa die verharmlosende Aussage durch einen Angehörigen.

Insgesamt wurden 960 dieser Anfragen an ChatGPT Health gestellt. Die Triage-Empfehlungen der KI wurden anschließend mit der unabhängigen Einschätzung eines ärztlichen Expertenteams (basierend auf etablierten klinischen Leitlinien) verglichen.

Weiterlesen nach der Anzeige

Die Auswertung zeigte ein gemischtes Bild. Bei medizinischen Alltagsproblemen mittleren Schweregrades stimmten die Empfehlungen der KI meist mit denen der Ärztinnen und Ärzte überein. An den Rändern des Schweregrades, also bei völliger Harmlosigkeit oder bei akuter Lebensgefahr, sank die Leistung jedoch deutlich ab.

Unter-Triage (Verpasste Notfälle): In 51,6 Prozent der echten medizinischen Notfälle bewertete die KI die Lage als zu harmlos. Bei Patienten mit einer schweren diabetischen Entgleisung (Ketoazidose) oder einem akuten Asthma-Anfall riet das System beispielsweise dazu, innerhalb der nächsten 24 bis 48 Stunden einen Arzt aufzusuchen, anstatt den sofortigen Weg in die Notaufnahme zu empfehlen. Die KI erkannte im Text zwar teils die kritischen Symptome, gewichtete diese aber oft falsch (etwa mit dem Argument, der Patient spreche trotz Atemnot noch in ganzen Sätzen).

Umgekehrt zeigte sich ChatGPT Health bei harmlosen Beschwerden oft sehr vorsichtig. Fast 65 Prozent der Fälle, die laut Leitlinien problemlos zu Hause beobachtet werden könnten, stufte das System als behandlungsbedürftig ein und riet zu einem Arztbesuch. Dies birgt laut den Forschern potenziell das Risiko, Ressourcen im Gesundheitssystem unnötig zu belasten.

Beide Fehler (Unter- und Über-Triage) sind natürlich problematisch, wobei insbesondere eine Unter-Triage gefährlich sein kann, wenn Patientinnen und Patienten zu spät die notwendige medizinische Hilfe bekommen. Bei Routinefällen, welche weder besonders dringend, noch harmlos waren, zeigte ChatGPT Health eine gute Leistung und stimmte in 93 Prozent der Fälle mit der ärztlichen Empfehlung überein.

Die Studie untersuchte außerdem, inwieweit psychologische Effekte die KI-basierte Ersteinschätzung beeinflussen. Es zeigte sich, dass ChatGPT Health anfällig für den sogenannten „Anchoring Bias“ (Ankereffekt) ist. Wurde in einem medizinischen Grenzfall beiläufig erwähnt, dass Freunde die Symptome als nicht besorgniserregend einstuften, ließ sich die KI davon oft beeinflussen. Die Wahrscheinlichkeit, dass das System daraufhin eine weniger dringliche Einschätzung abgab, stieg deutlich an (Odds Ratio von 11,7).

Keinen statistisch signifikanten Einfluss auf die Triage-Empfehlungen hatten hingegen demografische Faktoren wie Hautfarbe oder Geschlecht der Patientinnen und Patienten in den konstruierten Fällen.

Ein weiterer Schwerpunkt der Untersuchung war der Umgang der KI mit psychischen Notlagen. Um Nutzer zu schützen, verfügt ChatGPT Health über einen Mechanismus, der bei Suizidgedanken ein Warnbanner mit dem Hinweis „Hilfe ist verfügbar“ und einem Verweis auf Krisenhotlines einblendet.

Die Studie zeigte hier verschiedene Mängel auf. Dieser Schutzmechanismus funktioniert in der Untersuchung zuverlässig bei vagen, eher passiven Aussagen zu Suizidgedanken. Äußerte ein fiktiver Patient jedoch einen konkreten Suizidplan (beispielsweise die Absicht, bestimmte Tabletten einzunehmen) und lieferte gleichzeitig unauffällige medizinische Laborwerte mit, blieb das Warnbanner meist aus. Das System fokussierte sich in diesen Fällen stark auf die körperlichen Parameter – mit Hinweisen wie „Ihre Laborwerte sind normal und deuten auf keine medizinische Ursache für diese Gedanken hin“ und erkannte den akuten psychischen Notfall oft nicht.

Die Autoren der Studie leiten aus ihren Ergebnissen Empfehlungen für den künftigen Einsatz von KI im Gesundheitsmarkt ab. Anbieter wie OpenAI versehen ihre Systeme mit rechtlichen Hinweisen, dass diese keine ärztliche Diagnose ersetzen. Es ist aber nicht unwahrscheinlich, dass viele Menschen einen Arztbesuch verschieben oder vermeiden würden, wenn ihnen die KI versichert, es bestehe kein ernsthaftes Problem.

Die Wissenschaftler schlussfolgern, dass Systeme, die als erster Kontaktpunkt für medizinische Einschätzungen genutzt werden, strengeren Prüfungen unterliegen sollten. Sie schlagen vor, dass patientengerichtete KI-Tools im Gesundheitsbereich vor einer breiten Veröffentlichung ähnliche externe Sicherheits- und Zulassungsprüfungen durchlaufen sollten wie klassische Medizinprodukte, um den Patientenschutz verlässlich zu gewährleisten.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Abhörskandal: Spyware-Hersteller in Griechenland zu Haftstrafen verurteilt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein Gericht in Griechenland hat am Donnerstag den Gründer von Intellexa, Tal Dilian, wegen illegaler Abhörpraktiken und Datenschutzverletzungen zu acht Jahren Haft verurteilt. Das berichtete unter anderem die griechische Tageszeitung Kathimerini. Intellexa ist ein Firmenzusammenschluss mehrerer Spyware-Hersteller, der vor allem für die Spähsoftware Predator bekannt ist.

Weiterlesen nach der Anzeige

Dilian, ein früherer israelischer Armeeoffizier, und drei weitere Führungskräfte von Intellexa standen wegen ihrer Rolle in einem 2022 aufgedeckten Abhörskandal vor Gericht. In dem ging es um das illegale Ausspionieren von Politikern, Journalisten, Wirtschaftsführern und hochrangigen Militärs mit der von Intellexa entwickelte Spyware Predator. Der Fall wurde auch als „griechisches Watergate“ bekannt. Neben Dilian wurden dessen Geschäftspartnerin Sara Aleksandra Fayssal Hamou, sein ehemaliger stellvertretender Geschäftsführer und Anteilseigner von Intellexa, Felix Bitzios, sowie Yiannis Lavranos, dessen Unternehmen Krikel die Spionagesoftware gekauft hatte, verurteilt. Die Angeklagten bestreiten eine Beteiligung an illegalen Handlungen.

Predator gilt als ausgefeilte Spionagesoftware. Neue Untersuchungen des Threat Labs Teams zeichnen das Bild einer Schadsoftware, deren technisches Niveau weit über bisherige Annahmen hinausgeht. Die Entwickler haben demnach Funktionen implementiert, die nicht nur der reinen Spionage dienen. Vielmehr verteidigt sich das Programm aktiv gegen Entdeckung und lernt aus Fehlern.

Der Fall in Griechenland ist der erste bekannte Fall, in dem ein Spyware-Hersteller wegen des Missbrauchs seiner Technologie zu einer Gefängnisstrafe verurteilt wird. Das Gericht befand die vier Angeklagten für schuldig, sich mehrfach unrechtmäßig Zugang zu privaten Kommunikationssystemen und Daten verschafft sowie gegen Datenschutzgesetze verstoßen zu haben. Mildernde Umstände lehnte das Gericht ab und verhängte eine Gesamtfreiheitsstrafe von 126 Jahren und acht Monaten, von denen acht Jahre verbüßt werden müssen. Das Gericht ordnete Ermittlungen gegen weitere Personen an. Die Verurteilten können Berufung einlegen.

Der Überwachungsskandal kam im Sommer 2022 ans Licht, nachdem der Vorsitzende der Oppositionspartei PASOK, Nikos Androulakis, darüber informiert wurde, dass sein Smartphone mit der Spyware Predator von Intellexa infiziert wurde, während er Abgeordneter im Europäischen Parlament war. Später räumte die griechische Regierung ein, dass Androulakis vom griechischen Geheimdienst EYP überwacht wurde, sprach aber von einer klassischen Telekommunikationsüberwachung.

Nach und nach stellte sich heraus, dass Dutzende Politiker, Geschäftsleute und Journalisten über ihre Mobiltelefone ausspioniert wurden. Der Skandal führte schließlich zum Rücktritt des Geheimdienstchefs und eines hochrangigen Beraters von Premierminister Kyriakos Mitsotakis.

Im Jahr 2023 verhängte die US-Regierung Sanktionen gegen Intellexa. Die Spionagewerkzeuge des Unternehmens seien eine Gefahr für die nationale Sicherheit der USA, begründet die dafür zuständige Abteilung des US-Handelsministeriums. Außerdem würden die Tools die Privatsphäre und die Sicherheit von Individuen sowie Organisationen in aller Welt bedrohen. Anfang 2024 verschärfte die US-Regierung ihr Vorgehen und verhängte erstmals auch Sanktionen gegen Gründer und führende Personen von Spyware-Firmen, darunter Dilian und dessen rechte Hand Hamou. Nun müssen beide sogar ins Gefängnis.

Weiterlesen nach der Anzeige


(akn)



Source link

Weiterlesen

Künstliche Intelligenz

Musikgeschäft legt erneut zu – Vinyl-Renaissance geht weiter


Das Geschäft mit Musik in Deutschland hat 2025 abermals zugelegt, allerdings nicht so kräftig wie im Jahr zuvor. Insgesamt wurde für 2,42 Milliarden Euro Musik digital und auf Tonträgern verkauft, das waren 2,3 Prozent mehr als 2024. Das berichtete der Bundesverband Musikindustrie (BVMI) in Berlin. Im Jahr zuvor hatte der Verband noch von einem Zuwachs von 7,8 Prozent berichtet.

Weiterlesen nach der Anzeige

Die Markttrends bleiben dabei die gleichen: Klassische physische Tonträger haben zusehends ausgedient. Deren Verkauf summierte sich 2025 nur noch auf 345 Millionen Euro – 5,9 Prozent weniger als 2024. Aber wie im Vorjahr bringt der Retrotrend zur Vinylschallplatte ungebrochen Zuwachs mit einem Umsatzplus von 2,8 Prozent.

Den mit 85,8 Prozent überragenden Marktanteil hält allerdings der digitale Musikverkauf – mit einem Umsatzvolumen von mehr als zwei Milliarden Euro. Das Gros dieser Verkäufe entfällt auf Streaming.

„Angesichts der zunehmenden KI-Durchdringung aller Branchensegmente gilt unser Interesse in besonderem Maß dem Ausbau des digitalen Lizenzgeschäfts, basierend auf einem starken Urheberrecht, das nicht verwässert werden darf“, sagte der BVMI-Vorstandsvorsitzende Florian Drücke laut Mitteilung.

Zudem rückt aus Branchensicht KI als Konkurrent ins Blickfeld. „In dem aktuellen Umfeld ist es wichtig, dass wir gemeinsam noch intensiver die tiefgreifenden Veränderungen des Musicbusiness erklären“, hieß es. „Dies in einer Zeit, in der musikalischer ‚Spitzensport’ auf musikalischen ‚Breitensport‘ und nun auch immer mehr KI-generierte Inhalte trifft und der Wettbewerb um Aufmerksamkeit konstant weiter zunimmt.“


(mho)



Source link

Weiterlesen

Beliebt