Connect with us

Künstliche Intelligenz

Skandal um sexualisierte Deepfakes: Grok verweigert Bildgenerierung weitgehend


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Grok auf X generiert aktuell keine Bilder mehr für Nutzer und Nutzerinnen, die nicht für den Kurznachrichtendienst bezahlen, und kann damit auch nicht mehr genutzt werden, um Personen digital „zu entkleiden“. Das geht aus Antworten des KI-Chatbots hervor, die dieser seit Freitagmorgen auf Bitten um eine Bildbearbeitung hin generiert. Darin heißt es, „die Bildgenerierung und -bearbeitung ist aktuell auf die zahlende Kundschaft begrenzt“. Dazu gibt es einen Link zum Premium-Abo für X, das 9,44 Euro pro Monat kostet. Eine darüber hinausgehende Stellungnahme oder Information zu dem Schritt gibt es nicht. Auch X-Chef Elon Musk hat sich nicht dazu geäußert.

Weiterlesen nach der Anzeige

Der Schritt von X dürfte eine Reaktion auf die Empörung über den Umgang mit Grok sein, die in den vergangenen Tagen massiv zugenommen hat. Nutzer haben den KI-Account seit Tagen benutzt, um teilweise pro Stunde tausende Fotos primär von Frauen digital „zu entkleiden“. Das heißt, die KI hat für sie Versionen von Aufnahmen bekleideter Personen erstellt, auf denen sie scheinbar einen Bikini oder Unterwäsche tragen. Auch Minderjährige waren davon betroffen. Für die Betroffenen, die in den meisten Fällen kein Einverständnis gegeben haben, kann das äußerst schlimme Folgen haben. In einigen Staaten ist solche Technik verboten. Auf X ist das aber in aller Öffentlichkeit passiert.

Was genau die weitgehende Deaktivierung der Funktion nun bedeutet, ist unklar. Denn sie wurde nicht komplett entfernt, zahlende User können solche Inhalte weiterhin bestellen. Die sind aber für X identifizierbar und können mit Konsequenzen belegt werden. Kurz vor der Abschaltung hat das US-Magazin Wired aber darauf aufmerksam gemacht, dass eine Lücke auf der Website von Grok noch deutlich verstörendere Inhalte zugänglich macht, die Nutzer dort erstellen lassen. In einsehbaren Inhalten von dort finden sich fotorealistische KI-generierte Videoclips mit sexualisierten Deepfakes, auf denen noch Blut hinzukommt. Auch Clips, die scheinbar prominente Frauen zeigen, gehören demnach dazu. Sogar kurze Filme, die scheinbar Minderjährige zeigen, gibt es.

Erst am Donnerstag hat CNN zudem berichtet, dass Elon Musk intern lange gegen Begrenzungen für Grok gewettert hat, die verhindern sollten, dass der Chatbot problematische Inhalte erstellt. Der Milliardär sei mit einer „übermäßigen Zensur“ unzufrieden gewesen, berichtet der US-Nachrichtensender unter Berufung auf mehrere Quellen. In einem Meeting habe er sich besonders unzufrieden gezeigt und die Einschränkungen kritisiert. Ungefähr zu dieser Zeit hätten drei hochrangige Angestellte des für Grok verantwortlichen KI-Unternehmens xAI gekündigt. Musk hatte auf X immer wieder dafür geworben, dass Grok im „Spicy Mode“ auch freizügigeren Anfragen nachkommen soll.


Update

09.01.2026,

10:06

Uhr

Wenn man Grok nicht öffentlich um die Generierung eines Bildes bittet, kommt die KI dem weiterhin nach. Das geht beispielsweise über einen Button in X oder über die eigene Website. Beides funktioniert auch ohne Abschluss eines kostenpflichtigen Abos.


(mho)



Source link

Künstliche Intelligenz

Bundesmarine bekommt Unterwasserdrohne Blue Whale


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Bundesmarine hat eine neue Unterwasserdrohne bekommen. Der in Israel entwickelte Blue Whale ist das derzeit größte unbemannte Unterwasserfahrzeug der Marine. Damit beginne der Aufbau einer hybriden Flotte, sagt der Inspekteur der Marine.

Weiterlesen nach der Anzeige

Als Large Unmanned Underwater Vehicle (Large UUV) bezeichnet die Bundesmarine den Blue Whale. Der ist knapp 11 Meter lang, hat einen Durchmesser von gut einem Meter und bringt 5,5 Tonnen auf die Waage. Das elektrisch angetriebene Unterwasserfahrzeug bewegt sich mit einer Geschwindigkeit von etwa 13 km/h und soll zwei- bis vierwöchige Missionen unternehmen.

Entwickelt hat es der israelische Luft- und Raumfahrtkonzern Israel Aerospace Industries (IAI). Einen Teil der technischen Ausstattung hat Atlas Elektronik, eine Tochter des Kieler Rüstungsunternehmen ThyssenKrupp Marine System (TKMS), beigesteuert, darunter ein spezielles Sonarsystem.

Blue Whale ist für Aufklärungseinsätze gedacht: Das UUV soll Unterwasserziele, also U-Boote oder andere Unterwasserdrohnen, aufspüren und verfolgen. Dafür ist es unter anderem mit einem „Towed Array Sonar“ ausgestattet. Das ist ein Schleppsonar, das Blue Whale hinter sich herzieht und das Unterwasserobjekte über und unter sogenannten Sprungschichten erfasst und klassifiziert. Es ist passiv, das heißt, es sendet keine Schallimpulse aus, sondern empfängt nur.

Daneben kann Blue Whale auch Überwasserschiffe verfolgen. Dafür ist das unbemannte U-Boot wie ein konventionelles mit einem ausfahrbaren Seerohr ausgestattet, an dem verschiedene Kameras angebracht sind.

Die Beschaffung der Drohne dauerte nach Aussage von Vizeadmiral Jan Christian Kaack nur wenige Monate, was im Bereich des Militärs enorm schnell ist. „Mit der Übernahme des ersten Blue Whale setzen wir den Kurs Marine in Sachen Einführung unbemannter Systeme unter Wasser konsequent um“, sagte der Inspekteur der Marine. „Der Aufbau einer hybriden Flotte startet genau jetzt.“

Weiterlesen nach der Anzeige

Diese wird aus konventionellen, bemannten Schiffen bestehen, die zusammen mit unbemannten operieren. Letztere können beispielsweise näher an Gefahrenstellen eingesetzt werden als bemannte und damit das Leben der Besatzungen schützen.

Die Bundesmarine hat das Large UUV Ende 2024 vor Eckernförde getestet. In der dortigen Marinebasis wird es auch stationiert, das Einsatzgebiet wird die Ostsee.

Seit dem russischen Angriff auf die Ukraine vor vier Jahren ist die Ostsee zu einem Krisengebiet geworden. Mehrfach wurden in den vergangenen Jahren Unterseekabel in der Ostsee zerstört. Im Verdacht stand jeweils die russische Schattenflotte.

Der spektakulärste Zwischenfall war die Sprengung der Gaspipelines Nord Stream 1 und 2 im September 2022. Hier gehen Ermittler inzwischen davon aus, dass die Tat von Ukrainern verübt wurde. Systeme wie Blue Whale können auch eingesetzt werden, um solche kritischen Infrastrukturen unter Wasser zu überwachen.


(wpl)



Source link

Weiterlesen

Künstliche Intelligenz

Telekom will KI-Assistenten in Mobilfunknetz integrieren


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Deutsche Telekom plant, einen KI-Assistenten für Telefonate einzuführen. Das teilte Abdu Mudesir, Vorstand für Produkt und Technologie bei der Telekom, im Gespräch mit der Frankfurter Allgemeinen Zeitung mit. Der „Magenta AI Call Assistant“ genannte KI-gestützte Assistent soll kommende Woche auf dem Mobile World Congress in Barcelona, der weltweit größten Mobilfunkmesse, vorgestellt werden.

Weiterlesen nach der Anzeige

Der KI-Assistent wird direkt in das von der Telekom betriebene Mobilfunknetz integriert und soll KI-Funktionen somit auch für Menschen ohne Smartphone zugänglich machen. Mittels des Ausrufs „Hey Magenta“ kann der KI-Assistent zukünftig zu Telefongesprächen hinzugezogen werden und soll dann etwa für Fragen, Live-Übersetzungen, Gesprächsprotokolle oder automatisierte Kalendereinträge zur Verfügung stehen. „Unser KI-Assistent agiert als vertrauensvoller Partner für alle Kunden“, sagte Mudesir der gegenüber der Zeitung.

Damit der KI-Assistent aufgerufen werden kann, muss das Telefonat aus dem Netz der Telekom begonnen werden. Angerufene Personen können derweil auch im Netz der konkurrierenden Mobilfunknetzbetreiber in Deutschland, etwa Vodafone oder Telefónica, eingewählt sein.

Dass die Deutsche Telekom den „Magenta AI Call Assistant“ nicht im Alleingang entwickelt hat, gilt als unstrittig. Mit wem sie sich verpartnert hat, will der DAX-Konzern derweil noch nicht verraten. Mudesir zufolge arbeitet man mit den besten in der Industrie zusammen, darunter sowohl europäische als auch amerikanische Unternehmen.

Die Telekom wäre der erste Netzbetreiber weltweit, der einen KI-Assistenten direkt in ein Mobilfunknetz integriert. Bislang setzen die großen US-Technologiekonzerne auf Apps, die den Zugang zu KI-Chatbots ermöglichen. Autonome KI-Agenten greifen auf die Modellfamilien der großen KI-Entwickler wie OpenAI, Google oder Anthropic derweil meist via APIs zu.

Der „Magenta AI Call Assistant“ ist indes nicht die einzige Neuerung auf dem Gebiet der Künstlichen Intelligenz, die die Telekom auf dem Mobile World Congress vorstellen will. Laut Präsentationsunterlagen, die dem Handelsblatt vorliegen, will das DAX-Unternehmen kommende Woche eine eigene KI-Brille präsentieren. Eine Telekom-Sprecherin habe den Inhalt der Unterlagen auf Anfrage bestätigt. Auf dem Mobile World Congress werde man einen funktionierenden Prototyp im Rahmen einer Live-Demo vorstellen. Gleichzeitig betonte die Sprecherin der Telekom, dass es sich bei dem Produkt lediglich um eine Designstudie und keine Produktankündigung handele. Ziel sei es, zu demonstrieren, was mit verfügbarer Hardware und KI-Infrastruktur möglich sei.

Weiterlesen nach der Anzeige

Den Informationen des Handelsblatts zufolge ist der chinesische Hersteller RayNeo, eine Tochterfirma des chinesischen Elektronikkonzerns TCL, an der Entwicklung der Smart Glasses der Telekom beteiligt. Mutmaßlich basiert die KI-Brille auf dem bereits erhältlichen Modell RayNeo X3 Pro. Das verfügt über zwei integrierte Bildschirme, eine Kamera sowie Mikrofone und Lautsprecher.

In die Smart Glasses will die Telekom mutmaßlich ihre eigene Software „Magenta AI“ integrieren. Die smarte Brille soll dann über agentische KI-Fähigkeiten verfügen. Nutzer sollen per Sprachbefehlen Informationen abrufen, Texte übersetzen oder Hinweise zur Umgebung erhalten können. Damit würde die Brille dem Funktionsumfang der Smart Glasses von Meta und Ray-Ban ähneln.


(rah)



Source link

Weiterlesen

Künstliche Intelligenz

„ChatGPT Health“: Schwächen bei medizinischen Notfällen und der Suizidprävention


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im Januar 2026 hat OpenAI mit „ChatGPT Health“ einen Service eingeführt, der als erste digitale Anlaufstelle für Gesundheitsfragen dienen soll. Entscheidend für einen solchen Einsatz ist, dass KI die Schwere und Dringlichkeit eines Problems korrekt bewertet. Die Skala der Empfehlungen reicht dabei von „zu Hause auskurieren“ über „einen Arzt in den nächsten Wochen aufsuchen“ bis zum sofortigen Gang in eine Notaufnahme.

Weiterlesen nach der Anzeige

Forscher haben nun in einer im Fachjournal Nature Medicine veröffentlichten Studie systematisch untersucht, wie verlässlich und sicher diese KI-basierte Triage in der Praxis funktioniert, und stießen dabei auf bedenkliche Mängel.

Um die Genauigkeit der KI realitätsnah und kontrolliert zu überprüfen, entwarfen Mediziner 60 detaillierte klinische Fallbeispiele aus 21 Fachbereichen. Diese Fälle wurden dabei methodisch variiert und in den Textvorgaben (Prompts) veränderten die Forscher Merkmale wie Geschlecht und Hautfarbe der fiktiven Patienten, simulierten Hürden wie fehlende Transportmöglichkeiten oder bauten psychologische Faktoren ein, wie etwa die verharmlosende Aussage durch einen Angehörigen.

Insgesamt wurden 960 dieser Anfragen an ChatGPT Health gestellt. Die Triage-Empfehlungen der KI wurden anschließend mit der unabhängigen Einschätzung eines ärztlichen Expertenteams (basierend auf etablierten klinischen Leitlinien) verglichen.

Weiterlesen nach der Anzeige

Die Auswertung zeigte ein gemischtes Bild. Bei medizinischen Alltagsproblemen mittleren Schweregrades stimmten die Empfehlungen der KI meist mit denen der Ärztinnen und Ärzte überein. An den Rändern des Schweregrades, also bei völliger Harmlosigkeit oder bei akuter Lebensgefahr, sank die Leistung jedoch deutlich ab.

Unter-Triage (Verpasste Notfälle): In 51,6 Prozent der echten medizinischen Notfälle bewertete die KI die Lage als zu harmlos. Bei Patienten mit einer schweren diabetischen Entgleisung (Ketoazidose) oder einem akuten Asthma-Anfall riet das System beispielsweise dazu, innerhalb der nächsten 24 bis 48 Stunden einen Arzt aufzusuchen, anstatt den sofortigen Weg in die Notaufnahme zu empfehlen. Die KI erkannte im Text zwar teils die kritischen Symptome, gewichtete diese aber oft falsch (etwa mit dem Argument, der Patient spreche trotz Atemnot noch in ganzen Sätzen).

Umgekehrt zeigte sich ChatGPT Health bei harmlosen Beschwerden oft sehr vorsichtig. Fast 65 Prozent der Fälle, die laut Leitlinien problemlos zu Hause beobachtet werden könnten, stufte das System als behandlungsbedürftig ein und riet zu einem Arztbesuch. Dies birgt laut den Forschern potenziell das Risiko, Ressourcen im Gesundheitssystem unnötig zu belasten.

Beide Fehler (Unter- und Über-Triage) sind natürlich problematisch, wobei insbesondere eine Unter-Triage gefährlich sein kann, wenn Patientinnen und Patienten zu spät die notwendige medizinische Hilfe bekommen. Bei Routinefällen, welche weder besonders dringend, noch harmlos waren, zeigte ChatGPT Health eine gute Leistung und stimmte in 93 Prozent der Fälle mit der ärztlichen Empfehlung überein.

Die Studie untersuchte außerdem, inwieweit psychologische Effekte die KI-basierte Ersteinschätzung beeinflussen. Es zeigte sich, dass ChatGPT Health anfällig für den sogenannten „Anchoring Bias“ (Ankereffekt) ist. Wurde in einem medizinischen Grenzfall beiläufig erwähnt, dass Freunde die Symptome als nicht besorgniserregend einstuften, ließ sich die KI davon oft beeinflussen. Die Wahrscheinlichkeit, dass das System daraufhin eine weniger dringliche Einschätzung abgab, stieg deutlich an (Odds Ratio von 11,7).

Keinen statistisch signifikanten Einfluss auf die Triage-Empfehlungen hatten hingegen demografische Faktoren wie Hautfarbe oder Geschlecht der Patientinnen und Patienten in den konstruierten Fällen.

Ein weiterer Schwerpunkt der Untersuchung war der Umgang der KI mit psychischen Notlagen. Um Nutzer zu schützen, verfügt ChatGPT Health über einen Mechanismus, der bei Suizidgedanken ein Warnbanner mit dem Hinweis „Hilfe ist verfügbar“ und einem Verweis auf Krisenhotlines einblendet.

Die Studie zeigte hier verschiedene Mängel auf. Dieser Schutzmechanismus funktioniert in der Untersuchung zuverlässig bei vagen, eher passiven Aussagen zu Suizidgedanken. Äußerte ein fiktiver Patient jedoch einen konkreten Suizidplan (beispielsweise die Absicht, bestimmte Tabletten einzunehmen) und lieferte gleichzeitig unauffällige medizinische Laborwerte mit, blieb das Warnbanner meist aus. Das System fokussierte sich in diesen Fällen stark auf die körperlichen Parameter – mit Hinweisen wie „Ihre Laborwerte sind normal und deuten auf keine medizinische Ursache für diese Gedanken hin“ und erkannte den akuten psychischen Notfall oft nicht.

Die Autoren der Studie leiten aus ihren Ergebnissen Empfehlungen für den künftigen Einsatz von KI im Gesundheitsmarkt ab. Anbieter wie OpenAI versehen ihre Systeme mit rechtlichen Hinweisen, dass diese keine ärztliche Diagnose ersetzen. Es ist aber nicht unwahrscheinlich, dass viele Menschen einen Arztbesuch verschieben oder vermeiden würden, wenn ihnen die KI versichert, es bestehe kein ernsthaftes Problem.

Die Wissenschaftler schlussfolgern, dass Systeme, die als erster Kontaktpunkt für medizinische Einschätzungen genutzt werden, strengeren Prüfungen unterliegen sollten. Sie schlagen vor, dass patientengerichtete KI-Tools im Gesundheitsbereich vor einer breiten Veröffentlichung ähnliche externe Sicherheits- und Zulassungsprüfungen durchlaufen sollten wie klassische Medizinprodukte, um den Patientenschutz verlässlich zu gewährleisten.


(mack)



Source link

Weiterlesen

Beliebt