Apps & Mobile Entwicklung

KI-Bildbearbeitung auf X: Grok erstellt sexualisierte Inhalte von Frauen und Minderjährigen


KI-Bildbearbeitung auf X: Grok erstellt sexualisierte Inhalte von Frauen und Minderjährigen

Bild: X

Wer derzeit auf X unterwegs ist, kann es nicht übersehen: Es kursieren eine Vielzahl von Bildern, die Nutzer mit dem integrierten KI-Chatbot Grok bearbeiten lassen. Genutzt wird es aber auch für sexualisierte Darstellungen von Prominenten, Frauen und sogar Minderjährigen. Alles erfolgt ohne Einverständnis der Betroffenen.

Von dem Trend, der auf der Plattform läuft, berichtete unter anderem Copyleaks. Jemand postet ein Bild und ein Nutzer fordert Grok auf, die entsprechende Person in einem Bikini darzustellen. Möglich ist das über eine neue Bildbearbeitungsfunktion des KI-Chatbots, die kürzlich integriert wurde.

Fehlende Sicherheitsrichtlinien

Sicherheitsrichtlinien scheint es kaum zu geben. Laut The Verge ist es nicht möglich, mit Grok völlig explizite Darstellungen generieren zu lassen. Frauen und auch Kinder in Bikinis oder sexuellen Posen zu veröffentlichen, geht aber. Solche Inhalte kursieren nun massenweise auf der Plattform. Die Betroffenen erfahren davon nichts. Selbst wenn sie das Ausgangsbild – also etwa ein harmloses Urlaubsfoto – gepostet haben, wird ihnen nicht mitgeteilt, dass per KI ein Deepfake von ihnen generiert wurde.

Beispiele für die Bearbeitungen liefert unter anderem auch der Bericht von Reuters.

Erotikdarsteller machten den Anfang

Wie The Verge berichtet, waren Bildmanipulationen schon vor der neuen Bild-KI möglich. Mit den überarbeiteten KI-Funktionen entdeckten aber Ersteller von Erotikinhalten die Möglichkeiten. Diese forderten Grok auf, von sich selbst sexualisierte Inhalte zu erstellen. Das war laut Copyleaks der Anfang des Trends.

X reagiert nicht auf Vorfälle

Weder xAI noch X haben eine offizielle Stellungnahme abgegeben. Auf Anfrage der Nachrichtenagentur Reuters sowie von weiteren Medien gab es lediglich die Antwort: „Legacy Media lies“. Musk scheint die Vorfälle nicht allzu ernst zu nehmen, er hat ein Bild gepostet, bei dem er selbst in einen Bikini editiert wurde.

Grok erklärte auf Anfrage von Nutzern mittlerweile, es gebe Schwachstellen in den Sicherheits­vorkehrungen. Inwieweit es sich bei den KI-Antworten um eine relevante Position von xAI handelt, lässt sich aber nicht nachvollziehen.

Sexualisierte KI-Inhalte sind bei Grok ohnehin nicht neu. Im Sommer präsentierte xAI die Companions, also KI-Avatare. Eine davon war die Anime-Figur Ani, die explizit auf sexuelle Konversationen ausgelegt war. The Verge beschrieb diese nach einem Testlauf als eine moderne Variante von Telefon-Sex.

Behörden in Frankreich wollen Ermittlungen ausweiten

Deepfakes gelten als eines der großen Risiken bei der aktuellen KI-Entwicklung. Führende KI-Firmen hatten sich ursprünglich darauf verständigt, Schutz­maßnahmen einzuführen. Politiker aus verschiedenen Staaten wollten entsprechende Inhalte ebenfalls unter Strafe stellen.

Dass auf X nun massenhaft sexualisierte Inhalte von Erwachsenen ohne Einwilligung und von Kindern kursieren, kann sowohl für die Plattform als auch für xAI Konsequenzen haben. Erste Ermittlungen kündigten Behörden in Frankreich an. Diese wollen laut einem Bericht von Politico ein bestehendes Verfahren ausweiten.

Interessant wird es, wie die Vorfälle in den USA bewertet werden. Realistisch wirkende KI-Darstellungen, die identifizierbare Personen und Kinder in sexuellen Darstellungen zeigen, können laut The Verge ebenfalls illegal sein.



Source link

Beliebt

Die mobile Version verlassen