Ausprobiert: Wie sieht KI Queerness und LGBTQIA+? › PAGE online
von Jana Reske
| Lesezeit: ca. 3 Minuten
KI-Bilder wirken objektiv, sind aber stark von Trainingsdaten abhängig. Deshalb fragt Jana Reske kritisch, welche (queeren) Identitäten sichtbar werden – und welche nicht.
Bild: Jana ReskeMittlerweile sehen wir fast täglich KI-generierte Bilder, egal ob auf Social Media, in der Werbung, auf Plakaten oder in irgendwelchen WhatsApp-Gruppen. Besonders seit den neuen Updates von Google Gemini und ChatGPT ist alles sehr viel einfacher zugänglich und zu benutzen geworden. Aber gerade, wenn KI-generierte Bilder überall sind, müssen wir genauer hinschauen und hinterfragen, was oder wer auf diesen Bildern gezeigt wird und welche Personengruppen oder Minderheiten möglicherweise ausgeblendet werden. Sichtbarkeit und Repräsentation erreichen gerade ein ganz anderes Level und sind so wichtig wie nie zuvor.
Gibt es mehr Diversität bei MidJourney, DALL-E oder Google Gemini?
Wie wir mittlerweile wissen, basiert KI-Output auf Trainingsdaten aus der Vergangenheit. Gerade deswegen müssen wir aufpassen, dass wir keine alten Stereotypen oder Ungleichheiten verstärken. Denn diese Systeme zeigen nicht die Welt, wie sie ist, sondern wie sie statistisch am wahrscheinlichsten aussieht. Als Medienwissenschaftlerin und KI-Expertin wollte ich deshalb wissen, wie diese Tools queere Paare und Personen darstellen. Ich habe untersucht, wie die meistgenutzten KI-Tools Mid Journey, DALL-E und Google Gemini auf entsprechende Prompts reagieren.
Bei einem ähnlichen Test letztes Jahr zeigte sich ein klares Muster: KI generierte fast ausschließlich weiße und sehr ähnlich aussehende Paare. Heute wirkt das Bild etwas differenzierter.
Ein Vergleich von MidJourney Version 5 und Version 7 zeigt, dass sich das Modell mittlerweile zwar an Diversität versucht, der House Style des Modells aber auch sehr deutlich bleibt. Bild: Jana Reske
Die Tests zeigen, dass die großen Modelle sichtbar bemüht sind, ethnische Vielfalt und unterschiedliche Körperformen abzubilden. Endlich erscheinen mehr nicht-weiße Paare, mehr Variationen und mehr Diversität im Look. Dabei fiel auf, dass die KI fast ausschließlich Paare erzeugte, die als weiblich gelesen werden. Schwule Paare tauchten dagegen deutlich seltener auf und teilweise erst nach gezielter Präzisierung des Prompts. Dabei tendieren alle drei Systeme in dieselbe Richtung, selbst wenn die Diversität also oberflächlich verbessert wurde, bleibt sie im Detail doch eingeschränkt.
Einige Beispielbilder der verschiedenen KI-Modelle zeigen auch hier deutliche House Styles, und die Ähnlichkeit der Ergebnisse wird offensichtlich. Bild: Jana Reske
Lassen sich der Output der KI und die Bilder durch die Trainingsdaten erklären?
Die Testergebnisse deuten darauf hin, dass im Trainingsmaterial wesentlich mehr Bildmaterial von weiblich gelesenen queeren Paaren als von männlich gelesenen enthalten ist. Die Gründe dafür liegen weniger im Algorithmus als in der Kultur, aus der die Trainingsdaten stammen. Weibliche Körper – und insbesondere weiblich gelesene Intimität – sind in der Mediengeschichte überrepräsentiert, da sie häufig sexualisiert werden. Diese Überrepräsentation schlägt sich in Bilddatenbanken, Stockfotoarchiven, Werbekampagnen, Social Media und visuellen Trends nieder.
Entsprechend stehen KI-Modellen statistisch mehr weibliche queere Bilder zur Verfügung als von schwulen Paaren. Die Forschung und kulturkritische Analyse zeigen seit Jahren, dass lesbische oder bisexuelle Frauen in den Medien häufiger dargestellt werden, da sie für ein heterosexuelles Publikum vermeintlich attraktiver oder »harmloser« erscheinen. Diesen Überschuss an bestimmten Gruppen im visuellen Bestand reproduziert dann wiederum generative KI, denn sie verstärkt unabsichtlich Muster, die in den Trainingsdaten erkennbar sind. So entsteht Bias in der Bildgenerierung. Der Vergleich der generierten Beispielbilder macht dies besonders deutlich. Selbst wenn die Hauttöne divers sind, bleibt die Vorstellung von »queer couples« algorithmisch erstaunlich homogen und überraschend geschlechtsspezifisch eingeschränkt.
Wenn wir KI-Tools zur Bildgenerierung nutzen, sollten wir uns daher fragen: Wer wird sichtbar und wer bleibt unsichtbar, selbst wenn wir nach ihnen fragen?
Was können wir im Umgang mit KI gegen diese Stereotypen tun?
Solange KI-Modelle visuelle »Durchschnittswelten« erzeugen, liegt die Verantwortung bei uns – denjenigen, die Bilder auswählen, kuratieren, prüfen und kontextualisieren. Heute ist die wichtigste Kompetenz nicht mehr nur das Prompting, sondern ein bewusstes und explizites Gegensteuern. Diversität darf nicht dem Zufall überlassen werden, sondern muss aktiv eingefordert werden. Das bedeutet beispielsweise, nicht bei »queer couple« stehen zu bleiben, sondern im Prompt präziser zu werden, wer genau dargestellt werden soll. Ein gutes Beispiel dafür ist eine Kampagne von dem Unternehmen Dove, die eine Guideline zum diversen Prompten erstellt haben. Es ist wichtig, dass wir KI-Output und Bilder nicht als Endprodukt sehen, sondern unser Rolle als Kreative auch darin verstehen diese Bilder zu hinterfragen und anzupassen.