Wie viel Einfluss bleibt uns als Menschen in der Arbeit mit KI? › PAGE online
KI generiert auf Knopfdruck Bilder und Ideen. Doch wer entscheidet, was noch als kreativ gilt? Ein Blick darauf, wer wirklich der »Creative Agent« hinter dem Output ist und wie sich das gerade schlagartig verändert.
Welche Rolle spielen wir als Menschen eigentlich noch, wenn es um KI-Tools oder insbesondere um Bildgenerierung geht? Spiegelt der Output wirklich unsere kreativen Ideen und menschliche Kreativität wider, oder ist er mittlerweile so stark automatisiert, dass wir gar keinen Einfluss mehr auf das haben, was am Ende entsteht?
Noch vor ein paar Jahren war es sehr deutlich, dass wir Menschen im Punkt der Kreativität immer den Einfluss und die Handlungsfähigkeit behalten werden und KI lediglich die ausführende Instanz ist. Wenn wir uns jedoch die aktuellen Entwicklungen und vor allem die Geschwindigkeit und Qualität von KI-Tools anschauen, stellt sich die Frage, wie groß unser Einfluss noch ist. Denn unsere aktuellen Tools liefern keine groben Entwürfe, sondern vermeintlich perfekte Lösungen.
Wer genauer hinschaut – und vor allem in die Forschung blickt –, erkennt, dass es dabei nicht nur um technische Innovation geht, sondern um eine Verschiebung dessen, was wir unter »Creative Agency« verstehen. Der englische Begriff meint die Fähigkeit, kreativ zu handeln. Ideen zu entwickeln, Entscheidungen zu treffen und Bilder zu kreieren. Wenn wir ihn ins Deutsche übersetzen, sprechen wir häufig von »kreativer Handlungsfähigkeit«. Und genau diese Fähigkeit wird durch KI-Systeme nicht ersetzt, sondern neu verteilt und neu gedacht.
Was akademische Forschung unter Kreativität in KI-Systemen versteht
In der akademischen Literatur ist die Position klarer, als man es angesichts der öffentlichen Debatten vermuten würde: KI-Systeme haben keine eigene Intention, keine ästhetische Subjektivität. Sie produzieren Bilder, indem sie Wahrscheinlichkeiten berechnen und visuelle Muster aus gigantischen Trainingsdatensätzen zusammenbringen. KI generiert also keine neuen Bilder oder Ideen, sondern synthetisiert das, was bereits vorhanden ist.
Der Medienwissenschaftler Matteo Pasquinelli und der Designer Vladan Joler formulieren es unmissverständlich: »AI does not create meaning. It recombines signals extracted from pre-existing data sets.« (Pasquinelli und Joler 2021). Und das ist entscheidend: KI kann nichts Neues hervorbringen. Sie kann nur remixen, was bereits existiert. Die Vorstellung, dass diese Systeme kreativ sein könnten, entsteht oft durch die visuelle Wirkung der Ergebnisse und nicht durch den Prozess dahinter. Und genau hier setzt die Theoretikerin und Künstlerin Hito Steyerl an, die den Begriff der »Mean Images« geprägt hat. Steyerl beschreibt diese Bilder als statistische Mittelwerte eines riesigen visuellen Archivs. Nicht das Besondere oder Neue wird generiert, sondern das, was rechnerisch am häufigsten vorkommt. Sie schreibt: »Mean images replace likeness with likeliness.« (Steyerl 2023). KI-Bilder entsprechen nicht einer tatsächlichen Referenz, einer realen Person oder Szene, sondern einem statistischen Wahrscheinlichkeitsprofil dessen, was eine Person »dieser Art« in den Trainingsdaten repräsentiert.
KI-Bilder spiegeln keine Vielfalt in unserer Kultur wider, sondern einen Durchschnitt.
Doch diese vermeintliche Neutralität ist trügerisch. Steyerl betont, dass solche Mean Images keineswegs objektiv sind. Sie reproduzieren die dominanten visuellen Ideologien, die in den Trainingsdaten eingeschrieben sind, häufig ohne dass dies bewusst wahrgenommen wird. Dazu zählen Schönheitsideale, Körpernormen, Machtstrukturen und westlich-kommerzielle Bildwelten. Pasquinelli und Joler formulieren diese Problematik ergänzend so: »Mean images generate the illusion of neutrality, while in fact they reproduce the dominant visual ideologies embedded in the training data.« (2021). KI-Bilder spiegeln keine Vielfalt in unserer Kultur wider, sondern einen Durchschnitt. Dieser Durchschnitt ist jedoch kein globaler Querschnitt, sondern wird von westlichen und kapitalistischen Strukturen geprägt. Und genau darin liegt die Gefahr für kreative Handlungsfähigkeit: Die KI erzeugt das Erwartbare, nicht das Unvorhersehbare und verstärkt dadurch Muster, statt sie zu durchbrechen.
Wer oder was handelt eigentlich kreativ?
Statt also zu fragen, ob KI kreativ ist, lohnt sich eine andere Frage: Wie verändert KI die kreative Handlungsfähigkeit von Designer:innen? Denn beim Einsatz generativer Modelle wird deutlich, dass kreatives Handeln nicht mehr ausschließlich im Kopf oder in der Hand eines Menschen sitzt. Es verteilt sich über mehrere Ebenen: auf das Modell, die Daten, das Interface, den Prompt, die Nutzer:innen und die ökonomischen Strukturen dahinter. Diese Verschiebung wird in der Forschung häufig als »distributed agency« beschrieben. Ein KI-Modell trifft zwar keine autonomen Entscheidungen, beeinflusst die Ergebnisse aber dennoch, indem es bestimmte Bildlogiken bevorzugt und andere systematisch ausblendet. Ein Forschungsteam beschreibt diese Co-Produktion als: »Creativity becomes a relational process between human intention and machine imagination.« (Celis Bueno et al., 2024). Diese Formulierung trifft den Kern dessen, was Designer:innen aktuell erleben. Kreative Entscheidungen entstehen in einem Wechselspiel zwischen menschlicher Vision und algorithmischer Vorschläge.
Wie sich kreative Praxis durch KI konkret verändert
Dieser Wandel zeigt sich besonders deutlich im Arbeitsalltag. Die Ideenfindung wird zwar schneller, aber paradoxerweise nicht unbedingt freier. Zwar liefert KI innerhalb von Sekunden visuelle Interpretationen, diese folgen jedoch bestimmten Mustern und Richtlinien. Dadurch wird die Vorstellung davon, wie ein Entwurf aussehen könnte, eingeengt, da ständig die »wahrscheinlichste« Lösung vorgeschlagen wird. Gleichzeitig vervielfacht sich die Anzahl der Iterationen: Statt zehn Varianten entstehen hundert. Doch die Quantität täuscht über ein anderes Problem hinweg, denn die Konzepte werden dadurch nicht automatisch vielfältiger. Viele Versionen unterscheiden sich nur minimal voneinander, aber sie sind oft keine echten Alternativen. Die Verantwortung der Designer:innen verschiebt sich somit: Sie werden stärker zu Kurator:innen, Selektor:innen und Kritiker:innen. Die kreative Arbeit entsteht im Aussortieren, Kommentieren und Umformen.
Kreative Kompetenz wird somit um eine neue Dimension ergänzt
Dabei zeigt sich, dass technisches Wissen plötzlich relevanter wird. Wer versteht, wie Modelle trainiert sind, wie Embeddings funktionieren oder wie sich Bilddaten durch Prompts beeinflussen lassen, hat eine ganz andere Kontrolle über die Ergebnisse. Kreative Kompetenz wird somit um eine neue Dimension ergänzt, die mit Software-Know-how und kritischer Modellkompetenz zu tun hat. Die Forschung macht deutlich, dass KI-Bildgeneratoren Muster reproduzieren, die ihnen kulturell und technisch vorgegeben sind. Das bedeutet, dass Kreativität heute nicht mehr nur darin besteht, Bilder zu erzeugen, sondern auch darin, bewusst mit der Unsichtbarkeit und den Lücken von Systemen umzugehen. Die eigentliche kreative Handlungsfähigkeit der Zukunft liegt vielleicht genau darin, KI nicht nur als Werkzeug zu nutzen, sondern sie aktiv zu formen, zu hinterfragen und immer wieder zu brechen. Designer:innen, die verstehen, dass KI-Bilder keine neutralen Vorschläge sind, sondern Ideologien, können die Systeme produktiv irritieren, gegen sie arbeiten, sie zweckentfremden und vor allem hinterfragen.
Letztendlich geht es weniger darum, ob KI kreativ ist, sondern vielmehr darum, wie wir mit ihr kreativ bleiben. »Creative Agency«wird damit zu einer Haltung, nicht zu einer Methode. Sie zeigt sich darin, welche Fragen wir stellen, welche Bilder wir akzeptieren und welche wir verwerfen sowie darin, wie bewusst wir die Systeme nutzen, die uns umgeben. Die zentrale Erkenntnis aus der Forschung ist, dass nicht die KI über die Zukunft der Kreativität entscheidet, sondern unsere Fähigkeit, sie zu verstehen. Und unsere Bereitschaft, gerade dort abzuweichen, wo ihre Bilder zu glatt, zu perfekt oder zu generisch erscheinen.
Akademische Quellen:
Bueno, Claudio Celis, Pei-Sze Chow, and Ada Popowicz. 2024. “Not ‘What’, But ‘Where Is Creativity?’: Towards a Relational-materialist Approach to Generative AI.” AI & Society, March. https://doi.org/10.1007/s00146-024-01921-3.
Pasquinelli, Matteo, and Vladan Joler. 2021. “The Nooscope Manifested: AI as Instrument of Knowledge Extractivism.” AI & Society 36 (4): 1263–80. https://doi.org/10.1007/s00146-020-01097-6.