Connect with us

UX/UI & Webdesign

Adobe Firefly Boards im Test: KI trifft auf Moodboards › PAGE online


Adobe entwickelt Firefly kontinuierlich weiter und baut bestehende Funktionen weiter aus. Dazu gehört auch Firefly Boards, ein Tool für visuelle Ideenfindung, das bereits seit einiger Zeit verfügbar ist. Mit den Boards rückt vor allem der kreative Prozess vor der eigentlichen Gestaltung in den Fokus.

Adobe Firefly Boards im Test: KI trifft auf Moodboards › PAGE online

Adobe Firefly Boards: Wie KI den Moodboard-Prozess verändert

Moodboards gehören zu den ersten Schritten in nahezu jedem kreativen Projekt. Sie helfen dabei, visuelle Richtungen zu definieren, Stimmungen festzuhalten und erste Ideen greifbar zu machen. In der Praxis bestehen sie meist aus einer Mischung aus Referenzbildern, Screenshots, Farbwelten und ersten Layouts. Wir wollten wissen, ob Firefly Boards in einem realistischen Kampagnen-Szenario tatsächlich dabei hilft, schneller eine visuelle Ausrichtung zu erreichen und somit mehr zu sein als nur ein weiteres KI-Tool auf einem Whiteboard.

Mit Firefly Boards verschiebt Adobe genau diesen Prozess. Statt einer statischen Sammlung entsteht eine Arbeitsfläche, auf der sich Inhalte nicht nur kuratieren, sondern direkt generieren, variieren und weiterentwickeln lassen. KI wird also nicht erst in der finalen Produktionsphase eingesetzt, sondern bereits in der Phase, in der visuelle Ideen entstehen und geschärft werden.

Adobe stellt verschiedene Beispielboards und Workflows als Vorlagen zur Verfügung. Bild: Jana Reske

Ähnlich wie bei anderen Firefly-Funktionen wird generative KI auch in Firefly Boards direkt in den Workflow integriert. Statt nur bestehende Inhalte zu bearbeiten, lassen sich Bilder direkt im Board per Texteingabe generieren, variieren oder auf Basis von Referenzen weiterentwickeln.

Dabei kann KI auf unterschiedliche Weise eingebunden werden: etwa durch das Generieren neuer Motive per Prompt, das Ableiten von Stil und Komposition aus bestehenden Bildern oder das automatische Erstellen von Varianten. Inhalte entstehen somit nicht mehr nur durch Auswahl, sondern auch durch gezielte Generierung und Iteration innerhalb derselben Arbeitsfläche.

Unser Test-Szenario: Kampagnen-Moodboard für einen Auto-Launch

Für unseren Test wollten wir herausfinden, ob sich von ersten Referenzen über Varianten bis hin zu einer konsistenten visuellen Richtung tatsächlich ein brauchbarer Moodboard-Workflow ergibt. Dazu haben wir Firefly Boards in einem konkreten Anwendungsszenario ausprobiert: der Entwicklung eines visuellen Moodboards für eine Launch-Kampagne eines Autos. Im Zentrum steht ein elektrischer Van und Ziel war es, verschiedene visuelle Richtungen zu entwickeln und diese innerhalb einer Kampagnenidee zusammenzuführen.

Testablauf in Firefly Boards

Der Einstieg in Firefly Boards erfolgt entweder über eine leere Arbeitsfläche oder über vorgefertigte Templates. Gerade für den Anfang erweisen sich diese Vorlagen als hilfreich, da sie nicht nur ein visuelles Layout liefern, sondern auch zeigen, wie ein Moodboard strukturiert werden kann. Im Test haben wir ein solches Template als Grundlage genutzt und anschließend individuell erweitert.Für den Einstieg hilfreich ist auch das begleitende Tutorial auf der Adobe-Website, das die grundlegenden Schritte zur Erstellung der Boards zeigt.

Screenshot einer dunklen Benutzeroberfläche mit der Überschrift „Markenbildwelten mit Boards entdecken“. Im Zentrum steht ein visuelles Moodboard mit verschiedenen KI-generierten Kampagnenmotiven rund um Getränkeflaschen in unterschiedlichen Farben und Szenarien. Zu sehen sind unter anderem Produktfotos, Lifestyle-Aufnahmen mit Personen, Outdoor-Szenen, Werbemotive auf digitalen Billboards sowie Verpackungsdesigns. Pfeile und grafische Verbindungslinien zeigen den kreativen Workflow von einzelnen Produktbildern hin zu kompletten Markenwelten. Im unteren Bereich erklärt eine Schritt-für-Schritt-Anleitung den Prozess: Bilder hochladen, Variationen erstellen, weitere Varianten anlegen, Ergebnisse organisieren und herunterladen bzw. teilen. Die Darstellung vermittelt den Eindruck eines kollaborativen KI-Tools für Markenentwicklung und visuelle Kampagnenplanung.
Die Beispielboards haben unten jeweils eine Erklärung, wie sie erstellt wurden. Bild: Jana Reske

Für unseren Test haben wir im oberen Bereich einen Creative Brief, der die konzeptionelle Richtung vorgibt, eingefügt. Außerdem haben wir erste Grundlagen gesammelt, darunter Fahrzeugbilder von der Original-Webseite sowie das Logo. Diese Elemente dienen als visuelle Basis und definieren erste gestalterische Leitplanken.

Screenshot einer dunklen Präsentationsgrafik mit der Überschrift „Launch Kampagne“. Die Darstellung zeigt einen dreistufigen kreativen Workflow zur Entwicklung einer Fahrzeugkampagne. Schritt 1 zeigt ein Creative Brief-Dokument als Ausgangspunkt der Kampagne. Schritt 2 visualisiert die Erstellung erster KI-generierter Fahrzeugbilder mit unterschiedlichen Perspektiven und Farben eines Vans. Schritt 3 zeigt die Weiterentwicklung zu verschiedenen visuellen Kampagnenwelten, darunter Szenen mit Meer und Segelbooten, Sonnenblumenfeldern sowie Wüsten- und Sonnenuntergangsmotiven. Verbindungslinien zwischen den Bildern verdeutlichen den kreativen Prozess von Briefing über Bildgenerierung bis zur finalen Markeninszenierung.
Die Elemente auf dem Moodboard können beliebig angeordnet werden. Bild: Jana Reske

Darauf aufbauend entstand das eigentliche Moodboard. Ein zentraler Bestandteil des Tests war dabei die Kombination aus bestehenden Bildern und KI-generierten Inhalten. Basierend auf Fotos des Autos haben wir mehrere Varianten des Fahrzeugs in unterschiedlichen Farben erstellt und anschließend in passende, farblich abgestimmte Hintergründe integriert. Diese Hintergründe wurden direkt mit der Firefly-KI generiert, wodurch sich sehr schnell unterschiedliche Bildwelten entwickeln lassen.

Es können verschiedene KI-Modelle für die Bildgenerierung ausgewählt werden. Bild: Jana Reske

Besonders relevant ist in diesem Zusammenhang die Arbeit mit Referenzbildern. Bestehende Motive können als Grundlage für Stil oder Komposition dienen und in neue Varianten überführt werden. Zusätzlich lassen sich Bilder automatisch beschreiben oder variieren, wodurch ein iterativer Prozess entsteht, bei dem Ideen nicht nur gesammelt, sondern aktiv weiterentwickelt werden.

Mithilfe von Referenzfotos und Prompts lassen sich sehr einfach neue Bilder generieren.

Im Test hat uns das »Variieren«-Tool besonders gut gefallen, da es sehr hilfreich war. Damit lassen sich aus einem bestehenden Bild oder einem ausgewählten Bereich schnell mehrere Alternativen erstellen, ohne dass man jedes Motiv neu prompten muss. Adobe Firefly schreibt auch einen entsprechenden Prompt für die neu generierten Bilder.

Basierend auf einem Referenzfoto werden 16 verschiedene Versionen generiert.

Die Arbeitsfläche selbst erinnert an ein klassisches Whiteboard. Inhalte lassen sich frei anordnen, gruppieren und strukturieren, während gleichzeitig unbegrenzt in alle Richtungen gescrollt werden kann. Dadurch entsteht ein sehr flexibler Arbeitsraum, der sowohl grobe Ideen als auch detaillierte Ausarbeitungen abbilden kann.

Ein praktisches Detail ist die Kennzeichnung generierter Inhalte. Beim Mouseover eines Bildes wird angezeigt, ob es sich um ein KI-generiertes Motiv handelt und welches Modell verwendet wurde. Dadurch bleibt nachvollziehbar, welche Inhalte aus welcher Quelle stammen. Inhalte, die mit Adobe Firefly erstellt werden, sind außerdem grundsätzlich mit Content Credentials versehen. Diese machen den Ursprung von Medien auch nach dem Export und der Veröffentlichung für den Betrachter transparent. Hier sind noch weitere Beispiele, wie Bilder mit der Firefly KI bearbeitet oder generiert werden können.

Erweiterte Funktionen & Medien

Über klassische Moodboards hinaus bietet Firefly Boards eine Reihe zusätzlicher Möglichkeiten:

  • Bild → Video: Generierung kurzer Videosequenzen auf Basis von Bildern
  • Bild → 3D: Umwandlung in 3D-Elemente
  • Video-Integration: Upload und Bearbeitung direkt im Board
  • Zusammenarbeit: Teilen per Link und kollaboratives Arbeiten
  • Export: Inhalte lokal sichern oder weiterverarbeiten

Diese Funktionen erweitern das Tool über die reine Ideenfindung hinaus und verschieben es in Richtung Konzeptentwicklung und erste Produktionsschritte. Hier werden die unterschiedlichen Funktionen und Möglichkeiten in Firefly Boards noch einmal genauer erklärt.

Rechtlicher Rahmen & kommerzielle Nutzung

Ein zentraler Aspekt im Umgang mit generativer KI bleibt die Frage der rechtssicheren Nutzung. Das ist für Kreativteams ein relevanter Punkt, denn damit schafft Adobe die Grundlage für eine kommerziell sichere Nutzung der generierten Inhalte. Auch bei Firefly Boards basiert die Bildgenerierung auf dem Firefly-Modell, das ausschließlich mit lizenzierten sowie gemeinfreien Inhalten trainiert wurde, etwa aus Adobe Stock.

Damit schafft Adobe eine Grundlage für die kommerzielle Nutzung der generierten Inhalte. Diese Absicherung gilt jedoch ausdrücklich nur für Inhalte, die direkt mit Adobe Firefly erstellt werden. Nutzer:innen haben darüber hinaus die Möglichkeit, neben den Adobe-eigenen Firefly-Modellen auch ausgewählte Modelle von Partnerunternehmen in Boards zu nutzen. In diesen Fällen bewegen sie sich jedoch außerhalb des von Adobe definierten Rahmens. Entsprechend gibt es seitens Adobe keine Gewährleistung mehr für die kommerziell sichere Nutzung dieser Inhalte, und die Verantwortung für deren Einsatz liegt bei den Anwender:innen selbst.

Erste Eindrücke aus dem Test

Firefly Boards zeigt im Test vor allem seine Stärke in der frühen Phase kreativer Prozesse. Der Einstieg gelingt durch die vorhandenen Templates vergleichsweise schnell, während die Kombination aus Sammlung und Generierung den Workflow deutlich beschleunigt.

Auffällig ist vor allem, wie nahtlos sich generative Inhalte in bestehende Moodboards integrieren lassen. Fehlende Motive müssen nicht mehr aufwendig recherchiert werden, sondern können direkt im Tool erzeugt und angepasst werden.

Gleichzeitig wird deutlich, dass die Flexibilität der Arbeitsfläche auch Struktur erfordert. Ohne klare Gliederung kann ein Board schnell unübersichtlich werden, weshalb eine bewusste Organisation der Inhalte entscheidend bleibt.

Hier spielen auch die vorhandenen Templates eine wichtige Rolle. Sie geben eine erste Struktur vor und erleichtern den Einstieg, insbesondere wenn man noch kein festes System für den Aufbau von Moodboards im Tool entwickelt hat. Alternativ bieten die kurzen Tutorial-Videos eine gute Orientierung, um Funktionen und mögliche Workflows besser zu verstehen.

Fazit

Firefly Boards erweitert den klassischen Moodboard-Prozess um eine generative Komponente. Statt einer rein kuratorischen Sammlung entsteht ein dynamischer Arbeitsraum, in dem Ideen parallel entwickelt, angepasst und weitergedacht werden können.

Besonders im frühen Projektstadium zeigt das Tool seine Stärken, wenn es darum geht, visuelle Richtungen schnell zu explorieren und miteinander zu vergleichen. Gleichzeitig bleibt die Strukturierung des Boards ein entscheidender Faktor, um aus vielen Einzelideen ein konsistentes Gesamtbild zu entwickeln.

Firefly Boards ist eine sinnvolle Erweiterung für kreative Workflows, in denen Geschwindigkeit, Iteration und visuelle Exploration im Vordergrund stehen. Am meisten profitieren dürften Teams, die zu Beginn eines Projekts mehrere Richtungen gegeneinander abwägen müssen. Beispielsweise in den Bereichen Branding, Kampagnenentwicklung, Art Direction, Editorial Design oder Bewegtbild-Konzeption.

Weitere Informationen

 

 



Source link

UX/UI & Webdesign

Ausprobiert: Wie sieht KI Queerness und LGBTQIA+? › PAGE online


KI-Bilder wirken objektiv, sind aber stark von Trainingsdaten abhängig. Deshalb fragt Jana Reske kritisch, welche (queeren) Identitäten sichtbar werden – und welche nicht.

Ausprobiert: Wie sieht KI Queerness und LGBTQIA+? › PAGE onlineBild: Jana ReskeMittlerweile sehen wir fast täglich KI-generierte Bilder, egal ob auf Social Media, in der Werbung, auf Plakaten oder in irgendwelchen WhatsApp-Gruppen. Besonders seit den neuen Updates von Google Gemini und ChatGPT ist alles sehr viel einfacher zugänglich und zu benutzen geworden. Aber gerade, wenn KI-generierte Bilder überall sind, müssen wir genauer hinschauen und hinterfragen, was oder wer auf diesen Bildern gezeigt wird und welche Personengruppen oder Minderheiten möglicherweise ausgeblendet werden. Sichtbarkeit und Repräsentation erreichen gerade ein ganz anderes Level und sind so wichtig wie nie zuvor.

Gibt es mehr Diversität bei MidJourney, DALL-E oder Google Gemini?

Wie wir mittlerweile wissen, basiert KI-Output auf Trainingsdaten aus der Vergangenheit. Gerade deswegen müssen wir aufpassen, dass wir keine alten Stereotypen oder Ungleichheiten verstärken. Denn diese Systeme zeigen nicht die Welt, wie sie ist, sondern wie sie statistisch am wahrscheinlichsten aussieht. Als Medienwissenschaftlerin und KI-Expertin wollte ich deshalb wissen, wie diese Tools queere Paare und Personen darstellen. Ich habe untersucht, wie die meistgenutzten KI-Tools Mid Journey, DALL-E und Google Gemini auf entsprechende Prompts reagieren.

Bei einem ähnlichen Test letztes Jahr zeigte sich ein klares Muster: KI generierte fast ausschließlich weiße und sehr ähnlich aussehende Paare. Heute wirkt das Bild etwas differenzierter.

Ein Vergleich von MidJourney Version 5 und Version 7 zeigt, dass sich das Modell mittlerweile zwar an Diversität versucht, der House Style des Modells aber auch sehr deutlich bleibt. Bild: Jana Reske

Die Tests zeigen, dass die großen Modelle sichtbar bemüht sind, ethnische Vielfalt und unterschiedliche Körperformen abzubilden. Endlich erscheinen mehr nicht-weiße Paare, mehr Variationen und  mehr Diversität im Look. Dabei fiel auf, dass die KI fast ausschließlich Paare erzeugte, die als weiblich gelesen werden. Schwule Paare tauchten dagegen deutlich seltener auf und teilweise erst nach gezielter Präzisierung des Prompts. Dabei tendieren alle drei Systeme in dieselbe Richtung, selbst wenn die Diversität also oberflächlich verbessert wurde, bleibt sie im Detail doch eingeschränkt.

Einige Beispielbilder der verschiedenen KI-Modelle zeigen auch hier deutliche House Styles, und die Ähnlichkeit der Ergebnisse wird offensichtlich. Bild: Jana Reske

Lassen sich der Output der KI und die Bilder durch die Trainingsdaten erklären?

Die Testergebnisse deuten darauf hin, dass im Trainingsmaterial wesentlich mehr Bildmaterial von weiblich gelesenen queeren Paaren als von männlich gelesenen enthalten ist. Die Gründe dafür liegen weniger im Algorithmus als in der Kultur, aus der die Trainingsdaten stammen. Weibliche Körper – und insbesondere weiblich gelesene Intimität – sind in der Mediengeschichte überrepräsentiert, da sie häufig sexualisiert werden. Diese Überrepräsentation schlägt sich in Bilddatenbanken, Stockfotoarchiven, Werbekampagnen, Social Media und visuellen Trends nieder.

Entsprechend stehen KI-Modellen statistisch mehr weibliche queere Bilder zur Verfügung als von schwulen Paaren. Die Forschung und kulturkritische Analyse zeigen seit Jahren, dass lesbische oder bisexuelle Frauen in den Medien häufiger dargestellt werden, da sie für ein heterosexuelles Publikum vermeintlich attraktiver oder »harmloser« erscheinen. Diesen Überschuss an bestimmten Gruppen im visuellen Bestand reproduziert dann wiederum generative KI, denn sie verstärkt unabsichtlich Muster, die in den Trainingsdaten erkennbar sind. So entsteht Bias in der Bildgenerierung. Der Vergleich der generierten Beispielbilder macht dies besonders deutlich. Selbst wenn die Hauttöne divers sind, bleibt die Vorstellung von »queer couples« algorithmisch erstaunlich homogen und überraschend geschlechtsspezifisch eingeschränkt.

Wenn wir KI-Tools zur Bildgenerierung nutzen, sollten wir uns daher fragen: Wer wird sichtbar und wer bleibt unsichtbar, selbst wenn wir nach ihnen fragen?

Was können wir im Umgang mit KI gegen diese Stereotypen tun?

Solange KI-Modelle visuelle »Durchschnittswelten« erzeugen, liegt die Verantwortung bei uns – denjenigen, die Bilder auswählen, kuratieren, prüfen und kontextualisieren. Heute ist die wichtigste Kompetenz nicht mehr nur das Prompting, sondern ein bewusstes und explizites Gegensteuern. Diversität darf nicht dem Zufall überlassen werden, sondern muss aktiv eingefordert werden. Das bedeutet beispielsweise, nicht bei »queer couple« stehen zu bleiben, sondern im Prompt präziser zu werden, wer genau dargestellt werden soll. Ein gutes Beispiel dafür ist eine Kampagne von dem Unternehmen Dove, die eine Guideline zum diversen Prompten erstellt haben. Es ist wichtig, dass wir KI-Output und Bilder nicht als Endprodukt sehen, sondern unser Rolle als Kreative auch darin verstehen diese Bilder zu hinterfragen und anzupassen.

Das könnte dich auch interessieren



Source link

Weiterlesen

UX/UI & Webdesign

»The Model Generates. I Direct.« › PAGE online


Evita, AI creative director and founder of Studio Witzenhausen, on specificity as a core skill, the limits of photorealism, and why design fundamentals are non-negotiable.

»The Model Generates. I Direct.« › PAGE onlineEvita is an AI creative director and the founder of Studio Witzenhausen, a creative studio specialising in high-end AI-generated visuals for fashion and lifestyle brands. With a background in graphic design and photography, she brings a trained eye for light, composition, and storytelling to every project, directing AI tools the way she once directed a shoot. Where traditional production ends, her process begins. Alongside her studio work, she runs HAUS of AI, an education brand where she teaches creatives how to prompt, direct, and produce campaign-quality visuals using AI. She is based in Amsterdam.

Background & Craft

Was there a specific moment that shifted things for you?

It was gradual and then suddenly very fast. I had a background in graphic design and photography, so I already understood light, composition, and how images are made. When I first experimented with AI tools, my immediate frustration was that the results looked nothing like how a photographer actually thinks about a scene. The shift happened when I stopped using the tools like a search engine and started directing them the way I’d direct a photo shoot.

What did those six months of experimenting teach you that most people haven’t figured out yet?

That specificity is everything. Most people write vague prompts and hope for the best. What I learned is that AI responds to the same language a photographer understands, light direction, lens choice, colour temperature, fabric texture etc. The other big thing: reference images carry more information than words ever will. Once I built a structured workflow around that the results became consistent and actually usable for client work.

Where’s the line between creative director and prompt writer?

A prompt writer translates an idea into text. A creative director starts with intention, what feeling should this image create, what story does it tell, who is it for, what should it not say. Coming from photography specifically, I know what a real image costs, the decisions made on set, the light you wait for, the moment you catch. AI doesn’t have that instinct. It generates. I direct. That editorial judgment, knowing when to stop, when to push, when the image is actually wrong even though it looks right, that’s the part that’s mine.

The Process

Walk me through what happens before you hit generate.

I start with the brief, what the brand needs, what emotion it should carry, what references exist. Then I build a visual direction: mood, colour palette, light quality, model type, setting. I think about what the image needs to do before I think about what it needs to look like. Only once I have that locked down do I start building prompts. By the time I hit generate, I already know what I’m looking for.

Favourite tool right now, and a prompt example?

Nano Banana 2 is my current favourite for fashion and model work, the realism it produces is genuinely impressive and it handles fabric, skin, and light in a way other tools still struggle with. A prompt structure that consistently works for me follows this logic: subject → form → material → colour → detail → setting → lighting → camera specs → mood keywords.

How do you stay current without drowning in the noise?

When a new tool drops or a significant update comes out, I test it myself. If it improves my workflow, it stays. If it doesn’t, it goes. I’m not interested in collecting tools. I’m interested in what actually produces better results for clients. Most of what gets hyped on social media doesn’t survive contact with a real brief.

Photorealism & Bias

How do you navigate AI’s tendency to default to normative beauty standards?

AI defaults to perfect, perfect skin, perfect symmetry, perfect proportions. That’s actually the problem. Perfect doesn’t feel real, and real is what makes an image land. So I deliberately direct imperfection into every image, a natural skin texture, an asymmetric feature, a body that looks lived in. The same way a photographer doesn’t over-retouch, I don’t let the tool over-perfect. That’s where the human direction matters most. If you’re not making active choices, the tool is making them for you and its default is always going to be the same narrow, polished ideal.

Have tools resisted your direction and kept defaulting anyway?

Yes, constantly in the early days, less so now as the tools have improved. When it happened, I’d approach it like a correction conversation: isolate the element that was wrong, be specific about what needed to change, and rebuild from that locked baseline. The mistake most people make is rewriting the whole prompt when one element is off. You fix one thing at a time. It’s the same logic as giving feedback on set.

Where’s the line between photorealism and deception? Do you label your work?

Yes, I label everything. Always. That’s non-negotiable for me, ethically and commercially. But I also think the deception conversation is worth reframing. When photography shifted from analogue to digital, nobody called a digital photo deceptive. AI is another shift in tooling, a different way to direct and create an image. The medium changed, the craft didn’t disappear.

That said, transparency matters. My clients know exactly what they’re getting, and I think audiences deserve to know too. So I label it, not because I’m ashamed of the medium, but because honesty about how an image is made is just part of doing this with integrity.

The Industry & Bigger Picture

Is AI production actually compatible with purpose-led brand ethics?

Honestly, it’s a tension I sit with and I don’t think there’s a clean answer. Purpose-led brands care about how things are made, who’s in the room, where the budget goes, what the production footprint looks like. Those are real questions.

And yes, AI has a footprint too. Running these models consumes energy and water. I’m not going to pretend otherwise or use sustainability as a one-sided argument for AI production.

What I will say is that flying a crew to a location, booking models, shipping product, running a full production, that also has a significant footprint. Neither is innocent. The honest conversation is about trade-offs, not about one being categorically better than the other.

What AI does offer smaller brands is access to campaign-quality visuals they simply couldn’t afford to produce otherwise. That’s a different kind of value. And whether you’re working with AI or a traditional crew, the same questions apply: who is represented, what does this imagery say, are we making conscious choices? That’s not something the tool figures out. That’s creative direction.

What would you tell a young graphic designer today — dive into AI early, or master the craft first?

Master the craft first, definitely. My graphic design and photography background is the reason I can do this work well. Understanding light before you prompt about light. Understanding what makes a composition feel alive before you ask AI to build one. The foundation isn’t optional; it’s what separates someone who directs AI from someone who just generates with it. AI is a multiplier. It amplifies whatever visual intelligence you already have. Learn to see first. Then learn to direct.



Source link

Weiterlesen

UX/UI & Webdesign

»KI-generierter Content: Wer hat eigentlich die Rechte daran


Britta Klingberg, Fachanwältin für Gewerblichen Rechtsschutz und Expertin für IT- und KI-Recht, bringt auf den Punkt, warum an »maschinengemachtem« eigentlich keine Urheberrechte bestehen können, und was Mensch tun kann, um dennoch Urheberrechte an KI-generierten Inhalten zu erhalten.

»KI-generierter Content: Wer hat eigentlich die Rechte daranBild: Erstellt mit ChatGPTDie Frage, die mir von Kreativen und Unternehmen im Zusammenhang mit KI-generiertem Content am häufigsten gestellt wird, ist vermutlich:

Wer hat eigentlich die Urheberrechte daran?

In a nutshell lautet die Antwort: Niemand.

Jedenfalls grundsätzlich. Denn die Urheberrechtsgesetze weltweit sehen vor, dass der Urheber eines Werkes, für das vom Gesetz ein Urheberrecht vorgesehen ist, nur ein Mensch sein kann. Und dieser Mensch muss dieses Werk durch eine persönliche geistige Schöpfung kreiert haben.

Urheberrechte durch kreative, menschliche Prompts?

Natürlich ist der Mensch durchaus daran beteiligt, wenn eine generative KI einen Output erzeugt. Zum Beispiel durch die Eingabe von Prompts, die ja recht komplex sein können. Und an besonders elaborierten oder originellen Prompts kann deren menschlicher Ersteller (= Urheber) im Einzelfall möglicherweise ein Urheberrecht haben. Dieses »überträgt« sich aber nicht auf den mit dem Prompt erstellten KI-Output. Denn der Prompt ist nur ein Befehl an die KI – also eine Maschine – und diese Maschine erstellt den Output, nach den Gesetzen des Zufalls. Und an »maschinengemachten« Zufallsprodukten entstehen grundsätzlich keine Urheberrechte. Daran ändern auch die AGB des KI-Anbieters nichts, die oft Klauseln enthalten wie z.B.: »You own all Assets you create with the services to the fullest extent possible under applicable law« (Midjourney Terms of Service, Stand: 12. Februar 2026). Wenn Gesetz und Rechtsprechung kein Urheberrecht vorsehen, dann kann es auch nicht vertraglich eingeräumt werden. Urheberrechte sind keine vertraglichen Positionen, sondern durch (Urheberrechts-) Gesetze eingeräumte Monopolrechte.

Aber: Ab wann ist KI nur Werkzeug und der Mensch der Schöpfer?

Allerdings: Urheber haben schon immer Werkzeuge zur Kreation eingesetzt. Pinsel, Kameras, Grafikprogramme … Und auch ohne Einsatz von KI geschaffene Werke können Zufallsprodukte sein. Man denke nur an Jackson Pollocks »Action Painting«, bei dem die Farbe mitunter wild gespritzt, getropft und geschleudert wurde. Das war dann abstrakten Expressionismus – und nicht Zufall.

Wer selbst mit generativer KI komplexe und vielschichtige Outputs erzeugt, weiß: Mit einem einzelnen Prompt ist es nicht getan. Und auch Hochleistungs-KI liefert in aller Regel nur dann gute oder gar herausragende Ergebnisse, wenn sie von kenntnisreichen und erfahrenen Menschen trainiert und bedient wird. Diese menschgemachten Prozesse und Workflows sind kompliziert und aufwendig. Soll das rechtlich tatsächlich gar nicht zählen?

Gerichtliche Urteile werden differenzierter

Diese Erkenntnis setzt sich Schritt für Schritt erfreulicherweise auch in der Rechtsprechung langsam durch. Das alte Mantra »maschinengemacht = kein Urheberrecht« weicht allmählich einer differenzierteren Betrachtungsweise der Gerichte. So hat das Amtsgericht München unlängst geurteilt, dass beim Einsatz von generativer KI durchaus Urheberrechte bei dem die KI nutzenden Menschen entstehen können. Voraussetzung ist, dass ein menschlicher schöpferischer Einfluss ausgeübt wird, der den resultierenden Output objektiv und eindeutig identifizierbar prägt. Zum Beispiel, wenn die im Prompting eingeflossenen menschlichen, kreativen Elemente den Output so dominieren, dass dies als eigene originelle Schöpfung angesehen werden kann (AG München, Urteil v. 13.2.2026, 142 C 9786/25).

Und das Landgericht Frankfurt a.M. befand, dass das Urheberrecht an einem menschlich erstellten Werk nicht dadurch in Zweifel gezogen wird, wenn KI als letzter Schritt zur Überarbeitung eingesetzt wird. Die Beweislast dafür, dass das Werk hauptsächlich vom menschlichen Urheber stammt, liege aber beim Urheber.

Höhere Instanzen wie Oberlandesgerichte und der BGH haben sich mit der Frage nach Urheberrechten an mit KI erzeugtem Content allerdings noch nicht befasst. Es bleibt also spannend.

Wie erhöht man die Chancen auf Urheberrechte an KI-generierten Inhalten?

Das lässt sich nach aktueller Rechtslage so zusammenfassen:

Was (alleine) nicht reicht:

  • Bloße Auswahl aus dem, was die KI erstellt hat
  • Detaillierte Beschreibungen im Prompting
  • Allgemein gehaltene, ergebnisoffene Vorgaben
  • Handwerkliche Korrekturen am von der KI erstellten Output

Was helfen kann:

  • Wesentliche gestalterische Entscheidungen durch den Menschen (als aktiver Gestaltungsvorgang) – nicht durch KI (= Zufall)
  • Im Prompting kreative Elemente einfließen lassen, die den Output am Ende dominieren
  • Trainingsdaten nutzen, an denen man (Urheber-) Rechte besitzt (z.B. LoRAs)
  • Intensive (!) Nachbearbeitung mit Nicht-KI-Tool(s) und eigenkreativen Entscheidungen / Änderungen

Was immer hilft: Dokumentation!

Eine einheitliche »Patentlösung«, die immer und in jedem Fall für Urheberrechte sorgt, gibt es nicht. Die Frage, ob Urheberrechte bestehen – oder auch nicht – war schon immer eine Einzelfallentscheidung.

Eine wichtige Empfehlung kann man aus der aktuellen Rechtsprechung aber ableiten: Wer seine Urheberrechte gerichtsfest beweisen können möchte, sollte konsequent dokumentieren, wie (s)ein Werk entstanden ist. Welcher Anteil ist KI-generiert, welcher menschliche, eigenkreative Entscheidung? In Zeiten von extern gehosteten SaaS-Lösungen spricht außerdem viel dafür, (Zwischen-) Ergebnisse auch öfter einmal lokal zu speichern.

Über Britta

Britta Klingberg ist Fachanwältin für Gewerblichen Rechtsschutz und Expertin für IT- und KI-Recht, geistiges Eigentum und Datenschutz. Sie ist Partnerin in der Kanzlei Boege Rohde Luebbehuesen (BRL). BRL ist eine international ausgerichtete Partnerschaft von Rechtsanwälten, Wirtschaftsprüfern und Steuerberatern, die im Jahr 2006 gegründet wurde. Heute ist BRL mit rund 420 Mitarbeitenden an den Standorten Hamburg, Berlin, Bochum, Hannover, Dortmund, Essen, München, Bielefeld und Düsseldorf vertreten. www.brl.de



Source link

Weiterlesen

Beliebt