Connect with us

UX/UI & Webdesign

»KI-generierter Content: Wer hat eigentlich die Rechte daran


Britta Klingberg, Fachanwältin für Gewerblichen Rechtsschutz und Expertin für IT- und KI-Recht, bringt auf den Punkt, warum an »maschinengemachtem« eigentlich keine Urheberrechte bestehen können, und was Mensch tun kann, um dennoch Urheberrechte an KI-generierten Inhalten zu erhalten.

»KI-generierter Content: Wer hat eigentlich die Rechte daranBild: Erstellt mit ChatGPTDie Frage, die mir von Kreativen und Unternehmen im Zusammenhang mit KI-generiertem Content am häufigsten gestellt wird, ist vermutlich:

Wer hat eigentlich die Urheberrechte daran?

In a nutshell lautet die Antwort: Niemand.

Jedenfalls grundsätzlich. Denn die Urheberrechtsgesetze weltweit sehen vor, dass der Urheber eines Werkes, für das vom Gesetz ein Urheberrecht vorgesehen ist, nur ein Mensch sein kann. Und dieser Mensch muss dieses Werk durch eine persönliche geistige Schöpfung kreiert haben.

Urheberrechte durch kreative, menschliche Prompts?

Natürlich ist der Mensch durchaus daran beteiligt, wenn eine generative KI einen Output erzeugt. Zum Beispiel durch die Eingabe von Prompts, die ja recht komplex sein können. Und an besonders elaborierten oder originellen Prompts kann deren menschlicher Ersteller (= Urheber) im Einzelfall möglicherweise ein Urheberrecht haben. Dieses »überträgt« sich aber nicht auf den mit dem Prompt erstellten KI-Output. Denn der Prompt ist nur ein Befehl an die KI – also eine Maschine – und diese Maschine erstellt den Output, nach den Gesetzen des Zufalls. Und an »maschinengemachten« Zufallsprodukten entstehen grundsätzlich keine Urheberrechte. Daran ändern auch die AGB des KI-Anbieters nichts, die oft Klauseln enthalten wie z.B.: »You own all Assets you create with the services to the fullest extent possible under applicable law« (Midjourney Terms of Service, Stand: 12. Februar 2026). Wenn Gesetz und Rechtsprechung kein Urheberrecht vorsehen, dann kann es auch nicht vertraglich eingeräumt werden. Urheberrechte sind keine vertraglichen Positionen, sondern durch (Urheberrechts-) Gesetze eingeräumte Monopolrechte.

Aber: Ab wann ist KI nur Werkzeug und der Mensch der Schöpfer?

Allerdings: Urheber haben schon immer Werkzeuge zur Kreation eingesetzt. Pinsel, Kameras, Grafikprogramme … Und auch ohne Einsatz von KI geschaffene Werke können Zufallsprodukte sein. Man denke nur an Jackson Pollocks »Action Painting«, bei dem die Farbe mitunter wild gespritzt, getropft und geschleudert wurde. Das war dann abstrakten Expressionismus – und nicht Zufall.

Wer selbst mit generativer KI komplexe und vielschichtige Outputs erzeugt, weiß: Mit einem einzelnen Prompt ist es nicht getan. Und auch Hochleistungs-KI liefert in aller Regel nur dann gute oder gar herausragende Ergebnisse, wenn sie von kenntnisreichen und erfahrenen Menschen trainiert und bedient wird. Diese menschgemachten Prozesse und Workflows sind kompliziert und aufwendig. Soll das rechtlich tatsächlich gar nicht zählen?

Gerichtliche Urteile werden differenzierter

Diese Erkenntnis setzt sich Schritt für Schritt erfreulicherweise auch in der Rechtsprechung langsam durch. Das alte Mantra »maschinengemacht = kein Urheberrecht« weicht allmählich einer differenzierteren Betrachtungsweise der Gerichte. So hat das Amtsgericht München unlängst geurteilt, dass beim Einsatz von generativer KI durchaus Urheberrechte bei dem die KI nutzenden Menschen entstehen können. Voraussetzung ist, dass ein menschlicher schöpferischer Einfluss ausgeübt wird, der den resultierenden Output objektiv und eindeutig identifizierbar prägt. Zum Beispiel, wenn die im Prompting eingeflossenen menschlichen, kreativen Elemente den Output so dominieren, dass dies als eigene originelle Schöpfung angesehen werden kann (AG München, Urteil v. 13.2.2026, 142 C 9786/25).

Und das Landgericht Frankfurt a.M. befand, dass das Urheberrecht an einem menschlich erstellten Werk nicht dadurch in Zweifel gezogen wird, wenn KI als letzter Schritt zur Überarbeitung eingesetzt wird. Die Beweislast dafür, dass das Werk hauptsächlich vom menschlichen Urheber stammt, liege aber beim Urheber.

Höhere Instanzen wie Oberlandesgerichte und der BGH haben sich mit der Frage nach Urheberrechten an mit KI erzeugtem Content allerdings noch nicht befasst. Es bleibt also spannend.

Wie erhöht man die Chancen auf Urheberrechte an KI-generierten Inhalten?

Das lässt sich nach aktueller Rechtslage so zusammenfassen:

Was (alleine) nicht reicht:

  • Bloße Auswahl aus dem, was die KI erstellt hat
  • Detaillierte Beschreibungen im Prompting
  • Allgemein gehaltene, ergebnisoffene Vorgaben
  • Handwerkliche Korrekturen am von der KI erstellten Output

Was helfen kann:

  • Wesentliche gestalterische Entscheidungen durch den Menschen (als aktiver Gestaltungsvorgang) – nicht durch KI (= Zufall)
  • Im Prompting kreative Elemente einfließen lassen, die den Output am Ende dominieren
  • Trainingsdaten nutzen, an denen man (Urheber-) Rechte besitzt (z.B. LoRAs)
  • Intensive (!) Nachbearbeitung mit Nicht-KI-Tool(s) und eigenkreativen Entscheidungen / Änderungen

Was immer hilft: Dokumentation!

Eine einheitliche »Patentlösung«, die immer und in jedem Fall für Urheberrechte sorgt, gibt es nicht. Die Frage, ob Urheberrechte bestehen – oder auch nicht – war schon immer eine Einzelfallentscheidung.

Eine wichtige Empfehlung kann man aus der aktuellen Rechtsprechung aber ableiten: Wer seine Urheberrechte gerichtsfest beweisen können möchte, sollte konsequent dokumentieren, wie (s)ein Werk entstanden ist. Welcher Anteil ist KI-generiert, welcher menschliche, eigenkreative Entscheidung? In Zeiten von extern gehosteten SaaS-Lösungen spricht außerdem viel dafür, (Zwischen-) Ergebnisse auch öfter einmal lokal zu speichern.

Über Britta

Britta Klingberg ist Fachanwältin für Gewerblichen Rechtsschutz und Expertin für IT- und KI-Recht, geistiges Eigentum und Datenschutz. Sie ist Partnerin in der Kanzlei Boege Rohde Luebbehuesen (BRL). BRL ist eine international ausgerichtete Partnerschaft von Rechtsanwälten, Wirtschaftsprüfern und Steuerberatern, die im Jahr 2006 gegründet wurde. Heute ist BRL mit rund 420 Mitarbeitenden an den Standorten Hamburg, Berlin, Bochum, Hannover, Dortmund, Essen, München, Bielefeld und Düsseldorf vertreten. www.brl.de



Source link

UX/UI & Webdesign

»The Model Generates. I Direct.« › PAGE online


Evita, AI creative director and founder of Studio Witzenhausen, on specificity as a core skill, the limits of photorealism, and why design fundamentals are non-negotiable.

»The Model Generates. I Direct.« › PAGE onlineEvita is an AI creative director and the founder of Studio Witzenhausen, a creative studio specialising in high-end AI-generated visuals for fashion and lifestyle brands. With a background in graphic design and photography, she brings a trained eye for light, composition, and storytelling to every project, directing AI tools the way she once directed a shoot. Where traditional production ends, her process begins. Alongside her studio work, she runs HAUS of AI, an education brand where she teaches creatives how to prompt, direct, and produce campaign-quality visuals using AI. She is based in Amsterdam.

Background & Craft

Was there a specific moment that shifted things for you?

It was gradual and then suddenly very fast. I had a background in graphic design and photography, so I already understood light, composition, and how images are made. When I first experimented with AI tools, my immediate frustration was that the results looked nothing like how a photographer actually thinks about a scene. The shift happened when I stopped using the tools like a search engine and started directing them the way I’d direct a photo shoot.

What did those six months of experimenting teach you that most people haven’t figured out yet?

That specificity is everything. Most people write vague prompts and hope for the best. What I learned is that AI responds to the same language a photographer understands, light direction, lens choice, colour temperature, fabric texture etc. The other big thing: reference images carry more information than words ever will. Once I built a structured workflow around that the results became consistent and actually usable for client work.

Where’s the line between creative director and prompt writer?

A prompt writer translates an idea into text. A creative director starts with intention, what feeling should this image create, what story does it tell, who is it for, what should it not say. Coming from photography specifically, I know what a real image costs, the decisions made on set, the light you wait for, the moment you catch. AI doesn’t have that instinct. It generates. I direct. That editorial judgment, knowing when to stop, when to push, when the image is actually wrong even though it looks right, that’s the part that’s mine.

The Process

Walk me through what happens before you hit generate.

I start with the brief, what the brand needs, what emotion it should carry, what references exist. Then I build a visual direction: mood, colour palette, light quality, model type, setting. I think about what the image needs to do before I think about what it needs to look like. Only once I have that locked down do I start building prompts. By the time I hit generate, I already know what I’m looking for.

Favourite tool right now, and a prompt example?

Nano Banana 2 is my current favourite for fashion and model work, the realism it produces is genuinely impressive and it handles fabric, skin, and light in a way other tools still struggle with. A prompt structure that consistently works for me follows this logic: subject → form → material → colour → detail → setting → lighting → camera specs → mood keywords.

How do you stay current without drowning in the noise?

When a new tool drops or a significant update comes out, I test it myself. If it improves my workflow, it stays. If it doesn’t, it goes. I’m not interested in collecting tools. I’m interested in what actually produces better results for clients. Most of what gets hyped on social media doesn’t survive contact with a real brief.

Photorealism & Bias

How do you navigate AI’s tendency to default to normative beauty standards?

AI defaults to perfect, perfect skin, perfect symmetry, perfect proportions. That’s actually the problem. Perfect doesn’t feel real, and real is what makes an image land. So I deliberately direct imperfection into every image, a natural skin texture, an asymmetric feature, a body that looks lived in. The same way a photographer doesn’t over-retouch, I don’t let the tool over-perfect. That’s where the human direction matters most. If you’re not making active choices, the tool is making them for you and its default is always going to be the same narrow, polished ideal.

Have tools resisted your direction and kept defaulting anyway?

Yes, constantly in the early days, less so now as the tools have improved. When it happened, I’d approach it like a correction conversation: isolate the element that was wrong, be specific about what needed to change, and rebuild from that locked baseline. The mistake most people make is rewriting the whole prompt when one element is off. You fix one thing at a time. It’s the same logic as giving feedback on set.

Where’s the line between photorealism and deception? Do you label your work?

Yes, I label everything. Always. That’s non-negotiable for me, ethically and commercially. But I also think the deception conversation is worth reframing. When photography shifted from analogue to digital, nobody called a digital photo deceptive. AI is another shift in tooling, a different way to direct and create an image. The medium changed, the craft didn’t disappear.

That said, transparency matters. My clients know exactly what they’re getting, and I think audiences deserve to know too. So I label it, not because I’m ashamed of the medium, but because honesty about how an image is made is just part of doing this with integrity.

The Industry & Bigger Picture

Is AI production actually compatible with purpose-led brand ethics?

Honestly, it’s a tension I sit with and I don’t think there’s a clean answer. Purpose-led brands care about how things are made, who’s in the room, where the budget goes, what the production footprint looks like. Those are real questions.

And yes, AI has a footprint too. Running these models consumes energy and water. I’m not going to pretend otherwise or use sustainability as a one-sided argument for AI production.

What I will say is that flying a crew to a location, booking models, shipping product, running a full production, that also has a significant footprint. Neither is innocent. The honest conversation is about trade-offs, not about one being categorically better than the other.

What AI does offer smaller brands is access to campaign-quality visuals they simply couldn’t afford to produce otherwise. That’s a different kind of value. And whether you’re working with AI or a traditional crew, the same questions apply: who is represented, what does this imagery say, are we making conscious choices? That’s not something the tool figures out. That’s creative direction.

What would you tell a young graphic designer today — dive into AI early, or master the craft first?

Master the craft first, definitely. My graphic design and photography background is the reason I can do this work well. Understanding light before you prompt about light. Understanding what makes a composition feel alive before you ask AI to build one. The foundation isn’t optional; it’s what separates someone who directs AI from someone who just generates with it. AI is a multiplier. It amplifies whatever visual intelligence you already have. Learn to see first. Then learn to direct.



Source link

Weiterlesen

UX/UI & Webdesign

Adobe Firefly Boards im Test: KI trifft auf Moodboards › PAGE online


Adobe entwickelt Firefly kontinuierlich weiter und baut bestehende Funktionen weiter aus. Dazu gehört auch Firefly Boards, ein Tool für visuelle Ideenfindung, das bereits seit einiger Zeit verfügbar ist. Mit den Boards rückt vor allem der kreative Prozess vor der eigentlichen Gestaltung in den Fokus.

Adobe Firefly Boards im Test: KI trifft auf Moodboards › PAGE online

Adobe Firefly Boards: Wie KI den Moodboard-Prozess verändert

Moodboards gehören zu den ersten Schritten in nahezu jedem kreativen Projekt. Sie helfen dabei, visuelle Richtungen zu definieren, Stimmungen festzuhalten und erste Ideen greifbar zu machen. In der Praxis bestehen sie meist aus einer Mischung aus Referenzbildern, Screenshots, Farbwelten und ersten Layouts. Wir wollten wissen, ob Firefly Boards in einem realistischen Kampagnen-Szenario tatsächlich dabei hilft, schneller eine visuelle Ausrichtung zu erreichen und somit mehr zu sein als nur ein weiteres KI-Tool auf einem Whiteboard.

Mit Firefly Boards verschiebt Adobe genau diesen Prozess. Statt einer statischen Sammlung entsteht eine Arbeitsfläche, auf der sich Inhalte nicht nur kuratieren, sondern direkt generieren, variieren und weiterentwickeln lassen. KI wird also nicht erst in der finalen Produktionsphase eingesetzt, sondern bereits in der Phase, in der visuelle Ideen entstehen und geschärft werden.

Adobe stellt verschiedene Beispielboards und Workflows als Vorlagen zur Verfügung. Bild: Jana Reske

Ähnlich wie bei anderen Firefly-Funktionen wird generative KI auch in Firefly Boards direkt in den Workflow integriert. Statt nur bestehende Inhalte zu bearbeiten, lassen sich Bilder direkt im Board per Texteingabe generieren, variieren oder auf Basis von Referenzen weiterentwickeln.

Dabei kann KI auf unterschiedliche Weise eingebunden werden: etwa durch das Generieren neuer Motive per Prompt, das Ableiten von Stil und Komposition aus bestehenden Bildern oder das automatische Erstellen von Varianten. Inhalte entstehen somit nicht mehr nur durch Auswahl, sondern auch durch gezielte Generierung und Iteration innerhalb derselben Arbeitsfläche.

Unser Test-Szenario: Kampagnen-Moodboard für einen Auto-Launch

Für unseren Test wollten wir herausfinden, ob sich von ersten Referenzen über Varianten bis hin zu einer konsistenten visuellen Richtung tatsächlich ein brauchbarer Moodboard-Workflow ergibt. Dazu haben wir Firefly Boards in einem konkreten Anwendungsszenario ausprobiert: der Entwicklung eines visuellen Moodboards für eine Launch-Kampagne eines Autos. Im Zentrum steht ein elektrischer Van und Ziel war es, verschiedene visuelle Richtungen zu entwickeln und diese innerhalb einer Kampagnenidee zusammenzuführen.

Testablauf in Firefly Boards

Der Einstieg in Firefly Boards erfolgt entweder über eine leere Arbeitsfläche oder über vorgefertigte Templates. Gerade für den Anfang erweisen sich diese Vorlagen als hilfreich, da sie nicht nur ein visuelles Layout liefern, sondern auch zeigen, wie ein Moodboard strukturiert werden kann. Im Test haben wir ein solches Template als Grundlage genutzt und anschließend individuell erweitert.Für den Einstieg hilfreich ist auch das begleitende Tutorial auf der Adobe-Website, das die grundlegenden Schritte zur Erstellung der Boards zeigt.

Screenshot einer dunklen Benutzeroberfläche mit der Überschrift „Markenbildwelten mit Boards entdecken“. Im Zentrum steht ein visuelles Moodboard mit verschiedenen KI-generierten Kampagnenmotiven rund um Getränkeflaschen in unterschiedlichen Farben und Szenarien. Zu sehen sind unter anderem Produktfotos, Lifestyle-Aufnahmen mit Personen, Outdoor-Szenen, Werbemotive auf digitalen Billboards sowie Verpackungsdesigns. Pfeile und grafische Verbindungslinien zeigen den kreativen Workflow von einzelnen Produktbildern hin zu kompletten Markenwelten. Im unteren Bereich erklärt eine Schritt-für-Schritt-Anleitung den Prozess: Bilder hochladen, Variationen erstellen, weitere Varianten anlegen, Ergebnisse organisieren und herunterladen bzw. teilen. Die Darstellung vermittelt den Eindruck eines kollaborativen KI-Tools für Markenentwicklung und visuelle Kampagnenplanung.
Die Beispielboards haben unten jeweils eine Erklärung, wie sie erstellt wurden. Bild: Jana Reske

Für unseren Test haben wir im oberen Bereich einen Creative Brief, der die konzeptionelle Richtung vorgibt, eingefügt. Außerdem haben wir erste Grundlagen gesammelt, darunter Fahrzeugbilder von der Original-Webseite sowie das Logo. Diese Elemente dienen als visuelle Basis und definieren erste gestalterische Leitplanken.

Screenshot einer dunklen Präsentationsgrafik mit der Überschrift „Launch Kampagne“. Die Darstellung zeigt einen dreistufigen kreativen Workflow zur Entwicklung einer Fahrzeugkampagne. Schritt 1 zeigt ein Creative Brief-Dokument als Ausgangspunkt der Kampagne. Schritt 2 visualisiert die Erstellung erster KI-generierter Fahrzeugbilder mit unterschiedlichen Perspektiven und Farben eines Vans. Schritt 3 zeigt die Weiterentwicklung zu verschiedenen visuellen Kampagnenwelten, darunter Szenen mit Meer und Segelbooten, Sonnenblumenfeldern sowie Wüsten- und Sonnenuntergangsmotiven. Verbindungslinien zwischen den Bildern verdeutlichen den kreativen Prozess von Briefing über Bildgenerierung bis zur finalen Markeninszenierung.
Die Elemente auf dem Moodboard können beliebig angeordnet werden. Bild: Jana Reske

Darauf aufbauend entstand das eigentliche Moodboard. Ein zentraler Bestandteil des Tests war dabei die Kombination aus bestehenden Bildern und KI-generierten Inhalten. Basierend auf Fotos des Autos haben wir mehrere Varianten des Fahrzeugs in unterschiedlichen Farben erstellt und anschließend in passende, farblich abgestimmte Hintergründe integriert. Diese Hintergründe wurden direkt mit der Firefly-KI generiert, wodurch sich sehr schnell unterschiedliche Bildwelten entwickeln lassen.

Es können verschiedene KI-Modelle für die Bildgenerierung ausgewählt werden. Bild: Jana Reske

Besonders relevant ist in diesem Zusammenhang die Arbeit mit Referenzbildern. Bestehende Motive können als Grundlage für Stil oder Komposition dienen und in neue Varianten überführt werden. Zusätzlich lassen sich Bilder automatisch beschreiben oder variieren, wodurch ein iterativer Prozess entsteht, bei dem Ideen nicht nur gesammelt, sondern aktiv weiterentwickelt werden.

Mithilfe von Referenzfotos und Prompts lassen sich sehr einfach neue Bilder generieren.

Im Test hat uns das »Variieren«-Tool besonders gut gefallen, da es sehr hilfreich war. Damit lassen sich aus einem bestehenden Bild oder einem ausgewählten Bereich schnell mehrere Alternativen erstellen, ohne dass man jedes Motiv neu prompten muss. Adobe Firefly schreibt auch einen entsprechenden Prompt für die neu generierten Bilder.

Basierend auf einem Referenzfoto werden 16 verschiedene Versionen generiert.

Die Arbeitsfläche selbst erinnert an ein klassisches Whiteboard. Inhalte lassen sich frei anordnen, gruppieren und strukturieren, während gleichzeitig unbegrenzt in alle Richtungen gescrollt werden kann. Dadurch entsteht ein sehr flexibler Arbeitsraum, der sowohl grobe Ideen als auch detaillierte Ausarbeitungen abbilden kann.

Ein praktisches Detail ist die Kennzeichnung generierter Inhalte. Beim Mouseover eines Bildes wird angezeigt, ob es sich um ein KI-generiertes Motiv handelt und welches Modell verwendet wurde. Dadurch bleibt nachvollziehbar, welche Inhalte aus welcher Quelle stammen. Inhalte, die mit Adobe Firefly erstellt werden, sind außerdem grundsätzlich mit Content Credentials versehen. Diese machen den Ursprung von Medien auch nach dem Export und der Veröffentlichung für den Betrachter transparent. Hier sind noch weitere Beispiele, wie Bilder mit der Firefly KI bearbeitet oder generiert werden können.

Erweiterte Funktionen & Medien

Über klassische Moodboards hinaus bietet Firefly Boards eine Reihe zusätzlicher Möglichkeiten:

  • Bild → Video: Generierung kurzer Videosequenzen auf Basis von Bildern
  • Bild → 3D: Umwandlung in 3D-Elemente
  • Video-Integration: Upload und Bearbeitung direkt im Board
  • Zusammenarbeit: Teilen per Link und kollaboratives Arbeiten
  • Export: Inhalte lokal sichern oder weiterverarbeiten

Diese Funktionen erweitern das Tool über die reine Ideenfindung hinaus und verschieben es in Richtung Konzeptentwicklung und erste Produktionsschritte. Hier werden die unterschiedlichen Funktionen und Möglichkeiten in Firefly Boards noch einmal genauer erklärt.

Rechtlicher Rahmen & kommerzielle Nutzung

Ein zentraler Aspekt im Umgang mit generativer KI bleibt die Frage der rechtssicheren Nutzung. Das ist für Kreativteams ein relevanter Punkt, denn damit schafft Adobe die Grundlage für eine kommerziell sichere Nutzung der generierten Inhalte. Auch bei Firefly Boards basiert die Bildgenerierung auf dem Firefly-Modell, das ausschließlich mit lizenzierten sowie gemeinfreien Inhalten trainiert wurde, etwa aus Adobe Stock.

Damit schafft Adobe eine Grundlage für die kommerzielle Nutzung der generierten Inhalte. Diese Absicherung gilt jedoch ausdrücklich nur für Inhalte, die direkt mit Adobe Firefly erstellt werden. Nutzer:innen haben darüber hinaus die Möglichkeit, neben den Adobe-eigenen Firefly-Modellen auch ausgewählte Modelle von Partnerunternehmen in Boards zu nutzen. In diesen Fällen bewegen sie sich jedoch außerhalb des von Adobe definierten Rahmens. Entsprechend gibt es seitens Adobe keine Gewährleistung mehr für die kommerziell sichere Nutzung dieser Inhalte, und die Verantwortung für deren Einsatz liegt bei den Anwender:innen selbst.

Erste Eindrücke aus dem Test

Firefly Boards zeigt im Test vor allem seine Stärke in der frühen Phase kreativer Prozesse. Der Einstieg gelingt durch die vorhandenen Templates vergleichsweise schnell, während die Kombination aus Sammlung und Generierung den Workflow deutlich beschleunigt.

Auffällig ist vor allem, wie nahtlos sich generative Inhalte in bestehende Moodboards integrieren lassen. Fehlende Motive müssen nicht mehr aufwendig recherchiert werden, sondern können direkt im Tool erzeugt und angepasst werden.

Gleichzeitig wird deutlich, dass die Flexibilität der Arbeitsfläche auch Struktur erfordert. Ohne klare Gliederung kann ein Board schnell unübersichtlich werden, weshalb eine bewusste Organisation der Inhalte entscheidend bleibt.

Hier spielen auch die vorhandenen Templates eine wichtige Rolle. Sie geben eine erste Struktur vor und erleichtern den Einstieg, insbesondere wenn man noch kein festes System für den Aufbau von Moodboards im Tool entwickelt hat. Alternativ bieten die kurzen Tutorial-Videos eine gute Orientierung, um Funktionen und mögliche Workflows besser zu verstehen.

Fazit

Firefly Boards erweitert den klassischen Moodboard-Prozess um eine generative Komponente. Statt einer rein kuratorischen Sammlung entsteht ein dynamischer Arbeitsraum, in dem Ideen parallel entwickelt, angepasst und weitergedacht werden können.

Besonders im frühen Projektstadium zeigt das Tool seine Stärken, wenn es darum geht, visuelle Richtungen schnell zu explorieren und miteinander zu vergleichen. Gleichzeitig bleibt die Strukturierung des Boards ein entscheidender Faktor, um aus vielen Einzelideen ein konsistentes Gesamtbild zu entwickeln.

Firefly Boards ist eine sinnvolle Erweiterung für kreative Workflows, in denen Geschwindigkeit, Iteration und visuelle Exploration im Vordergrund stehen. Am meisten profitieren dürften Teams, die zu Beginn eines Projekts mehrere Richtungen gegeneinander abwägen müssen. Beispielsweise in den Bereichen Branding, Kampagnenentwicklung, Art Direction, Editorial Design oder Bewegtbild-Konzeption.

Weitere Informationen

 

 



Source link

Weiterlesen

UX/UI & Webdesign

»Mit AI bin ich plötzlich selbst zum Film- und Fotoproduzenten geworden.« › PAGE online


Axel Schilling ist Freelance Creative Director aus Hamburg – mit Cannes-Löwen in der Schublade und einem KI-Kurzfilm, der international Festivals aufmischt. Was ihn antreibt, was ihn beunruhigt, und warum er beim HAICA dabei ist.

»Mit AI bin ich plötzlich selbst zum Film- und Fotoproduzenten geworden.« › PAGE online
Eine hundertjährige Frau am Rand einer Klippe — ihr letzter Blick aufs Meer, ihr einziger Wunsch: dass wir nicht wegschauen. Ein Film über Erinnerung, Haltung und das Durchhalten bis zum Ende. Bild: Idee, AI, Sound & Schnitt Axel Schilling

Du bist wettbewerbserfahren – deine Einreichung »Before my Silence« wurde letztes Jahr neben HAICA mehrfach ausgezeichnet, und auch andere Arbeiten finden starke Resonanz. Was bedeuten Wettbewerbe für dich – Ansporn, Spiegel, Bestätigung?

Axel: Wettbewerbe sind ein Teil meines Lebens. Schon als Kind gab es Malwettbewerbe, beim Sport ging es eh immer darum, sich zu vergleichen, und mit meinen Bands habe ich bei zahlreichen Bandwettbewerben teilgenommen. Noch im Studium habe ich meine erste Agenturerfahrung bei Philipp & Keuntje gemacht und das erste Mal von Kreativwettbewerben in der Werbung erfahren. Noch als Junior konnte ich dann mit Scholz & Friends meine ersten zwei Cannes Löwen gewinnen. All diese Wettbewerbe haben etwas gemeinsam: sie haben mir eine Plattform gegeben, mich und meine beste Leistung zu präsentieren, und mich immer einen Schritt weitergebracht. Die Teilnahme an AI-Awards ist dafür das aktuelle Beispiel. Ich denke nicht, dass meine Arbeiten ohne sie so sichtbar gewesen wären und so viel Resonanz erzeugt hätten.

Erinnerst du dich noch an deinen ersten echten AI-Moment? Was hat dich damals dazu gebracht, ein Tool auszuprobieren – und was hat das Ergebnis mit dir gemacht?

Meinen ersten AI-Moment hatte ich noch vor generativer AI, als ich bei LA RED in Hamburg eine digitale Innovationsabteilung geleitet habe. Ich hatte die Idee für ein Tool, das die Kreation bei ihren Recherche- und Ideenfindungsprozessen unterstützen sollte, hatte aber keine Ahnung, wie wir das umsetzen sollten. Dann kam plötzlich Midjourney und ich habe meine ersten visuellen Versuche gemacht. Ich habe weder gedacht, dass das die Welt verändern wird, noch habe ich mich über die teils wirren Ergebnisse beschwert. Stattdessen direkt darüber nachgedacht, wie man die Ergebnisse kreativ für unsere Kunden nutzen konnte.

Spielt AI auch in deiner Arbeit als Creative Director eine Rolle? Wie fließt das in deinen kreativen Prozess ein?

Ja. AI steckt in vielen Prozessen. Aber besonders bei kreativen Herausforderungen lege ich mehr Wert auf frische Luft und mein Notizbuch. AI kommt für mich erst ins Spiel, wenn ich meine Gedanken sortieren und meine Notizen sauber formulieren will. Für Moodboards und Lookentwicklung greife ich auch nicht direkt auf AI zurück, sondern klassisch auf Filme, Bücher oder Inspiration aus dem echten Leben. AI kann mir dann helfen, meine Inspiration zu erweitern oder konkreter für das jeweilige Briefing zu interpretieren.

Was für mich ganz neu ist: Mit AI bin ich plötzlich selbst zum Film- und Fotoproduzenten geworden. Was ich zuvor nur als Mood oder Mockup umsetzen konnte, kann ich inzwischen selbst finalisieren. Eine sehr wertvolle Ergänzung zu meinem Angebot – für mich und meine Kund:innen.

Wie würdest du deine ganz persönliche Haltung zu AI beschreiben? Was bedeutet diese Technologie für dich – jenseits der Arbeit?

Trotz aller Möglichkeiten, die AI auch mir bringt, könnte man sie meinetwegen auch wieder abschalten. Besonders für künstlerische Berufe hätte es sie meiner Ansicht gar nicht so geben dürfen, wie wir sie heute kennen. Wir wissen alle, dass die besten Modelle ungefragt mit Daten anderer Artists trainiert wurden. Das ist und bleibt ein Problem. Zudem sehe ich in meinem Umfeld handwerklich talentierte und begeisterte Designer und Illustratoren, deren Leidenschaft das Handwerk ist. Weder Prompting noch reines Directing machen sie glücklich. Ich befürchte nur, dass handwerkliche Illustration, Fotografie und Gestaltung langfristig nur noch in besonderen Einzelfällen benötigt werden.

Ich persönlich nutze AI für meine Arbeit und Projekte und achte immer nach bestem Wissen und Gewissen darauf, dass ich keine Persönlichkeitsrechte oder andere Rechte verletze und dass mein Output immer eine gewisse Relevanz hat.

Was AI z.B. Gutes für die Forschung tun kann, weiß ich nicht. Da stecke ich nicht tief genug drin. Auch nicht, wie gefährlich AI wirklich sein kann. Die Technologie macht so vieles einfacher, schneller und überhaupt möglich. Aber eben auch so vieles ungewiss, kaputt – und ist in den falschen Händen sogar sehr gefährlich. Leider sind derzeit sehr viele von diesen falschen Händen an der Macht.

Du bewegst dich zwischen eigenen Projekten und Kundenaufträgen. Wo liegen die größten Unterschiede – und wo überraschenderweise die Gemeinsamkeiten?

Es macht schon einen deutlichen Unterschied, ob man für sich allein entscheidet, was gut ist, oder viele andere das für einen tun und man sie erst überzeugen muss. Aber das ist in meinem Beruf ja immer so. Da ich bei Briefings gut aufpasse, entwickle ich die Arbeiten natürlich eh schon so, dass sie den Anforderungen der Marke gerecht werden und meine Handschrift tragen.

Gemeinsamkeiten gibt es generell in den Workflows. Meist teste ich zunächst nur für mich und nutze die neuen Workflows oder Tools dann auch bei Auftragsarbeiten. Zudem haben beide meinen hohen Qualitätsanspruch gemeinsam.

Was nimmst du von HAICA mit? Gibt es einen Gedanken oder eine Begegnung, die dich besonders beschäftigt?

Meine AI-Film-Community ist auf der ganzen Welt verteilt und das hauptsächlich online. Bei HAICA freut mich, dass eine lokale Community aufgebaut wird, zu der man eigentlich immer real life Zugriff hat.

Woran arbeitest du gerade? Was treibt dich bei deinem aktuellen Projekt an?

Derzeit arbeite ich an einer Vertical-Drama-Serie für eine große europäische Einzelhandelskette. Details kann ich nicht nennen, aber mich treibt besonders an, etwas zu schaffen, das die User sich gerne und freiwillig anschauen. Ich will die Chance nutzen, Content für Marken zu schaffen, der für die jeweiligen Zielgruppen wirklich relevant und unterhaltsam ist.

Parallel bin ich in den letzten Zügen für die neue BIDETLITY-Kampagne. Es wird einen 40 Sekunden langen Hauptfilm geben und diverse kürzere Social Assets. Das Projekt habe ich gemeinsam mit Marco Obermann und LE BERG Creative Studio konzipiert und schließlich Full-AI produziert.



Source link

Weiterlesen

Beliebt