Connect with us

UX/UI & Webdesign

Adobe Firefly Boards im Test: KI trifft auf Moodboards › PAGE online


Adobe entwickelt Firefly kontinuierlich weiter und baut bestehende Funktionen weiter aus. Dazu gehört auch Firefly Boards, ein Tool für visuelle Ideenfindung, das bereits seit einiger Zeit verfügbar ist. Mit den Boards rückt vor allem der kreative Prozess vor der eigentlichen Gestaltung in den Fokus.

Adobe Firefly Boards im Test: KI trifft auf Moodboards › PAGE online

Adobe Firefly Boards: Wie KI den Moodboard-Prozess verändert

Moodboards gehören zu den ersten Schritten in nahezu jedem kreativen Projekt. Sie helfen dabei, visuelle Richtungen zu definieren, Stimmungen festzuhalten und erste Ideen greifbar zu machen. In der Praxis bestehen sie meist aus einer Mischung aus Referenzbildern, Screenshots, Farbwelten und ersten Layouts. Wir wollten wissen, ob Firefly Boards in einem realistischen Kampagnen-Szenario tatsächlich dabei hilft, schneller eine visuelle Ausrichtung zu erreichen und somit mehr zu sein als nur ein weiteres KI-Tool auf einem Whiteboard.

Mit Firefly Boards verschiebt Adobe genau diesen Prozess. Statt einer statischen Sammlung entsteht eine Arbeitsfläche, auf der sich Inhalte nicht nur kuratieren, sondern direkt generieren, variieren und weiterentwickeln lassen. KI wird also nicht erst in der finalen Produktionsphase eingesetzt, sondern bereits in der Phase, in der visuelle Ideen entstehen und geschärft werden.

Adobe stellt verschiedene Beispielboards und Workflows als Vorlagen zur Verfügung. Bild: Jana Reske

Ähnlich wie bei anderen Firefly-Funktionen wird generative KI auch in Firefly Boards direkt in den Workflow integriert. Statt nur bestehende Inhalte zu bearbeiten, lassen sich Bilder direkt im Board per Texteingabe generieren, variieren oder auf Basis von Referenzen weiterentwickeln.

Dabei kann KI auf unterschiedliche Weise eingebunden werden: etwa durch das Generieren neuer Motive per Prompt, das Ableiten von Stil und Komposition aus bestehenden Bildern oder das automatische Erstellen von Varianten. Inhalte entstehen somit nicht mehr nur durch Auswahl, sondern auch durch gezielte Generierung und Iteration innerhalb derselben Arbeitsfläche.

Unser Test-Szenario: Kampagnen-Moodboard für einen Auto-Launch

Für unseren Test wollten wir herausfinden, ob sich von ersten Referenzen über Varianten bis hin zu einer konsistenten visuellen Richtung tatsächlich ein brauchbarer Moodboard-Workflow ergibt. Dazu haben wir Firefly Boards in einem konkreten Anwendungsszenario ausprobiert: der Entwicklung eines visuellen Moodboards für eine Launch-Kampagne eines Autos. Im Zentrum steht ein elektrischer Van und Ziel war es, verschiedene visuelle Richtungen zu entwickeln und diese innerhalb einer Kampagnenidee zusammenzuführen.

Testablauf in Firefly Boards

Der Einstieg in Firefly Boards erfolgt entweder über eine leere Arbeitsfläche oder über vorgefertigte Templates. Gerade für den Anfang erweisen sich diese Vorlagen als hilfreich, da sie nicht nur ein visuelles Layout liefern, sondern auch zeigen, wie ein Moodboard strukturiert werden kann. Im Test haben wir ein solches Template als Grundlage genutzt und anschließend individuell erweitert.Für den Einstieg hilfreich ist auch das begleitende Tutorial auf der Adobe-Website, das die grundlegenden Schritte zur Erstellung der Boards zeigt.

Screenshot einer dunklen Benutzeroberfläche mit der Überschrift „Markenbildwelten mit Boards entdecken“. Im Zentrum steht ein visuelles Moodboard mit verschiedenen KI-generierten Kampagnenmotiven rund um Getränkeflaschen in unterschiedlichen Farben und Szenarien. Zu sehen sind unter anderem Produktfotos, Lifestyle-Aufnahmen mit Personen, Outdoor-Szenen, Werbemotive auf digitalen Billboards sowie Verpackungsdesigns. Pfeile und grafische Verbindungslinien zeigen den kreativen Workflow von einzelnen Produktbildern hin zu kompletten Markenwelten. Im unteren Bereich erklärt eine Schritt-für-Schritt-Anleitung den Prozess: Bilder hochladen, Variationen erstellen, weitere Varianten anlegen, Ergebnisse organisieren und herunterladen bzw. teilen. Die Darstellung vermittelt den Eindruck eines kollaborativen KI-Tools für Markenentwicklung und visuelle Kampagnenplanung.
Die Beispielboards haben unten jeweils eine Erklärung, wie sie erstellt wurden. Bild: Jana Reske

Für unseren Test haben wir im oberen Bereich einen Creative Brief, der die konzeptionelle Richtung vorgibt, eingefügt. Außerdem haben wir erste Grundlagen gesammelt, darunter Fahrzeugbilder von der Original-Webseite sowie das Logo. Diese Elemente dienen als visuelle Basis und definieren erste gestalterische Leitplanken.

Screenshot einer dunklen Präsentationsgrafik mit der Überschrift „Launch Kampagne“. Die Darstellung zeigt einen dreistufigen kreativen Workflow zur Entwicklung einer Fahrzeugkampagne. Schritt 1 zeigt ein Creative Brief-Dokument als Ausgangspunkt der Kampagne. Schritt 2 visualisiert die Erstellung erster KI-generierter Fahrzeugbilder mit unterschiedlichen Perspektiven und Farben eines Vans. Schritt 3 zeigt die Weiterentwicklung zu verschiedenen visuellen Kampagnenwelten, darunter Szenen mit Meer und Segelbooten, Sonnenblumenfeldern sowie Wüsten- und Sonnenuntergangsmotiven. Verbindungslinien zwischen den Bildern verdeutlichen den kreativen Prozess von Briefing über Bildgenerierung bis zur finalen Markeninszenierung.
Die Elemente auf dem Moodboard können beliebig angeordnet werden. Bild: Jana Reske

Darauf aufbauend entstand das eigentliche Moodboard. Ein zentraler Bestandteil des Tests war dabei die Kombination aus bestehenden Bildern und KI-generierten Inhalten. Basierend auf Fotos des Autos haben wir mehrere Varianten des Fahrzeugs in unterschiedlichen Farben erstellt und anschließend in passende, farblich abgestimmte Hintergründe integriert. Diese Hintergründe wurden direkt mit der Firefly-KI generiert, wodurch sich sehr schnell unterschiedliche Bildwelten entwickeln lassen.

Es können verschiedene KI-Modelle für die Bildgenerierung ausgewählt werden. Bild: Jana Reske

Besonders relevant ist in diesem Zusammenhang die Arbeit mit Referenzbildern. Bestehende Motive können als Grundlage für Stil oder Komposition dienen und in neue Varianten überführt werden. Zusätzlich lassen sich Bilder automatisch beschreiben oder variieren, wodurch ein iterativer Prozess entsteht, bei dem Ideen nicht nur gesammelt, sondern aktiv weiterentwickelt werden.

Mithilfe von Referenzfotos und Prompts lassen sich sehr einfach neue Bilder generieren.

Im Test hat uns das »Variieren«-Tool besonders gut gefallen, da es sehr hilfreich war. Damit lassen sich aus einem bestehenden Bild oder einem ausgewählten Bereich schnell mehrere Alternativen erstellen, ohne dass man jedes Motiv neu prompten muss. Adobe Firefly schreibt auch einen entsprechenden Prompt für die neu generierten Bilder.

Basierend auf einem Referenzfoto werden 16 verschiedene Versionen generiert.

Die Arbeitsfläche selbst erinnert an ein klassisches Whiteboard. Inhalte lassen sich frei anordnen, gruppieren und strukturieren, während gleichzeitig unbegrenzt in alle Richtungen gescrollt werden kann. Dadurch entsteht ein sehr flexibler Arbeitsraum, der sowohl grobe Ideen als auch detaillierte Ausarbeitungen abbilden kann.

Ein praktisches Detail ist die Kennzeichnung generierter Inhalte. Beim Mouseover eines Bildes wird angezeigt, ob es sich um ein KI-generiertes Motiv handelt und welches Modell verwendet wurde. Dadurch bleibt nachvollziehbar, welche Inhalte aus welcher Quelle stammen. Inhalte, die mit Adobe Firefly erstellt werden, sind außerdem grundsätzlich mit Content Credentials versehen. Diese machen den Ursprung von Medien auch nach dem Export und der Veröffentlichung für den Betrachter transparent. Hier sind noch weitere Beispiele, wie Bilder mit der Firefly KI bearbeitet oder generiert werden können.

Erweiterte Funktionen & Medien

Über klassische Moodboards hinaus bietet Firefly Boards eine Reihe zusätzlicher Möglichkeiten:

  • Bild → Video: Generierung kurzer Videosequenzen auf Basis von Bildern
  • Bild → 3D: Umwandlung in 3D-Elemente
  • Video-Integration: Upload und Bearbeitung direkt im Board
  • Zusammenarbeit: Teilen per Link und kollaboratives Arbeiten
  • Export: Inhalte lokal sichern oder weiterverarbeiten

Diese Funktionen erweitern das Tool über die reine Ideenfindung hinaus und verschieben es in Richtung Konzeptentwicklung und erste Produktionsschritte. Hier werden die unterschiedlichen Funktionen und Möglichkeiten in Firefly Boards noch einmal genauer erklärt.

Rechtlicher Rahmen & kommerzielle Nutzung

Ein zentraler Aspekt im Umgang mit generativer KI bleibt die Frage der rechtssicheren Nutzung. Das ist für Kreativteams ein relevanter Punkt, denn damit schafft Adobe die Grundlage für eine kommerziell sichere Nutzung der generierten Inhalte. Auch bei Firefly Boards basiert die Bildgenerierung auf dem Firefly-Modell, das ausschließlich mit lizenzierten sowie gemeinfreien Inhalten trainiert wurde, etwa aus Adobe Stock.

Damit schafft Adobe eine Grundlage für die kommerzielle Nutzung der generierten Inhalte. Diese Absicherung gilt jedoch ausdrücklich nur für Inhalte, die direkt mit Adobe Firefly erstellt werden. Nutzer:innen haben darüber hinaus die Möglichkeit, neben den Adobe-eigenen Firefly-Modellen auch ausgewählte Modelle von Partnerunternehmen in Boards zu nutzen. In diesen Fällen bewegen sie sich jedoch außerhalb des von Adobe definierten Rahmens. Entsprechend gibt es seitens Adobe keine Gewährleistung mehr für die kommerziell sichere Nutzung dieser Inhalte, und die Verantwortung für deren Einsatz liegt bei den Anwender:innen selbst.

Erste Eindrücke aus dem Test

Firefly Boards zeigt im Test vor allem seine Stärke in der frühen Phase kreativer Prozesse. Der Einstieg gelingt durch die vorhandenen Templates vergleichsweise schnell, während die Kombination aus Sammlung und Generierung den Workflow deutlich beschleunigt.

Auffällig ist vor allem, wie nahtlos sich generative Inhalte in bestehende Moodboards integrieren lassen. Fehlende Motive müssen nicht mehr aufwendig recherchiert werden, sondern können direkt im Tool erzeugt und angepasst werden.

Gleichzeitig wird deutlich, dass die Flexibilität der Arbeitsfläche auch Struktur erfordert. Ohne klare Gliederung kann ein Board schnell unübersichtlich werden, weshalb eine bewusste Organisation der Inhalte entscheidend bleibt.

Hier spielen auch die vorhandenen Templates eine wichtige Rolle. Sie geben eine erste Struktur vor und erleichtern den Einstieg, insbesondere wenn man noch kein festes System für den Aufbau von Moodboards im Tool entwickelt hat. Alternativ bieten die kurzen Tutorial-Videos eine gute Orientierung, um Funktionen und mögliche Workflows besser zu verstehen.

Fazit

Firefly Boards erweitert den klassischen Moodboard-Prozess um eine generative Komponente. Statt einer rein kuratorischen Sammlung entsteht ein dynamischer Arbeitsraum, in dem Ideen parallel entwickelt, angepasst und weitergedacht werden können.

Besonders im frühen Projektstadium zeigt das Tool seine Stärken, wenn es darum geht, visuelle Richtungen schnell zu explorieren und miteinander zu vergleichen. Gleichzeitig bleibt die Strukturierung des Boards ein entscheidender Faktor, um aus vielen Einzelideen ein konsistentes Gesamtbild zu entwickeln.

Firefly Boards ist eine sinnvolle Erweiterung für kreative Workflows, in denen Geschwindigkeit, Iteration und visuelle Exploration im Vordergrund stehen. Am meisten profitieren dürften Teams, die zu Beginn eines Projekts mehrere Richtungen gegeneinander abwägen müssen. Beispielsweise in den Bereichen Branding, Kampagnenentwicklung, Art Direction, Editorial Design oder Bewegtbild-Konzeption.

Weitere Informationen

 

 



Source link

UX/UI & Webdesign

»KI-generierter Content: Wer hat eigentlich die Rechte daran


Britta Klingberg, Fachanwältin für Gewerblichen Rechtsschutz und Expertin für IT- und KI-Recht, bringt auf den Punkt, warum an »maschinengemachtem« eigentlich keine Urheberrechte bestehen können, und was Mensch tun kann, um dennoch Urheberrechte an KI-generierten Inhalten zu erhalten.

»KI-generierter Content: Wer hat eigentlich die Rechte daranBild: Erstellt mit ChatGPTDie Frage, die mir von Kreativen und Unternehmen im Zusammenhang mit KI-generiertem Content am häufigsten gestellt wird, ist vermutlich:

Wer hat eigentlich die Urheberrechte daran?

In a nutshell lautet die Antwort: Niemand.

Jedenfalls grundsätzlich. Denn die Urheberrechtsgesetze weltweit sehen vor, dass der Urheber eines Werkes, für das vom Gesetz ein Urheberrecht vorgesehen ist, nur ein Mensch sein kann. Und dieser Mensch muss dieses Werk durch eine persönliche geistige Schöpfung kreiert haben.

Urheberrechte durch kreative, menschliche Prompts?

Natürlich ist der Mensch durchaus daran beteiligt, wenn eine generative KI einen Output erzeugt. Zum Beispiel durch die Eingabe von Prompts, die ja recht komplex sein können. Und an besonders elaborierten oder originellen Prompts kann deren menschlicher Ersteller (= Urheber) im Einzelfall möglicherweise ein Urheberrecht haben. Dieses »überträgt« sich aber nicht auf den mit dem Prompt erstellten KI-Output. Denn der Prompt ist nur ein Befehl an die KI – also eine Maschine – und diese Maschine erstellt den Output, nach den Gesetzen des Zufalls. Und an »maschinengemachten« Zufallsprodukten entstehen grundsätzlich keine Urheberrechte. Daran ändern auch die AGB des KI-Anbieters nichts, die oft Klauseln enthalten wie z.B.: »You own all Assets you create with the services to the fullest extent possible under applicable law« (Midjourney Terms of Service, Stand: 12. Februar 2026). Wenn Gesetz und Rechtsprechung kein Urheberrecht vorsehen, dann kann es auch nicht vertraglich eingeräumt werden. Urheberrechte sind keine vertraglichen Positionen, sondern durch (Urheberrechts-) Gesetze eingeräumte Monopolrechte.

Aber: Ab wann ist KI nur Werkzeug und der Mensch der Schöpfer?

Allerdings: Urheber haben schon immer Werkzeuge zur Kreation eingesetzt. Pinsel, Kameras, Grafikprogramme … Und auch ohne Einsatz von KI geschaffene Werke können Zufallsprodukte sein. Man denke nur an Jackson Pollocks »Action Painting«, bei dem die Farbe mitunter wild gespritzt, getropft und geschleudert wurde. Das war dann abstrakten Expressionismus – und nicht Zufall.

Wer selbst mit generativer KI komplexe und vielschichtige Outputs erzeugt, weiß: Mit einem einzelnen Prompt ist es nicht getan. Und auch Hochleistungs-KI liefert in aller Regel nur dann gute oder gar herausragende Ergebnisse, wenn sie von kenntnisreichen und erfahrenen Menschen trainiert und bedient wird. Diese menschgemachten Prozesse und Workflows sind kompliziert und aufwendig. Soll das rechtlich tatsächlich gar nicht zählen?

Gerichtliche Urteile werden differenzierter

Diese Erkenntnis setzt sich Schritt für Schritt erfreulicherweise auch in der Rechtsprechung langsam durch. Das alte Mantra »maschinengemacht = kein Urheberrecht« weicht allmählich einer differenzierteren Betrachtungsweise der Gerichte. So hat das Amtsgericht München unlängst geurteilt, dass beim Einsatz von generativer KI durchaus Urheberrechte bei dem die KI nutzenden Menschen entstehen können. Voraussetzung ist, dass ein menschlicher schöpferischer Einfluss ausgeübt wird, der den resultierenden Output objektiv und eindeutig identifizierbar prägt. Zum Beispiel, wenn die im Prompting eingeflossenen menschlichen, kreativen Elemente den Output so dominieren, dass dies als eigene originelle Schöpfung angesehen werden kann (AG München, Urteil v. 13.2.2026, 142 C 9786/25).

Und das Landgericht Frankfurt a.M. befand, dass das Urheberrecht an einem menschlich erstellten Werk nicht dadurch in Zweifel gezogen wird, wenn KI als letzter Schritt zur Überarbeitung eingesetzt wird. Die Beweislast dafür, dass das Werk hauptsächlich vom menschlichen Urheber stammt, liege aber beim Urheber.

Höhere Instanzen wie Oberlandesgerichte und der BGH haben sich mit der Frage nach Urheberrechten an mit KI erzeugtem Content allerdings noch nicht befasst. Es bleibt also spannend.

Wie erhöht man die Chancen auf Urheberrechte an KI-generierten Inhalten?

Das lässt sich nach aktueller Rechtslage so zusammenfassen:

Was (alleine) nicht reicht:

  • Bloße Auswahl aus dem, was die KI erstellt hat
  • Detaillierte Beschreibungen im Prompting
  • Allgemein gehaltene, ergebnisoffene Vorgaben
  • Handwerkliche Korrekturen am von der KI erstellten Output

Was helfen kann:

  • Wesentliche gestalterische Entscheidungen durch den Menschen (als aktiver Gestaltungsvorgang) – nicht durch KI (= Zufall)
  • Im Prompting kreative Elemente einfließen lassen, die den Output am Ende dominieren
  • Trainingsdaten nutzen, an denen man (Urheber-) Rechte besitzt (z.B. LoRAs)
  • Intensive (!) Nachbearbeitung mit Nicht-KI-Tool(s) und eigenkreativen Entscheidungen / Änderungen

Was immer hilft: Dokumentation!

Eine einheitliche »Patentlösung«, die immer und in jedem Fall für Urheberrechte sorgt, gibt es nicht. Die Frage, ob Urheberrechte bestehen – oder auch nicht – war schon immer eine Einzelfallentscheidung.

Eine wichtige Empfehlung kann man aus der aktuellen Rechtsprechung aber ableiten: Wer seine Urheberrechte gerichtsfest beweisen können möchte, sollte konsequent dokumentieren, wie (s)ein Werk entstanden ist. Welcher Anteil ist KI-generiert, welcher menschliche, eigenkreative Entscheidung? In Zeiten von extern gehosteten SaaS-Lösungen spricht außerdem viel dafür, (Zwischen-) Ergebnisse auch öfter einmal lokal zu speichern.

Über Britta

Britta Klingberg ist Fachanwältin für Gewerblichen Rechtsschutz und Expertin für IT- und KI-Recht, geistiges Eigentum und Datenschutz. Sie ist Partnerin in der Kanzlei Boege Rohde Luebbehuesen (BRL). BRL ist eine international ausgerichtete Partnerschaft von Rechtsanwälten, Wirtschaftsprüfern und Steuerberatern, die im Jahr 2006 gegründet wurde. Heute ist BRL mit rund 420 Mitarbeitenden an den Standorten Hamburg, Berlin, Bochum, Hannover, Dortmund, Essen, München, Bielefeld und Düsseldorf vertreten. www.brl.de



Source link

Weiterlesen

UX/UI & Webdesign

»Mit AI bin ich plötzlich selbst zum Film- und Fotoproduzenten geworden.« › PAGE online


Axel Schilling ist Freelance Creative Director aus Hamburg – mit Cannes-Löwen in der Schublade und einem KI-Kurzfilm, der international Festivals aufmischt. Was ihn antreibt, was ihn beunruhigt, und warum er beim HAICA dabei ist.

»Mit AI bin ich plötzlich selbst zum Film- und Fotoproduzenten geworden.« › PAGE online
Eine hundertjährige Frau am Rand einer Klippe — ihr letzter Blick aufs Meer, ihr einziger Wunsch: dass wir nicht wegschauen. Ein Film über Erinnerung, Haltung und das Durchhalten bis zum Ende. Bild: Idee, AI, Sound & Schnitt Axel Schilling

Du bist wettbewerbserfahren – deine Einreichung »Before my Silence« wurde letztes Jahr neben HAICA mehrfach ausgezeichnet, und auch andere Arbeiten finden starke Resonanz. Was bedeuten Wettbewerbe für dich – Ansporn, Spiegel, Bestätigung?

Axel: Wettbewerbe sind ein Teil meines Lebens. Schon als Kind gab es Malwettbewerbe, beim Sport ging es eh immer darum, sich zu vergleichen, und mit meinen Bands habe ich bei zahlreichen Bandwettbewerben teilgenommen. Noch im Studium habe ich meine erste Agenturerfahrung bei Philipp & Keuntje gemacht und das erste Mal von Kreativwettbewerben in der Werbung erfahren. Noch als Junior konnte ich dann mit Scholz & Friends meine ersten zwei Cannes Löwen gewinnen. All diese Wettbewerbe haben etwas gemeinsam: sie haben mir eine Plattform gegeben, mich und meine beste Leistung zu präsentieren, und mich immer einen Schritt weitergebracht. Die Teilnahme an AI-Awards ist dafür das aktuelle Beispiel. Ich denke nicht, dass meine Arbeiten ohne sie so sichtbar gewesen wären und so viel Resonanz erzeugt hätten.

Erinnerst du dich noch an deinen ersten echten AI-Moment? Was hat dich damals dazu gebracht, ein Tool auszuprobieren – und was hat das Ergebnis mit dir gemacht?

Meinen ersten AI-Moment hatte ich noch vor generativer AI, als ich bei LA RED in Hamburg eine digitale Innovationsabteilung geleitet habe. Ich hatte die Idee für ein Tool, das die Kreation bei ihren Recherche- und Ideenfindungsprozessen unterstützen sollte, hatte aber keine Ahnung, wie wir das umsetzen sollten. Dann kam plötzlich Midjourney und ich habe meine ersten visuellen Versuche gemacht. Ich habe weder gedacht, dass das die Welt verändern wird, noch habe ich mich über die teils wirren Ergebnisse beschwert. Stattdessen direkt darüber nachgedacht, wie man die Ergebnisse kreativ für unsere Kunden nutzen konnte.

Spielt AI auch in deiner Arbeit als Creative Director eine Rolle? Wie fließt das in deinen kreativen Prozess ein?

Ja. AI steckt in vielen Prozessen. Aber besonders bei kreativen Herausforderungen lege ich mehr Wert auf frische Luft und mein Notizbuch. AI kommt für mich erst ins Spiel, wenn ich meine Gedanken sortieren und meine Notizen sauber formulieren will. Für Moodboards und Lookentwicklung greife ich auch nicht direkt auf AI zurück, sondern klassisch auf Filme, Bücher oder Inspiration aus dem echten Leben. AI kann mir dann helfen, meine Inspiration zu erweitern oder konkreter für das jeweilige Briefing zu interpretieren.

Was für mich ganz neu ist: Mit AI bin ich plötzlich selbst zum Film- und Fotoproduzenten geworden. Was ich zuvor nur als Mood oder Mockup umsetzen konnte, kann ich inzwischen selbst finalisieren. Eine sehr wertvolle Ergänzung zu meinem Angebot – für mich und meine Kund:innen.

Wie würdest du deine ganz persönliche Haltung zu AI beschreiben? Was bedeutet diese Technologie für dich – jenseits der Arbeit?

Trotz aller Möglichkeiten, die AI auch mir bringt, könnte man sie meinetwegen auch wieder abschalten. Besonders für künstlerische Berufe hätte es sie meiner Ansicht gar nicht so geben dürfen, wie wir sie heute kennen. Wir wissen alle, dass die besten Modelle ungefragt mit Daten anderer Artists trainiert wurden. Das ist und bleibt ein Problem. Zudem sehe ich in meinem Umfeld handwerklich talentierte und begeisterte Designer und Illustratoren, deren Leidenschaft das Handwerk ist. Weder Prompting noch reines Directing machen sie glücklich. Ich befürchte nur, dass handwerkliche Illustration, Fotografie und Gestaltung langfristig nur noch in besonderen Einzelfällen benötigt werden.

Ich persönlich nutze AI für meine Arbeit und Projekte und achte immer nach bestem Wissen und Gewissen darauf, dass ich keine Persönlichkeitsrechte oder andere Rechte verletze und dass mein Output immer eine gewisse Relevanz hat.

Was AI z.B. Gutes für die Forschung tun kann, weiß ich nicht. Da stecke ich nicht tief genug drin. Auch nicht, wie gefährlich AI wirklich sein kann. Die Technologie macht so vieles einfacher, schneller und überhaupt möglich. Aber eben auch so vieles ungewiss, kaputt – und ist in den falschen Händen sogar sehr gefährlich. Leider sind derzeit sehr viele von diesen falschen Händen an der Macht.

Du bewegst dich zwischen eigenen Projekten und Kundenaufträgen. Wo liegen die größten Unterschiede – und wo überraschenderweise die Gemeinsamkeiten?

Es macht schon einen deutlichen Unterschied, ob man für sich allein entscheidet, was gut ist, oder viele andere das für einen tun und man sie erst überzeugen muss. Aber das ist in meinem Beruf ja immer so. Da ich bei Briefings gut aufpasse, entwickle ich die Arbeiten natürlich eh schon so, dass sie den Anforderungen der Marke gerecht werden und meine Handschrift tragen.

Gemeinsamkeiten gibt es generell in den Workflows. Meist teste ich zunächst nur für mich und nutze die neuen Workflows oder Tools dann auch bei Auftragsarbeiten. Zudem haben beide meinen hohen Qualitätsanspruch gemeinsam.

Was nimmst du von HAICA mit? Gibt es einen Gedanken oder eine Begegnung, die dich besonders beschäftigt?

Meine AI-Film-Community ist auf der ganzen Welt verteilt und das hauptsächlich online. Bei HAICA freut mich, dass eine lokale Community aufgebaut wird, zu der man eigentlich immer real life Zugriff hat.

Woran arbeitest du gerade? Was treibt dich bei deinem aktuellen Projekt an?

Derzeit arbeite ich an einer Vertical-Drama-Serie für eine große europäische Einzelhandelskette. Details kann ich nicht nennen, aber mich treibt besonders an, etwas zu schaffen, das die User sich gerne und freiwillig anschauen. Ich will die Chance nutzen, Content für Marken zu schaffen, der für die jeweiligen Zielgruppen wirklich relevant und unterhaltsam ist.

Parallel bin ich in den letzten Zügen für die neue BIDETLITY-Kampagne. Es wird einen 40 Sekunden langen Hauptfilm geben und diverse kürzere Social Assets. Das Projekt habe ich gemeinsam mit Marco Obermann und LE BERG Creative Studio konzipiert und schließlich Full-AI produziert.



Source link

Weiterlesen

UX/UI & Webdesign

Studierende der Burg machen zur Wahl in Sachsen-Anhalt mobil! › PAGE online


Der Ausgang der Landtagswahl in Sachsen-Anhalt, wo die AfD zurzeit als Favorit gilt, macht vielen Angst. Kulturinstitutionen, Theater und das Bauhaus warnen – und jetzt sind auch die Studierenden der Burg Giebichenstein mit Briefwahlplakaten in Aktion getreten.

Studierende der Burg machen zur Wahl in Sachsen-Anhalt mobil! › PAGE online

Am 6. September 2026 wird in Sachsen-Anhalt ein neuer Landtag gewählt. In aktuellen Umfragen liegt die AfD dabei mit einigem Abstand vor den anderen Parteien.

Da der Wahltermin in die Semesterferien fällt, haben Studierende der Burg Giebichenstein Kunsthochschule Halle eine Kampagne gestaltet, die sich hochschulübergreifend an alle Studierenden des Bundeslandes wendet.

Und das mit zwei Plakaten, die im Master-Studiengang Visual Strategies and Stories entstanden – und das von Friederike Brings, Sven Burow, Godje Loof und Charlotte Riemann, die Studierende des Schwerpunkts Informationsdesign sind.

Zentral war, dass es eine Kampagne von Studierenden für Studierende ist.

Sie ist auf Augenhöhe und bewusst casual gehalten: mit handgezeichneten Kreide-Illustrationen, die mit einer Palme vom Wählen erzählen, wenn man in den Semesterferien verreist ist, und auf dem anderen davon, wie man ganz einfach online die Briefwahl beantragen kann. Und das eben ohne Hose, also ohne aus dem Haus zu gehen oder so wie man sonst manchmal vielleicht bei digitalen Konferenzen oder Meetings vor dem Rechner sitzt.

Die Farben bewegen sich außerhalb des Parteienspektrums, der Ton ist locker, will nicht belehren, sondern dazu ermutigen, sein Wahlrecht wahrzunehmen – und dabei vor allem auch, wie es von der Burg heißt, auf »klassische Wahlaufruf-Floskeln« zu verzichten.

Die Demokratie stützen

Und natürlich dürfen sich nicht nur die 55.000 Studierenden in Sachsen-Anhalt, sondern alle Wahlberechtigten von der Kampagne angesprochen fühlen und rechtzeitig ihre Stimmabgabe für den 6. September planen.

Eine hohe Wahlbeteiligung stützt die Demokratie und verhindert, dass man durch seine Nichtwahl die stärkste Partei mit seiner nicht abgegebenen Stimme prozentual unterstützt.

Die Kampagne nutzt das Demokratie-Tool wahlbrief.de von FragDenStaat, der Transparenzplattform, die es jedem ermöglicht, unkompliziert Fragen an die deutsche Verwaltung zu stellen.

Unterstützt wird die Initiative der Burg-Studierenden durch die Landesrektorenkonferenz und von Hochschulen und Studierendenvertretungen in ganz Sachsen-Anhalt getragen.

Ab jetzt wird die Kampagne landesweit über digitale Kanäle sowie Printmedien an Hochschulen und Universitäten in Sachsen-Anhalt verbreitet.

Schön wäre natürlich auch, wenn sie zusätzlich plakatiert werden könnte, da die Straße bis heute aus der demokratischste Zugang zu Informationen ist – umsonst und draußen für alle.

 

Das könnte dich auch interessieren



Source link

Weiterlesen

Beliebt