Connect with us

UX/UI & Webdesign

Adobe Photoshop Update: Neue Firefly-Features für generative Bildbearbeitung im Test › PAGE online


Adobe erweitert Photoshop erneut um KI-gestützte Funktionen. Im Fokus stehen diesmal präzisere Bildbearbeitung, realistischere generative Ergebnisse und neue Möglichkeiten für typografische Gestaltung.

Adobe Photoshop Update: Neue Firefly-Features für generative Bildbearbeitung im Test › PAGE online

Adobe Photoshop & Adobe Firefly: Wie KI die Bildbearbeitung verändert

Photoshop gehört seit Jahrzehnten zu den zentralen Werkzeugen für Bildbearbeitung und Compositing. Mit der Integration von Adobe Firefly hat sich das Programm in den letzten Jahren allerdings deutlich verändert, denn KI-gestützte Funktionen übernehmen zunehmend Aufgaben, die früher zeitaufwendig manuell erledigt werden mussten.

Dazu gehören etwa generative Bildbearbeitung, automatisches Entfernen von Objekten oder das Erweitern von Bildern per Prompt. Firefly bildet dabei die technische Grundlage für viele dieser Funktionen und ist inzwischen tief in Photoshop integriert. Die neuesten Updates setzen genau an diesem Punkt an: Sie sollen repetitive Arbeitsschritte reduzieren und gleichzeitig mehr Kontrolle über generative Ergebnisse ermöglichen.

Ein Aspekt, der Adobe Firefly besonders macht, ist die sichere, kommerzielle Nutzbarkeit der mit Firefly generierten Inhalte. Adobe verwendet für das Training des Firefly-Modells ausschließlich lizenzierten Content, etwa von Adobe Stock, sowie gemeinfreie Inhalte, für die kein Urheberrechtsschutz mehr besteht. Damit positioniert sich Adobe bewusst in einer Debatte, die die KI-Entwicklung aktuell stark prägt: die Frage, wie sich neue Technologien mit den Rechten und Interessen von Kreativen vereinbaren lassen.

Wichtig ist dabei, dass diese Form der kommerziellen Absicherung nur für Inhalte gilt, die direkt mit Adobe Firefly erstellt werden. Nutzer:innen haben zwar die Möglichkeit, auch andere KI-Modelle in ihre Workflows zu integrieren, bewegen sich dann jedoch außerhalb dieses von Adobe definierten Rahmens. Entsprechend liegt die Verantwortung für die rechtliche Einordnung und Nutzung der dort generierten Inhalte stärker bei den Anwender:innen selbst.

Bildkorrekturen mit KI

Eine der auffälligsten Neuerungen betrifft die klassischen Bildkorrekturen. Photoshop erweitert seine Adjustment Layers um drei Funktionen, die bisher eher aus RAW-Bearbeitungstools bekannt waren: Klarheit, Dunst entfernen und Körnung. Der entscheidende Unterschied ist, dass alle drei vollständig nicht-destruktiv arbeiten und sich wie andere Einstellungsebenen maskieren, überblenden und kombinieren lassen. So können Kreative direkt im Dokument Struktur, Kontrast oder Atmosphäre verändern, ohne die ursprüngliche Bilddatei zu überschreiben.

Klarheit verstärkt die Struktur und den lokalen Kontrast eines Motivs und hebt Details stärker hervor. Mit Dunst entfernen lassen sich atmosphärische Schleier oder flache Kontraste ausgleichen, wodurch Bilder oft deutlich mehr Tiefe erhalten. Die Körnung wiederum fügt kontrollierte Textur hinzu und kann Fotos einen analogen Look oder mehr Charakter verleihen – ideal, wenn ein bewusstes Film- oder Korn-Feeling erzeugt werden soll. Diese Layer sparen im Workflow Zeit, weil Anpassungen direkt im Dokument vorgenommen werden können, ohne dass externe Filter oder zusätzliche Tools nötig sind.

Screenshot von Adobe Photoshop: In der Arbeitsfläche ist ein Panorama mit Berglandschaft im Morgenlicht geöffnet, während rechts Farb- und Korrektur-Panels sowie links die Werkzeugleiste sichtbar sind.
Über das Layers-Panel lässt sich eine neue Einstellungsebene erstellen, in der die Optionen Klarheit, Dunst entfernen und Körnung verfügbar sind.

Screenshot von Adobe Photoshop: Bearbeitung einer stimmungsvollen Berglandschaft bei Sonnenaufgang; rechts sind Einstellungen für Klarheit und Dunstentfernung sichtbar sowie Ebenen für Bildanpassungen.

Die Funktionen Klarheit und Dunst entfernen haben im Test besonders gut funktioniert. Sie holten deutlich mehr Tiefe und Kontrast aus dem Bild heraus und bewirken eine spürbare Verbesserung bei Gegenlicht und nebligen Situationen.

Die Körnung haben wir an einem Porträt getestet. Dabei fiel auf, dass die Wirkung subtiler ist und sich weniger für jedes Bild eignet, sie kann schnell den Eindruck einer leichten Unschärfe erzeugen. Normalerweise wird sie eingesetzt, um Fotos eine analoge Textur oder künstlerische Körnung zu verleihen, etwa für Editorial-Design oder Retro-Optik.

Screenshot von Adobe Photoshop: Schwarzweiß-Porträt einer lächelnden Frau mit Brille; rechts sind Einstellungen für Körnung sichtbar sowie Ebenen für Schwarzweiß- und Rausch-Effekte.
Mit einer stärkeren Körnung kann man einem modernen Porträtfoto schnell eine Retro-Optik verleihen.

Die Bedienung ist sehr intuitiv. Über das Layers-Panel lässt sich der Schieberegler direkt anwenden und in Echtzeit beobachten, wie das Bild sich verändert. Besonders bei Landschaftsaufnahmen mit Nebel oder Gegenlicht liefert die Kombination aus Klarheit und Dunst entfernen einen starken, sofort sichtbaren Effekt. Die Einstellungsebenen lassen sich jederzeit wieder anpassen oder maskieren, sodass der Workflow flexibel bleibt.

Präzisere generative Werkzeuge

Auch die generativen Werkzeuge in Photoshop wurden überarbeitet. Generatives Füllen, generatives Erweitern und das Remove Tool liefern nun Ergebnisse in höherer Qualität und mit einer Auflösung von bis zu 2K. Adobe verspricht außerdem schärfere Details, weniger Artefakte und natürlichere Übergänge zwischen generierten und bestehenden Bildbereichen. Besonders beim Compositing oder bei Retuschen soll dies ein realistischeres Gesamtbild erzeugen, bei dem generierte Elemente weniger auffallen.

Gerade beim Erweitern von Bildrändern oder beim Entfernen von Objekten sind diese Verbesserungen entscheidend, da hier oft sichtbare Übergänge auftreten.

Screenshot von Adobe Photoshop: Vorher-nachher-Darstellung eines Porträts, bei dem ein freigestelltes Bild einer Frau durch „Generative Fill/Expand“ in einen erweiterten Innenraum-Hintergrund eingebettet wird.

Beim Erweitern eines Bildes haben wir statt eines konkreten Prompts die Funktion »Fill and Expand« genutzt und ein bestehendes Foto mit Bürohintergrund automatisch vergrößern lassen. Dabei zeigt sich, dass das Tool besonders in solchen Szenarien überzeugend arbeitet: Perspektive, Tiefenschärfe und Proportionen werden konsistent weitergeführt, sodass die Erweiterung visuell stimmig und überraschend realistisch wirkt.

Das Entfernen-Werkzeug funktionierte auch sehr gut: Auf einem Tischfoto wurde eine Pflanze entfernt, und Photoshop fügte automatisch eine passende Schale ein. Farben und Lichtstimmung passen sich nahtlos an, sodass das Ergebnis sehr natürlich wirkt.

Screenshot einer Bildbearbeitungsoberfläche: Vorher-nachher-Darstellung eines Wohnzimmers, bei dem ein markiertes Objekt auf dem Tisch mithilfe einer generativen Entfernen-Funktion aus dem Bild entfernt wird.

Beim generativen Erweitern eines Porträtfotos probierten wir, den Körper nach unten zu verlängern. Das Tool erzeugte zwar einen proportional etwas verzerrten Körper, die Person wirkte deutlich größer, dennoch waren die Übergänge flüssig, und die Erweiterung wirkte insgesamt stimmig. Bei Landschafts- oder Raumfotos funktionierte das Erweitern besonders gut und lieferte überzeugende Resultate.

Screenshot einer Bildbearbeitungsoberfläche: Vorher-nachher-Darstellung eines Porträts, bei dem ein freigestelltes Bild durch „Generative Fill/Expand“ zu einer vollständigen Ganzkörperaufnahme erweitert wird.

Das Entfernen von Objekten und das Erweitern von Bildern funktionieren in der Praxis zuverlässig, während das Füllen komplexerer Szenen noch limitiert ist, vor allem wenn Hintergrundinformationen fehlen. Firefly übernimmt die vorhandene Lichtstimmung sehr gut, und generierte Elemente lassen sich in den meisten Fällen harmonisch ins Bild einfügen.

Mehr Kontrolle beim Generativen Füllen

Eine weitere Verbesserung betrifft die Funktion Referenzbild beim generativen Füllen. Mit ihr können Nutzer:innen ein Bild als Referenz für Stil oder Objekt verwenden und dieses gezielt in eine neue Szene integrieren. Adobe hebt besonders hervor, dass Photoshop das Aussehen des Referenzobjekts beibehält. Das System analysiert dabei verschiedene Eigenschaften des Referenzbildes und versucht, diese konsistent in die neue Komposition zu übertragen. Dazu gehören unter anderem Perspektive, Skalierung, Beleuchtung, Farbgebung und die räumliche Ausrichtung innerhalb der Szene.

Vorher-nachher-Darstellung einer Bildbearbeitung: In einem Wohnzimmer wird ein markiertes Objekt auf dem Tisch per generativer KI durch ein anderes Objekt (Kaugummiautomat) ersetzt.

Für einen weiteren Test haben wir ein Esszimmer-Foto genutzt, auf dessen Tisch ursprünglich eine Pflanze stand, und diese durch ein anderes Objekt ersetzt. Dafür haben wir die Pflanze markiert, ein Referenzbild einer kleinen Vintage-Kaugummimaschine hochgeladen und die generative Füllfunktion verwendet. Mit einem entsprechend präzisierten Prompt, der den gewünschten fotorealistischen Stil definiert, wird das Referenzobjekt überzeugend in die Szene integriert. Die Kaugummimaschine orientiert sich klar an Form und Farbgebung des Referenzbildes und fügt sich insgesamt stimmig und realistisch in die Umgebung ein, auch wenn sie leicht variiert.

Der Test zeigt vor allem, wie entscheidend die Prompt-Gestaltung für das Ergebnis ist: Wird der gewünschte Stil klar benannt, lassen sich deutlich konsistentere Resultate erzielen. Adobe stellt dazu auch eigene Guidelines und Hilfestellungen bereit, die bei der Formulierung präziser Prompts unterstützen und besonders bei komplexeren Bildbearbeitungen hilfreich sein können.

Hier geht’s zu den Adobe Prompt Guidelines und Hilfestellungen

Im zweiten Versuch nutzten wir ein Straßenbild aus Italien, den Prompt »A bright yellow vintage Vespa scooter parked on a street« und luden als Referenz eine gelbe Vespa mit weißem Hintergrund hoch. Dabei zeigte sich etwas Interessantes und zwar wurden grundlegende visuelle Eigenschaften wie Farbe und Form teilweise übernommen, das Ergebnis wirkte jedoch bewusst verändert und entfernte sich deutlich vom Original-Design.

Auch nach mehreren Durchläufen ließ sich kein überzeugend realistisch wirkender Motorroller erzeugen. Stattdessen entstanden wiederholt uneindeutige, teils verzerrte Formen, die weder klar als Vespa noch als klassischer Roller oder Motorrad erkennbar waren, sondern eher wie eine schwer einzuordnende Mischung aus verschiedenen Fahrzeugtypen wirkten.

Das ist kein Zufall, sondern vielmehr eine bewusste Entscheidung im Modell-Design. Firefly ist darauf ausgelegt, keine markengeschützten Produkte oder eindeutig identifizierbaren Designs zu reproduzieren.

Vorher-nachher-Darstellung einer Bildbearbeitung: Eine mediterrane Straßenszene wird per generativer KI ergänzt, indem ein kleines gelbes Fahrzeug am Straßenrand hinzugefügt wird.
Die Funktion hält, was sie verspricht, insofern, dass sie die Hauptattribute eines Objekts erkennt und überträgt.

Im Vergleich zu anderen generativen KI-Modellen, die solche Schutzmechanismen oft gar nicht oder nur eingeschränkt berücksichtigen, wird deutlich, wie stark Adobe auf rechtliche Sicherheit und den Schutz von geistigem Eigentum setzt. Für Nutzer:innen bedeutet das: Wer mit konkreten Marken oder geschützten Designs arbeitet, muss damit rechnen, dass diese bewusst abstrakter dargestellt werden. Gleichzeitig schafft genau dieser Ansatz eine Grundlage für kommerziell nutzbare Inhalte, bei denen rechtliche Risiken reduziert werden.

Dynamic Text in Photoshop Beta

Neben Bildbearbeitung und KI-Features bekommt auch die Typografie ein kleines Update. Mit Dynamic Text lassen sich Textebenen mit wenigen Klicks entlang von Formen anordnen, etwa kreisförmig, gebogen oder gewölbt. Photoshop passt dabei automatisch Größe und Position des Textes an den gewählten Pfad an. Damit entfällt ein Teil der manuellen Arbeit mit klassischen Text-on-Path-Werkzeugen, bei denen der Text zunächst an einem Pfad ausgerichtet und anschließend oft noch manuell angepasst werden muss.

Wichtig: Die Funktion ist derzeit nur in Photoshop Beta verfügbar. Um sie zu nutzen, muss die Beta-Version zunächst über die Creative-Cloud-App installiert werden. Gerade für Logos, Verpackungsdesign oder Poster kann Dynamic Text Zeit sparen, weil sich typografische Experimente schneller umsetzen lassen.

Dreiteilige Darstellung einer Designbearbeitung: Eine Monstera-Pflanze wird mit unterschiedlichen Typografie-Layouts kombiniert – von überlagertem Text über kreisförmige Schrift bis hin zu angepasstem Textfluss entlang der Blätter.
Für unseren Test haben wir ein Foto einer Monstera-Pflanze verwendet und den Schriftzug „Cool Monstera Plant“ darüber gelegt.

Zunächst erscheint der Text ganz normal als klassischer Textblock. Über die Dynamic-Text-Option lässt sich dieser anschließend mit wenigen Klicks in verschiedene Formen umwandeln.

Im Test haben wir mehrere Varianten ausprobiert: einen kreisförmigen Text, eine nach oben gewölbte Version sowie eine Variante mit nach unten gebogenem Schriftzug. Auffällig ist dabei, dass Photoshop die Textgröße automatisch an die jeweilige Form anpasst, sodass der Schriftzug sauber entlang des Pfades verläuft.

Die Bedienung wirkt im Test überraschend unkompliziert. Nachdem der Text gesetzt ist, lässt sich die Form direkt auswählen und anschließend über Ankerpunkte weiter anpassen. Diese können verschoben werden, sodass sich der Verlauf des Textes flexibel verändern lässt. Auch Größe und Position des Schriftzugs lassen sich weiterhin wie gewohnt anpassen. Insgesamt wirkt die Funktion sehr intuitiv und lässt sich ohne große Umwege in bestehende Layouts integrieren.

Dynamic Text eignet sich vor allem für Layouts, bei denen Schrift eine stärkere grafische Rolle spielt. Denkbar sind etwa kreisförmige Logos, Schriftzüge auf Verpackungen, Poster Designs oder Social-Media-Visuals, bei denen Text um ein Motiv herum angeordnet wird. Gerade bei Produktfotos oder Branding-Elementen kann es hilfreich sein, wenn sich Typografie schnell an Formen oder Bildmotive anpassen lässt, ohne dass dafür aufwändig mit Pfaden gearbeitet werden muss.

Lohnt sich das neue Photoshop-Update?

Viele der neuen Features wirken auf den ersten Blick subtil, aber zeigen in der Praxis eine spürbare Wirkung. Nicht-destruktive Bearbeitung wird weiter ausgebaut, während KI-gestützte Funktionen direkt in den Workflow integriert werden. Besonders die verbesserten generativen Werkzeuge (Füllen, Erweitern und Entfernen) liefern nun realistischere Ergebnisse und erleichtern Retusche und Compositing erheblich.

Mit den neuen Einstellungsebenen für Klarheit, Dunst entfernen und Körnung können Bildkorrekturen direkt im Dokument durchgeführt werden, ohne die Originaldatei zu verändern. In Kombination mit Dynamic Text lassen sich sowohl Bilder als auch Typografie flexibler und kreativer gestalten.

Unser erster Eindruck nach den Tests:

Nach den ersten Anwendungen wird deutlich, wie stark KI-gestützte Funktionen den Workflow in Photoshop verändern. Viele Prozesse wirken flüssiger, Übergänge realistischer und Anpassungen lassen sich dank non-destruktiver Ebenen deutlich präziser steuern. Gerade Funktionen wie generatives Füllen oder Dynamic Text eröffnen neue kreative Möglichkeiten und beschleunigen klassische Arbeitsschritte spürbar.

Gleichzeitig zeigt sich, dass das Zusammenspiel aus Prompt, Referenzbild und Anwendungsszenario entscheidend für das Ergebnis ist. Je klarer Stil, Kontext und gewünschte Wirkung definiert werden, desto konsistenter und überzeugender fallen die Resultate aus.

Für komplexere Aufgaben kann es sich daher lohnen, schrittweise zu arbeiten, Ergebnisse zu iterieren oder gezielt mit Referenzen und präziseren Prompts zu experimentieren. Auch ein Blick in die von Adobe bereitgestellten Prompt-Guides und Best Practices kann helfen, das volle Potenzial der Tools auszuschöpfen und Ergebnisse gezielt zu steuern. Die kommerzielle Nutzbarkeit der mit Firefly generierten Inhalte ist dabei definitiv eine Besonderheit und ein klarer Vorteil gegenüber anderen Bildgenerierungstools.



Source link

UX/UI & Webdesign

»Der Designprozess ist nicht tot – aber die Ausreden sterben« › PAGE online


Mark Meyer, Vertretungsprofessor für AI + Design an der HfG Schwäbisch Gmünd, über die Frage, die gerade alle beschäftigt: Jenny Wen von Anthropic hat den Designprozess für tot erklärt. Die Wahrheit ist differenzierter – und die Chance größer, als die meisten denken.

»Der Designprozess ist nicht tot – aber die Ausreden sterben« › PAGE onlineBild: Mark MeyerJenny Wen, Head of Design für Claude bei Anthropic, hat Anfang März bei Lenny’s Podcast den Designprozess für tot erklärt. Double Diamond, Divergenz, Konvergenz – alles Geschichte. Wen beschreibt eine konkrete Verschiebung in ihrer eigenen Arbeit: Früher gingen 60–70 Prozent ihrer Zeit in Mockups und Prototypen, heute sind es 30–40 Prozent – der Rest fließt in direkte Zusammenarbeit mit Engineers und in die Implementierung selbst. Der Grund: Wenn Engineers mit mehreren AI-Coding-Agents gleichzeitig arbeiten und funktionierende Features in Stunden liefern, wird der klassische Designprozess, von wochenlanger Discovery und dann Handoff zu Engineers, zum Flaschenhals. Sie trifft damit einen wichtigen Punkt: Es ist tatsächlich Zeit aufzuwachen, nicht aber unbedingt, um Panik zu machen.

Die unbequeme Wahrheit: Design hatte schon vor Generative AI ein Problem

Wer die letzten paar Jahre nicht verschlafen hat, weiß, dass die Design Disziplin in einer Krise steckt. Google hat 2025 über 100 Designer:innen entlassen, und auch IDEO musste große Einbußen in Kauf nehmen.

Es wäre einfach, das alles jetzt auf neue AI-Tools zu schieben, allerdings liegt die Wahrheit woanders: Die bisherigen Bemühungen Design als strategische Kompetenz zu positionieren sind gescheitert. Kaum etwas ist von dem Design-Thinking Hype vor einigen Jahren noch zu spüren. Zu sehr wurde sich auf der »Craft«, also den handwerklichen Aspekten von Design, ausgeruht. Zu sehr nahmen wir als Designer:innen unseren Wert als selbstverständlich wahr. Design hat es sich zu lange bequem gemacht in der Überzeugung, dass gute Arbeit für sich spricht. Sie tut es nicht – jedenfalls nicht in Organisationen, in denen Budgets und Roadmaps von Menschen entschieden werden, die andere Sprachen sprechen. Wer jetzt jammert, AI würde Designer:innen überflüssig machen, sollte sich ehrlich fragen: Haben wir jemals überzeugend erklärt, warum wir nicht überflüssig sind? Die Antwort ist nicht mehr Design-Rhetorik. Sie ist Interdisziplinarität – raus aus der eigenen Blase, rein in die Sprache von Engineering, Product, Business und Daten. Genau hierbei können AI-Tools helfen: uns von der »Craft« zu lösen und die strategischen Kompetenzen des Designs endlich zu etablieren. Um das zu erreichen, lohnt sich ein genauerer Blick in das, was sich gerade rapide ändert: die Tool Landschaft.

Was sich ändert: Weg von Mockups, hin zum Produkt

Die vielversprechendsten AI-Tools aktuell sind Produktions-Tools, also Tools, die es ermöglichen, schnell UIs nicht nur zu entwerfen, sondern tatsächlich zu bauen. Machen diese Tools das schon genauso gut wie erfahrene Designer:innen? Sicherlich nicht. Teilweise werden noch grobe gestalterische Fehler gemacht, und Accessibility ist in der Regel auch noch ein Fremdwort. Allerdings wäre es leichtsinnig, sich auf diesen paar Prozentpunkten, die wir noch besser sind, auszuruhen. Es ist nur eine Frage der Zeit bis diese paar Prozentpunkte verschwinden, und Generative AI Tools genauso gute Ergebnisse liefern wie erfahrene Designer:innen.

Statt also den durchgemachten Nächten Pixel-Schubserei nachzutrauern sollten wir uns freuen: Generative AI Tools stellen es uns in Aussicht, näher als je zuvor am realen Produkt zu sein! Noch nie war ein Mockup gleichzusetzen mit dem realen Produkt, und jetzt können wir, einfacher als je zuvor, ein Teil davon sein. Wir müssen nicht mehr große Handoff-Prozesse vorbereiten und darauf hoffen, dass möglichst viel unserer wunderschönen Mockups auch tatsächlich ihren Weg ins Produkt finden – wir können selbst mitmischen.

Was wir uns allerdings genau überlegen sollten ist, was uns überhaupt berechtigt mitzumischen. Welche Kompetenzen bringen wir als Designer:innen – also abseits unserer »Craft« – mit? »Kreativität« oder »Empathie« können es nicht sein – das sind keine Kompetenzen, die ausschließlich Designer:innen mitbringen. Engineers können genauso kreative Lösungen entwickeln, und emphatisch kann sowieso jeder Mensch kann sein. Die realen Kompetenzen des Designs liegen woanders: in der Fähigkeit, Aufgabenstellungen selbst in Frage zu stellen, bevor man Lösungen baut – also korrektes Problem Framing statt vorschnellem Lösungsmodus. Sie liegen in der Synthese widersprüchlicher Inputs, um Nutzer-Feedback, technische Einschränkungen und Business-Ziele zu einer kohärenten Richtung verdichten. Und die Kompetenzen liegen letztlich auch darin, die Endnutzer-Perspektive in Räumen zu vertreten, in denen alle anderen auf Metriken, Timelines oder technische Eleganz optimieren. Keine dieser Kompetenzen steht in einer Figma-Datei. Aber jede davon entscheidet darüber, ob das Richtige gebaut wird – oder nur irgendetwas, aber schnell.

Wo anfangen?

Wenn die eigentliche Designkompetenz nicht in der Figma-Datei steckt, dann ist der erste Schritt auch kein Tool-Wechsel, sondern eine ehrliche Bestandsaufnahme: Wie viel meiner Zeit fließt aktuell in Problem Framing, in Synthese, in die Vertretung der Nutzer-Perspektive? Und wie viel in Pixel-Produktion, die ein AI-Tool in Minuten erledigen könnte? Wer diese Frage beantwortet hat, weiß auch, wo AI-Tools ansetzen sollten: nicht als Ersatz für die eigene Urteilskraft, sondern als Mittel, um schneller dort anzukommen, wo die eigentliche Designarbeit beginnt.

Anfangen kann man dann mit Figmas oder Adobes eigenen AI-Features. Gleichzeitig kann man Prototyping-Tools wie Lovable oder v0 ausprobieren und in den Workflow integrieren. Perspektivisch kann man die Brücke zu Coding-Tools über Figmas MCP-Server schlagen. All das sind Wege, die Produktionsschicht zu komprimieren. Nicht um weniger zu arbeiten, sondern um mehr Zeit für die Arbeit zu haben, die das Profil von uns Designer:innen wirklich ausmacht.

Der Designprozess lebt – er entwickelt sich lediglich weiter

Jenny Wen hat also recht: Etwas Grundlegendes verschiebt sich. Und ihr Impuls – raus aus dem Elfenbeinturm, rein in die Zusammenarbeit mit Engineering, Product und Business – ist genau richtig. Aber der Designprozess ist nicht tot. Was stirbt, ist die Möglichkeit, sich hinter dem Prozess zu verstecken. Wer wochenlang in Discovery-Phasen verschwindet, ohne klare Entscheidungen zu treffen, für diejenigen wird es eng. Und wer Pixel-Perfektion als Wertbeitrag verkauft wird ebenfalls keinen Erfolg mehr verzeichnen können.

Für alle anderen ist das hier eine Chance, den eigenen Wertbeitrag klarer zu definieren. Nicht als isolierte:r Designer:in mit den perfekten Mockups. Sondern als integraler Bestandteil des Teams, das entscheidet, was gebaut werden soll und warum.

HfG Schwäbisch Gmünd

Die Hochschule für Gestaltung in Schwäbisch Gmünd bildet Designer:innen in drei Bachelorstudiengängen aus, die das Spektrum vom Physischen bis zum Digitalen abdecken: Produktgestaltung, Kommunikationsgestaltung und Interaktionsgestaltung. Der Master Strategische Gestaltung richtet den Blick auf Designmanagement und Forschung. Was die Programme verbindet: ein starkes Fundament in gestalterischen Grundlagen, geprägt durch die Tradition der HfG Ulm und des Bauhauses. Mit dem AI+D Lab baut die Hochschule eine programübergreifende Praxis an der Schnittstelle von KI und Design auf — nicht als Werkzeugkurs, sondern als kritische Auseinandersetzung mit der Frage, welche Rolle Gestaltung in der Entwicklung von KI-Systemen spielt.

Quellen



Source link

Weiterlesen

UX/UI & Webdesign

Wie viel Einfluss bleibt uns als Menschen in der Arbeit mit KI? › PAGE online


KI generiert auf Knopfdruck Bilder und Ideen. Doch wer entscheidet, was noch als kreativ gilt? Ein Blick darauf, wer wirklich der »Creative Agent« hinter dem Output ist und wie sich das gerade schlagartig verändert.

Wie viel Einfluss bleibt uns als Menschen in der Arbeit mit KI? › PAGE online

Welche Rolle spielen wir als Menschen eigentlich noch, wenn es um KI-Tools oder insbesondere um Bildgenerierung geht? Spiegelt der Output wirklich unsere kreativen Ideen und menschliche Kreativität wider, oder ist er mittlerweile so stark automatisiert, dass wir gar keinen Einfluss mehr auf das haben, was am Ende entsteht? 

Noch vor ein paar Jahren war es sehr deutlich, dass wir Menschen im Punkt der Kreativität immer den Einfluss und die Handlungsfähigkeit behalten werden und KI lediglich die ausführende Instanz ist. Wenn wir uns jedoch die aktuellen Entwicklungen und vor allem die Geschwindigkeit und Qualität von KI-Tools anschauen, stellt sich die Frage, wie groß unser Einfluss noch ist. Denn unsere aktuellen Tools liefern keine groben Entwürfe, sondern vermeintlich perfekte Lösungen. 

Wer genauer hinschaut – und vor allem in die Forschung blickt –, erkennt, dass es dabei nicht nur um technische Innovation geht, sondern um eine Verschiebung dessen, was wir unter »Creative Agency« verstehen. Der englische Begriff meint die Fähigkeit, kreativ zu handeln. Ideen zu entwickeln, Entscheidungen zu treffen und Bilder zu kreieren. Wenn wir ihn ins Deutsche übersetzen, sprechen wir häufig von »kreativer Handlungsfähigkeit«. Und genau diese Fähigkeit wird durch KI-Systeme nicht ersetzt, sondern neu verteilt und neu gedacht.

Was akademische Forschung unter Kreativität in KI-Systemen versteht

In der akademischen Literatur ist die Position klarer, als man es angesichts der öffentlichen Debatten vermuten würde: KI-Systeme haben keine eigene Intention, keine ästhetische Subjektivität. Sie produzieren Bilder, indem sie Wahrscheinlichkeiten berechnen und visuelle Muster aus gigantischen Trainingsdatensätzen zusammenbringen. KI generiert also keine neuen Bilder oder Ideen, sondern synthetisiert das, was bereits vorhanden ist.

Der Medienwissenschaftler Matteo Pasquinelli und der Designer Vladan Joler formulieren es unmissverständlich: »AI does not create meaning. It recombines signals extracted from pre-existing data sets.« (Pasquinelli und Joler 2021). Und das ist entscheidend: KI kann nichts Neues hervorbringen. Sie kann nur remixen, was bereits existiert. Die Vorstellung, dass diese Systeme kreativ sein könnten, entsteht oft durch die visuelle Wirkung der Ergebnisse und nicht durch den Prozess dahinter. Und genau hier setzt die Theoretikerin und Künstlerin Hito Steyerl an, die den Begriff der »Mean Images« geprägt hat. Steyerl beschreibt diese Bilder als statistische Mittelwerte eines riesigen visuellen Archivs. Nicht das Besondere oder Neue wird generiert, sondern das, was rechnerisch am häufigsten vorkommt. Sie schreibt: »Mean images replace likeness with likeliness.« (Steyerl 2023). KI-Bilder entsprechen nicht einer tatsächlichen Referenz, einer realen Person oder Szene, sondern einem statistischen Wahrscheinlichkeitsprofil dessen, was eine Person »dieser Art« in den Trainingsdaten repräsentiert. 

KI-Bilder spiegeln keine Vielfalt in unserer Kultur wider, sondern einen Durchschnitt.

Doch diese vermeintliche Neutralität ist trügerisch. Steyerl betont, dass solche Mean Images keineswegs objektiv sind. Sie reproduzieren die dominanten visuellen Ideologien, die in den Trainingsdaten eingeschrieben sind, häufig ohne dass dies bewusst wahrgenommen wird. Dazu zählen Schönheitsideale, Körpernormen, Machtstrukturen und westlich-kommerzielle Bildwelten. Pasquinelli und Joler formulieren diese Problematik ergänzend so: »Mean images generate the illusion of neutrality, while in fact they reproduce the dominant visual ideologies embedded in the training data.« (2021). KI-Bilder spiegeln keine Vielfalt in unserer Kultur wider, sondern einen Durchschnitt. Dieser Durchschnitt ist jedoch kein globaler Querschnitt, sondern wird von westlichen und kapitalistischen Strukturen geprägt. Und genau darin liegt die Gefahr für kreative Handlungsfähigkeit: Die KI erzeugt das Erwartbare, nicht das Unvorhersehbare und verstärkt dadurch Muster, statt sie zu durchbrechen.

Wer oder was handelt eigentlich kreativ?

Statt also zu fragen, ob KI kreativ ist, lohnt sich eine andere Frage: Wie verändert KI die kreative Handlungsfähigkeit von Designer:innen? Denn beim Einsatz generativer Modelle wird deutlich, dass kreatives Handeln nicht mehr ausschließlich im Kopf oder in der Hand eines Menschen sitzt. Es verteilt sich über mehrere Ebenen: auf das Modell, die Daten, das Interface, den Prompt, die Nutzer:innen und die ökonomischen Strukturen dahinter. Diese Verschiebung wird in der Forschung häufig als »distributed agency« beschrieben. Ein KI-Modell trifft zwar keine autonomen Entscheidungen, beeinflusst die Ergebnisse aber dennoch, indem es bestimmte Bildlogiken bevorzugt und andere systematisch ausblendet. Ein Forschungsteam beschreibt diese Co-Produktion als: »Creativity becomes a relational process between human intention and machine imagination.« (Celis Bueno et al., 2024). Diese Formulierung trifft den Kern dessen, was Designer:innen aktuell erleben. Kreative Entscheidungen entstehen in einem Wechselspiel zwischen menschlicher Vision und algorithmischer Vorschläge.

Wie sich kreative Praxis durch KI konkret verändert

Dieser Wandel zeigt sich besonders deutlich im Arbeitsalltag. Die Ideenfindung wird zwar schneller, aber paradoxerweise nicht unbedingt freier. Zwar liefert KI innerhalb von Sekunden visuelle Interpretationen, diese folgen jedoch bestimmten Mustern und Richtlinien. Dadurch wird die Vorstellung davon, wie ein Entwurf aussehen könnte, eingeengt, da ständig die »wahrscheinlichste« Lösung vorgeschlagen wird. Gleichzeitig vervielfacht sich die Anzahl der Iterationen: Statt zehn Varianten entstehen hundert. Doch die Quantität täuscht über ein anderes Problem hinweg, denn die Konzepte werden dadurch nicht automatisch vielfältiger. Viele Versionen unterscheiden sich nur minimal voneinander, aber sie sind oft keine echten Alternativen. Die Verantwortung der Designer:innen verschiebt sich somit: Sie werden stärker zu Kurator:innen, Selektor:innen und Kritiker:innen. Die kreative Arbeit entsteht im Aussortieren, Kommentieren und Umformen. 

Kreative Kompetenz wird somit um eine neue Dimension ergänzt

Dabei zeigt sich, dass technisches Wissen plötzlich relevanter wird. Wer versteht, wie Modelle trainiert sind, wie Embeddings funktionieren oder wie sich Bilddaten durch Prompts beeinflussen lassen, hat eine ganz andere Kontrolle über die Ergebnisse. Kreative Kompetenz wird somit um eine neue Dimension ergänzt, die mit Software-Know-how und kritischer Modellkompetenz zu tun hat. Die Forschung macht deutlich, dass KI-Bildgeneratoren Muster reproduzieren, die ihnen kulturell und technisch vorgegeben sind. Das bedeutet, dass Kreativität heute nicht mehr nur darin besteht, Bilder zu erzeugen, sondern auch darin, bewusst mit der Unsichtbarkeit und den Lücken von Systemen umzugehen. Die eigentliche kreative Handlungsfähigkeit der Zukunft liegt vielleicht genau darin, KI nicht nur als Werkzeug zu nutzen, sondern sie aktiv zu formen, zu hinterfragen und immer wieder zu brechen. Designer:innen, die verstehen, dass KI-Bilder keine neutralen Vorschläge sind, sondern Ideologien, können die Systeme produktiv irritieren, gegen sie arbeiten, sie zweckentfremden und vor allem hinterfragen.

Letztendlich geht es weniger darum, ob KI kreativ ist, sondern vielmehr darum, wie wir mit ihr kreativ bleiben. »Creative Agency« wird damit zu einer Haltung, nicht zu einer Methode. Sie zeigt sich darin, welche Fragen wir stellen, welche Bilder wir akzeptieren und welche wir verwerfen sowie darin, wie bewusst wir die Systeme nutzen, die uns umgeben. Die zentrale Erkenntnis aus der Forschung ist, dass nicht die KI über die Zukunft der Kreativität entscheidet, sondern unsere Fähigkeit, sie zu verstehen. Und unsere Bereitschaft, gerade dort abzuweichen, wo ihre Bilder zu glatt, zu perfekt oder zu generisch erscheinen.

Akademische Quellen:

Bueno, Claudio Celis, Pei-Sze Chow, and Ada Popowicz. 2024. “Not ‘What’, But ‘Where Is Creativity?’: Towards a Relational-materialist Approach to Generative AI.” AI & Society, March. https://doi.org/10.1007/s00146-024-01921-3

Pasquinelli, Matteo, and Vladan Joler. 2021. “The Nooscope Manifested: AI as Instrument of Knowledge Extractivism.” AI & Society 36 (4): 1263–80. https://doi.org/10.1007/s00146-020-01097-6

Steyerl, Hito. 2023. “M E a N I M a G E S.” New Left Review. https://newleftreview.org/issues/ii140/articles/hito-steyerl-mean-images.pdf

 



Source link

Weiterlesen

UX/UI & Webdesign

Der Countdown läuft: Ab dem 2. August 2026 kommt die KI-Kennzeichnungspflicht › PAGE online


Britta Klingberg, Fachanwältin für Gewerblichen Rechtsschutz und Expertin für IT- und KI-Recht, gibt einen Überblick, welcher KI-Content in Zukunft wie gekennzeichnet werden muss und stellt die Leitlinien vor, die der Code of Practice des EU-KI Büros jetzt bereits für die Praxis bietet.

Der Countdown läuft: Ab dem 2. August 2026 kommt die KI-Kennzeichnungspflicht › PAGE onlineBild: Code of Practice on Transparency of AI-Generated Content, Europäische KI-Büro (das KI-Kompetenzzentrum der EU-Kommission) Der Countdown läuft: Ab dem 2. August 2026 legt Art. 50 Abs. 4 KI-VO allen Betreibern (= Nutzern!) von KI verbindlich die Pflicht auf, KI-generierten Content als solchen zu kennzeichnen. Das gilt verbindlich in der gesamten EU. Damit Verstöße nicht teuer werden, ist jetzt die Zeit für Unternehmen, Agenturen und Kreative, genau hinzuschauen und eine rechtssichere Kennzeichnungspraxis aufzustellen. Das EU-KI Büro entwickelt aktuell einen Code of Practice, der hierzu wichtige Leitlinien bietet.

Wer muss KI-generierten Content nach Art. 50 Abs. 4 KI-VO kennzeichnen?

Alle »Betreiber« von KI. Hier darf man sich vom Wortlaut der KI-VO aber nicht täuschen lassen, denn nach dem Verständnis der KI-VO sind Betreiber alle Unternehmen und Personen, die KI in eigener Verantwortung im beruflichen Kontext nutzen. Eine Ausnahme gilt nur für den KI-Einsatz für rein private Zwecke.

Welche Rechtsfolgen können Verstöße haben?

Geldbußen von bis zu 15 Millionen Euro oder 3% des weltweiten Jahresumsatzes des Unternehmens, je nachdem, welcher Betrag höher ist. Und möglicherweise auch Abmahnungen von Mitbewerbern, wenn der faire Wettbewerb tangiert ist.

Muss nun alles, was mit KI generiert oder bearbeitet wurde, gekennzeichnet werden?

Ganz klar: Nein.

Weder die KI-VO noch irgendein anderes Gesetz schreiben eine allgemeine Kennzeichnungspflicht für jeden KI-Einsatz vor. Im Hinblick auf KI-generierte oder manipulierte Inhalte greift die Pflicht tatsächlich nur für zwei Fallgruppen:

Welcher Content muss nach Art. 50 Abs. 4 KI-VO gekennzeichnet werden?

Bild-, Ton- oder Videoinhalte, die Deepfakes sind.

Unter Deepfakes versteht man durch KI erzeugte oder manipulierte Bild-, Ton- oder Videoinhalte, die wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähneln und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würden. Entscheidend ist: Entsteht hier ein Realitäts-Gesamteindruck? Könnte ein (durchschnittlich informierter) Betrachter den Content insgesamt als echt ansehen? Dann ist es ein Deepfake und muss als KI-generiert gekennzeichnet werden.

Bei manchem Content liegt ein Deepfake auf der Hand: Bilder von tatsächlich existierenden Personen in real erscheinenden, aber tatsächlich nie passierten Situationen. Ein Video, dessen Tonspur durch einen KI-Voice-Over überspielt wurde.

Auf der anderen Seite klar kein Deepfakes sind KI-generierte Bilder oder Videos, die keine »echten« Menschen, Orte, Dinge zeigen. Zum Beispiel die Darstellung einer Person als Comic. Die Grenze liegt da, wo KI-generierter Content auf den ersten Blick unnatürlich oder realitätsfremd erscheint. Das ist kein Deepfake, weil es niemanden in die Irre führt. Aber was ist z.B. mit KI-Models, also KI-generierten Personen, die eigene Social-Media-Kanäle unterhalten und in der Werbung für Unternehmen erscheinen? Je nach Medium und Kontext könnte das als Deepfake eingestuft werden.

Fazit: Zwischen »eindeutig Deepfake« und »offensichtlich fiktional« liegt ein Bereich, dem Rechtsprechung und gesetzgeberische Leitlinien in der Zukunft noch Konturen geben müssen.

Veröffentlichte Texte von öffentlichem Interesse, sofern keine menschliche Überprüfung und redaktionelle Kontrolle erfolgt

Was Texte angeht, die veröffentlicht werden und von öffentlichem Interesse sind, die ebenfalls gekennzeichnet werden müssen: Werbe- und Marketingtexte werden hiervon in der Regel nicht erfasst sein, da das öffentliche Interesse daran fehlt. Dasselbe gilt für E-Mails, die man sich von Claude, ChatGPT oder Perplexity erstellen lässt und andere Texte, die nicht veröffentlicht werden.

Aber selbst, wenn ein mithilfe von KI erstellter oder manipulierter Text öffentlichkeitsrelevant ist, gilt: Die KI-Nutzung muss dann nicht offenbart werden, wenn der Text von einem Menschen überprüft oder redaktionell kontrolliert wurde und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung trägt. Entscheidender Faktor ist hier – wie an vielen Stellen in der KI-VO – die menschliche Kontrolle, der »Human-in-the-Loop«.

Wie muss gekennzeichnet werden?

Die KI-VO ist technikneutral und gibt nur vor, dass die KI-Kennzeichnung »in klarer und eindeutiger Weise« erfolgen muss, und zwar so, dass man die Kennzeichnung spätestens dann sieht oder hört, wenn man den KI-Content zum ersten Mal wahrnimmt (Art. 50 Abs. 5 KI-VO).

Gute Leitlinien und Orientierung bietet aber bereits jetzt der (freiwillige) Code of Practice on Transparency of AI-Generated Content, den das Europäische KI-Büro (das KI-Kompetenzzentrum der EU-Kommission) aktuell entwickelt. Das ist derzeit zwar noch »work in progress« – der 2. Entwurf ist am 5. März 2026 veröffentlicht worden, die Fertigstellung des Kodex ist für Anfang Juni angekündigt.

Aber auch, wenn sich Details bis zum Sommer noch ändern mögen, die Eckpfeiler sind bereits da:

  • EU KI-Icon: Zur Kennzeichnung visueller Inhalte wird es ein EU-einheitliches Icon mit »AI« bzw. »KI« in Großbuchstaben geben. Im aktuellen Kodex-Entwurf werden folgende Vorschläge gezeigt. (Achtung, noch nicht final!)
Der Countdown läuft: Ab dem 2. August 2026 kommt die KI-Kennzeichnungspflicht › PAGE online
Beispiele eines von der Europäischen Kommission entwickelten Symbols mit ver-schiedenen Varianten vor einem Hintergrund. Bild: Code of Practice on Transparency of AI-Generated Content, Europäische KI-Büro (das KI-Kompetenzzentrum der EU-Kommission)

Das EU KI-Icon wird nicht zwingend sein, aber die Verwendung hilft bei der Dokumentation, dass man KI-VO konform ist. Ggf. kann es ergänzt werden um einen kurzen Text wie »Erstellt mit KI« oder »Verändert mit KI«.

  • Barrierefreiheit: Es ist ein Kontrastverhältnis von mind. 4,5:1 gegen den Hintergrund einzuhalten. Dann ist das Icon auch für Menschen mit Sehbeeinträchtigung gut lesbar.
  • Klare Erkennbarkeit: Das Icon muss konstant und deutlich erkennbar sein. Es darf nicht im Hintergrund oder hinter anderen Elementen versteckt oder durch unruhige Hintergründe unkenntlich gemacht werden.
  • Skalierung: Wird die Größe des Content verändert, muss das Icon entsprechend mitangepasst werden.
  • Videos: Bei kurzen Videos (TikToks, Instagram Reels, YouTube Shorts) muss das Icon über die gesamte Dauer des Clips sichtbar sein. Bei längeren Videos muss es am Anfang und dann in regelmäßigen Abständen eingeblendet werden. Ein »Disclaimer« am Ende reicht nicht aus.
  • Audio-Content: Auch hier kommt es auf die Länge an. Gefordert wird ein deutlicher, gesprochener Hinweis in Landessprache am Anfang, bei Content über 30 Sekunden auch wiederholt. Zudem erforderlich: Visuelles Icon, sofern das Audio am Bildschirm konsumiert wird (Smartphone-App, Auto-Display etc.).

Link zur Info-Seite der EU-Kommission:

Der 2. Entwurf des Code of Practice steht unter dem Artikel zum Download bereit:

Über Britta Klingberg

Britta Klingberg ist Fachanwältin für Gewerblichen Rechtsschutz und Expertin für IT- und KI-Recht, geistiges Eigentum und Datenschutz. Sie ist Partnerin in der Kanzlei Boege Rohde Luebbehuesen (BRL). BRL ist eine international ausgerichtete Partnerschaft von Rechtsanwälten, Wirtschaftsprüfern und Steuerberatern, die im Jahr 2006 gegründet wurde. Heute ist BRL mit rund 420 Mitarbeitenden an den Standorten Hamburg, Berlin, Bochum, Hannover, Dortmund, Essen, München, Bielefeld und Düsseldorf vertreten. www.brl.de

 



Source link

Weiterlesen

Beliebt