Generative KI verändert gerade, wie Menschen im Netz nach Informationen suchen und damit auch, wie Marken sichtbar werden. Statt nur bei Google zu ranken, geht es plötzlich darum, überhaupt in den Antworten von KI-Systemen aufzutauchen.
Bild: Jana Reske
Von der Suchliste zur fertigen Antwort
Über viele Jahre hinweg folgte Online-Marketing einer relativ klaren Logik: Wer bei Google möglichst weit oben rankt, wird gefunden, bekommt Klicks und hat damit die Chance, Nutzer:innen auf die eigene Website zu führen. Diese Gleichung beginnt jedoch gerade zu kippen.
Mit der Verbreitung generativer KI-Systeme verändert sich die Struktur der Suche selbst. Tools wie ChatGPT,PerplexityAI oder Googles Google AI Overviews liefern immer häufiger direkt formulierte Antworten statt einer Liste von Links. Die Modelle durchsuchen verschiedene Quellen, fassen Informationen zusammen und präsentieren Nutzer:innen eine bereits kuratierte Antwort. Das wirkt auf den ersten Blick effizient. Für Websites bedeutet es jedoch, dass Sichtbarkeit zunehmend auch ohne klassischen Klick stattfinden kann.
GEO statt SEO?
In diesem Zusammenhang taucht seit einiger Zeit ein neuer Begriff auf, der in Marketing- und Tech-Kreisen immer häufiger diskutiert wird: Generative Engine Optimization, kurz GEO.
Während sich Search Engine Optimization (SEO) lange darauf konzentriert hat, Inhalte für Suchmaschinen zu optimieren und möglichst weit oben in den Ergebnislisten zu erscheinen, verschiebt sich der Fokus bei GEO leicht, aber entscheidend.
Die zentrale Frage lautet nicht mehr nur, ob eine Website gefunden wird, sondern ob ihre Inhalte Teil der Antworten werden, die generative KI-Systeme formulieren. Damit verändert sich auch der klassische Weg digitaler Aufmerksamkeit. Wo früher ein klarer Ablauf existierte – Suche, Klick, Website –, kann dieser Prozess heute deutlich kürzer ausfallen. Die Antwort erscheint bereits in der Oberfläche der Suchmaschine oder des Chatbots selbst.
Sichtbarkeit ohne Klick
Genau darin liegt eine der größten Verschiebungen. Wenn KI-Systeme Antworten direkt zusammenstellen, kann es passieren, dass Nutzer:innen die Information bereits erhalten haben, ohne eine Website überhaupt zu öffnen. Für viele Unternehmen stellt sich daher eine neue Frage: Nicht nur, ob eine Marke gefunden wird, sondern auch, ob die KI sie überhaupt »kennt«.
In Marketingdiskussionen taucht dafür inzwischen gelegentlich ein Begriff auf, der an den klassischen »Share of Voice« erinnert: der Share of Model. Gemeint ist damit die Präsenz einer Marke innerhalb der Antworten generativer Systeme. Wenn ein Modell beispielsweise regelmäßig dieselben Tools oder Anbieter nennt, entsteht eine neue Form von Sichtbarkeit, selbst dann, wenn kein direkter Websitebesuch stattfindet.
Ein wesentlicher Unterschied zwischen SEO und GEO liegt darin, wie stark Unternehmen die eigene Sichtbarkeit kontrollieren können. Klassische Suchmaschinenoptimierung konzentrierte sich lange auf die eigene Website: Inhalte, Struktur, Keywords und technische Optimierung.
Generative KI funktioniert anders. Die Modelle greifen auf ein breites Spektrum an Quellen zurück, wie journalistische Artikel, Blogs, Foren, Bewertungen oder Social-Media-Beiträge. Dadurch entsteht ein deutlich komplexeres Bild davon, wie eine Marke im Netz wahrgenommen wird.
Die überraschende Rückkehr der Textplattformen
Gerade deshalb gewinnen Plattformen an Bedeutung, die lange nicht unbedingt als klassische Marketingkanäle galten. Besonders auffällig ist derzeit die Rolle textbasierter Community-Plattformen.
So taucht etwa Reddit in vielen KI-Antworten überraschend häufig als Quelle auf. Die Plattform besteht aus Diskussionen, Erfahrungsberichten und Bewertungen, genau jener Art von Inhalten, die Sprachmodelle gut verarbeiten können. Wenn Nutzer:innen dort Produkte vergleichen oder konkrete Probleme diskutieren, entstehen Beiträge, die für generative Systeme besonders wertvoll sind.
Auch LinkedIn scheint eine neue Rolle einzunehmen. Während die Plattform lange vor allem als berufliches Netzwerk wahrgenommen wurde, entwickeln sich längere LinkedIn-Posts und Artikel zunehmend zu einer Art öffentlich zugänglicher Wissensbasis. Beiträge, die ein Thema erklären oder analysieren, werden immer häufiger von KI-Systemen als Quelle aufgegriffen.
Diese Entwicklung könnte Social-Media-Strategien langfristig verändern. Plattformen, die stark auf kurze visuelle Inhalte setzen, bleiben zwar wichtig für Aufmerksamkeit. Doch textbasierte Plattformen könnten wieder an Bedeutung gewinnen. Schlicht deshalb, weil sie die Art von Informationen liefern, aus denen KI-Modelle ihre Antworten konstruieren.
Eine neue Phase der Suche
Suchmaschinen experimentieren weiterhin mit KI-Antworten, und auch die Modelle selbst entwickeln sich ständig weiter. Doch schon jetzt zeigt sich, dass generative KI nicht nur ein neues Interface für die Suche darstellt. Sie verändert auch, wo und wie Informationen im Netz entstehen und damit die Orte, an denen Marken sichtbar werden.
All das deutet darauf hin, dass sich Marketing langsam in eine andere Richtung bewegt. Während SEO lange stark auf technische Optimierung und Keyword-Strategien ausgerichtet war, rückt nun stärker in den Fokus, wie eine Marke im gesamten digitalen Diskurs erscheint.
Es reicht möglicherweise nicht mehr aus, nur Inhalte auf der eigenen Website zu veröffentlichen. Entscheidend wird zunehmend, ob eine Marke auch in Artikeln, Diskussionen, Erfahrungsberichten oder Analysen auftaucht. Genau darin liegt vielleicht die spannendste Veränderung: Sichtbarkeit entsteht nicht mehr nur durch Rankings, sondern durch Einordnung, Kontext und Erwähnungen.
Der Countdown läuft: Ab dem 2. August 2026 kommt die KI-Kennzeichnungspflicht › PAGE online
Britta Klingberg, Fachanwältin für Gewerblichen Rechtsschutz und Expertin für IT- und KI-Recht, gibt einen Überblick, welcher KI-Content in Zukunft wie gekennzeichnet werden muss und stellt die Leitlinien vor, die der Code of Practice des EU-KI Büros jetzt bereits für die Praxis bietet.
Bild: Code of Practice on Transparency of AI-Generated Content, Europäische KI-Büro (das KI-Kompetenzzentrum der EU-Kommission) Der Countdown läuft: Ab dem 2. August 2026legt Art. 50 Abs. 4 KI-VO allen Betreibern (= Nutzern!) von KI verbindlich die Pflicht auf, KI-generierten Content als solchen zu kennzeichnen. Das gilt verbindlich in der gesamten EU. Damit Verstöße nicht teuer werden, ist jetzt die Zeit für Unternehmen, Agenturen und Kreative, genau hinzuschauen und eine rechtssichere Kennzeichnungspraxis aufzustellen. Das EU-KI Büro entwickelt aktuell einen Code of Practice, der hierzu wichtige Leitlinien bietet.
Wer muss KI-generierten Content nach Art. 50 Abs. 4 KI-VO kennzeichnen?
Alle »Betreiber« von KI. Hier darf man sich vom Wortlaut der KI-VO aber nicht täuschen lassen, denn nach dem Verständnis der KI-VO sind Betreiber alle Unternehmen und Personen, die KI in eigener Verantwortung im beruflichen Kontext nutzen. Eine Ausnahme gilt nur für den KI-Einsatz für rein private Zwecke.
Welche Rechtsfolgen können Verstöße haben?
Geldbußen von bis zu 15 Millionen Euro oder 3% des weltweiten Jahresumsatzes des Unternehmens, je nachdem, welcher Betrag höher ist. Und möglicherweise auch Abmahnungen von Mitbewerbern, wenn der faire Wettbewerb tangiert ist.
Muss nun alles, was mit KI generiert oder bearbeitet wurde, gekennzeichnet werden?
Ganz klar: Nein.
Weder die KI-VO noch irgendein anderes Gesetz schreiben eine allgemeine Kennzeichnungspflicht für jeden KI-Einsatz vor. Im Hinblick auf KI-generierte oder manipulierte Inhalte greift die Pflicht tatsächlich nur für zwei Fallgruppen:
Welcher Content muss nach Art. 50 Abs. 4 KI-VO gekennzeichnet werden?
Bild-, Ton- oder Videoinhalte, die Deepfakes sind.
Unter Deepfakes versteht man durch KI erzeugte oder manipulierte Bild-, Ton- oder Videoinhalte, die wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähneln und einer Person fälschlicherweise alsecht oder wahrheitsgemäß erscheinen würden. Entscheidend ist: Entsteht hier ein Realitäts-Gesamteindruck? Könnte ein (durchschnittlich informierter) Betrachter den Content insgesamt als echt ansehen? Dann ist es ein Deepfake und muss als KI-generiert gekennzeichnet werden.
Bei manchem Content liegt ein Deepfake auf der Hand: Bilder von tatsächlich existierenden Personen in real erscheinenden, aber tatsächlich nie passierten Situationen. Ein Video, dessen Tonspur durch einen KI-Voice-Over überspielt wurde.
Auf der anderen Seite klar kein Deepfakes sind KI-generierte Bilder oder Videos, die keine »echten« Menschen, Orte, Dinge zeigen. Zum Beispiel die Darstellung einer Person als Comic. Die Grenze liegt da, wo KI-generierter Content auf den ersten Blick unnatürlich oder realitätsfremd erscheint. Das ist kein Deepfake, weil es niemanden in die Irre führt. Aber was ist z.B. mit KI-Models, also KI-generierten Personen, die eigene Social-Media-Kanäle unterhalten und in der Werbung für Unternehmen erscheinen? Je nach Medium und Kontext könnte das als Deepfake eingestuft werden.
Fazit: Zwischen »eindeutig Deepfake« und »offensichtlich fiktional« liegt ein Bereich, dem Rechtsprechung und gesetzgeberische Leitlinien in der Zukunft noch Konturen geben müssen.
Veröffentlichte Texte von öffentlichem Interesse, sofern keine menschliche Überprüfung und redaktionelle Kontrolle erfolgt
Was Texte angeht, die veröffentlicht werden und von öffentlichem Interesse sind, die ebenfalls gekennzeichnet werden müssen: Werbe- und Marketingtexte werden hiervon in der Regel nicht erfasst sein, da das öffentliche Interesse daran fehlt. Dasselbe gilt für E-Mails, die man sich von Claude, ChatGPT oder Perplexity erstellen lässt und andere Texte, die nicht veröffentlicht werden.
Aber selbst, wenn ein mithilfe von KI erstellter oder manipulierter Text öffentlichkeitsrelevant ist, gilt: Die KI-Nutzung muss dann nicht offenbart werden, wenn der Text von einem Menschen überprüft oder redaktionell kontrolliert wurde und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung trägt. Entscheidender Faktor ist hier – wie an vielen Stellen in der KI-VO – die menschliche Kontrolle, der »Human-in-the-Loop«.
Wie muss gekennzeichnet werden?
Die KI-VO ist technikneutral und gibt nur vor, dass die KI-Kennzeichnung »in klarer und eindeutiger Weise« erfolgen muss, und zwar so, dass man die Kennzeichnung spätestens dann sieht oder hört, wenn man den KI-Content zum ersten Mal wahrnimmt (Art. 50 Abs. 5 KI-VO).
Gute Leitlinien und Orientierung bietet aber bereits jetzt der (freiwillige) Code of Practice on Transparency of AI-Generated Content, den das Europäische KI-Büro (das KI-Kompetenzzentrum der EU-Kommission) aktuell entwickelt. Das ist derzeit zwar noch »work in progress« – der 2. Entwurf ist am 5. März 2026 veröffentlicht worden, die Fertigstellung des Kodex ist für Anfang Juni angekündigt.
Aber auch, wenn sich Details bis zum Sommer noch ändern mögen, die Eckpfeiler sind bereits da:
EU KI-Icon: Zur Kennzeichnung visueller Inhalte wird es ein EU-einheitliches Icon mit »AI« bzw. »KI« in Großbuchstaben geben. Im aktuellen Kodex-Entwurf werden folgende Vorschläge gezeigt. (Achtung, noch nicht final!)
Beispiele eines von der Europäischen Kommission entwickelten Symbols mit ver-schiedenen Varianten vor einem Hintergrund. Bild: Code of Practice on Transparency of AI-Generated Content, Europäische KI-Büro (das KI-Kompetenzzentrum der EU-Kommission)
Das EU KI-Icon wird nicht zwingend sein, aber die Verwendung hilft bei der Dokumentation, dass man KI-VO konform ist. Ggf. kann es ergänzt werden um einen kurzen Text wie »Erstellt mit KI« oder »Verändert mit KI«.
Barrierefreiheit: Es ist ein Kontrastverhältnis von mind. 4,5:1 gegen den Hintergrund einzuhalten. Dann ist das Icon auch für Menschen mit Sehbeeinträchtigung gut lesbar.
Klare Erkennbarkeit: Das Icon muss konstant und deutlich erkennbar sein. Es darf nicht im Hintergrund oder hinter anderen Elementen versteckt oder durch unruhige Hintergründe unkenntlich gemacht werden.
Skalierung: Wird die Größe des Content verändert, muss das Icon entsprechend mitangepasst werden.
Videos: Bei kurzen Videos (TikToks, Instagram Reels, YouTube Shorts) muss das Icon über die gesamte Dauer des Clips sichtbar sein. Bei längeren Videos muss es am Anfang und dann in regelmäßigen Abständen eingeblendet werden. Ein »Disclaimer« am Ende reicht nicht aus.
Audio-Content: Auch hier kommt es auf die Länge an. Gefordert wird ein deutlicher, gesprochener Hinweis in Landessprache am Anfang, bei Content über 30 Sekunden auch wiederholt. Zudem erforderlich: Visuelles Icon, sofern das Audio am Bildschirm konsumiert wird (Smartphone-App, Auto-Display etc.).
Link zur Info-Seite der EU-Kommission:
Der 2. Entwurf des Code of Practice steht unter dem Artikel zum Download bereit:
Über Britta Klingberg
Britta Klingberg ist Fachanwältin für Gewerblichen Rechtsschutz und Expertin für IT- und KI-Recht, geistiges Eigentum und Datenschutz. Sie ist Partnerin in der Kanzlei Boege Rohde Luebbehuesen (BRL). BRL ist eine international ausgerichtete Partnerschaft von Rechtsanwälten, Wirtschaftsprüfern und Steuerberatern, die im Jahr 2006 gegründet wurde. Heute ist BRL mit rund 420 Mitarbeitenden an den Standorten Hamburg, Berlin, Bochum, Hannover, Dortmund, Essen, München, Bielefeld und Düsseldorf vertreten. www.brl.de
Nano Banana 2 vs. Pro im Test: Schnellstes KI-Bildmodell von Google › PAGE online
Mit Nano Banana 2 bringt Google erstmals die Geschwindigkeit der Flash-Modelle mit der Bildqualität von Nano Banana Pro zusammen. Ich habe getestet, wie gut das neue Modell wirklich ist und warum Googles Strategie hinter dem Update fast noch spannender ist als die Bilder selbst.
Auch wenn die Hautstruktur bei der Nano Banana 2 schon sehr realistisch aussieht, sind in der Pro-Variante doch mehr Details zu erkennen. Bild: Jana Reske
Als Google im vergangenen Jahr sein Bildmodell Nano Banana veröffentlichte, wurde es innerhalb kürzester Zeit zu einem viralen Phänomen in der KI-Community. Wenige Monate später folgte mit Nano Banana Pro eine deutlich leistungsstärkere Version, die vor allem bei Bildqualität, Textdarstellung und Detailtiefe neue Maßstäbe setzte und viele Kreativ-Workflows plötzlich realistischer erscheinen ließ.
Nun geht Google noch einen Schritt weiter. Mit Nano Banana 2, basierend auf Gemini 3.1 Flash Image, versucht das Unternehmen erstmals, Geschwindigkeit und Qualität miteinander zu verbinden. Das Modell soll nahezu in Echtzeit Bilder generieren, gleichzeitig aber einen Großteil der Fähigkeiten von Nano Banana Pro übernehmen. Besonders interessant ist dabei nicht nur das technische Upgrade, sondern auch die strategische Entscheidung: Nano Banana 2 wird in vielen Google-Produkten zum neuen Standardmodell, während die Pro-Variante zunehmend hinter einer kostenpflichtigen Subscription verschwindet.
Warum Google Nano Banana 2 jetzt überall einbaut
Mit Nano Banana 2 verändert Google vor allem die Art, wie das Modell genutzt wird. Während Nano Banana Pro bisher als klarer technischer Höhepunkt präsentiert wurde, wird das neue Modell nun in vielen Google-Produkten zum Standard. In der Gemini-App ersetzt Nano Banana 2 beispielsweise automatisch das bisherige Pro-Modell für die meisten Generierungen.
Das wirkt zunächst wie ein klassisches Upgrade, tatsächlich ist die Situation etwas komplexer. Denn obwohl Nano Banana 2 viele Fähigkeiten des Pro-Modells übernimmt, bleibt Nano Banana Pro weiterhin verfügbar, allerdings nur für Nutzer:innen mit kostenpflichtiger Subscription und teilweise erst über einen zusätzlichen Generierungs-Schritt.
In der Praxis bedeutet das: Die meisten Bilder entstehen künftig automatisch mit Nano Banana 2. Wer jedoch maximale Bildqualität möchte, kann das Ergebnis anschließend erneut mit Nano Banana Pro generieren lassen. Gleichzeitig bringt das neue Modell einige Funktionen mit, die besonders für Content- und Marketing-Workflows interessant sind. Dazu gehören eine deutlich präzisere Textdarstellung in Bildern, Zugriff auf aktuelles Webwissen für bestimmte Motive sowie die Möglichkeit, sehr unterschiedliche Bildformate bis hin zu 4K-Auflösung zu generieren.
Porträts und Realismus
Einer der ersten Tests konzentriert sich auf ein Szenario, das für viele Nutzer:innen oft besonders relevant ist: realistische Porträts. Dafür habe ich ein eigenes Foto als Ausgangspunkt genutzt und das Modell gebeten, Pose und Umgebung zu verändern, während mein Gesicht erhalten bleibt. Dabei zeigt sich schnell, dass beide Modelle überzeugende Ergebnisse liefern, die Pro-Version jedoch in Details wie Haarstruktur oder Lichtreflexionen noch etwas natürlicher wirkt.
Bei dem rechten Bild, das vom Pro-Modell generiert wurde, sieht man den qualitativen Unterschied eher in den Details. Bild: Jana Reske
Kreative und fantasievolle Szenen
Neben realistischen Anwendungen habe ich auch ein bewusst experimentelleres Szenario getestet, das stärker in Richtung visuelle Kreativität geht. Dabei habe ich ein Bild generiert, in dem ich in einer eher surrealen, weichen Umgebung sitze, während verschiedene meiner Hobbys als visuelle Elemente um mich herum inszeniert werden.
Hier zeigt sich ein etwas klarerer Unterschied zwischen den Modellen: Während Nano Banana 2 die Idee solide umsetzt, wirkt das Ergebnis in der Pro-Version oft stimmiger, ästhetisch ausgearbeiteter und insgesamt hochwertiger. Gerade bei der Kombination unterschiedlicher visueller Stile scheint Pro aktuell noch einen kleinen Vorsprung zu haben.
Meine Idee wurde von beiden Modellen gut umgesetzt, aber die einzelnen Elemente scheinen im rechten Bild stimmiger. Bild: Jana Reske
Extreme Detailaufnahmen
Neben ganzen Szenen wollte ich auch testen, wie sich die Modelle bei extremen Detailaufnahmen schlagen. Dafür habe ich Prompts genutzt, die sehr nah an einzelne Bildbereiche heranzoomen, etwa Hautstrukturen oder andere feine Texturen. Gerade bei diesen Makroaufnahmen wird der Unterschied deutlicher: Während Nano Banana 2 bereits ein hohes Niveau erreicht, liefert die Pro-Version sichtbar präzisere Details und wirkt insgesamt etwas realistischer und sauberer gerendert.
Auch wenn die Hautstruktur bei der Nano Banana 2 schon sehr realistisch aussieht, sind in der Pro-Variante doch mehr Details zu erkennen. Bild: Jana Reske
Wo Nano Banana Pro noch vorne liegt
Nach den ersten Tests zeigt sich schnell ein interessantes Muster: Nano Banana 2 ist tatsächlich deutlich schneller und eignet sich hervorragend für schnelle kreative Iterationen. Bilder entstehen oft innerhalb weniger Sekunden, wodurch sich viele Varianten ausprobieren lassen.
Trotzdem lohnt sich ein zweiter Blick auf die Pro-Version. Wenn man ein Bild erneut mit Nano Banana Pro generieren lässt, wirkt das Ergebnis häufig noch einmal etwas detaillierter, sauberer und fotografischer. Google scheint hier bewusst zwei unterschiedliche Workflows zu etablieren: Nano Banana 2 als schnelles Standardmodell für Experimente und Pro als Premium-Option für maximale Bildqualität.
Müssen KI-Bilder eigentlich immer realistischer werden?
Bei all den technischen Verbesserungen stellt sich mir jedoch oft eine andere Frage: Warum scheint sich die Entwicklung generativer Bildmodelle fast ausschließlich auf immer mehr Realismus zu konzentrieren?
Viele neue Modelle werben damit, dass ihre Bilder kaum noch von echten Fotos zu unterscheiden sind. Hauttexturen werden detaillierter, Licht realistischer und Oberflächen immer perfekter gerendert. Technologisch ist das beeindruckend, kreativ wirkt dieser Fokus manchmal jedoch nicht.
Denn wenn KI uns theoretisch erlaubt, jede erdenkliche Bildwelt zu generieren, wäre es eigentlich schade, dieses Potenzial ausschließlich dafür zu nutzen, Realität möglichst exakt zu imitieren. Vielleicht liegt die spannendere Zukunft generativer Bilder gar nicht darin, Fotografie perfekt zu kopieren, sondern darin, neue visuelle Stile zu entdecken. KI könnte ein Werkzeug sein, um ungewöhnliche Ästhetiken, absurde Szenarien oder völlig neue Bildsprachen auszuprobieren. Dinge, die mit klassischer Fotografie gar nicht möglich wären.
Fazit: Googles neue Strategie für KI-Bildmodelle
Mit Nano Banana 2 verfolgt Google eine interessante Strategie. Statt einfach nur ein noch leistungsfähigeres Modell zu veröffentlichen, versucht das Unternehmen offenbar, zwei unterschiedliche Nutzungsebenen zu etablieren: ein schnelles, breit verfügbares Standardmodell für alltägliche kreative Arbeit und eine leistungsstärkere Pro-Variante für maximale Bildqualität.
Für Nutzer:innen bedeutet das vor allem eines: Generative Bilder werden schneller, zugänglicher und zunehmend in alltägliche Tools integriert. Ob Nano Banana 2 tatsächlich zum neuen Standard für KI-gestützte Bildproduktion wird, hängt jedoch letztlich davon ab, wie groß der Qualitätsunterschied zur Pro-Version im Alltag wirklich bleibt.
Lernen durch Machen: Wie Mutabor KI-Kompetenz in die Agentur bringt › PAGE online
KI-Schulungen verpuffen oft im Alltag – weil Inspiration nicht gleich Anwendung ist. Mutabor setzt stattdessen auf interne Hackathons mit echten Use Cases. Was dahintersteckt und was andere Agenturen daraus lernen können, erklärt Niklas Karbowiak, Manager Business Strategy & Innovation und AI Officer bei Mutabor.
Bild: Niklas KarbowiakDie KI-Weiterbildungsbranche boomt. Konferenzen, Webinare, Zertifikatskurse – das Angebot ist riesig, der Transfer in den Agenturalltag oft ernüchternd gering. Das Grundproblem: Wer nur zuschaut, versteht die Idee, nicht den Weg dorthin. Diese Lücke zwischen Inspiration und tatsächlicher Handlungsfähigkeit ist in Kreativagenturen besonders spürbar, denn die Anforderungen sind komplex, die Teams interdisziplinär, und der Druck, mit KI nicht nur experimentell, sondern produktiv umzugehen, wächst.
Mutabor, eine der renommiertesten Design- und Markenagenturen Deutschlands mit rund 180 Mitarbeitenden, hat für sich einen anderen Weg gefunden: regelmäßige interne Hackathons, ein- bis zweimal pro Monat, mit konkreten Fragestellungen aus dem Tagesgeschäft. Keine abstrakten Tool-Demos, keine Frontalbeschallung – sondern echte Probleme, gemischte Teams und das Ziel, in einem halben oder ganzen Tag einen ersten, funktionierenden Prototypen zu bauen. Rund 50 Kolleg:innen haben bisher teilgenommen. Die Ergebnisse: agentenbasierte Workflows für Alltagsaufgaben, skalierbare Brand Assets, digitale Prototypen und – nicht zuletzt – eine spürbar veränderte Haltung gegenüber KI in der Organisation.
Möglich wurde das auch, weil die Infrastruktur bereits stand: die Mutabor Academy, feste Räume, interne Kommunikationsformate. Und weil jemand die inhaltliche Verantwortung übernommen hat. Niklas Karbowiak trägt bei Mutabor den Doppeltitel Manager Business Strategy & Innovation und AI Officer. Was das konkret bedeutet, welche Formate wirklich greifen – und warum er die Angst vor dem Jobverlust im Hackathon direkt adressiert statt kleinzureden – erzählt er im Gespräch mit PAGE.
Du bist gleichzeitig Manager Business Strategy & Innovation und AI Officer. Wie viel davon ist echter Gestaltungsspielraum – und wie viel ist Feuerwehr?
Idealerweise 80 Prozent Gestaltung, 20 Prozent Feuerwehr. Mein Job ist nicht, einfach jedes neue Tool in die Agentur zu werfen. Meine Aufgabe ist es, die Brücke zwischen Geschäftsführung, Teams und Technologie zu bauen: Bedarfe erkennen, Themen priorisieren und Formate so aufsetzen, dass aus Spielerei echte Anwendung entsteht. Zur Feuerwehr werde ich meistens dann, wenn Technologie sich schneller entwickelt als unsere Prozesse oder wenn Tools plötzlich völlig neue rechtliche oder operative Fragen aufwerfen. Aber genau dafür braucht es diese Rolle: um aus Ad-hoc-Druck einen gestaltbaren Rahmen zu machen.
Du hast gesagt, Learnings und Workflows werden »in der Organisation sichtbar gemacht und weitergetragen«. Zeig uns einen.
Klar! Hier ein starkes Beispiel aus einem aktuellen Rebranding-Prozess: Wir haben in den Hackathons node-basierte Workflows entwickelt, um hochwertige 3D-Brandingelemente und Icons skalierbar zu generieren. Das Spannende daran: Diese Workflows, Logiken und Prompts fließen jetzt direkt als neues Regelwerk in die Brand Guidelines des Kunden ein. Dafür gab es vorher keinen Blueprint. Wir mussten ihn uns erarbeiten. Der größte Erfolg ist aber, was danach passiert: Inzwischen ist das kein Nischenthema mehr für drei Spezialist:innen. Jeder zweite Designer bei Mutabor nutzt heute ganz selbstverständlich node-basierte Workflows, um visuelle Systeme zu bauen.
In Kreativagenturen sitzt die Angst tief, dass KI Stellen frisst. Wie geht ihr bei Mutabor damit um – redet ihr das weg, oder adressiert ihr es im Hackathon direkt?
Wir reden das nicht weg, das wäre fatal. KI macht bestimmte Produktionsschritte und standardisierbare Aufgaben günstiger, schneller und austauschbarer. Das ist keine abstrakte Bedrohung, sondern spürbare Realität in den Agenturen. Unsere Antwort darauf ist nicht Motivationstalk, sondern Befähigung. Wir wollen absolute Weltklasse-Designer:innen bleiben. Die Frage ist nicht, ob sich unsere Jobs verändern, sondern ob wir diesen Wandel aktiv gestalten oder passiv ausbaden. Im Hackathon holen wir das Thema aus der diffusen Angst in die Praxis und trainieren genau das, was wichtig bleibt: Systemisches Denken, Urteilskraft und Werkzeugverständnis.
Wenn Brand Assets und visuelle Systeme im Hackathon in Stunden entstehen, was bedeutet das für den Wert gestalterischer Handwerkskunst? Ist das Befreiung oder Entwertung?
Weder noch, denke ich. Es ist eine massive Verschiebung. Wenn die reine Exekution von Assets billiger und schneller wird, steigt der Wert von Geschmack, Präzision und Markenverständnis extrem an. Wenn wir nur noch Output generieren, aber aufhören, unsere gestalterische Urteilskraft zu trainieren, landen wir ungebremst in der Inflation des Mittelmaßes. Handwerk verschwindet nicht. Es verlagert sich von der reinen Ausführung auf Kuration, Systemarchitektur und die berühmten »letzten 20 Prozent«, die einer Arbeit Seele geben.
Was unterscheidet einen gut funktionierenden Hackathon von einem, der versandet? Was sind deine drei nicht verhandelbaren Bedingungen für das Format?
Erstens: Echte Pain Points und Use Cases aus dem Agenturalltag statt abstrakter Tool-Demos.
Zweitens: Radikal gemischte Teams – UX neben Projektmanagement, Motion Design neben Strategy, damit Probleme nicht immer aus der gleichen Perspektive gelöst werden.
Drittens: Systematischer Transfer danach. Erst wenn die Learnings dokumentiert und in die Agentur zurückgetragen werden, entsteht langfristig Kompetenzaufbau.
PAGE-Leser:innen sind Kreative, die das selbst ausprobieren wollen. Kann man bei einem eurer Hackathons dabei sein – und wenn nicht: Was wäre dein Rat, wie man so ein Format startet?
Unsere eigenen Hackathons sind aktuell ein interner »Safe Space«. Aber wir bieten exakt dieses Format inzwischen auch als Modul für unsere Kund:innen an, weil wir merken, dass auch dort die Tools oft längst da sind, aber die Anwendung im Alltag stockt.
Wer das bei sich starten will: Bucht einen Raum, nehmt ein konkretes Problem aus dem Tagesgeschäft, setzt fünf Leute aus unterschiedlichen Disziplinen zusammen und baut an einem Nachmittag einen ersten, unperfekten Prototypen. Weniger Frontalbeschallung, mehr Ausprobieren.