Wir sprechen vor dem German Creative Economy Summit mit AI-Expertin Zamina Ahmad über faire KI und die Gestaltungskraft der Kreativbranche.
Der German Creative Economy Summit steht vor der Tür – eines unserer liebsten Events für Design im politischen und gesellschaftlichen Kontext. Wir sprechen im Vorfeld mit AI-Expertin Zamina Ahmad, die als Geschäftsführerin der KI-Beratung shades&contrast und Co-Founderin von ZAQ, einer Software für KI-basiertes Wissensmanagement, Unternehmen in der Tech-Transformation berät.
Zamina beschäftigt sich dabei nicht nur mit allen Themen rund um Machine Learning und Softwareentwicklung, sondern ist mehrfach ausgezeichnet für ihr Engagement für faire KI. Auf den GCES spricht sie am 29. April darüber, für wen KI eigentlich entwickelt wird, und stellt drei Designprinzipien für KI mit echtem gesellschaftlichem Nutzen vor.
PAGE: Zamina, mehrere Jahre AI im Business sind vergangen und laut dir sind wir längst aus der Phase des Experimentierens heraus. Wo befinden wir uns aktuell?
Zamina Ahmad: Das Bild ist uneinheitlich. Ich arbeite mit einem AI Maturity Model auf drei Stufen, und was ich bei meinen Kund:innen sehe: Einige stecken auf Level 1, der Toolphase, fest. Sie nutzen KI-Tools wie ChatGPT, aber es gibt keine Governance, keine Datenschutzrichtlinien, keine organisatorische Einbettung.
Andere beginnen mit Level 2, der Prozessoptimierung. Aber sie merken schnell, dass das nicht nur ein Tool-Thema ist. Prozesse und Rollen müssen komplett neu gedacht werden, und dafür fehlt die Begleitung. Auf Level 3, der strategischen Transformation, sind die wenigsten. Das sind vor allem Tech-Unternehmen, die sich die radikale Frage stellen: Wie stellen wir uns als Organisation komplett neu auf? Das Experimentieren ist vorbei. Aber die Transformation hat bei den meisten noch nicht begonnen.
Die meisten Unternehmen stecken in der AI Adoption noch im Optimieren bestehender Workflows fest. Wie lässt sich der Schritt hin zu wirklicher Transformation umsetzen?
Ganz pragmatisch: Die Enthusiast:innen finden. In jeder Organisation gibt es Menschen, die nicht nur optimieren, sondern neu denken wollen. Die starten, bevor jemand den Auftrag gibt. Mit denen fängt Transformation an, nicht mit Strategiepapieren. Und dann mache ich gerne eine Übung, die ich die Startup-Übung nenne: Stellt euch vor, ihr wärt ein Startup. Kein Legacy, keine Altlasten, kein »Das haben wir immer so gemacht.« Ihr könnt alles von null aufbauen, mit KI von Tag eins. Wie würdet ihr euer eigenes Unternehmen überholen? Das ist der Moment, in dem Teams aufhören zu optimieren und anfangen zu transformieren. Die Frage ist dann nicht mehr »Wo können wir KI einbauen?«, sondern »Wie würde jemand uns disrupten?«
Welche Themen beschäftigen deine Kund:innen aktuell am stärksten?
Themen, die in fast jedem Gespräch auftauchen: KI tatsächlich in die Prozesse bekommen, nicht als Spielerei, sondern operativ. Die Use-Case-Frage: Wo lohnt es sich wirklich, und wo ist es Hype? Datenschutz und Governance – gerade in Deutschland ein Dauerbrenner. Die Tool- und Kompetenzfrage: Was brauchen unsere Teams, um das selbst zu können? Und unterschätzt, aber enorm wichtig: die persönliche Karrierefrage. Wie positioniere ich mich als AI Leader? Viele Führungskräfte spüren, dass sich ihr Rollenprofil gerade fundamental verschiebt, und wollen nicht nur ihre Organisation, sondern auch sich selbst zukunftsfähig aufstellen.
AI-Impact wird gerne in prozentualem Productivity-Increase gemessen. Was bedeutet das konkret? Und gibt es genauere Wege, um die Wirkung von KI zu messen und sichtbar zu machen?
Die »30 Prozent produktiver«-Schlagzeilen sind verführerisch, aber oft irreführend. Wenn ein Designteam mit KI doppelt so viele Entwürfe produziert, aber keiner davon besser ist, haben wir nichts gewonnen, sondern nur »AI Slop« erzeugt. Ich empfehle, drei Ebenen zu messen: Effizienz, also Zeitersparnis und Durchsatz. Qualität: Werden die Ergebnisse besser, konsistenter, fehlerfreier? Und strategischer Impact: Ermöglicht KI etwas, das vorher gar nicht möglich war?
Die Kreativwirtschaft ist brillant im Geschichtenerzählen, z. B. Wirkung emotional zu vermitteln. Aber wenn wir KI für gesellschaftlichen Wandel einsetzen, reicht Storytelling allein nicht. Wir brauchen auch Evidenz. Das muss nicht akademisch sein – es kann so einfach sein wie: »Wir haben diesen Service mit 200 Nutzer:innen getestet und festgestellt, dass eine bestimmte Gruppe nur halb so oft eine hilfreiche Antwort bekommt.« Das ist eine Impact-Messung. Mein Appell: Ergänzt eure Impact-Geschichten mit Impact-Daten. Eine gute Geschichte öffnet Türen. Gute Daten halten sie offen.
AI & Kreativbranche
Wer profitiert aktuell am stärksten von KI? Wer verliert am meisten?
Am stärksten profitieren diejenigen, die Qualität bewerten können – die wissen, was guter Output ist, und strategisches Denken mit dem verbinden, was KI liefert. Erfahrene Designer:innen, Strateg:innen, Creative Directors, die KI nicht als Ersatz nutzen, sondern als Verstärker ihrer Urteilsfähigkeit.
Am meisten verlieren diejenigen, deren Arbeit primär in der Ausführung liegt, ohne eigene strategische oder kreative Tiefe. Und es verlieren die, die in den Trainingsdaten nicht vorkommen. KI reproduziert, was sie gelernt hat. Ein Empfehlungssystem, das bestimmte Kulturangebote bevorzugt, weil die Trainingsdaten sie überrepräsentieren. Ein Chatbot für Betroffenen-Support, der bestimmte Sprachregister nicht versteht. Die Oberfläche glänzt, aber der Impact hat blinde Flecken. Wer in den Daten unsichtbar ist, wird durch KI-generierte Arbeit noch unsichtbarer.
Du beschreibst KI als nicht neutral, da sie systemische Vorurteile und Machtverhältnisse reproduziert. Wie lässt sich dieses Problem beheben?
Es lässt sich nicht mit einem Fix beheben, weil es kein Bug ist – es ist ein Strukturproblem. Es muss kontinuierlich gemanagt werden. Mein Ansatz: Transparenz, d. h. verstehen, welche Annahmen in den Systemen stecken und wie sie Entscheidungen treffen. Diversität, d. h. nicht nur in Teams, sondern in Daten, in Evaluierungskriterien, in den Stimmen, die gehört werden. Und Verantwortungsbewusstsein, d. h. jemand muss verantwortlich sein, wenn Fehler passieren und diese dann beheben. Nicht ein Algorithmus, sondern ein Mensch.
In der AI-Entwicklung und -Adoption gibt es eine Gender Gap. Hat das Thema für deine Unternehmenskunden Relevanz – und wie versuchen sie das Problem zu lösen?
Die Relevanz wächst, aber bei vielen ist es noch nicht auf Priorität eins. In meinen Workshops wird der Gender Gap oft erst sichtbar, wenn wir konkret mit KI-Tools arbeiten. Die Unternehmen, die das Thema ernst nehmen, investieren gezielt in Upskilling-Programme.
Welche Menschen möchtest du stärker in der KI-Entwicklung involviert sehen?
Menschen, die wissen, wie die Welt für diejenigen aussieht, die nicht am Tisch sitzen. Sozialarbeiter:innen, Pflegekräfte, Lehrer:innen, Community Organizer:innen. Menschen aus dem Globalen Süden. Menschen mit Behinderungen. Nicht als Berater:innen am Rand, sondern als Mitentscheider:innen.
Ein konkretes Beispiel: In Deutschland sind über zehn Millionen Menschen auf Informationen in Leichter Sprache angewiesen – Menschen mit Lernschwierigkeiten, ältere Menschen, Menschen mit Deutsch als Fremdsprache. Ich arbeite mit der Universität Hamburg und der Lebenshilfe Hamburg daran, dass feingetunete Open-Source-Modelle diese Übersetzung leisten können. Die Betroffenen sollten hier selbst am Tisch sitzen, nicht als Testpersonen, sondern als Expert:innen ihrer eigenen Bedarfe. Das ist Teilhabe durch Technologie.
Wie genau kann KI gesellschaftlich positiven Wandel anstoßen?
Zwei konkrete Wege. Erstens Teilhabe skalieren: KI kann Leichte Sprache erzeugen, Farbkontraste automatisch prüfen, Alt-Texte generieren, Layouts auf Lesbarkeit testen. Barrierefreiheit wird vom Sonderwunsch zum Default. Das betrifft jedes Designstudio, jede Agentur, jede Kulturinstitution.
Zweitens Zugang ermöglichen: Ein kleines Studio kann heute mit KI Themen betreiben, die früher nur Konzernen möglich waren. Aber – und das ist der entscheidende Punkt – nicht die Technologie ist die Innovation. Die Innovation ist die Entscheidung, sie für eine bestimmte Gruppe und ein bestimmtes Problem einzusetzen. Technologie hat keine Absicht. Die Absicht kommt von uns.
Welche Rolle spielen Designer:innen bei einer verantwortungsbewussten KI-Adoption?
Eine zentrale, denn Designer:innen sind trainiert darin, vom Menschen aus zu denken. In der Tech-Industrie wird gerade massiv in KI-Governance investiert – Compliance-Prozesse, Ethics Boards. Wichtig und notwendig. Aber diese Arbeit findet oft in einem Vakuum statt, weit weg von den Menschen, für die die Systeme gebaut werden. Die Kreativwirtschaft arbeitet in diesem Vakuum nicht. Ihr habt etwas, das die Tech-Industrie mit keinem Budget kaufen kann: echte Nähe zu euren Communities. Erfahrung in partizipativem Design, in Ko-Kreation, in der Arbeit mit diversen Gruppen. Das ist kein Soft Skill. Das ist ein strategischer Vorteil.
Geht Responsible AI in der Kreativbranche überhaupt – mit so vielen offenen Fragen rund um Urheberrecht, Umwelt und die oft unerfüllte gesellschaftliche Verantwortung von Unternehmen?
Responsible AI heißt nicht, perfekte Antworten zu haben. Es heißt, die richtigen Fragen konsequent zu stellen und transparent damit umzugehen, was man noch nicht weiß. In der Kreativbranche bedeutet das: Offenlegen, wo KI eingesetzt wurde. Sich mit der Urheberrechtsfrage auseinandersetzen, statt sie zu ignorieren. Den ökologischen Fußabdruck mitdenken. Wer ernsthaft anfängt, muss nicht perfekt sein, aber konsequent.
What´s next?
Kannst du uns einen Ausblick auf deine Designprinzipien für KI mit gesellschaftlichem Nutzen geben?
Ich arbeite mit zwei Kernprinzipien und einem Appell. Prinzip eins: Entscheide, für wen du baust, bevor du entscheidest, was du baust. Der Flaschenhals bei KI war nie das Bauen. Er war immer das Entscheiden. Die allermeisten KI-Projekte beginnen mit der Technologie: „Wir haben jetzt ein LLM, was machen wir damit?” Das ist der falsche Startpunkt. Impact-Projekte beginnen mit einem Menschen. Wer hat ein Problem, das wir lösen können? Wer wird gerade nicht erreicht? Und dann, genauso wichtig: Für wen bauen wir das bewusst nicht – und ist das in Ordnung? Prinzip zwei: Miss deinen Impact, nicht nur deinen Output. Fairness in KI ist kein Problem, das man einmal löst. Es ist ein Spannungsfeld, das kontinuierlich gemanagt werden muss. Ergänzt eure Impact-Geschichten mit Impact-Daten. Und der Appell: Die Kreativwirtschaft muss Fair AI nicht von der Tech-Industrie lernen. Sie kann es besser, wenn sie den Anspruch, den sie an analoges Design stellt, auch an digitale Systeme stellt.
