Connect with us

UX/UI & Webdesign

Mit dem neuen ChatGPT 2 Image Update können nicht nur Bilder generiert, sondern auch Texte geschrieben werden › PAGE online


Das Modell kann komplexe visuelle Aufgaben lösen und deutlich präziser auf detaillierte Anweisungen reagieren. Und kann mittlerweile auch menschliche Handschrift generieren.

Für mich, Jana, war Handschrift immer etwas zutiefst Menschliches. Sie ist unperfekt, individuell und manchmal kaum lesbar, aber genau darin liegt ihr Wert. Jeder, den ich kenne, hat eine eigene Handschrift, und genau das macht sie so besonders. Ich freue mich immer über selbstgeschriebene Notizen oder Postkarten von meinen Freund:innen, weil sich heutzutage so wenige Menschen die Zeit dafür nehmen.

Mit dem neuen ChatGPT 2 Image Update können nicht nur Bilder generiert, sondern auch Texte geschrieben werden › PAGE online
Der Text ist ohne jegliches spezifisches Prompting entstanden, lediglich basierend auf dem Postkarten-Kontext aus meinem Prompt. Bild: Jana Reske

Vielleicht ist es genau deshalb so irritierend, zu sehen, wie präzise KI mittlerweile Handschrift imitieren kann. Was ich immer als einzigartig und besonders angesehen habe, ist plötzlich generierbar. Mit dem neuen Image-Update von ChatGPT verschiebt sich in dieser Hinsicht etwas Grundlegendes. Text ist nicht mehr nur Inhalt innerhalb eines Bildes, sondern wird selbst zum gestaltbaren Material. Ob handschriftliche Notizen, Editorial-Layouts, UI-Elemente oder typografische Kompositionen. Damit stellt sich zwangsläufig die Frage: Was passiert mit dem Gefühl von Echtheit, wenn selbst unsere Handschrift kein verlässlicher Marker für das Menschliche mehr ist?

Was das neue Image-Modell tatsächlich kann

Das Modell setzt komplexe visuelle Ideen deutlich präziser um und hält sich zuverlässig an Details wie Typografie, Layout oder stilistische Vorgaben. Statt Ergebnissen, die nur ungefähr passen, entstehen Designs, die sich direkt weiterverwenden lassen.

Der Text ist jetzt Teil der Gestaltung. Ganze Textstrukturen wirken im Kontext des Bildes sinnvoll und überraschend stimmig, statt wie zufällige Platzhalter. Das Modell wird auch sprachlich flexibler und funktioniert inzwischen weit über englische Inhalte hinaus zuverlässig. Dadurch wird Sprache selbst zum gestaltbaren Element in internationalen Kontexten.

Bilder lassen sich direkt in verschiedenen Formaten und Seitenverhältnissen generieren, ohne dass nachträgliche Anpassungen erforderlich sind. Dadurch sind die Ergebnisse deutlich anschlussfähiger für reale Anwendungen und Plattformen.

In Kombination mit den Reasoning-Fähigkeiten wird das Modell zu einem aktiven Teil des kreativen Prozesses. Es strukturiert Inhalte, denkt visuelle Lösungen mit und kann sogar mehrere zusammenhängende Bilder in einem Schritt erzeugen. Besonders im Zusammenspiel mit Codex verschiebt sich die Bildgenerierung in Richtung eines integrierten Workflows. Anstelle einzelner Assets entstehen komplette Kompositionen, die sich direkt weiterentwickeln und in Produkte integrieren lassen.

Newsletter, Landingpage, Magazinartikel – und erstaunlich wenig Prompt

Für meinen Test habe ich bewusst mit sehr offenen Prompts gearbeitet. Anstatt konkrete Inhalte vorzugeben, habe ich lediglich eine visuelle Richtung definiert: eine monochrome rote Farbwelt, kombiniert mit Tomaten in verschiedenen Formen und Farben, die wie Modeobjekte inszeniert sind und das Ganze inspiriert von High-Fashion-Kampagnen.

 

Bild: Jana Reske

Ich habe keine Texte, keine Headlines und keine genauen Inhalte vorgegeben. Und trotzdem sind Ergebnisse entstanden, die auf den ersten Blick erstmal wie fertige Designs wirken. Der generierte Newsletter sieht aus wie ein tatsächliches Editorial-Mailing. Die Landingpage funktioniert wie eine reale Website: mit klarer Hierarchie, nachvollziehbaren Textblöcken und einer sinnvollen Struktur.

Natürlich sind die Inhalte nicht tiefgehend, aber sie sind nicht zufällig entstanden.

Die Texte wirken konsistent, thematisch passend und überraschend stimmig im Kontext des Designs. Was hier passiert, ist mehr als reine Bildgenerierung. Das neue Modell generiert eigenständig Inhalte für kreative Konzepte und trifft dabei Entscheidungen, die man sonst aktiv treffen müsste.

Noch deutlicher zeigt sich das bei der generierten Magazinseite. Auf den ersten Blick wirkt das generierte Doppelseiten-Editorial überraschend überzeugend: Die Bildsprache ist klar, es lässt sich eine gewisse typografische Hierarchie erkennen, und auch das zugrunde liegende visuelle Konzept (die Verbindung von Fashion und Tomaten) wird kreativ aufgegriffen, etwa indem einzelne Elemente wie Accessoires gedacht und inszeniert werden.

Auch im Magazinartikel hat ChatGPT Mode und Tomaten miteinander verbunden und daraus etwas Neues gemacht. Bild: Jana Reske

Auffällig ist dabei erneut, dass die Texte nicht aktiv vorgegeben wurden und sich dennoch in das Gesamtbild einfügen. Aber je länger ich diese generierten Entwürfe anschaue, desto mehr Störfaktoren kommen bei mir auf. Zwar ist das Ergebnis im ersten Schritt visuell überzeugend genug, um als funktionierendes Editorial durchzugehen, es wirkt aber dann doch nicht ganz stimmig.

Fazit: Zwischen komplexen Designs und Durchschnitt

Sowohl der generierte Newsletter als auch die Landingpage oder das Editorial wirken auf den ersten Blick erstaunlich stimmig, da sie vertraute visuelle Muster aufgreifen und diese reproduzieren. Dadurch entsteht eine Klarheit und Struktur, die sofort als »richtig« wahrgenommen wird.

Gleichzeitig liegt darin auch ihre Schwäche. Je länger man sich nämlich mit den Ergebnissen beschäftigt, desto deutlicher wird, dass diese Stimmigkeit oft mit einer gewissen Beliebigkeit einhergeht. Die Entwürfe wirken zwar solide, aber selten wirklich eigenständig. Sie wirken eher wie ein Durchschnitt dessen, was man aus unzähligen bestehenden Designs bereits kennt.

Das ist wenig überraschend, sondern eine direkte Konsequenz davon, wie solche Systeme funktionieren. Die generierten Bilder und Inhalte basieren letztlich auf Mustern aus Trainingsdaten, also einer Vielzahl existierender Magazine, Websites und visueller Formate. Aus diesen Daten wird dann die statistisch plausibelste Lösung generiert. Genau deshalb fühlen sich die Ergebnisse auf den ersten Blick so »richtig« an, aber deshalb bleiben sie oft im Durchschnitt.

Für mich liegt darin aber auch eine klare Verschiebung der Rolle von Designer:innen. Wenn KI zunehmend in der Lage ist, solche plausiblen und strukturell funktionierenden Entwürfe zu generieren, dann wird die eigentliche gestalterische Leistung weniger darin bestehen, etwas von Grund auf zu produzieren, sondern vielmehr darin, auszuwählen, zu hinterfragen und gezielt zu verfeinern.

Kuration wird somit zu einer zentralen Kompetenz.



Source link

UX/UI & Webdesign

DWX & Infinite AI Conference: Ein Muss für die Tech-Community › PAGE online


Die DWX – Developer World Experience 2026 ist einer der spannendsten Veranstaltungen des Jahres, weil hier Product Owner, Developer, Designer:innen und Produktmanager:innen aufeinandertreffen. Ohne langweilige Buzzword-Diskutiererei, dafür mit echten Lösungsansätzen zum Thema Product Ownership!

DWX & Infinite AI Conference: Ein Muss für die Tech-Community › PAGE onlineBild: © Foto: Developer World (i.A. Sofija De Mitri | Patrizio De Mitri | Event Wave)

Designer:innen und UX-Profis verhandeln in agilen Teams unermüdlich über Scope, Prioritäten und die ewige Lücke zwischen technischer Machbarkeit und echtem Nutzer:innenbedarf – das kommt euch bekannt vor, aber die perfekten Lösungen sind bisher nicht gefunden?

Das ist kein Wunder, denn auf den meisten Design-Konferenzen erhält das Thema »Product Ownership« wenig Aufmerksamkeit. Stakeholder aus den Bereichen Design, UX, Entwicklung und Produktmanagement verstehen die andere Sprache häufig nicht. Das lässt sich aber lösen, wenn man sich mit der jeweils anderen Seite näher auseinandersetzt – und alle an einen Tisch bringt.

Product Ownership als Track

Auf der DWX – Developer World Experience ist Product Ownership ein eigenständiger Track — kuratiert von Ina Einemann, Agile Coach mit jahrelanger Konferenzerfahrung. Die Veranstaltung findet vom 29. Juni bis 2. Juli 2026 in Mannheim statt und bietet endlich auch Product Ownern eine Bühne. Hier bleibt aber niemand unter sich, es wird auch nicht einfach über Buzzwords diskutiert.

Die DWX bringt die unterschiedlichen Expertisen von Product Ownership & Management tiefgründig zusammen. Mit dabei sind über 2.500 Entwickler:innen, Architekt:innen, DevOps-Profis und Produktverantwortliche aus der DACH-Tech-Community mit 27 kuratierten Tracks sowie 150+ Expert:innen.

Infinite AI Conference: Fokus auf systematische KI-Integration

Zeitgleich findet die Infinite AI Conference über zwei Tage vom 30. Juni bis zum 1. Juli in derselben Location statt. Wie der Name verrät, geht es hier um Künstliche Intelligenz und wie KI-Tools den gesamten Software-Lifecycle von Requirements bis hin zu Deployment verändern. Für Produktdesigner:innen und UX-Leads wird die Auseinandersetzung damit immer heißer, sogar heißer als das nächste Figma-Update.

Du lernst auf der Konferenz, welche Produktentscheidungen durch KI machbar werden — und welche Anforderungen Teams an die Entwicklung stellen können, wenn KI tief im Prozess verankert ist.

Dafür kommen über 2.500 Teilnehmende aus der DACH-Tech-Community nach Mannheim. Es wird 170+ Sessions, Workshops und Keynotes von Praktiker:innen geben. On top: die Casino Night, die seit Jahren zum festen Networking-Ritual der Szene gehört.

Warum brauchen agile Teams Product Ownership?

Der eigenständige Track stellt genau die Fragen, die in vielen Backlogs zu häufig still vor sich hin brüten: Wer entscheidet eigentlich, was gebaut wird? Wie lassen sich die Anforderungen der Kund:innen in echte Lösungen übersetzen? Warum scheitert Stakeholder-Management so oft nicht an Kommunikation, sondern am System dahinter? Und was haben Legacy-Software und Unternehmenskultur wirklich miteinander zu tun? Und wer trägt die Verantwortung, wenn es am Ende doch niemand braucht? Von »AI Customer Clones« über realistische Projekteinschätzungen bis hin zur Rolle von Entwickler:innen als aktive Produktgestalter:innen – die DWX-Konferenz möchte dazu beitragen, dass das Verständnis zwischen Product und Engineering neu justiert und besser wird.

Agilität: zeitgemäß oder abgehängt?

Passend dazu räumt der Agile-Track mit der üblichen Scrum-Liturgie auf. Statt der x-ten Wiederholung von Lehrbuch-Methoden werfen die Speaker einen nüchternen Blick auf die Realität: Warum scheitern Agile-Transformationen trotz voller Methodenkoffer? Was bedeutet Agilität im Zeitalter von KI? Und ist antifragil vielleicht das ehrlichere Konzept für das, was Teams wirklich brauchen?

Datum: 29. Juni – 2. Juli 2026 (Infinite AI: 30. Juni – 1. Juli)

Ort: m:con Congress Center Rosengarten, Mannheim

Die DWX-Topics im Überblick 

Tickets: DWX—Developer World Experience  // Infinite AI Conference

Der Kauf von Kombitickets ist möglich.

Mit dem Code PAGE15 erhältst du 15 % Rabatt auf die Tickets für dich und deine Kolleg:innen.

Einblick ins Programm

Wie eine technologiegetriebene Zukunft die Spielregeln für Produkt-Teams neu setzt:

  • Software im Zeitraffer: KI, die Beschleunigung von Delivery — und die Konsequenzen für den SDLC
  • KI und Qualität: Alles muss sich ändern, damit alles gleich bleibt
  • Prompts statt PRD: Wie AI die Requirements-Praxis umkrempelt
  • Wie sich Softwarearchitekturen, Patterns und Tool Chains durch KI rasant neu formieren
  • Wie sich die Softwareentwicklung in einer KI-gesteuerten Zukunft verändert
  • Das letzte Coding-Jahr? Der Einfluss von Claude Code auf die Softwareentwicklung
  • AIOps: Maintenance von Softwaresystemen durch KI
  • Die KI als Copilot fürs Codetesten: Hype, Hope oder Gamechanger?
  • KI im Systemtest
  • Wie KI den Software Delivery Lifecycle neu definiert

Das könnte dich auch interessieren



Source link

Weiterlesen

UX/UI & Webdesign

Ausprobiert: Wie sieht KI Queerness und LGBTQIA+? › PAGE online


KI-Bilder wirken objektiv, sind aber stark von Trainingsdaten abhängig. Deshalb fragt Jana Reske kritisch, welche (queeren) Identitäten sichtbar werden – und welche nicht.

Ausprobiert: Wie sieht KI Queerness und LGBTQIA+? › PAGE onlineBild: Jana ReskeMittlerweile sehen wir fast täglich KI-generierte Bilder, egal ob auf Social Media, in der Werbung, auf Plakaten oder in irgendwelchen WhatsApp-Gruppen. Besonders seit den neuen Updates von Google Gemini und ChatGPT ist alles sehr viel einfacher zugänglich und zu benutzen geworden. Aber gerade, wenn KI-generierte Bilder überall sind, müssen wir genauer hinschauen und hinterfragen, was oder wer auf diesen Bildern gezeigt wird und welche Personengruppen oder Minderheiten möglicherweise ausgeblendet werden. Sichtbarkeit und Repräsentation erreichen gerade ein ganz anderes Level und sind so wichtig wie nie zuvor.

Gibt es mehr Diversität bei MidJourney, DALL-E oder Google Gemini?

Wie wir mittlerweile wissen, basiert KI-Output auf Trainingsdaten aus der Vergangenheit. Gerade deswegen müssen wir aufpassen, dass wir keine alten Stereotypen oder Ungleichheiten verstärken. Denn diese Systeme zeigen nicht die Welt, wie sie ist, sondern wie sie statistisch am wahrscheinlichsten aussieht. Als Medienwissenschaftlerin und KI-Expertin wollte ich deshalb wissen, wie diese Tools queere Paare und Personen darstellen. Ich habe untersucht, wie die meistgenutzten KI-Tools Mid Journey, DALL-E und Google Gemini auf entsprechende Prompts reagieren.

Bei einem ähnlichen Test letztes Jahr zeigte sich ein klares Muster: KI generierte fast ausschließlich weiße und sehr ähnlich aussehende Paare. Heute wirkt das Bild etwas differenzierter.

Ein Vergleich von MidJourney Version 5 und Version 7 zeigt, dass sich das Modell mittlerweile zwar an Diversität versucht, der House Style des Modells aber auch sehr deutlich bleibt. Bild: Jana Reske

Die Tests zeigen, dass die großen Modelle sichtbar bemüht sind, ethnische Vielfalt und unterschiedliche Körperformen abzubilden. Endlich erscheinen mehr nicht-weiße Paare, mehr Variationen und  mehr Diversität im Look. Dabei fiel auf, dass die KI fast ausschließlich Paare erzeugte, die als weiblich gelesen werden. Schwule Paare tauchten dagegen deutlich seltener auf und teilweise erst nach gezielter Präzisierung des Prompts. Dabei tendieren alle drei Systeme in dieselbe Richtung, selbst wenn die Diversität also oberflächlich verbessert wurde, bleibt sie im Detail doch eingeschränkt.

Einige Beispielbilder der verschiedenen KI-Modelle zeigen auch hier deutliche House Styles, und die Ähnlichkeit der Ergebnisse wird offensichtlich. Bild: Jana Reske

Lassen sich der Output der KI und die Bilder durch die Trainingsdaten erklären?

Die Testergebnisse deuten darauf hin, dass im Trainingsmaterial wesentlich mehr Bildmaterial von weiblich gelesenen queeren Paaren als von männlich gelesenen enthalten ist. Die Gründe dafür liegen weniger im Algorithmus als in der Kultur, aus der die Trainingsdaten stammen. Weibliche Körper – und insbesondere weiblich gelesene Intimität – sind in der Mediengeschichte überrepräsentiert, da sie häufig sexualisiert werden. Diese Überrepräsentation schlägt sich in Bilddatenbanken, Stockfotoarchiven, Werbekampagnen, Social Media und visuellen Trends nieder.

Entsprechend stehen KI-Modellen statistisch mehr weibliche queere Bilder zur Verfügung als von schwulen Paaren. Die Forschung und kulturkritische Analyse zeigen seit Jahren, dass lesbische oder bisexuelle Frauen in den Medien häufiger dargestellt werden, da sie für ein heterosexuelles Publikum vermeintlich attraktiver oder »harmloser« erscheinen. Diesen Überschuss an bestimmten Gruppen im visuellen Bestand reproduziert dann wiederum generative KI, denn sie verstärkt unabsichtlich Muster, die in den Trainingsdaten erkennbar sind. So entsteht Bias in der Bildgenerierung. Der Vergleich der generierten Beispielbilder macht dies besonders deutlich. Selbst wenn die Hauttöne divers sind, bleibt die Vorstellung von »queer couples« algorithmisch erstaunlich homogen und überraschend geschlechtsspezifisch eingeschränkt.

Wenn wir KI-Tools zur Bildgenerierung nutzen, sollten wir uns daher fragen: Wer wird sichtbar und wer bleibt unsichtbar, selbst wenn wir nach ihnen fragen?

Was können wir im Umgang mit KI gegen diese Stereotypen tun?

Solange KI-Modelle visuelle »Durchschnittswelten« erzeugen, liegt die Verantwortung bei uns – denjenigen, die Bilder auswählen, kuratieren, prüfen und kontextualisieren. Heute ist die wichtigste Kompetenz nicht mehr nur das Prompting, sondern ein bewusstes und explizites Gegensteuern. Diversität darf nicht dem Zufall überlassen werden, sondern muss aktiv eingefordert werden. Das bedeutet beispielsweise, nicht bei »queer couple« stehen zu bleiben, sondern im Prompt präziser zu werden, wer genau dargestellt werden soll. Ein gutes Beispiel dafür ist eine Kampagne von dem Unternehmen Dove, die eine Guideline zum diversen Prompten erstellt haben. Es ist wichtig, dass wir KI-Output und Bilder nicht als Endprodukt sehen, sondern unser Rolle als Kreative auch darin verstehen diese Bilder zu hinterfragen und anzupassen.

Das könnte dich auch interessieren



Source link

Weiterlesen

UX/UI & Webdesign

»The Model Generates. I Direct.« › PAGE online


Evita, AI creative director and founder of Studio Witzenhausen, on specificity as a core skill, the limits of photorealism, and why design fundamentals are non-negotiable.

»The Model Generates. I Direct.« › PAGE onlineEvita is an AI creative director and the founder of Studio Witzenhausen, a creative studio specialising in high-end AI-generated visuals for fashion and lifestyle brands. With a background in graphic design and photography, she brings a trained eye for light, composition, and storytelling to every project, directing AI tools the way she once directed a shoot. Where traditional production ends, her process begins. Alongside her studio work, she runs HAUS of AI, an education brand where she teaches creatives how to prompt, direct, and produce campaign-quality visuals using AI. She is based in Amsterdam.

Background & Craft

Was there a specific moment that shifted things for you?

It was gradual and then suddenly very fast. I had a background in graphic design and photography, so I already understood light, composition, and how images are made. When I first experimented with AI tools, my immediate frustration was that the results looked nothing like how a photographer actually thinks about a scene. The shift happened when I stopped using the tools like a search engine and started directing them the way I’d direct a photo shoot.

What did those six months of experimenting teach you that most people haven’t figured out yet?

That specificity is everything. Most people write vague prompts and hope for the best. What I learned is that AI responds to the same language a photographer understands, light direction, lens choice, colour temperature, fabric texture etc. The other big thing: reference images carry more information than words ever will. Once I built a structured workflow around that the results became consistent and actually usable for client work.

Where’s the line between creative director and prompt writer?

A prompt writer translates an idea into text. A creative director starts with intention, what feeling should this image create, what story does it tell, who is it for, what should it not say. Coming from photography specifically, I know what a real image costs, the decisions made on set, the light you wait for, the moment you catch. AI doesn’t have that instinct. It generates. I direct. That editorial judgment, knowing when to stop, when to push, when the image is actually wrong even though it looks right, that’s the part that’s mine.

The Process

Walk me through what happens before you hit generate.

I start with the brief, what the brand needs, what emotion it should carry, what references exist. Then I build a visual direction: mood, colour palette, light quality, model type, setting. I think about what the image needs to do before I think about what it needs to look like. Only once I have that locked down do I start building prompts. By the time I hit generate, I already know what I’m looking for.

Favourite tool right now, and a prompt example?

Nano Banana 2 is my current favourite for fashion and model work, the realism it produces is genuinely impressive and it handles fabric, skin, and light in a way other tools still struggle with. A prompt structure that consistently works for me follows this logic: subject → form → material → colour → detail → setting → lighting → camera specs → mood keywords.

How do you stay current without drowning in the noise?

When a new tool drops or a significant update comes out, I test it myself. If it improves my workflow, it stays. If it doesn’t, it goes. I’m not interested in collecting tools. I’m interested in what actually produces better results for clients. Most of what gets hyped on social media doesn’t survive contact with a real brief.

Photorealism & Bias

How do you navigate AI’s tendency to default to normative beauty standards?

AI defaults to perfect, perfect skin, perfect symmetry, perfect proportions. That’s actually the problem. Perfect doesn’t feel real, and real is what makes an image land. So I deliberately direct imperfection into every image, a natural skin texture, an asymmetric feature, a body that looks lived in. The same way a photographer doesn’t over-retouch, I don’t let the tool over-perfect. That’s where the human direction matters most. If you’re not making active choices, the tool is making them for you and its default is always going to be the same narrow, polished ideal.

Have tools resisted your direction and kept defaulting anyway?

Yes, constantly in the early days, less so now as the tools have improved. When it happened, I’d approach it like a correction conversation: isolate the element that was wrong, be specific about what needed to change, and rebuild from that locked baseline. The mistake most people make is rewriting the whole prompt when one element is off. You fix one thing at a time. It’s the same logic as giving feedback on set.

Where’s the line between photorealism and deception? Do you label your work?

Yes, I label everything. Always. That’s non-negotiable for me, ethically and commercially. But I also think the deception conversation is worth reframing. When photography shifted from analogue to digital, nobody called a digital photo deceptive. AI is another shift in tooling, a different way to direct and create an image. The medium changed, the craft didn’t disappear.

That said, transparency matters. My clients know exactly what they’re getting, and I think audiences deserve to know too. So I label it, not because I’m ashamed of the medium, but because honesty about how an image is made is just part of doing this with integrity.

The Industry & Bigger Picture

Is AI production actually compatible with purpose-led brand ethics?

Honestly, it’s a tension I sit with and I don’t think there’s a clean answer. Purpose-led brands care about how things are made, who’s in the room, where the budget goes, what the production footprint looks like. Those are real questions.

And yes, AI has a footprint too. Running these models consumes energy and water. I’m not going to pretend otherwise or use sustainability as a one-sided argument for AI production.

What I will say is that flying a crew to a location, booking models, shipping product, running a full production, that also has a significant footprint. Neither is innocent. The honest conversation is about trade-offs, not about one being categorically better than the other.

What AI does offer smaller brands is access to campaign-quality visuals they simply couldn’t afford to produce otherwise. That’s a different kind of value. And whether you’re working with AI or a traditional crew, the same questions apply: who is represented, what does this imagery say, are we making conscious choices? That’s not something the tool figures out. That’s creative direction.

What would you tell a young graphic designer today — dive into AI early, or master the craft first?

Master the craft first, definitely. My graphic design and photography background is the reason I can do this work well. Understanding light before you prompt about light. Understanding what makes a composition feel alive before you ask AI to build one. The foundation isn’t optional; it’s what separates someone who directs AI from someone who just generates with it. AI is a multiplier. It amplifies whatever visual intelligence you already have. Learn to see first. Then learn to direct.



Source link

Weiterlesen

Beliebt