Connect with us

Online Marketing & SEO

Wie du mit Google-KI Bilderbücher und 3D-Welten erstellst


Fotorealistische 3D‑Welten in Echtzeit und personalisierte Geschichten auf Knopfdruck: Mit Genie 3 eröffnet Google DeepMind neue Möglichkeiten für Bildung, kreatives Arbeiten und Robotik. Parallel ermöglicht die Gemini App das Erstellen individueller Bilderbücher in über 45 Sprachen und macht Lernen wie Erzählen neu erlebbar. KI, die Geschichten erzählt und Welten formt – direkt erlebbar.

Google erweitert sein KI‑Portfolio gleich doppelt: DeepMind stellt mit Genie 3 ein Weltmodell vor, das fotorealistische 3D‑Welten in Echtzeit erzeugt. Parallel bringt das Unternehmen in der Gemini App ein Storytelling Feature an den Start, das personalisierte, illustrierte Bilderbücher in über 45 Sprachen erstellt – auf Basis weniger Eingaben.


In Sekunden zum Erklärvideo:
Googles NotebookLM bekommt Video Overviews

Screenshot der Google‑NotebookLM‑Oberfläche mit Video Overview‑Player, Audio Overview und Studio‑Optionen für Mind Map und Reports.
© Google

Genie 3: Interaktive KI‑Welten mit Realismus und Gedächtnis

Google DeepMind hat mit Genie 3 ein neues Weltmodell vorgestellt, das interaktive 3D‑Welten in Echtzeit erzeugen kann – allein auf Basis einer Texteingabe. Die Umgebungen laufen mit 24 Bildern pro Sekunde in 720p und bleiben mehrere Minuten lang konsistent. Sogar Details wie Farben, Objektpositionen oder Landschaftsmerkmale werden gespeichert, wenn man den Blick abwendet und später zurückkehrt. In diesem kurzen offiziellen Demonstrationsvideo zeigt Google, wie Genie 3 eine interaktive 3‑Dimensional‑Welt in Echtzeit generiert.

Echtzeitdemo von Genie 3 mit fotorealistischen, begehbaren KI‑Welten, © Google DeepMind

Wie DeepMind im offiziellen Blog erklärt, können Nutzer:innen in diesen KI‑Welten frei navigieren. Sie lassen sich nicht nur betrachten, sondern auch verändern. Der Schritt gilt als Meilenstein in der Forschung zu sogenannten Weltmodellen und könnte Bildung, Robotik und kreative Produktion grundlegend verändern.

Von experimentellen Modellen zu immersiven Simulationen

Weltmodelle simulieren Umgebungen, um KI‑Systeme zu trainieren oder Szenarien für Forschung, Bildung und Unterhaltung zu erschaffen. DeepMind arbeitet seit mehr als zehn Jahren daran, von Strategiespielsimulationen bis zu Trainingsumgebungen für Roboter.

Mit den Vorgänger:innen Genie 1 und Genie 2 konnten bereits neue Szenen generiert werden. Doch die Interaktion war stark eingeschränkt: Meist ließen sich die Welten nur zehn bis 20 Sekunden lang nutzen, bevor sie instabil wurden. Laut The Verge fühlten sich diese Umgebungen eher wie eine unscharfe, sich ständig verändernde Version von Google Street View an. Genie 3 erhöht die Interaktionszeit auf mehrere Minuten, führt ein visuelles Gedächtnis von rund einer Minute ein und liefert stabilere, fotorealistische Szenen – vom Spaziergang an einem Gletschersee über die Fahrt durch ein Vulkangebiet bis zur Erkundung historischer Orte wie Venedig oder dem antiken Athen. In diesem offiziellen Clip demonstriert Google, wie Genie 3 dynamische 3D‑Welten in Echtzeit erzeugt, inklusive stabiler Umgebung, Navigation und Weltereignissen.

Dieses weitere Video visualisiert die Simulation natürlicher Welten mit realistischen Landschaften, fließendem Wasser und beweglicher Vegetation, erzeugt von Genie 3.

Ein offizieller Modellvergleich von Google zeigt zudem, dass Genie 3 die eigenen Vorgänger:innen deutlich übertrifft: Es bietet höhere Auflösung, Echtzeitreaktionen, eine längere Interaktionsdauer und erweiterte Steuerungsmöglichkeiten wie Navigation und steuerbare Weltereignisse.

Tabelle mit den Unterschieden zwischen GameNGen, Genie 2, Veo und Genie 3: Genie 3 bietet 720p‑Auflösung, generelle Einsatzbereiche, Navigation mit steuerbaren Weltereignissen, mehrere Minuten Interaktionshorizont und Echtzeitreaktionen.
Vergleich der KI‑Modelle GameNGen, Genie 2, Veo und Genie 3 in Auflösung, Steuerung und Interaktionsdauer, © Google DeepMind

Steuerbare Weltereignisse: Wetterwechsel, Charaktere, Hindernisse

Eine der bedeutendsten Neuerungen sind die aufforderungsfähigen Weltereignisse. Sie ermöglichen es, KI‑Welten während der Interaktion dynamisch anzupassen. Per Texteingabe können Nutzer:innen etwa das Wetter ändern, neue Objekte platzieren oder Charaktere hinzufügen. Das nachfolgende Beispiel zeigt eine von Genie 3 simulierte Skifahrt aus der Ich‑Perspektive. Hier kommen die Weltereignisse zum Einsatz, um die Szene in Echtzeit zu verändern, beispielsweise durch das Einfügen eines „Banana Skydrivers“ oder eines „Genie 3 Skiers“.

Standbild einer von Genie 3 simulierten Skifahrt aus der Ich‑Perspektive. Im Vordergrund Skispitzen, im Hintergrund verschneite Berglandschaft. Szene kann in Echtzeit durch aufforderungsfähige Weltereignisse verändert werden, etwa durch neue Objekte oder Charaktere.
Genie 3‑Simulation einer Skifahrt mit aufforderungsfähigen Weltereignissen, die in Echtzeit neue Objekte in die Szene einfügen, © Google DeepMind

Diese Funktionen eröffnen zahlreiche Möglichkeiten, von Unterrichtssimulationen bis zu Robotiktests. Lehrkräfte könnten historische Ereignisse immersiv erlebbar machen, Entwickler:innen könnten autonome Systeme in riskanten Umgebungen trainieren, ohne reale Gefahren einzugehen. Laut DeepMind kann diese Steuerung auch kontrafaktische Szenarien abbilden, um das Verhalten von KI‑Agents in unvorhergesehenen Situationen zu testen.

Potenzial für KI‑Agents und AGI‑Forschung

Google sieht Genie 3 als wichtigen Schritt in Richtung Artificial General Intelligence (AGI). Darunter versteht man KI‑Systeme, die nicht nur einzelne, klar abgegrenzte Aufgaben meistern, wie etwa Texte schreiben oder Bilder generieren, sondern flexibel in vielen verschiedenen Bereichen denken, lernen und handeln können, ähnlich wie ein Mensch. Weltmodelle wie Genie 3 sind dafür wichtig, weil sie KI‑Agents in einer simulierten Welt trainieren können: Sie setzen sich Ziele, verfolgen diese über längere Zeit und passen ihr Verhalten an, wenn sich die Bedingungen ändern. In Tests mit dem eigenen SIMA‑Agent – einem generalistischen KI‑Agent, der Anweisungen in verschiedenen virtuellen 3D‑Umgebungen ausführen kann – konnte DeepMind zeigen, dass durch die längere Interaktion auch komplexere Aufgaben erfolgreich abgeschlossen wurden.

Auch Kreative könnten profitieren. Wer eine Filmszene, eine Gaming‑Kulisse oder ein Kunstprojekt plant, kann mit Genie 3 innerhalb von Sekunden detailgetreue oder stilisierte Welten generieren – ohne klassische 3D‑Software. Die Möglichkeiten reichen von realistischen Naturaufnahmen bis zu fantasievollen Landschaften mit schwebenden Bergen oder biolumineszenten Pflanzen.

Grenzen, kontrollierter Roll‑out und Ausblick

Trotz der Fortschritte hat Genie 3 klare Einschränkungen. Die Interaktionsdauer bleibt auf einige Minuten begrenzt. Komplexe Mehrspieler:inneninteraktionen sind technisch schwierig umzusetzen. Reale Orte werden nicht millimetergenau rekonstruiert. Lesbarer Text in den Welten gelingt nur, wenn er explizit vorgegeben wird.

Deshalb wird Genie 3 vorerst als eingeschränkte Forschungsvorschau veröffentlicht. Zugang erhält nur eine kleine Gruppe von Wissenschaftler:innen und Entwickler:innen, um mögliche Risiken wie Missbrauch oder Fehlinformationen frühzeitig zu erkennen. Google DeepMind betont, dass das Modell von Anfang an verantwortungsbewusst entwickelt wurde und eng mit dem hauseigenen Team für „Responsible Innovation“ abgestimmt ist.

Langfristig ist der Weg zu breiteren Anwendungen jedoch vorgezeichnet. Google sieht Potenzial in Bildung, Robotik, kreativer Medienproduktion und virtuellen Trainingsumgebungen. Während Genie 3 noch im Forschungsstadium bleibt, ist die Bilderbuchfunktion bei Gemini bereits weltweit verfügbar.


Der Google-Dino steht auf:
Mit Veo 3 und Flow Bilder als Video animieren und sprechen lassen

Interace für Veo 3 mit Foto-zu-Video-Prompt, schwarzer Hintergrund
© Google via Canva

Gemini App: Illustrierte Bilderbücher mit persönlicher Note

Parallel zu Genie 3 erweitert Google auch die Gemini App um ein Storytelling Feature. Wie im offiziellen Blog erklärt, können Nutzer:innen personalisierte, illustrierte Bilderbücher erstellen, die zusätzlich eine Audio Vorlesefunktion enthalten. Dazu genügt eine kurze Beschreibung der gewünschten Geschichte. Gemini erstellt daraus ein zehnseitiges Buch mit passender Illustration in einem frei wählbaren Stil, von Pixelart und Comic über Knetanimation bis hin zu Malbuchoptik. Auf Wunsch kann die KI sich auch von hochgeladenen Fotos oder Kinderzeichnungen inspirieren lassen.

Google nennt Beispiele wie eine kindgerechte Geschichte über das Sonnensystem für Fünfjährige oder eine Lektion über Freundlichkeit zwischen Geschwistern, bei der die Hauptfigur nach Wunsch ein Elefant oder ein anderes Lieblingstier ist. Auch Urlaubsfotos lassen sich so in personalisierte Abenteuer verwandeln. Im offiziellen Clip demonstriert Google die Erstellung eines personalisierten Bilderbuchs in der Gemini App. Gezeigt wird der gesamte Ablauf von der Texteingabe bis zur fertigen illustrierten Geschichte mit Audio Vorlesefunktion.

Demonstration der Storybook -Funktion in der Gemini App zur Erstellung personalisierter illustrierter Geschichten, © Google

Das Feature unterstützt mehr als 45 Sprachen und ist seit dem 5. August 2025 weltweit in der Gemini App verfügbar – sowohl auf Desktop als auch mobil. Es richtet sich in erster Linie an Eltern, Pädagog:innen und kreative Anwender:innen, die individuell gestaltete Geschichten für Kinder oder Bildungsprojekte erstellen möchten. Auch für Marketer eröffnet sich Potenzial, etwa um eine kurze Markengeschichte zu erzählen. Gleiches gilt für HR‑Teams, die das Tool im Recruiting‑Kontext nutzen könnten. Die Möglichkeit, eigene Visuals hochzuladen, birgt allerdings auch ein gewisses Risiko für Plagiate. Wer das Feature testen möchte, findet das Storybook Tool unter gemini.google.com/gem/storybook.

KI, die Geschichten schreibt und Welten baut

Mit Genie 3 und der neuen Bilderbuchfunktion in der Gemini App zeigt Google, wie vielseitig generative KI inzwischen geworden ist. Auf der einen Seite steht ein Forschungs-Tool, das begehbare, realistische Welten erschafft und so eine völlig neue Dimension für Lernen, Training und kreatives Arbeiten eröffnet. Auf der anderen Seite gibt es ein sofort nutzbares Feature, das aus einer Idee in Minuten ein personalisiertes Bilderbuch entstehen lässt.

Beide Entwicklungen machen deutlich: KI wird greifbarer und kreativer und sie rückt näher an unseren Alltag. Ob als Werkzeug für Pädagog:innen, Spielwiese für Kreative oder als Lernplattform für zukünftige KI‑Agents, das Zusammenspiel von Genie 3 und der Gemini App zeigt das Potenzial, das noch vor uns liegt. Heute sind es Forschungsvorschau und frische App‑Funktion, morgen vielleicht feste Bestandteile unserer digitalen Werkzeuge.





Source link

Online Marketing & SEO

Antithese zu American Eagle: Beyoncé und Levi’s liefern Werbekult vom Allerfeinsten


Beyoncé wirbt wieder für Levi’s – und das Timing könnte nach dem American-Eagle-Skandal besser nicht sein

Während die Debatte rund um die politischen Signale der American-Eagle-Kampagne mit Sydney Sweeney unverändert anhält, hat Levi’s das letzte Kapitel seiner „Reimagined“-Kampagne mit Superstar Beyoncé gestartet. Der von TBWA/Chiat/Day kreierte 90-Sekünder hat einmal mehr Kultpotenzial.
Das neue Werbevideo „The Denim Cowboy“ liefert außer dem Anfang und dem Ende keine grundsätzlich neuen Bilder, kombiniert aber die schon erschienenen drei Spots mit neuem Schnittmaterial zu einer kompletten Geschichte. Beyoncé ist erneut zu sehen, wie sie in ihrer Unterwäsche im Waschsalon sitzt, wie sie im Diner nach der Arbeit ihre Jeans-Jacke aus dem Kühlschrank holt und wie sie am Abend in der Bar beim Pool-Billard die Jeans ihres Gegners gewinnt.
Doch die bekannten Bilder dürften jetzt noch einmal eine deutlich höhere Aufmerksamkeit erhalten – und zwar durch den Vergleich mit der American-Eagle-Kampagne, die in Social Media unter anderem auch dafür kritisiert wurde, nur eine einzige Definition von weiblicher Schönheit zu propagieren. Bisher beschränkt sich die Online-Diskussion zum neuen Werbeauftritt des Musikstars allerdings vor allem auf die Frage, inwieweit in dem Video versteckte Hinweise zu Beyoncés neuem Album versteckt sind.



Source link

Weiterlesen

Online Marketing & SEO

Anthropic pusht Coding‑KI: Das kann Claude Opus 4.1


Wer tiefer in die aktuellen Anthropic-Entwicklungen einsteigen möchte, findet bei OnlineMarketing.de auch einen Artikel, der die vorherigen Versionen Claude Opus 4 und Sonnet 4 sowie deren dessen Fähigkeiten im Detail beleuchtet.


Das weltbeste Coding Model?
Claude Opus 4 und Sonnet 4 sind da

Claude Opus und Sonnet 4, orangefarbener Hintergrund, Skizze eines Menschen mit Hand, grob, weiße Formen in der Hand
© Anthropic via Canva

State-of-the-Art im Coding – vor allem bei komplexen Projekten

Wie Anthropic in seiner Modellankündigung mitteilt, erreicht Opus 4.1 im SWE-bench Verified-Test 74,5 Prozent Genauigkeit. Das sind zwei Prozentpunkte mehr als bei der vorherigen Version Opus 4 und über zwölf Prozentpunkte mehr als bei Sonnet 3.7.

Claude Opus 4.1 steigert SWE-bench-Leistung, © Anthropic

Dieser Test prüft, wie gut ein Modell echte Programmierfehler finden und beheben kann. Vereinfacht gesagt: Je höher der Balken, desto öfter löst das Modell die Aufgabe richtig. GitHub hebt hervor, dass Opus 4.1 große Code-Basen gezielt anpasst, ohne unnötige Änderungen vorzunehmen oder neue Fehler einzuführen – ein klarer Vorteil für wiederkehrende Debugging-Aufgaben. Auch die Rakuten Group lobt die Fähigkeit, Fehlerstellen in umfangreichen Projekten punktgenau zu lokalisieren.

Mehr als nur eine Coding-Assistenz

Die Fortschritte beschränken sich nicht auf Programmieraufgaben. In Benchmarks zu logischem Denken, Multilingualität oder visuellem Verständnis landet Opus 4.1 regelmäßig unter den Top-Ergebnissen. Im GPQA-Diamond-Test für komplexes Schlussfolgern erreicht das Modell 80,9 Prozent, im multilingualen MMLU sogar 89,5 Prozent. Im praxisnahen TAU-bench für den Einsatz von Tools im Einzelhandel erzielt es 82,4 Prozent, in der Airline-Kategorie solide 56 Prozent. Die Zahlen belegen: Opus 4.1 kann nicht nur Code, sondern auch Datenanalyse und Recherche auf hohem Niveau.

Claude Opus 4.1 im Benchmark-Vergleich, © Anthropic

Wie das Bild zeigt, schneidet Claude Opus 4.1 in vielen Kategorien – von Programmieren über logisches Denken bis zu Sprachaufgaben – besser ab als frühere Claude‑Versionen und oft auch als Konkurrenzmodelle von OpenAI und Google. Auch Unternehmen wie Windsurf berichten von einem messbaren Sprung im Junior-Entwickler:innen-Benchmark, der einem Generationswechsel entspricht. Das bedeutet: weniger Zeit für Bugfixing, mehr Zeit für Feature-Entwicklung und Innovation.

Verfügbarkeit

Claude Opus 4.1 ist ab sofort für zahlende Nutzer:innen verfügbar – in Claude Code, über die API, Amazon Bedrock und Google Cloud Vertex AI. Die Preise bleiben identisch zu Opus 4. Anthropic kündigt zudem an, in den kommenden Wochen größere Modell-Updates zu veröffentlichen.

Claude Opus 4.1: Der nächste Schritt für KI‑gestützte Software-Entwicklung

Mit Opus 4.1 zeigt Anthropic, dass KI-gestützte Software-Entwicklung immer stärker zum Standard werden könnte. Die Verbesserungen liegen vor allem in Präzision und kontextbewusstem Arbeiten. Für Entwickler:innen, die komplexe Projekte effizienter umsetzen wollen, ist ein Upgrade daher naheliegend. Doch die Konkurrenz schläft nicht: Auch OpenAI hat vor einiger Zeit mit Codex einen neuen Coding-Agent vorgestellt. Wie dieser funktioniert, beleuchtet der nachfolgend verlinkte Artikel.


ChatGPT hat einen neuen Agent:
Was Codex kann

OpenAI Codex auf Screen, Code-Elemente im Hintergrund vor bunter Fläche, Text und Coding auf weißem Screen-Feld im Vordergrund
© OpenAI





Source link

Weiterlesen

Online Marketing & SEO

Nach über 30 Jahren bei BMW: Peter Kronschnabl ist neuer Managing Director von Genesis Motor Europe


Peter Kronschnabl ist neuer Managing Director von Genesis Motor Europe. Er kommt von der BMW Group

Genesis Motor Europe verpflichtet einen neuen Top-Manager. Seit Beginn dieser Woche ist Peter Kronschnabl neuer Managing Director bei der Marke aus dem Hyundai-Konzern. Er war über 30 Jahre für BMW tätig.

Peter Kronschnabl wechselt für die neue Aufgabe Marke und Stadt. Er wird die Geschäfte von Genesis vom europäischen Hauptsitz in Frankf

Diesen Artikel gratis weiterlesen!
Jetzt kostenfrei registrieren.

Die Registrierung beinhaltet
das HORIZONT Newsletterpaket.

Sie sind bereits registriert?

Der Nutzung Ihrer Daten können Sie jederzeit widersprechen. Weitere Hinweise finden Sie unter Datenschutz.



Source link

Weiterlesen

Beliebt