Online Marketing & SEO
So pitcht Google jetzt AI Mode Ads für den großen Roll-out
Google möchte AI Mode Ads bald umfassende ausrollen und bewirbt die großen Vorteile für Advertiser. Dabei sollen sogar neue Kund:innenverbindungen entstehen. Eine Grafik zeigt, wie die Ads performen können.
Der AI Mode von Google soll zur kraftvollsten Search Experience im KI-Zeitalter avancieren. Und das Unternehmen treibt die Ausweitung der hochfunktionalen und konversationellen KI-Lösung voran. Erst kürzlich wurde der AI Mode umfassend direkt in die Suche integriert, sogar in Europa – zunächst aber dort nur im UK. Der Modus ließ sich in den USA zuweilen experimentell direkt auf der Google-Startseite und sogar über die Adressleiste aufrufen, wurde vor kurzem für Circle to search eingeführt und erhält in den USA bereits Ads.
Aus dem Prototyp namens Neural Google ist ein zentrales Search-Element geworden, das Google nach und nach für zahlreiche User zur Verfügung stellen möchte. Kein Wunder, denn ähnlich wie mit den AI Overviews – die in Deutschland seit dem Frühjahr auch für immer mehr neue Inventare sorgen – kann Google Suchanfragen im KI-Kontext zeitgemäß bedienen und die neu gewonnenen Bereiche für die einträgliche Werbeintegration nutzen.
This started as a prototype we built back in March 2024 which we called ‘Neural Google’. The core idea: wrap Gemini around Google and let it do the searching for you. pic.twitter.com/r9fUg90BZU
— Ali Eslami (@arkitus) August 4, 2025
Google bringt Ads in den AI Mode
– und weitet Werbung in AI Overviews aus

Neue Werberealität auf Google: Ads im AI Mode werden besonders gepusht
71,3 Milliarden US-Dollar hat Alphabet im zweiten Quartal 2025 mit Advertising umgesetzt. Davon entfallen 51,2 Milliarden auf den Bereich Google Search & other. Das Werbegeschäft Googles bräuchte gar nicht so dringend einen großen Push, doch Google geht mit der Zeit und setzt dem großen Wandel hin zu immer mehr AI Overviews und AI Mode-Integrationen mit der Einführung von Ads in diesen Kontexten eine finanziell enorm wichtige Komponente hinzu. Die neuen Werberealitäten in der KI-Suche benennt das Unternehmen auf dem eigenen Blog The Keyword wie folgt: „Mehr Möglichkeiten, in der Google Suche präsent zu sein“. Diese Ads werden bislang nur in den USA angezeigt und können im AI Mode beispielsweise so aussehen:
[…] Nutzerinnen und Nutzer können alles fragen, was sie möchten, und erhalten eine Antwort von der KI. Mit weiterführenden Fragen und hilfreichen Weblinks können sie sogar noch weiter ins Detail gehen. Wo passend und relevant, werden unten oder in den KI-Modus-Antworten Anzeigen eingeblendet. Nehmen wir an, eine Person sucht im KI-Modus nach „Website für Kleinunternehmen günstig erstellen“. Sie erhält eine umfassende Antwort mit einer Schritt-für-Schritt-Anleitung und Tipps zur Produktauswahl, wie sie die Zielgruppe erreicht, zu Performance-Tests und zum Starten der Website. Hier kann in einigen Fällen die Nutzung eines Website-Builders der nächste logische Schritt sein. Daher blenden wir möglicherweise eine Anzeige ein – und erleichtern damit den nächsten Schritt […].
Jetzt pitcht Google diese AI Mode Ads für diverse Advertiser, wie Ad Age und Search Engine Roundtable berichten. Demnach erhalten Agenturen und Marken von Google vorbereitete Slides, die die Vorteile dieser Werbung aufzeigen – und womöglich einen breiteren Roll-out der AI Mode Ads ankündigen. Immerhin könnte Google in den nächsten Quartalen noch mehr Werbeumsatz generieren, wenn die KI-Bereiche mit passenden Anzeigen gefüllt werden.
So sollen die Ads aussehen
Die AI Mode Ads sind zunächst als textbasierte Ergänzungen zu den Ergebnissen für die Nachfragen der User vorgesehen. Sie erinnern an klassischen Search und Shopping Ads, können aber auch aus Performance Max-Kampagnen gespeist werden.
Google is getting ready to roll out AI Mode ads widely (before Q4) -> How Google is pitching new AI Mode search ads to marketers
„Google has said the ads in AI Mode will be text-based, like search ads, and shopping ads with product details. Google also said that “feed hygiene is… pic.twitter.com/eS5ZlAagPY
— Glenn Gabe (@glenngabe) August 1, 2025
Für die Unternehmen, die werben wollen, ist es zentral, ihre Produktkataloge stets aktuell zu halten. Das funktioniert zunächst weiterhin nur in den USA und auf Englisch. Zudem müssen Advertiser AI-gestützte Targeting-Lösungen wie Broad Match nutzen und sollten AI Max for Search (in der Betaversion) und Performance Max einsetzen. In einem Info-Sheet teilt Google noch mehr Details zu den Ads. Diese könnten wertvolle Kund:inneninteraktionen fördern, da sie als möglicher nächster Schritt bei komplexen Fragen der User Hilfestellung zu bieten imstande sind. Google möchte die Intentionen der User in der AI-Konversationen besser denn je evaluieren und mit Ads bedienen.

Im AI Mode generierte Google Antworten im Fan-out-Verfahren aus dem Web und Knowledge Graph-Informationen, die vor allem umfassende Anfragen – zwei bis dreimal länger als traditionelle Suchanfragen – bedienen. Gerade in diesen Kontexten können die Ads künftig relevante Touchpoints für User werden; und Google sowie Advertisern mehr Umsatz versprechen.

Wenn du noch mehr über den AI Mode von Google erfahren möchtest, lies in unseren dedizierten Beiträgen zum Thema nach.
Gemini mit Deep Think:
So will Google fundiertere KI‑Antworten liefern

Online Marketing & SEO
Anthropic pusht Coding‑KI: Das kann Claude Opus 4.1
Wer tiefer in die aktuellen Anthropic-Entwicklungen einsteigen möchte, findet bei OnlineMarketing.de auch einen Artikel, der die vorherigen Versionen Claude Opus 4 und Sonnet 4 sowie deren dessen Fähigkeiten im Detail beleuchtet.
Das weltbeste Coding Model?
Claude Opus 4 und Sonnet 4 sind da

State-of-the-Art im Coding – vor allem bei komplexen Projekten
Wie Anthropic in seiner Modellankündigung mitteilt, erreicht Opus 4.1 im SWE-bench Verified-Test 74,5 Prozent Genauigkeit. Das sind zwei Prozentpunkte mehr als bei der vorherigen Version Opus 4 und über zwölf Prozentpunkte mehr als bei Sonnet 3.7.

Dieser Test prüft, wie gut ein Modell echte Programmierfehler finden und beheben kann. Vereinfacht gesagt: Je höher der Balken, desto öfter löst das Modell die Aufgabe richtig. GitHub hebt hervor, dass Opus 4.1 große Code-Basen gezielt anpasst, ohne unnötige Änderungen vorzunehmen oder neue Fehler einzuführen – ein klarer Vorteil für wiederkehrende Debugging-Aufgaben. Auch die Rakuten Group lobt die Fähigkeit, Fehlerstellen in umfangreichen Projekten punktgenau zu lokalisieren.
Mehr als nur eine Coding-Assistenz
Die Fortschritte beschränken sich nicht auf Programmieraufgaben. In Benchmarks zu logischem Denken, Multilingualität oder visuellem Verständnis landet Opus 4.1 regelmäßig unter den Top-Ergebnissen. Im GPQA-Diamond-Test für komplexes Schlussfolgern erreicht das Modell 80,9 Prozent, im multilingualen MMLU sogar 89,5 Prozent. Im praxisnahen TAU-bench für den Einsatz von Tools im Einzelhandel erzielt es 82,4 Prozent, in der Airline-Kategorie solide 56 Prozent. Die Zahlen belegen: Opus 4.1 kann nicht nur Code, sondern auch Datenanalyse und Recherche auf hohem Niveau.

Wie das Bild zeigt, schneidet Claude Opus 4.1 in vielen Kategorien – von Programmieren über logisches Denken bis zu Sprachaufgaben – besser ab als frühere Claude‑Versionen und oft auch als Konkurrenzmodelle von OpenAI und Google. Auch Unternehmen wie Windsurf berichten von einem messbaren Sprung im Junior-Entwickler:innen-Benchmark, der einem Generationswechsel entspricht. Das bedeutet: weniger Zeit für Bugfixing, mehr Zeit für Feature-Entwicklung und Innovation.
Verfügbarkeit
Claude Opus 4.1 ist ab sofort für zahlende Nutzer:innen verfügbar – in Claude Code, über die API, Amazon Bedrock und Google Cloud Vertex AI. Die Preise bleiben identisch zu Opus 4. Anthropic kündigt zudem an, in den kommenden Wochen größere Modell-Updates zu veröffentlichen.
Claude Opus 4.1: Der nächste Schritt für KI‑gestützte Software-Entwicklung
Mit Opus 4.1 zeigt Anthropic, dass KI-gestützte Software-Entwicklung immer stärker zum Standard werden könnte. Die Verbesserungen liegen vor allem in Präzision und kontextbewusstem Arbeiten. Für Entwickler:innen, die komplexe Projekte effizienter umsetzen wollen, ist ein Upgrade daher naheliegend. Doch die Konkurrenz schläft nicht: Auch OpenAI hat vor einiger Zeit mit Codex einen neuen Coding-Agent vorgestellt. Wie dieser funktioniert, beleuchtet der nachfolgend verlinkte Artikel.
ChatGPT hat einen neuen Agent:
Was Codex kann

Online Marketing & SEO
Wie du mit Google-KI Bilderbücher und 3D-Welten erstellst
Fotorealistische 3D‑Welten in Echtzeit und personalisierte Geschichten auf Knopfdruck: Mit Genie 3 eröffnet Google DeepMind neue Möglichkeiten für Bildung, kreatives Arbeiten und Robotik. Parallel ermöglicht die Gemini App das Erstellen individueller Bilderbücher in über 45 Sprachen und macht Lernen wie Erzählen neu erlebbar. KI, die Geschichten erzählt und Welten formt – direkt erlebbar.
Google erweitert sein KI‑Portfolio gleich doppelt: DeepMind stellt mit Genie 3 ein Weltmodell vor, das fotorealistische 3D‑Welten in Echtzeit erzeugt. Parallel bringt das Unternehmen in der Gemini App ein Storytelling Feature an den Start, das personalisierte, illustrierte Bilderbücher in über 45 Sprachen erstellt – auf Basis weniger Eingaben.
In Sekunden zum Erklärvideo:
Googles NotebookLM bekommt Video Overviews

Genie 3: Interaktive KI‑Welten mit Realismus und Gedächtnis
Google DeepMind hat mit Genie 3 ein neues Weltmodell vorgestellt, das interaktive 3D‑Welten in Echtzeit erzeugen kann – allein auf Basis einer Texteingabe. Die Umgebungen laufen mit 24 Bildern pro Sekunde in 720p und bleiben mehrere Minuten lang konsistent. Sogar Details wie Farben, Objektpositionen oder Landschaftsmerkmale werden gespeichert, wenn man den Blick abwendet und später zurückkehrt. In diesem kurzen offiziellen Demonstrationsvideo zeigt Google, wie Genie 3 eine interaktive 3‑Dimensional‑Welt in Echtzeit generiert.
Wie DeepMind im offiziellen Blog erklärt, können Nutzer:innen in diesen KI‑Welten frei navigieren. Sie lassen sich nicht nur betrachten, sondern auch verändern. Der Schritt gilt als Meilenstein in der Forschung zu sogenannten Weltmodellen und könnte Bildung, Robotik und kreative Produktion grundlegend verändern.
Von experimentellen Modellen zu immersiven Simulationen
Weltmodelle simulieren Umgebungen, um KI‑Systeme zu trainieren oder Szenarien für Forschung, Bildung und Unterhaltung zu erschaffen. DeepMind arbeitet seit mehr als zehn Jahren daran, von Strategiespielsimulationen bis zu Trainingsumgebungen für Roboter.
Mit den Vorgänger:innen Genie 1 und Genie 2 konnten bereits neue Szenen generiert werden. Doch die Interaktion war stark eingeschränkt: Meist ließen sich die Welten nur zehn bis 20 Sekunden lang nutzen, bevor sie instabil wurden. Laut The Verge fühlten sich diese Umgebungen eher wie eine unscharfe, sich ständig verändernde Version von Google Street View an. Genie 3 erhöht die Interaktionszeit auf mehrere Minuten, führt ein visuelles Gedächtnis von rund einer Minute ein und liefert stabilere, fotorealistische Szenen – vom Spaziergang an einem Gletschersee über die Fahrt durch ein Vulkangebiet bis zur Erkundung historischer Orte wie Venedig oder dem antiken Athen. In diesem offiziellen Clip demonstriert Google, wie Genie 3 dynamische 3D‑Welten in Echtzeit erzeugt, inklusive stabiler Umgebung, Navigation und Weltereignissen.
Dieses weitere Video visualisiert die Simulation natürlicher Welten mit realistischen Landschaften, fließendem Wasser und beweglicher Vegetation, erzeugt von Genie 3.
Ein offizieller Modellvergleich von Google zeigt zudem, dass Genie 3 die eigenen Vorgänger:innen deutlich übertrifft: Es bietet höhere Auflösung, Echtzeitreaktionen, eine längere Interaktionsdauer und erweiterte Steuerungsmöglichkeiten wie Navigation und steuerbare Weltereignisse.
Steuerbare Weltereignisse: Wetterwechsel, Charaktere, Hindernisse
Eine der bedeutendsten Neuerungen sind die aufforderungsfähigen Weltereignisse. Sie ermöglichen es, KI‑Welten während der Interaktion dynamisch anzupassen. Per Texteingabe können Nutzer:innen etwa das Wetter ändern, neue Objekte platzieren oder Charaktere hinzufügen. Das nachfolgende Beispiel zeigt eine von Genie 3 simulierte Skifahrt aus der Ich‑Perspektive. Hier kommen die Weltereignisse zum Einsatz, um die Szene in Echtzeit zu verändern, beispielsweise durch das Einfügen eines „Banana Skydrivers“ oder eines „Genie 3 Skiers“.

Diese Funktionen eröffnen zahlreiche Möglichkeiten, von Unterrichtssimulationen bis zu Robotiktests. Lehrkräfte könnten historische Ereignisse immersiv erlebbar machen, Entwickler:innen könnten autonome Systeme in riskanten Umgebungen trainieren, ohne reale Gefahren einzugehen. Laut DeepMind kann diese Steuerung auch kontrafaktische Szenarien abbilden, um das Verhalten von KI‑Agents in unvorhergesehenen Situationen zu testen.
Potenzial für KI‑Agents und AGI‑Forschung
Google sieht Genie 3 als wichtigen Schritt in Richtung Artificial General Intelligence (AGI). Darunter versteht man KI‑Systeme, die nicht nur einzelne, klar abgegrenzte Aufgaben meistern, wie etwa Texte schreiben oder Bilder generieren, sondern flexibel in vielen verschiedenen Bereichen denken, lernen und handeln können, ähnlich wie ein Mensch. Weltmodelle wie Genie 3 sind dafür wichtig, weil sie KI‑Agents in einer simulierten Welt trainieren können: Sie setzen sich Ziele, verfolgen diese über längere Zeit und passen ihr Verhalten an, wenn sich die Bedingungen ändern. In Tests mit dem eigenen SIMA‑Agent – einem generalistischen KI‑Agent, der Anweisungen in verschiedenen virtuellen 3D‑Umgebungen ausführen kann – konnte DeepMind zeigen, dass durch die längere Interaktion auch komplexere Aufgaben erfolgreich abgeschlossen wurden.
Auch Kreative könnten profitieren. Wer eine Filmszene, eine Gaming‑Kulisse oder ein Kunstprojekt plant, kann mit Genie 3 innerhalb von Sekunden detailgetreue oder stilisierte Welten generieren – ohne klassische 3D‑Software. Die Möglichkeiten reichen von realistischen Naturaufnahmen bis zu fantasievollen Landschaften mit schwebenden Bergen oder biolumineszenten Pflanzen.
Grenzen, kontrollierter Roll‑out und Ausblick
Trotz der Fortschritte hat Genie 3 klare Einschränkungen. Die Interaktionsdauer bleibt auf einige Minuten begrenzt. Komplexe Mehrspieler:inneninteraktionen sind technisch schwierig umzusetzen. Reale Orte werden nicht millimetergenau rekonstruiert. Lesbarer Text in den Welten gelingt nur, wenn er explizit vorgegeben wird.
Deshalb wird Genie 3 vorerst als eingeschränkte Forschungsvorschau veröffentlicht. Zugang erhält nur eine kleine Gruppe von Wissenschaftler:innen und Entwickler:innen, um mögliche Risiken wie Missbrauch oder Fehlinformationen frühzeitig zu erkennen. Google DeepMind betont, dass das Modell von Anfang an verantwortungsbewusst entwickelt wurde und eng mit dem hauseigenen Team für „Responsible Innovation“ abgestimmt ist.
Langfristig ist der Weg zu breiteren Anwendungen jedoch vorgezeichnet. Google sieht Potenzial in Bildung, Robotik, kreativer Medienproduktion und virtuellen Trainingsumgebungen. Während Genie 3 noch im Forschungsstadium bleibt, ist die Bilderbuchfunktion bei Gemini bereits weltweit verfügbar.
Der Google-Dino steht auf:
Mit Veo 3 und Flow Bilder als Video animieren und sprechen lassen

Gemini App: Illustrierte Bilderbücher mit persönlicher Note
Parallel zu Genie 3 erweitert Google auch die Gemini App um ein Storytelling Feature. Wie im offiziellen Blog erklärt, können Nutzer:innen personalisierte, illustrierte Bilderbücher erstellen, die zusätzlich eine Audio Vorlesefunktion enthalten. Dazu genügt eine kurze Beschreibung der gewünschten Geschichte. Gemini erstellt daraus ein zehnseitiges Buch mit passender Illustration in einem frei wählbaren Stil, von Pixelart und Comic über Knetanimation bis hin zu Malbuchoptik. Auf Wunsch kann die KI sich auch von hochgeladenen Fotos oder Kinderzeichnungen inspirieren lassen.
Google nennt Beispiele wie eine kindgerechte Geschichte über das Sonnensystem für Fünfjährige oder eine Lektion über Freundlichkeit zwischen Geschwistern, bei der die Hauptfigur nach Wunsch ein Elefant oder ein anderes Lieblingstier ist. Auch Urlaubsfotos lassen sich so in personalisierte Abenteuer verwandeln. Im offiziellen Clip demonstriert Google die Erstellung eines personalisierten Bilderbuchs in der Gemini App. Gezeigt wird der gesamte Ablauf von der Texteingabe bis zur fertigen illustrierten Geschichte mit Audio Vorlesefunktion.
Das Feature unterstützt mehr als 45 Sprachen und ist seit dem 5. August 2025 weltweit in der Gemini App verfügbar – sowohl auf Desktop als auch mobil. Es richtet sich in erster Linie an Eltern, Pädagog:innen und kreative Anwender:innen, die individuell gestaltete Geschichten für Kinder oder Bildungsprojekte erstellen möchten. Auch für Marketer eröffnet sich Potenzial, etwa um eine kurze Markengeschichte zu erzählen. Gleiches gilt für HR‑Teams, die das Tool im Recruiting‑Kontext nutzen könnten. Die Möglichkeit, eigene Visuals hochzuladen, birgt allerdings auch ein gewisses Risiko für Plagiate. Wer das Feature testen möchte, findet das Storybook Tool unter gemini.google.com/gem/storybook.
KI, die Geschichten schreibt und Welten baut
Mit Genie 3 und der neuen Bilderbuchfunktion in der Gemini App zeigt Google, wie vielseitig generative KI inzwischen geworden ist. Auf der einen Seite steht ein Forschungs-Tool, das begehbare, realistische Welten erschafft und so eine völlig neue Dimension für Lernen, Training und kreatives Arbeiten eröffnet. Auf der anderen Seite gibt es ein sofort nutzbares Feature, das aus einer Idee in Minuten ein personalisiertes Bilderbuch entstehen lässt.
Beide Entwicklungen machen deutlich: KI wird greifbarer und kreativer und sie rückt näher an unseren Alltag. Ob als Werkzeug für Pädagog:innen, Spielwiese für Kreative oder als Lernplattform für zukünftige KI‑Agents, das Zusammenspiel von Genie 3 und der Gemini App zeigt das Potenzial, das noch vor uns liegt. Heute sind es Forschungsvorschau und frische App‑Funktion, morgen vielleicht feste Bestandteile unserer digitalen Werkzeuge.
Online Marketing & SEO
Nach über 30 Jahren bei BMW: Peter Kronschnabl ist neuer Managing Director von Genesis Motor Europe
Peter Kronschnabl ist neuer Managing Director von Genesis Motor Europe. Er kommt von der BMW Group
Genesis Motor Europe verpflichtet einen neuen Top-Manager. Seit Beginn dieser Woche ist Peter Kronschnabl neuer Managing Director bei der Marke aus dem Hyundai-Konzern. Er war über 30 Jahre für BMW tätig.
Peter Kronschnabl wechselt für die neue Aufgabe Marke und Stadt. Er wird die Geschäfte von Genesis vom europäischen Hauptsitz in Frankf
Diesen Artikel gratis weiterlesen!
Jetzt kostenfrei registrieren.
Die Registrierung beinhaltet
das HORIZONT Newsletterpaket.
Sie sind bereits registriert?
Hier anmelden
Der Nutzung Ihrer Daten können Sie jederzeit widersprechen. Weitere Hinweise finden Sie unter Datenschutz.
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 1 Monat
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Apps & Mobile Entwicklungvor 1 Monat
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen
-
Social Mediavor 2 Monaten
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten