Online Marketing & SEO
10 GEO-Kernfragen beantwortet: Digital Bash Update 2026 %
Die Echtzeitinhalte werden laufend aktualisiert, während die Modelltrainings dazu beitragen, dass die LLMs im Hintergrund in Abständen von einigen Monaten optimiert und mit neuen Modellversionen versehen werden. Der Hinweis auf die Dynamik von Ergebnissen in der KI-Suche wird auch in einer Ahrefs-Analyse deutlich, nach der sich AI Overviews von Google im Schnitt alle 2,15 Tage verändern (bei 43.000 untersuchten Beispielen).
5. Ich arbeite für ein Fachmagazin. Sollten wir es zulassen, dass KI die Nachrichten auslesen kann? Die Tagesschau hat darauf verzichtet, weil sie ihren Traffic auf der Website behalten wollen.
Die Frage, ob man Inhalte für die Indexierung bei Google und Co. oder Übernahme durch KI-Dienste bereitstellen möchte, ist nicht neu. Sie erfährt aber in Zeiten der KI-Suche eine neue Brisanz, da ChatGPTs Zusammenfassungen, AI Overviews, der AI Mode und Co. nachweislich den Traffic zu Zielseiten minimieren. Viele User erfahren direkt aus dem Suchkontext heraus, was sie wissen möchten und besuchen weniger Publisher-Seiten, sodass diese Traffic verlieren, der als Faktor für das Geschäftsmodell oft essentiell ist. So nimmt es kaum wunder, dass einige Verlage bereits gegen Google geklagt haben, weil sie eine „illegale Journalismusausbeutung“ etwa in den AI Overviews sehen, die sich ihrer Inhalte bedienen.
So krass senken AI Overviews die Klickrate
Einige Medienhäuser werfen Google vor, Inhalte zu missbrauchen, um das Geschäft der Publisher zu bedrohen. Moniert wird auch der Umstand, Inhalte nicht für AI Overviews ausschließen zu können, ohne eine gesamte Deindexierung in Kauf zu nehmen. Das Blockieren von AI Crawlern ist bei Cloudflare schon zum Standard geworden; Pay-per-Crawl soll eine Alternative bieten. Außerdem möchte das Internet- und Cybersicherheitsunternehmen, über dessen Netzwerk 20 Prozent aller Websites laufen, mit der neuen Content Signals Policy Publishern ermöglichen, ihre Inhalte KI-Diensten wie AI Overviews in der Suche vorzuenthalten, ohne die Indexierung zu gefährden. Damit das klappt, müsste Google aber mitspielen.
Einen AI Overview Opt-out diskutiert das Vereinigte Königreich bereits seit einiger Zeit im Rahmen einer Prädikatszuschreibung, die Googles massive Marktmacht anerkennt und zu regulieren sucht. Das ist auch der Grund, aus dem Google jetzt selbst reagiert. Die Competition and Markets Authority (CMA) möchte Publishern mehr Kontrolle ermöglichen und die Verwendung von Content in AI Overviews fakultativ machen. Bisher haben die Publisher zwar die Option, Websites als noindex von der Indexierung durch Google auszuschließen, was für die Reichweite wenig förderlich ist, oder mithilfe von Google-Extended zu entscheiden zu, ob ihre Inhalte Gemini und Vertex AI unterstützen sollen oder nicht.
Auch Kontrollen für Featured Snippets und Image Previews (die sogar für AI Overviews gelten) gibt es bereits. Allerdings können Website-Betreiber:innen nicht direkt steuern, ob und wie Google Inhalte für AI Overviews und den AI Mode heranzieht. Tauchen sie in diesen KI-Übersichten oder im AI Mode auf, werden sie zwar als Quellen genannt, doch die Click-Through-Wahrscheinlichkeit könnte geringer ausfallen, während Google ohnehin aus diesen Übersichten oft zunächst auf eigene Properties wie weiterführende Informationen aus der Suche verlinkt. Zudem befürchten manche Publisher, dass Google und andere KI-Dienste ihre Inhalte als Zusammenfassung übernehmen, ohne die Quelle in gebührendem Maße zu wertschätzen. Daher gibt Google in einem neuen Blog Post mit Verweis auf die CMA-Bestrebungen im UK an, eine Opt-out-Option zu evaluieren.
Google beschwichtigt Publisher grundsätzlich mit dem Hinweis darauf, dass Engaged Clicks nachhaltigeren Traffic liefern könnten, wenn User durch KI-Ergebnisse bereits vorinformiert sind. Der SEO Traffic sinkt jedoch für viele, die sich zugleich fragen, ob sie für die Content-Aufnahme und -Verarbeitung durch Google und andere Dienste nicht entlohnt werden sollten. Deals mit Medienhäusern, wie sie etwa Meta für die Meta AI zum Beispiel mit der Süddeutschen Zeitung abgeschlossen haben, bieten eine Art Kompromiss. Erste Initiativen gibt es bereits, etwa Microsofts Publisher Content Marketplace, der zum Beispiel von der neuen KI-Suche Yahoo Scout unterstützt wird. Doch das Ungleichgewicht zwischen riesigen Tech-Konzernen und ihrer immensen Marktmacht, die sie für die Content-Distribution nutzen, um damit über Werbung, Shopping-Integrationen und andere Touchpoints Gewinn zu machen, wächst weiter. Und Publisher müssen abwägen, wie sie ihre Content-Erstellung und -Verbreitung im Jahr 2026 und darüber hinaus strategisch planen möchten.
Wenn nun der Inhalt der eigenen Seite gesichert über diverse Kanäle ausgespielt und dort gefunden werden kann und man nicht von der Sichtbarkeit in der Suche abhängt, ist es eine Option, Crawlern keinen Zugriff zu gewähren und etwaige Opt-outs zu nutzen. Allerdings sind Publisher auf diversen Plattformen Dritter deren Regeln ausgesetzt.
6. Wie schätzt ihr das WebMCP in der early Preview von Google ein?
KI-Agents könnten Websites bald nicht mehr wie Menschen bedienen müssen. Mit WebMCP stellen Google und Microsoft einen Ansatz vor, der das Surfen im Hintergrund grundlegend verändern könnte. Statt sich durch Menüs zu klicken oder Inhalte visuell zu interpretieren, greifen KI-Systeme direkt auf Funktionen einer Website zu. Websites wären dann nicht mehr nur Orte zum Lesen oder Shoppen, sondern technische Schnittstellen für automatisierte Aktionen. Website-Betreiber:innen sollten sich auf jeden Fall mit dieser Option zur Anbindung beschäftigen, um sich für das Agentic Web zu wappnen. Es kann ein Baustein sein, um Sichtbarkeit und Relevanz für verschiedene Akteur:innen sicherzustellen. In unserem Beitrag findest du mehr Informationen zum WebMCP.
Zäsur fürs Agentic Web?
WebMCP soll Websites zur API für KI Agents machen
7. Wie gestalte ich eine optimale GEO Landingpage von Seitenstruktur über Aufbau bis Content, so dass sie optimal zitiert und als Quelle genutzt werden kann?
Auf diese Frage gibt es enorm viele Antworten. Zwar gibt es keine Musterlösung, denn grundsätzlich gilt, dass die Inhalte in erster Linie aktuell und relevant, aber auch maschinenlesbar sein müssen. Es gibt GEO-Checklisten und konkrete Tipps von Expert:innen, die du beherzigen kannst. Eine Erläuterung liefert zum Beispiel GEO-Expertin Katrink Winkler. Sie zeigt, welche Bausteine eine Seite benötigen, um im Zeitalter der KI-Suche gefunden zu werden.
Auf der Seite Wortverkauf.de findest du die Zusammenfassung ihres Digital Bash-Vortrags zum Thema, der sehr beliebt war. Du kannst dir diesen Vortrag auch ansehen; melde dich einfach für das vergangene Event an.
Bei der Aufzeichnung des Digital Bash – Content Marketing findest du Katrins Vortrag: „Wie entwickelt man ein GEO-optimiertes Content-Design für die Website?“.
8. Reicht ein einzelner guter Inhalt für GEO überhaupt aus, oder entsteht zitierfähige Autorität erst durch Referenzen, externe Erwähnungen und eine konsistente Themenabdeckung über Zeit?
Wer nur auf einen guten Inhalt baut, braucht womöglich für diesen eine Sonderstellung, um darüber langfristig als Go-to-Quelle genutzt zu werden. Denn gerade im Zeitalter der KI-Suche zeigt sich, dass Erwähnungen auf Seiten Dritter, Aktualität und Brand-Autorität für die Zitierfähigkeit von Vorteil sind – vor allem, wenn sich Ergebnisse dynamisch entwickeln.
Die Discoverability auf einen guten Inhalt zu beschränken, wenn die Möglichkeit zur Diversifizierung besteht, würde verschenktes Potential bedeuten. Zumindest aber sollte für diesen hypothetischen starken Inhalt jedwede Analyse und Anpassung für zeitgemäße Suchentwicklungen angewendet werden, um sie als relevante Quelle bei verschiedenen Playern genutzt zu wissen. Zudem unterliegt das Prädikat „gut“ oft einer subjektiven Einordnung. Ist der Content gut, weil er in der Suche performt, performt er dort nicht, obwohl er als qualitativ gut eingestuft wird oder gibt es eine quantitative Bestätigung wie eine hohe Anzahl an Visits, Downloads (bei Dokumenten) oder Ähnlichem?
Wie es Google vor ein paar Monaten schon gesagt hat, entsteht gute GEO auf der Basis guter SEO. Danny Sullivan von der Search Liaison hat schon 2010 klargestellt:
SEO doesn’t mean you get into blue links on Google, SEO means you understand how people search for content […].
Bei der GEO sollten Webmaster ebenfalls auf die neuen Suchmuster achten und ausgehend davon Informationen und Inhalte bereitstellen, möglichst unikal, möglichst vielfältig aufbereitet; man denke auch an die multimodalen Fähigkeiten von Lösungen wie dem AI Mode und ChatGPT.
9 Wie kann man den Bruch auflösen, der dadurch entsteht, dass man aus dem Dialog im Sprachmodell in den Monolog auf der Website zurückfällt? Der schönste Traffic durch SEO und GEO hilft ja nicht, wenn die UX dann abbricht, oder?
Das kommt sicherlich ganz auf die Intention der User an. Wenn diese über die Ergebnisse aus der Suche auf Seiten kommen, auf denen sie beispielsweise direkt etwas kaufen, nachlesen oder auch nur nachgucken wollen – wie ein Datum oder einen Preis –, dann braucht es womöglich keine Dialogstruktur für die User. Möchten diese aber auf der Seite navigieren, über Angebote und Content-Bereiche informiert werden, kann es sich anbieten. Zunächst einmal können User selbst in der aus dem KI-Chat bekannten Struktur arbeiten, indem sie beispielsweise KI-Zusammenfassungen über Browser erstellen lassen oder in den AI Browsern direkt mit ChatGPT (bei Atlas) oder Gemini (bei Chrome) chatten, um die Chatbots etwas über die Seiten zu fragen.
Website-Betreiber:innen können aber ebenso selbst eine Anschlussoption bieten. So können sie eigene AI Agents anbinden, die einen KI-Dialog auf der Website bieten und beispielsweise Chatbots verwalten. In diesem Kontext ist nochmals bemerkenswert, dass es gilt, sich auf die Nutzungsrealitäten in der Suche einzustellen. Die Entwicklung eigener Agents und Subagents, idealerweise gefüttert mit Nutzungsdaten der eigenen Seite, ist dank Google, Adobe, Salesforce, Anthropic, OpenAI und Co. einfacher denn je.
10. Welche Tools nutzt ihr, um die Sichtbarkeit eurer Marke im Netz zu messen und Brand-Erwähnungen zu monitoren?
Eico Schweins nennt PeecAI, Otterly, Rankscale, und das Prompt Tracking von SISTRIX. SISTRIX liefert umfassende Möglichkeiten, um beispielsweise LLM-Erwähnungen zu tracken.
Das funktioniert auch bei Similarweb und anderen Anbieter:innen. Adobe bietet zum Beispiel einen LLM Optimizer und die kostenlose Chrome-Erweiterung „Is Your Webpage Citable?“. Und über die Semrush App in ChatGPT können User mit Prompts in natürlicher Sprache SEO Insights aufrufen und ganze Reports erstellen lassen.
Google liefert neuerdings zum Thema Brand-Sichtbarkeit einen Filter zur Unterscheidung zwischen markenbezogenen und nicht markenbezogenen Suchanfragen im Leistungsbericht in der Search Console. Die Zahl der Tools und Tracking-Optionen ist groß. Für Marketer bietet es sich an, verschiedene Optionen zu testen, gerade solche, die in Diensten integriert sind, die das eigene Unternehmen ohnehin nutzt. Ein Tipp: Lass dir von verschiedenen KI-Tools Übersichten zu relevanten Tools geben oder frage auf LinkedIn, Reddit und Co. nach, was deine Peers nutzen.
Du kannst dir einen Ausschnitt aus dem Talk von Eico Schweins in diesem YouTube-Video ansehen. Die gesamte Aufzeichnung des Events mit weiteren aufschlussreichen Talks zum Thema von Sebastian Grundt, Katrin Winkler und Kathrin Häußler kannst du dir über die nachträgliche Anmeldung zum Event sichern.