Online Marketing & SEO
So personalisierst du Gemini mit Personal Intelligence
Kein App Switching, keine Suche. Die Gemini Personal Intelligence lässt User zentrale Google Apps verbinden, um effizienter zu werden. Wir zeigen Beispiele und die Gefahr dahinter.
Die User haben danach gefragt, Google liefert: eine Möglichkeit, um die hochfunktionale KI-Assistenz Gemini zu personalisieren. Mit der neuen Personal Intelligence können User ihre Google Apps wie Gmail, YouTube oder auch den Google Calendar miteinander verbinden. Das erleichtert die Bewältigung zahlreicher Aufgaben und bringt im Handumdrehen Ergebnisse, wie erste Beispiele zeigen. Der immense Funktionsumfang und die stetig wachsende KI-Power von Gemini machen es möglich. Doch während Googles KI dabei ist, eine zentrale Machtposition im Wettbewerb einzunehmen, geht mit der Personal Intelligence ein großes Gefahrenpotential einher – trotz Googles Beteuerungen zur Absicherung.
Gmail startet in die Gemini-Ära:
KI-Posteingang, Suche per Frage, bessere Mails

Das ist Googles Personal Intelligence für Gemini: So wird die KI-Assistenz zur persönlichen Assistenz
Google möchte Gemini zur besten KI-Assistenz der Welt machen und zur meistgenutzten ebenso. Und so schreibt Josh Woodward, VP für Google Labs und Google Gemini, auf Googles Blog The Keyword:
The best assistants don’t just know the world; they know you and help you navigate it […].
Passend dazu hat das Unternehmen – seit 2016 schon als AI-first Company promotet – Gemini jüngst nicht nur umfassend in Gmail integriert und dort sogar AI Overviews und eine AI Inbox eingefügt. Auch die Verbindung mit diversen Google Apps ist dank der neuen Personal Intelligence jetzt möglich. Das Feature verknüpft Informationen aus verschiedenen Apps, um über die KI Lösungen für ganz unterschiedliche Bedarfe bereitzustellen. Du möchtest eine Reise planen, brauchst Hilfe bei der Produktauswahl vor Ort oder suchst einfach nach Vorschlägen, die deiner Person besonders gefallen könnten? Dann nutzt die Personal Intelligence Daten aus Gmail, Google Photos, Search und YouTube, um ein hyperpersonalisiertes Ergebnis zu liefern.
Josh Woodward liefert ein Beispiel: Er brauchte neue Reifen für sein Auto, war bereits zum Kauf vor Ort und war schließlich unsicher, welches Modell er brauchte. Er konnte aber Gemini fragen und mithilfe von Bildern seines Autos und Daten aus einer Gmail-Konversation Informationen zu passenden Modellen erhalten – inklusive Preisen – und sogar Tipps basierend auf Informationen zum eigenen Fahrverhalten.
[…] I asked Gemini. These days any chatbot can find these tire specs, but Gemini went further. It suggested different options: one for daily driving and another for all-weather conditions, referencing our family road trips to Oklahoma found in Google Photos. It then neatly pulled ratings and prices for each […],
so der Googler. Geminis Personal Intelligence kann ebenso personalisierte Tipps für Bücher, Serien, Kleidung und dergleichen mehr geben, wenn das Feature Zugriff auf die Suchhistorie und den Verlauf auf YouTube hat und somit die Interessen der User direkt einsehen kann.
Introducing Personal Intelligence. It’s our answer to a top request: you can now personalize @GeminiApp by connecting your Google apps with a single tap. Launching as a beta in the U.S. for Pro/Ultra members, this marks our next step toward making Gemini more personal, proactive… pic.twitter.com/RsSSx2KF22
— Josh Woodward (@joshwoodward) January 14, 2026
Der große Vorteil für die Nutzer:innen ist, dass die Daten bereits im Google-Kosmos vorhanden sind und in Kombination genutzt werden können – sofern die Google-Dienste eingesetzt werden. So müssen sie nicht erst extern Informationen einholen und zwischen Apps und Websites switchen. Dann bietet die KI-Assistenz persönliche Hilfestellung. Gleichzeitig hat dieses Verbleiben im Google-Kosmos eine Kehrseite.
Verfügbarkeit und Funktion: Personal Intelligence wie ein Pilotprogramm
Google betont, dass die Personal Intelligence mit diversen Sicherheitsvorkehrungen daherkommt. Dabei wird auf den grundlegenden Datenschutz Googles verwiesen sowie darauf, dass das Feature zunächst per Default ausgestellt ist. User können es jederzeit ein- und wieder ausstellen. Sie können außerdem für jede Google App einzeln entscheiden, ob sie mit der Personal Intelligence verknüpft wird. Darüber hinaus soll Gemini bei den Antworten klare Referenzen zur Quelle geben, um Fehlinformationen vorzubeugen. User können aber auch nach mehr Infos fragen, wenn es Unklarheiten gibt.
Sensible Themen wie die Gesundheit sollen von der KI ohne klares Prompting nicht thematisiert werden. Google möchte die Experience verbessern, aber User nicht verunsichern. Das Feature läuft im Web, auf Android und iOS.
Vorerst wird die Personal Intelligence nur in den USA bereitgestellt. Zugriff erhalten zuerst die Abonnent:innen von Google AI Pro und AI Ultra in der kommenden Woche. Die Funktion bleibt privaten Usern vorbehalten, im Workspace, Enterprise und Education Business soll es nicht zum Einsatz kommen. Der Roll-out des Features, wenngleich noch limitiert, zahlt auf Googles großes Ziel ein, Gemini an zahlreiche Touchpoints in der digitalen Nutzungswelt von Millionen, wenn nicht Milliarden Usern zu integrieren.
Wachstum und Risiken: Gemini als eine Art Walled Garden?
Schon im dritten Quartal 2025 zählte Google über 650 Millionen monatlich aktive User der Gemini App. Und im Wettbewerb mit anderen KI-Diensten hat Gemini seit 2024 massiv aufgeholt, wie ein Blick auf die Entwicklung des Web Traffics von Similarweb zeigt.
Year-over-year growth rates of leading generative AI tools in 2025: pic.twitter.com/zYYluICiJM
— Similarweb (@Similarweb) January 14, 2026
Gemini ist in diversen Umfeldern eingebettet, stützt und verändert die größte Suchmaschine der Welt und greift auf eines der besten KI-Modelle aller Zeiten zurück: Gemini 3 (Flash). Neuerdings wird die KI sogar zur Basis für Apples altbekannte KI Siri. Damit konzentrieren Apple und Google ihre Macht, Google aber profitiert nicht nur finanziell, sondern vor allem im Hinblick auf den Konkurrenzkampf mit OpenAI, Anthropic und Co. Wenn Gemini bereits an den Zugangspunkten auf Hardware und in Software-Umgebungen integriert ist, die die Menschen ohnehin tagtäglich nutzen, ist der Zugriff vorprogrammiert. Das hilft dem Unternehmen schließlich ebenfalls bei der Werbemonetarisierung. Neue AI Mode Ads wurden jüngst bereits vorgestellt.
Bei allen Vorteilen, die sich für Google und Google User ergeben, gilt es ebenso auf ein Gefahrenpotential zu achten. Zum einen baut Google, ein in Teilen monopolistisches Megaunternehmen mit immenser und zuweilen missbrauchter Marktmacht, eine KI-Vormachtstellung auf, die kaum Konkurrenz duldet. Fast vergessen scheint schon die große Debatte um eine mögliche Teilzerschlagung im vergangenen Jahr. Nur deshalb kann die Personal Intelligence so vernetzt arbeiten und Nutzer:innen im eigenen Ökosystem bedienen. Zum anderen aber ist gerade dieser Rückgriff auf die eigenen Google-Dienste insoweit problematisch, als dadurch limitierte Informationsflüsse möglich sind. Vor allem ist jedoch bedenklich, dass Google bei der Aktivierung zahlreiche hochpersönliche Daten sammelt, die wiederum zum KI-Training oder zu Werbezwecken eingesetzt werden könnten. User werden mit einer so vernetzten AI-Assistenz mehr denn je zu gläsernen Menschen – und zwar für ein US-Unternehmen mit überwältigender Marktmacht, das das einstige Motto „Don’t be evil“ längst gestrichen hat.
Apple nutzt Gemini für Siri und Modelle
– ChatGPT in Gefahr?

Online Marketing & SEO
Wikipedia goes KI: Der Kampf ums Weltwissen
Neben der bereits 2022 bekannt gewordenen Kooperation mit Google hat Wikimedia nun offengelegt, dass im vergangenen Jahr weitere Kooperationen mit großen KI-Playern geschlossen wurden. Dazu zählen Amazon, Meta, Microsoft, Mistral AI und Perplexity, wie die Organisation in einem Beitrag von Wikimedia Enterprise bekanntgibt. Dort heißt es richtungsweisend:
In the AI era, Wikipedia’s human-created and curated knowledge has never been more valuable.
Einige Kooperationen, etwa mit Ecosia, Pleias und ProRata, waren bereits zuvor bekannt. Mit der aktuellen Ankündigung ergänzt Wikimedia sie um weitere Partner:innen wie Nomic und Reef Media. Für Nutzer:innen bleibt Wikipedia unverändert offen und kostenlos. Hinter den Kulissen verschiebt sich jedoch, wie das Weltwissen der Plattform im KI-Ökosystem genutzt und verteilt wird.
Google und Co. sollen zahlen:
Wikipedia plant Bezahl-Service Wikimedia Enterprise

Wie Wikipedia das menschlich kuratierte Wissen vor KI-Ausbeutung schützen will
Die Wikimedia Foundation ist das organisatorische Rückgrat hinter Wikipedia. Als gemeinnützige Stiftung verantwortet sie Technik, Recht, Finanzierung und strategische Fragen – die Inhalte selbst entstehen weiterhin durch eine weltweite Community freiwilliger Autor:innen. Wikipedia zählt heute zu den meistgenutzten Websites der Welt. Monatlich werden laut Stiftung über 65 Millionen Artikel in mehr als 300 Sprachen rund 15 Milliarden Mal aufgerufen.
Nach 25 Jahren steht Wikipedia damit exemplarisch für ein zentrales Problem des Internets 2026. Offenheit allein schützt nicht mehr vor Ausbeutung. Gleichzeitig greifen KI-Modelle diese Inhalte zunehmend automatisiert ab. Suchmaschinen, Chatbots und Sprachassistenzen nutzen Wikipedia als Wissensbasis, oft ohne direkten Kontakt zur Plattform. Genau hier setzt Wikimedia Enterprise an. Statt unkontrolliertem Scraping bietet die Stiftung einen offiziellen, kostenpflichtigen Zugang mit klaren technischen Schnittstellen und Nutzungsbedingungen.
Über Wikimedia Enterprise erhalten Unternehmen einen Zugriff auf aktuelle, strukturierte Wikipedia-Inhalte, etwa für Suchsysteme, Wissensgraphen oder sogenannte RAG-Modelle. Für die Stiftung steht dabei weniger der finanzielle Ertrag im Vordergrund. Ziel ist es, Einfluss darauf zu behalten, wie Wikipedia-Wissen weiterverwendet wird, und zugleich die eigene Infrastruktur vor wachsender technischer Belastung zu schützen.
Zwischen Regulierung und Machtspiel: Wie KI das Weltwissen auf die Probe stellt
Mit Wikimedia Enterprise reagiert die Wikimedia Foundation auf einen grundlegenden Wandel. Wikipedia wird immer seltener von Menschen besucht, aber immer häufiger von Maschinen gelesen und aufbereitet. KI-Systeme zapfen Inhalte automatisiert an, um sie in Suchmaschinen, Chatbots oder Wissensgraphen weiterzuverarbeiten. Das erschwert die Nachvollziehbarkeit von Quellen und verschiebt Aufmerksamkeit weg von der Plattform selbst. Um diesen Entwicklungen etwas entgegnen zu können, stellt Wikimedia Enterprise jetzt Wikipedia-Inhalte über APIs bereit – von Einzelabfragen über regelmäßig aktualisierte Datensätze bis hin zu Echtzeit-Streams. Ziel ist es, den unvermeidbaren KI-Zugriff zu steuern, Transparenz zu sichern und die menschliche Kuration nicht aus dem System zu drängen.
Einen radikal anderen Weg geht Elon Musk mit Grokipedia. Die von seiner KI-Firma xAI entwickelte Enzyklopädie versteht sich als Gegenentwurf zu Wikipedia und setzt vollständig auf KI-generierte Inhalte. Grokipedia soll – so Musks eigenes Narrativ – eine „objektivere“ Alternative zu einer angeblich politisch voreingenommenen Wikipedia sein. Kritiker:innen sehen jedoch genau das Gegenteil. Viele Einträge weisen politische Verzerrungen auf, greifen auf zweifelhafte Quellen zurück oder enthalten faktische Fehler. Hinzu kommt, dass einzelne Artikel nahezu wortgleich aus Wikipedia übernommen wurden, teils inklusive Lizenzhinweisen, ohne dass eine echte redaktionelle Überarbeitung erkennbar wäre. Gerade das Fehlen einer offenen, gemeinschaftlichen Kontrolle macht das Modell anfällig für Fehler und Verzerrungen.
Besonders problematisch ist Grokipedia vor dem Hintergrund der anhaltenden Kontroversen rund um Musks KI-Ökosystem. Der KI-Chatbot Grok, der diese Enzyklopädie speist, steht seit seinem Launch im Oktober 2025 immer wieder in der Kritik. So macht er antisemitische Aussagen und hat beispielsweise Adolf Hitler glorifiziert, was internationale Empörung auslöste. Derzeit wird er von einigen verwendet, um sexuell explizite und non-konsensuale Deepfakes von Dritten, insbesondere von Frauen und sogar Minderjährigen zu erstellen und zu verbreiten. Wie unter anderem tagesschau.de berichtet, leiteten die Europäische Union und Aufsichtsstellen in mehreren Ländern vor diesem Hintergrund Ermittlungen gegen xAI ein. In Malaysia und Indonesien wurde der Zugang zum Chatbot Grok zeitweise gesperrt. Zuletzt kündigte auch der US-Bundesstaat Kalifornien Untersuchungen gegen das Unternehmen an.
Menschliches Wissen bleibt der Kern von Wikipedia
Trotz der neuen KI-Kooperationen betont Wikimedia immer wieder, dass Wikipedia vor allem ein von Menschen getragenes Projekt ist. Die Artikel entstehen in einer vergleichsweise kleinen, ehrenamtlichen Community – und genau das macht die Plattform bis heute glaubwürdig. Gleichzeitig liegt darin eine Schwachstelle. Koordinierte Manipulationsversuche, Fake Accounts und politische Einflussnahme gehören zur Realität und können den Vertrauensstatus untergraben.
Wie solche Eingriffe ablaufen, schildert der Journalist und Co-Autor der SWR-Podcast-Dokuserie Sockenpuppenzoo: Angriff auf Wikipedia Christoph Schattleitner im Gespräch mit SWR Aktuell-Moderator Pascal Fournier. Besonders häufig werden demnach Artikel zu historischen Ereignissen rund um den Nationalsozialismus manipuliert, die systematisch verzerrt oder umgedeutet werden sollen. Brisant wird das vor allem im Zusammenspiel mit KI. Werden verfälschte Artikel von Sprachmodellen ausgelesen und weiterverarbeitet, können sich Falschinformationen deutlich schneller und breiter verbreiten als bisher.
Um menschliche Kuration zu bewahren und auch, um solchen Maniplationen entgegenzuwirken, braucht Wikipedia paradoxerweise KI-Unternehmen, also jene Unternehmen, die den Traffic klassischer Wissensseiten zunehmend verdrängen. Weil sie den massenhaften Zugriff auf Wikipedia-Inhalte nicht aufhalten wird, versucht die Stiftung, ihn zu steuern und davon zu profitieren. Durch die Kooperationen kann Wikimedia Nutzung regeln und die menschliche Kuration absichern.
SERP Scraping und Publisher-Unmut:
Das Geschäft mit der KI-Suche von OpenAI und Perplexity
Online Marketing & SEO
So trackst Du ChatGPT & Co.
AI verändert, wie Menschen suchen und Informationen finden. Viele Nutzer stellen ihre Fragen nicht mehr direkt in der Suchmaschine, sondern an ChatGPT, Gemini oder Googles AI-Features. Das bedeutet: Ein Teil Deiner Sichtbarkeit und Markenwahrnehmung findet außerhalb Deiner Website statt. In meinem Blogpost zeige ich Dir, wie Du AI Traffic analysierst und für Dich nutzen kannst.
Jeder Schritt ein Datenpunkt: Wie AI Tracking digitalen Fußabdrücke im Cyber-Dschungel sichtbar macht. Quelle: Gemini, AI Generated.
Die wichtigsten Erkenntnisse vorab:
- AI ist ein eigenständiger Sichtbarkeits- und Relevanzkanal: Auch ohne messbare Klicks prägen LLMs (z. B. ChatGPT, Gemini) und Googles AI-Features die Markenwahrnehmung maßgeblich – häufig außerhalb der eigenen Website und als klassische Zero-Click-Interaktion.
- Tracking ist nur indirekt möglich, aber dennoch wertvoll: Über Referral-Traffic aus LLMs, synthetisches Prompt-Tracking und spezialisierte Tools lassen sich zumindest Trends erkennen, etwa zu markenrelevanten Themen, Antwortstabilität und potenziellen Einstiegsseiten.
- Googles AI-Overview & AI-Mode bleiben eine Blackbox: Es gibt keine saubere Klick- oder Verlaufsanalyse; verfügbar sind nur Momentaufnahmen der Sichtbarkeit. Besonders relevant sind die ersten beiden Positionen, alle weiteren verlieren stark an Aufmerksamkeit.
- Logfile-Analysen von AI-Bots liefern strategische Hinweise: Die Analyse von Crawling-Aktivitäten zeigt, welche Inhalte für AI-Systeme besonders relevant sind, potenziell in Trainingsdaten einfließen und ob zentrale Brand-Themen überhaupt von Maschinen erkannt werden.
Raus aus der Blackbox, rein ins KI-Wissen!
Wenn Deine Inhalte in den AI-Systemen nicht auftauchen, verlierst Du potenzielle Reichweite, ohne es überhaupt zu merken. Gleichzeitig bieten diese Systeme kaum transparente Daten. Wir brauchen daher neue Wege, um herauszufinden:
- ob Deine Brand in AI-Antworten erscheint,
- welche Inhalte LLMs als relevant einstufen,
- und wie viel Traffic über AI-Systeme tatsächlich auf Deiner Website landet.
Kurz gesagt: Ohne AI-Tracking tappst Du in einer Blackbox, während ein wachsender Teil der Nutzerentscheidungen längst in AI-Interfaces getroffen wird.
Ist das AI-Tracking für Deine Website relevant?
Mit ChatGPT, Gemini und anderen AI-Systemen hat sich das Suchverhalten deutlich verschoben. Navigationale Suchanfragen laufen weiterhin klassisch über Google. Doch alles, was Informationen, Beratung oder komplexe Fragen betrifft, landet zunehmend in LLMs. Die Nutzerzahlen wachsen rasant – besonders ChatGPT verzeichnet weiter enormes Wachstum.
Damit steigt die Wahrscheinlichkeit, dass Nutzer Antworten erhalten, ohne Deine Website überhaupt besuchen zu müssen. Viele Antworten in LLMs entstehen ausschließlich aus den Trainingsdaten, ohne dass eine Live-Suche stattfindet. In diesen Fällen nennt das Modell keine Quellen – der Nutzer sieht also nicht, woher die Information stammt, und es entsteht auch kein Traffic für Deine Website.

Bei vielen informationellen Suchen in ChatGPT werden keine Links zu Quellen referenziert.
Trotzdem kann Deine Brand an dieser Stelle sichtbar werden. Sobald der Prompt Deine Marke oder ein konkretes Produkt enthält, liefert das LLM häufig eine direkte Antwort, ohne dass ein Link nötig ist. Genau daraus entsteht die typische Zero-Click-Suche: Die Frage wird vollständig im Chat beantwortet, und der Nutzer hat keinen Grund, weiter zu klicken.

Bei der Suche nach Infos zu einer Brand wird diese in der Antwort erwähnt – aber die Quelle nicht verlinkt.
Klar ist: Auch ohne Klicks beeinflussen diese Antworten, wie Nutzer Deine Brand wahrnehmen – und genau deshalb lohnt sich AI-Tracking.
Diese AI-Systeme solltest Du tracken
Bevor Du ins Tracking einsteigst, solltest Du klären, welche Arten von AI-Systemen für Dich relevant sind. Jede dieser Quellen funktioniert anders, hat ihre eigenen Grenzen und liefert unterschiedliche Hinweise darauf, wie Nutzer mit Deiner Brand interagieren. Deshalb lohnt es sich, sie getrennt zu betrachten.
Die wichtigsten Systeme, auf die Du Dich konzentrieren solltest, sind:
- LLMs wie ChatGPT, Gemini, Perplexity
- Googles AI-Overview und AI-Mode
- AI-Bots, die Deine Website crawlen
AI-Funktionen in Betriebssystemen, Browsern oder Social Media lassen wir bewusst außen vor. Sie sind zu individuell integriert und aktuell kaum sinnvoll zu tracken.
Tracking von LLMs
LLMs wie ChatGPT, Gemini oder Perplexity bieten Webseitenbetreibern aktuell keine eigenen Tracking-Daten. Wir sehen weder, wie oft Deine Brand in Antworten auftaucht, noch welche Prompts vorher gestellt wurden.
Auch Gemini und Perplexity liefern bisher keine direkten Einblicke – vermutlich, weil die Aufbereitung solcher Daten komplex wäre. Es ist aber gut möglich, dass zumindest Gemini künftig Daten über Search Console oder Analytics bereitstellt.
Für Dich als Webseitenbetreiber bedeutet das erstmal: Wir wissen nicht exakt, wo und wie Deine Inhalte in LLMs erscheinen. Trotzdem gibt es Wege, die Blackbox ein Stück weit zu öffnen.
Was der Referral-Traffic verraten kann
Ein erster Ansatz ist die Analyse des Referral-Traffics. Wenn Nutzer über ChatGPT, Gemini oder andere LLMs auf Deine Website kommen, erkennst Du das in Google Analytics. Besonders spannend ist, auf welchen Landingpages diese Zugriffe landen. Häufen sich Treffer auf bestimmten Ratgebern, Kategorien oder Produkten, lässt das Rückschlüsse auf die Art der Prompts zu, die Nutzer vorher gestellt haben.
Gleichzeitig kannst Du einschätzen, wie relevant LLM-Optimierung für Dich ist, indem Du die Zahlen mit anderen Kanälen vergleichst. Es ist kein perfekter Blick hinter die Kulissen – aber ein sehr nützlicher Indikator.
Eine Anleitung zum Tracking von Referral Traffic über LLMs findest Du bei Semrush.
Prompt-Tracking als ergänzende Perspektive
Neben dem realen Traffic kannst Du auch mit sogenannten „synthetischen“ Prompts arbeiten. Tools wie Rankscale.ai erstellen automatisierte W-Fragen zu einem Keyword und analysieren, wie LLMs darauf antworten. Trotz der Befürchtung, dass die Ergebnisse je nach „AI-Tagesform“ stark schwanken könnten, zeigen Tests:
Die Antworten bleiben inhaltlich unserer Erfahrung nach meist stabil – selbst wenn sie sprachlich variieren. Besonders Gemini liefert sehr konsistente Resultate. Für Trends und Sichtbarkeitseinschätzungen kann Prompt-Tracking also durchaus sinnvoll sein.
Wie Du passende Prompts findest
Um die richtigen Prompts zu identifizieren, lohnt sich ein Blick in Tools wie Sistrix oder Rankscale. Sie greifen häufig auf W-Fragen-Daten oder eigene Datenbanken zurück.
Zwei einfache Rechercheansätze bringen Dich schnell weiter:
- Was wird zu Deiner Brand häufig gesucht?
- Welche Fragen gibt es rund um Dein Produktportfolio?
Gerade bei Brand-bezogenen Fragen ist die Chance hoch, dass Deine Domain als Quelle genannt oder verlinkt wird – sofern das LLM live recherchiert.

Bei der Frage zu den Rücksendebedingungen für Zalando werden diese (aber auch andere) oft auch als Quelle angegeben.
Wo diese Methoden an Grenzen stoßen und welche Fallstricke es gibt, schauen wir uns später im Artikel noch genauer an.
Tracking von AI-Overview und AI-Mode
Beim Tracking der Google-Systeme wird es deutlich schwieriger. Im AI-Overview und im AI-Mode lassen sich Klicks nicht sauber erfassen, weil sich der Referral-Traffic technisch nicht vom klassischen organischen Traffic unterscheiden lässt. Eine direkte Zuordnung ist daher aktuell unmöglich.
Edit: Kaum nehmen wir den Stift in die Hand, tut sich hier etwas. Bei einigen Kollegen liefert der AI Overview neuerdings eine Art Parameter (beginnend mit #;~:text=) mit. Es ist zum jetzigen Zeitpunkt aber noch nicht vollständig ausgerollt.
Trotzdem gibt es erste Tools, die zeigen, zu welchen Suchanfragen Domains an welcher Position im AI-Overview erscheinen.

Während die insgesamt Anzeigenmenge einer Domain im AI-Overview angezeigt wird, kann man bisher einzelne Rankings nicht im Zeitverlauf beobachten. Quelle: Sistrix
Diese Tools bieten ein hilfreiches Stimmungsbild, haben aber Grenzen: Ihre Daten basieren immer auf der eigenen Keyword-Datenbank des Anbieters. Sehr lange Suchanfragen oder vollständige Sätze werden oft gar nicht erfasst. Wenn Du ein Tool auswählst, solltest Du also unbedingt prüfen, wie groß und aktuell die Datenbasis für den deutschen Markt ist.
Darüber hinaus gibt es einige Besonderheiten, die Du beim Interpretieren der Daten im Hinterkopf behalten solltest.
Die ersten beiden Positionen im AI-Overview sind mit Abstand die relevantesten. Alle weiteren Ergebnisse befinden sich hinter dem „Mehr anzeigen“-Button – und erhalten spürbar weniger Impressionen und Klicks.

Bei der AI-Overview Einbindung sind auf den ersten Blick nur die ersten beiden Links sichtbar.
Ein weiterer Punkt: Rankingverläufe lassen sich bislang nur bedingt tracken. Wir sehen immer nur Momentaufnahmen zu einzelnen Keywords, nicht die Entwicklung über die Zeit.
Und im AI-Mode zeigt sich nach ersten Analysen, dass Google häufig eine Mischung verwendet: Die ersten zehn klassischen Suchergebnisse kombiniert mit den AI-Overview-Ergebnissen.
Alles zusammen führt zu einem klaren Fazit: Für Googles AI-Features existieren bislang keine echten Tracking-Lösungen. Das wird sich vermutlich ändern, sobald Google sein Toolkit erweitert – aber Stand heute bleibt das Thema für uns eine Blackbox.
Tracking von AI-Bots
Neben der Analyse von LLMs und Google-Features lohnt sich ein Blick auf die AI-Bots, die Deine Website crawlen. Sie geben Dir Hinweise darauf, welche Inhalte für Trainingsdaten oder für die Generierung von Antworten eine Rolle spielen könnten. Wenn Du weißt, welche Seiten besonders häufig von diesen Bots aufgerufen werden, bekommst Du ein Gefühl dafür,
- welche Inhalte als besonders relevant eingestuft werden,
- welche Bereiche Deiner Website möglicherweise in Trainingsdaten einfließen, und
- ob wichtige Brand-Themen überhaupt gefunden werden.
Um diese Signale auszuwerten, kannst Du in Deinem Hosting-System die Logfiles aktivieren. Die eigentliche Analyse erfolgt dann idealerweise über ein spezialisiertes Tool wie den Logfile-Analyser Screaming Log. Dort werden die Daten übersichtlich aufbereitet, und Du kannst gezielt einzelne Bots auswählen, um deren Verhalten genauer zu betrachten.

Im Screaming Log sind die meisten AI-Bots im Standard bereits auswählbar.
Wir haben eine Übersicht der Bots zusammengestellt, die sich für diese Auswertung besonders eignen. Nicht alle davon sind nur für AI-Ergebnisse zuständig. Einen dieser Bots musst Du im Tool manuell anlegen, da er standardmäßig noch nicht vorhanden ist.

Den Bot „Google-Extended“ der speziell für Gemini zuständig ist, muss man extra anlegen – allerdings gibt es keine offiziellen Infos zum User-String.
Disclaimer: Google gibt auf ihrer Dokumentation keinen http-String aus, der eine saubere Identifikation in Log-Files zulassen würde. Der von uns angegebene String basiert auf einem häufig zitierten String aus der SEO-Community und von Bot-Detailseiten. Der String kann jedoch laut Google abweichen, da er jeden String der anderen Bots mitverwendet. Falls Du experimentierfreudig bist, hier der String mit dem wir arbeiten:
Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Google-Extended/1.0; +
Die übrigen kannst Du einfach über die Auswahlpfeile hinzufügen oder entfernen. Für eine klare Analyse empfiehlt es sich, wirklich nur die relevanten Bots zu betrachten und andere in einer separaten Auswertung zu behandeln. So vermeidest Du Datenrauschen und erhältst ein deutlich saubereres Bild.
3 Tipps beim Tracking: Chancen und Herausforderungen:
Sobald Du Dich mit dem Tracking von AI-Systemen beschäftigst, merkst Du schnell, dass die Sache komplexer ist als klassisches SEO-Reporting. AI verändert nicht nur das Suchverhalten, sondern auch die Art, wie Du Daten interpretieren kannst. Genau daraus ergeben sich neue Möglichkeiten – aber auch klare Grenzen, die Du kennen solltest.
1. Mit dem Relevanzverlust der KPIs richtig umgehen
Viele klassische SEO-Kennzahlen funktionieren im Kontext von AI nur noch eingeschränkt. Verlässliche Daten sind selten, und oft müssen wir mit W-Fragen oder Proxy-KPIs arbeiten, die nur begrenzt Rückschlüsse auf den eigentlichen Ursprung zulassen
Das wirft grundlegende Fragen auf:
- Sind Klicks, Sichtbarkeit oder Keyword-Rankings noch die richtigen Metriken?
- Welche Kennzahlen werden wir in Zukunft brauchen?
Es ist absehbar, dass sich hier in den kommenden Monaten viel verändern wird. Als SEO ist es wichtig, nah an diesen Entwicklungen zu bleiben – und wir halten Dich selbstverständlich auf dem Laufenden.
2. Achtung vor User Bias
Ein oft unterschätzter Faktor ist der Bias des Nutzers selbst. Schon kleine Unterschiede in der Fragestellung können die Antwort eines AI-Systems massiv verändern. Ein Prompt wie „Welche Kritik gibt es über Netflix?“ erzeugt häufig ein anderes Ergebnis als „Gibt es Kritik gegenüber Netflix?“.
LLMs neigen dazu, den Tonfall und die implizite Haltung des Fragenden aufzugreifen. ChatGPT etwa lobt gern „spannende“ oder „wichtige“ Fragen – eine typisch menschenfreundliche Antwortstrategie. Das bedeutet: Nicht nur was gefragt wird, sondern wie gefragt wird, beeinflusst die Ergebnisse. Für das Tracking macht das die Sache nicht einfacher.
3. Synthetische User Prompts und Unterhaltungen beachten
Ein weiterer Punkt schließt direkt daran an: Wir wissen nicht, wie echte Nutzer in AI-Systemen suchen, weil die Anbieter diese Daten nicht teilen. Deshalb arbeiten wir oft mit „synthetischen“ Prompts aus Tools wie Answer the Public, Sistrix, Semrush oder Termlabs. Diese bilden aber nicht unbedingt die Realität ab.
Gefällt Dir dieser Blogpost? Wenn Du regelmäßig die neuesten Trends im Online Marketing mitbekommen willst, dann abonniere jetzt unseren Newsletter. Zu Beginn des kostenlosen Abonnements bekommst Du täglich jeden Tag eine Mail, um Dich fit in SEO zu machen – 5 Tage lang. Über 83.000 Abonnenten vertrauen uns.
Hier geht es zum Anmeldeformular.
Gerade in LLMs läuft eine Unterhaltung viel dynamischer ab als eine klassische Suchanfrage. Nutzer stellen Folgefragen, ergänzen Informationen, ändern ihren Fokus – ähnlich wie in einem Gespräch mit einem Berater. Die Daten aus Tools wie Rankscale.io zeigen daher immer nur einen Trend, nicht das tatsächliche Verhalten. Und dieser Trend kann im Einzelfall weit von der Wahrheit entfernt sein.
Fazit: Was Du aus dem AI-Tracking mitnehmen solltest
Beobachte, wie und wo Deine Brand dort auftaucht. Viele Interaktionen mit Deiner Marke finden gegebenenfalls auch außerhalb Deiner Webseite statt.
Die wichtigsten Erkenntnisse aus diesem Artikel:
AI ist längst ein eigener „Traffic-Kanal“
Auch wenn Du keine klassischen Klicks messen kannst, beeinflussen LLM-Antworten die Wahrnehmung Deiner Brand – oft, ohne dass Nutzer jemals auf Deiner Seite landen.
LLMs bleiben eine Blackbox, aber nicht völlig
Über Referral-Traffic und Prompt-Tracking kannst Du zumindest Trends erkennen:
- Welche Themen LLMs mit Deiner Brand verknüpfen,
- wie stabil die Antworten sind, und
- ob Nutzer über LLMs tatsächlich bei Dir landen.
Googles AI-Overview & AI-Mode liefern Momentaufnahmen
Du siehst dort Positionen und Sichtbarkeit, aber keine echten Klickdaten.
Relevanz haben vor allem die ersten beiden Positionen – der Rest verschwindet hinter „Mehr anzeigen“.
AI-Bots zeigen, was Maschinen an Deinen Inhalten spannend finden
Über Logfile-Analysen findest Du heraus,
- welche Seiten intensiv gecrawlt werden.
- welche Inhalte potenziell in Trainingsdaten landen.
- ob Deine wichtigsten Themen überhaupt erkannt werden.
Klassische KPIs geraten ins Wanken
Keyword-Rankings, Sichtbarkeitswerte oder Klicks erklären immer weniger.
Du brauchst neue Perspektiven: Nutzerprompts, Inhalte, Kontext.
Kurz gesagt: Du misst weniger Traffic, dafür mehr Relevanz.
User Bias & Prompts bleiben große Unsicherheitsfaktoren
Wie der Nutzer fragt, beeinflusst die Antwort massiv.
Und synthetische Prompts bilden echte Gespräche nur begrenzt ab.
TL;DR
AI verhält sich gerade ein bisschen wie ein vorlauter Weihnachtself: Es wuselt überall herum, verteilt Antworten, bevor Du überhaupt weißt, woher sie kommen – und lässt kaum Spuren zurück, die Du messen kannst. Außerdem flunkert er hier und da noch was dazu, in der Hoffnung nicht ertappt zu werden oder richtig geraten zu haben.
Wenn Du aber weißt, wo Du hinschauen musst, erkennst Du zumindest, wo der kleine Kerl schon wieder heimlich werkelt.
Bildnachweis: Titelbild: Gemini via Seokratie, Bild 2: Semrush https://www.semrush.com/news/379285-new-semrush-study-reveals-chatgpt-search-trends-insights-from-80-million-clickstream-records/, Bild 3: Backlinko https://backlinko.com/chatgpt-stats, Bild 4-10: Screenshots
Online Marketing & SEO
BCG-Studie: Warum Eigenmarken bei Nonfood an Relevanz gewinnen
Beispiel Heimwerken: In diesem Segment sind Lidl und Kaufland mit der Eigenmarke Parkside vertreten.
Private Label sind auch im Nonfood-Bereich beliebt. Verbraucher kaufen die Eigenmarkenprodukte bei Kosmetik, Werkzeug oder Bekleidung aber nicht nur wegen der Preisunterschiede, wie eine Studie der Boston Consulting Group zeigt.
Auch im Nonfood-Segment gewinnen Eigenmarken zunehmend an Beliebtheit und Relevanz. Das zeigt eine gemeinsame Analyse der Unternehmensberatung Boston
Jetzt Angebot wählen und weiterlesen!
HORIZONT Digital
- Vollzugriff auf HORIZONT Online mit allen Artikeln
- E-Paper der Zeitung und Magazine
- Online-Printarchiv
HORIZONT Digital-Mehrplatzlizenz für Ihr Team
-
UX/UI & Webdesignvor 3 MonatenIllustrierte Reise nach New York City › PAGE online
-
UX/UI & Webdesignvor 3 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 3 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Künstliche Intelligenzvor 3 MonatenX: Für Dauer von Bezahlabo kann man bald ungenutzte Kontonamen übernehmen
-
Künstliche Intelligenzvor 3 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Online Marketing & SEOvor 3 MonatenUmfrage von LinkedIn und OMD: Viele Unternehmen vertrauen auf die Expertise von Business Influencern


