Online Marketing & SEO
Wikipedia goes KI: Der Kampf ums Weltwissen
Neben der bereits 2022 bekannt gewordenen Kooperation mit Google hat Wikimedia nun offengelegt, dass im vergangenen Jahr weitere Kooperationen mit großen KI-Playern geschlossen wurden. Dazu zählen Amazon, Meta, Microsoft, Mistral AI und Perplexity, wie die Organisation in einem Beitrag von Wikimedia Enterprise bekanntgibt. Dort heißt es richtungsweisend:
In the AI era, Wikipedia’s human-created and curated knowledge has never been more valuable.
Einige Kooperationen, etwa mit Ecosia, Pleias und ProRata, waren bereits zuvor bekannt. Mit der aktuellen Ankündigung ergänzt Wikimedia sie um weitere Partner:innen wie Nomic und Reef Media. Für Nutzer:innen bleibt Wikipedia unverändert offen und kostenlos. Hinter den Kulissen verschiebt sich jedoch, wie das Weltwissen der Plattform im KI-Ökosystem genutzt und verteilt wird.
Google und Co. sollen zahlen:
Wikipedia plant Bezahl-Service Wikimedia Enterprise

Wie Wikipedia das menschlich kuratierte Wissen vor KI-Ausbeutung schützen will
Die Wikimedia Foundation ist das organisatorische Rückgrat hinter Wikipedia. Als gemeinnützige Stiftung verantwortet sie Technik, Recht, Finanzierung und strategische Fragen – die Inhalte selbst entstehen weiterhin durch eine weltweite Community freiwilliger Autor:innen. Wikipedia zählt heute zu den meistgenutzten Websites der Welt. Monatlich werden laut Stiftung über 65 Millionen Artikel in mehr als 300 Sprachen rund 15 Milliarden Mal aufgerufen.
Nach 25 Jahren steht Wikipedia damit exemplarisch für ein zentrales Problem des Internets 2026. Offenheit allein schützt nicht mehr vor Ausbeutung. Gleichzeitig greifen KI-Modelle diese Inhalte zunehmend automatisiert ab. Suchmaschinen, Chatbots und Sprachassistenzen nutzen Wikipedia als Wissensbasis, oft ohne direkten Kontakt zur Plattform. Genau hier setzt Wikimedia Enterprise an. Statt unkontrolliertem Scraping bietet die Stiftung einen offiziellen, kostenpflichtigen Zugang mit klaren technischen Schnittstellen und Nutzungsbedingungen.
Über Wikimedia Enterprise erhalten Unternehmen einen Zugriff auf aktuelle, strukturierte Wikipedia-Inhalte, etwa für Suchsysteme, Wissensgraphen oder sogenannte RAG-Modelle. Für die Stiftung steht dabei weniger der finanzielle Ertrag im Vordergrund. Ziel ist es, Einfluss darauf zu behalten, wie Wikipedia-Wissen weiterverwendet wird, und zugleich die eigene Infrastruktur vor wachsender technischer Belastung zu schützen.
Zwischen Regulierung und Machtspiel: Wie KI das Weltwissen auf die Probe stellt
Mit Wikimedia Enterprise reagiert die Wikimedia Foundation auf einen grundlegenden Wandel. Wikipedia wird immer seltener von Menschen besucht, aber immer häufiger von Maschinen gelesen und aufbereitet. KI-Systeme zapfen Inhalte automatisiert an, um sie in Suchmaschinen, Chatbots oder Wissensgraphen weiterzuverarbeiten. Das erschwert die Nachvollziehbarkeit von Quellen und verschiebt Aufmerksamkeit weg von der Plattform selbst. Um diesen Entwicklungen etwas entgegnen zu können, stellt Wikimedia Enterprise jetzt Wikipedia-Inhalte über APIs bereit – von Einzelabfragen über regelmäßig aktualisierte Datensätze bis hin zu Echtzeit-Streams. Ziel ist es, den unvermeidbaren KI-Zugriff zu steuern, Transparenz zu sichern und die menschliche Kuration nicht aus dem System zu drängen.
Einen radikal anderen Weg geht Elon Musk mit Grokipedia. Die von seiner KI-Firma xAI entwickelte Enzyklopädie versteht sich als Gegenentwurf zu Wikipedia und setzt vollständig auf KI-generierte Inhalte. Grokipedia soll – so Musks eigenes Narrativ – eine „objektivere“ Alternative zu einer angeblich politisch voreingenommenen Wikipedia sein. Kritiker:innen sehen jedoch genau das Gegenteil. Viele Einträge weisen politische Verzerrungen auf, greifen auf zweifelhafte Quellen zurück oder enthalten faktische Fehler. Hinzu kommt, dass einzelne Artikel nahezu wortgleich aus Wikipedia übernommen wurden, teils inklusive Lizenzhinweisen, ohne dass eine echte redaktionelle Überarbeitung erkennbar wäre. Gerade das Fehlen einer offenen, gemeinschaftlichen Kontrolle macht das Modell anfällig für Fehler und Verzerrungen.
Besonders problematisch ist Grokipedia vor dem Hintergrund der anhaltenden Kontroversen rund um Musks KI-Ökosystem. Der KI-Chatbot Grok, der diese Enzyklopädie speist, steht seit seinem Launch im Oktober 2025 immer wieder in der Kritik. So macht er antisemitische Aussagen und hat beispielsweise Adolf Hitler glorifiziert, was internationale Empörung auslöste. Derzeit wird er von einigen verwendet, um sexuell explizite und non-konsensuale Deepfakes von Dritten, insbesondere von Frauen und sogar Minderjährigen zu erstellen und zu verbreiten. Wie unter anderem tagesschau.de berichtet, leiteten die Europäische Union und Aufsichtsstellen in mehreren Ländern vor diesem Hintergrund Ermittlungen gegen xAI ein. In Malaysia und Indonesien wurde der Zugang zum Chatbot Grok zeitweise gesperrt. Zuletzt kündigte auch der US-Bundesstaat Kalifornien Untersuchungen gegen das Unternehmen an.
Menschliches Wissen bleibt der Kern von Wikipedia
Trotz der neuen KI-Kooperationen betont Wikimedia immer wieder, dass Wikipedia vor allem ein von Menschen getragenes Projekt ist. Die Artikel entstehen in einer vergleichsweise kleinen, ehrenamtlichen Community – und genau das macht die Plattform bis heute glaubwürdig. Gleichzeitig liegt darin eine Schwachstelle. Koordinierte Manipulationsversuche, Fake Accounts und politische Einflussnahme gehören zur Realität und können den Vertrauensstatus untergraben.
Wie solche Eingriffe ablaufen, schildert der Journalist und Co-Autor der SWR-Podcast-Dokuserie Sockenpuppenzoo: Angriff auf Wikipedia Christoph Schattleitner im Gespräch mit SWR Aktuell-Moderator Pascal Fournier. Besonders häufig werden demnach Artikel zu historischen Ereignissen rund um den Nationalsozialismus manipuliert, die systematisch verzerrt oder umgedeutet werden sollen. Brisant wird das vor allem im Zusammenspiel mit KI. Werden verfälschte Artikel von Sprachmodellen ausgelesen und weiterverarbeitet, können sich Falschinformationen deutlich schneller und breiter verbreiten als bisher.
Um menschliche Kuration zu bewahren und auch, um solchen Maniplationen entgegenzuwirken, braucht Wikipedia paradoxerweise KI-Unternehmen, also jene Unternehmen, die den Traffic klassischer Wissensseiten zunehmend verdrängen. Weil sie den massenhaften Zugriff auf Wikipedia-Inhalte nicht aufhalten wird, versucht die Stiftung, ihn zu steuern und davon zu profitieren. Durch die Kooperationen kann Wikimedia Nutzung regeln und die menschliche Kuration absichern.
SERP Scraping und Publisher-Unmut:
Das Geschäft mit der KI-Suche von OpenAI und Perplexity
Online Marketing & SEO
So trackst Du ChatGPT & Co.
AI verändert, wie Menschen suchen und Informationen finden. Viele Nutzer stellen ihre Fragen nicht mehr direkt in der Suchmaschine, sondern an ChatGPT, Gemini oder Googles AI-Features. Das bedeutet: Ein Teil Deiner Sichtbarkeit und Markenwahrnehmung findet außerhalb Deiner Website statt. In meinem Blogpost zeige ich Dir, wie Du AI Traffic analysierst und für Dich nutzen kannst.
Jeder Schritt ein Datenpunkt: Wie AI Tracking digitalen Fußabdrücke im Cyber-Dschungel sichtbar macht. Quelle: Gemini, AI Generated.
Die wichtigsten Erkenntnisse vorab:
- AI ist ein eigenständiger Sichtbarkeits- und Relevanzkanal: Auch ohne messbare Klicks prägen LLMs (z. B. ChatGPT, Gemini) und Googles AI-Features die Markenwahrnehmung maßgeblich – häufig außerhalb der eigenen Website und als klassische Zero-Click-Interaktion.
- Tracking ist nur indirekt möglich, aber dennoch wertvoll: Über Referral-Traffic aus LLMs, synthetisches Prompt-Tracking und spezialisierte Tools lassen sich zumindest Trends erkennen, etwa zu markenrelevanten Themen, Antwortstabilität und potenziellen Einstiegsseiten.
- Googles AI-Overview & AI-Mode bleiben eine Blackbox: Es gibt keine saubere Klick- oder Verlaufsanalyse; verfügbar sind nur Momentaufnahmen der Sichtbarkeit. Besonders relevant sind die ersten beiden Positionen, alle weiteren verlieren stark an Aufmerksamkeit.
- Logfile-Analysen von AI-Bots liefern strategische Hinweise: Die Analyse von Crawling-Aktivitäten zeigt, welche Inhalte für AI-Systeme besonders relevant sind, potenziell in Trainingsdaten einfließen und ob zentrale Brand-Themen überhaupt von Maschinen erkannt werden.
Raus aus der Blackbox, rein ins KI-Wissen!
Wenn Deine Inhalte in den AI-Systemen nicht auftauchen, verlierst Du potenzielle Reichweite, ohne es überhaupt zu merken. Gleichzeitig bieten diese Systeme kaum transparente Daten. Wir brauchen daher neue Wege, um herauszufinden:
- ob Deine Brand in AI-Antworten erscheint,
- welche Inhalte LLMs als relevant einstufen,
- und wie viel Traffic über AI-Systeme tatsächlich auf Deiner Website landet.
Kurz gesagt: Ohne AI-Tracking tappst Du in einer Blackbox, während ein wachsender Teil der Nutzerentscheidungen längst in AI-Interfaces getroffen wird.
Ist das AI-Tracking für Deine Website relevant?
Mit ChatGPT, Gemini und anderen AI-Systemen hat sich das Suchverhalten deutlich verschoben. Navigationale Suchanfragen laufen weiterhin klassisch über Google. Doch alles, was Informationen, Beratung oder komplexe Fragen betrifft, landet zunehmend in LLMs. Die Nutzerzahlen wachsen rasant – besonders ChatGPT verzeichnet weiter enormes Wachstum.
Damit steigt die Wahrscheinlichkeit, dass Nutzer Antworten erhalten, ohne Deine Website überhaupt besuchen zu müssen. Viele Antworten in LLMs entstehen ausschließlich aus den Trainingsdaten, ohne dass eine Live-Suche stattfindet. In diesen Fällen nennt das Modell keine Quellen – der Nutzer sieht also nicht, woher die Information stammt, und es entsteht auch kein Traffic für Deine Website.

Bei vielen informationellen Suchen in ChatGPT werden keine Links zu Quellen referenziert.
Trotzdem kann Deine Brand an dieser Stelle sichtbar werden. Sobald der Prompt Deine Marke oder ein konkretes Produkt enthält, liefert das LLM häufig eine direkte Antwort, ohne dass ein Link nötig ist. Genau daraus entsteht die typische Zero-Click-Suche: Die Frage wird vollständig im Chat beantwortet, und der Nutzer hat keinen Grund, weiter zu klicken.

Bei der Suche nach Infos zu einer Brand wird diese in der Antwort erwähnt – aber die Quelle nicht verlinkt.
Klar ist: Auch ohne Klicks beeinflussen diese Antworten, wie Nutzer Deine Brand wahrnehmen – und genau deshalb lohnt sich AI-Tracking.
Diese AI-Systeme solltest Du tracken
Bevor Du ins Tracking einsteigst, solltest Du klären, welche Arten von AI-Systemen für Dich relevant sind. Jede dieser Quellen funktioniert anders, hat ihre eigenen Grenzen und liefert unterschiedliche Hinweise darauf, wie Nutzer mit Deiner Brand interagieren. Deshalb lohnt es sich, sie getrennt zu betrachten.
Die wichtigsten Systeme, auf die Du Dich konzentrieren solltest, sind:
- LLMs wie ChatGPT, Gemini, Perplexity
- Googles AI-Overview und AI-Mode
- AI-Bots, die Deine Website crawlen
AI-Funktionen in Betriebssystemen, Browsern oder Social Media lassen wir bewusst außen vor. Sie sind zu individuell integriert und aktuell kaum sinnvoll zu tracken.
Tracking von LLMs
LLMs wie ChatGPT, Gemini oder Perplexity bieten Webseitenbetreibern aktuell keine eigenen Tracking-Daten. Wir sehen weder, wie oft Deine Brand in Antworten auftaucht, noch welche Prompts vorher gestellt wurden.
Auch Gemini und Perplexity liefern bisher keine direkten Einblicke – vermutlich, weil die Aufbereitung solcher Daten komplex wäre. Es ist aber gut möglich, dass zumindest Gemini künftig Daten über Search Console oder Analytics bereitstellt.
Für Dich als Webseitenbetreiber bedeutet das erstmal: Wir wissen nicht exakt, wo und wie Deine Inhalte in LLMs erscheinen. Trotzdem gibt es Wege, die Blackbox ein Stück weit zu öffnen.
Was der Referral-Traffic verraten kann
Ein erster Ansatz ist die Analyse des Referral-Traffics. Wenn Nutzer über ChatGPT, Gemini oder andere LLMs auf Deine Website kommen, erkennst Du das in Google Analytics. Besonders spannend ist, auf welchen Landingpages diese Zugriffe landen. Häufen sich Treffer auf bestimmten Ratgebern, Kategorien oder Produkten, lässt das Rückschlüsse auf die Art der Prompts zu, die Nutzer vorher gestellt haben.
Gleichzeitig kannst Du einschätzen, wie relevant LLM-Optimierung für Dich ist, indem Du die Zahlen mit anderen Kanälen vergleichst. Es ist kein perfekter Blick hinter die Kulissen – aber ein sehr nützlicher Indikator.
Eine Anleitung zum Tracking von Referral Traffic über LLMs findest Du bei Semrush.
Prompt-Tracking als ergänzende Perspektive
Neben dem realen Traffic kannst Du auch mit sogenannten „synthetischen“ Prompts arbeiten. Tools wie Rankscale.ai erstellen automatisierte W-Fragen zu einem Keyword und analysieren, wie LLMs darauf antworten. Trotz der Befürchtung, dass die Ergebnisse je nach „AI-Tagesform“ stark schwanken könnten, zeigen Tests:
Die Antworten bleiben inhaltlich unserer Erfahrung nach meist stabil – selbst wenn sie sprachlich variieren. Besonders Gemini liefert sehr konsistente Resultate. Für Trends und Sichtbarkeitseinschätzungen kann Prompt-Tracking also durchaus sinnvoll sein.
Wie Du passende Prompts findest
Um die richtigen Prompts zu identifizieren, lohnt sich ein Blick in Tools wie Sistrix oder Rankscale. Sie greifen häufig auf W-Fragen-Daten oder eigene Datenbanken zurück.
Zwei einfache Rechercheansätze bringen Dich schnell weiter:
- Was wird zu Deiner Brand häufig gesucht?
- Welche Fragen gibt es rund um Dein Produktportfolio?
Gerade bei Brand-bezogenen Fragen ist die Chance hoch, dass Deine Domain als Quelle genannt oder verlinkt wird – sofern das LLM live recherchiert.

Bei der Frage zu den Rücksendebedingungen für Zalando werden diese (aber auch andere) oft auch als Quelle angegeben.
Wo diese Methoden an Grenzen stoßen und welche Fallstricke es gibt, schauen wir uns später im Artikel noch genauer an.
Tracking von AI-Overview und AI-Mode
Beim Tracking der Google-Systeme wird es deutlich schwieriger. Im AI-Overview und im AI-Mode lassen sich Klicks nicht sauber erfassen, weil sich der Referral-Traffic technisch nicht vom klassischen organischen Traffic unterscheiden lässt. Eine direkte Zuordnung ist daher aktuell unmöglich.
Edit: Kaum nehmen wir den Stift in die Hand, tut sich hier etwas. Bei einigen Kollegen liefert der AI Overview neuerdings eine Art Parameter (beginnend mit #;~:text=) mit. Es ist zum jetzigen Zeitpunkt aber noch nicht vollständig ausgerollt.
Trotzdem gibt es erste Tools, die zeigen, zu welchen Suchanfragen Domains an welcher Position im AI-Overview erscheinen.

Während die insgesamt Anzeigenmenge einer Domain im AI-Overview angezeigt wird, kann man bisher einzelne Rankings nicht im Zeitverlauf beobachten. Quelle: Sistrix
Diese Tools bieten ein hilfreiches Stimmungsbild, haben aber Grenzen: Ihre Daten basieren immer auf der eigenen Keyword-Datenbank des Anbieters. Sehr lange Suchanfragen oder vollständige Sätze werden oft gar nicht erfasst. Wenn Du ein Tool auswählst, solltest Du also unbedingt prüfen, wie groß und aktuell die Datenbasis für den deutschen Markt ist.
Darüber hinaus gibt es einige Besonderheiten, die Du beim Interpretieren der Daten im Hinterkopf behalten solltest.
Die ersten beiden Positionen im AI-Overview sind mit Abstand die relevantesten. Alle weiteren Ergebnisse befinden sich hinter dem „Mehr anzeigen“-Button – und erhalten spürbar weniger Impressionen und Klicks.

Bei der AI-Overview Einbindung sind auf den ersten Blick nur die ersten beiden Links sichtbar.
Ein weiterer Punkt: Rankingverläufe lassen sich bislang nur bedingt tracken. Wir sehen immer nur Momentaufnahmen zu einzelnen Keywords, nicht die Entwicklung über die Zeit.
Und im AI-Mode zeigt sich nach ersten Analysen, dass Google häufig eine Mischung verwendet: Die ersten zehn klassischen Suchergebnisse kombiniert mit den AI-Overview-Ergebnissen.
Alles zusammen führt zu einem klaren Fazit: Für Googles AI-Features existieren bislang keine echten Tracking-Lösungen. Das wird sich vermutlich ändern, sobald Google sein Toolkit erweitert – aber Stand heute bleibt das Thema für uns eine Blackbox.
Tracking von AI-Bots
Neben der Analyse von LLMs und Google-Features lohnt sich ein Blick auf die AI-Bots, die Deine Website crawlen. Sie geben Dir Hinweise darauf, welche Inhalte für Trainingsdaten oder für die Generierung von Antworten eine Rolle spielen könnten. Wenn Du weißt, welche Seiten besonders häufig von diesen Bots aufgerufen werden, bekommst Du ein Gefühl dafür,
- welche Inhalte als besonders relevant eingestuft werden,
- welche Bereiche Deiner Website möglicherweise in Trainingsdaten einfließen, und
- ob wichtige Brand-Themen überhaupt gefunden werden.
Um diese Signale auszuwerten, kannst Du in Deinem Hosting-System die Logfiles aktivieren. Die eigentliche Analyse erfolgt dann idealerweise über ein spezialisiertes Tool wie den Logfile-Analyser Screaming Log. Dort werden die Daten übersichtlich aufbereitet, und Du kannst gezielt einzelne Bots auswählen, um deren Verhalten genauer zu betrachten.

Im Screaming Log sind die meisten AI-Bots im Standard bereits auswählbar.
Wir haben eine Übersicht der Bots zusammengestellt, die sich für diese Auswertung besonders eignen. Nicht alle davon sind nur für AI-Ergebnisse zuständig. Einen dieser Bots musst Du im Tool manuell anlegen, da er standardmäßig noch nicht vorhanden ist.

Den Bot „Google-Extended“ der speziell für Gemini zuständig ist, muss man extra anlegen – allerdings gibt es keine offiziellen Infos zum User-String.
Disclaimer: Google gibt auf ihrer Dokumentation keinen http-String aus, der eine saubere Identifikation in Log-Files zulassen würde. Der von uns angegebene String basiert auf einem häufig zitierten String aus der SEO-Community und von Bot-Detailseiten. Der String kann jedoch laut Google abweichen, da er jeden String der anderen Bots mitverwendet. Falls Du experimentierfreudig bist, hier der String mit dem wir arbeiten:
Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Google-Extended/1.0; +
Die übrigen kannst Du einfach über die Auswahlpfeile hinzufügen oder entfernen. Für eine klare Analyse empfiehlt es sich, wirklich nur die relevanten Bots zu betrachten und andere in einer separaten Auswertung zu behandeln. So vermeidest Du Datenrauschen und erhältst ein deutlich saubereres Bild.
3 Tipps beim Tracking: Chancen und Herausforderungen:
Sobald Du Dich mit dem Tracking von AI-Systemen beschäftigst, merkst Du schnell, dass die Sache komplexer ist als klassisches SEO-Reporting. AI verändert nicht nur das Suchverhalten, sondern auch die Art, wie Du Daten interpretieren kannst. Genau daraus ergeben sich neue Möglichkeiten – aber auch klare Grenzen, die Du kennen solltest.
1. Mit dem Relevanzverlust der KPIs richtig umgehen
Viele klassische SEO-Kennzahlen funktionieren im Kontext von AI nur noch eingeschränkt. Verlässliche Daten sind selten, und oft müssen wir mit W-Fragen oder Proxy-KPIs arbeiten, die nur begrenzt Rückschlüsse auf den eigentlichen Ursprung zulassen
Das wirft grundlegende Fragen auf:
- Sind Klicks, Sichtbarkeit oder Keyword-Rankings noch die richtigen Metriken?
- Welche Kennzahlen werden wir in Zukunft brauchen?
Es ist absehbar, dass sich hier in den kommenden Monaten viel verändern wird. Als SEO ist es wichtig, nah an diesen Entwicklungen zu bleiben – und wir halten Dich selbstverständlich auf dem Laufenden.
2. Achtung vor User Bias
Ein oft unterschätzter Faktor ist der Bias des Nutzers selbst. Schon kleine Unterschiede in der Fragestellung können die Antwort eines AI-Systems massiv verändern. Ein Prompt wie „Welche Kritik gibt es über Netflix?“ erzeugt häufig ein anderes Ergebnis als „Gibt es Kritik gegenüber Netflix?“.
LLMs neigen dazu, den Tonfall und die implizite Haltung des Fragenden aufzugreifen. ChatGPT etwa lobt gern „spannende“ oder „wichtige“ Fragen – eine typisch menschenfreundliche Antwortstrategie. Das bedeutet: Nicht nur was gefragt wird, sondern wie gefragt wird, beeinflusst die Ergebnisse. Für das Tracking macht das die Sache nicht einfacher.
3. Synthetische User Prompts und Unterhaltungen beachten
Ein weiterer Punkt schließt direkt daran an: Wir wissen nicht, wie echte Nutzer in AI-Systemen suchen, weil die Anbieter diese Daten nicht teilen. Deshalb arbeiten wir oft mit „synthetischen“ Prompts aus Tools wie Answer the Public, Sistrix, Semrush oder Termlabs. Diese bilden aber nicht unbedingt die Realität ab.
Gefällt Dir dieser Blogpost? Wenn Du regelmäßig die neuesten Trends im Online Marketing mitbekommen willst, dann abonniere jetzt unseren Newsletter. Zu Beginn des kostenlosen Abonnements bekommst Du täglich jeden Tag eine Mail, um Dich fit in SEO zu machen – 5 Tage lang. Über 83.000 Abonnenten vertrauen uns.
Hier geht es zum Anmeldeformular.
Gerade in LLMs läuft eine Unterhaltung viel dynamischer ab als eine klassische Suchanfrage. Nutzer stellen Folgefragen, ergänzen Informationen, ändern ihren Fokus – ähnlich wie in einem Gespräch mit einem Berater. Die Daten aus Tools wie Rankscale.io zeigen daher immer nur einen Trend, nicht das tatsächliche Verhalten. Und dieser Trend kann im Einzelfall weit von der Wahrheit entfernt sein.
Fazit: Was Du aus dem AI-Tracking mitnehmen solltest
Beobachte, wie und wo Deine Brand dort auftaucht. Viele Interaktionen mit Deiner Marke finden gegebenenfalls auch außerhalb Deiner Webseite statt.
Die wichtigsten Erkenntnisse aus diesem Artikel:
AI ist längst ein eigener „Traffic-Kanal“
Auch wenn Du keine klassischen Klicks messen kannst, beeinflussen LLM-Antworten die Wahrnehmung Deiner Brand – oft, ohne dass Nutzer jemals auf Deiner Seite landen.
LLMs bleiben eine Blackbox, aber nicht völlig
Über Referral-Traffic und Prompt-Tracking kannst Du zumindest Trends erkennen:
- Welche Themen LLMs mit Deiner Brand verknüpfen,
- wie stabil die Antworten sind, und
- ob Nutzer über LLMs tatsächlich bei Dir landen.
Googles AI-Overview & AI-Mode liefern Momentaufnahmen
Du siehst dort Positionen und Sichtbarkeit, aber keine echten Klickdaten.
Relevanz haben vor allem die ersten beiden Positionen – der Rest verschwindet hinter „Mehr anzeigen“.
AI-Bots zeigen, was Maschinen an Deinen Inhalten spannend finden
Über Logfile-Analysen findest Du heraus,
- welche Seiten intensiv gecrawlt werden.
- welche Inhalte potenziell in Trainingsdaten landen.
- ob Deine wichtigsten Themen überhaupt erkannt werden.
Klassische KPIs geraten ins Wanken
Keyword-Rankings, Sichtbarkeitswerte oder Klicks erklären immer weniger.
Du brauchst neue Perspektiven: Nutzerprompts, Inhalte, Kontext.
Kurz gesagt: Du misst weniger Traffic, dafür mehr Relevanz.
User Bias & Prompts bleiben große Unsicherheitsfaktoren
Wie der Nutzer fragt, beeinflusst die Antwort massiv.
Und synthetische Prompts bilden echte Gespräche nur begrenzt ab.
TL;DR
AI verhält sich gerade ein bisschen wie ein vorlauter Weihnachtself: Es wuselt überall herum, verteilt Antworten, bevor Du überhaupt weißt, woher sie kommen – und lässt kaum Spuren zurück, die Du messen kannst. Außerdem flunkert er hier und da noch was dazu, in der Hoffnung nicht ertappt zu werden oder richtig geraten zu haben.
Wenn Du aber weißt, wo Du hinschauen musst, erkennst Du zumindest, wo der kleine Kerl schon wieder heimlich werkelt.
Bildnachweis: Titelbild: Gemini via Seokratie, Bild 2: Semrush https://www.semrush.com/news/379285-new-semrush-study-reveals-chatgpt-search-trends-insights-from-80-million-clickstream-records/, Bild 3: Backlinko https://backlinko.com/chatgpt-stats, Bild 4-10: Screenshots
Online Marketing & SEO
BCG-Studie: Warum Eigenmarken bei Nonfood an Relevanz gewinnen
Beispiel Heimwerken: In diesem Segment sind Lidl und Kaufland mit der Eigenmarke Parkside vertreten.
Private Label sind auch im Nonfood-Bereich beliebt. Verbraucher kaufen die Eigenmarkenprodukte bei Kosmetik, Werkzeug oder Bekleidung aber nicht nur wegen der Preisunterschiede, wie eine Studie der Boston Consulting Group zeigt.
Auch im Nonfood-Segment gewinnen Eigenmarken zunehmend an Beliebtheit und Relevanz. Das zeigt eine gemeinsame Analyse der Unternehmensberatung Boston
Jetzt Angebot wählen und weiterlesen!
HORIZONT Digital
- Vollzugriff auf HORIZONT Online mit allen Artikeln
- E-Paper der Zeitung und Magazine
- Online-Printarchiv
HORIZONT Digital-Mehrplatzlizenz für Ihr Team
Online Marketing & SEO
Olympische Winterspiele und Autralian Open: HBO Max wirbt mit Boris Becker für sportlichen Doppelpack
Boris Becker vermisst auf dem Weg nach Melbourne noch ein paar Tennisschläger
Was sucht Boris Becker im Olympia-Bus? Und warum tauchen plötzlich Tennisschläger zwischen Ski und Snowboards auf? Zum Start von HBO Max in Deutschland hat der Streamingdienst ein paar Überraschung – sowohl sportlich als auch finanziell.
Denn auch mit Sport will sich die diese Woche in Deutschland gestartete Streamingplattform relevant machen. Zwei global wichtige Events, die in den ko
Jetzt Angebot wählen und weiterlesen!
HORIZONT Digital
- Vollzugriff auf HORIZONT Online mit allen Artikeln
- E-Paper der Zeitung und Magazine
- Online-Printarchiv
HORIZONT Digital-Mehrplatzlizenz für Ihr Team
-
UX/UI & Webdesignvor 3 MonatenIllustrierte Reise nach New York City › PAGE online
-
UX/UI & Webdesignvor 3 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 3 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Künstliche Intelligenzvor 3 MonatenX: Für Dauer von Bezahlabo kann man bald ungenutzte Kontonamen übernehmen
-
Künstliche Intelligenzvor 3 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Online Marketing & SEOvor 3 MonatenUmfrage von LinkedIn und OMD: Viele Unternehmen vertrauen auf die Expertise von Business Influencern


