Connect with us

Online Marketing & SEO

Wikipedia goes KI: Der Kampf ums Weltwissen


Neben der bereits 2022 bekannt gewordenen Kooperation mit Google hat Wikimedia nun offengelegt, dass im vergangenen Jahr weitere Kooperationen mit großen KI-Playern geschlossen wurden. Dazu zählen Amazon, Meta, Microsoft, Mistral AI und Perplexity, wie die Organisation in einem Beitrag von Wikimedia Enterprise bekanntgibt. Dort heißt es richtungsweisend:

In the AI era, Wikipedia’s human-created and curated knowledge has never been more valuable.

Einige Kooperationen, etwa mit Ecosia, Pleias und ProRata, waren bereits zuvor bekannt. Mit der aktuellen Ankündigung ergänzt Wikimedia sie um weitere Partner:innen wie Nomic und Reef Media. Für Nutzer:innen bleibt Wikipedia unverändert offen und kostenlos. Hinter den Kulissen verschiebt sich jedoch, wie das Weltwissen der Plattform im KI-Ökosystem genutzt und verteilt wird.


Google und Co. sollen zahlen:
Wikipedia plant Bezahl-Service Wikimedia Enterprise

Wikipedia
© Jumpstory

Wie Wikipedia das menschlich kuratierte Wissen vor KI-Ausbeutung schützen will

Die Wikimedia Foundation ist das organisatorische Rückgrat hinter Wikipedia. Als gemeinnützige Stiftung verantwortet sie Technik, Recht, Finanzierung und strategische Fragen – die Inhalte selbst entstehen weiterhin durch eine weltweite Community freiwilliger Autor:innen. Wikipedia zählt heute zu den meistgenutzten Websites der Welt. Monatlich werden laut Stiftung über 65 Millionen Artikel in mehr als 300 Sprachen rund 15 Milliarden Mal aufgerufen.

Nach 25 Jahren steht Wikipedia damit exemplarisch für ein zentrales Problem des Internets 2026. Offenheit allein schützt nicht mehr vor Ausbeutung. Gleichzeitig greifen KI-Modelle diese Inhalte zunehmend automatisiert ab. Suchmaschinen, Chatbots und Sprachassistenzen nutzen Wikipedia als Wissensbasis, oft ohne direkten Kontakt zur Plattform. Genau hier setzt Wikimedia Enterprise an. Statt unkontrolliertem Scraping bietet die Stiftung einen offiziellen, kostenpflichtigen Zugang mit klaren technischen Schnittstellen und Nutzungsbedingungen.

Über Wikimedia Enterprise erhalten Unternehmen einen Zugriff auf aktuelle, strukturierte Wikipedia-Inhalte, etwa für Suchsysteme, Wissensgraphen oder sogenannte RAG-Modelle. Für die Stiftung steht dabei weniger der finanzielle Ertrag im Vordergrund. Ziel ist es, Einfluss darauf zu behalten, wie Wikipedia-Wissen weiterverwendet wird, und zugleich die eigene Infrastruktur vor wachsender technischer Belastung zu schützen.

Zwischen Regulierung und Machtspiel: Wie KI das Weltwissen auf die Probe stellt

Mit Wikimedia Enterprise reagiert die Wikimedia Foundation auf einen grundlegenden Wandel. Wikipedia wird immer seltener von Menschen besucht, aber immer häufiger von Maschinen gelesen und aufbereitet. KI-Systeme zapfen Inhalte automatisiert an, um sie in Suchmaschinen, Chatbots oder Wissensgraphen weiterzuverarbeiten. Das erschwert die Nachvollziehbarkeit von Quellen und verschiebt Aufmerksamkeit weg von der Plattform selbst. Um diesen Entwicklungen etwas entgegnen zu können, stellt Wikimedia Enterprise jetzt Wikipedia-Inhalte über APIs bereit – von Einzelabfragen über regelmäßig aktualisierte Datensätze bis hin zu Echtzeit-Streams. Ziel ist es, den unvermeidbaren KI-Zugriff zu steuern, Transparenz zu sichern und die menschliche Kuration nicht aus dem System zu drängen.

Einen radikal anderen Weg geht Elon Musk mit Grokipedia. Die von seiner KI-Firma xAI entwickelte Enzyklopädie versteht sich als Gegenentwurf zu Wikipedia und setzt vollständig auf KI-generierte Inhalte. Grokipedia soll – so Musks eigenes Narrativ – eine „objektivere“ Alternative zu einer angeblich politisch voreingenommenen Wikipedia sein. Kritiker:innen sehen jedoch genau das Gegenteil. Viele Einträge weisen politische Verzerrungen auf, greifen auf zweifelhafte Quellen zurück oder enthalten faktische Fehler. Hinzu kommt, dass einzelne Artikel nahezu wortgleich aus Wikipedia übernommen wurden, teils inklusive Lizenzhinweisen, ohne dass eine echte redaktionelle Überarbeitung erkennbar wäre. Gerade das Fehlen einer offenen, gemeinschaftlichen Kontrolle macht das Modell anfällig für Fehler und Verzerrungen.

Besonders problematisch ist Grokipedia vor dem Hintergrund der anhaltenden Kontroversen rund um Musks KI-Ökosystem. Der KI-Chatbot Grok, der diese Enzyklopädie speist, steht seit seinem Launch im Oktober 2025 immer wieder in der Kritik. So macht er antisemitische Aussagen und hat beispielsweise Adolf Hitler glorifiziert, was internationale Empörung auslöste. Derzeit wird er von einigen verwendet, um sexuell explizite und non-konsensuale Deepfakes von Dritten, insbesondere von Frauen und sogar Minderjährigen zu erstellen und zu verbreiten. Wie unter anderem tagesschau.de berichtet, leiteten die Europäische Union und Aufsichtsstellen in mehreren Ländern vor diesem Hintergrund Ermittlungen gegen xAI ein. In Malaysia und Indonesien wurde der Zugang zum Chatbot Grok zeitweise gesperrt. Zuletzt kündigte auch der US-Bundesstaat Kalifornien Untersuchungen gegen das Unternehmen an.

Menschliches Wissen bleibt der Kern von Wikipedia

Trotz der neuen KI-Kooperationen betont Wikimedia immer wieder, dass Wikipedia vor allem ein von Menschen getragenes Projekt ist. Die Artikel entstehen in einer vergleichsweise kleinen, ehrenamtlichen Community – und genau das macht die Plattform bis heute glaubwürdig. Gleichzeitig liegt darin eine Schwachstelle. Koordinierte Manipulationsversuche, Fake Accounts und politische Einflussnahme gehören zur Realität und können den Vertrauensstatus untergraben.

Wie solche Eingriffe ablaufen, schildert der Journalist und Co-Autor der SWR-Podcast-Dokuserie Sockenpuppenzoo: Angriff auf Wikipedia Christoph Schattleitner im Gespräch mit SWR Aktuell-Moderator Pascal Fournier. Besonders häufig werden demnach Artikel zu historischen Ereignissen rund um den Nationalsozialismus manipuliert, die systematisch verzerrt oder umgedeutet werden sollen. Brisant wird das vor allem im Zusammenspiel mit KI. Werden verfälschte Artikel von Sprachmodellen ausgelesen und weiterverarbeitet, können sich Falschinformationen deutlich schneller und breiter verbreiten als bisher.

Um menschliche Kuration zu bewahren und auch, um solchen Maniplationen entgegenzuwirken, braucht Wikipedia paradoxerweise KI-Unternehmen, also jene Unternehmen, die den Traffic klassischer Wissensseiten zunehmend verdrängen. Weil sie den massenhaften Zugriff auf Wikipedia-Inhalte nicht aufhalten wird, versucht die Stiftung, ihn zu steuern und davon zu profitieren. Durch die Kooperationen kann Wikimedia Nutzung regeln und die menschliche Kuration absichern.


SERP Scraping und Publisher-Unmut:
Das Geschäft mit der KI-Suche von OpenAI und Perplexity





Source link

Online Marketing & SEO

Gedankenlesen mit KI: OpenAI steigt in Neuro-Tech ein


OpenAI investiert in Merge Labs, ein Startup, das an einer nicht-invasiven Schnittstelle zwischen Gehirn und KI arbeitet. Die Technologie verspricht neue Formen der Interaktion – wirft zugleich aber ethische und gesellschaftliche Fragen auf.

Der Wettlauf um die direkte Verbindung zwischen Gehirn und Computer ist in vollem Gange – und OpenAI läuft nun vorne mit. Gemeinsam mit anderen Kapitalgeber:innen hat das Unternehmen hinter ChatGPT 252 Millionen US-Dollar in Merge Labs investiert, ein Neuro-Tech-Startup, das unter anderem von OpenAI CEO Sam Altman mitgegründet wurde. Die Vision dahinter ist eine direkte Schnittstelle zwischen menschlichem Gehirn und Computer, aber ohne Implantate. OpenAI sieht darin eine neue technologische Grenze, die grundlegend verändern könnte, wie Menschen mit KI kommunizieren, lernen und interagieren.

Merge Labs will neuronale Aktivität mithilfe von Ultraschall erfassen und modulieren. Statt Elektroden im Gehirn setzt das Team auf bildgebende Verfahren, die Veränderungen indirekt messen. KI spielt dabei eine Schlüsselrolle. Sie soll verrauschte Signale interpretieren, Absichten erkennen und sich an einzelne Nutzer:innen anpassen. OpenAI kündigte an, gemeinsam mit Merge an wissenschaftlichen Grundlagenmodellen zu arbeiten, um die Entwicklung zu beschleunigen. Der Ansatz besitzt enormes Potenzial, vor allem für Menschen mit neurologischen Einschränkungen, wirft aber auch ethische Fragen neu auf. Schon der Start von ChatGPT Health, über das Nutzer:innen medizinische Unterlagen sowie Apps wie Apple Health oder MyFitnessPal anbinden können, zeigt, wie ChatGPT zunehmend in hochsensible Lebensbereiche vordringt.


ChatGPT Health startet und lässt User medizinische Daten und Apps verbinden

© OpenAI

Implantat oder Ultraschall: Das unterscheidet die Neurotech-Ambitionen von Altman und Musk

Gehirn-Computer-Schnittstellen sind kein neues Feld. Mit dem Investment bewegt sich OpenAI nun in einem Umfeld, das bislang unter anderem von Neuralink, dem 2016 von Elon Musk mitgegründeten Unternehmen, geprägt wurde. Bemerkenswert ist dabei, dass Sam Altman selbst früher in Neuralink investiert hatte. Das Unternehmen sammelte bislang rund 1,3 Milliarden US-Dollar an Kapital ein.

Neuralink und andere Anbieter:innen wie Synchron verfolgen überwiegend invasive Ansätze, bei denen elektrische Signale direkt aus dem Gehirn ausgelesen werden. Neuralink hat inzwischen mehr als ein Dutzend Implantate eingesetzt. Synchron wählt einen etwas weniger invasiven Weg und platziert sein System über Blutgefäße in unmittelbarer Nähe des Gehirns, ohne das Hirngewebe direkt zu durchdringen.

Merge Labs wählt hingegen einen grundsätzlich anderen Weg. Das Startup will vollständig auf Implantate verzichten und stattdessen Ultraschall nutzen, um neuronale Aktivität indirekt über Veränderungen der Hirndurchblutung zu erfassen. Der Ansatz gilt als technisch extrem anspruchsvoll, könnte langfristig jedoch sicherer und breiter einsetzbar sein. Aktuell laufen erste Sicherheitsstudien in Großbritannien mit einem miniaturisierten Ultraschallgerät aus dem Umfeld der gemeinnützigen Forschungseinrichtung Forest Neurotech, aus der Merge hervorgegangen ist.

Wenn Interaktion direkt im Kopf beginnt und was sich OpenAI davon verspricht

OpenAI begründet das Investment mit einer klaren Vision. Direktere Schnittstellen zwischen Mensch und Maschine sollen den Umgang mit KI grundlegend verändern – weg von Eingaben über Touch und Voice hin zu intuitiveren, hochbandbreitigen Interfaces. Gehirn-Computer-Schnittstellen gelten in diesem Kontext als nächste Entwicklungsstufe der Mensch-Maschine-Interaktion. Kurzfristig stehen medizinische Anwendungen im Fokus, etwa die Steuerung von Computern oder Robotiksystemen durch Menschen mit Lähmungen. Im Bereich bestehender Schnittstellen arbeitet OpenAI gemeinsam mit Ex-Apple-Designer Jony Ive an neuartigen KI-Gadgets, die KI zugänglicher machen sollen.

Für OpenAI geht es jedoch um mehr als einzelne Use Cases. Sollte die Technologie marktreif werden, eröffnen sich neue Zugänge zu Interaktion, Lernen und Wahrnehmung und damit zu völlig neuen Nutzungsszenarien für KI-Systeme. Wer solche Schnittstellen mitgestaltet, beeinflusst nicht nur die Hardware, sondern auch, wie KI verstanden, gesteuert und in den Alltag integriert wird.


OpenAIs erstes KI-Gadget:
Ein Stift von Ex-Apple-Designer Jony Ive?

OpenAI Branding
Das neue OpenAI Branding vor Fotografie, © OpenAI

Technologischer Sprung mit Nebenwirkungen

Noch ist offen, welche Produkte Merge Labs konkret entwickeln will. Dass OpenAI, Bain Capital, Valve-Gründer Gabe Newell und andere früh einsteigen, zeigt aber, wie fortgeschritten und relevant die Ambitionen rund um das Thema sind. Die Verbindung von Gehirn und KI rückt damit ein Stück näher an die Realität – mit enormem Potenzial, aber auch großen ethischen und gesellschaftlichen Fragen.

Gehirndaten gelten als die sensibelste Form personenbezogener Informationen. Zudem greifen für sie bestehende Datenschutzgesetze bislang kaum. Wer Zugriff auf neuronale Signale, Gedanken oder Absichten erhält, könnte Verhalten nicht nur auslesen, sondern potenziell auch beeinflussen. Kritiker:innen warnten bereits bei der Ankündigung von Neuralink davor, dass es sich um ein Hochrisiko-Experiment mit weitreichender Macht über Körper und Geist handelt, wie tagesschau.de berichtet. Statt medizinischer Heilung droht damit ein Szenario, in dem technologische Aufrüstung zur Voraussetzung gesellschaftlicher Teilhabe wird – mit bislang kaum geklärten Folgen für Autonomie, Sicherheit und Gleichheit.





Source link

Weiterlesen

Online Marketing & SEO

Wachstum im Dezember: Deutscher Werbemarkt startet zum Jahresende nochmal durch


Der Werbemarkt hat sich zum Jahresende nochmal aufgebäumt

Seit dem vergangenen Sommer steckt der deutsche Werbemarkt in der Krise. Doch zum Jahresende haben sich die Unternehmen offenbar nochmal ein Herz gefasst. Nach vier Rückgängen infolge sind die Brutto-Werbeausgaben im Dezember wieder angestiegen. Die Jahresbilanz fällt dennoch mau aus.

Der Blick auf die Nielsen-Jahresbilanz zeigt klipp und klar: Das Werbejahr 2025 war ein sehr durchwachsenes. Nach den Berechnungen des Hamburger

Jetzt Angebot wählen und weiterlesen!

1 Monat

29 €

  • zum Testen
  • danach 36,50 € mtl.

12 Monate

329 €

  • anstatt 439 €
  • 110€ sparen

24 Monate

529 €

  • anstatt 878 €
  • 349 € sparen

HORIZONT Digital

  • Vollzugriff auf HORIZONT Online mit allen Artikeln
  • E-Paper der Zeitung und Magazine
  • Online-Printarchiv

HORIZONT Digital-Mehrplatzlizenz für Ihr Team



Source link

Weiterlesen

Online Marketing & SEO

So trackst Du ChatGPT & Co.


AI verändert, wie Menschen suchen und Informationen finden. Viele Nutzer stellen ihre Fragen nicht mehr direkt in der Suchmaschine, sondern an ChatGPT, Gemini oder Googles AI-Features. Das bedeutet: Ein Teil Deiner Sichtbarkeit und Markenwahrnehmung findet außerhalb Deiner Website statt. In meinem Blogpost zeige ich Dir, wie Du AI Traffic analysierst und für Dich nutzen kannst.

Futuristisches Setting, ein Roboter folg glühenden FußspurenFuturistisches Setting, ein Roboter folg glühenden Fußspuren

Jeder Schritt ein Datenpunkt: Wie AI Tracking digitalen Fußabdrücke im Cyber-Dschungel sichtbar macht. Quelle: Gemini, AI Generated.

Die wichtigsten Erkenntnisse vorab:

  • AI ist ein eigenständiger Sichtbarkeits- und Relevanzkanal: Auch ohne messbare Klicks prägen LLMs (z. B. ChatGPT, Gemini) und Googles AI-Features die Markenwahrnehmung maßgeblich – häufig außerhalb der eigenen Website und als klassische Zero-Click-Interaktion.
  • Tracking ist nur indirekt möglich, aber dennoch wertvoll: Über Referral-Traffic aus LLMs, synthetisches Prompt-Tracking und spezialisierte Tools lassen sich zumindest Trends erkennen, etwa zu markenrelevanten Themen, Antwortstabilität und potenziellen Einstiegsseiten.
  • Googles AI-Overview & AI-Mode bleiben eine Blackbox: Es gibt keine saubere Klick- oder Verlaufsanalyse; verfügbar sind nur Momentaufnahmen der Sichtbarkeit. Besonders relevant sind die ersten beiden Positionen, alle weiteren verlieren stark an Aufmerksamkeit.
  • Logfile-Analysen von AI-Bots liefern strategische Hinweise: Die Analyse von Crawling-Aktivitäten zeigt, welche Inhalte für AI-Systeme besonders relevant sind, potenziell in Trainingsdaten einfließen und ob zentrale Brand-Themen überhaupt von Maschinen erkannt werden.

Raus aus der Blackbox, rein ins KI-Wissen!

Wenn Deine Inhalte in den AI-Systemen nicht auftauchen, verlierst Du potenzielle Reichweite, ohne es überhaupt zu merken. Gleichzeitig bieten diese Systeme kaum transparente Daten. Wir brauchen daher neue Wege, um herauszufinden:

  • ob Deine Brand in AI-Antworten erscheint,
  • welche Inhalte LLMs als relevant einstufen,
  • und wie viel Traffic über AI-Systeme tatsächlich auf Deiner Website landet.

Kurz gesagt: Ohne AI-Tracking tappst Du in einer Blackbox, während ein wachsender Teil der Nutzerentscheidungen längst in AI-Interfaces getroffen wird.

Ist das AI-Tracking für Deine Website relevant?

Mit ChatGPT, Gemini und anderen AI-Systemen hat sich das Suchverhalten deutlich verschoben. Navigationale Suchanfragen laufen weiterhin klassisch über Google. Doch alles, was Informationen, Beratung oder komplexe Fragen betrifft, landet zunehmend in LLMs. Die Nutzerzahlen wachsen rasant – besonders ChatGPT verzeichnet weiter enormes Wachstum.

Diagram von Semrush zur Trafficentwicklung (Referral) über ChatGPTDiagram von Semrush zur Trafficentwicklung (Referral) über ChatGPT

Eine Semrush-Studie zeigt: Der Traffic über ChatGPT steigt seit Monaten. (Quelle)

Entwicklung Nutzeranzahl für ChatGPT, Weekly Active Users WorldwideEntwicklung Nutzeranzahl für ChatGPT, Weekly Active Users Worldwide

Die Anzahl der wöchentlichen, aktiven Nutzer von ChatGPT nimmt weiterhin zu. (Quelle)

Damit steigt die Wahrscheinlichkeit, dass Nutzer Antworten erhalten, ohne Deine Website überhaupt besuchen zu müssen. Viele Antworten in LLMs entstehen ausschließlich aus den Trainingsdaten, ohne dass eine Live-Suche stattfindet. In diesen Fällen nennt das Modell keine Quellen – der Nutzer sieht also nicht, woher die Information stammt, und es entsteht auch kein Traffic für Deine Website.

Screenshot Chat GPT: Antworten aus Trainingsdaten ohne Nennung von Quellen (Links)Screenshot Chat GPT: Antworten aus Trainingsdaten ohne Nennung von Quellen (Links)

Bei vielen informationellen Suchen in ChatGPT werden keine Links zu Quellen referenziert.

Trotzdem kann Deine Brand an dieser Stelle sichtbar werden. Sobald der Prompt Deine Marke oder ein konkretes Produkt enthält, liefert das LLM häufig eine direkte Antwort, ohne dass ein Link nötig ist. Genau daraus entsteht die typische Zero-Click-Suche: Die Frage wird vollständig im Chat beantwortet, und der Nutzer hat keinen Grund, weiter zu klicken.

Screenshot ChatGPT: Nennung von Marken ohne externe Links (Beispiel für eine Zero-Click-Suchanfrage)Screenshot ChatGPT: Nennung von Marken ohne externe Links (Beispiel für eine Zero-Click-Suchanfrage)

Bei der Suche nach Infos zu einer Brand wird diese in der Antwort erwähnt – aber die Quelle nicht verlinkt.

Klar ist: Auch ohne Klicks beeinflussen diese Antworten, wie Nutzer Deine Brand wahrnehmen – und genau deshalb lohnt sich AI-Tracking.

Diese AI-Systeme solltest Du tracken

Bevor Du ins Tracking einsteigst, solltest Du klären, welche Arten von AI-Systemen für Dich relevant sind. Jede dieser Quellen funktioniert anders, hat ihre eigenen Grenzen und liefert unterschiedliche Hinweise darauf, wie Nutzer mit Deiner Brand interagieren. Deshalb lohnt es sich, sie getrennt zu betrachten.

Die wichtigsten Systeme, auf die Du Dich konzentrieren solltest, sind:

  • LLMs wie ChatGPT, Gemini, Perplexity
  • Googles AI-Overview und AI-Mode
  • AI-Bots, die Deine Website crawlen

AI-Funktionen in Betriebssystemen, Browsern oder Social Media lassen wir bewusst außen vor. Sie sind zu individuell integriert und aktuell kaum sinnvoll zu tracken.

Tracking von LLMs

LLMs wie ChatGPT, Gemini oder Perplexity bieten Webseitenbetreibern aktuell keine eigenen Tracking-Daten. Wir sehen weder, wie oft Deine Brand in Antworten auftaucht, noch welche Prompts vorher gestellt wurden.

Auch Gemini und Perplexity liefern bisher keine direkten Einblicke – vermutlich, weil die Aufbereitung solcher Daten komplex wäre. Es ist aber gut möglich, dass zumindest Gemini künftig Daten über Search Console oder Analytics bereitstellt.

Für Dich als Webseitenbetreiber bedeutet das erstmal: Wir wissen nicht exakt, wo und wie Deine Inhalte in LLMs erscheinen. Trotzdem gibt es Wege, die Blackbox ein Stück weit zu öffnen.

Was der Referral-Traffic verraten kann

Ein erster Ansatz ist die Analyse des Referral-Traffics. Wenn Nutzer über ChatGPT, Gemini oder andere LLMs auf Deine Website kommen, erkennst Du das in Google Analytics. Besonders spannend ist, auf welchen Landingpages diese Zugriffe landen. Häufen sich Treffer auf bestimmten Ratgebern, Kategorien oder Produkten, lässt das Rückschlüsse auf die Art der Prompts zu, die Nutzer vorher gestellt haben.

Gleichzeitig kannst Du einschätzen, wie relevant LLM-Optimierung für Dich ist, indem Du die Zahlen mit anderen Kanälen vergleichst. Es ist kein perfekter Blick hinter die Kulissen – aber ein sehr nützlicher Indikator.

Eine Anleitung zum Tracking von Referral Traffic über LLMs findest Du bei Semrush.

Prompt-Tracking als ergänzende Perspektive

Neben dem realen Traffic kannst Du auch mit sogenannten „synthetischen“ Prompts arbeiten. Tools wie Rankscale.ai erstellen automatisierte W-Fragen zu einem Keyword und analysieren, wie LLMs darauf antworten. Trotz der Befürchtung, dass die Ergebnisse je nach „AI-Tagesform“ stark schwanken könnten, zeigen Tests:
Die Antworten bleiben inhaltlich unserer Erfahrung nach meist stabil – selbst wenn sie sprachlich variieren. Besonders Gemini liefert sehr konsistente Resultate. Für Trends und Sichtbarkeitseinschätzungen kann Prompt-Tracking also durchaus sinnvoll sein.

Wie Du passende Prompts findest

Um die richtigen Prompts zu identifizieren, lohnt sich ein Blick in Tools wie Sistrix oder Rankscale. Sie greifen häufig auf W-Fragen-Daten oder eigene Datenbanken zurück.

Zwei einfache Rechercheansätze bringen Dich schnell weiter:

  • Was wird zu Deiner Brand häufig gesucht?
  • Welche Fragen gibt es rund um Dein Produktportfolio?

Gerade bei Brand-bezogenen Fragen ist die Chance hoch, dass Deine Domain als Quelle genannt oder verlinkt wird – sofern das LLM live recherchiert.

 

 

 

Screenshot ChatGPT: Onlinesuche wurde durchgeführt, Links zu Zalando als Quellen angegeben.Screenshot ChatGPT: Onlinesuche wurde durchgeführt, Links zu Zalando als Quellen angegeben.

Bei der Frage zu den Rücksendebedingungen für Zalando werden diese (aber auch andere) oft auch als Quelle angegeben.

Wo diese Methoden an Grenzen stoßen und welche Fallstricke es gibt, schauen wir uns später im Artikel noch genauer an.

Tracking von AI-Overview und AI-Mode

Beim Tracking der Google-Systeme wird es deutlich schwieriger. Im AI-Overview und im AI-Mode lassen sich Klicks nicht sauber erfassen, weil sich der Referral-Traffic technisch nicht vom klassischen organischen Traffic unterscheiden lässt. Eine direkte Zuordnung ist daher aktuell unmöglich.

Edit: Kaum nehmen wir den Stift in die Hand, tut sich hier etwas. Bei einigen Kollegen liefert der AI Overview neuerdings eine Art Parameter (beginnend mit #;~:text=) mit. Es ist zum jetzigen Zeitpunkt aber noch nicht vollständig ausgerollt.

Trotzdem gibt es erste Tools, die zeigen, zu welchen Suchanfragen Domains an welcher Position im AI-Overview erscheinen.

Screenshot Sistrix zum AIO: Sichtbarkeit der Domain im AIO steigt, einzelne Keywords werden nicht dauerhaft getrackt.Screenshot Sistrix zum AIO: Sichtbarkeit der Domain im AIO steigt, einzelne Keywords werden nicht dauerhaft getrackt.

Während die insgesamt Anzeigenmenge einer Domain im AI-Overview angezeigt wird, kann man bisher einzelne Rankings nicht im Zeitverlauf beobachten. Quelle: Sistrix

Diese Tools bieten ein hilfreiches Stimmungsbild, haben aber Grenzen: Ihre Daten basieren immer auf der eigenen Keyword-Datenbank des Anbieters. Sehr lange Suchanfragen oder vollständige Sätze werden oft gar nicht erfasst. Wenn Du ein Tool auswählst, solltest Du also unbedingt prüfen, wie groß und aktuell die Datenbasis für den deutschen Markt ist.

Darüber hinaus gibt es einige Besonderheiten, die Du beim Interpretieren der Daten im Hinterkopf behalten solltest.

Die ersten beiden Positionen im AI-Overview sind mit Abstand die relevantesten. Alle weiteren Ergebnisse befinden sich hinter dem „Mehr anzeigen“-Button – und erhalten spürbar weniger Impressionen und Klicks.

Screenshot Google zur Suche nach "Retourenschein", Beispiel Einblendung AIOScreenshot Google zur Suche nach "Retourenschein", Beispiel Einblendung AIO

Bei der AI-Overview Einbindung sind auf den ersten Blick nur die ersten beiden Links sichtbar.

Ein weiterer Punkt: Rankingverläufe lassen sich bislang nur bedingt tracken. Wir sehen immer nur Momentaufnahmen zu einzelnen Keywords, nicht die Entwicklung über die Zeit.

Und im AI-Mode zeigt sich nach ersten Analysen, dass Google häufig eine Mischung verwendet: Die ersten zehn klassischen Suchergebnisse kombiniert mit den AI-Overview-Ergebnissen.

Alles zusammen führt zu einem klaren Fazit: Für Googles AI-Features existieren bislang keine echten Tracking-Lösungen. Das wird sich vermutlich ändern, sobald Google sein Toolkit erweitert – aber Stand heute bleibt das Thema für uns eine Blackbox.

Tracking von AI-Bots

Neben der Analyse von LLMs und Google-Features lohnt sich ein Blick auf die AI-Bots, die Deine Website crawlen. Sie geben Dir Hinweise darauf, welche Inhalte für Trainingsdaten oder für die Generierung von Antworten eine Rolle spielen könnten. Wenn Du weißt, welche Seiten besonders häufig von diesen Bots aufgerufen werden, bekommst Du ein Gefühl dafür,

  • welche Inhalte als besonders relevant eingestuft werden,
  • welche Bereiche Deiner Website möglicherweise in Trainingsdaten einfließen, und
  • ob wichtige Brand-Themen überhaupt gefunden werden.

Um diese Signale auszuwerten, kannst Du in Deinem Hosting-System die Logfiles aktivieren. Die eigentliche Analyse erfolgt dann idealerweise über ein spezialisiertes Tool wie den Logfile-Analyser Screaming Log. Dort werden die Daten übersichtlich aufbereitet, und Du kannst gezielt einzelne Bots auswählen, um deren Verhalten genauer zu betrachten.

Screenshot Screaming Log: Diese AI-Bots im Standard auswählen.Screenshot Screaming Log: Diese AI-Bots im Standard auswählen.

Im Screaming Log sind die meisten AI-Bots im Standard bereits auswählbar.

Wir haben eine Übersicht der Bots zusammengestellt, die sich für diese Auswertung besonders eignen. Nicht alle davon sind nur für AI-Ergebnisse zuständig. Einen dieser Bots musst Du im Tool manuell anlegen, da er standardmäßig noch nicht vorhanden ist.

Screenshot Screaming Log: Neuen Bot anlegen für Google Extended.Screenshot Screaming Log: Neuen Bot anlegen für Google Extended.

Den Bot „Google-Extended“ der speziell für Gemini zuständig ist, muss man extra anlegen – allerdings gibt es keine offiziellen Infos zum User-String.

Disclaimer: Google gibt auf ihrer Dokumentation keinen http-String aus, der eine saubere Identifikation in Log-Files zulassen würde. Der von uns angegebene String basiert auf einem häufig zitierten String aus der SEO-Community und von Bot-Detailseiten. Der String kann jedoch laut Google abweichen, da er jeden String der anderen Bots mitverwendet. Falls Du experimentierfreudig bist, hier der String mit dem wir arbeiten:

Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Google-Extended/1.0; +

Die übrigen kannst Du einfach über die Auswahlpfeile hinzufügen oder entfernen. Für eine klare Analyse empfiehlt es sich, wirklich nur die relevanten Bots zu betrachten und andere in einer separaten Auswertung zu behandeln. So vermeidest Du Datenrauschen und erhältst ein deutlich saubereres Bild.

3 Tipps beim Tracking: Chancen und Herausforderungen:

Sobald Du Dich mit dem Tracking von AI-Systemen beschäftigst, merkst Du schnell, dass die Sache komplexer ist als klassisches SEO-Reporting. AI verändert nicht nur das Suchverhalten, sondern auch die Art, wie Du Daten interpretieren kannst. Genau daraus ergeben sich neue Möglichkeiten – aber auch klare Grenzen, die Du kennen solltest.

1. Mit dem Relevanzverlust der KPIs richtig umgehen

Viele klassische SEO-Kennzahlen funktionieren im Kontext von AI nur noch eingeschränkt. Verlässliche Daten sind selten, und oft müssen wir mit W-Fragen oder Proxy-KPIs arbeiten, die nur begrenzt Rückschlüsse auf den eigentlichen Ursprung zulassen

Das wirft grundlegende Fragen auf:

  • Sind Klicks, Sichtbarkeit oder Keyword-Rankings noch die richtigen Metriken?
  • Welche Kennzahlen werden wir in Zukunft brauchen?

Es ist absehbar, dass sich hier in den kommenden Monaten viel verändern wird. Als SEO ist es wichtig, nah an diesen Entwicklungen zu bleiben – und wir halten Dich selbstverständlich auf dem Laufenden.

2. Achtung vor User Bias

Ein oft unterschätzter Faktor ist der Bias des Nutzers selbst. Schon kleine Unterschiede in der Fragestellung können die Antwort eines AI-Systems massiv verändern. Ein Prompt wie „Welche Kritik gibt es über Netflix?“ erzeugt häufig ein anderes Ergebnis als „Gibt es Kritik gegenüber Netflix?“.

LLMs neigen dazu, den Tonfall und die implizite Haltung des Fragenden aufzugreifen. ChatGPT etwa lobt gern „spannende“ oder „wichtige“ Fragen – eine typisch menschenfreundliche Antwortstrategie. Das bedeutet: Nicht nur was gefragt wird, sondern wie gefragt wird, beeinflusst die Ergebnisse. Für das Tracking macht das die Sache nicht einfacher.

3. Synthetische User Prompts und Unterhaltungen beachten

Ein weiterer Punkt schließt direkt daran an: Wir wissen nicht, wie echte Nutzer in AI-Systemen suchen, weil die Anbieter diese Daten nicht teilen. Deshalb arbeiten wir oft mit „synthetischen“ Prompts aus Tools wie Answer the Public, Sistrix, Semrush oder Termlabs. Diese bilden aber nicht unbedingt die Realität ab.

Der kostenlose SEO-Kurs von Seokratie

Gefällt Dir dieser Blogpost? Wenn Du regelmäßig die neuesten Trends im Online Marketing mitbekommen willst, dann abonniere jetzt unseren Newsletter. Zu Beginn des kostenlosen Abonnements bekommst Du täglich jeden Tag eine Mail, um Dich fit in SEO zu machen – 5 Tage lang. Über 83.000 Abonnenten vertrauen uns.

Hier geht es zum Anmeldeformular.

Gerade in LLMs läuft eine Unterhaltung viel dynamischer ab als eine klassische Suchanfrage. Nutzer stellen Folgefragen, ergänzen Informationen, ändern ihren Fokus – ähnlich wie in einem Gespräch mit einem Berater. Die Daten aus Tools wie Rankscale.io zeigen daher immer nur einen Trend, nicht das tatsächliche Verhalten. Und dieser Trend kann im Einzelfall weit von der Wahrheit entfernt sein.

Fazit: Was Du aus dem AI-Tracking mitnehmen solltest

Beobachte, wie und wo Deine Brand dort auftaucht. Viele Interaktionen mit Deiner Marke finden gegebenenfalls auch außerhalb Deiner Webseite statt.

Die wichtigsten Erkenntnisse aus diesem Artikel:

AI ist längst ein eigener „Traffic-Kanal“

Auch wenn Du keine klassischen Klicks messen kannst, beeinflussen LLM-Antworten die Wahrnehmung Deiner Brand – oft, ohne dass Nutzer jemals auf Deiner Seite landen.

LLMs bleiben eine Blackbox, aber nicht völlig

Über Referral-Traffic und Prompt-Tracking kannst Du zumindest Trends erkennen:

  • Welche Themen LLMs mit Deiner Brand verknüpfen,
  • wie stabil die Antworten sind, und
  • ob Nutzer über LLMs tatsächlich bei Dir landen.

Googles AI-Overview & AI-Mode liefern Momentaufnahmen

Du siehst dort Positionen und Sichtbarkeit, aber keine echten Klickdaten.
Relevanz haben vor allem die ersten beiden Positionen – der Rest verschwindet hinter „Mehr anzeigen“.

AI-Bots zeigen, was Maschinen an Deinen Inhalten spannend finden

Über Logfile-Analysen findest Du heraus,

  • welche Seiten intensiv gecrawlt werden.
  • welche Inhalte potenziell in Trainingsdaten landen.
  • ob Deine wichtigsten Themen überhaupt erkannt werden.

Klassische KPIs geraten ins Wanken

Keyword-Rankings, Sichtbarkeitswerte oder Klicks erklären immer weniger.
Du brauchst neue Perspektiven: Nutzerprompts, Inhalte, Kontext.
Kurz gesagt: Du misst weniger Traffic, dafür mehr Relevanz.

User Bias & Prompts bleiben große Unsicherheitsfaktoren

Wie der Nutzer fragt, beeinflusst die Antwort massiv.
Und synthetische Prompts bilden echte Gespräche nur begrenzt ab.

TL;DR

AI verhält sich gerade ein bisschen wie ein vorlauter Weihnachtself: Es wuselt überall herum, verteilt Antworten, bevor Du überhaupt weißt, woher sie kommen – und lässt kaum Spuren zurück, die Du messen kannst. Außerdem flunkert er hier und da noch was dazu, in der Hoffnung nicht ertappt zu werden oder richtig geraten zu haben.
Wenn Du aber weißt, wo Du hinschauen musst, erkennst Du zumindest, wo der kleine Kerl schon wieder heimlich werkelt.

 

Bildnachweis: Titelbild: Gemini via Seokratie, Bild 2: Semrush https://www.semrush.com/news/379285-new-semrush-study-reveals-chatgpt-search-trends-insights-from-80-million-clickstream-records/, Bild 3: Backlinko https://backlinko.com/chatgpt-stats, Bild 4-10: Screenshots



Source link

Weiterlesen

Beliebt