Online Marketing & SEO
Warum Publisher Creator-Netzwerke aufbauen | OnlineMarketing.de
KI-gestützte Suche und veränderte News-Rezeption setzen Medienhäuser unter Druck: Traffic bricht weg, die Kontrolle über Distribution schwindet, junge Zielgruppen wenden sich ab. Die Lösung sind womöglich Creator-Netzwerke, Talent Units und neue Geschäftsmodelle. So wollen Publisher 2026 relevant bleiben.
„Publishers are increasingly trying to pull creators closer to their own brands, rather than continuing to cede distribution and audience relationships to platforms“, schreibt Digiday in einer aktuellen Analyse zur Branche. Viele Publisher bauen daher strukturierte Creator-Netzwerke, Membership-Programme und Talent-Units auf, um Persönlichkeit, Glaubwürdigkeit und Distribution enger an die eigene Marke zu binden. Es ist kein weiterer „Pivot to Video“. Es ist ein grundlegender Umbau des Geschäftsmodells, bei dem es diesmal nicht darum gehen soll, einfach dem nächsten, von Plattformen und KI getriebenen Trend, hinterherzulaufen. Statt Reichweite weiter an Algorithmen abzugeben, holen sie Kontrolle zurück.
Der Artikel zeigt, warum dieser Strategiewechsel für viele Medienhäuser zur Überlebensfrage wird, welche Rolle Creator dabei spielen, wie sich Budgets und Machtverhältnisse verschieben – und warum journalistische Einordnung, Kontext und menschliche Perspektiven im Zeitalter von KI-Suche und Creator-Ökonomie wichtiger sind als je zuvor.
SERP Scraping und Publisher-Unmut:
Das Geschäft mit der KI-Suche von OpenAI und Perplexity
Wie Publisher 2026 relevant bleiben
Publisher stehen 2025 gleich von mehreren Seiten unter Druck. KI-gestützte Suche verändert grundlegend, wie Informationen gefunden und genutzt werden. Referral-Traffic aus Suche und Social Media bricht weg, neue Gatekeeper entscheiden zunehmend darüber, welche Inhalte sichtbar sind. Gleichzeitig werden Nachrichten immer häufiger über Social Media konsumiert, nicht mehr über Mastheads. Wie stark sich das Nutzungsverhalten verschoben hat, zeigt eine Studie des Pew Research Center. Demnach beziehen inzwischen rund 38 Prozent der Unter-30-Jährigen regelmäßig Nachrichten über Influencer:innen auf Social Media. Persönlichkeiten wie Dylan Page (News Daddy) mit über 15 Millionen TikTok Followern oder Aaron Parnas mit mehr als 4,6 Millionen Followern erreichen dort Reichweiten, die selbst große Medienmarken nicht mehr selbstverständlich erzielen. Zum Vergleich: The New York Times kommt auf rund 2,9 Millionen TikTok Follower, The Washington Post auf etwa 1,9 Millionen.
Aufmerksamkeit entsteht dort, wo erklärt, eingeordnet und Haltung erkennbar wird. Wer lediglich veröffentlicht, verliert Reichweite. Wer Kontext liefert, gewinnt Vertrauen. Und das ist gleichzeitig die große Chance des Journalismus. Die strategische Antwort auf die Herausforderungen liegt weniger im Wettlauf um Geschwindigkeit oder Volumen, denn hier lässt sich mit KI-getriebenen Content-Veröffentlichung kaum konkurrieren. Publisher können KI-Akteur:innen nicht durch Masse schlagen, sondern durch menschliche Perspektiven, journalistische Sorgfalt und fundierte Einordnung. Gerade in einer Zeit, in der viele Nutzer:innen von automatisierten Inhalten, AI Slop und Desinformation überfordert sind, wächst die Nachfrage nach Orientierung. Eine zweite, zunehmend zentrale Stellschraube ist dabei die Zusammenarbeit mit Creatorn statt der Versuch, gegen sie zu konkurrieren.
„Creatorification“ statt Plattformabhängigkeit
Referral Traffic aus Suche und Social schrumpft, Algorithmen ändern sich im Monatsrhythmus, junge Zielgruppen wenden sich von klassischen Medien ab. Gleichzeitig wachsen Creator-Profile, die Nachrichten erklären, emotionalisieren und kontextualisieren – oft schneller, direkter und wirksamer als klassische Redaktionen.
In dieser Gemengelage formalisieren Publisher ihre Creator-Strategien deutlich stärker als in früheren Social-Experimenten. Medienhäuser wie CNN, Yahoo, The Washington Post, Future oder die Bustle Digital Group bauen Creator-Programme aus, um redaktionelle Kompetenz mit Persönlichkeit zu verbinden, ohne die komplette Distribution an Plattformen auszulagern. Auch The Independent setzt verstärkt auf persönlichkeitsgetriebene Formate. Das britische Medienhaus verpflichtete im April den YouTube-Creator Adam Clery als Creative Director, um den Start von Independent Studio voranzutreiben. Die neue Einheit soll Inhalte rund um individuelle Talente bündeln – darunter Videos, Newsletter und Podcasts – und damit auf wiedererkennbare Stimmen statt reine Markenkommunikation setzen.
Andrew Perlman, CEO von Recurrent, bezeichnet diesen Wandel als „Creatorification“ der Medienbranche. Wer heute im klassischen Verlagsgeschäft unterwegs ist, konkurriert nicht mehr nur mit anderen Medien, sondern mit einzelnen Menschen, die Vertrauen, Nähe und Wiedererkennbarkeit aufgebaut haben.
Werbebudgets folgen Creatorn
Der ökonomische Druck verstärkt diesen Kurs zusätzlich. Laut dem Global Ad Trends Report von WARC (April 2025) wird User Generated Content spätestens 2026 mehr Werbebudget anziehen als professionell produzierte Medieninhalte. Auch der Interactive Advertising Bureau (IAB) unterstreicht diese Entwicklung. Demnach soll das Creator-Werbevolumen in den USA 2025 auf rund 37 Milliarden US-Dollar steigen – ein Wachstum von 26 Prozent gegenüber dem Vorjahr und fast viermal so schnell wie das der klassischen Medienbranche. Programme wie CNN Creators, Futures Collab oder Yahoos Creator-Plattform zeigen, wie unterschiedlich die Modelle aussehen können. Allen gemeinsam ist die Erkenntnis: Creator müssen als Partner:innen behandelt werden, nicht als austauschbare Zulieferer:innen.
Gleichzeitig wachsen die Risiken. Brand Safety, redaktionelle Kontrolle und Glaubwürdigkeit werden komplexer, wenn Persönlichkeiten stärker in den Vordergrund rücken. Branchenexpert:innen warnen davor, Creator zu stark zu steuern. Zu viel Kontrolle beschädigt Authentizität, zu wenig Kontrolle gefährdet Vertrauen. Nicholas Spiro von Viral Nation sagt, dass dieser Wandel richtig umgesetzt mehr als eine Content-Strategie sei. Er definiert neu, was redaktionelle Autorität bedeutet und wer sie verkörpert.
Wie zentral individuelle Stimmen für Reichweite, Vertrauen und Einordnung geworden sind, beweist auch LinkedIn Top Voice Lara Sophie Bothur. In einer aktuellen Tap into Marketing Podcast-Folge sprechen wir mit Deutschlands erster Corporate Influencerin für Deloitte, Forbes 30-under-30-Liste und heute selbstständige selbstständige Tech-Übersetzerin über ihre Rolle.
Forbes 30 under 30, Lara Sophie Bothur:
Tech-Übersetzerin für die globale Branche

Als einer der erfolgreichsten Creatorinnen auf LinkedIn und gefragte Speakerin auf internationalen Bühnen steht Bothur exemplarisch für einen Wandel, den viele Publisher nun nachholen wollen: Technologie, Wirtschaft und KI werden nicht über abstrakte Marken vermittelt, sondern über Menschen, die komplexe Themen verständlich einordnen. Im Podcast erklärt sie, warum Innovation allein nicht reicht und weshalb technologische Veränderungen erst dann Wirkung entfalten, wenn sie durch glaubwürdige Persönlichkeiten übersetzt werden.
Online Marketing & SEO
Synthetische Populationen: Einfaches Targeting per Knopfdruck
Die Market Intelligence von Statista soll künftig aber nicht allein über mitaufgerufene Datenerhebungen zum Tragen kommen, sondern ebenso im Kontext zukunftsgerichteten Targetings. Dafür hat das Unternehmen ein Projekt mit dem Namen synthetische Populationen gestartet. Diese erweitern die Targeting-Optionen im AI-Zeitalter – die von Dynamic Creative Optimization bis hin zu Real-Time Contextual Audience Targeting reichen – um eine riesige Datenbank, die echte Bevölkerungen virtuell abbildet. Statista SynthiePop liefert auf Basis von KI eine Art Chat Interface, um Marktforschung quasi on the fly zu erarbeiten und so Kampagnen und deren Erfolg schnell und unkompliziert zu verfeinern.
Zäsur im Online Marketing:
Meta will Ad-Kreation 2026 mit KI komplett automatisieren

Wie synthetische Populationen von Statista funktionieren
Die synthetischen Populationen sollen ein Kernproblem der Marktforschung beheben. Denn diese ist oft teuer und zeitintensiv. Zwar ist die Marktforschung eine einzigartige Methode, um belastbares Wissen über Menschen und deren Nutzungsverhalten zu erhalten, First-Hand Consumer Insights, nach Statista. Doch die Daten lassen sich oft erst spät nutzen und nicht alle Unternehmen und Organisationen können sich den Ablauf leisten. Daher möchte Statista eine digitale Alternative schaffen, die mithilfe von KI und statistischer Modellierung synthetische Populationen aufbaut, welche menschlichen gleichen und als repräsentativ gelten können. Chief Customer Officer Frederik Gronwald erklärt:
Im Grunde ist Statista SynthiePop, die von Statista entwickelte synthetische Population, eine Datenbank, die Millionen von realitätsnahen, virtuellen Individuen mit ihren individuellen Eigenschaften wie soziodemografischen Merkmalen, Einstellungen oder Konsumverhalten beinhaltet. In Summe repräsentieren diese virtuellen Individuen wiederum sehr gut die Gesamtbevölkerung.
Dabei sollen reale Bevölkerungsstrukturen künstlich, aber realitätsnah abgebildet werden können. Hunderte Features wie Lebensort, Einkommen und andere soziodemographische Daten sollen ermittelt werden. Der große Vorteil von synthetischen Populationen besteht darin, dass umfassende Analysen auf Knopfdruck kreiert werden können. Mit synthetischen Populationen können dann Marketer in Echtzeit via Chat-Funktion interagieren und Feedback zu einer geplanten Kampagne oder einer neuen Produktidee einholen. Ein Beispiel-Prompt für das KI-gestützte Interface, das auf eine synthetische Population etwa als virtuelles Abbild für Deutschland zugreift, könnte wie folgt aussehen:
Profile women aged 35–40, with a household income above €75,000, living in large cities, who are open to innovation – and let me know how big that target group is.
Laut Gronwald setzt das Unternehmen für diese Möglichkeit in drei Aspekten auf KI, für den Aufbau der synthetischen Population, den einfachen Zugriff auf die Daten und die simulierte Interaktion. Diese Interaktion soll künftig mit einem PersonaBot auch über LLM-gestützte Tools wie ChatGPT und Co. ermöglicht werden. Dann könnten Marketer im Handumdrehen konkrete Abfragen zu riesigen Datensätzen einfließen lassen und sich ein Bild von Targeting-Potentialen verschaffen.

Vom Analytical zum Ideation Mode: So werden synthetische Populationen lebendig fürs Marketing
So möchte Statista die synthetischen Populationen zum Leben erwecken. Der Prompt für die Abfrage zu spezifischen Targeting-Segmenten stellt die Interaktion im Rahmen des analytischen Modus dar. Darüber hinaus möchte Statista den Ideation Mode fördern. Dabei können die Marketer mit den Target Personas interagieren und simulierte Umfragen starten und Bedarfe ermitteln oder mehr Informationen für die Frühphase der Marktrecherche einholen. Ein Prompt könnte lauten:
What are common concerns of single parents in rural areas when choosing insurance providers?

Neue Szenarien abdecken und Potentiale erkennen
Statista entwickelte die synthetischen Populationen laut Frederik Gronwald, um mit den neuen KI-Möglichkeiten über klassische Marktforschungsgrenzen hinwegzugehen und schnell datenbasierte Erkenntnisse zu Projekten oder Kampagnen liefern zu können.
[…] Praktische Anwendungsfälle ergaben sich direkt in mehreren Projekten. So nutzen wir kürzlich beispielsweise unsere synthetische Population, um den Einfluss des Deutschlandtickets auf das Pendelverhalten und die Kosteneinsparungen für Pendler:innen in einem aktuellen Projekt für das Eisenbahnbundesamt zu analysieren. Dazu haben wir eine repräsentative Befragung unter 5.000 Pendler:innen durchgeführt und diese Daten mit Zensus-, Arbeitsmarkt- und weiteren Mobilitätsstudien verknüpft, um das Pendelverhalten für alle Berufstätigen in Deutschland detailliert abzubilden,
so Gronwald. Aber das neue Prinzip soll Innovation auch in ganz anderen Kontexten ermöglichen und beispielsweise Markt- und Zielgruppeninformationen auch auf Landkreis- und Gemeindeebene liefern. Gronwald ergänzt:
Statista SynthiePop, mit der dahinterliegenden umfassenden und exklusiven Datengrundlage, in Kombination mit KI, eröffnet ganz neue, nie dagewesene Möglichkeiten der Insights-Generierung. Neben themenspezifischen Ad-hoc-Befragungsdaten fließen auch unsere proprietären Statista Consumer Insights Daten in die Datenbank ein – mit hunderten von Merkmalen zum Kaufverhalten, Medienkonsum, (Marken-)Präferenzen, Werten und Einstellungen […].
Die Datenbasis muss laut dem Statista-Experten jedoch stets robust und valide sein, um solche Analysen auf Knopfdruck mit Mehrwertpotential für das Marketing langfristig möglich zu machen. Lösungen wie diese könnten zur Demokratisierung von Daten beitragen. Derzeit befindet sich diese Lösung auf dem Weg zu einer umfassenden Marktreife. Aktuell werden schon erste Anwendungsfälle mit Pilotkund:innen erprobt. Doch noch befindet sich Statista SynthiePop, die Statista-eigene synthetische Population, in der Betaphase- Ein offizieller Release ist für das zweite Quartal 2026 geplant. Bis dahin wird die Lösung sukzessive weiter aufgebaut. Die Datenbank wird mit eigenen und mittels externer Datenquellen sowie maßgeschneiderten Befragungsdaten fortlaufend validiert und für die nächsten Test-Cases vorbereitet. Neben den ersten, den deutschen Population sollen künftig weitere Länder integriert werden, um das Tool international einsetzbar zu machen. Und parallel arbeitet Statista am Interface und der UX.
Womöglich gehören synthetische Populationen schon bald zum Marketing-Usus einer KI-geprägten Welt. Für den Erfolg der Kampagnen damit braucht es aber zunächst viele Tests und Erkenntnisgewinne, um den Wert als Alternative zur klassischen Marktforschung überhaupt ermitteln zu können.
Ende eines großen Plans:
Google stellt Privacy Sandbox ein

Online Marketing & SEO
SEO und KI 2026
Letztes Jahr hat sich im SEO viel verändert: Neue Technologien, neue Erwartungen, neue Unsicherheiten. Für mich persönlich ist es jetzt an der Zeit, die Fakten zu checken und zu analysieren. In diesem Beitrag zeige ich Dir, was diese Entwicklungen bedeuten und was Du 2026 konkret tun solltest.

Meine zentralen Thesen zum Thema SEO & KI:
- SEO ist 2026 nicht überflüssig, sondern strategischer denn je. Wer SEO auf Traffic oder Rankings reduziert, hat das Spiel nicht verstanden.
- KI ersetzt Google nicht – sie erweitert die Suche. Jede Suchmaschine, jeder Agent, jede KI greift auf das Web zurück.
- Die schlechte Stimmung in der SEO-Szene ist kein Marktproblem, sondern ein Qualitätsproblem. Low-Cost-Content funktioniert nicht mehr – professionelles SEO sehr wohl.
- SEO spaltet sich: Klassisches SEO bleibt, SEO für KI-Systeme kommt hinzu. Die Grundlagen ändern sich nicht – ihre Bedeutung schon.
- Perfekte Messbarkeit ist vorbei – Wirkung nicht. Attribution war im B2B nie exakt und wird es auch 2026 nicht sein.
- KI ist ein Werkzeug, kein Ersatz für Expertise. Mittelmaß lässt sich automatisieren – Differenzierung nicht.
- Websites verschwinden nicht – ihre Rolle verändert sich. Technische Qualität, Struktur und Crawlbarkeit werden zur Eintrittskarte.
Brauche ich SEO 2026 überhaupt noch?
Die Frage ist verständlich, aber falsch gestellt.
Das Auffälligste an der Entwicklung rund um SEO, GEO und KI war für mich der Widerspruch zwischen Innen- und Außenwahrnehmung: Während in der SEO-Szene vielfach Weltuntergangsstimmung herrschte, hörte ich von außen immer wieder: „SEO wird doch jetzt erst recht wichtig(er) – Ihr müsst ja nun auch noch KI-Systeme optimieren.“
Klar ist: Wer ChatGPT, Gemini & Co. optimieren will, kommt an SEO nicht vorbei.
Da LLMs (Sprachmodelle) auf die Daten beschränkt sind, mit denen sie trainiert wurden, greifen sie inzwischen auf das Web zurück, um Antworten auf aktuelle User-Fragen zu finden. Dabei durchsuchen sie Websites und andere Online-Inhalte. Welche Quellen sie dabei bevorzugt anzeigen oder zitieren, hängt – ähnlich wie bei Suchmaschinen – stark von klassischen SEO-Kriterien ab.
Fakt ist: Dadurch wird SEO wichtiger, und nicht unwichtiger.
ChatGPT ist kein Google-Ersatz
Zudem hat sich mittlerweile mehr als deutlich gezeigt: ChatGPT wird Google nicht ersetzen. Es handelt sich um zwei grundsätzlich unterschiedliche Tools mit unterschiedlichen Anwendungsfällen. Die meisten Fragen, die wir einer KI stellen, sind Ratschläge zu persönlichen Themen oder To-dos.

Nur 21 % der Nutzung von ChatGPT haben mit Informationssuche zu tun, nur rund 2,1 % aller Chats beschäftigen sich mit der Informationssuche nach kaufbaren Produkten. Ausgewertet wurden rund 1,1 Mio. Gespräche, Quelle
Nur sehr selten wird nach konkreten Dienstleistungen oder Produkten gefragt, dafür nutzen wir weiterhin am liebsten Google.
Wir fragen also:
„Ich bin Marketingleiter*in eines Unternehmens: Wie soll ich meine digitale Strategie 2026 aufstellen?“
Und sobald dabei das Thema SEO fällt, wird anschließend nach
„SEO-Agentur“ gegoogelt.
Eine beachtenswerte Studie von Semrush zeigt darüber hinaus, dass nach der Nutzung von ChatGPT nicht weniger, sondern mehr gegoogelt wird. „ChatGPT is not replacing Google, it’s expanding search“.
Fakt: Die Nutzung von Google nimmt um etwa 20 % zu, wenn mit der Nutzung von ChatGPT begonnen wird.
Die Stimmung spiegelt nicht die Entwicklung wider
Die schlechte Stimmung in der (Agentur-)-SEO-Szene hat nur bedingt mit der tatsächlichen Entwicklung von SEO zu tun. Sie ist vor allem ein Ergebnis aus zwei Faktoren: der Einführung der „Übersicht mit KI“ und einer seit mehreren Jahren anhaltenden wirtschaftlichen Unsicherheit, in der Marketingbudgets kritischer hinterfragt werden.
Die Übersicht mit KI hat zu rund 7 % Trafficverlust über alle Branchen hinweg geführt, wie unsere Studie gezeigt hat. Aber es galt schon immer: Traffic allein ist keine gute KPI, vor allem ist er nicht businessrelevant – außer Du verdienst direkt mit Traffic Geld, wie etwa bei News-Websites. Wichtiger sind Leads, Sales, Bestellungen, Anfragen. Sie kommen weiterhin über SEO und andere Kanäle. Es bestellen ja nicht plötzlich 7 % weniger Menschen im Internet.
Der entscheidendere Punkt liegt aber woanders: Ein verbreitetes Modell, das lange funktioniert hat, trägt heute nicht mehr: Inhalte für 10 Euro einzukaufen und für 150 Euro weiterzuverkaufen war eine Zeit lang lukrativ, tragfähig war es aber nie. Spätestens jetzt ist damit Schluss.
Massenhaft produzierte Billigtexte ranken schon seit Jahren nicht mehr. In wirtschaftlich stabilen Zeiten fiel das weniger auf, in einer Krise dagegen umso mehr. Wenn Unternehmen gleichzeitig feststellen, dass einfache Inhalte auch intern oder mit KI erstellt werden können, ist die Konsequenz logisch.
Das Problem ist also nicht SEO. Das Problem ist Low-Cost-Content ohne echten Mehrwert. Für Unternehmen bedeutet das nicht weniger SEO, sondern bessere Inhalte und klarere Prioritäten.
SEO spaltet sich in zwei Bereiche auf
Meine klare Ansage: Ja, Du brauchst 2026 SEO noch, vielleicht sogar mehr denn je. Denn künftig wird nicht nur Google Deine Website crawlen, sondern auch das ein oder andere KI-Tool. „SEO spaltet sich“, habe ich neulich in meinem Webinar erzählt.
- Das klassische SEO bleibt. Es gibt weniger Klicks auf informationsorientierte Inhalte, aber – und hier hat Google recht – die Klicks, die bleiben sind damit noch wertvoller.
- Neu hinzu kommt SEO für LLMs: Ob Gemini, ChatGPT oder andere Systeme – sie greifen bei aktuellen Fragen auf Inhalte im Web zurück und nutzen nicht nur ihr internes System. Ohne Auffindbarkeit keine Sichtbarkeit.
Die gute Nachricht: Die Regeln ändern sich weniger, als viele glauben.
Die Optimierungen für LLMs unterscheiden sich in Nuancen, nicht im Kern. Drei Dinge entscheiden weiterhin über Sichtbarkeit – egal ob für Google oder KI-Systeme:
- Eine technisch sehr gut zugängliche Website.
- Gute Inhalte mit echtem Mehrwert.
- Eine starke Marke, der man vertraut.
Wer diese Grundlagen beherrscht, wird auch in einer KI-getriebenen Suchwelt sichtbar bleiben. Wer sie vernachlässigt, wird weder bei Google noch bei KI-Antworten eine Rolle spielen.
Wie und was messe ich denn?
Der Traffic über Google ist 2025 gefallen, laut unserer Studie aus dem Oktober im Durchschnitt um 7 %. Grund für den Trafficverlust waren nicht ChatGPT & Co. sondern die Einführung der „Übersicht mit KI“, die viele informationsorientierte Suchanfragen direkt beantwortet.
Zwei Entwicklungen begleiten SEO allerdings schon seit vielen Jahren:
- Vermeintlich „einfach abzugreifender“ Traffic wird von Google regelmäßig eingesammelt. Bereits bei Panda im Jahr 2010 war das so: Damals rankten Websites für Suchanfragen wie „Wie wird das Wetter morgen?“, obwohl sie lediglich ein paar hundert Wörter darüber schrieben, wie oft Menschen über das Wetter nachdenken. Google hat dem – zu Recht – ein Ende gesetzt. Heute findet man dort nur noch Seiten, die tatsächlich das morgige Wetter anzeigen.
- Messbarkeit wird seit Jahren schwieriger: Ich kann mich an Zeiten erinnern, in denen man noch genau wusste, welches Keyword wie viel Umsatz gebracht hat. Mit SSL, Datenschutz und anonymisierter Nutzung ist dieses Bild längst Geschichte – nicht nur im SEO, sondern im gesamten Online Marketing.
Dark Touches: Wie kam der Sale zustande?
Im B2B bin ich pragmatisch: Im Schnitt haben wir 31 Touchpoints, bis sich jemand bei uns meldet. Vom ersten anonymen Kontakt bis zum Abschluss vergehen durchschnittlich 199 Tage.
In Analytics sehe ich davon oft nur vier oder fünf Touchpoints – kanalübergreifend ganz zu schweigen.
Geben wir es offen zu: Vollständiges Tracking ist in vielen Bereichen nicht mehr möglich. Und KI-Tools verschärfen das weiter. Ein*e Nutzer*in hört vielleicht erstmals in ChatGPT von einer Marke, klickt dort aber nicht, sondern googelt sie später manuell.

Die Customer Journey ist lang.
Heißt das, dass SEO oder andere Online Marketing-Maßnahmen nicht wirken? Natürlich nicht. Es heißt nur, dass wir aufhören müssen, Wirkung ausschließlich über perfekte Daten erklären zu wollen.
Gerade im klassischen Industrie-Mittelstand mit wenigen tausend Besucher*innen im Monat, aber sechs- oder siebenstelligen Deals, war Attribution nie eine exakte Wissenschaft.
2026 werden wir erste Tools sehen, die Prompts tracken und Sichtbarkeit in KI-Systemen messbar machen. Erste Lösungen existieren bereits. Doch auch dann werden wir nur näherungsweise verstehen, welchen Anteil KI tatsächlich am Abschluss hatte.
Deshalb gewinnt eine alte Disziplin wieder an Bedeutung: Self Reported Attribution.
Konkret heißt das nichts anderes, als den Kund*innen nach dem Abschluss zu fragen:
- „Wie sind Sie auf uns aufmerksam geworden?“
- „Was hat den Ausschlag für Ihre Entscheidung gegeben?“
Das ist nicht unprofessionell, sondern realistisch.
Natürlich ist es wichtig, dort Daten zu nutzen, wo sie vorhanden sind. Auch hier kann KI helfen – etwa bei der Auswertung, Priorisierung oder Mustererkennung. Letztlich gibt es aber selten den einen Kanal, der allein für den Abschluss verantwortlich ist.
Gerade im B2B wirken viele Touchpoints zusammen: SEO, KI-Tools, E-Mail-Marketing oder auch der klassische Messebesuch. Sie zahlen unterschiedlich stark, unterschiedlich messbar – aber gemeinsam auf die Conversion ein.
KI in der Produktion: AI-Slop und Qualität
Google-intern ist „AI-Slop“ aktuell ein großes Thema. Gemeint ist damit mittels KI erzeugter Content-Schrott. Das wird uns 2026 noch stärker beschäftigen. Nicht, weil KI schlecht ist, sondern weil sie Mittelmäßiges extrem schnell skalieren kann.
Als ich neulich auf der Google Search Central live in Zürich war, wurde ein Beispiel gezeigt, das das Problem gut illustriert. Eine Newswebsite hatte einen inhaltlich sehr seriösen Artikel veröffentlicht. Für Google Discover wurde allerdings ein KI-generiertes Bild verwendet. Das Ergebnis: Der Artikel wurde kaum geklickt. Nicht wegen des Inhalts, sondern wegen der Wahrnehmung. Das Bild wirkte wie AI-Slop und hat Vertrauen zerstört, bevor der Text überhaupt gelesen wurde.

Content: Masse statt Klasse?
Content-Schrott gab es schon immer. Ich erinnere mich gut an einen Fall, bei dem wir einem großen Onlineshop erklären mussten, dass alle 1.500 Blogartikel der Vorgängeragentur – Stückpreis rund 100 Euro – keinen messbaren Wert hatten und gelöscht werden sollten. Das ist fast zehn Jahre her.
Der Unterschied heute: Mittelmäßiger Content lässt sich mit KI in Minuten produzieren. Qualitativ hochwertiger Content hingegen nicht. Ich kann eine Website heute mit hunderten Unterseiten befüllen, genauso wie ich mit einem Drucker hunderte Seiten Papier ausdrucken kann. Beides sagt nichts über Qualität aus.
Und genau hier liegt der entscheidende Punkt für 2026:
Mittelmäßige Inhalte braucht heute kein Mensch mehr – und keine KI. Wer Content nur produziert, um Flächen zu füllen, schadet sich selbst. Wer Inhalte erstellt, die wirklich helfen, erklären oder überzeugen, bleibt sichtbar – bei Google genauso wie in KI-Systemen.

KI ersetzt keine Expertise. Sie verstärkt sie.
KI als Tool – aber bitte nicht als Ersatz!
Natürlich hilft KI in der täglichen Arbeit als Online Marketer – egal ob Du im SEO, SEA, Content Marketing oder im Grafik-Bereich tätig ist. Ohne KI solltest Du im Marketing heute nicht mehr arbeiten. Aber: Zu viel KI ist genauso problematisch wie gar keine.
Der entscheidende Punkt ist der schmale Grat zwischen „KI als hilfreiches Werkzeug“ und austauschbarem Schrott. KI kann Anzeigentexte schreiben, Strukturen vorgeben oder solide Websitetexte formulieren. Was sie nicht kann: echte Originalität erzeugen, emotionale Tiefe schaffen, ein strategisches Gespür und Feingefühl für komplexe B2B-Märkte entwickeln.
Alles, was neu, mutig oder wirklich out-of-the-box ist, entsteht nicht aus Wahrscheinlichkeiten – sondern aus Erfahrung, Kontext und Haltung. Mittelmäßiges Marketing lässt sich hervorragend automatisieren. Genau deshalb wird es auch austauschbar.
Die besten Ideen im Marketing entstehen dort, wo Menschen KI gezielt einsetzen und bewusst an den entscheidenden Stellen nicht.
Wird es noch klassische Websites geben?
Na klar. Selbst wenn KI künftig stärker genutzt wird als das „klassische Web“: Es gibt auch heute noch Bücher, Radio und TV, obwohl längst neue Medien hinzugekommen sind. Neue Kanäle verdrängen bestehende selten vollständig – sie verändern ihre Rolle.
Natürlich wird es perspektivisch möglich sein, Produkte oder Dienstleistungen zu kaufen, ohne eine klassische Website zu besuchen oder einen Checkout zu durchlaufen. Ob das aber so schnell und umfassend passiert, wie es auf LinkedIn manchmal klingt, bleibt abzuwarten. Zum Glück wird nicht alles wahr, was behauptet wird.
Klar ist aber: Websites verändern ihre Funktion.
Künftig optimieren wir Websites nicht nur für menschliche Besucher*innen, sondern auch für KI-Systeme und deren Agenten. Und die wollen vor allem eines: gut zugängliche, klar strukturierte und verlässliche Informationen. schema.org ist ein Anfang – oft reicht es aber schon, sich konsequent zu fragen, was Nutzer*innen wirklich von einer Seite erwarten.
Eine technisch saubere, gut strukturierte und informative Website ist deshalb keine Kür, sondern Grundlage. Crawling wird wieder wichtiger, wie Google auf der Search Central in Zürich mehrfach betont hat. Core Web Vitals, Seitenstruktur und Indexierung werden nicht an Bedeutung verlieren – im Gegenteil: Sie werden zur Voraussetzung für Sichtbarkeit, egal ob bei Google oder in KI-Systemen.
Messbarkeit & Business Impact: Wie rechtfertige ich mein SEO-Budget?
Rankings zu zeigen, wird schwieriger. Traffic-Entwicklungen sind durch Faktoren wie Corona, Wirtschaftskrise und immer komplexere Google-Updates so verzerrt, dass ein reiner Jahresvergleich kaum noch aussagekräftig ist.
Spannend finde ich dabei, dass die SEO-Branche oft ein Selbstbewusstseinsproblem hat. Überall außerhalb der SEO-Welt wird über ChatGPT, KI-Sichtbarkeit und Agenten gesprochen – nutzen wir das doch auch in unserer Argumentation! Gleichzeitig müssen wir uns, aber auch unsere Geschäftsführer*innen, daran gewöhnen: So transparent wie früher wird Marketing-Attribution vermutlich nie wieder.
Das macht SEO aber nicht unwichtiger – im Gegenteil. Es wird mehr gesucht als jemals zuvor. Und nun kommen KI-Systeme hinzu, die ebenfalls auf Suchalgorithmen und Webinhalte zurückgreifen. Wenn tatsächlich die ersten Agenten kommen, wird SEO nicht weniger relevant, sondern noch zentraler.
Gefällt Dir dieser Blogpost? Wenn Du regelmäßig die neuesten Trends im Online Marketing mitbekommen willst, dann abonniere jetzt unseren Newsletter. Über 18.000 Abonnenten vertrauen uns.
Jetzt abonnieren
Die Herausforderung liegt nicht im Nutzen von SEO, sondern in der Messbarkeit. Und damit steht SEO nicht allein. Egal ob SEA, Social Ads, organische Kanäle oder klassische Werbung wie Plakat, TV oder Radio – Attribution war schon immer ein Näherungswert. Affiliate Marketing, Native Advertising oder Reichweitenkampagnen machen es nicht besser.
„Die Hälfte des Geldes, das ich für Werbung ausgebe, ist verschwendet.
Das Problem ist, dass ich nicht weiß, welche Hälfte.“
Der Satz von John Wanamaker ist alt, aber aktueller denn je.
Ich sehe deshalb keinen Shift der Budgets weg von SEO. Im Gegenteil: Durch KI rückt das Thema stärker in den Fokus von Geschäftsführer*innen und Vorständen. Wer sich ernsthaft mit seinem Geschäftsmodell beschäftigt, findet immer einen klaren Nutzen von SEO. Man muss nur akzeptieren, dass die Erfolgsmessung realistischer, nicht perfekter wird.
Ich habe natürlich keine Glaskugel. Aber ein paar Entwicklungen zeichnen sich sehr klar ab:
- Mehr KI in den Google-Suchergebnissen
- Eine steigende Nutzung von KI in der Bevölkerung
- Viele neue Funktionen und „Erfindungen“ rund um KI
Gerade Letzteres sollte man realistisch einordnen. Nicht jede neue Funktion wird automatisch relevant. Der AI-Mode wird bislang kaum genutzt, die KI in WhatsApp aus meiner Sicht gar nicht. Und Amazon Rufus kennt selbst heute noch kaum jemand – viele werden vermutlich erst einmal googeln, was das überhaupt ist.
2026 wird weiter viel mit KI experimentiert werden. Es wird viel gelauncht, viel getestet – aber nur ein Bruchteil davon wird sich dauerhaft durchsetzen. Genau deshalb ist Hype keine Strategie.
Unsere Aufgabe als SEOs bleibt dabei klar:
- Wir optimieren die Stellen, die für Unternehmen echten Umsatz bringen.
- Wir sind dort sichtbar, wo heute gesucht wird und dort, wo es absehbar relevant wird.
- Wir nutzen Tools und KI gezielt, ohne unseren Qualitätsanspruch aufzugeben.
Es ist auch 2026 noch unglaublich viel zu holen – auch in der klassischen Suche. Neue Technologien sollten wir beobachten, verstehen und dort einsetzen, wo sie sinnvoll sind. Aber bei all dem sollten wir eines nicht vergessen:
Suchsysteme spielen überall eine Rolle. Und genau dafür sind wir die Profis. Wenn Du wissen willst, wie das konkret für Dein Unternehmen aussieht, wir freuen uns auf Deine Nachricht.
Quellen:
https://www.nber.org/system/files/working_papers/w34255/w34255.pdf
Bildnachweis: Bild 1-5 Seokratie GmbH
Online Marketing & SEO
Top-Personalie: Neue globale Marketing-Chefin bei Puma kommt von Hugo Boss
Nadia Kokni hat u.a. für JD Sports, H&M, Adidas, Tommy Hilfiger und zuletzt für Hugo Boss gearbeitet.
Puma hat Nadia Kokni zum 1. Januar zur Vice President Global Brand Marketing ernannt. Sie kommt von Hugo Boss und ersetzt Richard Teyssier, der sich entschieden hat, Puma zu verlassen, um neue Herausforderungen außerhalb des Unternehmens anzunehmen.
Jetzt Angebot wählen und weiterlesen!
HORIZONT Digital
- Vollzugriff auf HORIZONT Online mit allen Artikeln
- E-Paper der Zeitung und Magazine
- Online-Printarchiv
HORIZONT Digital-Mehrplatzlizenz für Ihr Team
-
UX/UI & Webdesignvor 3 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 3 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Künstliche Intelligenzvor 3 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
