Online Marketing & SEO

ChatGPT zitiert Grokipedia – und das ist ein Problem


ChatGPT nutzte Grokipedia mehrfach als Wissensbasis – ausgerechnet dort, wo Nutzer:innen besonders stark auf KI vertrauen. Der Fall zeigt, wie sich automatisiertes Wissen verselbstständigt, warum klassische Korrektive fehlen und weshalb Transparenz zur zentralen Frage für Medien, Bildung und Öffentlichkeit wird.

OpenAI betont regelmäßig, wie wichtig eine breite und ausgewogene Quellenbasis für verlässliche KI-Antworten ist. Umso genauer lohnt sich der Blick auf eine Entwicklung, die sich aktuell abzeichnet: Inhalte aus Grokipedia, Elon Musks KI-basierter Wikipedia-Alternative, tauchen offenbar zunehmend in Antworten von ChatGPT auf.

Wie The Guardian berichtet, griff ChatGPT in der Version GPT-5.2 bei mehr als einem Dutzend unterschiedlicher Anfragen insgesamt neunmal auf Grokipedia als Quelle zurück. Entscheidend ist dabei weniger die Häufigkeit als das Muster. Grokipedia wurde kaum bei Themen genutzt, die breit dokumentiert und von vielen etablierten Medien und Fachpublikationen eingeordnet sind. Stattdessen diente sie als Quelle bei weniger bekannten Sachverhalten. Genau dort also, wo Nutzer:innen besonders stark auf die Einordnung durch KI vertrauen.


Grokipedia-Start:
„Besseres“ Wikipedia mit KI und ersten Problemen

Ein Bild der Grokipedia Startseite
© Grokipedia

Was ist Grokipedia und warum ist es umstritten?

Grokipedia wurde von xAI entwickelt und startete im Oktober 2025. Elon Musk hatte zuvor wiederholt Wikipedia kritisiert und der Online-Enzyklopädie politische Voreingenommen vorgeworfen. Grokipedia versteht sich als Gegenentwurf zur von Menschen kuratierten Wissensplattform.

Der zentrale Unterschied: Grokipedia ist vollständig KI-generiert. Sämtliche Inhalte stammen vom Sprachmodell Grok, das auch auf Musks Plattform X eingesetzt wird. Eine offene Community, redaktionelle Kontrolle oder transparente Diskussionsprozesse wie bei Wikipedia existieren nicht.

Schon kurz nach dem Start dokumentierten Journalist:innen erhebliche Probleme. Viele Einträge wirkten nahezu wortgleich aus Wikipedia übernommen, teils inklusive formaler Strukturen. Andere Artikel enthielten sachliche Fehler, einseitige Deutungen oder politisch aufgeladene Narrative. Fragen nach Verantwortung, Korrekturen und Transparenz blieben offen.

Erschwerend wirkt die Serie an Kontroversen rund um Grok selbst. Musks KI-Chatbot fiel in den vergangenen Monaten durch antisemitische Inhalte auf, glorifizierte Adolf Hitler als „Mecha Hitler“ und wird derzeit zur Erstellung sexualisierter, nicht einvernehmlicher Deepfakes genutzt – vor allem von Frauen und sogar Minderjährigen. In mehreren Ländern folgten daraufhin Ermittlungen und zeitweise Zugriffsbeschränkungen.

Auffällig selektiv: Wann ChatGPT Grokipedia nutzt

Besonders heikel ist nicht nur, dass ChatGPT auf Grokipedia zurückgreift, sondern wie. Laut The Guardian wurde Grokipedia nicht herangezogen, wenn es um stark dokumentierte oder intensiv diskutierte Themen ging, etwa den Sturm auf das US-Kapitol oder die HIV/AIDS-Epidemie.

Stattdessen diente Grokipedia als Quelle bei weniger bekannten Sachverhalten, etwa zu einzelnen Historiker:innen oder Nischenthemen. Genau dort, wo externe Einordnung schwieriger ist und Nutzer:innen stärker auf die Autorität der KI vertrauen, wird es problematisch. Fehler oder Verzerrungen lassen sich in solchen Fällen nicht so schnell erkennen. Das Risiko liegt also nicht bei offensichtlichen Kontroversen, sondern bei Antworten, die plausibel wirken, aber auf fragiler Wissensbasis stehen.

Wenn KI KI zitiert

OpenAI reagierte gegenüber dem Guardian defensiv. Ein:e Sprecher:in erklärte, man greife auf „ein breites Spektrum öffentlich zugänglicher Quellen und Standpunkte“ zurück. Dieses Vorgehen entspricht gängigen Retrieval-Ansätzen moderner Sprachmodelle, bei denen externe Inhalte je nach Anfrage eingebunden werden.

Der Fall Grokipedia zeigt jedoch die Kehrseite dieses Prinzips. Wenn KI-Systeme auf andere KI-generierte Wissenssammlungen zurückgreifen, entsteht ein Kreislauf. KI zitiert KI-Inhalte, die wiederum von KI erzeugt wurden. Fehler, Verzerrungen oder ideologische Narrative können sich so verstärken, ohne dass ein menschliches Korrektiv eingreift.

Weltwissen unter KI-Druck

Der größere Kontext macht die Entwicklung noch relevanter. Wikipedia steht nach 25 Jahren exemplarisch für ein zentrales Problem des Internets 2026. Offenheit allein schützt Wissen nicht mehr. Inhalte werden automatisiert abgegriffen, neu zusammengesetzt und weiterverwertet, während Transparenz über Herkunft und Kontext verloren geht.

Die Wikimedia Foundation reagiert darauf, indem sie den Zugriff von KI-Systemen neu ordnet. Über Angebote wie Wikimedia Enterprise wird automatisierter Zugang erstmals gesteuert und kommerziell geregelt. Neben Google kooperiert Wikimedia inzwischen auch mit Amazon, Meta, Microsoft, Mistral AI und Perplexity.

Während Wikipedia versucht, Kontrolle über die eigene Wissensbasis zurückzugewinnen, richtet OpenAI den Blick nach vorn. CEO Sam Altman kündigte kürzlich an, an einer „neuen Generation von Tools“ zu arbeiten. Begleitend plant OpenAI ein öffentliches Town Hall für Entwickler:innen, bei dem vor dem Start erste Einblicke und Feedback gesammelt werden sollen.

Sam Altman kündigt ein öffentliches Town Hall für Entwickler:innen an und stellt eine „neue Generation von Tools“ bei OpenAI in Aussicht, © Sam Altman auf X

25 Jahre Wikipedia:
Der Kampf ums Weltwissen im KI-Zeitalter


Nicht jede KI-Antwort ist Wissen

Bei KI geht es längst nicht mehr nur darum, was ein System antwortet, sondern woher diese Antworten stammen. Wenn KI-Dienste zunehmend auf andere KI-generierte Wissensquellen zurückgreifen, wird die Herkunft schwerer nachvollziehbar – und Vertrauen zur offenen Frage. Vor allem dann, wenn diese Quellen selbst umstritten sind.

Da KI-Antworten immer häufiger als Referenz genutzt werden – in Redaktionen, im Marketing, in Bildungskontexten und im Alltag –, wird Quellenbewusstsein zur Schlüsselkompetenz. Plausibilität reicht nicht mehr aus. Wer KI nutzt, muss lernen, Antworten einzuordnen. Und wer Wissen veröffentlicht, gewinnt an Relevanz, wenn Herkunft, Einordnung und Verantwortung klar erkennbar bleiben.





Source link

Beliebt

Die mobile Version verlassen