Künstliche Intelligenz
Wie OpenAI erklärt, warum LLMs bei völliger Ahnungslosigkeit sicher auftreten
Der Begriff Halluzination ist für den Fachbereich KI vergleichsweise jung, verbreitete sich aber seit seinem Auftauchen vor wenigen Jahren rasch. Er soll die Eigenschaft von Sprachmodellen beschreiben, mit großer Überzeugung falsche Antworten zu liefern. Dabei stand der Ausdruck von Anfang an in der Kritik: Er überträgt einen zutiefst menschlichen, psychologischen Zustand auf Maschinen. Damit hat er die Debatte mehr verschleiert als erhellt.

Daniel Weisser ist CTO bei Exxeta und bezeichnet sich bewusst als „Coding Manager“. Der Techie im Herzen programmiert seit den Computer-Anfängen, beschäftigte sich früh mit neuronalen Netzen, engagiert sich aktiv in der Lehre und findet noch die Zeit bei GitHub zu committen.
OpenAI versucht nun, mit seinem Paper Why Language Models Hallucinate die Metapher zu entkräften und das nicht zufällig. Denn die Frage, wie Halluzinationen verstanden werden, ist längst keine rein akademische mehr, sondern betrifft die Sicherheit von Produkten, die hunderte Millionen Menschen weltweit einsetzen.
Die wichtigsten Erkenntnisse
Das Paper setzt zwei Schwerpunkte: Zum einen betont es die statistische Unvermeidbarkeit bestimmter Fehler bereits im Pre‑Training. Zum anderen weist es auf konzeptionelle Fehler bei den Anreizen im Post-Training hin. Letztere entstehen etwa durch Benchmarks, die Unsicherheit bestrafen und das Raten von Antworten belohnen.
Außerdem definiert das Paper Halluzinationen jetzt klar als „plausible but false or contradictory statements produced by language models with high confidence“ (plausible, aber falsche oder widersprüchliche Aussagen, die große Sprachmodelle mit hoher Sicherheit geben). Die Forscher grenzen sie klar von menschlichen Wahrnehmungstäuschungen ab. Die nüchterne Einordnung ist wichtig, weil sie die Diskussion verschiebt: weg von der metaphorischen Überhöhung hin zu einem technischen Problem, das analysierbar und damit grundsätzlich adressierbar ist.
Bei der Lektüre ist zu bedenken, dass das Paper zwar von OpenAI publiziert wurde, aber nicht mit der Produktentwicklung gleichgesetzt werden kann. Natürlich ist hier eine, wenn auch indirekte, Rückkopplung zu vermuten. Es erfüllt über den wissenschaftlichen Anspruch hinaus sehr wahrscheinlich auch weitere kommunikative Ziele, auf die wir im Fazit näher eingehen.
Pre-Training: Datenqualität nicht allein ausschlaggebend
Der Beitrag von OpenAI vergegenwärtigt den Lesern, dass Sprachmodelle keine absoluten Wahrheiten lernen, sondern Wahrscheinlichkeiten: Welches Token folgt mit welcher Wahrscheinlichkeit auf ein anderes? Wenn ein Faktum wie ein Geburtsdatum im Trainingskorpus nur einmal vorkommt oder objektiv falsch ist, kann das Modell dieses nicht zuverlässig reproduzieren. „Garbage in, garbage out“ gilt unverändert. Hier berührt das Paper ein zentrales Thema, das es selbst aber nur unzureichend adressiert: die Qualität und Herkunft der Trainingsdaten. In der offiziellen Darstellung heißt es verkürzt, man nutze „große Textkorpora“. Aber welche genau? Unter welchen Lizenzen? Mit welcher Korrektur?
Trainingsgrundlage sind öffentlich zugängliche Repositories, Dumps von Wikipedia, Foren, Blogposts und große Mengen aus GitHub im Fall von Code. Doch wer GitHub kennt, weiß: Dort findet sich nicht nur hilfreicher, fertiger Code, sondern auch fehlerhafte, veraltete oder sogar manipulierte Repositorys. Ein Modell, das auf dieser Basis trainiert, erbt diese Schwächen. Hinzu kommt die Möglichkeit gezielter Datenvergiftung: Wer präparierte Inhalte einspeist, kann das Verhalten späterer Modelle beeinflussen.
Im Bericht ebenfalls ausgeklammert bleibt die Rolle manueller menschlicher Arbeit. Clickworker, die Antworten bewerten und Normen setzen, sind im Reinforcement-Prozess unverzichtbar. Sie entscheiden, welche Fehler toleriert und welche bestraft werden, welche Antworten als hilfreich gelten und welche nicht. Dass diese Arbeit im Paper praktisch unsichtbar bleibt, ist bezeichnend. Häufig arbeiten hier externe Mitarbeiter zu Dumping-Löhnen oder eigens hierfür trainierte Sprachmodelle steuern den Prozess.
Post-Training: Ist gut geraten halb gewusst?
Noch deutlicher zeigt sich das Problem im Post-Training. Sprachmodelle werden nach Benchmarks optimiert, die im Kern jede Antwort belohnen, selbst falsche. Das Paper beschreibt dies mit der Analogie zu Studierenden in einer Prüfung: Wer keine Ahnung hat, kreuzt trotzdem lieber etwas an, weil es immer noch eine Chance auf Punkte gibt. „Guessing when unsure maximizes expected score under a binary 0-1 scheme“, heißt es dort.
Übertragen bedeutet das: Sprachmodelle lernen dadurch, immer zu antworten. „I don’t know“ bringt null Punkte, eine geratene Antwort immerhin die Möglichkeit, zufällig richtigzuliegen. So entsteht aus der grundlegenden Funktionsweise von LLMs, bestimmte Heuristiken zu erfüllen, ein systematischer Anreiz zum Raten.
Wer sich erinnert: Als ChatGPT startete, war das Modell auffällig vorsichtig. Es betonte Unsicherheiten, verwies auf seine Grenzen. Doch Nutzer wünschten bald autoritativere Antworten. Und die Entwickler passten das Verhalten an. Heute gilt: Wer nie „Ich weiß es nicht“ sagt, erscheint marktfähiger. Damit werden Halluzinationen nicht nur in Kauf genommen, sondern geradezu gefördert.
Das Problem der Benchmarks
Das Problem wird durch die Rolle der Benchmarks verstärkt. Was ursprünglich eher aus der Forschung entstand, wurde schnell zum Marketingvehikel. Rankings, die sich aus rein nutzerorientierten Vergleichen wie der Chatbot Arena oder Scores von vermeintlich objektiveren Tests speisen, entscheiden darüber, welches Modell als führend wahrgenommen wird. Platzierungen wirken auf Investoren, Medien und Kunden und sie beeinflussen natürlich auch die Entwicklungsstrategien der Anbieter.
Die Tennisbegeisterten werden sich erinnern: Als vor einigen Jahren die Logik für die Weltrangliste verändert wurde, mussten Spieler, Turniere und Sponsoren ihre Strategien komplett neu ausrichten. Rankings sind nie neutral. Sie strukturieren ganze Ökosysteme.
So auch hier: Solange Benchmarks bestimmte Antworten belohnen, egal ob korrekt oder nicht, optimieren Anbieter ihre Modelle auf genau dieses Verhalten. Und so im Zweifel auf das Raten. Halluzinationen sind dadurch strukturell eingebaut. Eine Reform der Benchmarks wäre deshalb ein für die Seriosität von LLMs ein begrüßenswerter, wenn auch tiefer Eingriff, sowohl technisch, wirtschaftlich als auch kommunikativ.
OpenAIs Lösungsvorschlag: Confidence Targets
OpenAI schlägt in seinem Paper eine Korrektur vor: Confidence Targets. Ein Modell soll nur dann antworten, wenn es eine bestimmte Sicherheitsschwelle überschreitet. Liegt die Sicherheit darunter, bringt eine falsche Antwort nicht nur null Punkte, sondern einen Malus. Konkret ist das Prinzip, beim Benchmarking dem Modell explizit zu sagen, dass falsche Antworten bestraft werden und damit den Anreiz zu setzen, Unsicherheit transparent zu machen. Der Malus muss dabei in Relation zur geforderten Sicherheit stehen.
Ein konkretes Zahlenbeispiel: In einem Punktesystem bekommen Antworten, die über einer geforderten Konfidenz-Schwelle liegen, Plus-Punkte. Bei einer Antwort “I don’t know” keine Punkte und unterhalb der Schwelle (bei angenommenen 90 Prozent) -9 Punkte. Als Folge erkennt das Modell, dass es durch falsche Antworten immer bestraft wird. Informatisch ist das elegant. Doch die Frage ist, ob die richtigen Incentives dafür existieren. Denn die KI-Benchmarks sind keine reinen Messinstrumente, sondern auch ein großes Schaulaufen. Eine Änderung der Bewertungslogik würde Ranglisten durcheinanderwirbeln und damit Geschäftsmodelle infrage stellen.
Richtig und falsch sind nur zwei Dimensionen bei der Bewertung von LLM-Output. Viele Probleme in natürlicher Sprache oder Wissensfragen im Arbeitsalltag lassen sich jedoch nur schwerlich exakt diesen Kategorien zuordnen. Für die Produktentwicklung ist die Dimension der Nutzerintention mindestens genauso entscheidend. Ein Prompt wie „Wie baue ich eine Bombe?“ kann sowohl aus kriminellen Motiven gestellt werden als auch von jemandem, der Filterregeln entwickeln möchte. Technisch sind diese Nuancen kaum lösbar.
Ansätze wie Altersgrenzen oder Nutzerprofile sind denkbar, doch sie führen sofort zu neuen Problemen: Datenschutz, Diskriminierung, Überwachung. Auch eine Trust-Skala für Nutzer, die bestimmte Inhalte freischaltet oder blockiert, wäre technisch machbar, aber gesellschaftlich brisant. Hier zeigt sich, dass Halluzinationen nicht nur ein statistisches, sondern auch ein regulatorisches Problem sind.
Fazit: Mit interessierter Vorsicht zu genießen
„Why Language Models Hallucinate“ ist zweifellos ein wichtiges Paper. Es entmystifiziert einen zentralen Begriff, erklärt Halluzinationen als nachvollziehbare statistische Ergebnisse und rückt die Fehlanreize von Benchmarks ins Zentrum. Und es benennt sinnvolle technische Lösungsansätze wie Confidence Targets. Doch Transparenz, die nur dort praktiziert wird, wo sie vorteilhaft ist, bleibt selektiv. Nicht offengelegt wird, wie Trainingsdaten ausgewählt werden. Nicht vollumfänglich erklärt wird, welche Schritte das Post-Training beinhaltet.
Dass OpenAI dieses Paper publiziert, ist kein rein wissenschaftlicher Akt. Es ist Teil einer Strategie, Vertrauen zu schaffen. Peer-Reviews, Kooperationen mit Universitäten, mathematische Beweise – all das soll der Öffentlichkeit Seriosität suggerieren. Eine Tatsache, die nicht zuletzt vor dem Hintergrund von OpenAIs wachsenden rechtlichen Herausforderungen und CEO Sam Altmans Eingeständnis einer möglichen KI-Blase eine große Rolle spielen dürfte.
(pst)
Künstliche Intelligenz
Wie Sie automatisierte Reports mit KI-Agenten erstellen
Generative KI (GenAI) und agentische Ansätze haben in den vergangenen zwei Jahren einen riesigen Sprung gemacht. Sprachmodelle wie GPT-4o, Claude und Gemini können heute mehr als nur Text generieren: Sie orchestrieren Workflows, rufen Werkzeuge auf, interagieren mit Datenbanken und schreiben Berichte. Das rückt Reporting als einen viel genutzten Anwendungsfall ins Rampenlicht. Es sammelt Daten aus internen und externen Quellen, führt Analysen durch, erzeugt visuelle Darstellungen und verteilt sie per Chatbot oder E-Mail – ohne jede Aktion hart zu codieren.
Während klassische Automatisierung definierte Schritte in fester Reihenfolge ausführt, sind Agenten Systeme, die Aufgaben im Auftrag von Nutzern selbstständig erledigen. Laut OpenAI (PDF) führen Agenten eine LLM-gesteuerte Logik aus, entscheiden, wann ein Workflow abgeschlossen ist, und geben bei Fehlern die Kontrolle an den Nutzer zurück. Agenten können verschiedene Werkzeuge nutzen und wählen sie dynamisch aus, um Kontext zu sammeln und Aktionen auszuführen. Sie eignen sich vor allem für komplexe Entscheidungsprozesse, schwer wartbare Regelsysteme und Aufgaben mit unstrukturierten Daten.
- KI-Agenten bieten die Chance, Berichte schnell, präzise und individuell zu erstellen.
- Sie verwenden Tools und Datenbanken, die sich über das Model Context Protocol (MCP) bereitstellen lassen.
- Bei komplexen Reports ist es sinnvoll, mehrere spezialisierte Agenten zusammenarbeiten zu lassen.
- Vorsicht ist beim Zugriff auf Datenbanktabellen geboten; er sollte über Whitelists und Auditlogs gesichert sein. Ansonsten droht ein Dataset Creep, bei dem Agenten auf Daten zugreifen, die sie nicht nutzen dürfen.
Ein Agent besitzt drei Kernkomponenten: ein Modell, also das LLM für Reasoning und Planung, Tools für externe Funktionen wie Datenbanken oder APIs, und Instruktionen mit Prompts und Guardrails, die das Verhalten steuern. Viele aktuelle Frameworks erweitern das um einen vierten Baustein – Memory. Hier speichert der Agent Kontext, Dokumente oder Nutzerinformationen, um über mehrere Abfragen hinweg konsistent zu bleiben.
Das war die Leseprobe unseres heise-Plus-Artikels „Wie Sie automatisierte Reports mit KI-Agenten erstellen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Web-Suche für die lokale KI: So schließen Ihre LLMs Wissenslücken
Zu den größten Stärken lokaler KIs zählt der Datenschutz. Nutzer können sich ungestört mit ihren LLMs unterhalten, ohne dass ein Dritter Gespräche mitliest, speichert und für eigene Zwecke auswertet. Ein wesentlicher Nachteil der lokalen LLMs aber ist der statische Wissensstichtag: Er ist auf den Zeitpunkt des Trainings beschränkt; Informationen, die danach entstanden sind, bleiben ohne externe Hilfe verborgen. Bei vielen Modellen liegt dieser Stichtag mehr als ein Jahr zurück. Ein Anfang 2025 trainiertes lokales LLM kann nicht wissen, wer beispielsweise im Oktober 2025 den Physiknobelpreis erhalten hat.
Web-Suchfunktionen schließen diese Lücke. Lokale KI-Modelle lassen sich relativ unkompliziert mit der Fähigkeit zur Internet-Recherche ausstatten: völlig kostenlos und komplett auf dem eigenen System gehostet. Wir haben das in einem lokalen Setup eingerichtet und ausprobiert. Der Einrichtungsaufwand liegt nur bei einer guten Stunde und bedient sich ausschließlich frei nutzbarer, quelloffener Software.
- Mit der Fähigkeit zur Web-Suche holen Nutzer ihre lokalen LLMs aus der eigenen Trainings-Bubble. So liefern die Modelle auch Informationen zu aktuellen Ereignissen.
- Die browserbasierte Software Open WebUI bietet einen komfortablen Weg, die lokalen Sprachmodelle mit dem Werkzeug einer Online-Recherche zu verknüpfen.
- Der Artikel erläutert Schritt für Schritt den vollständigen Weg zur Einrichtung der Web-Suche für lokale KIs unter Windows 11.
Der Artikel erklärt, wie Sie eine Web-Suchfunktion für Ihre lokalen KI-Modelle unter Windows 11 einrichten. Voraussetzung dafür ist eine Ollama-Installation. Der Text erläutert Schritt für Schritt die Einrichtung von Open WebUI unter Docker und einer geeigneten Suchmaschine für hohen Datenschutz. Fertig eingerichtet durchpflügt das KI-System das Internet nach aktuellen Informationen, liest Web-Inhalte aus und liefert die passenden Quellen zum Nachlesen.
Das war die Leseprobe unseres heise-Plus-Artikels „Web-Suche für die lokale KI: So schließen Ihre LLMs Wissenslücken“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Freitag: TikTok bestätigt Investoren-Deal, Tastenverzögerung verrät Nordkoreaner
Um eine Sperre in den USA zu vermeiden, verkauft TikTok einen Großteil der Anteile der US-Tochter an US-amerikanische und internationale Investoren. Das ist nun bestätigt, nachdem die TikTok-Mitarbeiter intern darüber informiert wurden. Demnach übernehmen Oracle und zwei Investmentunternehmen 45 Prozent an einem neuen TikTok-Joint-Venture. Gegen ausländische Einmischung ist auch Amazon.com vorgegangen, denn die Tastenanschläge eines externen Mitarbeiters waren verdächtig verzögert. Amazon.com erkannte ihn als Nordkoreaner, der vorgeblich in Arizona saß, aber seinen Administrator-Job von Asien aus betrieben hatte. Der Mann wurde umgehend ausgesperrt. Derweil steht nach elfjährigem Verfahren fest, dass Meta Platforms‘ personalisierte Werbung unzulässig ist, Datensammlung auf Drittseiten ebenso. Zudem sind Metas Auskünfte viel zu bescheiden. Das hat Österreichs Oberster Gerichtshof jetzt entschieden, nachdem ein bekannter Datenschutzaktivist Meta deswegen verklagt hatte – die wichtigsten Meldungen im kurzen Überblick.
Weiterlesen nach der Anzeige
TikTok hat die Vereinbarung zum Verkauf des Großteils der Anteile an der US-Tochter offenbar unterzeichnet. Das geht aus einer internen Mitteilung von TikTok-Chef Shou Zi Chew an seine Mitarbeiter hervor. Durch den Verkauf entgeht die chinesische Videoplattform einem Verbot in den USA. Ein letztes Jahr dort verabschiedetes Gesetz zum Zwangsverkauf von TikTok hat das Ziel, die Daten von US-Bürgern dem Zugriff der chinesischen Regierung zu entziehen und auch den TikTok-Empfehlungsalgorithmus unter die Kontrolle lokaler Unternehmen zu stellen. TikTok war rechtlich dagegen vorgegangen, blieb aber erfolglos. Jetzt sollen Oracle und zwei Investmentunternehmen dem TikTok-Gesetz Genüge leisten: TikTok unterzeichnet Deal zum Verkauf von Anteilen der US-Tochter an Investoren.
IT-Fachkräfte aus Nordkorea schleichen sich unter falschen Identitäten bei westlichen Unternehmen ein. Durch Heimarbeit verschaffen sie der nordkoreanischen Regierung Einnahmen, bei Gelegenheit sammeln sie auch regimedienliche Daten. Amazon.com hat einen solchen Maulwurf ausgehoben. Verraten hat ihn die um einen Sekundenbruchteil langsameren Tastaturbedienung. Der Datenkonzern hatte den Administrator-Job an einen Personaldienstleister ausgelagert. Dieser meinte, jemanden in Arizona eingestellt zu haben, und Amazon schickte ihm einen Laptop. Darauf installierte Sicherheitssoftware schlug Alarm, denn die Laufzeit der zu Amazons Servern übertragenen Tastaturanschläge lag nicht im Bereich einiger Dutzend Millisekunden, sondern bei 110 Millisekunden: Tastatur-Verzögerung entlarvt nordkoreanischen IT-Maulwurf bei Amazon.com.
Meta Platforms hat sein Geschäftsmodell im Europäischen Wirtschaftsraum illegal betrieben: Es hat zu viele Daten gesammelt, Werbung unzulässig personalisiert und zu wenig Auskunft gegeben. Das hat der Oberste Gerichtshof Österreichs (OGH) nach elf Jahren Verfahrensdauer entschieden. Facebook durfte Werbung nicht auf den Kläger zuschneiden und darf auf Drittseiten keine Daten über ihn ernten. Und entgegen Metas bisheriger Praxis beschränkt sich sein Anspruch auf Auskunft nicht bloß auf eine Kopie aller persönlichen Daten, sondern umfasst auch die Offenlegung der Zwecke der Verarbeitung sowie die Quellen und Empfänger der Daten. Zahlreiche Klagen dürften folgen, und womöglich wird sich auch der deutsche Bundesgerichtshof (BGH) an Auslegungen des OGH orientieren: Österreichs Höchstgericht erklärt personalisierte Werbung von Meta Platforms unzulässig.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier eine externe Umfrage (Opinary GmbH) geladen.
Letzte Woche hat die französische Polizei zwei verdächtige Crew-Mitglieder auf einer Personenfähre festgenommen. Die Verdächtigen sollen versucht haben, sich unbefugt Zugang zu den Datenverarbeitungssystemen des Schiffs zu verschaffen. Bei den Verdächtigen handelt es sich um einen Letten und einen Bulgaren. Die französische Spionageabwehrbehörde untersucht den mutmaßlichen Cyberangriff, der auf einer namentlich nicht genannten internationalen Passagierfähre stattfand. Das lettische Besatzungsmitglied ist demnach in Haft und wird beschuldigt, für eine nicht identifizierte ausländische Macht gehandelt zu haben. Dem in Haft genommenen Letten werfen die Behörden kriminelle Verschwörung vor sowie „Hacking“-bezogene Straftaten mit dem Ziel, den Interessen der ausländischen Macht zu dienen. Der Bulgare kam nach der Befragung wieder auf freien Fuß: Frankreich untersucht „ausländische Einmischung“ nach Malware-Fund auf Fähre.
Wer bereits ein Leerrohr für den Glasfaseranschluss im Keller hat, fühlt sich meist auf der sicheren Seite. Jetzt kann es nicht mehr lange dauern, bis die Wohnung an das schnelle Internetkabel angeschlossen ist. Doch manchmal trügt der Schein, etwa weil die Arbeiten in der Siedlung nicht so gut laufen wie gedacht, das Bauunternehmen schlecht geplant hat oder es womöglich zwischenzeitlich bankrottgegangen ist. Um solchen Problemen vorzubeugen, sollten Kunden mit dem Anbieter einen konkreten Fertigstellungszeitraum verabreden. Diese zeitlichen Zusagen sollten sie sich schriftlich bestätigen lassen. Mehr zu den rechtlichen und technischen Fakten rund um den Glasfaseranschluss klären wir im c’t-Verbraucherschutzpodcast Vorsicht, Kunde: Glasfaseranschluss verzögert sich.
Weiterlesen nach der Anzeige
Auch noch wichtig:
(fds)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
