Entwicklung & Code
KI-Überblick 8: Buzzwords entzaubert – was hinter den Schlagworten steckt
Kaum ein anderes Technologiethema ist so reich an Schlagworten wie Künstliche Intelligenz (KI). Präsentationen und Pressemitteilungen sind voll von Begriffen, die oft beeindruckend klingen, aber selten selbsterklärend sind. Wer die Konzepte dahinter nicht kennt, kann leicht falsche Erwartungen entwickeln – sowohl in Richtung übertriebener Hoffnung als auch ungerechtfertigter Skepsis.
Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
In diesem Beitrag sehe ich mir daher einige typische Buzzwords an und erkläre, was sich tatsächlich dahinter verbirgt.
LLM as a Judge
Große Sprachmodelle wie GPT werden nicht nur als Texterzeuger genutzt, sondern zunehmend auch als Bewertungsinstanz. Dabei wird ein LLM gebeten, die Ausgabe eines anderen Modells zu prüfen – etwa nach Korrektheit, Lesbarkeit oder Relevanz.
(Bild: Golden Sikorka/Shutterstock)
Die Online-Konferenz LLMs im Unternehmen am 29. Oktober zeigt, wie man das passende Modell auswählt, die Infrastruktur aufbaut und die Sicherheit im Griff behält. Außerdem gibt der Thementag von iX und dpunkt.verlag einen Ausblick auf Liquid Foundation Models als nächste Generation von LLMs.
In der Praxis bedeutet das: Modell A erzeugt einen Text, Modell B bewertet ihn anhand von Kriterien und vergibt beispielsweise eine Punktzahl oder wählt die bessere von zwei Antworten aus.
Diese Vorgehensweise ist technisch unspektakulär. Sie funktioniert nur, weil Sprachmodelle gelernt haben, Textqualität und inhaltliche Konsistenz nach menschlichen Maßstäben zu imitieren. Ein echtes Verständnis oder eine objektive Prüfung entstehen dabei nicht.
Few-Shot Learning
Dieser Begriff beschreibt die Fähigkeit eines Modells, aus wenigen Beispielen zu lernen oder Aufgaben mit nur sehr wenigen Demonstrationen zu lösen.
Ein Anwendungsfall: Sie geben einem LLM drei kurze Beispiele für Fragen und die dazugehörigen Antworten. Anschließend kann das Modell ähnliche Fragen beantworten, ohne dass es auf genau diese Aufgabe trainiert wurde.
Few-Shot Learning ist möglich, weil große Sprachmodelle in ihrem Training extrem viele Muster gesehen haben. Sie generalisieren diese Muster auf neue Aufgaben – aber sie lernen nicht im klassischen Sinn „on the fly“. Es handelt sich um Musteranpassung, nicht um aktives Lernen.
Embeddings
Embeddings sind nichts anderes als numerische Vektoren, die die Bedeutung von Wörtern, Sätzen oder Dokumenten in einem kontinuierlichen Raum repräsentieren.
Zwei Texte mit ähnlicher Bedeutung haben ähnliche Embedding-Vektoren. Dadurch lassen sich Aufgaben wie semantische Suche oder Clustering effizient lösen.
In der Praxis werden Embeddings häufig genutzt, um Datenbanken mit Bedeutungsräumen zu verbinden. Eine Suchanfrage wird in denselben Vektorraum übersetzt, und die nächstgelegenen Punkte sind die inhaltlich passendsten Ergebnisse.
Wichtig ist: Embeddings verstehen Inhalte nicht. Sie kodieren lediglich statistische Ähnlichkeit.
AutoML
Unter „Automated Machine Learning“ versteht man Werkzeuge, die Teile des ML-Workflows automatisieren – etwa Feature-Auswahl, Modellwahl oder Hyperparameteroptimierung.
AutoML kann die Einstiegshürde für Unternehmen senken und ist für Standardaufgaben nützlich. Allerdings ersetzt es kein tiefes Verständnis von Daten und Methoden. In komplexen oder kritischen Projekten müssen Entwicklerinnen und Entwickler weiterhin die Verantwortung für Modellwahl, Datenqualität und Validierung übernehmen.
Halluzinationen
Der Begriff „Halluzination“ beschreibt ein Verhalten von LLMs, bei dem sie plausible, aber falsche Informationen erzeugen.
Das passiert, weil das Modell nur Wahrscheinlichkeiten für Wortfolgen berechnet, nicht die Wahrheit kennt. Wenn die wahrscheinlichste Fortsetzung in den Trainingsdaten zwar typisch, aber sachlich falsch ist, entsteht eine Halluzination.
Dieses Phänomen ist keine Ausnahme, sondern eine direkte Folge der Funktionsweise von Sprachmodellen. Es macht klar, dass solche Systeme ohne zusätzliche Validierung nicht als verlässliche Wissensquelle taugen.
Generative AI
Als „Generative AI“ bezeichnet man Systeme, die neue Inhalte erzeugen, statt nur bestehende zu klassifizieren oder zu analysieren. Dazu gehören:
- Text (LLMs, Chatbots),
- Bilder (Stable Diffusion, DALL-E),
- Audio und Musik sowie
- Videos und 3D-Modelle.
Der Begriff klingt oft nach Kreativität, ist aber im Kern statistische Musterfortsetzung: Modelle kombinieren Gelerntes zu neuen Ausgaben.
Bekannte Prinzipien
Buzzwords klingen oft nach radikal neuen Fähigkeiten, sind jedoch fast immer auf bekannte Prinzipien zurückzuführen. Wer die Konzepte dahinter versteht, kann Marketingaussagen realistisch einordnen und erkennt schneller, ob ein Hype Substanz hat.
In der nächsten und letzten Folge dieser Serie ziehe ich ein Fazit und gebe Hinweise, wie Sie das erworbene Wissen praktisch nutzen können – sei es für fundierte Entscheidungen, bessere Kommunikation mit Fachabteilungen oder die Bewertung von KI-Projekten.
(rme)