Entwicklung & Code
KI-Überblick 8: Buzzwords entzaubert – was hinter den Schlagworten steckt
Kaum ein anderes Technologiethema ist so reich an Schlagworten wie Künstliche Intelligenz (KI). Präsentationen und Pressemitteilungen sind voll von Begriffen, die oft beeindruckend klingen, aber selten selbsterklärend sind. Wer die Konzepte dahinter nicht kennt, kann leicht falsche Erwartungen entwickeln – sowohl in Richtung übertriebener Hoffnung als auch ungerechtfertigter Skepsis.
Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
In diesem Beitrag sehe ich mir daher einige typische Buzzwords an und erkläre, was sich tatsächlich dahinter verbirgt.
LLM as a Judge
Große Sprachmodelle wie GPT werden nicht nur als Texterzeuger genutzt, sondern zunehmend auch als Bewertungsinstanz. Dabei wird ein LLM gebeten, die Ausgabe eines anderen Modells zu prüfen – etwa nach Korrektheit, Lesbarkeit oder Relevanz.
(Bild: Golden Sikorka/Shutterstock)
Die Online-Konferenz LLMs im Unternehmen am 29. Oktober zeigt, wie man das passende Modell auswählt, die Infrastruktur aufbaut und die Sicherheit im Griff behält. Außerdem gibt der Thementag von iX und dpunkt.verlag einen Ausblick auf Liquid Foundation Models als nächste Generation von LLMs.
In der Praxis bedeutet das: Modell A erzeugt einen Text, Modell B bewertet ihn anhand von Kriterien und vergibt beispielsweise eine Punktzahl oder wählt die bessere von zwei Antworten aus.
Diese Vorgehensweise ist technisch unspektakulär. Sie funktioniert nur, weil Sprachmodelle gelernt haben, Textqualität und inhaltliche Konsistenz nach menschlichen Maßstäben zu imitieren. Ein echtes Verständnis oder eine objektive Prüfung entstehen dabei nicht.
Few-Shot Learning
Dieser Begriff beschreibt die Fähigkeit eines Modells, aus wenigen Beispielen zu lernen oder Aufgaben mit nur sehr wenigen Demonstrationen zu lösen.
Ein Anwendungsfall: Sie geben einem LLM drei kurze Beispiele für Fragen und die dazugehörigen Antworten. Anschließend kann das Modell ähnliche Fragen beantworten, ohne dass es auf genau diese Aufgabe trainiert wurde.
Few-Shot Learning ist möglich, weil große Sprachmodelle in ihrem Training extrem viele Muster gesehen haben. Sie generalisieren diese Muster auf neue Aufgaben – aber sie lernen nicht im klassischen Sinn „on the fly“. Es handelt sich um Musteranpassung, nicht um aktives Lernen.
Embeddings
Embeddings sind nichts anderes als numerische Vektoren, die die Bedeutung von Wörtern, Sätzen oder Dokumenten in einem kontinuierlichen Raum repräsentieren.
Zwei Texte mit ähnlicher Bedeutung haben ähnliche Embedding-Vektoren. Dadurch lassen sich Aufgaben wie semantische Suche oder Clustering effizient lösen.
In der Praxis werden Embeddings häufig genutzt, um Datenbanken mit Bedeutungsräumen zu verbinden. Eine Suchanfrage wird in denselben Vektorraum übersetzt, und die nächstgelegenen Punkte sind die inhaltlich passendsten Ergebnisse.
Wichtig ist: Embeddings verstehen Inhalte nicht. Sie kodieren lediglich statistische Ähnlichkeit.
AutoML
Unter „Automated Machine Learning“ versteht man Werkzeuge, die Teile des ML-Workflows automatisieren – etwa Feature-Auswahl, Modellwahl oder Hyperparameteroptimierung.
AutoML kann die Einstiegshürde für Unternehmen senken und ist für Standardaufgaben nützlich. Allerdings ersetzt es kein tiefes Verständnis von Daten und Methoden. In komplexen oder kritischen Projekten müssen Entwicklerinnen und Entwickler weiterhin die Verantwortung für Modellwahl, Datenqualität und Validierung übernehmen.
Halluzinationen
Der Begriff „Halluzination“ beschreibt ein Verhalten von LLMs, bei dem sie plausible, aber falsche Informationen erzeugen.
Das passiert, weil das Modell nur Wahrscheinlichkeiten für Wortfolgen berechnet, nicht die Wahrheit kennt. Wenn die wahrscheinlichste Fortsetzung in den Trainingsdaten zwar typisch, aber sachlich falsch ist, entsteht eine Halluzination.
Dieses Phänomen ist keine Ausnahme, sondern eine direkte Folge der Funktionsweise von Sprachmodellen. Es macht klar, dass solche Systeme ohne zusätzliche Validierung nicht als verlässliche Wissensquelle taugen.
Generative AI
Als „Generative AI“ bezeichnet man Systeme, die neue Inhalte erzeugen, statt nur bestehende zu klassifizieren oder zu analysieren. Dazu gehören:
- Text (LLMs, Chatbots),
- Bilder (Stable Diffusion, DALL-E),
- Audio und Musik sowie
- Videos und 3D-Modelle.
Der Begriff klingt oft nach Kreativität, ist aber im Kern statistische Musterfortsetzung: Modelle kombinieren Gelerntes zu neuen Ausgaben.
Bekannte Prinzipien
Buzzwords klingen oft nach radikal neuen Fähigkeiten, sind jedoch fast immer auf bekannte Prinzipien zurückzuführen. Wer die Konzepte dahinter versteht, kann Marketingaussagen realistisch einordnen und erkennt schneller, ob ein Hype Substanz hat.
In der nächsten und letzten Folge dieser Serie ziehe ich ein Fazit und gebe Hinweise, wie Sie das erworbene Wissen praktisch nutzen können – sei es für fundierte Entscheidungen, bessere Kommunikation mit Fachabteilungen oder die Bewertung von KI-Projekten.
(rme)
Entwicklung & Code
JetBrains startet neue Open-Source-Förderrunde für PHP-Projekte
Der tschechische Toolhersteller JetBrains baut sein Engagement für die PHP-Community aus und kündigt eine neue Struktur für die Förderung von Open-Source-Projekten an. Neben der kontinuierlichen Weiterentwicklung der Entwicklungsumgebung (IDE) PhpStorm und der Unterstützung der PHP Foundation will das Unternehmen künftig jährlich fünf Open-Source-Projekte oder Maintainer finanziell fördern.
4 von 5 Plätzen bereits vergeben
Für das Jahr 2025/2026 hat JetBrains vier Sponsorenplätze bereits vergeben:
- Saif Eddin Gmati entwickelt Mago, einen neuen in Rust geschriebenen Linter und Static Analyzer für PHP.
- Markus Staab engagiert sich in zahlreichen Projekten wie PHPStan, Rector und PHPUnit.
- Kyrian Obikwelu erforscht KI- und MCP-Anwendungen im PHP-Umfeld.
- Sjon Hortensius betreibt 3v4l.org, eine Online-Shell, die in der PHP-Community weit verbreitet ist.
Ein fünfter Platz ist noch offen – die Community ist eingeladen, passende Personen oder Projekte vorzuschlagen. Nähere Informationen zum Vorgehen bietet der Beitrag auf dem JetBrains-Blog.
(Bild: nuevoimg / 123rf.com)
Am 25. November findet die betterCode() PHP statt, eine Online-Konferenz von iX und dpunkt.verlag in Kooperation mit thePHP.cc. Interessierte können sich in Vorträgen und Diskussionsrunden über die Programmiersprache informieren. Vergünstigte Tickets zum Early-Bird-Tarif sind über die Konferenz-Website erhältlich.
JetBrains unterstützt PHP Foundation
Im Zuge dieser neuen, jährlich wechselnden Förderstrategie beendet JetBrains die Unterstützung für zwei langjährige Projekte: Xdebug von Derick Rethans und CodeSniffer von Juliette Reinders Folmer. Das Unternehmen betont, dass dies nicht aus inhaltlichen Gründen geschieht, sondern um Platz für neue Projekte zu schaffen, die ebenfalls von der Förderung profitieren sollen.
JetBrains ruft andere Unternehmen und Entwickler auf, sich ebenfalls finanziell an der Open-Source-Förderung zu beteiligen: „Wir glauben an die Kraft von Open Source. Lasst uns gemeinsam PHP noch besser machen.“
(mdo)
Entwicklung & Code
Die Produktwerker: KI-Einfluss auf Produktentwicklung durch Context Engineering
In dieser Podcastfolge spricht Tim Klein mit Björn Schotte, Mitgründer und Geschäftsführer von Mayflower, darüber, wie tiefgreifend der Einfluss von KI auf Produktentwicklung bereits ist – und wie sich die Arbeit von Product Ownern, Entwicklerinnen und Organisationen verändert. Björn Schotte bringt dabei nicht nur seine Erfahrungen aus der agilen Softwareentwicklung ein, sondern zeigt, wie KI und Context Engineering die Produktarbeit grundlegend neu definieren.
(Bild: ipopba/stock.adobe.com)
Der Product Owner AI Day von iX und dpunkt.verlag zeigt dir am 6. November 2025, wie du als Product Owner, Product Managerin oder mit deinem Team KI konkret in deine Arbeit integrieren kannst – von der Discovery bis zum Rollout. Tickets sind zum Frühbucherpreis erhältlich.
Sinnvoller KI-Einsatz – für echten Mehrwert
KI verändert nicht einfach nur Prozesse. Sie verschiebt den Fokus. Wo früher monatelange Diskussionen über Features und Architekturen nötig waren, entstehen heute funktionsfähige Prototypen in wenigen Stunden. Systeme, die sich selbst kontextbezogen steuern, liefern Vorschläge, testen Varianten und verbessern kontinuierlich die Ergebnisse. Damit rückt die eigentliche Frage in den Mittelpunkt: Wie kann man als Produktmensch diese Geschwindigkeit und künstliche Intelligenz sinnvoll nutzen, um echten Mehrwert für Nutzerinnen und Nutzer zu schaffen?
Björn Schotte beschreibt aufgrund seiner Erfahrung, dass AI längst über das reine Vibe Coding hinausgeht. Die Zukunft liegt für ihn im Context Engineering – also darin, KI-Systemen Zugang auch zu relevanten Unternehmensdaten, Prozessen und Werkzeugen zu ermöglichen. So können sie nicht nur auf Zuruf Code generieren, sondern eigenständig sinnvolle Entscheidungen im Entwicklungsprozess treffen. Diese agentischen Systeme lernen aus Daten, messen Auswirkungen und schlagen eigenständig Verbesserungen vor. Damit entsteht ein Kreislauf, in dem Produktentwicklung zu einem lernenden, sich selbst optimierenden Prozess wird.
Veränderung der Product-Owner-Rolle
Für Product Owner bedeutet das eine Veränderung ihrer Rolle. Nicht mehr jede Entscheidung wird im Expertengremium getroffen. Stattdessen verlagert sich Verantwortung dahin, wo Arbeit tatsächlich passiert – in die Teams und an die Schnittstelle zwischen Mensch und Maschine. Die Aufgabe verändert sich: vom Entscheider hin zum Orchestrator. Jemand, der den Rahmen schafft, in dem Menschen, Daten und KI-Systeme gemeinsam wirken können.
Ein Beispiel: Mayflower entwickelt Voice-AI-Lösungen, die in Echtzeit mit Menschen sprechen, lernen und kontextbezogen reagieren. Damit verschwimmen die Grenzen zwischen Development, AI und User Experience. Produktentwicklung wird zu einem Dialog – zwischen Mensch, Maschine und Nutzer. Auch in der Modernisierung von Legacy-Systemen zeigt sich der Einfluss von AI: Software kann heute automatisch dokumentiert, getestet und migriert werden. Entwicklerinnen werden nicht ersetzt, sondern durch AI aufgeladen – schneller, präziser und mit deutlich höherer Testabdeckung.
Auf dem Weg zu moderner Produktentwicklung mit KI
Doch die größte Herausforderung liegt nicht in der Technologie, sondern in der Organisation. Klassische Hierarchien und lange Entscheidungswege bremsen aus. Wer den Einfluss von AI auf Produktentwicklung wirklich nutzen will, muss Strukturen verändern – Budgetierung, (Entscheidungs-)Verantwortlichkeiten, Zusammenarbeit. Entscheidungen gehören dahin, wo die Arbeit geschieht. Dorthin, wo AI, Daten und Menschen gemeinsam im Produktentwicklungsprozess lernen.
Am Ende dieser Entwicklung steht kein Kontrollverlust, sondern eine neue Form moderner Produktentwicklung. Eine, die Geschwindigkeit mit Lernfähigkeit verbindet. Für Product Owner heißt das: Jetzt ist die Zeit, sich mit KI auseinanderzusetzen – nicht theoretisch, sondern praktisch. Wer versteht, wie AI die Arbeit erleichtert, kann schneller handeln, bessere Produkte bauen und mehr Wirkung erzielen.
Das Gespräch knüpft sehr gut an die vorletzte Podcastfolge mit Ben Sufiani an: „Ist Vibe Coding relevant für die Produktentwicklung?“.
Wer weitere Fragen an Björn Schotte hat oder mit ihm ins Gespräch kommen möchte, erreicht ihn am besten über sein LinkedIn-Profil oder per Mail.
Die aktuelle Ausgabe des Podcasts steht auch im Blog der Produktwerker bereit: „Einfluss von AI auf Produktentwicklung„.
(mai)
Entwicklung & Code
SoftwareArchitekTOUR – Episode 106: Model Context Protocol in der Praxis
In dieser Folge taucht Patrick Roos mit Gast Ole Wendland von INNOQ in das Thema Model Context Protocol (MCP) ein – oft als USB-Stecker für KI bezeichnet. MCP ist ein offener Standard, der die Fähigkeiten von Large Language Models über das Lesen hinaus erweitert und ihnen sogar das Handeln ermöglicht: Tools nutzen, Daten abfragen und Workflows anstoßen.
Doch was bedeutet das für die Softwarearchitektur? Gemeinsam diskutieren wir:
- die Basics von MCP und seine zentralen Bausteine,
- Chancen und Herausforderungen für Architektinnen und -architekten: Security, AuthN/AuthZ, Prompt-Injections, Latenz, Performance,
- passende Praxisbeispiele – von lesenden MCP-Servern bis zu produktiven Agent-Workflows,
- warum man beim Einstieg klein starten sollte, bevor man große Multi-Agent-Landschaften plant und
- welchen Einfluss MCP auf Themen wie Vendor-Lock-in und Architekturentscheidungen hat.
Eine Folge voller Insights, Learnings und Augenöffner – für alle, die verstehen wollen, wie KI künftig aktiv in unsere Systemlandschaften eingreift.
Shownotes
(Bild: Golden Sikorka/Shutterstock)
Die Online-Konferenz LLMs im Unternehmen am 29. Oktober zeigt, wie man das passende Modell auswählt, die Infrastruktur aufbaut und die Sicherheit im Griff behält. Außerdem gibt der Thementag von iX und dpunkt.verlag einen Ausblick auf Liquid Foundation Models als nächste Generation von LLMs.
(who)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 1 Monat
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 3 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 2 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows