Entwicklung & Code
Software Testing: Wie KI die Anforderungen in Softwaretests verbessert
In dieser Episode sind Andreas Günther und Breno Pinheiro bei Richard Seidl zu Gast. Die drei sprechen über KI für bessere Anforderungen und eine tragfähige Testbasis. Sie zeigen, warum reiner Text nicht reicht und wie Modelle, Use Cases, Aktivitätsdiagramme und PlantUML Klarheit schaffen. KI unterstützt, wenn Teams Kontext, Scope und Begriffe sauber definieren und Feedback iterativ nutzen. Längere, wiederverwendbare Prompts statt Bauchgefühl. Der Blick reicht von Praxis in verschiedenen Branchen bis zu Agilität, Lernkultur und Verantwortung im Umgang mit Daten.
Wie die beiden Gäste betonen, weiß die KI umso mehr, was das Unternehmen überhaupt macht, je mehr gute Anforderungen als Trainingsbasis vorhanden sind.
Bei diesem Podcast dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.
Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „Mit KI mehr Qualität bei Anforderungen – Andreas Günther, Breno Pinheiro“ und steht auf YouTube bereit.
(mai)
Entwicklung & Code
iLLM-A*: KI beschleunigt Pfadplanung um Faktor 1000
Die auf arXiv veröffentlichte Arbeit „A 1000× Faster LLM-enhanced Algorithm For Path Planning in Large-scale Grid Maps“ von Forschenden der National University of Defense Technology in China stellt einen neuen Algorithmus vor, der die Effizienz der Pfadplanung auf großen Gitterkarten erheblich steigern soll. Der Ansatz iLLM-A* kombiniert ein Sprachmodell mit einem optimierten A*-Algorithmus und soll die Suchzeit im Vergleich zu bestehenden Methoden um mehr als den Faktor 1000 reduzieren. Davon könnten potenzielle Anwendungsfelder wie autonome Robotik, Logistikplanung und die KI-Steuerung in komplexen Simulationen oder Videospielen profitieren.
Die Pfadplanung in großen, gitterbasierten Umgebungen stellt für traditionelle Wegfindungsalgorithmen wie A* und Dijkstra eine erhebliche rechnerische Herausforderung dar. Mit zunehmender Kartengröße steigen Zeit- und Speicherkomplexität überproportional an, was Echtzeitanwendungen in Bereichen wie Robotik oder der Simulation komplexer Systeme erschwert. Forscher stellen nun mit iLLM-A* einen hybriden Ansatz vor, der diese Beschränkungen adressiert.
Skalierungsgrenzen bestehender Algorithmen
Die Studie analysiert zunächst die Schwächen des bisherigen State-of-the-Art-Ansatzes LLM-A*. Dieser nutzt ein Large Language Model (LLM), um eine Sequenz von Wegpunkten zu generieren, zwischen denen dann der A*-Algorithmus kürzere, lokale Pfade sucht. Obwohl dieser Ansatz den globalen Suchraum reduziert, identifizierten die Forscher drei wesentliche Engpässe, die seine Leistung auf großen Karten (definiert als N ≥ 200, wobei N die Kantenlänge des Gitters ist) limitieren:
- Die Verwendung linearer Listen für die
OPEN
– undCLOSED
-Mengen (im Prinzip die Listen der möglichen und der bereits besuchten Wegpunkte) im A*-Algorithmus führt zu einer hohen Zeitkomplexität bei Such- und Einfügeoperationen. - Die global geführten Listen wachsen mit der Kartengröße stark an, was zu einem hohen Speicherverbrauch führt.
- LLMs neigen zur „räumlichen Illusion“ und generieren stochastische Wegpunkte, die redundant sein oder von der optimalen Route abweichen können, was den nachfolgenden A*-Suchprozess ineffizient macht.
Der von dem Team vorgestellte Algorithmus iLLM-A* (innovative LLM-enhanced A*) begegnet diesen drei Punkten mit gezielten Optimierungen:
- Die
CLOSED
-Liste wurde durch eine Hash-basierte Datenstruktur ersetzt. Dies reduziert die Komplexität der Abfrage, ob ein Knoten bereits expandiert wurde, von der Größenordnung O(N) auf durchschnittlich O(1). - Eine verzögerte Aktualisierungsstrategie für die Heuristikwerte in der
OPEN
-Liste vermeidet kostspielige Neuberechnungen für den gesamten Listenumfang. - Die Forscher setzen eine zweistufige Kollisionserkennung ein. Zunächst prüft ein rechenschonender Test mittels Axis-Aligned Bounding Boxes (AABB) auf potenzielle Kollisionen. Nur bei Überschneidung der Bounding Boxes wird eine präzise, aber aufwendigere Kollisionsprüfung durchgeführt.
Inkrementelles Lernen zur Erzeugung von Wegpunkten
Um die Qualität der vom LLM generierten Wegpunkte zu verbessern, haben die Forscher einen dynamischen Lernprozess implementiert: Dazu nutzt das System eine erweiterbare Few-Shot-Beispieldatenbank. Nachdem das LLM für eine Trainingskarte Wegpunkte generiert und der Algorithmus einen Pfad geplant hat, wird dieser Pfad anhand vordefinierter Metriken evaluiert. Diese Kriterien umfassen die Abweichung von der optimalen Pfadlänge sowie den Zeit- und Speicherverbrauch im Vergleich zu einer reinen A*-Lösung. Nur wenn der geplante Pfad die Qualitäts-Schwellenwerte erfüllt, wird das Paar aus Karte und generierten Wegpunkten als valides Beispiel in die Datenbank aufgenommen. Dies ermöglicht dem LLM, seine Strategie zur Wegpunkterzeugung iterativ an diverse Umgebungen anzupassen.
Prompt-Vorlage für die Erzeugung von Wegpunkten mittels LLM
(Bild: Yan Pan et. al)
Empirisch fundierte Selektion der Wegpunkte
Eine empirische Untersuchung der Forscher zeigte, dass eine hohe Anzahl von Wegpunkten den Rechenaufwand überproportional erhöht, ohne die Pfadqualität signifikant zu verbessern. Basierend auf diesen Ergebnissen wurde eine einfache, effektive Auswahlregel implementiert: Wenn das LLM mehr als zwei Wegpunkte generiert, verwenden sie für die anschließende A*-Suche ausschließlich die ersten beiden Wegpunkte, die am nächsten zum Startpunkt liegen. Dadurch minimiert sich die Anzahl der auszuführenden A*-Suchläufe und damit der Gesamtaufwand erheblich.
Die Evaluation auf verschiedenen Kartengrößen (N = 50 bis 450) zeigte laut den Forschern eine deutliche Überlegenheit von iLLM-A* gegenüber den Vergleichsmethoden (A*, Opt-A*, LLM-A*). iLLM-A* erzielte in den Untersuchungen bei der Suchzeit des kürzesten Wegs eine durchschnittliche Beschleunigung um den Faktor 1000 im Vergleich zu LLM-A*. In extremen Fällen lag die Beschleunigung sogar bei einem Faktor von knapp 2350 gegenüber LLM-A*. Der Speicherbedarf konnte um bis zu 58,6 Prozent im Vergleich zu LLM-A* reduziert werden. Auf einer Karte mit N=450 benötigte iLLM-A* 3,62 MByte, während der optimierte A*-Algorithmus (Opt-A*) allein 28,67 MByte belegte. Ferner wiesen die von iLLM-A* generierten Pfade eine geringere durchschnittliche Abweichung von der optimalen Länge auf (104,39 Prozent vs. 107,94 Prozent bei LLM-A*). Dabei war die Standardabweichung der Pfadlänge signifikant geringer, was auf eine höhere Stabilität und Vorhersagbarkeit der Ergebnisse hindeute, sagt das Forschungsteam.
Sollte sich diese massive Reduktion von Rechenzeit und Speicherbedarf auf die Wegfindung in komplexen Umgebungen anwenden lassen, eröffnet dies weitreichende Anwendungsmöglichkeiten. Konkrete Szenarien reichen von der dynamischen Navigation autonomer Roboter in der Logistik über die intelligente Steuerung von Charakteren in großen Videospielwelten bis zu schnellen Simulationen in digitalen Zwillingen.
(vza)
Entwicklung & Code
Python 3.14: Leichtgängiges Programmieren steht im Fokus
Nach dem dritten und finalen Release Candidate will die Python Software Foundation am 7. Oktober die stabile Version 3.14 der Programmiersprache veröffentlichen. Sie erhält Support bis Oktober 2027 und wird bis Oktober 2030 mit Sicherheitspatches versorgt.
Version 3.14 der Open-Source-Sprache wartet mit Neuerungen wie Template Strings (T-Strings) und Lazy Annotations auf. Dazu kommen zahlreiche in der Verständlichkeit verbesserte Fehlermeldungen. Diese fokussieren sich auf die häufigsten Fehler der Python-Entwicklerinnen und -Entwickler. Das soll verhindern, dass das Debugging in Detektivarbeit ausartet.
Außerdem ist der in Version 3.13 eingeführte Free-Threaded-Modus mit der neuen Version nun offiziell freigegeben.
Error: Konkrete Verbesserungsvorschläge
Die verbesserten Fehlermeldungen von Python 3.14 berücksichtigen die Fehlermeldungstypen SyntaxError
, ValueError
sowie TypeError
, erklären jeweils genauer als zuvor, was falsch ist, und machen darüber hinaus gleich Verbesserungsvorschläge.
Ein Beispiel dafür sind die neuen elif
-nach-else
-Fehlermeldungen: Folgt ein elif
-Block nach einem else
-Block, meldet Python jetzt explizit, dass dies nicht erlaubt ist. Die Fehlermeldung weist zudem auf die korrekte Reihenfolge von if
, elif
und else
hin.
Das Codebeispiel:
>>> if x > 0:
... print("positiv")
... else:
... print("nicht positiv")
... elif x == 0: # ungültig!
... print("zero")
...
liefert in Version 3.13 die wenig aussagekräftige Fehlermeldung
SyntaxError: invalid syntax
in Version 3.14 hingegen:
SyntaxError: 'elif' block follows an 'else' block
Ein weiteres Beispiel: Fehlende oder falsch gesetzte Anführungszeichen in Strings führen bei Python 3.14 jetzt zu einer gezielten Frage. Anstatt sich auf „invalid syntax“ zu beschränken, folgt in der Fehlermeldung nun noch der Zusatz „Is this intended to be part of the string?“
String-Platzhalter und komfortablere REPL
Mit Python 3.14 halten auch neue Funktionen wie Template Strings (T-Strings), Lazy Annotations sowie REPL-Autovervollständigung und -Syntax-Highlighting Einzug.
- Template Strings: Die neue String-Präfix-Option
't'
erlaubt es, einen Platzhalter zu definieren, der später mit.substitute()
oder.format_map()
ersetzt werden kann. Nützlich sind die T-Strings zum Beispiel für Konfigurationsdateien und Templates. Außerdem erlauben sie eine sichere Verarbeitung von Nutzereingaben - Lazy Annotations: Damit wertet Python 3.14 Typ-Annotationen nicht mehr sofort beim Laden eines Moduls aus. Stattdessen werden sie als Strings gespeichert und erst bei Bedarf analysiert, was unter anderem Importproblemen entgegenwirken kann.
- REPL-Autovervollständigung und -Syntax-Highlighting: Diese beiden Funktionen sind bei Version 3.14 in der REPL-Konsole (Read-Evaluate-Print-Loop) standardmäßig aktiviert und sollen es ermöglichen, den Code leichter zu lesen und in der interaktiven Shell effizienter zu programmieren.
Einen Überblick über sämtliche Neuerungen von Python 3.14 liefert die Seite zum Release Candidate.
(who)
Entwicklung & Code
KI-Überblick 8: Buzzwords entzaubert – was hinter den Schlagworten steckt
Kaum ein anderes Technologiethema ist so reich an Schlagworten wie Künstliche Intelligenz (KI). Präsentationen und Pressemitteilungen sind voll von Begriffen, die oft beeindruckend klingen, aber selten selbsterklärend sind. Wer die Konzepte dahinter nicht kennt, kann leicht falsche Erwartungen entwickeln – sowohl in Richtung übertriebener Hoffnung als auch ungerechtfertigter Skepsis.
Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
In diesem Beitrag sehe ich mir daher einige typische Buzzwords an und erkläre, was sich tatsächlich dahinter verbirgt.
LLM as a Judge
Große Sprachmodelle wie GPT werden nicht nur als Texterzeuger genutzt, sondern zunehmend auch als Bewertungsinstanz. Dabei wird ein LLM gebeten, die Ausgabe eines anderen Modells zu prüfen – etwa nach Korrektheit, Lesbarkeit oder Relevanz.
(Bild: Golden Sikorka/Shutterstock)
Die Online-Konferenz LLMs im Unternehmen am 29. Oktober zeigt, wie man das passende Modell auswählt, die Infrastruktur aufbaut und die Sicherheit im Griff behält. Außerdem gibt der Thementag von iX und dpunkt.verlag einen Ausblick auf Liquid Foundation Models als nächste Generation von LLMs.
In der Praxis bedeutet das: Modell A erzeugt einen Text, Modell B bewertet ihn anhand von Kriterien und vergibt beispielsweise eine Punktzahl oder wählt die bessere von zwei Antworten aus.
Diese Vorgehensweise ist technisch unspektakulär. Sie funktioniert nur, weil Sprachmodelle gelernt haben, Textqualität und inhaltliche Konsistenz nach menschlichen Maßstäben zu imitieren. Ein echtes Verständnis oder eine objektive Prüfung entstehen dabei nicht.
Few-Shot Learning
Dieser Begriff beschreibt die Fähigkeit eines Modells, aus wenigen Beispielen zu lernen oder Aufgaben mit nur sehr wenigen Demonstrationen zu lösen.
Ein Anwendungsfall: Sie geben einem LLM drei kurze Beispiele für Fragen und die dazugehörigen Antworten. Anschließend kann das Modell ähnliche Fragen beantworten, ohne dass es auf genau diese Aufgabe trainiert wurde.
Few-Shot Learning ist möglich, weil große Sprachmodelle in ihrem Training extrem viele Muster gesehen haben. Sie generalisieren diese Muster auf neue Aufgaben – aber sie lernen nicht im klassischen Sinn „on the fly“. Es handelt sich um Musteranpassung, nicht um aktives Lernen.
Embeddings
Embeddings sind nichts anderes als numerische Vektoren, die die Bedeutung von Wörtern, Sätzen oder Dokumenten in einem kontinuierlichen Raum repräsentieren.
Zwei Texte mit ähnlicher Bedeutung haben ähnliche Embedding-Vektoren. Dadurch lassen sich Aufgaben wie semantische Suche oder Clustering effizient lösen.
In der Praxis werden Embeddings häufig genutzt, um Datenbanken mit Bedeutungsräumen zu verbinden. Eine Suchanfrage wird in denselben Vektorraum übersetzt, und die nächstgelegenen Punkte sind die inhaltlich passendsten Ergebnisse.
Wichtig ist: Embeddings verstehen Inhalte nicht. Sie kodieren lediglich statistische Ähnlichkeit.
AutoML
Unter „Automated Machine Learning“ versteht man Werkzeuge, die Teile des ML-Workflows automatisieren – etwa Feature-Auswahl, Modellwahl oder Hyperparameteroptimierung.
AutoML kann die Einstiegshürde für Unternehmen senken und ist für Standardaufgaben nützlich. Allerdings ersetzt es kein tiefes Verständnis von Daten und Methoden. In komplexen oder kritischen Projekten müssen Entwicklerinnen und Entwickler weiterhin die Verantwortung für Modellwahl, Datenqualität und Validierung übernehmen.
Halluzinationen
Der Begriff „Halluzination“ beschreibt ein Verhalten von LLMs, bei dem sie plausible, aber falsche Informationen erzeugen.
Das passiert, weil das Modell nur Wahrscheinlichkeiten für Wortfolgen berechnet, nicht die Wahrheit kennt. Wenn die wahrscheinlichste Fortsetzung in den Trainingsdaten zwar typisch, aber sachlich falsch ist, entsteht eine Halluzination.
Dieses Phänomen ist keine Ausnahme, sondern eine direkte Folge der Funktionsweise von Sprachmodellen. Es macht klar, dass solche Systeme ohne zusätzliche Validierung nicht als verlässliche Wissensquelle taugen.
Generative AI
Als „Generative AI“ bezeichnet man Systeme, die neue Inhalte erzeugen, statt nur bestehende zu klassifizieren oder zu analysieren. Dazu gehören:
- Text (LLMs, Chatbots),
- Bilder (Stable Diffusion, DALL-E),
- Audio und Musik sowie
- Videos und 3D-Modelle.
Der Begriff klingt oft nach Kreativität, ist aber im Kern statistische Musterfortsetzung: Modelle kombinieren Gelerntes zu neuen Ausgaben.
Bekannte Prinzipien
Buzzwords klingen oft nach radikal neuen Fähigkeiten, sind jedoch fast immer auf bekannte Prinzipien zurückzuführen. Wer die Konzepte dahinter versteht, kann Marketingaussagen realistisch einordnen und erkennt schneller, ob ein Hype Substanz hat.
In der nächsten und letzten Folge dieser Serie ziehe ich ein Fazit und gebe Hinweise, wie Sie das erworbene Wissen praktisch nutzen können – sei es für fundierte Entscheidungen, bessere Kommunikation mit Fachabteilungen oder die Bewertung von KI-Projekten.
(rme)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 1 Monat
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 3 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 2 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows