Entwicklung & Code
Vorsicht, versteckte Kosten: Wenn Software nur technisch gedacht wird
Es gibt ein Muster, das sich durch viele Lebensbereiche zieht: Wer kurzfristig spart, zahlt in der Regel langfristig drauf. Wer die Inspektion des Autos überspringt, steht irgendwann mit einem kapitalen Motorschaden da. Wer auf die Beratung durch eine Fachkraft verzichtet, macht Fehler, die teurer werden als das eingesparte Honorar. Oder, wie mein Schwiegervater zu sagen pflegt: „Wer das billige Werkzeug kauft, kauft zweimal.“ Dieses Prinzip ist so alt wie das Wirtschaften selbst, und die meisten Menschen würden ihm vermutlich sofort zustimmen.
Weiterlesen nach der Anzeige
In der Softwareentwicklung existiert eine Variante dieses Musters, die erstaunlich selten als solche erkannt wird: der Verzicht auf ein fundiertes fachliches Konzept zu Projektbeginn. In früheren Blogposts habe ich bereits darüber geschrieben, warum so viele Softwareprojekte scheitern, warum der wahre Engpass nie das Coden war und wie ein bewusst verlangsamter Prozess am Ende schneller ans Ziel führt. Heute geht es um eine Frage, die bislang zu kurz kam: Was kostet es eigentlich konkret, wenn die Fachlichkeit übersprungen wird? Und warum wird diese Rechnung in Zeiten von KI nicht besser, sondern schlechter?
Die Ungeduld am Anfang
Am Beginn eines Softwareprojekts herrscht in der Regel eine verständliche Ungeduld. Das Budget ist bewilligt, das Team steht bereit, die Erwartungen sind hoch. Die Argumentation, die ich in solchen Situationen immer wieder höre, klingt ungefähr so:
„Entwicklung ist teuer und dauert lange. Jeder Tag, an dem nicht programmiert wird, ist ein verlorener Tag. Also müssen wir so schnell wie möglich anfangen.“
Was auf den ersten Blick nach wirtschaftlicher Vernunft klingt, ist bei genauerer Betrachtung das Gegenteil.
Denn „schnell anfangen“ bedeutet in diesem Kontext fast immer, dass man die Phase überspringt, in der man herausfindet, was die Software eigentlich leisten soll. Es wird nicht die Zeit investiert, die Fachlichkeit zu erarbeiten, die Prozesse zu verstehen, die Anforderungen zu hinterfragen. Stattdessen wird sofort mit der technischen Umsetzung begonnen, weil das nach Fortschritt aussieht. Code entsteht, Commits füllen das Repository, Tickets werden abgearbeitet. Alles wirkt produktiv. Aber Produktivität und Fortschritt sind nicht dasselbe.
Fachlichkeit wird in dieser Logik nicht als Investition verstanden, sondern als Bremse. Als etwas, das die Umsetzung verzögert und das man im Laufe des Projekts nebenbei mitnehmen kann. Ich habe diesen Irrtum in unzähligen Projekten beobachtet, und er ist einer der teuersten, den ein Unternehmen begehen kann. Denn wie ich bereits an anderer Stelle argumentiert habe: Der wahre Engpass in der Softwareentwicklung war nie die Geschwindigkeit, mit der Code entsteht. Er war immer die Geschwindigkeit, mit der Verständnis entsteht. Wer das Verstehen überspringt, um schneller zu bauen, baut nicht schneller. Er baut nur früher das Falsche.
Weiterlesen nach der Anzeige
Implizite Annahmen statt expliziter Anforderungen
Wenn die Fachlichkeit nicht systematisch erarbeitet wird, entsteht kein Vakuum. Es entsteht etwas Schlimmeres: eine Sammlung impliziter Annahmen, die niemand als solche erkennt. Jede Entwicklerin und jeder Entwickler hat eine Vorstellung davon, was die Software tun soll. Jede Produktmanagerin und jeder Produktmanager hat ein Bild im Kopf. Jede Stakeholderin und jeder Stakeholder hat Erwartungen. Das Problem ist, dass diese Vorstellungen, Bilder und Erwartungen selten deckungsgleich sind.
Zu Beginn fällt das nicht auf. Alle verwenden die mehr oder weniger gleichen Begriffe und nicken regelmäßig einvernehmlich. Doch unter der Oberfläche verbergen sich unterschiedliche Interpretationen, die erst sichtbar werden, wenn Code existiert und jemand feststellt, dass das Ergebnis nicht dem entspricht, was sie oder er sich vorgestellt hat.
Ein Beispiel aus der Praxis: Ein Team entwickelt eine Software für die Auftragsabwicklung. Alle reden von „Bestellungen“, aber niemand klärt, was eine Bestellung im fachlichen Sinne eigentlich ist. Für die eine Abteilung ist eine Bestellung ein verbindlicher Kaufvertrag, für die andere ein unverbindlicher Wunschzettel, der erst durch eine Freigabe zum Auftrag wird. Das Entwicklungsteam implementiert eine dritte Variante, die keiner der beiden Sichtweisen entspricht. Erst Monate oder im schlimmsten Fall Jahre später, beim ersten Test mit echten Anwenderinnen und Anwendern, bricht das Ganze zusammen. Die Architektur trägt die tatsächliche Komplexität nicht, weil sie auf einem Verständnis aufgebaut wurde, das niemand überprüft hat.
Dann ist die Überraschung groß, und dann beginnt die Suche nach dem Schuldigen. Aber es gibt keinen Schuldigen. Es gibt nur das Fehlen eines gemeinsamen Verständnisses.
Diese impliziten Annahmen werden in Code gegossen und damit zementiert. Jede Architekturentscheidung, jede Datenstruktur, jede Schnittstelle spiegelt das Verständnis wider, das zum Zeitpunkt der Implementierung vorhanden war. War dieses Verständnis lückenhaft oder falsch, ist es die Software auch. Und je mehr Code auf einem falschen Fundament aufbaut, desto schwieriger wird es, die Richtung zu korrigieren. Ich habe dieses Phänomen bereits in einem Blogpost darüber, dass 75 Prozent aller Softwareprojekte scheitern, ausführlich beschrieben. Die Ursache ist fast nie technischer Natur. Sie liegt in der Kluft zwischen dem, was gebaut wurde, und dem, was gebraucht wird.
Die versteckte Rechnung
An dieser Stelle wird es ökonomisch interessant. Denn die Kosten, die durch fehlende Fachlichkeit entstehen, sind zum größten Teil unsichtbar. Was Unternehmen sehen, sind Budgetüberschreitungen und Verzögerungen. Was sie nicht sehen, ist ungleich teurer.
Da ist zunächst die Software, die am Zweck vorbeigeht. Sie funktioniert, sie macht etwas – aber sie löst nicht das Problem, für das sie gebaut wurde. Sie bildet Prozesse ab, die so in der Realität nicht existieren, oder sie bildet sie so ab, dass die Anwenderinnen und Anwender sie umständlich in ihren Alltag integrieren müssen, anstatt von ihnen unterstützt zu werden. Der wirtschaftliche Schaden, der dadurch entsteht, taucht in keiner Projektbilanz auf. Er verteilt sich über Jahre, in Form von Ineffizienz, Workarounds und verpassten Chancen.
Da ist die Nacharbeit, die nicht als Nacharbeit erkannt wird. Wenn ein Team Features überarbeitet, die auf falschen Annahmen basierten, wird das im Backlog als Weiterentwicklung geführt, nicht als Korrektur eines Versäumnisses. Die Stunden fließen in Bugfixes, in Anpassungen, in jene unzähligen kleinen Änderungen, die notwendig werden, weil die ursprüngliche Konzeption nicht tragfähig war. Niemand aggregiert diese Stunden und fragt:
„Wie viel davon wäre vermeidbar gewesen, wenn wir am Anfang zwei Wochen in die Fachlichkeit investiert hätten?“
Und da sind die Architekturentscheidungen, die auf einem falschen Verständnis der Domäne basieren. Eine Datenstruktur, die am tatsächlichen Geschäftsprozess vorbeigeht. Eine Trennung von Modulen, die fachlich zusammengehören. Eine Vereinfachung, die einen Sonderfall ignoriert, der sich später als der Regelfall herausstellt. Solche Entscheidungen lassen sich nachträglich entweder nur mit enormem Aufwand korrigieren oder, was häufiger vorkommt, gar nicht mehr. Sie werden zum Bestandteil der Software, und alles, was darauf aufbaut, erbt ihre Schieflage.
In Slow is smooth and smooth is fast habe ich beschrieben, wie ein bewusst verlangsamtes Vorgehen genau diese Korrekturschleifen eliminiert. Was dort an Nacharbeit wegfiel, fällt in den meisten Projekten eben nicht weg. Und das hat einen Preis, der sich über die gesamte Lebensdauer der Software akkumuliert.
Die eigentliche Tragik besteht darin, dass diese versteckten Kosten selten jemand aufaddiert. Es gibt keine Zeile im Budget, die „Kosten durch fehlendes fachliches Verständnis“ heißt. Stattdessen verteilen sie sich auf hunderte Tickets, auf Dutzende Meetings, auf unzählige Stunden, in denen kluge Menschen Probleme lösen, die bei einem besseren Fundament gar nicht erst entstanden wären. Die Rechnung wird nie gestellt, also wird sie auch nie bezahlt. Zumindest nicht bewusst.
KI als Beschleuniger des Problems
In diese Situation hinein trifft nun das Versprechen der KI-gestützten Softwareentwicklung. Die Verheißung klingt verlockend: weniger Entwicklerinnen und Entwickler, schnellere Umsetzung, niedrigere Kosten. KI-Tools generieren Code in Sekunden, der früher Stunden gedauert hätte. Ganze Prototypen entstehen über Nacht. Die Botschaft, die viele Entscheiderinnen und Entscheider daraus ableiten, lautet: Softwareentwicklung wird billiger und schneller. Also können wir mit weniger Aufwand mehr erreichen.
Das stimmt, aber nur unter einer Voraussetzung: Man muss wissen, was man bauen will. Und genau hier liegt das Problem. KI beschleunigt die Umsetzung, aber sie ersetzt nicht das Verstehen. Eine KI kann beeindruckend schnell Code produzieren, aber sie kann nicht wissen, ob dieser Code das richtige Problem löst. Sie kann eine Schnittstelle implementieren, aber nicht beurteilen, ob diese Schnittstelle den tatsächlichen Geschäftsprozess sinnvoll abbildet. Sie kann Tests generieren, aber nicht entscheiden, welche fachlichen Szenarien wirklich kritisch sind.
Wer nicht weiß, was gebraucht wird, produziert mit KI lediglich schneller Code, der am Ziel vorbeigeht. Man erhält in kürzerer Zeit mehr Software, die nicht das tut, was sie tun sollte. Das ist keine Produktivitätssteigerung. Das ist eine Beschleunigung der Wertvernichtung.
Das Muster ist dabei nicht neu. Dieselbe Verheißung gab es bereits bei Low-Code- und No-Code-Plattformen, bei RAD-Systemen, bei CASE-Tools: Jede Generation hatte ihre Technologie, die das Programmieren so einfach und schnell machen sollte, dass der Engpass verschwindet. Keine dieser Technologien hat das fundamentale Problem gelöst, weil keine von ihnen das Verstehen automatisieren konnte. KI ist leistungsfähiger als alles, was davor kam, aber auch sie kann nicht wissen, was ein Unternehmen braucht, wenn es das selbst nicht weiß.
Doch es kommt noch ein zweiter Effekt hinzu, der vielleicht noch gefährlicher ist: Die scheinbare Kostenersparnis durch KI senkt die Hemmschwelle, ohne fachliches Konzept loszulegen. Wenn Code fast nichts mehr kostet, warum dann Zeit mit der Konzeption verbringen? Wenn ein Prototyp in einem Nachmittag entsteht, warum vorher wochenlang die Fachlichkeit durchdringen? Die Argumentation klingt bestechend, aber sie übersieht, dass die Kosten der Software nur zu einem kleinen Teil im Schreiben des Codes liegen. Der weitaus größere Anteil entfällt auf alles, was danach kommt: Wartung, Anpassung, Korrektur, Integration, Schulung, Betrieb.
KI verändert also die Kostenstruktur der Codeerzeugung, aber nicht die Kostenstruktur der Softwareentwicklung als Ganzes. Und sie verschiebt den Fokus noch weiter in Richtung Technologie und noch weiter weg von der Fachlichkeit. Das ist das Gegenteil dessen, was notwendig wäre. Die versteckten Kosten werden nicht kleiner, sie werden größer. Nur fällt das nicht auf, weil die sichtbare Seite der Rechnung so viel günstiger aussieht.

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Es gibt eine Parallele, die das verdeutlicht: Stellen Sie sich vor, jemand baut Häuser und bekommt plötzlich ein Werkzeug, mit dem er Wände zehnmal schneller hochziehen kann. Großartig, wenn der Bauplan stimmt. Aber wenn der Bauplan falsch ist, entstehen jetzt einfach nur schneller Häuser, die am Bedarf der Bewohnerinnen und Bewohner vorbeigehen. Der Abriss und Neubau wird nicht billiger, nur weil das Mauern schneller ging. Im Gegenteil: Weil das Bauen so billig erscheint, wird häufiger ohne Plan losgelegt, und die Gesamtkosten steigen.
Fachlichkeit ist keine Bremse, sondern eine Investition
Meine Argumentation lässt sich unterm Strich auf eine einfache Formel bringen: Fachlichkeit am Anfang eines Projekts ist kein Kostenfaktor. Sie ist eine Investition mit einem messbaren, wenn auch selten gemessenen Return. Jeder Tag, der in das Verstehen der Domäne fließt, in das Hinterfragen von Annahmen, in den Aufbau eines gemeinsamen Verständnisses, spart am Ende ein Vielfaches an Korrektur, Nacharbeit und verfehlter Software.
Das ist keine abstrakte Behauptung. Es ist die Quintessenz aus zahllosen Projekten, die ich in über zwei Jahrzehnten erlebt und begleitet habe. Die Projekte, die am Anfang in Fachlichkeit investiert haben, kamen am Ende schneller ans Ziel, kosteten weniger und lieferten bessere Ergebnisse. Die Projekte, die sofort losgelegt haben, waren schneller am Start, aber langsamer am Ziel. Oft erreichten sie das Ziel gar nicht, zumindest nicht das ursprünglich beabsichtigte.
Das Paradoxe daran: Die Investition in Fachlichkeit muss gar nicht groß sein. Oft genügen wenige Tage intensiver Gespräche mit den richtigen Menschen, um die grundlegenden Missverständnisse aufzudecken, bevor sie im Code landen. Oft reicht es, die eine entscheidende Frage zu stellen, die bislang niemand gestellt hat. Der Aufwand dafür ist verschwindend gering im Vergleich zu dem, was ein Unternehmen für die Korrektur zahlt, wenn diese Frage erst nach Monaten der Entwicklung auftaucht. Es ist, um zum Eingangsbild zurückzukehren, der Unterschied zwischen der Inspektion, die ein paar hundert Euro kostet, und dem Motorschaden, der in die Tausende geht.
Der eigentliche Engpass in der Softwareentwicklung war nie die Geschwindigkeit der Umsetzung. Er war und ist das Verständnis dessen, was überhaupt gebaut werden soll. Solange dieses Verständnis fehlt, macht schnellere Technologie nichts besser. Sie macht nur das Falsche schneller. KI ist dafür ein eindrucksvolles Beispiel, aber bei Weitem nicht das Erste.
Die versteckten Kosten fehlender Fachlichkeit werden erst sichtbar, wenn man beginnt, die Rechnung ehrlich aufzumachen. Wenn man fragt: Wie viel unserer Entwicklungszeit fließt in die Korrektur von Missverständnissen? Wie viel unserer Software löst tatsächlich das Problem, für das sie gedacht war? Wie viel unserer Architekturentscheidungen basieren auf einem fundierten Verständnis der Domäne und wie viele auf Vermutungen?
Wer sich diese Fragen stellt, wird feststellen, dass die Antworten unbequem sind. Aber sie sind der erste Schritt, um die teuerste Fehlentscheidung in der Softwareentwicklung zu vermeiden: den Verzicht auf das Fundament, auf dem alles andere steht.
(rme)
Entwicklung & Code
IntelliJ IDEA 2025.3.4 unterstützt Java 26 vollständig
Das Update der Entwicklungsumgebung IntelliJ IDEA 2025.3.4 von JetBrains unterstützt nun das am 17. März veröffentlichte Java 26 vollständig. Außerdem spendiert die Firma dem Agenten-Framework Koog eine Java-API.
Weiterlesen nach der Anzeige
Entwicklerinnen und Entwickler können nach dem Update mit allen zehn der großen Neuerungen von Java 26 arbeiten, mit den fünf stabilen, wie HTTP/3, und den fünf Previews, wie Pattern Matching mit Primitives.
Um Preview-Funktionen freizuschalten, stellt man die Sprachstufe in der IDE auf „Language level to 26 (Preview) – Primitive types in patterns (Fourth preview)“. Dann blendet IntelliJ alle Hilfen auch für diese Sprachstufe an, einschließlich Inspections and Quick-fixes ein. Bei den Preview-Funktionen zeigt das Tool zusätzlich einen Warnhinweis, da Anwender sie möglicherweise nicht in Code für die Produktion einsetzen möchten.
JetBrains unterstützt auch noch unreife Incubator-Funktionen von Java 26 wie die Verctor API. Zur Nutzung ist ein spezieller Schalter erforderlich: --add-modules jdk.incubator.vector.
Darüber hinaus gibt es kleinere Bugfixes und Verbesserungen in der IDE. Beispielsweise beseitigt das Update einen Fehler, der falsche HTTP-Requests auslöst; und der Tab für Dependencies in der Funktion Analyze Cyclic Dependencies öffnet sich nun richtig. Im DB-Explorer lassen sich jetzt Knoten von Abfragedateien verstecken und beim Language Server für Astro gibt es Verbesserungen im automatischen Vervollständigen.
Für den Einsatz von Java 26 ist das entsprechende JDK erforderlich. Das lässt sich direkt in IntelliJ oder mithilfe von Tools wie SDKMAN laden. Ebenfalls zum Download steht ein neuer Build von Project Valhalla. Das Update von IntelliJ lässt sich innerhalb der IDE mit der Toolbox installieren, über Ubuntu-Snaps oder von der Webseite laden.
Weiterlesen nach der Anzeige
Koog und Kotlin
Neu von JetBrains ist zudem eine Java-API für das Agenten-Framework Koog, die Zugriff auf alle Funktionen des ursprünglich rein für Kotlin entwickelten Frameworks bietet: Planung und Organisation von agentischen Workflows, alle größeren Modelle, Spring Boot oder Observability.
Ebenfalls ein Update gibt es für die Programmiersprache Kotlin 2.3.30, das ein neues Modell für die Nutzung der C-Bibliotheken bietet und kompatibel zu Gradle 9.3 ist.
(who)
Entwicklung & Code
Intel stellt Notebook-Topmodell Core Ultra 9 290HX Plus vor
Intel stellt die beiden Mobilprozessoren Core Ultra 9 290HX Plus und Core Ultra 7 270HX Plus vor. Sie gehören wie schon die Plus-Modelle für Desktop-PCs zur Baureihe Arrow Lake Refresh. Die Neuauflage für Notebooks ist nur logisch: Die HX-Prozessoren nutzen die gleichen Chips wie die Desktop-CPUs, Intel kann die Optimierungen also einfach übernehmen. Sie sind für High-End-Notebooks und mobile Workstations gedacht, für die es keine neueren Panther-Lake-Modelle gibt.
Weiterlesen nach der Anzeige
Die Notebook-Typen erhalten zwei Verbesserungen: Die Datenverbindung zwischen den Chiplets (Die-to-Die-Taktfrequenz) steigt von 2,1 auf 3,0 GHz. Zudem bietet Intel ein Binary Optimization Tool an, das in bestimmten Spielen und Anwendungen den Code für die Plus-Prozessoren optimiert. Der Hersteller sieht die Optimierungen ausschließlich für den Arrow Lake Refresh vor.

Intel
)
Etwas schneller
Intel zeigt Vergleichs-Benchmarks in 32 Spielen, die in Full-HD-Auflösung (1920 × 1080 Pixel) und hohen Grafikeinstellungen entstanden sind. Der Core Ultra 9 290HX Plus soll durchschnittlich acht Prozent schneller sein als das bisherige Topmodell Core Ultra 9 285HX. In 12 der 32 Spiele bringt das Binary Optimization Tool Vorteile. In Anwendungen nennt Intel einen Vorteil von sieben Prozent.

Intel
)
Die Produktseiten der neuen Prozessoren zeigen noch Unterschiede bei den Taktfrequenzen: Zwar können die Effizienzkerne in der Spitze minimal höher takten, jedoch sinkt der Basistakt der E-Kerne um 300 MHz auf 1,8 GHz. Bei den Performance-Kernen sinkt der Basistakt minimal, der maximale Turbo bleibt gleich. Der Core Ultra 9 290HX Plus schafft bis zu 5,5 GHz, der Core Ultra 7 270HX Plus 5,3 GHz.
Notebook-Hersteller können ab sofort Geräte mit dem Core Ultra 9 290HX Plus und Core Ultra 7 270HX Plus vorstellen. Zahlreiche Hersteller stellen bestehende Designs um.
Weiterlesen nach der Anzeige
Kein Desktop-290K-Plus
Für Desktop-PCs kommt derweil kein Core Ultra 9 290K Plus, weil Intel da weniger Spielraum für Verbesserungen hat. Schon der bereits erhältliche Core Ultra 9 285K hat mit dem 200S Boost eine erhöhte Die-to-Die-Taktfrequenz. Das Binary Optimization Tool allein rechtfertigt offenbar keine Neuauflage.
(mma)
Entwicklung & Code
KI beschleunigt Code, verzögert aber Tests
Generative KI hat die Produktivität beim Programmieren deutlich erhöht. Eine Studie von GitHub Research zeigt, dass Entwickler Programmieraufgaben in kontrollierten Experimenten mit KI-Assistenz rund 55 Prozent schneller erledigen als ohne Unterstützung. Doch der Geschwindigkeitsgewinn beim Schreiben von Code mittels KI-Systemen bedeutet nicht automatisch, dass Softwareprojekte insgesamt schneller vorankommen. Eine Untersuchung des Forschungsinstituts METR (Model Evaluation and Threat Research) zeigt, dass erfahrene Entwickler bei Arbeiten in vertrauten Code-Umgebungen mit KI-Werkzeugen im Schnitt 19 Prozent länger benötigen – vor allem wegen zusätzlicher Prüf- und Korrekturschritte. Ein Grund: Sie müssen sich bei Fehlern erst in den von der KI erzeugten Code einarbeiten.
Weiterlesen nach der Anzeige
Da Testen, Debugging und Verifikation schon in der herkömmlichen Softwareentwicklung rund die Hälfte des Zeitaufwands ausmachen, schlagen Verzögerungen bei diesen Arbeiten besonders stark auf die Projektlaufzeit durch. Mit KI-Werkzeugen beim Programmieren verschiebt sich der Engpass: Das Erzeugen von Code wird einfacher und schneller – der Nachweis, dass er korrekt funktioniert und freigegeben werden kann, bleibt aufwendig. Das wiegt umso schwerer, weil die Kosten für Fehler mit jeder späteren Projektphase steigen. Eine vielzitierte Analyse des IBM Systems Sciences Institute beziffert den Unterschied: Während der Implementierung ist die Behebung eines Fehlers sechsmal teurer als in der Designphase. Beim Testen steigt der Faktor auf 15, in der Produktion auf bis zu 100. Gerade in komplexen Unternehmenssystemen wird das zum Problem. Moderne Anwendungen bestehen aus vielen Services, Programmierschnittstellen (APIs) und Datenquellen. Eine Änderung an einer Stelle kann unerwartete Nebenwirkungen an vielen anderen auslösen. Je schneller KI-Werkzeuge neuen Code produzieren, desto häufiger entstehen solche Wechselwirkungen – und damit zusätzliche Fehlerquellen.
Wenn Tests probabilistisch werden
Um diesen Engpass abzumildern, kommen zunehmend KI-Systeme auf den Markt, die neue oder geänderte Programme schneller testen sollen. Das führt jedoch zu einem grundlegenden Wandel in der Testmethodik. Klassisches Softwaretesten folgt einem deterministischen Modell: gleicher Input, gleiches Programm, identischer Output. Genau darauf beruhen Testläufe, bei denen Funktionen mit definierten Parametern aufgerufen werden und exakt die erwarteten Ergebnisse liefern müssen. Doch bei KI-Systemen gilt dieses Prinzip nur noch eingeschränkt. Große Sprachmodelle und andere generative Verfahren arbeiten auf Basis statistischer Wahrscheinlichkeiten und liefern Ergebnisse innerhalb einer Bandbreite möglicher Antworten. Die Qualität eines Systems lässt sich deshalb nicht mehr allein mit Ja-Nein-Tests überprüfen. Entscheidend ist, ob sich das Verhalten innerhalb akzeptabler Grenzen bewegt. Damit verschiebt sich auch der Fokus der Qualitätssicherung (QA). Statt vollständiger Testabdeckung rückt ein risikobasierter Ansatz in den Vordergrund: Kritische Funktionen und Schnittstellen prüfen Teams intensiver, weniger relevante Teile mit geringerer Tiefe. Ziel ist nicht mathematische Vollständigkeit, sondern eine belastbare Einschätzung des Restrisikos.
Zu den Anbietern KI-gestützter Werkzeuge gehören Keysight Eggplant, SmartBear, OpenText und Tricentis. Letzterer hat kürzlich eine „Agentic Quality Engineering Platform“ vorgestellt – eine Plattform, auf der autonom agierende KI-Agenten Qualitätssicherungsaufgaben übernehmen. Sie unterstützt unter anderem die SAP-GUI und Web-Anwendungen. Hierzu nutzt die Plattform generative KI, um Testfälle zu erzeugen, bestehende Tests zu priorisieren und Ergebnisse großer Testläufe zusammenzufassen. Technisch geht es dabei weniger um „KI testet Software“ als um die Unterstützung typischer QA-Arbeitsschritte: Änderungen im Code analysieren, relevante Tests auswählen, Fehlermeldungen gruppieren oder umfangreiche Logdateien verdichten. Der Ansatz zielt auf einen der zeitaufwendigsten Schritte im Testprozess: die Auswertung großer Mengen von Testergebnissen. In Continuous-Integration-Umgebungen laufen oft mehrere tausend Tests pro Commit, deren Resultate Entwickler anschließend interpretieren müssen. KI-Werkzeuge können helfen, Muster schneller zu erkennen und Fehlerursachen besser einzugrenzen. Der Nutzen verschiebt sich damit vom Generieren einzelner Tests hin zur Organisation und Auswertung ganzer Testlandschaften.
Was KI beim Testen nicht löst
Trotz dieser Entwicklungen bleibt der Einsatz KI-basierter Tests begrenzt. Viele Aspekte der Softwarequalität lassen sich nicht aus Testläufen ableiten. Dazu gehören Sicherheitsprobleme, strukturelle Code-Schwächen oder die Vermeidung technischer Schulden – also aufgeschobener Wartungs- und Modernisierungsarbeiten, die langfristig den Entwicklungsaufwand erhöhen. Solche Fragen betreffen die Architektur einer Anwendung und nicht nur ihr Laufzeitverhalten. Statische Codeanalyse (Static Analysis), die den Quellcode ohne Ausführung auf Fehler und Schwachstellen untersucht, Security Audits und klassische Code Reviews bleiben daher notwendig. Generative KI kann hier allenfalls Hinweise liefern, ersetzt aber keine systematische Analyse. Besonders bei sicherheitskritischen Anwendungen ist automatisches KI-Testing kein ausreichender Qualitätsnachweis.
Weiterlesen nach der Anzeige
Diese Grenzen führen zu einem Grundprinzip moderner Entwicklungsprozesse: Der Mensch bleibt Teil der Entscheidungskette. Automatisierte Tests können Hinweise liefern und große Datenmengen auswerten, doch die Freigabe eines Releases bleibt eine Risikoabwägung. In vielen Unternehmen entscheiden deshalb weiterhin Entwickler- oder QA-Teams darüber, ob eine neue Softwareversion in Produktion gehen darf. KI kann diesen Prozess beschleunigen, indem sie Informationen verdichtet und Routineaufgaben übernimmt. Die Verantwortung für die Freigabe bleibt jedoch beim Menschen. Wie riskant eine unzureichende Kontrolle ist, zeigten jüngst durch KI-Tools verursachte Ausfälle bei Amazon, nach denen der Konzern strengere Prüfmechanismen einführte.
Fazit
Generative KI beschleunigt das Schreiben von Code erheblich, erhöht aber zugleich den Aufwand für dessen Verifikation. Mehr generierter Code bedeutet mehr Varianten, mehr Integrationspunkte und damit mehr potenzielle Fehlerrisiken. KI kann beim Erzeugen von Testfällen und bei der Analyse großer Testläufe helfen, löst aber nicht alle Qualitätsprobleme. Fragen der Sicherheit, Architektur und technischer Schulden bleiben Aufgaben von Entwicklern und Review-Prozessen. Entscheidend bleibt: Ob eine Softwareversion in Produktion gehen darf, ist eine menschliche Entscheidung.
Lesen Sie auch
(fo)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 4 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
