Entwicklung & Code
Zwischen Tempo und Tragfähigkeit: KI-Agenten in der Softwareentwicklung

Marius Wichtner ist Software Engineer bei MaibornWolff und beschäftigt sich intensiv mit Softwarearchitektur, Clean Code und dem Einsatz generativer KI im Entwicklungsprozess. In verschiedenen Kundenprojekten entwickelt er Strategien, wie Agenten sinnvoll in bestehende Systeme integriert werden können, mit einem besonderen Fokus auf nachhaltige Codequalität und Entwicklererfahrung.

Venko Kisev leitet die Software-Health-Check- und Modernisierungsabteilung bei MaibornWolff. In den letzten 15 Jahren hat er zahlreiche Analyse- und Modernisierungsprojekte mit seinem Team geleitet und mit führenden Unternehmen aus diversen Branchen zusammengearbeitet – zunehmend mit Fokus auf den sinnvollen und verantwortungsvollen Einsatz von KI.
Agentic Coding ist zu einem festen Bestandteil des Entwicklungsalltags geworden. KI-Agenten planen, implementieren, testen und dokumentieren Code in kurzer Zeit. Teams orchestrieren spezialisierte Assistenten, statt jede Änderung von Hand zu schreiben. Neben KI-Assistenten wie GitHub Copilot und Chat-Modelle wie ChatGPT treten autonome Agenten, die ganze Entwicklungsschritte übernehmen.
Weiterlesen nach der Anzeige
Die Taktzahl steigt, doch der Bedarf an Leitplanken ebenso. Funktional korrekter Code reicht nicht, wenn Sicherheitsvorgaben, Latenzziele, Skalierbarkeit und Architekturkonventionen unbeachtet bleiben. Ohne ausreichendes Kontextwissen entfernen sich Systeme schleichend von ihrer ursprünglichen Architektur, Tests verlieren an Treffsicherheit und technische Schuld wächst.
Wie lassen sich Agenten in bestehende Softwarelandschaften integrieren, wo liegen ihre Grenzen bei nicht-funktionalen Anforderungen? Welche Rollen und Prozesse tragen sie in der Praxis und welche Prüfungen in Pipelines helfen, Tempo und Tragfähigkeit zusammenzubringen? Fragen wie diese beantwortet der vorliegende Artikel.
Agentic Coding bezeichnet die Entwicklung mit KI Agenten, einzeln oder im Zusammenspiel mehrerer spezialisierter Agenten, je nachdem, welche Aufgaben im Projekt anstehen, wie groß die Codebasis ist und welche Art von Änderung umgesetzt werden soll. Anders als assistierende Tools begleiten sie nicht nur punktuell, sondern setzen definierte Ziele weitgehend autonom um. Sie planen Aufgaben, ändern Code, erzeugen Tests, dokumentieren Entscheidungen und führen Korrekturschleifen selbstständig aus. Der Mensch definiert Ziele und Regeln, prüft die Ergebnisse und trifft Architekturentscheidungen.
Von Autovervollständigung zur Architekturverantwortung
Weiterlesen nach der Anzeige
Neben GitHub Copilot und den Chatmodellen von Anthropic und OpenAI (ChatGPT) gibt es inzwischen eine neue Klasse von Werkzeugen: autonome Agenten. Sie übernehmen ganze Entwicklungsschritte von der Planung bis zur Integration. Man findet sie heute als IDE-Integrationen, etwa in Visual-Studio-Code-Forks wie Windsurf und Cursor, als Terminal-integrierte Agenten wie Anthropics Claude Code oder OpenAIs Codex sowie als quelloffene Software wie OpenCode.
Diese Agenten entwerfen APIs, orchestrieren Tests-Suites, erkennen Sicherheitslücken oder strukturieren Legacy-Module um, ohne deren Verhalten zu ändern. Teilweise greifen sie dabei auf externe Wissensquellen zu, dokumentieren ihre Entscheidungen und führen selbstständig Korrekturschleifen durch. Dabei entsteht ein neues Arbeitsmodell: Entwicklerinnen und Entwickler interagieren nicht mehr mit einzelnen Tools, sondern orchestrieren ein Team spezialisierter Agenten. Dieser Wandel erfolgt nicht nur auf technischer Ebene, sondern auch in der Art, wie Projekte strukturiert und verantwortet werden.
Diese Entwicklung eröffnet viele Möglichkeiten, aber sie verschiebt auch die Verantwortung. Denn je mehr operative Aufgaben Agenten übernehmen, desto wichtiger wird die Fähigkeit, konzeptionelle Leitplanken zu setzen. Wer entscheidet, ob eine Lösung tragfähig ist? Wer kontrolliert, ob der erzeugte Code zur Zielarchitektur passt? Und was passiert, wenn Agenten sich widersprechen, nicht-funktionale Anforderungen ignorieren oder eigene Annahmen treffen, die fachlich nicht gewünscht sind?
Agentic Coding ist keine lineare Fortsetzung der Automatisierung, sondern eine neue Phase: Entscheidungen verlagern sich, Prozesse beschleunigen sich, Erwartungen verändern sich. Und genau deshalb braucht es einen reflektierten Umgang, und das nicht nur mit den Werkzeugen, sondern mit der Haltung zur Entwicklung selbst.
Wo Agenten an Grenzen stoßen: nicht-funktionale Anforderungen
Agentic Coding zeigt eindrucksvoll, wie weit KI-gestützte Automatisierung inzwischen reicht. KI-Agenten übernehmen funktionale Aufgaben zunehmend zuverlässig: Sie entwerfen eine API, validieren ein Formular, integrieren eine Datenbankabfrage oft schneller als ein Mensch es kann. Die Ergebnisse sind jedoch nicht immer technisch korrekt; erst mit Expertenwissen und der Kontrolle nicht-funktionaler Anforderungen werden sie verlässlich, gut dokumentiert, lauffähig und auch deploybar.
Denn funktional heißt nicht belastbar. Denn sobald Anforderungen ins Spiel kommen, die über das reine „Was soll die Software tun“ hinausgehen – etwa wie schnell sie reagieren muss, wie sicher oder wartbar sie sein soll – entstehen neue Lücken. Genau hier beginnt der Bereich der nicht-funktionalen Anforderungen und mit ihm die typischen Schwächen heutiger Agenten.
Nicht-funktionale Anforderungen beschreiben das „Wie“ eines Systems: Wie performant soll ein Service unter Last reagieren? Wie sicher sind Schnittstellen gegen Angriffe geschützt? Wie skalierbar ist ein neues Modul, wenn sich das Geschäftsmodell ändert? Welche Architekturkonventionen gilt es einzuhalten, um langfristig wartbare Systeme zu erhalten?
Solche Anforderungen sind selten direkt aus einem Prompt ableitbar. Sie sind oft implizit, kontextabhängig, unternehmensspezifisch und dynamisch. Viele Entscheidungen in einer Software haben kausale Abhängigkeiten, beispielsweise weil ein anderes Team Vorgaben gemacht oder eine bestimmte Lösung gewählt hat. Oft entstehen Anforderungen auch erst im Verlauf: Skalierbarkeit wird erst wichtig, wenn die Nutzerzahlen wachsen; Latenzanforderungen, wenn Echtzeitfunktionen kommen. Solche Zusammenhänge lassen sich kaum in einen kurzen Prompt pressen. Agenten, die nur lokal operieren (also auf einzelne Dateien oder Tasks fokussiert sind), haben keinen Blick für diese übergeordneten Aspekte.
Beispiel: Risiko statt Produktivität
Ein Beispiel: Ein Agent generiert eine neue REST-API in Rekordzeit, inklusive Tests und Dokumentation. Technisch korrekt, syntaktisch sauber, aber ohne Einbindung in bestehende Sicherheitsmechanismen, ohne Logging-Konzept und ohne Rücksicht auf Latenz oder Skalierbarkeit. Was auf den ersten Blick nach Produktivität aussieht, wird auf Systemebene schnell zum Risiko.
Ähnlich verhält es sich mit Architekturentscheidungen. Agenten arbeiten kontextbezogen, aber nur mit den Informationen, die sie zur Verfügung haben. Ob ein Modul in eine bestehende Schichtenarchitektur passt, ob bestehende Regeln verletzt werden oder ob zyklische Abhängigkeiten entstehen, bleibt ohne zusätzliche Kontrollmechanismen häufig unbemerkt. Fehlentscheidungen schleichen sich nicht ein, sondern sie skalieren sofort.
Ein Agent kann eine Methode korrekt implementieren, aber nicht erkennen, dass sie in einem sicherheitskritischen Pfad liegt. Er kann Tests schreiben, aber nicht bewerten, ob sie die geschäftskritische Logik tatsächlich absichern. Er kann den Code umstrukturieren, ohne zu wissen, dass er damit einen regulatorischen Rahmen berührt.
In der Praxis führt das zu einem paradoxen Effekt: Systeme entstehen schneller, wirken auf den ersten Blick vollständig und erzeugen dennoch technische Schuld, weil zentrale Qualitätsmerkmale fehlen.
Auch in puncto Testabdeckung zeigt sich ein wiederkehrendes Muster: Es entstehen zwar viele Tests, aber nicht zwingend die richtigen. Oft werden triviale Fälle abgedeckt, während Randbedingungen, Fehlerpfade oder geschäftskritische Logik unberücksichtigt bleiben. Die Illusion von Testabdeckung ersetzt keine belastbare Qualitätsstrategie.
Zusätzlich entstehen neue Herausforderungen auf der Metaebene: Wer kontrolliert den Output? Welche Rolle spielt menschliches Review, wenn Agenten Dutzende Commits pro Stunde erzeugen? Welche Metriken helfen bei der Bewertung? Und wie lässt sich verhindern, dass technische Schuld nicht nur bestehen bleibt, sondern automatisiert weiterwächst?
Entwicklung & Code
Hallo Developer, hallo heise, hallo C++
Willkommen bei der C++ Werkbank, meinem neuen C++ Blog hier bei heise Developer!
Weiterlesen nach der Anzeige
Ich bin Andreas Fertig. Seit vielen Jahren beschäftige ich mich mit der Programmiersprache C++. Mein Wissen teile ich im Rahmen von Trainings, Vorträgen und auch Artikeln wie in der iX oder meinem privaten Blog. Dort veröffentliche ich pro Monat einen Artikel zu C++ auf Englisch.

Andreas Fertig ist erfahrener C++-Trainer und Berater, der weltweit Präsenz- sowie Remote-Kurse anbietet. Er engagiert sich im C++-Standardisierungskomitee und spricht regelmäßig auf internationalen Konferenzen. Mit C++ Insights ( hat er ein international anerkanntes Tool entwickelt, das C++-Programmierenden hilft, C++ noch besser zu verstehen.
Die Neuerung für (C++)2026 ist, dass ihr diese Artikel ab sofort auch hier bei heise Developer und auf Deutsch lesen könnt.
Mir ist bewusst, dass ich mit dem Blog in die Fußstapfen von Rainer Grimm trete, den ich sehr geschätzt habe und der leider viel zu früh von uns gegangen ist. Uns beiden lagen C++ und Wissen teilen sehr am Herzen. Mit meinem Blog möchte ich das Thema C++ hier bei heise Developer weiterführen.
Was erwartet dich?
Wie der Name des Blogs (der Titel „C++ Werkbank“ verzichtet bewusst auf den Bindestrich) verrät, werde ich mich mit C++-Themen beschäftigen, die dir helfen sollen, deine C++-Kenntnisse zu verbessern und mit einem neuen Werkstück aus jedem Post zu gehen.
Da ich mich viel im Umfeld eingebetteter Systeme bewege, haben meine Artikel häufig einen Fokus auf Effizienz und Performance. Auch Aspekte wie Softwaredesign werden gelegentlich ein Thema sein. Wie in meinen Trainings werde ich auch immer wieder auf Fallstricke wie undefiniertes Verhalten hinweisen. Mein Ziel ist es immer selbst robusten Code zu schreiben, der lange leben kann, und genau das vermittle ich auch in meinen Beiträgen.
Weiterlesen nach der Anzeige
Als Mitglied im C++-Standardisierungskomitee werde ich gelegentlich auch über Neuerungen für den nächsten C++-Standard berichten.
Mehr über mich
Gerne kannst du mich auch schon vor dem ersten C++-Beitrag kennenlernen. Eine Übersicht meiner Social Media findest du hier.
Du bist an einem C++-Training für deine Firma interessiert? Hier findest du meine Trainings, welche selbstverständlich auf die Anforderungen deiner Firma und deines Teams angepasst werden können.
Andreas
(rme)
Entwicklung & Code
programmier.bar: Entwicklung von Headless Apps mit Rust
In dieser Podcastfolge der programmier.bar blicken Joachim Böhmer und Dennis Becker gemeinsam mit Marcel Koch, Softwareberater, Coach und Rust-Autor, über den Tellerrand klassischer Cross-Platform-Frameworks. Im Mittelpunkt steht das Konzept sogenannter Headless Apps und die Frage, wie sich Anwendungslogik unabhängig von konkreten UI-Technologien umsetzen lässt.
Weiterlesen nach der Anzeige
Headless Apps mit Rust
Die drei diskutieren, wie sich die Business-Logik einer Anwendung vollständig in Rust kapseln lässt, um sie plattformübergreifend einzusetzen – unabhängig davon, ob die Benutzeroberfläche mit Flutter, SwiftUI oder Jetpack Compose umgesetzt wird. Auch der Einsatz im Web über WebAssembly (Wasm) sowie auf Mikrocontrollern ist Teil der Betrachtung. Es geht um die Trennung von Core-Logik und UI für die Reduktion technologischer Abhängigkeiten.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.
In dieser Folge gibt es außerdem einen Architektur-Deep-Dive zu Headless Apps sowie zur Rolle von Rust in diesem Kontext, insbesondere mit Blick auf Performance, Memory Safety und Portabilität. Zudem stellt Marcel Koch das Crux-Framework von Red Badger vor, das den Datenaustausch zwischen dem Rust-Core und den jeweiligen UI-Shells automatisiert. Abschließend diskutieren die drei, in welchen Fällen sich der Mehraufwand einer Headless-Architektur lohnt und wann klassische Lösungen wie Flutter oder Kotlin Multiplatform die sinnvollere Wahl sind.
Die aktuelle Ausgabe des Podcasts steht auch im Blog der programmier.bar bereit: „Headless Apps mit Marcel Koch“. Fragen und Anregungen gerne per Mail oder via Mastodon, Bluesky, LinkedIn oder Instagram.
Weiterlesen nach der Anzeige
(mdo)
Entwicklung & Code
KI-Video- und -Bild-Ersteller Amuse am Ende, ComfyUI als Ersatz
Wer mit dem KI-Tool Amuse Bilder und Videos generiert, könnte sich über ausbleibende Aktualisierungen wundern. Das Projekt liegt offenbar auf Eis, ist aber seit Dezember als Open Source verfügbar. Als Alternative bietet sich ComfyUI an.
Weiterlesen nach der Anzeige
Genaue Hintergründe sind unbekannt, jedoch hat sich der Hauptentwickler hinter Amuse zurückgezogen. Die ursprünglich genutzte Domain amuse.ai steht inzwischen zum Verkauf. Der Quellcode ist unter Apache-2.0-Lizenz auf Github verfügbar. Allerdings sind zwei externe Abhängigkeiten vorhanden, für die Interessierte offenbar Lizenzen erstehen müssen. Die Entwicklung ist damit faktisch zum Erliegen gekommen.
Der bisherige Stand lässt sich weiterhin nutzen. Jedoch sind die Fähigkeiten der verfügbaren KI-Modelle rasch veraltet, aktuelle Modelle liefern etwa mehr, korrektere und natürlichere Details. Amuse hat die Bedienung massiv vereinfacht und auch Hardware-Beschleunigung auf Prozessoren mit ausreichend potenter GPU oder NPU angeboten.
Alternative KI-Tools
AMD wirbt inzwischen nicht mehr für Amuse, sondern prescht aktuell mit einer besseren Integration mit AMD ROCm 7.1.1 in ComfyUI vor. Dafür empfiehlt AMD etwa ein Ryzen AI Max+-System mit 128 GByte Speicher oder eine Radeon AI Pro R9700 in Verbindung mit 64 GByte RAM „für eine optimale Erfahrung“.
Die Alternative ComfyUI gibt es als Download für Windows, macOS oder als manuelle Installation über Github – die liefert auch die größte Unterstützung etwa für Nvidia, AMD, Intel, Apple Silicon oder Ascend mit. Auf der Release-Webseite von ComfyUI gibt es aber auch Portable-Versionen mit Optimierungen für AMD oder Nvidia, die keine Installation benötigen.
Das Web-Interface von ComfyUI ist für Umsteiger erst einmal gewöhnungsbedürftig, lässt sich jedoch nach kurzer Zeit ebenfalls einfach nutzen. Es stehen viel mehr Modelle als in Amuse zur Auswahl, insbesondere zahlreiche Videogeneratoren. Aber auch zur Klangerzeugung und zur Erstellung von KI-Bildern sind zahlreiche Modelle vorhanden. Die Installation etwa in der portablen Version ist ebenfalls ungewohnt. Fehlen Dateien für ein Modell, erscheint ein Dialog mit Schaltflächen zum Herunterladen. Davor steht in dem Dialog dann das Verzeichnis, in das die Datei unter dem „models“-Ordner des ComfyUI-Verzeichnisses gehört; dahin muss die jeweilige Datei einfach gespeichert werden.
Im Graphen auf dem Web-Interface kann man etwa den Prompt und Ausgabegröße in den einzelnen Elementen anpassen und dann die KI ihr Werk vollbringen lassen. Allerdings gelingt das etwa mit AMD Ryzen 7840HS/7640HS-Prozessoren mit ihren mit rund 10 TOPS „schnellen“ NPUs nicht, was unter Amuse kein Problem war. Allerdings waren die Prozessoren auch unter Amuse nicht offiziell unterstützt. Für die älteren Prozessoren bleibt also lediglich, bei Bedarf die ältere Software mit den veraltenden Modellen zu nutzen.
Weiterlesen nach der Anzeige
(dmk)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Künstliche Intelligenzvor 3 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Entwicklung & Codevor 1 MonatKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGoogle „Broadwing“: 400-MW-Gaskraftwerk speichert CO₂ tief unter der Erde
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
