Entwicklung & Code
KI-Agenten, Teil 3: Adaptive Designs optimieren Entwicklung und Nutzererlebnis

Thomas Immich ist Unternehmer, Trainer und Berater und unterstützt Unternehmen bei der menschzentrierten Automatisierung ihrer Prozesse mittels KI-Agenten.
KI-Agenten übernehmen zunehmend Aufgaben entlang der gesamten digitalen Produktionsstraße – von der Codegenerierung über die Prozessautomatisierung bis hin zur kontinuierlichen Verbesserung. Während Teil 1 dieser Artikelserie die grundlegende Verschiebung durch agentische Rollen skizzierte und Teil 2 den Wandel vom Produkt zur Produktion nachzeichnete, geht in diesem letzten Teil nun um die Frage, wie sich Effizienz, Individualisierung und Qualität in Einklang bringen lassen. Adaptive Interfaces, simulationsgestützte Variantenbildung und automatisiertes Testing treffen auf menschliche Rahmengebung – und eröffnen neue Spielräume für eine wirklich menschzentrierte Produktentwicklung.
Individuelle Anpassung
Wer an individuelle Anpassungen denkt, hat nicht zwangsläufig das Stichwort Minimalismus im Sinn. Doch aus menschzentrierter Sicht ist jedes Produkt-Feature, für das kein Nutzungsbedürfnis besteht, eine kognitive Last und digitale Schwelle. Das Anpassen einer Software an die Nutzenden hat daher viel mit „Weglassen“ zu tun. Die Reduktion von Features wird zum eigentlichen Ziel.
Die moderne Softwareentwicklung hatte vor der KI-Ära bereits einige Strategien, um ein digitales Produkt für bestimmte Zielgruppen mit mehr oder weniger Features auszustatten.
Doch es gibt bei der Anwendung dieser Strategien langfristig ungelöste und daher klassische Probleme: Geschieht die Reduktion von Features während der Programmlaufzeit über sogenannte Feature Flags, muss der Quellcode viele konditionelle Programmteile enthalten, die es zu überblicken gilt. Das wirkt sich negativ auf den Speicherbedarf und die Performance des Programms aus.
Der Einsatz von Feature Flags widerspricht im Kern dem Pull-Prinzip des Lean Manufacturing. Dieses Prinzip fordert eine bedarfsorientierte, ressourceneffiziente Produktion entlang konkreter Nachfrage. Überträgt man den Feature-Flag-Ansatz auf die industrielle Fertigung, entspräche das etwa dem Bau eines Fahrzeugs mit einem 360-PS-Motor, obwohl lediglich ein kleiner Teil der Kundschaft diese Leistung benötigt. Für die Mehrheit müsste die Leistung anschließend künstlich gedrosselt werden – ein Vorgehen, das sowohl Material als auch Energie verschwendet und den Prinzipien schlanker Produktion zuwiderläuft.
So absurd das Beispiel klingt, wird dieser Ansatz in manchen Teilen der industriellen Produktion sogar tatsächlich gewählt, weil die Mehrkosten, einer flexibleren Produktionsstraße die Mehrkosten für kastriert eingebaute Komponenten übersteigen würden. Ich persönlich halte den Ansatz aus Nachhaltigkeitsgesichtspunkten für äußerst fragwürdig, denn es müssen dennoch die entsprechen Rohstoffe aufgebraucht und nach dem „End of Life“ des Produktes entsorgt werden. Und auch aus menschzentrierter Sicht bin ich kritisch, denn Nutzende könnten zurecht das Gefühl bekommen, für etwas zu zahlen, das sie bereits besitzen, was in der Folge äußerst negativ auf die User Experience des Produktes einzahlen dürfte.
Reduktion durch Bauvarianten
Eine alternative Strategie sieht vor, nicht benötigte Funktionen erst gar nicht in das finale Produkt aufzunehmen, sondern sie bereits während der Bauzeit wegzulassen. Diesen Bau-Varianten-Ansatz bildet die Softwareentwicklung bereits heute über komplexe Delivery-Pipelines ab. Dass der Begriff „Pipeline“ aus der industriellen Produktion stammt, ist hierbei natürlich kein Zufall.
Der Aufbau und die Verwaltung effektiver und gleichzeitig flexibler Delivery-Pipelines ist komplex und wird mit der Anzahl der Produktvarianten zunehmend anspruchsvoller. Geht man vom UX-Idealfall aus, also einer 1:1-Personalisierung der Software für jeden einzelnen Nutzenden, müsste für jeden dieser Nutzenden eine eigene Produktvariante erstellt werden, die nur diejenigen Features enthält, die individuell relevant sind – ein Set an Funktionen, das sich im Laufe der Nutzung leider sogar verändern wird, denn mit zunehmender Erfahrung im Umgang mit dem Produkt entwickeln sich neue Bedürfnisse. Power-User stellen daher ganz andere Anforderungen als Newbies.
(Bild: ipopba/stock.adobe.com)

Der Product Owner AI Day von iX und dpunkt.verlag zeigt dir am 6. November 2025, wie du als Product Owner, Product Managerin oder mit deinem Team KI konkret in deine Arbeit integrieren kannst – von der Discovery bis zum Rollout. Tickets sind zum Frühbucherpreis erhältlich.
Im Extremfall hat also jeder einzelne Nutzende sein über die Zeit angepasstes individuelles Set von Bedürfnissen und benötigt daher auch sein entsprechendes Set an Features.
In fernerer Zukunft wird sich sicherlich zeigen, wie KI-Agenten hyper-individualisierte Produkte für einzelne Nutzende autark maßschneidern oder User Interfaces sogar während der Bedienung adaptiv „fortschreiben“. Doch welche Möglichkeiten ergeben sich, wenn eine solche Hyper-Individualisierung aktuell noch keine Option ist?
Zielgruppen-Simulation als agentische Schlüsselkompetenz
Ein Product Owner muss entscheiden, wo die Bedürfnisse verschiedener Nutzender so deckungsgleich sind, dass man sie in einer Produktvariante zusammenfassen kann und wo sie sich so stark unterscheiden, dass man besser unterschiedliche Varianten ansetzt. Diese Analyse ist sehr zeitaufwendig, weil die Beteiligten immer wieder verschiedenste Kombinationen durchspielen müssen.
Betrachtet man den Softwareentwicklungsprozess als Produktionsstraße, so lohnt es sich also in der KI-augmentierten Zukunft, eine Station vorzusehen, an der KI-Agenten herausfinden, welche Produktvarianten es minimal geben muss, um die maximale Zahl Nutzender glücklich zu machen.
Hier kommen KI-Agenten in Form von Personas, also virtuellen Nutzenden, zu Hilfe. Wie am Beispiel des Podcasts UX Therapy AI im ersten Teil der Artikelserie gezeigt, können KI-Persona-Agenten direkt miteinander sprechen, um herauszufinden, wo gemeinsame und wo sich widersprechende Bedürfnisse liegen.
Diese Art von Simulation plausibler Gesprächsausgänge ist ein komplexer Prozess, der emergente Ergebnisse liefert und sich daher nur schwerlich von einem Menschen durchspielen lässt. Per statischer Formel berechnen kann man die möglichen Gesprächsausgänge nicht, da sie eine Folge komplexer LLM-Operationen sind.

TinyTroupe simuliert die Interaktionen zwischen verschiedenen Rollen als autonome KI-Agenten (Abb. 1)
(Bild: Microsoft)
KI-Agenten als Akteure innerhalb einer LLM-Simulation zu verwenden (sogenannte Sims), ist inzwischen ein so vielversprechender Ansatz, dass Microsoft daraus ein eigenes Open-Source-Projekt mit dem Namen TinyTroupe aus der Taufe gehoben hat.
In einem weiteren Schritt könnten KI-Agenten die verschiedenen Bauvarianten nicht nur vorschlagen, sondern auf Basis einer Referenzvariante direkt implementieren. Als flexible Code-Generatoren sind sie somit Teil der automatisierten Software-Produktionsstraße, ähnlich wie humanoide Roboter voraussichtlich bald in der Güterproduktion. Es lohnt sich demnach doppelt, die Optimierung von Produktvarianten in Zeiten von KI-Agenten neu zu denken.
Entwicklung & Code
Die Produktwerker: Wie viel Zeit darf das Erstellen von User Stories kosten?
Wie viel Zeit sollten Product Owner eigentlich in das Schreiben von User Stories investieren? Darüber sprechen Dominique Winter und Tim Klein in dieser Podcastfolge. Wenn der Kalender voll ist und die To-do-Liste überquillt, wirkt das Story-Schreiben schnell wie eine lästige Pflicht. Viele betrachten es als reine Schreibarbeit. In Wahrheit ist es jedoch vor allem Denk- und Teamarbeit.
Weiterlesen nach der Anzeige
Eine gute User Story entsteht nicht allein am Schreibtisch, sondern im Gespräch. Sie ist das sichtbare Ergebnis gemeinsamer Klärung und ein Zeichen dafür, dass ein Team ein gemeinsames Verständnis erreicht hat. Das Schreiben von User Stories dient daher weniger der Dokumentation als der Verständigung. Eine Story ist kein statisches Artefakt, sondern ein Kommunikationswerkzeug, das an ein Gespräch erinnert, in dem klar wird, welches Nutzerproblem gelöst werden soll.
(Bild: deagreez/123rf.com)

So geht Produktmanagement: Auf der Online-Konferenz Product Owner Day von dpunkt.verlag und iX am 13. November 2025 kannst du deinen Methodenkoffer erweitern und dich von den Good Practices anderer Unternehmen inspirieren lassen.
Das Ziel im Blick behalten
Manche Teams versuchen, Sicherheit durch besonders ausführliche Formulierungen zu schaffen und verlieren dabei leicht das eigentliche Ziel aus den Augen. Gute User Stories entstehen, wenn Teams gemeinsam begreifen, worum es geht – nicht, wenn jedes Detail schriftlich fixiert wird. Sie sind eine Einladung zum Dialog, sollen Empathie für Nutzerinnen und Nutzer wecken sowie den Blick auf deren Bedürfnisse richten. In dieser Haltung wird das Schreiben von Stories zu einem Werkzeug, das Orientierung schafft. Wenn Teams verstehen, warum etwas wichtig ist, finden sie auch den passenden Weg dorthin. Manchmal genügt ein einziger Satz, um eine Idee zu verankern und das Gespräch darüber am Laufen zu halten.
Organisationen gehen sehr unterschiedlich mit User Stories um. In großen Unternehmen wird häufig zu viel dokumentiert – oft, weil es der gewohnte Weg ist. Start-ups hingegen schreiben meist zu wenig auf. Beides zeigt ein Ungleichgewicht zwischen Vertrauen und Kontrolle. Teams, die ihre Prozesse kennen und einander vertrauen, benötigen keine langen Texte. Sie verlassen sich auf Dialog und gemeinsame Verantwortung. Wie viel Zeit in die Story-Erstellung fließt, hängt daher stark von der Reife eines Teams ab. Eingespielte Teams mit tiefem Produktverständnis kommen mit wenigen Worten aus, während neue Teams mehr Austausch benötigen, um ein gemeinsames Verständnis aufzubauen. In jedem Fall sollte die Energie eher in Nachdenken und Reflexion fließen als in das Polieren von Formulierungen.
Zehn-Prozent-Regel und KI-Einsatz
Weiterlesen nach der Anzeige
Hilfreich ist die bekannte Zehn-Prozent-Regel: Rund zehn Prozent der Sprintzeit sollten in die Erstellung und das gemeinsame Refinement des Backlogs investiert werden. Diese Zeit schafft Klarheit über Ziele, Annahmen und Prioritäten. Wer hier spart, zahlt später mit Missverständnissen und Nacharbeit.
Auch Künstliche Intelligenz (KI) kann unterstützen – etwa durch Strukturvorschläge oder Formulierungsideen. Doch sie ersetzt kein gemeinsames Denken. Eine automatisch erzeugte Story ist noch keine Story, solange nicht darüber gesprochen wird. KI kann inspirieren, aber kein echtes Verständnis schaffen. Am Ende braucht es immer Menschen, die beurteilen können, ob das Ergebnis wirklich gut ist. Gute User Stories entstehen in Gesprächen, nicht in Tools. Sie schaffen ein gemeinsames Bild des Nutzerproblems und machen die Produktentwicklung wirkungsvoller. Teams, die sich Zeit für den Austausch nehmen, gewinnen Klarheit – und diese Klarheit ist die beste Grundlage für jedes gute Produkt.
Die aktuelle Ausgabe des Podcasts steht auch im Blog der Produktwerker bereit: „Wie viel Zeit darf User-Story-Erstellung kosten – hilft uns KI dabei?„
(mai)
Entwicklung & Code
Debian APT bekommt ab Mai 2026 harte Rust-Abhängigkeit
Der Debian-Entwickler Julian Andres Klode hat angekündigt, ab Mai 2026 harte Rust-Abhängigkeiten in den Paketmanager APT einzuführen. Künftig werden zentrale Teile von APT in der Programmiersprache Rust implementiert. Betroffen sind unter anderem der Code zum Parsen von .deb-, .ar- und .tar-Archiven sowie die HTTP-Signaturverifizierung.
Weiterlesen nach der Anzeige
APT (Advanced Package Tool) ist das zentrale Werkzeug zur Paketverwaltung in Debian und darauf basierenden Distributionen wie Ubuntu. Die geplante Umstellung auf Rust betrifft damit eine der grundlegendsten Systemkomponenten der Distribution. Klode begründet den Schritt mit den Vorteilen speichersicherer Programmiersprachen und besseren Möglichkeiten für Unit-Tests.
Die Rust-Integration umfasst zunächst den Rust-Compiler, die Standardbibliothek und das Sequoia-Ökosystem. Sequoia ist eine OpenPGP-Implementierung in Rust, die bereits in verschiedenen Projekten zum Einsatz kommt. Durch den Einsatz von Rust sollen typische Speicherfehler wie Buffer Overflows oder Use-after-Free vermieden werden, die in C und C++ häufige Sicherheitslücken eröffnen.
Die Ankündigung richtet sich explizit auch an Maintainer weniger verbreiteter Debian-Ports. Architekturen wie m68k, hppa (HP PA-RISC), sh4 (SuperH) und Alpha adressiert Klode in der Nachricht direkt. Diese Ports haben nun sechs Monate Zeit, eine funktionierende Rust-Toolchain bereitzustellen – andernfalls droht die Einstellung des Supports.
Modernisierung versus Retro-Hardware
Klode betont in seiner Nachricht, dass es für das Projekt wichtig sei, sich weiterzuentwickeln und auf moderne Technologien zu setzen. Man könne nicht zulassen, dass die Distribution durch den Versuch ausgebremst werde, moderne Software auf Retro-Computing-Geräte zu portieren. Diese Haltung dürfte in der Community durchaus kontrovers diskutiert werden, da Debian traditionell eine sehr breite Hardwareunterstützung anstrebt.
Die Entscheidung reiht sich in einen größeren Trend ein: Auch der Linux-Kernel hat mit der Integration von Rust begonnen, um sicherheitskritische Komponenten schrittweise in der speichersicheren Sprache zu implementieren. Rust hat sich in den vergangenen Jahren als bevorzugte Alternative zu C und C++ für systemnahe Programmierung etabliert, wenn es um Sicherheit und Zuverlässigkeit geht.
Weiterlesen nach der Anzeige
Für Nutzer von Debian auf gängigen Architekturen wie x86-64, ARM oder RISC-V dürfte die Umstellung transparent verlaufen, da Rust für diese Plattformen bereits vollständig unterstützt wird. Die Frist bis Mai 2026 gibt den Maintainern kleinerer Ports zumindest etwas Zeit, entweder eine Rust-Toolchain zu implementieren oder ihre Ports offiziell einzustellen.
Die vollständige Ankündigung findet sich in einer Nachricht an die Debian-Entwicklerlisten.
Lesen Sie auch
(fo)
Entwicklung & Code
Visual Studio 2022: Im Oktober-Update erinnert sich Copilot an frühere Wünsche
Microsoft hat seine Entwicklungsumgebung Visual Studio 2022 mit dem Oktober-Update versehen. Es bietet nun eine größere Auswahl an Large Language Models (LLMs) im Chat und bringt GitHub Copilot Memories – ein Erinnerungsvermögen für den KI-Assistenten. Darüber hinaus hat Microsoft für C++-Entwicklerinnen und -Entwickler eine Anleitung veröffentlicht, wie sie ihre Projekte auf das nächste Release Visual Studio 2026 aktualisieren können.
Weiterlesen nach der Anzeige
KI-Updates für Visual Studio 2022
Unter der Bezeichnung Copilot Memories kann sich der KI-Assistent GitHub Copilot nun an Dinge „erinnern“: Wenn Entwickler beispielsweise das Verhalten des Copiloten korrigieren, einen Standard explizit ausdrücken oder ihn darum bitten, sich etwas zu merken, erhalten sie die Aufforderung, die entsprechende Präferenz zu speichern. Diese wird in einer von drei möglichen Dateien abgespeichert: .editorconfig für Coding-Standards, CONTRIBUTING.md für Best Practices, Richtlinien und Architekturstandards oder README.md für High-Level-Informationen über das Projekt. Diese gespeicherten Informationen gelten auch für den Rest des Teams, der am Projekt arbeitet.
(Bild: coffeemill/123rf.com)

Verbesserte Klassen in .NET 10.0, Native AOT mit Entity Framework Core 10.0 und mehr: Darüber informieren .NET-Profis auf der Online-Konferenz betterCode() .NET 10.0 am 18. November 2025. Nachgelagert gibt es sechs ganztägige Workshops zu Themen wie C# 14.0, künstliche Intelligenz und Web-APIs.
Darüber hinaus können Developer im Oktober-2025-Update nun auch die Anthropic-Sprachmodelle Claude Sonnet 4.5 und Claude Haiku 4.5 verwenden. Claude Sonnet 4.5 hat soll insbesondere in der Softwareentwicklung vergleichsweise stabil und vielseitig sein, während Claude Haiku 4.5 sich durch eine erhöhte Leistung bei geringeren Kosten auszeichnet.
Neben diesen sind auch weitere neue KI-Features mit an Bord, die Microsoft auf seinem Entwicklerblog vorstellt.
C++-Projekte auf Visual Studio 2026 aktualisieren
Speziell für C++-Projekte hat Microsoft eine Anleitung verfasst, wie sie sich auf Visual Studio 2026 migrieren lassen. Derzeit ist das nächste Major Release nur innerhalb des Insider-Programms verwendbar, nähert sich jedoch der allgemeinen Verfügbarkeit.
Weiterlesen nach der Anzeige
Microsoft empfiehlt C++-Developern daher das Ausprobieren der neuen Version in Visual Studio 2026 Insiders, die sich parallel zu einer stabilen Visual-Studio-Version installieren lässt. Dann können C++-Developer zunächst bei ihrer bestehenden MSVC-Toolset-Version verbleiben und den neuen Setup-Assistenten verwenden, um fehlende Tools je nach Projekt zu installieren. Wenn sie dafür bereit sind, können sie schließlich ihre MSCV-Build-Tools auf Version 14.50 aktualisieren, die den MSVC-Compiler in Version 19.50 mitbringen.
(mai)
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 2 WochenIllustrierte Reise nach New York City › PAGE online
-
Apps & Mobile Entwicklungvor 2 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 2 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
