Connect with us

Entwicklung & Code

Die Produktwerker: Forecasting mit der Monte-Carlo-Simulation


Die Monte-Carlo-Simulation hilft in der Produktentwicklung dabei, Prognosen realistischer zu machen. Nicht als harte Zusage, sondern als Blick auf Wahrscheinlichkeiten und damit auf das Risiko, das in komplexer Arbeit fast immer mitschwingt. Zeit also, sich tiefer damit auseinanderzusetzen, weshalb Dominique Winter in dieser Folge mit dem Flight Levels und Kanban Coach Felix Rink aus Köln spricht.

Weiterlesen nach der Anzeige


Product Owner Days 2026

Product Owner Days 2026

(Bild: deagreez/123rf.com)

Fachvorträge und Networking-Möglichkeiten: Die Product Owner Days am 5. und 6. Mai 2026 in Köln befassen sich in über 20 Vorträgen mit aktuellen Themen rund um Product Ownership, KI im Produktmanagement, User Research, Product Discovery und Product Economics.

Gemeinsam starten sie bei der Frage, wann etwas fertig ist und wie belastbar so eine Aussage eigentlich ist, wenn Teams in unsicheren Umfeldern arbeiten. Von dort geht es zur Idee hinter der Monte-Carlo-Simulation. Sie ist überraschend simpel. Vergangene Ergebnisse geben Hinweise darauf, wie sich Arbeit vermutlich auch künftig verteilen wird. Statt eine einzelne Zahl zu versprechen, entsteht eine Bandbreite. Fertigstellungen aus der Vergangenheit werden in vielen Durchläufen immer wieder neu kombiniert, bis ein Muster sichtbar wird. Manche Ergebnisse tauchen oft auf, andere sind selten.

Genau diese Verteilung ist in der Produktentwicklung hilfreich, weil Schwankungen zum Tagesgeschäft gehören. Schnell wird klar, dass es weniger um exakte Termine geht als um ein besseres Gefühl für Risiko. Die Simulation zeigt, mit welcher Wahrscheinlichkeit ein bestimmter Arbeitsumfang in einem bestimmten Zeitraum wirklich erreichbar ist. Das verändert, wie über Planung gesprochen wird. Zusagen werden zu bewussten Entscheidungen über Risiko und nicht zu Versprechen, die später unter Druck verteidigt werden müssen. Für Product Owner ist das besonders wertvoll, weil Gespräche mit Stakeholdern dadurch sachlicher werden und Erwartungen besser eingeordnet werden können.

Ein weiterer Schwerpunkt liegt auf den Daten. Entscheidend ist nicht, möglichst weit zurückzugehen, sondern eine Vergangenheit zu wählen, die der erwarteten Zukunft ähnelt. Kurze Zeiträume mit ausreichend vielen Datenpunkten liefern oft bessere Prognosen als lange Historien, in denen Sondereffekte alles verzerren. Auch eine feinere Betrachtung auf Tagesbasis kommt zur Sprache, weil sich Forecasts damit schneller aktualisieren lassen und Veränderungen im System früher auffallen.

Weiterlesen nach der Anzeige

Spannend wird es dort, wo die Monte-Carlo-Simulation nicht als einmaliger Schritt verstanden wird, sondern als laufendes Werkzeug. Neue Erkenntnisse, zusätzliche Arbeit oder geänderte Rahmenbedingungen fließen direkt in den nächsten Forecast ein. So entsteht ein kontinuierlicher Abgleich zwischen Realität und Erwartung. Das unterstützt aktives Risikomanagement und hilft Teams, Prioritäten immer wieder neu auszurichten, ohne jedes Mal bei null anfangen zu müssen.

Am Ende geht der Blick über die klassische Fertigstellungsfrage hinaus. Überall dort, wo vergangenes Verhalten brauchbare Hinweise auf die Zukunft gibt, kann Monte Carlo helfen, Unsicherheit greifbar zu machen. In der Produktentwicklung ist das oft genau die Art von Pragmatismus, die fehlt. Nicht kompliziert, aber deutlich verlässlicher als Bauchgefühl.

Die aktuelle Ausgabe des Podcasts steht auch im Blog der Produktwerker bereit: „Forecasting mit der Monte-Carlo-Simulation“.


(mai)



Source link

Entwicklung & Code

Stack Overflow kämpft mit KI-Funktionen gegen massiven Nutzerschwund


Bei Programmierproblemen war Stack Overflow jahrelang die erste Anlaufstelle für eine Vielzahl von Softwareentwicklern. Doch seit dem Aufstieg generativer KI-Modelle wie ChatGPT hat sich das Nutzerverhalten grundlegend verändert. Auf die Hochzeit der Plattform zwischen 2014 und 2017 folgt seit etwa 2020 ein kontinuierlicher Abstieg – sowohl bei den Fragen als auch den Antworten. Der Jahreswechsel 2025/2026 markiert einen historischen Tiefstand (siehe Abbildung).

Weiterlesen nach der Anzeige


Liniengrafik zu Fragen und Antworten auf Stack Overflow seit 2006

Liniengrafik zu Fragen und Antworten auf Stack Overflow seit 2006

Die Developer-Plattform Stack Overflow erreichte 2014 ihren Höhepunkt, seit 2020 nehmen die Fragen und Antworten rasant ab.

(Bild: Stack Overflow)

Entwickler ziehen es offenbar vor, ihre Fragen direkt an KI-Assistenten zu stellen, anstatt sie öffentlich auf Stack Overflow zu formulieren und auf Antworten der Community zu warten. Eine wachsende Zahl von KI-Helfern ist inzwischen unmittelbar in viele Entwicklungsumgebungen integriert, wie beispielsweise Copilot in Visual Studio Code. Aber auch die Integration von KI in die Google-Suche trägt ihren Teil dazu bei, wie Shog9 – ein ehemaliger Stack-Overflow-Moderator – in einer Forendiskussion auf Hacker-News betont.

Wachsender Konkurrenz sah sich Stack Overflow zudem durch alternative Communitys, etwa auf Reddit, Discord und GitHub, ausgesetzt, in denen sich Entwicklerinnen und Entwickler ebenfalls zu Programmierproblemen austauschen.

Laut einer von Kanshi Tanaike auf GitHub veröffentlichten Datenanalyse wirkt sich der Rückgang bei Stack Overflow nicht in allen Themenbereichen gleichermaßen aus. Besonders betroffen seien beispielsweise Fragen zu modernen Programmiersprachen, während ältere Sprachen weniger stark leiden.

Auf die Krise reagiert Stack Overflow mit einer Reihe von Maßnahmen. Während sich die Plattform erstmals 2023 selbst für den Einsatz von KI öffnete, steht seit Dezember vergangenen Jahres nach längerer Testphase nun „AI Assist“ offiziell zur Verfügung.

Weiterlesen nach der Anzeige

Laut der Ankündigung im Blog soll die Funktion eine KI-gestützte Suche auf Basis einer Konversation ermöglichen, bei der zunächst Community-verifizierte Antworten aus Stack Overflow und dem Stack-Exchange-Netzwerk angezeigt werden. Erst wenn diese Antworten das Problem nicht zufriedenstellend lösen können, soll ein Sprachmodell die Lücken füllen.

Parallel dazu lockert Stack Overflow seine traditionell eher strengen Regeln. Seit Oktober 2025 testet die Plattform laut eigenen Angaben auch erstmals offene Fragen, die Entwickler-Präferenzen, persönliche Erfahrungen oder Themen mit mehreren „richtigen“ Antworten betreffen. Solche Fragen wurden bislang routinemäßig geschlossen. Eine Beta-Version dieser Funktion soll Anfang 2026 erscheinen.

Um die Einstiegshürden zu senken, hat Stack Overflow zudem das Abstimmungssystem überarbeitet. Bisher benötigten Nutzer 15 Reputationspunkte für Upvotes und 125 für Downvotes. Künftig gibt es auch „Free Votes“, mit denen neue Nutzer ohne ausreichende Reputation an der Bewertung von Inhalten teilnehmen können. Die Plattform erhofft sich davon, dass Neulinge früher in die Community eingebunden werden und häufiger zurückkehren.

Auch den Chat-Bereich hat die Plattform ausgebaut: Noch im Verlauf dieses Monats sollen alle öffentlichen Chaträume für sämtliche registrierten Nutzer geöffnet werden – unabhängig von deren Reputationswert. Neue Lobby-Räume für Anfänger und erfahrene Nutzer sowie verbesserte Moderationswerkzeuge sollen das Angebot abrunden.

Lesen Sie auch

Ein neuer Model-Context-Protocol-(MCP)-Server soll es Nutzern ermöglichen, die Wissensbasis der Plattform direkt in KI-Anwendungen und -Agenten zu integrieren. Die Beta-Version ist derzeit noch auf 100 Anfragen pro Tag begrenzt. Darüber hinaus sollen regelmäßig veröffentlichte „Coding Challenges“ Entwicklern eine spielerische Möglichkeit bieten, ihre Fähigkeiten zu trainieren und mit der Community in Kontakt zu bleiben.

Von der Summe der im Blog-Beitrag angekündigten Maßnahmen erhofft sich Stack Overflow, eine Trendwende einzuleiten, um den Bedeutungsverlust aufzuhalten. Die Plattform kämpft darum, sich in einer Welt zu behaupten, in der KI-Assistenten für viele Entwickler zur ersten Anlaufstelle geworden sind.


(map)



Source link

Weiterlesen

Entwicklung & Code

Rue statt Rust: Genauso sicher, aber leichter zugänglich


Rue, eine neue, kurz vor Weihnachten vorgestellte Programmiersprache, kombiniert Speichersicherheit mit guter Performance ohne Garbage Collector. Es handelt sich um eine Weiterentwicklung von Rust, die ein ähnliches Konzept verfolgt. Rue soll jedoch gerade für Einsteiger einfacher zugänglich sein. Eine Besonderheit ist, dass der KI-Assistent Claude den Compiler (x86-64 und ARM64) für Rue entwickelt.

Weiterlesen nach der Anzeige

Konzipiert wurde Rue von Steve Klabnik, der bei Ruby on Rails und Rust maßgeblich mitgewirkt hat. Er versucht, das speichersichere Borrowing-Konzept von Rust zu vereinfachen, das vielen Rust-Neulingen schwer zu verstehen fällt.

Rue verwendet affine Typen mit veränderbarer Wertesemantik. Das heißt, Entwicklerinnen und Entwickler können affine Typen nur einmal verwenden. Der Blog zeigt ein Beispiel:


struct FileHandle { fd: i32 }

fn example() {
    let handle = FileHandle { fd: 42 };
    use_handle(handle);     // handle moves here
    use_handle(handle);     // ERROR: value already moved
}


Kopieren ist jedoch möglich, wenn man es ausdrücklich deklariert:


@copy
struct Point { x: i32, y: i32 }

fn example() {
    let p = Point { x: 1, y: 2 };
    use_point(p);   // p is copied
    use_point(p);   // OK, p is still valid
}


Ein Wert, der konsumiert werden muss, lässt sich mit linear markieren:

Weiterlesen nach der Anzeige


linear struct DatabaseTransaction { conn_id: i32 }

fn example() {
    let tx = DatabaseTransaction { conn_id: 1 };
    // ERROR: linear value dropped without being consumed
}


Von Zig übernimmt Rue das Konzept von Ausdrücken, die bereits der Compiler auswertet, mit der Eigenschaft comptime. Auch Typen lassen sich so erzeugen:


fn Pair(comptime T: type) -> type {
    struct { first: T, second: T }
}

fn main() -> i32 {
    let IntPair = Pair(i32);
    let p: IntPair = IntPair { first: 20, second: 22 };
    p.first + p.second
}


Klabnik arbeitet für das Umsetzen seiner Ideen mit Claude. Er hatte zwar eine Vorstellung davon, wie Rue aussehen soll, ihm fehlte aber die Erfahrung im Bauen von Compilern. Diese Arbeit übernimmt die künstliche Intelligenz: „And you know what? It worked.“ Der erste Versuch, ein Programm zu kompilieren, funktionierte noch nicht, aber nach einer Debugging-Runde lief es dann.

Die Rue-Website betont, dass es sich um ein Forschungsprojekt in seinen Anfängen handelt, das nicht fertig für echte Projekte ist. Wer mitmachen möchte, findet bei GitHub Gelegenheit.

Lesen Sie auch


(who)



Source link

Weiterlesen

Entwicklung & Code

Neue Hauptversion Spring Shell 4.0 markiert Meilenstein


Das Spring-Team hat die neue Major-Version Spring Shell 4.0.0 veröffentlicht. Sie ist auf dem zentralen Maven-Repository Maven Central verfügbar, soll einen signifikanten Meilenstein für die Spring Shell bedeuten und ist mit den aktuellen Spring-Framework- und Spring-Boot-Versionen kompatibel. Updates gibt es unter anderem für die Architektur, Null Safety und das Erstellen von Befehlen.

Weiterlesen nach der Anzeige

Version 4.0 der Spring Shell basiert auf dem Spring Framework 7, das im November 2025 erschien. Das quelloffene Java-Framework brachte ein neues Konzept für Null Safety: Ebenso wie das Framework nutzt die Spring Shell nun das Open-Source-Projekt JSpecify für Null Safety, was Fehler durch den Umgang mit Null-Pointern verhindern soll.

Zudem bringt die neue Spring-Shell-Version ein überarbeitetes Befehlsmodell, um das Erstellen und Verwalten von Befehlen zu vereinfachen. Eine stärker modular aufgebaute Architektur soll der benutzerdefinierten Anpassung sowie Erweiterung der Shell zugutekommen. Die Dokumentation und Beispiele wurden ebenfalls aktualisiert, um insbesondere beim Einstieg in die Arbeit mit der Spring Shell zu helfen.

Im Projekt-Wiki findet sich ein Migrationsguide. Dabei ist zu beachten, dass Anwendungen vor der Migration auf Spring Shell 4 zunächst auf die neueste 3.4.x-Version aktualisiert werden sollten.

Zu den Moduländerungen zählt, dass das spring-shell-core-Modul nicht länger auf Spring Boot und JLine angewiesen ist. Die Module spring-shell-standard und spring-shell-standard-commands wurden in das spring-shell-core-Modul integriert.

Weiterlesen nach der Anzeige

In Spring Shell 3 als deprecated (veraltet) markierte APIs und Annotationen sind entfallen, darunter Legacy-Annotationen wie ShellComponent und ShellMethod.

Mit der Spring Shell können Entwicklerinnen und Entwickler eine Spring-basierte Shell-Anwendung erstellen. Wie das Spring-Team ausführt, kann eine solche Kommandozeilenanwendung hilfreich sein, um mit der REST-API eines Projekts zu interagieren oder mit lokalen Dateninhalten zu arbeiten. Weitere Informationen – inklusive Beispielanwendungen und Tutorials – bietet das GitHub-Repository.


(mai)



Source link

Weiterlesen

Beliebt