Entwicklung & Code
Von Output zu Outcome: Entwickler als Produktgestalter
In vielen Softwareteams läuft die Entwicklung wie geschmiert. Entwicklerinnen und Entwickler sammeln Anforderungen, setzen Features um, schließen Sprints ab und liefern Releases aus. Es wird gebaut, getestet, deployt, immer und immer wieder. Und doch bleibt häufig ein diffuses Gefühl zurück. Warum diese Arbeit, warum der ganze Code? Selbst wenn man mit KI-Unterstützung noch schneller mehr Code erzeugen kann, heißt das noch lange nicht, dass am Ende viel Wert entsteht.
Weiterlesen nach der Anzeige

Dominique Winter ist Experte für erlebnisorientierte Produktentwicklung und unterstützt Organisationen dabei, begeisternde Produkte zu entwickeln. Praktische Erfahrungen aus der digitalen und nicht-digitalen Produktentwicklung ergänzt er durch langjährige Forschung in den Bereichen Organisationsentwicklung und User Experience. Seine Erfahrungen teilt er mit jedem, der Lust hat etwas Neues auszuprobieren und persönlich zu wachsen.
Darin liegt das Problem, das viele Produktteams haben: Der Fokus liegt auf Output. Die Teams setzen mehr und mehr Features um und messen den Fortschritt anhand der erledigten Arbeit. Produkte sammeln immer mehr Funktionalität an und wachsen kontinuierlich. Viele Produktverantwortliche glauben, dass das nötig ist, um sich vom Wettbewerb zu differenzieren und bestehenden Nutzerinnen und Nutzern ständig etwas Neues zu bieten. Dabei ist nicht immer „mehr“ die Lösung, sondern manchmal sogar ein Problem. Je mehr Features das Produkt umfasst, umso mehr Arbeit muss in Bugfixing und Wartung fließen. Und genau hier setzt der Gedanke an, sich mehr auf Outcome statt Output zu konzentrieren.
(Bild: deagreez/123rf.com)

Konferenz in Köln: Die Product Owner Days am 5. und 6. Mai 2026 befassen sich in über 20 Talks mit aktuellen Themen rund um Product Ownership, KI-Einsatz, User Research und mehr. Der Autor dieses Artikels, Dominique Winter, hält einen Workshop zu Produktvisionen.
Output ist nicht gleich Wert
Wo liegt der Unterschied zwischen Output und Outcome? Output beschreibt, was produziert wird. Outcome ist das, was das Produzierte bewirkt. Jede Funktion, jede neue Dokumentation, jeder neue Test ist erst einmal nur Output. Je mehr ein Team davon liefert, desto „produktiver“ ist es. Dabei bleibt zunächst unklar, was sich durch den erzeugten Output verändert. Was wird sich für Nutzerinnen und Nutzer ändern?
Zum Beispiel hat ein Onlineshop mit häufig wiederkehrenden Einkäufen (etwa für den Wocheneinkauf oder die Bestellung bei der Lieblingspizzeria) eine Funktion, die User beim Einkauf daran erinnern soll, dass sie ein oft gekauftes Produkt diesmal vergessen haben (zum Beispiel „Du nimmst normalerweise Pizzabrötchen dazu. Hast du sie vielleicht vergessen?“). Das Feature für diese Erinnerung ist erst einmal nur der Output. Wenn Kundinnen und Kunden das Feature aber nutzen und es dafür sorgt, dass sie mehr einkaufen, ist das der Outcome. In anderen Kontexten kann das dann auch eine schnellere Einarbeitung, glücklichere Kunden oder Ähnliches bedeuten. Outcome ist aber am Ende immer die Antwort auf die Frage, was sich durch den Output verbessern soll.

Vom Feature zum Ergebnis: Output entfaltet erst dann Wert, wenn Nutzung und Verhaltensänderung spürbar in Outcome übergehen.
Das Konzept von Outcome und Output bei einem komplexen Produkt lässt sich gut am Beispiel des Essens für eine Feierlichkeit verdeutlichen. Jedes einzelne Gericht, jeder Dip, jede Soße und jede Beilage ist Output. Misst man den Erfolg der eigenen Arbeit an Output, so geht es in erster Linie darum, dass möglichst viel Essen auf dem Tisch steht. Geht es aber um Outcome, dann sind die Freude beim Essen, das Lächeln der Gäste und das Genießen des Essens von Bedeutung. Man geht demnach anders an die Arbeit, wenn man sich andere Fragen stellt. Braucht es möglichst viel Essen oder geht es darum, die Personen kulinarisch zufrieden zu stellen? Geht es um schlichte Sättigung oder um Begeisterung beim Essen? Bezogen auf Software: Nutzerinnen und Nutzer freuen sich nicht über zusätzliche Features an sich. Vielmehr freuen sie sich darüber, wenn sie ein Problem einfacher lösen, eine Arbeit schneller durchführen oder eine Funktion leichter bedienen können.
Weiterlesen nach der Anzeige
Output-Orientierung lässt sich in vielen Produktteams beobachten. Sie streben dann oft danach, die Arbeitszeit von Entwicklerinnen und Entwicklern maximal auszulasten. Eine hohe Anzahl an Arbeitsergebnissen erzeugt das Gefühl von Produktivität. Langfristig führt das aber nicht nur zu Produkten mit begrenzter Wirkung, sondern auch zu Frustration im Team. Gerade Developer erleben häufig, dass sie technisch anspruchsvolle Lösungen umsetzen, ohne zu wissen, ob diese überhaupt sinnvoll sind.
Outcome ist auch Entwickleraufgabe
Jetzt kann man es sich relativ einfach machen. Die Entscheidung, was gebaut wird, liegt häufig beim Produktmanagement oder der Konzeption. Als Entwicklerin oder Entwickler muss man „nur noch“ die Anforderungen umsetzen beziehungsweise in Code konvertieren. Dieses Übersetzen setzt jedoch einiges an Expertise voraus, denn gute Software zu bauen ist alles andere als trivial. Aber sich auf die Umsetzung von Features zurückzuziehen, entbindet Entwickler nicht von der Verantwortung, sich um die eigene Wirksamkeit zu kümmern. Sich nur als Umsetzende zu sehen, ist zu kurz gedacht, denn gerade Entwicklerinnen und Entwickler sitzen an zentraler Stelle. Sie übersetzen Ideen in Realität, treffen dabei aber wichtige Architekturentscheidungen und kennen die technischen Möglichkeiten und Grenzen am besten. Wenn sie in diesem Prozess Fragen zum angestrebten Outcome stellen, hilft Ihr Wissen dabei, gute Lösungen zu finden, statt nur Anforderungen umzusetzen.
Der stärkste Hebel sind die richtigen Fragen
Developer müssen aber nun keine neuen Rollen übernehmen. Häufig hilft es schon, an den richtigen Punkten die richtigen Fragen zu stellen (siehe Textkasten). Insbesondere in Terminen, in denen es um Anforderungen geht, entstehen oft wertvolle Diskussionen und somit auch Gelegenheiten, den Grund (den gewünschten Outcome) eines Features zu erfragen und durch das Gespräch gegebenenfalls den Fokus der Entwicklung zu verschieben. Warum soll das jeweilige Feature gebaut werden? Warum benötigen die User das Feature? Woran erkennt man hinterher, dass es sich gelohnt hat, das Feature zu entwickeln?
Natürlich ist es für diejenigen, die die Anforderungen stellen, einfacher, direkt eine bestimmte Funktion zu bestellen. Aber es ist überraschend, wie oft sich auch diese Menschen noch nicht so richtig Gedanken dazu gemacht haben, warum die Welt dieses Feature benötigt und welche Wirkung es eigentlich genau erzielen soll.
Fragen wie diese verändern Gespräche spürbar:
- Woran erkennen wir am Ende, dass das, was wir bauen, wertvoll ist?
- Welches Verhalten der Nutzerinnen und Nutzer soll sich dadurch verändern?
- Welches Problem wird damit besser gelöst?
- Was passiert in der Erlebniswelt der Nutzerinnen und Nutzer, wenn wir dieses Feature nicht bauen?
- Was wäre die kleinste Lösung, die bereits Wirkung entfaltet?
Sicherlich sollte jemand aus dem Produktmanagement oder anderen Bereichen die obigen Fragen beantworten können, aber zwei wichtige Aspekte darf man dabei nicht vergessen. Zum einen arbeiten auch dort nur Menschen. Vielleicht finden sie die Idee für das Feature einfach spannend oder haben einfach Lust darauf, es im Produkt zu sehen. Welche Wirkung es bei den Usern auslöst, wurde vielleicht nicht bedacht. Zum anderen passiert es jeder und jedem hin und wieder einmal, dass man sich sehr in einer Lösungsidee verfängt und aus den Augen verliert, dass die gleiche Wirkung auch auf einem anderen Weg erreichbar wäre.
Entwicklerinnen und Entwickler haben als vollwertige Teammitglieder auch die Aufgabe, dafür zu sorgen, die richtigen Dinge zu tun. Manche Teammitglieder wollen aber nicht als Widerstand empfunden werden. Vor allem wer noch nicht viel Arbeitserfahrung hat, stellt mitunter die eigene Perspektive hinten an und geht davon aus, dass der Rest schon wissen wird, warum es sinnvoll ist, das Feature zu bauen. Aber Fragen bremsen nicht, sie schärfen. Sie helfen Teams, bewusster Entscheidungen zu treffen.
Outcome in der täglichen Arbeit verankern
Eine verstärkte Outcome-Orientierung darf aber nicht vom Engagement einzelner Teammitglieder abhängen. Sie muss vielmehr Teil der Arbeitsroutine werden, und auch dazu gibt es wirksame Hebel. Einige Produktteams nutzen beispielsweise eine Definition of Ready (DoR), die beschreibt, welche Eigenschaften erfüllt sein müssen, damit eine Anforderung umgesetzt werden kann. Eine DoR kann dann unter anderem aufführen, dass bestimmte Fragen zum angestrebten Outcome beantwortet sein müssen. Zu diesen Fragen gehören beispielsweise die im Textkasten genannten. Durch die Einbindung solcher Fragen in die DoR müssen einzelne Entwicklerinnen und Entwickler nicht mehr jedes Mal nachfragen und gefühlt stören, sondern ein Team verpflichtet sich als Ganzes dazu, die Fragen abzuarbeiten. Wenn beim Überprüfen der DoR unklar ist, wofür eine Anforderung umgesetzt werden soll oder woran Erfolg erkennbar sein soll, ist es sinnvoll, die Umsetzung zu verschieben und erst einmal das angestrebte Ziel oder die angestrebte Wirkung zu klären.
Entwicklung & Code
Meta kauft zig Millionen AWS Graviton Cores für Agentic AI
Amazon Web Services und Meta haben eine Vereinbarung bekannt gegeben, nach der Meta mehrere zehn Millionen Graviton5-Cores von AWS verwenden wird. Mit dem Deal wird Meta zu einem der größten Graviton-Kunden, und die Vereinbarung sieht eine Erweiterung um weitere Graviton-Kerne vor, wenn Metas Bedarf wächst.
Weiterlesen nach der Anzeige
Cloud-CPU für Agentic AI
Meta will die zusätzliche Rechenleistung vor allem für den Bereich Agentic AI nutzen. Für das Training von KI-Modellen sind GPUs besser geeignet als CPUs. Im Bereich Agentic AI müssen autonome Agenten jedoch komplexe Aufgaben planen und ausführen, wofür sich CPUs besser eignen.
Amazon hatte die Graviton5-Chips im Dezember 2025 auf der re:Invent 2025 vorgestellt.

Meta wird zahlreiche Graviton-Chips nutzen.
(Bild: Amazon)
Amazon bezeichnet die Graviton-CPU als Cloudprozessor, der speziell für energieeffiziente Cloudanwendungen konzipiert ist. Graviton setzt wie die Axion-Chips von Google und die Cobalt-Chips von Microsoft auf eine ARM-Architektur. Im März 2026 hat ARM erstmals einen eigenen Prozessor vorgestellt: Die AGI CPU, deren Name an die Artificial General Intelligence angelehnt ist, hat ARM zusammen mit Meta und TSMC entwickelt.
Die Graviton5-Chips haben 192 Kerne und einen deutlich größeren L3-Cache als das Vorgängermodell. Weitere Details lassen sich den offiziellen Ankündigungen von Meta und von Amazon entnehmen.
Weiterlesen nach der Anzeige
(rme)
Entwicklung & Code
DeepSeek v4: Günstige KI-Alternative fordert OpenAI und Anthropic heraus
Vor einem Jahr sorgte das chinesische KI-Start-up DeepSeek für einen Schock in der KI-Branche: Das KI-Modell DeepSeek-R1 zeigte vergleichbare Leistungen wie US-Topmodelle zum deutlich günstigeren Preis und sorgte für ein Börsenbeben. Wie später bekannt wurde, hatte das Training von DeepSeek-R1 weniger als 300.000 US-Dollar gekostet. Jetzt ist mit DeepSeek v4 eine neue Generation als Vorschau erschienen. Das neue Spitzenmodell ist weiterhin kostenlos als Open Source verfügbar und liegt in einer Pro- und einer Flash-Variante vor.
Weiterlesen nach der Anzeige
Der große Schock könnte dieses Mal ausbleiben. Zwar setzt sich DeepSeek erneut an die Open-Source-Spitze, doch Experten verorten das Leistungsvermögen zeitlich etwa drei bis sechs Monate hinter den absoluten Topmodellen am Markt und nicht auf Augenhöhe. Dafür bleibt aber immerhin der große Preisvorteil erhalten. Das Pro-Modell ist zwar deutlich teurer bei den API-Aufrufen als DeepSeek v3.2. Es liegt aber immer noch weit unter den Preisen, die OpenAI und Anthropic aufrufen. So kostet etwa GPT-5.5 von OpenAI laut Benchmark-Angaben des Unternehmens das Doppelte für vergleichbare Coding-Aufgaben. Aus dem Konkurrenz-Sprint könnte jetzt ein Marathon werden. Wie sich die chinesische Open-Source-KI nach dem DeepSeek-Schock insgesamt entwickelt, zeigt ein Überblick zur chinesischen Open-Source-KI.
Stärken beim Coding, Schwächen beim Wissen
Unter der Haube hat sich eine Menge getan: V4 ist ein echter Generationswechsel mit komplett neuer Architektur, achtfach längerem Kontextfenster und einem laut den von DeepSeek vorgelegten Unterlagen spürbar besserem Coding- und Mathe-Niveau.
V3.2 hatte 685 Milliarden Parameter; V4-Pro kommt auf 1,6 Billionen – mehr als doppelt so viele. Das neue Modell kann bis zu einer Million Token Kontext verarbeiten – also sehr lange Dokumente, Codebases oder Gespräche – und benötigt dafür nur einen Bruchteil der Rechenleistung früherer DeepSeek-Modelle. Zum Vergleich: V3.2 unterstützte maximal 128.000 Token Kontext. Der Vorgänger führte als wichtigste Neuerung „DeepSeek Sparse Attention“ (DSA) ein – eine effizientere Aufmerksamkeitsarchitektur für lange Texte. V4 baut darauf auf und kombiniert gleich zwei neue Mechanismen.
API-Preise könnten sinken
Schwächen gibt es offenbar beim Allgemeinwissen – hier sollen andere Spitzenmodelle deutlich besser sein. Die Reasoning-Fähigkeiten des Modells können jetzt in drei statt bislang zwei Stufen gesteuert werden: Non-Think, Think High und Think Max statt vorher nur Thinking und Non-Thinking. DeepSeek spekuliert offenbar vor allem auf Entwickler als Kunden: In der Eigendarstellung des neuen Modells rücken vor allem Coding-Benchmarks, Reasoning und agentische Aufgaben in den Vordergrund. Auch OpenAI setzt verstärkt auf Entwickler als Zielgruppe und hat seine ChatGPT-Tarife rund um das Coding-Werkzeug Codex umgebaut. Das mögliche Einsparpotenzial gegenüber US-Modellen dürfte hier sicherlich einige interessieren.
Weiterlesen nach der Anzeige
DeepSeek-V4-Pro kostet 1,74 US-Dollar pro Million Input-Token und 3,48 US-Dollar pro Million Output-Token. Die Flash-Variante schlägt mit 0,14 US-Dollar pro Million Input-Token und 0,28 US-Dollar pro Million Output-Token. Das US-Wirtschaftsmedium Bloomberg berichtet, dass DeepSeek aktuell wegen Rechnerknappheit einen Kapazitätsengpass beim Pro-Modell hat. Im zweiten Halbjahr sollen neue Huawei-Ascend-950-Cluster den Mangel ausbessern. Dann könnten die Preise sinken.
(mki)
Entwicklung & Code
Markdown auf Steroiden: Quarkdown 2.0 ist da
Der Markdown-Dialekt Quarkdown ist in Version 2.0.0 erschienen. Im Mittelpunkt des Updates stehen ein neues Berechtigungssystem, das den Zugriff eines Dokuments während der Kompilierung einschränkt, und eine HTML-Ausgabe, die vollständig offline funktioniert. Hinzu kommen paralleles Rendering, neue HTML-Optionen für Canonical Links und eine sitemap.xml sowie ein public/-Verzeichnis für statische Assets. Mehrere Breaking Changes betreffen außerdem das Standard-Ausgabeverzeichnis, den Namen des Ausgabeverzeichnisses bei --preview und ein umbenanntes Modul der Standardbibliothek.
Weiterlesen nach der Anzeige
Quarkdown erweitert die Auszeichnungssprache um eine Turing-vollständige Funktionssprache. Anders als klassisches Markdown erlaubt das Open-Source-Projekt damit Variablen, Funktionen und Kontrollstrukturen direkt im Dokument. Es zielt auf HTML- und PDF-Ausgaben für Bücher, Fachtexte, Wissenssammlungen und Präsentationen. Wer Markdown kennt, kann sich Quarkdown am ehesten als Markdown mit eingebauter Skript- und Layoutschicht vorstellen.
Berechtigungssystem als Sandbox
Die wichtigste Neuerung ist das Berechtigungssystem. Es legt fest, worauf ein Dokument während der Kompilierung zugreifen darf. Versucht der Compiler eine Aktion ohne passende Berechtigung, bricht er mit einem Fehler ab. Freigaben und Verbote setzen Nutzer über --allow und --deny; vorgesehen sind unter anderem project-read, global-read, network, native-content und all. Das Feature wirkt vor allem als Sandbox: Weil Quarkdown-Dokumente dank ihrer Funktionssprache deutlich mehr können als reines Markdown, lässt sich die Ausführung fremder Dokumente damit besser absichern.
Ebenfalls zentral ist die überarbeitete HTML-Ausgabe. Quarkdown liefert Schriften, Code-Highlighting-Themes und optionale Bibliotheken jetzt mit der Installation aus und kopiert sie in die generierten Dokumente, statt sie von CDNs oder Google Fonts nachzuladen. Damit funktioniert die Ausgabe vollständig offline. Laut Release Notes sorgt das zugleich für vorhersagbareres Rendering und schnellere Seitenaufrufe. Lediglich chinesische Schriften bei .doclang {zh} sowie explizit gewählte Google Fonts bleiben remote. Der Preis sind größere Ausgabeverzeichnisse und ein etwas langsamerer Erstlauf; Folgekompilierungen bremsen Prüfsummen-Checks dem Projekt zufolge nicht aus.
Für HTML-Projekte führt Quarkdown außerdem die neue Funktion .htmloptions ein. Mit gesetztem baseurl erzeugt sie Canonical Links im jeder Seite und schreibt eine sitemap.xml mit absoluten URLs für Haupt- und Unterdokumente. Damit rückt Quarkdown näher an typische Static-Site-Generatoren heran, ohne dass Nutzer solche SEO-Metadaten nachträglich ergänzen müssen.
Statische Assets und neue Funktionen
Praktisch für Web-Ausgaben ist auch das neue Verzeichnis public/ im Projektwurzelverzeichnis. Dessen Inhalt – etwa robots.txt, CNAME oder andere statische Dateien – landet unverändert im Wurzelverzeichnis der Ausgabe. Ergänzend versteht Quarkdown beim HTML-Export jetzt das Wurzelpfadsymbol @: Ein Verweis wie @/assets/logo.png zeigt auf die Ausgabewurzel und eignet sich damit für Assets, die mehrere Unterdokumente gemeinsam nutzen. Das Konzept erinnert an die public/-Ordner gängiger Web-Frameworks.
Weiterlesen nach der Anzeige
Neu ist zudem die Primitivfunktion .image, die Bilder feiner konfigurierbar macht, einschließlich eines Opt-outs aus dem Media Storage über mediastorage:{no}. Querverweise per .ref rendert Quarkdown jetzt für alle referenzierbaren Typen als Links – also nicht nur für Überschriften, sondern auch für Abbildungen, Tabellen, Code-Blöcke, Gleichungen und benutzerdefinierte nummerierte Blöcke. In längeren technischen Dokumenten wird die Navigation dadurch deutlich konsistenter.
Zu den kleineren, aber nützlichen Komfortfunktionen zählen mehrzeilige Funktionsaufrufe per Backslash am Zeilenende und die neue Funktion .keybinding für Tastenkürzel. Letztere stellt Shortcuts als stilisierte Tastenbeschriftungen dar und berücksichtigt Plattformunterschiede, etwa mit ⌘ statt Ctrl auf macOS. Das ist praktisch für Bereiche wie Dokumentation, Wissenssammlungen und UI-nahe Inhalte.
Mehr Tempo und Bugfixes
Unter der Haube rendert Quarkdown 2.0 Geschwisterelemente jetzt parallel, was große Dokumente beschleunigen soll. Überarbeitet hat das Projekt auch die Ein- und Ausgabe des Media Storage: Dateien kopiert Quarkdown nun per Referenz statt per Inhalt, ergänzt um Prüfsummen, die unnötige Kopien vermeiden.
Bestehende Setups müssen sich auf einige Inkompatibilitäten einstellen. Das Standard-Ausgabeverzeichnis heißt jetzt ./quarkdown-output statt ./output. Bei --preview ohne --out-name vergibt Quarkdown künftig statische Namen nach dem Muster preview-, statt sich an .docname zu orientieren. Hinzu kommt eine Umbenennung in der Standardbibliothek: Das bisherige Modul Injection heißt nun Html; bestehende Verweise auf die Dokumentation des Moduls und seiner Funktionen müssen daher angepasst werden.
Lizenz und Installation
Alle Informationen zu Quarkdown 2.0.0 finden sich in den Release Notes auf GitHub. Das Projekt ist Open Source: Quarkdown und seine Module stehen standardmäßig unter GNU GPLv3; für die Module und Binärpakete von quarkdown-cli und quarkdown-lsp gilt die GNU AGPLv3. Installieren lässt sich die Software per Installationsskript unter Linux, macOS und Windows sowie über Homebrew oder Scoop; alternativ verweist das Projekt auf ein quarkdown.zip aus dem aktuellen Stable-Release oder einen Build via gradlew installDist.
Lesen Sie auch
(fo)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
