Entwicklung & Code
Der wahre Engpass: Warum schnelleres Coden Projekte nicht beschleunigt
Softwareentwicklung gilt als langsam. Deshalb suchen Unternehmen ständig nach Wegen, sie zu beschleunigen: mehr Entwicklerinnen und Entwickler, bessere Tools, effizientere Prozesse. Neuerdings verspricht KI, das Schreiben von Code drastisch zu verkürzen. Aber was, wenn der Engpass nie das Schreiben war?
Weiterlesen nach der Anzeige

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Ich beobachte seit Jahren, wie Unternehmen in die Beschleunigung an der falschen Stelle investieren. Sie optimieren das Coden, während das eigentliche Problem ungelöst bleibt: das Verstehen dessen, was überhaupt gebaut werden soll. In diesem Artikel geht es darum, wo der wahre Engpass liegt, und was es kostet, ihn zu ignorieren.
Die These ist einfach: Der Flaschenhals in der Softwareentwicklung war nie die Geschwindigkeit, mit der Code entsteht. Er war immer die Geschwindigkeit, mit der Verständnis entsteht. Wer das eine optimiert und das andere vernachlässigt, beschleunigt in die falsche Richtung.
Der Mythos vom langsamen Coden
Es gibt eine stillschweigende Annahme in vielen Unternehmen: Softwareentwicklung dauert so lange, weil das Programmieren so aufwendig ist. Je schneller Code entsteht, desto schneller ist das Produkt fertig. Diese Annahme klingt plausibel, aber sie hält einer näheren Betrachtung nicht stand.
Fragen Sie eine erfahrene Entwicklerin, womit sie ihre Zeit verbringt. Die Antwort wird Sie vielleicht überraschen. Das eigentliche Schreiben von Code macht oft nur einen Bruchteil der Arbeit aus. Der größere Teil entfällt auf anderes: Sie muss herausfinden, was genau überhaupt gebaut werden soll. Verstehen, wie das bestehende System funktioniert. Klären, was die Anforderung wirklich meint. Korrigieren, was beim ersten Mal nicht richtig verstanden wurde.
Das ist keine Ineffizienz. Das ist die Natur der Arbeit. Software zu entwickeln bedeutet, ein Problem zu verstehen und dieses Verständnis in eine formale Sprache zu übersetzen, die ein Computer ausführen kann. Der Übersetzungsschritt, das Coden, ist dabei der kleinere Teil. Der größere Teil ist das Verstehen selbst.
Weiterlesen nach der Anzeige
Die Zeit zwischen Anforderung und fertigem Feature ist nicht deshalb lang, weil Tippen langsam wäre. Sie ist lang, weil Verstehen Zeit braucht. Weil Kommunikation Zeit braucht. Weil das Übersetzen zwischen der Welt der Fachlichkeit und der Welt des Codes Zeit braucht. Wer diesen Unterschied nicht sieht, investiert in die falsche Stelle.
Es gibt eine Analogie aus dem Schreiben: Niemand würde behaupten, dass ein Roman langsam entsteht, weil der Autor langsam tippt. Ein Roman entsteht langsam, weil das Entwickeln der Geschichte, der Charaktere, der Struktur Zeit braucht. Das Tippen am Ende ist trivial. Bei Software ist es nicht anders. Nur lassen wir uns von der scheinbaren Komplexität des Codes blenden.
Das Falsche schneller bauen
Was passiert nun, wenn man den Engpass falsch diagnostiziert? Man optimiert das, was man für das Problem hält, und wundert sich, warum die Ergebnisse ausbleiben.
Ich habe Unternehmen erlebt, die ihre Teams vergrößert haben, um schneller zu werden. Und das Ergebnis war nicht mehr Output, sondern mehr Koordinationsaufwand. Plötzlich mussten mehr Menschen auf den gleichen Stand gebracht werden. Mehr Meetings, mehr Abstimmungen, mehr Missverständnisse. Das berühmte Gesetz von Frederick P. Brooks („Adding manpower to a late software project makes it later“) ist keine theoretische Spielerei. Es beschreibt, was passiert, wenn man glaubt, Software entstehe primär durch Arbeitskraft.
Ich habe auch Unternehmen erlebt, die auf neue Frameworks umgestiegen sind, weil die alten angeblich zu langsam waren. Das Ergebnis war nicht eine schnellere Entwicklung, sondern eine Lernkurve, die Monate gekostet hat. Die versprochene Produktivitätssteigerung kam nie an, weil das eigentliche Problem, nämlich das fehlende Verständnis der Fachlichkeit, durch das neue Framework nicht gelöst wurde. Es wurde nur verschoben, auf eine neue technische Ebene.
Aktuell erlebe ich Unternehmen, die sich von KI-gestützten Coding-Assistenten eine dramatische Produktivitätssteigerung versprechen. Diese Tools sind beeindruckend. Sie können Code generieren, Boilerplate reduzieren, Vorschläge machen. Sie können in Sekunden produzieren, wofür ein Mensch Minuten oder Stunden bräuchte. Aber sie lösen nicht das Problem, das die meisten Projekte tatsächlich ausbremst.
Die Erwartungen an KI in der Softwareentwicklung sind derzeit enorm. Von zehnfacher Produktivitätssteigerung ist die Rede, von der Demokratisierung des Programmierens, davon, dass bald jeder Software entwickeln könne. Manche prophezeien gar das Ende des klassischen Entwicklerberufs. Diese Narrative haben eines gemeinsam: Sie gehen davon aus, dass das Schreiben von Code der limitierende Faktor ist. Wenn KI das Schreiben übernimmt, so die Logik, dann verschwinden die Engpässe.
Geschichte wiederholt sich
Wer länger in dieser Branche arbeitet, erkennt das Muster. Die gleichen Versprechen gab es schon bei Low-Code- und No-Code-Plattformen: Fachabteilungen sollten ihre Software selbst bauen, Entwicklerinnen und Entwickler würden überflüssig. Davor waren es die RAD-Systeme (Rapid Application Development), die das Programmieren so einfach machen sollten, dass es jeder könnte. Davor CASE-Tools, davor 4GL-Sprachen. Jede Generation hatte ihre Technologie, die angeblich das Ende der klassischen Softwareentwicklung einläuten würde. Keine dieser Vorhersagen hat sich bewahrheitet.
Das bedeutet nicht, dass diese Technologien nutzlos gewesen wären. Viele haben die Arbeit tatsächlich erleichtert, bestimmte Aufgaben beschleunigt, neue Möglichkeiten eröffnet. Aber sie haben das grundlegende Problem nicht gelöst: Jemand muss verstehen, was gebaut werden soll. Irgendjemand muss die Brücke schlagen zwischen dem, was der Kunde braucht, und dem, was die Maschine ausführen kann. Diese Übersetzungsleistung lässt sich nicht wegautomatisieren.
Auch KI wird daran nichts ändern. Entwicklerinnen und Entwickler werden weiterhin gebraucht. Aber was sich ändert, ist das Anforderungsprofil. Reines „Ich kann programmieren“ reicht nicht mehr aus. Die Fähigkeit, Code zu schreiben, wird zur Commodity, wenn Maschinen das ebenfalls können. Was bleibt, was an Wert gewinnt, ist die Fähigkeit zu verstehen: Probleme zu durchdringen, die richtigen Fragen zu stellen, zwischen Fachlichkeit und Technik zu übersetzen. Die Zukunft gehört nicht denen, die am schnellsten Code produzieren, sondern denen, die am besten verstehen, welcher Code überhaupt gebraucht wird.
Denn eine KI kann auf Anweisung Code produzieren. Aber die Anweisung muss von einem Menschen kommen, der verstanden hat, was gebaut werden soll. Die KI kann nicht wissen, was der Kunde braucht. Sie kann nicht die impliziten Annahmen hinterfragen, die in einer Anforderung stecken. Sie kann nicht erkennen, dass zwei Stakeholder unterschiedliche Dinge meinen, wenn sie das gleiche Wort verwenden. All das bleibt menschliche Arbeit.
Die Illusion der KI-generierten Produktivität
Was passiert, wenn Unternehmen diese Arbeit überspringen und stattdessen auf KI-generierte Produktivität setzen? Sie bekommen mehr Code in kürzerer Zeit. Code, der auf ungeprüften Annahmen basiert. Code, der Missverständnisse in Maschinensprache übersetzt. Code, der später aufwendig korrigiert oder ersetzt werden muss. Die KI hat geliefert, was sie sollte. Nur war es nicht das, was gebraucht wurde.
Wenn ich nicht verstanden habe, was ich bauen soll, hilft es mir wenig, es schneller zu bauen. Ich baue dann nur das Falsche effizienter. Der Code entsteht schneller, aber er löst nicht das richtige Problem. Die Iteration kommt trotzdem, nur dass jetzt mehr Code da ist, der wieder angefasst werden muss. Mehr Code bedeutet mehr Komplexität, mehr Stellen, die angepasst werden müssen, mehr Potenzial für Fehler.
Das soll nicht heißen, dass KI-Tools nutzlos wären. Im Gegenteil: Für erfahrene Entwicklerinnen und Entwickler, die genau wissen, was sie brauchen, können sie wertvolle Werkzeuge sein. Sie können Routinearbeiten abnehmen und Raum schaffen für die Arbeit, die wirklich zählt: das Verstehen, das Hinterfragen, das Durchdenken. Aber sie ersetzen diese Arbeit nicht. Wer glaubt, mit KI die Phase des Verstehens überspringen zu können, wird am Ende mehr Zeit verlieren, nicht weniger.
KI beschleunigt das Schreiben. Sie beschleunigt nicht das Verstehen. Und das Verstehen war schon immer der eigentliche Engpass. Ein Werkzeug, das mir hilft, schneller in die falsche Richtung zu laufen, ist kein Produktivitätsgewinn. Es ist eine Beschleunigung des Scheiterns.
Wo die Zeit wirklich verloren geht
Um die Frage auf den Punkt zu bringen: Wo genau verlieren Projekte ihre Zeit?
Der erste Faktor sind Missverständnisse zwischen Fachbereich und Entwicklung. Eine Anforderung wird formuliert, die Entwicklung setzt sie um, und bei der Abnahme stellt sich heraus: Das war nicht gemeint. Nicht, weil jemand einen Fehler gemacht hätte. Sondern, weil die gleichen Worte für verschiedene Menschen verschiedene Dinge bedeuten.
Die Fachexpertin spricht von einem „Auftrag“ und meint damit etwas Bestimmtes, mit all den impliziten Regeln, Ausnahmen und Randbedingungen, die sie aus ihrer täglichen Arbeit kennt. Der Entwickler hört „Auftrag“ und bildet das auf sein mentales Modell ab, das notwendigerweise unvollständig ist. Beide glauben, sie reden über dasselbe. Beide merken erst, wenn Code existiert, dass dem nicht so war.
Software spiegelt am Ende nicht das wider, was der Kunde haben will, und erst recht nicht das, was er braucht: Software spiegelt vielmehr das wider, was die Entwicklerinnen und Entwickler verstanden haben. Dabei spielen implizite Annahmen und Interpretationen eine Rolle, und die sind – naturgemäß – oft falsch. Das ist kein Vorwurf an die Beteiligten. Es ist die unvermeidliche Konsequenz davon, dass Wissen nicht einfach von einem Kopf in den anderen fließt.
Und dann ist die Korrektur teuer. Nicht weil Coden teuer wäre, sondern weil das Verstehen nachgeholt werden muss, während gleichzeitig bestehender Code angepasst wird.
Der zweite Faktor sind Annahmen, die sich als falsch herausstellen. Jedes Projekt beginnt mit impliziten Annahmen über das Problem, über die Nutzerinnen und Nutzer, über die Randbedingungen. Manche dieser Annahmen sind richtig, manche nicht. Das Problem: Die meisten dieser Annahmen werden nie explizit gemacht. Sie existieren in den Köpfen der Beteiligten, unausgesprochen und ungeprüft.
Und je später eine falsche Annahme erkannt wird, desto teurer wird die Korrektur. Eine Annahme, die in der ersten Woche hinterfragt wird, kostet ein Gespräch. Eine Annahme, die nach sechs Monaten Entwicklung zutage tritt, erfordert einen Rewrite. Nicht selten stellt sich heraus, dass ein Feature, an dem monatelang gearbeitet wurde, auf einer grundlegend falschen Annahme basierte und nun entweder komplett neu gedacht oder ersatzlos gestrichen werden muss.
Der dritte Faktor sind Iterationen, die aus fehlendem Verständnis entstehen. Ich meine nicht die guten Iterationen, also das schrittweise Verfeinern eines Produkts basierend auf echtem Feedback. Diese Iterationen sind wertvoll. Ich meine die unnötigen Iterationen: etwas bauen, feststellen dass es falsch ist, neu bauen. Nicht weil sich die Anforderungen geändert hätten, sondern weil sie von Anfang an nicht richtig verstanden wurden.
Diese Art von Iteration ist teuer. Sie kostet nicht nur die Zeit für den Rewrite selbst, sondern auch die Motivation des Teams, das seine Arbeit verworfen sieht. Sie kostet das Vertrauen der Stakeholder, die sich fragen, warum so lange an etwas gearbeitet wurde, das am Ende nicht brauchbar ist. Sie kostet die Gelegenheit, in dieser Zeit etwas Sinnvolles zu bauen.
All diese Faktoren haben eines gemeinsam: Sie entstehen nicht beim Coden. Sie entstehen davor. Oder genauer: Sie entstehen, weil das Davor zu kurz kam.
Erst verstehen, dann bauen
Amazon hat ein Prinzip, das „Working Backwards“ heißt. Die Idee: Bevor ein Produkt entwickelt wird, schreibt das Team die Pressemitteilung für das fertige Produkt. Nicht als Marketing-Übung, sondern als Denkwerkzeug. Die Pressemitteilung zwingt dazu, vom Ergebnis her zu denken. Was genau soll dieses Produkt für wen lösen? Warum sollte es jemanden interessieren? Welches Problem adressiert es? Und vor allem: Wie würde ein Kunde beschreiben, warum dieses Produkt sein Leben verbessert?
Das klingt nach zusätzlichem Aufwand. Es ist zusätzlicher Aufwand, am Anfang. Aber dieser Aufwand spart ein Vielfaches an Zeit später, weil er Missverständnisse aufdeckt, bevor sie in Code gegossen werden. Er zwingt dazu, Annahmen explizit zu machen. Er schafft ein gemeinsames Verständnis, bevor die erste Zeile Code geschrieben wird. Und er verhindert, dass Monate in ein Produkt fließen, das am Ende niemand braucht.
Die Werkzeuge dafür müssen nicht ausgefallen sein. Intensive Gespräche mit Fachleuten, bei denen wirklich zugehört wird, nicht nur, um Anforderungen aufzunehmen, sondern um das Problem zu verstehen. Workshops, in denen gemeinsam Prozesse durchgespielt werden, um zu sehen, wo die Komplexität wirklich liegt. Visualisierungen, die zeigen, wie verschiedene Beteiligte das Problem verstehen, und wo ihre mentalen Modelle auseinandergehen.
Es gibt formalisierte Methoden wie Event Storming, bei dem Fachleute und Entwicklerinnen und Entwickler gemeinsam den Ablauf von Geschäftsprozessen auf Post-its an der Wand durchspielen. Es gibt die strategischen Muster aus Domain-Driven Design (DDD), die dabei helfen, große Domänen in handhabbare Teile zu zerlegen. Diese und ähnliche Methoden können hilfreich sein, aber sie sind kein Selbstzweck. Man kann auch ohne sie gute Ergebnisse erzielen, wenn die Grundhaltung stimmt.
Denn das Wichtigste ist nicht die Methode, sondern die Bereitschaft, Zeit für Verständnis zu investieren, bevor der erste Commit entsteht. Die Bereitschaft, Fragen zu stellen, die vielleicht dumm klingen. Die Bereitschaft, Annahmen zu hinterfragen, auch wenn alle anderen sie für selbstverständlich halten. Die Bereitschaft, langsamer zu beginnen, um schneller ans Ziel zu kommen.
„Wir werden langsamer anfangen, damit wir schneller fertig werden“ klingt paradox. Aber es ist die Realität, die ich in Projekt nach Projekt beobachte. Die Projekte, die sich am Anfang Zeit nehmen, kommen am Ende schneller ans Ziel. Die Projekte, die sofort losrennen, verlieren sich in Sackgassen.
Der unterschätzte ROI von Verständnis
Die Investition in Problemverständnis hat einen Return on Investment (ROI). Er ist nur schwerer zu messen als die Kosten eines zusätzlichen Entwicklers oder die Lizenzgebühren eines Tools.
Dieser ROI zeigt sich in dem, was nicht passiert: Rewrites, die nicht nötig werden. Iterationen, die überflüssig sind. Missverständnisse, die nicht erst in der Produktion sichtbar werden. Features, die nicht gebaut werden, weil sich früh herausstellt, dass sie das eigentliche Problem gar nicht lösen würden. Architekturentscheidungen, die nicht revidiert werden müssen, weil sie von Anfang an auf einem soliden Verständnis basierten.
Er zeigt sich auch in dem, was passiert: Software, die das fachliche Problem tatsächlich löst – beim ersten Mal, nicht nach drei Iterationen. Teams, die das Warum verstehen und deshalb bessere Entscheidungen treffen können, auch ohne explizite Anweisungen. Architekturentscheidungen, die länger tragen, weil sie auf einem soliden Verständnis der Domäne basieren statt auf Vermutungen.
Das ist schwer zu verkaufen. Niemand bekommt einen Bonus für Fehler, die nicht passiert sind. Niemand wird befördert, weil ein Projekt ohne Umwege verlief. Die Erfolge des Verstehens sind unsichtbar. Sie manifestieren sich in der Abwesenheit von Problemen, nicht in der Anwesenheit von Lösungen. Das macht sie leicht zu übersehen und schwer zu würdigen.
Aber die Rechnung ist eindeutig: Die Zeit, die am Anfang in Verständnis fließt, kommt am Ende mehrfach zurück. Ein Tag, der in ein gutes Gespräch mit Fachleuten investiert wird, kann Wochen an Rewrite sparen. Ein Workshop, der Annahmen aufdeckt, kann verhindern, dass monatelang in die falsche Richtung entwickelt wird. Eine Frage, die zu Beginn gestellt wird, kann ein ganzes Projekt vor dem Scheitern bewahren.
Das bedeutet nicht, dass man Monate mit Analyse verbringen soll, bevor man anfängt. Es bedeutet, dass man die richtigen Fragen stellt, bevor man die Antworten in Code gießt. Es bedeutet, dass man zuhört, bevor man baut. Es bedeutet, dass man Verständnis als Teil der Arbeit begreift, nicht als Verzögerung.
Der wahre Engpass verdient Aufmerksamkeit
Softwareentwicklung ist nicht langsam, weil Programmieren langsam wäre. Sie ist langsam, weil Verstehen Zeit braucht – und weil wir diese Zeit oft nicht einräumen. Wir beschleunigen das Schreiben von Code, während der wahre Engpass unbeachtet bleibt.
Das ist kein Vorwurf an einzelne Personen. Der Druck, schnell Ergebnisse zu liefern, ist real. Die Ungeduld des Managements, das sichtbaren Fortschritt sehen will, ist verständlich. Code ist sichtbar; Verständnis ist es nicht. Es ist menschlich, das Sichtbare zu optimieren. Aber es ist auch kurzsichtig.
Die gute Nachricht: Dieser Engpass lässt sich adressieren. Nicht durch schnellere Tools, sondern durch die Bereitschaft, am Anfang eines Projekts in Verständnis zu investieren. Durch Gespräche mit Fachleuten, durch gemeinsames Durchdenken des Problems, durch das Aufdecken von Annahmen, bevor sie in Code gegossen werden. Durch die Einsicht, dass der schnellste Weg zum Ziel nicht immer der ist, der am schnellsten beginnt.
Das kostet Zeit. Es kostet aber weniger Zeit als die Alternative. Und es führt zu Software, die ihren Namen verdient: Software, die Probleme löst, statt neue zu schaffen.
Der wahre Engpass in der Softwareentwicklung ist nicht das Coden. Er war es nie. Wer das erkennt, hat den ersten Schritt gemacht, um schneller ans Ziel zu kommen – indem er langsamer anfängt. Ganz getreu dem berühmten Motto der Navy SEALs: „Slow is smooth and smooth is fast.“
(rme)
Entwicklung & Code
Super Productivity 18.0: Aufgaben automatisieren statt Handarbeit
Die Aufgabenverwaltung Super Productivity bringt in Version 18.0 ein regelbasiertes Automationssystem, konfigurierbare Issue-Provider, Deadline-Funktionen und Sicherheitsverbesserungen in der Electron-Basis. Das Open-Source-Projekt erscheint für Linux, macOS, Windows, Android und iOS.
Weiterlesen nach der Anzeige
Das neue Automatisierungssystem
Kern der neuen Version ist ein Automationssystem. Nutzer definieren Regeln, die bei bestimmten Auslösern automatisch Aktionen ausführen. Die Regeln unterstützen Titelabgleiche per Regex sowie eine Bedingung für Titelpräfixe („Titel beginnt mit“). Regex (Regular Expressions) sind musterbasierte Suchausdrücke, mit denen sich Titel präziser erfassen lassen als mit einfachen Textfiltern. Damit lassen sich typische Triage- oder Inbox-Abläufe automatisieren.
Die Anbindung an externe Systeme wie Jira, GitHub oder GitLab wird flexibler. Super Productivity erlaubt jetzt, das Polling-Intervall zu konfigurieren – also festzulegen, wie oft die App entfernte Dienste nach Änderungen abfragt. Importierte Vorgänge erhalten auf Wunsch automatisch Standard-Tags und Standard-Notizen. Neu sind außerdem eine Zwei-Wege-Feldsynchronisation und Erweiterungen unterstützen nun auch das Löschen entfernter Issues. Der Google-Calendar-Provider wird nun als mitgeliefertes Plugin eingebunden.
Aufgaben in der Task-Ansicht lassen sich jetzt nach Fälligkeit sortieren, gruppieren und filtern. Die Ansicht unterscheidet dabei Zeitfenster wie „heute“, „morgen“ oder „diese Woche“. Beim Ziehen einer Aufgabe in den Kalender zeigt eine Vorschau, wie lang der geplante Zeitblock wird. Unteraufgaben heben sich in Suchergebnissen visuell stärker ab.
Mobil: Wischgesten, besseres OAuth
Die Mobilversionen bekommen unter anderem ein Rechtswischen zum Abhaken, touchfreundlichere Kontextmenüs und vertikal begrenztes Drag-and-drop auf kleinen Displays. Android zeigt jetzt auch Erinnerungen aus der Hintergrundsynchronisation an.
Sicherheitsrelevant: Für Google-OAuth nutzt die App auf Mobilgeräten nun den Systembrowser statt einer eingebetteten WebView. Das entspricht der Empfehlung aus RFC 8252 für native Apps – ein externer Browser trennt Cookies und Seiteninhalt von der App. Google blockiert OAuth-Anfragen aus eingebetteten WebViews ohnehin.
Weiterlesen nach der Anzeige
Electron-Basis abgesichert
Auf dem Desktop aktiviert Super Productivity die webSecurity in Electron wieder und ergänzt einen Permission-Handler. Das ist kein kosmetischer Eingriff: Ohne webSecurity fällt die Same-Origin-Policy, und die App kann unsichere Inhalte domänenübergreifend ausführen. Electrons eigene Sicherheitsdokumentation warnt ausdrücklich davor, diese Einstellung in Produktionsanwendungen abzuschalten.
Das Preload-Skript wird nun mit esbuild gebündelt, was die Nutzung des Electron-Sandbox-Modus erleichtert. In sandboxierten Renderern gibt es keine vollständige Node.js-Umgebung; privilegierte Aufgaben laufen über IPC zum Hauptprozess. Preload-Skripte behalten dabei nur einen begrenzten Satz an Node- und Electron-APIs. Das verkleinert die Angriffsfläche.
Mehrere Sync-Fehler haben die Entwickler ebenfalls behoben: ein falscher „in sync“-Status bei Fehlern, der Verlust von Auth-Daten nach temporären Serverproblemen und Abstürze der Markdown-Synchronisation beim Anlegen von Unteraufgaben während einer Sync-Oszillation. Die Sync-Server-Bereitstellung validiert jetzt Caddyfile und Container.
Neues Theme, überarbeitetes Onboarding
Ferner bringt Version 18.0 ein minimalistisches Zen-Theme, ein überarbeitetes Onboarding mit Preset-Auswahl und lokalisierten Beispielaufgaben, klickbare Links in Aufgabentiteln, Tastenkürzel für Fett- und Kursivschrift in Kommentaren sowie ein größenverstellbares Always-on-top-Overlay. An Community-Plugins kommen eine Obsidian-Integration und ein StudyForge-Leaderboard hinzu.
Unter der Haube aktualisiert das Projekt Angular und Capacitor, behebt Speicherlecks und validiert die Formate von dueDay und deadlineDay beim Schreiben, um falsche Überfällig-Anzeigen zu verhindern. Der CSV-Export für Arbeitsprotokolle verarbeitet jetzt auch chinesische Zeichen korrekt.
Alle Informationen zu Super Productivity 18.0 finden sich in den Release Notes auf GitHub.
(fo)
Entwicklung & Code
Eclipse Theia: Community-Release 2026-02 integriert GitHub Copilot
EclipseSource hat verkündet, dass das neue Community-Release 2026-02 für Eclipse Theia fertig ist. Die Community-Releases der Plattform zum Erstellen von integrierten Entwicklungsumgebungen (IDEs) und Tools für das Web und den Desktop erscheinen vierteljährlich.
Weiterlesen nach der Anzeige
Sie legen im Gegensatz zu den meist monatlich erscheinenden regulären Releases den Fokus stärker auf Stabilität und Kompatibilität. In der neuen Version finden Entwicklerinnen und Entwickler Features aus den Theia-Versionen 1.67 und 1.68, die sich unter anderem um künstliche Intelligenz drehen.
Rund um KI: GitHub-Copilot-Integration und Agent Skills
Das neue Community-Release bietet eine GitHub-Copilot-Integration sowohl für die Theia IDE als auch für alle mit Theia AI gebauten Tools. Wer bereits ein bestehendes GitHub-Copilot-Abo besitzt, kann dieses direkt ohne zusätzliche API-Keys oder Abos einsetzen. Dieses Feature stammt aus Eclipse Theia 1.68, ebenso wie Agent Skills. Diese befinden sich noch im Alpha-Status und ermöglichen es, Agenten mit wiederverwendbaren Anweisungen und Domänenwissen zu versorgen.
(Bild: TechSolution/Adobe Stock)

Der betterCode() GenAI Summit zeigt am 11. Juni, welche KI-Tools für welche Aufgaben geeignet sind und wie die KI-Integration effizient funktioniert. Außerdem thematisiert er die Auswirkungen der KI-gestützten Softwareentwicklung auf die Security und die Arbeit von Entwicklungsteams.
Terminal Manager vereint mehrere Terminals
Der seit Eclipse Theia 1.67 verfügbare Terminal Manager hat nun auch in das Community-Release Einzug gehalten. Er erlaubt das Verwalten mehrerer Terminals aus einer einzigen Ansicht heraus, mit vertikaler und horizontaler Teilung, Tree-basierter Navigation sowie den Möglichkeiten der Terminal-Umbenennung und ihrer Anordnung per Drag & Drop. Der Terminal Manager lässt sich mit dem Setzen der Einstellung terminal.grouping.mode auf tree aktivieren.

Der Terminal Manager in Eclipse Theia zeigt mehrere Terminals an.
(Bild: EclipseSource)
Alle Neuerungen im Community-Release 2026-02 für Eclipse Theia führt der EclipseSource-Blog auf.
Weiterlesen nach der Anzeige
Lesen Sie auch
(mai)
Entwicklung & Code
KubeCon EU 2026: Kubernetes wird erwachsen – BSD, eBPF und mTLS
Vom 24. bis 26. März 2026 war Amsterdam zum zweiten Mal das Zentrum des (europäischen) Cloud-Native-Universums. Über 13.000 Teilnehmende hatten sich nach offizieller Verlautbarung der CNCF auf den Weg zur KubeCon EU in die niederländische Metropole gemacht, um die neuesten Infos von Kubernetes und Co. zu erfahren. Der erste Tag war – wenig überraschend – dem Thema KI gewidmet.
Weiterlesen nach der Anzeige
Im Frühjahr 2026 kann man keine Open-Source-Konferenz in Europa ausrichten, ohne das Thema (Daten-)Souveränität deutlich anzusprechen. In diesem Punkt hat die KubeCon EU jedoch Potenzial verspielt. Es gab im Vorfeld lediglich eine kleine Satelliten-Veranstaltung zu dem Thema. Zwar stellten europäische Kubernetes-Anwender wie der IT-Dienstleister der Bundeswehr BWI oder die französische Eisenbahngesellschaft SNCF ihre Cloud-Native-Reise auf der großen Hauptbühne vor, es bleibt aber der Eindruck einer eher stiefmütterlichen Behandlung des Themas zurück. Die Thesen: „Global zusammenarbeiten und lokal installieren“ und „You can always fork“ sind nur bedingt hilfreich.

Die auf Developer Experience (DX) und Platform Engineering spezialisierte CLC-Konferenz findet vom 11. bis 12. November 2026 in Mannheim statt. Beim Call for Proposals werden bis zum 21. April Vorschläge für Workshops und Talks gesucht – vor allem Praxisberichte.
Weitere Informationen finden sich auf derCLC-Website.
Neue Laufzeiten und Plattformen: Lima, urunc und die BSD-Welt
Obwohl Kubernetes bereits 12 Jahre existiert und sich zu einem Standard gemausert hat, sind noch wichtige Arbeiten an fundamentalen Bauteilen notwendig. Technisch ist die Container-Orchestrierung zu weiten Teilen mit Linux verknüpft. Das betrifft sowohl die darunterliegende Infrastruktur als auch die Applikationen in den Containern. Bei Letzteren gibt es gute Neuigkeiten für die BSD-Freunde und auch für macOS-Anwender: das Projekt Lima (Linux Machines). Dieses ist schon seit 2022 Teil der CNCF-Familie. Das ursprüngliche Ziel war eine bessere Unterstützung von Containern auf macOS-Rechnern. Inzwischen ist es unter anderem auch für Linux verfügbar und fokussiert sich auf leichtgewichtige virtuelle Maschinen.
Im Vorfeld der KubeCon EU 2026 ist Version 2.1 des Projekts erschienen, die nun auch macOS und FreeBSD als Gäste unterstützt. Das Feature ist allerdings noch im experimentellen Stadium. Anwender können mit Lima leichtgewichtige virtuelle Maschinen nutzen – vergleichbar mit Containern. Letztere und auch Kubernetes-Pods lassen sich ebenfalls mit Lima verwalten. In der Dokumentation finden sich Beispiele für K3s, k0s und RKE2. Alternativ gibt es aber noch weitere Projekte wie KubeVirt, die ebenfalls virtuelle Maschinen und Container gleichwertig behandeln.
Neuigkeiten wurden auch für OpenBSD verkündet. Das Projekt urunc liefert eine weitere Laufzeitumgebung für Container, die auf das Unikernel-Konzept zurückgreift. Daraus leitet sich auch der Name des Projekts ab. Das runc für Unikernels: urunc. Anstatt eines Prozesses in einem Container startet hier quasi ein kleiner Betriebssystemkern in abgeschotteter Umgebung. Das ist mit einer speziellen virtuellen Maschine vergleichbar und bereits von den Kata-Containern und Nabla bekannt. Das urunc-Projekt will einen speziellen Unikernel liefern, der mit BSD kompatibel ist. Dazu kommt ein minimalistisches Basissystem, um eine Anwendung ausführen zu können. Damit entfällt das Portieren von BSD-Anwendungen für Container. Sie müssen nicht mehr Linux-kompatibel sein. Es ist lediglich der Mehraufwand zum Verwalten der zusätzlichen Laufzeitumgebung urunc zu erbringen. Seit knapp einem Jahr ist das Projekt Teil der CNCF-Familie.
Weiterlesen nach der Anzeige
mTLS ohne Sidecars: Cilium integriert ztunnel
Ein wichtiges Thema im Netzwerkbereich der Container ist noch immer mTLS (mutual Transport Layer Security). Das Schlüsselwort dabei lautet CNI (Container Network Interface). Eine bekannte Größe hier ist Cilium. Das Projekt startete vor zehn Jahren und steht seit 2021 unter der Obhut der CNCF. Seit Version 1.19 beherrscht Cilium auch mTLS, und zwar ohne die Verwendung sogenannter Sidecars oder die Notwendigkeit zur Anpassung der Container-Anwendungen. Ein wesentlicher Baustein ist eBPF. Das Format erlaubt einerseits umfassende Einblicke in die Vorgänge in Containern und Pods, darüber hinaus lassen sich damit Sicherheitsrichtlinien implementieren und durchsetzen.
Der andere Baustein ist ztunnel, das man vom Service Mesh Istio kennt. Im sogenannten Ambient-Modus hat hier jeder Knoten einen kleinen Proxy, der sich um die TLS-Vorgänge kümmert. Diese in Rust geschriebene Komponente hat Cilium nun ebenfalls integriert. Damit ließen sich ein paar bekannte Probleme aus dem eBPF-Ansatz lösen. Die Authentisierung ist spezifisch für jede Sitzung und nicht nur per Knoten. Es gehen nun keine initialen Pakete beim Handschlag verloren. Außerdem steigt der Durchsatz insgesamt, da ztunnel größere Datenmengen zusammenfasst und verschlüsselt. Das Loslegen ist recht einfach und erfolgt in drei Schritten. Zunächst muss man das ztunnel-Feature in den Helm-Charts für Cilium einschalten. Danach gilt es den ztunnel auszurollen. Am Schluss muss man das Label io.cilium/mtls-enabled=true auf den entsprechenden Namensraum setzen. Alle Pods, die dann dort landen, verwenden automatisch mTLS.
Resümee und der Blick nach vorn
Nach drei Tagen KubeCon-Konferenz lässt sich festhalten, dass es zwar auch im 12. Jahr noch sehr viel Energie und Leidenschaft für Kubernetes und Co. gibt, allerdings auch noch recht grundlegende Probleme in verschiedenen Bereichen zu lösen sind – und das auch ganz ohne den KI-Hype.
Angesichts weiter wachsender Besucherzahlen muss die CNCF die Planung ihrer Hausmessen entsprechend langfristig vorbereiten: Die nächste KubeCon EU findet vom 15. bis 18. März 2027 in Barcelona statt. Auch der Termin für 2028 steht bereits fest: Berlin soll vom 24. bis 27. April zum Mittelpunkt des Cloud-Native-Universums werden.
(map)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Künstliche Intelligenzvor 1 Monat
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 4 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
-
Apps & Mobile Entwicklungvor 3 MonatenX3D² bestätigt: Der AMD Ryzen 9 9950X3D2 mit doppeltem 3D V-Cache kommt!
