Entwicklung & Code
software-architektur.tv: Subjektives Schätzen, beliebige Deadlines?
Schätzen gehört zum Alltag vieler Projekte – doch jede Schätzung ist immer spezifisch für ein Team. Kann man Aufwand objektiv bewerten oder gar „absolut“ schätzen? Und wie sollten Teams mit den Deadlines umgehen, deren Name schon suggeriert, dass sie über Leben und Tod eines Projekts entscheiden?
Weiterlesen nach der Anzeige
In dieser Episode beleuchtet Eberhard Wolff den Umgang mit Schätzungen und Terminen aus unterschiedlichen Perspektiven: Wie viel Objektivität ist wirklich möglich, welche psychologischen und organisatorischen Faktoren beeinflussen die Teams – und was bedeutet das für den realistischen Umgang mit Deadlines?
Lisa Maria Schäfer malt dieses Mal keine Sketchnotes.
Livestream am 14. November
Die Ausstrahlung findet am Freitag, 14. November 2025, live von 13 bis 14 Uhr statt. Die Folge steht im Anschluss als Aufzeichnung bereit. Während des Livestreams können Interessierte Fragen via Twitch-Chat, YouTube-Chat oder anonym über das Formular auf der Videocast-Seite einbringen.
software-architektur.tv ist ein Videocast von Eberhard Wolff, Blogger sowie Podcaster auf iX und bekannter Softwarearchitekt, der als Head of Architecture bei SWAGLab arbeitet. Zum Team gehören außerdem Lisa Maria Schäfer (Socreatory) und Ralf D. Müller (DB Systel). Seit Juni 2020 sind über 250 Folgen entstanden, die unterschiedliche Bereiche der Softwarearchitektur beleuchten – mal mit Gästen, mal Wolff, Schäfer oder Müller solo. Seit mittlerweile mehr als zwei Jahren bindet iX (heise Developer) die über YouTube gestreamten Episoden im Online-Channel ein, sodass Zuschauer dem Videocast aus den Heise Medien heraus folgen können.
Weitere Informationen zur Folge finden sich auf der Videocast-Seite.
Weiterlesen nach der Anzeige
(map)
Entwicklung & Code
Docker Desktop 4.50: KI-Integration und kostenlose Debug-Tools für Entwickler
Das Unternehmen Docker, Inc. hat Version 4.50 von Docker Desktop veröffentlicht. Die Entwicklungsumgebung für Container-Anwendungen liefert unter anderem einige auf Developer zugeschnittene Neuerungen, darunter kostenfreie Debug-Funktionen, erweiterte KI-Features für das Bauen von Anwendungen und mehr Kontrolle bei unternehmensweiten Sicherheitsrichtlinien.
Weiterlesen nach der Anzeige
Debugging und IDE-Integration für alle Nutzer
Docker Debug – bisher nur in kostenpflichtigen Abonnements verfügbar – steht ab sofort allen Nutzern kostenfrei parat und soll sich noch besser in VSCode, Cursor und vergleichbare IDEs integrieren. Mit dem Dockerfile-Debugger in der VSCode-Extension beispielsweise können Entwicklerinnen und Entwickler Build-Prozesse direkt im Editor Schritt für Schritt durchlaufen. Windows-Nutzer sollen von höherer Stabilität bei der WSL2-Integration profitieren.
Um den Prozess von den ersten Entwicklungsschritten bis zum produktiven Bereitstellen von Anwendungen zu beschleunigen, steht mit Compose-to-Kubernetes eine Funktion bereit, die lokale Multi-Service-Anwendungen in produktionsreife Kubernetes-Deployments übersetzt. Ergänzend unterstützt das cagent-Toolkit beim Entwickeln von Agenten. Mit cagent lassen sich spezialisierte Agenten bauen und betreiben, die über individuelle Kenntnisse und Fähigkeiten verfügen. Dank Support für MCP-Server lassen sich dabei auch externe Tools und Dienste einbinden.
MCP-Integration mit über 270 Servern
Über das Docker MCP Toolkit erhalten Entwicklerinnen und Entwickler nun Zugriff auf über 270 MCP-Server im Docker MCP Catalog, darunter mehr als 60 Remote-Server mit integrierter OAuth-Authentifizierung. Auch One-Click-Verbindungen für Claude Code und Codex sind verfügbar. Die OAuth-Integration soll die Credential-Verwaltung vereinfachen, Services wie Notion und Linear lassen sich direkt anbinden, ohne Token manuell verwalten oder Config-Files pflegen zu müssen.
Weiterlesen nach der Anzeige
Docker führt zudem Dynamic MCPs ein, die es KI-Agenten ermöglichen, Tools autonom zu entdecken, zu konfigurieren und zu kombinieren. Die Funktionen Smart Search und Tool Composition erlauben den Agenten, den MCP-Katalog zu durchsuchen, die benötigten Tools zu laden und Code für Multi-Tool-Workflows zu generieren. Die Ausführung erfolgt in einer abgeschirmten Umgebung, die zu reduzierter Token-Nutzung und weniger Context-Bloat beitragen soll.
Security-Funktionen ohne Workflow-Unterbrechung
Mit Docker Desktop 4.50 sollen sich auch das Umsetzen von Sicherheitsmaßnahmen sowie die Einhaltung organisationsübergreifender Security Policies nahtlos in die Entwicklungsprozesse integrieren. Administratoren können unter anderem Proxy-Einstellungen via macOS Configuration Profiles zentral vorgeben sowie PAC-Files (Proxy Auto-Configuration) und Embedded PAC Scripts über Installer-Flags für macOS und Windows spezifizieren. Ein schnellerer Release-Zyklus mit kontinuierlichen Updates soll darüber hinaus gewährleisten, dass Entwickler automatisch die neueste stabile Version mit Sicherheits-Patches erhalten.
Die Docker CLI verarbeitet nun auch Zertifikate von Certificate Authorities (CAs), die negative Seriennummern verwenden. Zwar schreibt der X.509-Standard positive Seriennummern vor, einige Enterprise-PKI-Systeme liefern dennoch nicht regelkonforme Zertifikate. In diesen Fällen mussten Organisationen bisher zwischen dem Einhalten ihrer CA-Konfiguration oder dem Erhalt der Docker-Kompatibilität entscheiden.
Weitergehende Informationen
Docker Desktop 4.50 steht in verschiedenen Versionen für Windows, macOS und Linux zum Download bereit. Weitergehende Informationen und mehr Details zu den Neuerungen finden sich in den Release Notes und im Docker-Blog.
(map)
Entwicklung & Code
Databricks: Wie KI-Agenten den Sprung in den Produktivbetrieb schaffen sollen
Databricks will Unternehmen den Schritt vom KI-Prototyp zur produktiven Anwendung erleichtern. Auf der Data+AI World Tour in München präsentierte das Unternehmen neue Werkzeuge, mit denen KI-Agenten künftig sicherer, kontrollierbarer und wirtschaftlicher betrieben werden sollen.
Weiterlesen nach der Anzeige
Im Fokus standen die neue Plattform Agent Bricks, mehrere Erweiterungen der Data Intelligence Platform sowie eine direkte Integration mit der SAP Business Data Cloud. Damit können SAP-Daten jetzt live und bidirektional über Delta Sharing in Databricks eingebunden werden – ohne Replikation. Unternehmen sollen so Finanz-, Produktions- oder Lieferkettendaten direkt mit externen Quellen kombinieren können, etwa für Prognosen oder Risikoanalysen.
Agent Bricks: KI-Agenten in Serie
Dass Firmen beim Übergang von KI-Prototypen in den Regelbetrieb scheitern, ist aus Sicht von Databricks gar nicht so sehr ein Problem der Technik als meist eher der Kosten, fehlender Governance und Datenqualität. Genau diese Punkte will das Unternehmen mit seiner neuen Plattformstrategie adressieren.
Agent Bricks soll dafür die Entwicklung und den produktiven Betrieb von KI-Agenten standardisieren. Die Plattform bietet eine einheitliche Umgebung, um Agenten zu erstellen, zu evaluieren und zu orchestrieren – unabhängig von Modell oder Framework. Drei Ansätze sollen unterschiedliche Nutzergruppen ansprechen:
- Agentic AI Functions: Für Data Engineers, die KI-gestützte Transformationen wie Dokumenten- oder Log-Analysen direkt in bestehende Datenpipelines einbauen möchten.
- Declarative Agents: Ein Low-Code-Ansatz, bei dem Anwender Agenten mithilfe von natürlicher Sprache und Vorlagen definieren und testen können.
- Custom-Code Agents: Für Entwickler, die Frameworks wie LangChain oder Modelle wie GPT-5, Claude, Llama oder Gemini nutzen wollen – auf der Infrastruktur von Databricks.
Auch die in München vorgestellten Neuerungen zielen vor allem auf Qualität, Governance und Orchestrierung ab:
- ai_parse_document: Eine Funktion, die strukturierte Informationen aus PDFs und unstrukturierten Texten extrahiert. Damit lassen sich etwa Vertragsinhalte oder technische Berichte automatisiert analysieren.
- MLflow 3.0 für Agent Observability: Erweitert das Open-Source-Tool MLflow um Funktionen zur Beobachtung und Bewertung von Agenten. Jede Interaktion wird protokolliert, um Performance und Qualität nachvollziehbar zu machen.
- AI Gateway und MCP-Katalog: Bieten Kontrolle und Auditierbarkeit für externe Modelle und Tools. Unternehmen können API-Aufrufe zentral verwalten, limitieren und abrechnen – ein wichtiger Schritt in Richtung Kosten- und Compliance-Transparenz.
- Multi-Agent Supervisor: Ermöglicht die Koordination mehrerer spezialisierter Agenten, um komplexe Geschäftsprozesse automatisiert abzubilden.
Weiterlesen nach der Anzeige
Datenqualität im Mittelpunkt
Databricks betonte in München erneut seine strategische Linie: erst die Daten, dann die Intelligenz. Die Data Intelligence Platform, eine Weiterentwicklung des Lakehouse-Konzepts, soll ein robustes Fundament für vertrauenswürdige KI schaffen. Zentral ist dabei der Unity Catalog, der Datenquellen, Zugriffsrechte und Herkunft (Lineage) verwaltet.
„Wir sprechen von Governance by Design – Datenmanagement darf keine nachträgliche Flickarbeit sein“, sagt Databricks-Manager Matthias Ingerfeld. Mit Agent Bricks und der SAP-Integration unterstreicht Databricks diesen Ansatz: Der Erfolg von Unternehmens-KI hängt weniger von der Größe eines Modells ab als von einer stabilen, kontrollierten Infrastruktur.
Während Anbieter wie Microsoft und SAP ihre Stärken in konkreten Anwendungsszenarien ausspielen und OpenAI auf die Weiterentwicklung großer Sprachmodelle setzt, setzt Databricks damit einen anderen Schwerpunkt: offene, herstellerneutrale Daten- und Governance-Architektur. Mit Wettbewerbern wie Snowflake, ServiceNow und Microsoft (Azure Fabric) konkurriert Databricks so um dieselbe Kundengruppe – Unternehmen, die KI systematisch und skalierbar in ihre Datenlandschaften integrieren wollen. Ob dieser Fokus in der Praxis zum Durchbruch führt, bleibt abzuwarten.
(axk)
Entwicklung & Code
Uno Platform Studio 2.0 und Uno Platform 6.4: KI-Assistent und .NET-10.0-Support
Uno Platform hat Version 6.4 seines gleichnamigen quelloffenen Cross-Platform-GUI-Frameworks veröffentlicht. Es kann mit den kürzlich erschienenen Microsoft-Technologien .NET 10.0 und Visual Studio 2026 umgehen und bringt weitere Updates für die Darstellung, das Skia-Rendering und mehr. Die neue Version des kommerziellen Angebots Uno Platform Studio 2.0 ist ebenfalls erschienen und enthält nun den KI-Assistenten Hot Design Agent.
Weiterlesen nach der Anzeige
Uno Platform 6.4: Support für .NET 10.0 und VS 2026
Wie das Entwicklungsteam auf dem Uno-Platform-Blog mitteilt, ist die neue Version dank der Zusammenarbeit mit Microsoft im Rahmen des zweiten Release Candidate bereits mit .NET 10.0 kompatibel. Auch mit der IDE Visual Studio 2026 kann Uno Platform umgehen und so das neue .slnx-Format nutzen.
Darüber hinaus bringt das Release Neuerungen unter anderem für die Skia-Performance und die Darstellung von Fenstern. Neu ist auch der Uno Platform Status Indicator: Dieser zeigt auf einen Blick an, wie es um den internen Status der Uno-Entwicklungsumgebung bestellt ist, was SDKs, Restores und lokale Server betrifft.

Uno Platform 6.4 präsentiert den neuen Status-Indikator.
(Bild: Uno Platform)
Künstliche Intelligenz in Uno Platform Studio 2.0
Weiterlesen nach der Anzeige
Uno Platform Studio 2.0 ist zeitgleich erschienen und bringt einige KI-Features mit, darunter den Hot Design Agent. Dieser KI-Assistent soll User Interfaces in Echtzeit erstellen und besitzt während der laufenden Preview-Phase keine Beschränkung der Credits. Die Verwendung des Hot Design Agent setzt eine Pro-Lizenz für Uno Platform Studio voraus.
Der neue Remote-MCP-Agent namens Uno Platform MCP bindet KI-Agenten an die Uno Platform Docs an, sodass sie Zugriff auf Dokumentation, APIs und Best Practices erhalten. Ein weiteres neues KI-Feature ist Uno Platform App MCP: eine Toolsammlung für KI-Agenten, wodurch diese eine laufende App einsehen sowie darin klicken und tippen können. Die MCP-Features sind auch in der kostenfreien Community-Edition von Uno Platform Studio verfügbar, wobei App MCP in der Pro-Edition weitergehende Kontext-Tools mitbringt.
Weitere Informationen zu den Editionen von Uno Platform Studio lassen sich den FAQ entnehmen. Die Pro-Edition kostet pro Lizenz und Monat 39 US-Dollar, jedoch können Open-Source-Maintainer, Lehrkräfte sowie Schülerinnen und Schüler unter Umständen eine Lizenz für die Pro-Edition erhalten. Uno Platform bleibt laut dem Anbieter ein Open-Source-Projekt unter Apache-2.0-Lizenz.
(mai)
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 MonatenAdobe Firefly Boards › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Datenschutz & Sicherheitvor 2 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
UX/UI & Webdesignvor 4 WochenIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
