Connect with us

Entwicklung & Code

10 Jahre CNCF: Neuigkeiten von Kubernetes – Cloud-Native und KI wachsen zusammen


Vom 11. bis 14. November 2025 ist Atlanta in den USA das Zentrum von Kubernetes und Cloud-Native. Auf ihrer Hausmesse KubeCon + CloudNativeCon NA feiert die Cloud Native Computing Foundation (CNCF) ihr 10. Jubiläum. Die Veranstaltung ist wie immer vollgepackt mit Neuerungen aus der Welt von Cloud-Native.

Weiterlesen nach der Anzeige

Das Flaggschiff-Projekt der CNCF, Kubernetes, wartet ebenfalls mit Neuerungen auf. Seit wenigen Tagen lässt sich ein Upgrade der Control-Plane auf Unterversionsebenen rückgängig machen. Startend mit Version 1.33 können Administratoren beispielsweise von 1.35 auf 1.34 zurückgehen, falls es Probleme mit der neueren Version gibt. Technisch funktioniert das über einen kleinen Trick: eine emulierte Version. Nach dem Upgrade der Binärdateien verhalten sich diese zunächst wie die alte Version. Sie emulieren also die Vorgänger, es ist aber neuer Code. Kommt es zu Problemen, ist der Rücktausch der Binärdateien einfach. Die emulierte Version hatte sich nicht geändert (siehe Abbildung 1).



Neue Up- und Downgrade-Optionen für Kubernetes (KEP-4330)

(Bild: Google)

Doch damit nicht genug. Es lassen sich nun auch Versionen im Upgrade-Prozess überspringen. Wollte man bislang von Version 1.33 auf 1.35 wechseln, dann war der „Umweg“ über 1.34 nötig. Dieser entfällt jetzt. Beide Änderungen sind Teil desselben KEPs (Kubernetes Enhancement Proposals).

Helm, der defacto-Standard als Paketmanager für Kubernetes, ist nun in Version 4.0 verfügbar. Dies ist die erste neue Hauptversion seit sechs Jahren. Helm war eines der ersten Projekte unter der Schirmherrschaft der CNCF und ist seit Juni 2018 dabei. In Version 4 haben die Helm-Entwickler das SDK (Software Development Kit) überarbeitet. Es verwendet nun die Logging-Schnittstelle von Go und kann auch die neuesten Funktionen der aktuellen Kubernetes-Version nutzen. Außerdem ist dabei ein neues Plug-in-System. Anwender können nun auch WASM (Web Assembly) einsetzen. Damit sollten die Plug-ins auf einfache Weise plattformübergreifend verwendbar sein.

Auch unter der Motorhaube fanden große Umbauten statt. Da ist natürlich das Entfernen von altem Ballast und die Verwendung neuester Funktionen. Sichtbar für Anwender sind neue Chart-Features. Helm fährt dabei zweigleisig. Über eine Versionierung (v3) lassen sich aber neue Funktionen ausprobieren. Die bisherigen Charts (v2) funktionieren weiter wie gewohnt. Im Gespräch mit iX erklärt Helm-Entwickler Matt Butcher, dass Stabilität und Kompatibilität von Anfang an wichtige Aspekte von Helm waren. Mit der Versionierung der Charts sei nun Innovation ohne Gefährdung der gesetzten Standards möglich.

Weiterlesen nach der Anzeige

Natürlich ist auch auf dieser Konferenz Künstliche Intelligenz (KI) omnipräsent. Laut Jonathan Bryce (seit Juni 2025 Chef der CNCF) bleibt das auch auf absehbare Zeit so. Cloud-Native und KI wachsen zusammen. Ein jüngst erschienener Bericht sagt, dass sich 41 Prozent der professionellen KI-Entwickler als Cloud-Native bezeichnen. In Zahlen ausgedrückt sind das über sieben Millionen Leute. Der prozentuale Anteil von KI auf Kubernetes-Clustern wächst ebenfalls. Laut CNCF lag er im August 2025 bereits bei 60 Prozent. Jonathan Bryce gibt das neue Ziel vor und sagt: In den vergangenen 10 Jahren war es Aufgabe der CNCF, die Entwicklung von Kubernetes und Co. zu fördern und zu unterstützen. Die nächsten 10 Jahre gilt es, das Gleiche für das Fundament für KI zu tun. Dabei stehen nicht zwingend KI-Agenten im Fokus. Es geht vielmehr darum, die Infrastrukturen für Training und Inferenz aufzubauen, die als Fundament für die KI-Agenten erforderlich sind.

Was gibt es Neues in der CNCF-KI-Welt? Den Anfang macht natürlich Kubernetes. DRA (Dynamic Resource Allocator) ist mit Kubernetes 1.34 für alle verfügbar. Er behandelt GPUs oder auch FPGAs ebenso wie CPUs und ist damit sofort für KI-Anwendungen geeignet. Neu ist außerdem die „Agent Sandbox„. Das Projekt will das Verwalten von einzelnen KI-Applikationen als auch Agenten vereinfachen. Dazu gehört die Entwicklung von CRDs (Customer Resource Definitions) und Kontrollern für Kubernetes. Das Projekt ist noch sehr jung, die ersten Code-Zeilen stammen vom August 2025.

Gemeinsam mit der CNCF hat die Kubernetes-Community ein KI-Konformitätsprogramm entwickelt. Das Kubernetes-AI-Conformance-Programm definiert Standards und Anforderungen, um die entsprechenden Anwendungen stabil und auch interoperabel betreiben zu können. Dazu gehört beispielsweise die Unterstützung der APIs von DRA und des Kubernetes Gateway. Das Konformitätsprogramm ist ein Prozess, der nicht kostenlos ist und idealerweise am Ende ein Zertifikat übergibt.

Unter den weiteren Neuigkeiten auf der KubeCon findet sich die agentregistry von Solo.io. Die Idee dahinter ist, eine zentrale Registratur für alle KI-Artefakte zu schaffen, beispielsweise MCP-Server (Model Context Protocol), Agenten oder schlichte Informationen. Es gibt damit einen singulären Punkt für die Pflege, Verwaltung und insbesondere auch zum Implementieren von Richtlinien und Sicherheit. Das Projekt steht noch ganz am Anfang und ist nur wenige Wochen alt.



Mit der agentregistry will Solo.io eine zentrale Registratur für alle KI-Artefakte schaffen,

(Bild: Solo.io )

Auch alteingesessene Softwarehersteller sind längst auf den KI-Zug aufgesprungen, beispielsweise Oracle mit der AI Datenbank 26ai. Unter Verwendung von LLMs und MCP-Servern lassen sich Abfragen über KI-Agenten-basierte Arbeitsabläufe ausbauen. Damit sollen sich die Ergebnisse korrekter oder umfangreicher gestalten und bei Bedarf sogar zusätzliche Daten anfordern lassen. Anwenderinnen und Anwender können sogar KI-Agenten innerhalb der Datenbank definieren und ausführen. Der Vorgang lässt sich direkt über die REST-Schnittstelle oder über MCP-Server starten.

Oracle hat zudem eine KI-Agent-Spezifikation entwickelt, die den Einsatz mit verschiedensten Rahmenwerken und Arbeitsabläufen der unterschiedlichen Mitspieler in diesem Umfeld ermöglichen soll. Derzeit sieht der Vorstoß nach einer alleinigen Oracle-Initiative aus. Mit kagent gibt es allerdings ein CNCF-Projekt, das eine ähnliche Ausrichtung hat. In diesem Fall ist Kubernetes als Fundament und Rahmenwerk festgelegt.


(map)



Source link

Entwicklung & Code

Docker Desktop 4.50: KI-Integration und kostenlose Debug-Tools für Entwickler


Das Unternehmen Docker, Inc. hat Version 4.50 von Docker Desktop veröffentlicht. Die Entwicklungsumgebung für Container-Anwendungen liefert unter anderem einige auf Developer zugeschnittene Neuerungen, darunter kostenfreie Debug-Funktionen, erweiterte KI-Features für das Bauen von Anwendungen und mehr Kontrolle bei unternehmensweiten Sicherheitsrichtlinien.

Weiterlesen nach der Anzeige

Docker Debug – bisher nur in kostenpflichtigen Abonnements verfügbar – steht ab sofort allen Nutzern kostenfrei parat und soll sich noch besser in VSCode, Cursor und vergleichbare IDEs integrieren. Mit dem Dockerfile-Debugger in der VSCode-Extension beispielsweise können Entwicklerinnen und Entwickler Build-Prozesse direkt im Editor Schritt für Schritt durchlaufen. Windows-Nutzer sollen von höherer Stabilität bei der WSL2-Integration profitieren.

Um den Prozess von den ersten Entwicklungsschritten bis zum produktiven Bereitstellen von Anwendungen zu beschleunigen, steht mit Compose-to-Kubernetes eine Funktion bereit, die lokale Multi-Service-Anwendungen in produktionsreife Kubernetes-Deployments übersetzt. Ergänzend unterstützt das cagent-Toolkit beim Entwickeln von Agenten. Mit cagent lassen sich spezialisierte Agenten bauen und betreiben, die über individuelle Kenntnisse und Fähigkeiten verfügen. Dank Support für MCP-Server lassen sich dabei auch externe Tools und Dienste einbinden.

Über das Docker MCP Toolkit erhalten Entwicklerinnen und Entwickler nun Zugriff auf über 270 MCP-Server im Docker MCP Catalog, darunter mehr als 60 Remote-Server mit integrierter OAuth-Authentifizierung. Auch One-Click-Verbindungen für Claude Code und Codex sind verfügbar. Die OAuth-Integration soll die Credential-Verwaltung vereinfachen, Services wie Notion und Linear lassen sich direkt anbinden, ohne Token manuell verwalten oder Config-Files pflegen zu müssen.

Weiterlesen nach der Anzeige

Docker führt zudem Dynamic MCPs ein, die es KI-Agenten ermöglichen, Tools autonom zu entdecken, zu konfigurieren und zu kombinieren. Die Funktionen Smart Search und Tool Composition erlauben den Agenten, den MCP-Katalog zu durchsuchen, die benötigten Tools zu laden und Code für Multi-Tool-Workflows zu generieren. Die Ausführung erfolgt in einer abgeschirmten Umgebung, die zu reduzierter Token-Nutzung und weniger Context-Bloat beitragen soll.

Mit Docker Desktop 4.50 sollen sich auch das Umsetzen von Sicherheitsmaßnahmen sowie die Einhaltung organisationsübergreifender Security Policies nahtlos in die Entwicklungsprozesse integrieren. Administratoren können unter anderem Proxy-Einstellungen via macOS Configuration Profiles zentral vorgeben sowie PAC-Files (Proxy Auto-Configuration) und Embedded PAC Scripts über Installer-Flags für macOS und Windows spezifizieren. Ein schnellerer Release-Zyklus mit kontinuierlichen Updates soll darüber hinaus gewährleisten, dass Entwickler automatisch die neueste stabile Version mit Sicherheits-Patches erhalten.

Die Docker CLI verarbeitet nun auch Zertifikate von Certificate Authorities (CAs), die negative Seriennummern verwenden. Zwar schreibt der X.509-Standard positive Seriennummern vor, einige Enterprise-PKI-Systeme liefern dennoch nicht regelkonforme Zertifikate. In diesen Fällen mussten Organisationen bisher zwischen dem Einhalten ihrer CA-Konfiguration oder dem Erhalt der Docker-Kompatibilität entscheiden.

Docker Desktop 4.50 steht in verschiedenen Versionen für Windows, macOS und Linux zum Download bereit. Weitergehende Informationen und mehr Details zu den Neuerungen finden sich in den Release Notes und im Docker-Blog.


(map)



Source link

Weiterlesen

Entwicklung & Code

software-architektur.tv: Subjektives Schätzen, beliebige Deadlines?


Schätzen gehört zum Alltag vieler Projekte – doch jede Schätzung ist immer spezifisch für ein Team. Kann man Aufwand objektiv bewerten oder gar „absolut“ schätzen? Und wie sollten Teams mit den Deadlines umgehen, deren Name schon suggeriert, dass sie über Leben und Tod eines Projekts entscheiden?

Weiterlesen nach der Anzeige

In dieser Episode beleuchtet Eberhard Wolff den Umgang mit Schätzungen und Terminen aus unterschiedlichen Perspektiven: Wie viel Objektivität ist wirklich möglich, welche psychologischen und organisatorischen Faktoren beeinflussen die Teams – und was bedeutet das für den realistischen Umgang mit Deadlines?

Lisa Maria Schäfer malt dieses Mal keine Sketchnotes.

Die Ausstrahlung findet am Freitag, 14. November 2025, live von 13 bis 14 Uhr statt. Die Folge steht im Anschluss als Aufzeichnung bereit. Während des Livestreams können Interessierte Fragen via Twitch-Chat, YouTube-Chat oder anonym über das Formular auf der Videocast-Seite einbringen.

software-architektur.tv ist ein Videocast von Eberhard Wolff, Blogger sowie Podcaster auf iX und bekannter Softwarearchitekt, der als Head of Architecture bei SWAGLab arbeitet. Zum Team gehören außerdem Lisa Maria Schäfer (Socreatory) und Ralf D. Müller (DB Systel). Seit Juni 2020 sind über 250 Folgen entstanden, die unterschiedliche Bereiche der Softwarearchitektur beleuchten – mal mit Gästen, mal Wolff, Schäfer oder Müller solo. Seit mittlerweile mehr als zwei Jahren bindet iX (heise Developer) die über YouTube gestreamten Episoden im Online-Channel ein, sodass Zuschauer dem Videocast aus den Heise Medien heraus folgen können.

Weitere Informationen zur Folge finden sich auf der Videocast-Seite.

Weiterlesen nach der Anzeige


(map)



Source link

Weiterlesen

Entwicklung & Code

Databricks: Wie KI-Agenten den Sprung in den Produktivbetrieb schaffen sollen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Databricks will Unternehmen den Schritt vom KI-Prototyp zur produktiven Anwendung erleichtern. Auf der Data+AI World Tour in München präsentierte das Unternehmen neue Werkzeuge, mit denen KI-Agenten künftig sicherer, kontrollierbarer und wirtschaftlicher betrieben werden sollen.

Weiterlesen nach der Anzeige

Im Fokus standen die neue Plattform Agent Bricks, mehrere Erweiterungen der Data Intelligence Platform sowie eine direkte Integration mit der SAP Business Data Cloud. Damit können SAP-Daten jetzt live und bidirektional über Delta Sharing in Databricks eingebunden werden – ohne Replikation. Unternehmen sollen so Finanz-, Produktions- oder Lieferkettendaten direkt mit externen Quellen kombinieren können, etwa für Prognosen oder Risikoanalysen.

Dass Firmen beim Übergang von KI-Prototypen in den Regelbetrieb scheitern, ist aus Sicht von Databricks gar nicht so sehr ein Problem der Technik als meist eher der Kosten, fehlender Governance und Datenqualität. Genau diese Punkte will das Unternehmen mit seiner neuen Plattformstrategie adressieren.

Agent Bricks soll dafür die Entwicklung und den produktiven Betrieb von KI-Agenten standardisieren. Die Plattform bietet eine einheitliche Umgebung, um Agenten zu erstellen, zu evaluieren und zu orchestrieren – unabhängig von Modell oder Framework. Drei Ansätze sollen unterschiedliche Nutzergruppen ansprechen:

  • Agentic AI Functions: Für Data Engineers, die KI-gestützte Transformationen wie Dokumenten- oder Log-Analysen direkt in bestehende Datenpipelines einbauen möchten.
  • Declarative Agents: Ein Low-Code-Ansatz, bei dem Anwender Agenten mithilfe von natürlicher Sprache und Vorlagen definieren und testen können.
  • Custom-Code Agents: Für Entwickler, die Frameworks wie LangChain oder Modelle wie GPT-5, Claude, Llama oder Gemini nutzen wollen – auf der Infrastruktur von Databricks.

Auch die in München vorgestellten Neuerungen zielen vor allem auf Qualität, Governance und Orchestrierung ab:

  • ai_parse_document: Eine Funktion, die strukturierte Informationen aus PDFs und unstrukturierten Texten extrahiert. Damit lassen sich etwa Vertragsinhalte oder technische Berichte automatisiert analysieren.
  • MLflow 3.0 für Agent Observability: Erweitert das Open-Source-Tool MLflow um Funktionen zur Beobachtung und Bewertung von Agenten. Jede Interaktion wird protokolliert, um Performance und Qualität nachvollziehbar zu machen.
  • AI Gateway und MCP-Katalog: Bieten Kontrolle und Auditierbarkeit für externe Modelle und Tools. Unternehmen können API-Aufrufe zentral verwalten, limitieren und abrechnen – ein wichtiger Schritt in Richtung Kosten- und Compliance-Transparenz.
  • Multi-Agent Supervisor: Ermöglicht die Koordination mehrerer spezialisierter Agenten, um komplexe Geschäftsprozesse automatisiert abzubilden.

Weiterlesen nach der Anzeige

Databricks betonte in München erneut seine strategische Linie: erst die Daten, dann die Intelligenz. Die Data Intelligence Platform, eine Weiterentwicklung des Lakehouse-Konzepts, soll ein robustes Fundament für vertrauenswürdige KI schaffen. Zentral ist dabei der Unity Catalog, der Datenquellen, Zugriffsrechte und Herkunft (Lineage) verwaltet.

„Wir sprechen von Governance by Design – Datenmanagement darf keine nachträgliche Flickarbeit sein“, sagt Databricks-Manager Matthias Ingerfeld. Mit Agent Bricks und der SAP-Integration unterstreicht Databricks diesen Ansatz: Der Erfolg von Unternehmens-KI hängt weniger von der Größe eines Modells ab als von einer stabilen, kontrollierten Infrastruktur.

Während Anbieter wie Microsoft und SAP ihre Stärken in konkreten Anwendungsszenarien ausspielen und OpenAI auf die Weiterentwicklung großer Sprachmodelle setzt, setzt Databricks damit einen anderen Schwerpunkt: offene, herstellerneutrale Daten- und Governance-Architektur. Mit Wettbewerbern wie Snowflake, ServiceNow und Microsoft (Azure Fabric) konkurriert Databricks so um dieselbe Kundengruppe – Unternehmen, die KI systematisch und skalierbar in ihre Datenlandschaften integrieren wollen. Ob dieser Fokus in der Praxis zum Durchbruch führt, bleibt abzuwarten.


(axk)



Source link

Weiterlesen

Beliebt