Entwicklung & Code
DirectX: 30 Jahre Windows-Gaming von DOOM95 bis Raytracing
Was heute das Fundament für die meisten PC-Spiele ist, begann vor fast 30 Jahren als verzweifelter Akt der Notwehr. Die Geschichte von DirectX ist nicht nur eine Chronik technischer Meilensteine, sondern auch der Evolution der Spielegrafik. Sie ist untrennbar mit dem Aufstieg von Windows zur dominanten Gaming-Plattform verbunden.
Die Anfänge: Das „Manhattan Project“ für Windows 95 (1994–1995)
Ende 1994 stand Microsoft vor einem Dilemma. Das mit Spannung erwartete Windows 95 sollte den PC-Markt revolutionieren, doch eine entscheidende Gruppe blieb skeptisch: die Spieleentwickler. Sie hielten am bewährten, aber veralteten MS-DOS fest. Der Grund war einfach: DOS bot direkten, ungefilterten Zugriff auf die Hardware – eine Notwendigkeit für die performance-hungrigen Spiele dieser Zeit. Windows hingegen galt mit seinen Abstraktionsebenen und seinem kooperativen Multitasking als langsam, unberechenbar und für Spiele schlicht ungeeignet.
Als der Microsoft-Evangelist Alex St. John bei Entwicklerstudios anfragte, ob sie ihr nächstes großes Spiel für Windows entwickeln würden, erntete er nur Spott und Ablehnung. Die Situation war kritisch. Ohne Spiele drohte Windows 95 ein entscheidender Teil des Heim-PC-Marktes zu entgleiten, der zunehmend von japanischen Spielkonsolen dominiert wurde.
Aus dieser Not heraus wurde intern das „Manhattan Project“ ins Leben gerufen. Der Name, eine bewusste Anspielung auf die Entwicklung der ersten Atombombe, spiegelte den Ehrgeiz und die Dringlichkeit wider, mit der Microsoft die Vormachtstellung im Gaming-Sektor erobern wollte. Ein kleines, schlagkräftiges Team aus den drei Entwicklern Alex St. John, Craig Eisler und Eric Engstrom erhielt den Auftrag, innerhalb von nur vier Monaten ein „Game SDK“ (Software Development Kit) zu entwickeln.
Am 30. September 1995 wurde das Ergebnis als DirectX 1.0 veröffentlicht. Die erste Version war ein Baukasten von Programmierschnittstellen (APIs), die den direkten Hardwarezugriff standardisieren sollten: DirectDraw für hardwarebeschleunigte 2D-Grafik, DirectSound für die Tonausgabe, DirectPlay für Netzwerkspiele und DirectInput für Eingabegeräte. Kurioserweise war der Name „DirectX“ eine spontane Schöpfung eines Journalisten, der die vielen „Direct“-Komponenten spöttisch zusammenfasste. Microsoft erkannte das Potenzial des Namens und übernahm ihn kurzerhand.
Der Durchbruch: DOOM95 als trojanisches Pferd
Eine API allein macht noch keinen Erfolg aus. Um die Entwicklerwelt zu überzeugen, benötigte Microsoft ein Aushängeschild – ein Spiel, das die Überlegenheit von DirectX unmissverständlich demonstrierte. Die Wahl fiel auf den damals größten Spieltitel der Welt: DOOM. In einem cleveren Schachzug wandte sich Microsoft an John Carmack von id Software. Das Angebot: Microsoft würde DOOM komplett kostenlos auf Windows portieren, ohne jegliche Bedingungen. Das Projekt wurde von Gabe Newell geleitet, dem späteren Gründer von Valve.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Willkommen im Pixelbrei! Leider konnten wir keine bessere Version des DOOM95-Videos mit Bill Gates auftreiben.
Das Ergebnis, DOOM95, war ein Paukenschlag. Es lief nicht nur stabiler und flüssiger als die DOS-Version, sondern bot auch höhere Auflösung von 640 × 480, 24 zusätzliche Audiokanäle und vor allem ein drastisch vereinfachtes Multiplayer-Set-up über DirectPlay. DOOM95, am 20. August 1996 veröffentlicht, wurde zum ersten jemals vorgestellten DirectX-Spiel und zum ultimativen Beweis für die Leistungsfähigkeit der neuen API. Der Erfolg war so groß, dass Microsoft-Gründer Bill Gates in einem legendären Werbevideo mit Schrotflinte und Trenchcoat durch die Gänge eines virtuellen Levels schritt. Da DOOM zu dieser Zeit auf mehr PCs installiert war als Windows 95 selbst, diente das Spiel als perfektes trojanisches Pferd, um DirectX auf Millionen von Rechnern zu etablieren.
Die Grundsteine der 3D-Grafik: DirectX 3.0 bis 6.0 (1996–1998)
Nachdem DirectX 2.0 aus internen Gründen übersprungen wurde, brachte DirectX 3.0 1996 eine entscheidende Neuerung: Direct3D. Damit hielt erstmals die Hardware-beschleunigte 3D-Grafik Einzug in die API. Optimierungen für die neuen MMX-Befehle der Pentium-Prozessoren und erweiterte Multiplayer-Fähigkeiten machten das Paket komplett.
Zwei Jahre später, 1998, setzte das verfügbare DirectX 6.0 neue Maßstäbe. Revolutionäre Funktionen wie Multitexturing (das Übereinanderlegen mehrerer Texturen auf einem Objekt für mehr Detailreichtum) und Bumpmapping (eine Technik, um Oberflächen durch Licht- und Schatteneffekte plastischer erscheinen zu lassen) wurden eingeführt. Zudem wurde AMDs 3DNow!-Befehlssatz unterstützt. Grafikkarten wie die damals gängige Riva 128 und Voodoo Graphics liefen deutlich schneller als mit DirectX 5.0. Erstmals schien DirectX leistungsfähig genug, um proprietäre, chip-spezifische APIs wie 3dfx‘ Glide überflüssig zu machen, das die genannten Funktionen auf den Voodoo-Grafikchips bereits unterstützte – aber eben nur auf jenen.
DirectX 7 mit Transform & Lighting (1999)
Das 1999 veröffentlichte DirectX 7.0 führte Hardware Transform & Lighting (T&L) ein. T&L verlagerte einen guten Teil der geometrischen Berechnungen und Beleuchtungseffekte erstmals vollständig von der CPU auf die Grafikkarte. Hardware T&L wurde zum Standard für moderne 3D-Anwendungen und ermöglichte deutlich komplexere Szenen ohne Leistungseinbußen.
Die Implementierung von DirectX 7 war jedoch nicht ohne Probleme. So einige Hardware-Hersteller kämpften mit der praktischen Umsetzung, etwa S3 mit ihrem Savage2000-Chip. S3 räumte ein, dass ihre ersten Treiber die T&L-Hardware noch gar nicht nutzten, da sich die Firma zunächst auf Stabilität konzentriert hatte. Erst spätere Treiberversionen sollten die volle DirectX-7-Funktionalität freischalten – ein Problem, das auch andere Hersteller plagte. Beim Savage2000 sollte das Warten allerdings vergeblich bleiben.
DirectX 7 etablierte die Grundlage für hardware-beschleunigte 3D-Grafik, die in den folgenden Jahren zum Standard werden sollte.
Die Ära der Shader: DirectX 8 und 9 (2000–2004)
Mit DirectX 8.0 erlebte die 3D-Grafik im Jahr 2000 ihre vielleicht größte Revolution. Microsoft fasste DirectDraw und Direct3D zu „DirectX Graphics“ zusammen und führte die Shader-Technik ein. Statt auf feste, in der Hardware verdrahtete Effekte angewiesen zu sein, konnten Entwickler nun mit Pixel- und Vertex-Shadern (Version 1.1) eigene kleine Programme schreiben, die direkt auf der GPU ausgeführt wurden. Dies ermöglichte erstmals hardwarebeschleunigte Pro-Pixel-Beleuchtung, komplexe Materialeffekte und nie dagewesene künstlerische Freiheit. Die erste Shader-Sprache war noch eine Art Assembler mit 17 Basisbefehlen und einer maximalen Länge von 128 Befehlen pro Programm für die Vertex-Shader.
DirectX 9.0, im Dezember 2002 freigegeben, trieb diese Entwicklung auf die Spitze. Mit der High Level Shader Language (HLSL) wurde die umständliche Assembler-Programmierung durch eine deutlich zugänglichere, C-ähnliche Syntax ersetzt. Die Komplexität der Shader-Programme wuchs exponentiell: Pixel-Shader konnten anfänglich ganze 96 Befehle verarbeiten, Vertex-Shader sogar 256, inklusive Sprüngen und Schleifen – spätere Ausbaustufen von DirectX 9.0 erweiterten diese Fähigkeiten mit Shader-Model 3.0 noch einmal deutlich.
Besonders die hochpräzisen Gleitkomma-Datenformate waren ein Segen, da sie Farbverfälschungen (Banding) bei komplexen Berechnungen verhinderten. Eine umstrittene, aber innovative Funktion war das Displacement Mapping, das geometrische Details zur Laufzeit erzeugte und so flachen Oberflächen echte Tiefe verlieh. Nvidia verzichtete bei der GeForce-FX-Serie bewusst auf eine optimierte Unterstützung, da das Unternehmen befürchtete, Entwickler würden die Kontrolle über das finale Erscheinungsbild des Spiels verlieren.
Die Vista-Kontroverse: DirectX 10 (2007)
Die Veröffentlichung von DirectX 10 im Jahr 2007 wurde von einer der umstrittensten Entscheidungen in Microsofts Gaming-Geschichte begleitet: Die API wurde exklusiv an das neue Betriebssystem Windows Vista gekoppelt. Microsoft wollte damit den Umstieg auf das neue OS erzwingen, doch der Schuss ging nach hinten los. Valve-Chef Gabe Newell nannte die Entscheidung in einem Interview einen „schrecklichen Fehler“. Laut den damaligen Steam-Statistiken nutzten zunächst nur verschwindend geringe zwei Prozent der Spieler eine DirectX-10-fähige Grafikkarte in Kombination mit Vista.
Es entstand ein Teufelskreis: Da Konsolen kein DirectX 10 unterstützten und die PC-Spielerbasis auf Windows XP verharrte, entwickelten die Studios weiterhin für den kleinsten gemeinsamen Nenner (DirectX 9) und ignorierten die neuen Funktionen. Die Exklusivität wurde zum Bumerang und bremste die technische Adaption für Jahre aus. Die Sorge vor einer solchen Fragmentierung wiederholte sich Jahre später, als AMD-Mitarbeiter Richard Huddy 2014 für Verwirrung sorgte, indem er erklärte, DirectX 12 würde nicht für Windows 7 erscheinen – eine Aussage, die Microsoft erst später korrigierte.
Effizienzsteigerung: DirectX 11 und 12 (2009–2015)
2009 brachte das neue Windows 7 die Schnittstelle DirectX 11 mit, die Microsoft später auch für Vista nachreichte. Die wichtigste Neuerung war DirectCompute; damit öffnete sich DirectX zudem erstmals für GPGPU-Anwendungen, also allgemeine Berechnungen auf dem Grafikchip. Aufseiten der Spielgrafik wurde um die Hardware-Tessellation das meiste Getöse veranstaltet. Dabei handelt es sich um eine Technik, die einfache 3D-Modelle mehr oder weniger dynamisch mit zusätzlichen Polygonen verfeinert, um höhere Detaildichte ohne CPU-Belastung zu erreichen, grob vereinfacht könnte man es auch als Geometrie-Kompression bezeichnen.
Mit DirectX 12, angekündigt 2014, vollzog Microsoft einen radikalen Strategiewechsel. Statt neuer Grafikeffekte stand erstmals die Effizienz im Vordergrund. „In den vergangenen zehn Jahren haben neue Direct3D-Versionen immer mehr Effekte hinzugefügt, die den Abstand zur Hardware vergrößerten“, erklärte AMD-Manager David Oldcorn damals auf der GDC. DirectX 12 sollte diesen Abstand drastisch verringern und Entwicklern einen hardwarenäheren Zugriff ermöglichen.
Die Demonstration auf der GDC war eindrücklich: Ein 3DMark-Test zeigte, wie DirectX 11 die Last ungleich auf vier CPU-Kerne verteilte und einen Kern an seine Grenzen brachte. DirectX 12 hingegen nutzte alle Kerne gleichmäßig und erzielte eine um 50 Prozent höhere Performance. Microsofts Versprechen war klar: „Konsolen-Effizienz auf Windows-PCs“.
Konkurrenz und kontinuierliche Evolution: Mantle, Vulkan und die Zukunft
Der Druck zur Effizienzsteigerung kam nicht von ungefähr. AMD hatte 2013 mit Mantle eine eigene Low-Level-API vorgestellt, die als direkte Antwort auf die Ineffizienzen von DirectX 11 konzipiert war. Mantle diente als wichtiger Wegbereiter und Ideengeber für DirectX 12 und die plattformübergreifende API Vulkan. Bereits 2015 stellte AMD die Weiterentwicklung von Mantle 1.0 ein und empfahl Entwicklern den Umstieg auf DirectX 12 oder Vulkan – ein Eingeständnis, dass der Kampf gegen die etablierten Standards nicht zu gewinnen war.
Heute liegt der Fokus auf der kontinuierlichen Weiterentwicklung. Statt auf ein „DirectX 13“ zu warten, wird DirectX 12 Ultimate als erweiterbare Plattform stetig ausgebaut. Funktionen wie DirectX Raytracing (DXR) für realistische Echtzeit-Spiegelungen und -Schatten, Mesh Shader zur Effizienzsteigerung bei der Darstellung komplexer Geometrien und Variable Rate Shading (VRS) werden sukzessive integriert. Diese Updates erfolgen direkt über Windows-Updates und stellen sicher, dass die Plattform-Einheitlichkeit zwischen PC und der Xbox Series X/S gewahrt bleibt.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
DirectX 12 Ultimate: DXR 1.1 Raytracing Tech Demo von AMD
Die neueste Entwicklung, DXR 1.2, verspricht massive Leistungssteigerungen beim Path Tracing durch Techniken wie Shader Execution Reordering (SER) und Opacity Micro-Maps. Damit schließt sich der Kreis: Von der ersten, einfachen 2D-Beschleunigung bis zur Simulation physikalisch korrekter Lichtstrahlen hat DirectX die Gaming-Welt in drei Jahrzehnten fundamental geprägt.
(vza)
Entwicklung & Code
Spring Framework 7 bringt neues Konzept für Null Safety und setzt auf Java 25
VMWare Tenzu hat Spring Framework 7 veröffentlicht. Das quelloffene Framework für die Java-Plattform bringt im aktuellen Release unter anderem neue Funktionen für verbesserte Resilienz, Null Safety, API-Versionierung und Java-Messaging.
Weiterlesen nach der Anzeige
Beim JDK zielt Spring Framework 7 auf das aktuelle Java 25, und für Enterprise-Java ist Jakarta EE 11 die Basis. Für das Zusammenspiel mit Kotlin setzt es auf Version 2.2 der Programmiersprache, und für Unit-Tests arbeitet es mit JUnit 6.0 zusammen.
Null Safety mit JSpecify
Um Fehler durch den Umgang mit Null-Pointern zu verhindern – der Erfinder der Null-Referenz Tony Hoare hat sich 2009 für den „Milliarden-Dollar-Fehler“ entschuldigt –, setzt das aktuelle Spring Framework auf JSpecify. Damit gelten die bisherigen Annotationen nach dem JSR 305 (Java Specification Request) als überholt (deprecated).
JSpecify bietet Annotationen, die Null-Pointer-Fehler verhindern helfen: @Nullable zeigt an, dass der Wert potenziell null sein kann, während mit @NonNull annotierte Typen niemals null sein dürfen.
Weitere Details zu den Vorteilen von JSpecify zeigt ein Beitrag auf dem Spring-Blog.
Resilienz für Spring-Anwendungen
Weiterlesen nach der Anzeige
Das Spring-Team hat neue Features für die Resilienz eingeführt, die das nun in den Ruhestand geschickte Projekt Spring Retry ersetzen. In Spring Framework 7 sind die Features in org.springframework.core.retry enthalten, das unter anderem RetryTemplate und RetryPolicy enthält.
Die Annotation @Retryable legt unter anderem fest, wie oft und mit welcher Verzögerung die Anwendung versuchen soll, einen fehlgeschlagenen Aufruf zu erneuern, wie folgendes Beispiel aus der Spring-Dokumentation zeigt:
@Retryable(
includes = MessageDeliveryException.class,
maxAttempts = 5,
delay = 100,
jitter = 10,
multiplier = 2,
maxDelay = 1000)
public void sendNotification() {
this.jmsClient.destination("notifications").send(...);
}
Ob die Resilienzfunktionen greifen oder ignoriert werden, lässt sich über die Konfiguration @EnableResilientMethods festlegen.
API-Versionierung, Java-Messaging und mehr
Spring Framework 7 führt ein neues Konzept für die API-Versionierung ein. Entwicklerinnen und Entwickler konfigurieren, wie die API-Version aufgelöst und validiert wird. Clients können die API-Version bei Anfragen an den RestClient, WebClient und für HTTP-Clients festlegen. Auch im Testing lässt sich die Versionierung mit dem WebTestClient nutzen. Ein Beitrag auf dem Spring-Blog bringt eine detaillierte Ausführung zur API-Versionierung.
Spring bekommt im aktuellen Release zudem den JMSClient, der Funktionen zum Versenden und Empfangen von Nachrichten über die JMS-API (Jakarta Messaging) bietet.
Nennenswert ist zudem noch der neue RestTestClient als Variante des WebTestClient, der den RestClient um ein Testing-Interface erweitert. Außerdem gibt es mit dem Interface BeanRegistrar eine neue Methode, um Beans zu registrieren.
Weitere Neuerungen und einige entfernte oder als überholt markierte Funktionen lassen sich den Release Notes zu Spring 7 entnehmen.
(rme)
Entwicklung & Code
10 Jahre CNCF: Neuigkeiten von Kubernetes – Cloud-Native und KI wachsen zusammen
Vom 11. bis 14. November 2025 ist Atlanta in den USA das Zentrum von Kubernetes und Cloud-Native. Auf ihrer Hausmesse KubeCon + CloudNativeCon NA feiert die Cloud Native Computing Foundation (CNCF) ihr 10. Jubiläum. Die Veranstaltung ist wie immer vollgepackt mit Neuerungen aus der Welt von Cloud-Native.
Weiterlesen nach der Anzeige
Einfacheres Kubernetes-Versionsmanagement
Das Flaggschiff-Projekt der CNCF, Kubernetes, wartet ebenfalls mit Neuerungen auf. Seit wenigen Tagen lässt sich ein Upgrade der Control-Plane auf Unterversionsebenen rückgängig machen. Startend mit Version 1.33 können Administratoren beispielsweise von 1.35 auf 1.34 zurückgehen, falls es Probleme mit der neueren Version gibt. Technisch funktioniert das über einen kleinen Trick: eine emulierte Version. Nach dem Upgrade der Binärdateien verhalten sich diese zunächst wie die alte Version. Sie emulieren also die Vorgänger, es ist aber neuer Code. Kommt es zu Problemen, ist der Rücktausch der Binärdateien einfach. Die emulierte Version hatte sich nicht geändert (siehe Abbildung 1).

Neue Up- und Downgrade-Optionen für Kubernetes (KEP-4330)
(Bild: Google)
Doch damit nicht genug. Es lassen sich nun auch Versionen im Upgrade-Prozess überspringen. Wollte man bislang von Version 1.33 auf 1.35 wechseln, dann war der „Umweg“ über 1.34 nötig. Dieser entfällt jetzt. Beide Änderungen sind Teil desselben KEPs (Kubernetes Enhancement Proposals).
Neue Helm-Hauptversion nach sechs Jahren
Helm, der defacto-Standard als Paketmanager für Kubernetes, ist nun in Version 4.0 verfügbar. Dies ist die erste neue Hauptversion seit sechs Jahren. Helm war eines der ersten Projekte unter der Schirmherrschaft der CNCF und ist seit Juni 2018 dabei. In Version 4 haben die Helm-Entwickler das SDK (Software Development Kit) überarbeitet. Es verwendet nun die Logging-Schnittstelle von Go und kann auch die neuesten Funktionen der aktuellen Kubernetes-Version nutzen. Außerdem ist dabei ein neues Plug-in-System. Anwender können nun auch WASM (Web Assembly) einsetzen. Damit sollten die Plug-ins auf einfache Weise plattformübergreifend verwendbar sein.
Auch unter der Motorhaube fanden große Umbauten statt. Da ist natürlich das Entfernen von altem Ballast und die Verwendung neuester Funktionen. Sichtbar für Anwender sind neue Chart-Features. Helm fährt dabei zweigleisig. Über eine Versionierung (v3) lassen sich aber neue Funktionen ausprobieren. Die bisherigen Charts (v2) funktionieren weiter wie gewohnt. Im Gespräch mit iX erklärt Helm-Entwickler Matt Butcher, dass Stabilität und Kompatibilität von Anfang an wichtige Aspekte von Helm waren. Mit der Versionierung der Charts sei nun Innovation ohne Gefährdung der gesetzten Standards möglich.
Weiterlesen nach der Anzeige
Cloud-Native und KI wachsen zusammen
Natürlich ist auch auf dieser Konferenz Künstliche Intelligenz (KI) omnipräsent. Laut Jonathan Bryce (seit Juni 2025 Chef der CNCF) bleibt das auch auf absehbare Zeit so. Cloud-Native und KI wachsen zusammen. Ein jüngst erschienener Bericht sagt, dass sich 41 Prozent der professionellen KI-Entwickler als Cloud-Native bezeichnen. In Zahlen ausgedrückt sind das über sieben Millionen Leute. Der prozentuale Anteil von KI auf Kubernetes-Clustern wächst ebenfalls. Laut CNCF lag er im August 2025 bereits bei 60 Prozent. Jonathan Bryce gibt das neue Ziel vor und sagt: In den vergangenen 10 Jahren war es Aufgabe der CNCF, die Entwicklung von Kubernetes und Co. zu fördern und zu unterstützen. Die nächsten 10 Jahre gilt es, das Gleiche für das Fundament für KI zu tun. Dabei stehen nicht zwingend KI-Agenten im Fokus. Es geht vielmehr darum, die Infrastrukturen für Training und Inferenz aufzubauen, die als Fundament für die KI-Agenten erforderlich sind.
Was gibt es Neues in der CNCF-KI-Welt? Den Anfang macht natürlich Kubernetes. DRA (Dynamic Resource Allocator) ist mit Kubernetes 1.34 für alle verfügbar. Er behandelt GPUs oder auch FPGAs ebenso wie CPUs und ist damit sofort für KI-Anwendungen geeignet. Neu ist außerdem die „Agent Sandbox„. Das Projekt will das Verwalten von einzelnen KI-Applikationen als auch Agenten vereinfachen. Dazu gehört die Entwicklung von CRDs (Customer Resource Definitions) und Kontrollern für Kubernetes. Das Projekt ist noch sehr jung, die ersten Code-Zeilen stammen vom August 2025.
Kubernetes-AI-Conformance-Programm
Gemeinsam mit der CNCF hat die Kubernetes-Community ein KI-Konformitätsprogramm entwickelt. Das Kubernetes-AI-Conformance-Programm definiert Standards und Anforderungen, um die entsprechenden Anwendungen stabil und auch interoperabel betreiben zu können. Dazu gehört beispielsweise die Unterstützung der APIs von DRA und des Kubernetes Gateway. Das Konformitätsprogramm ist ein Prozess, der nicht kostenlos ist und idealerweise am Ende ein Zertifikat übergibt.
Zentrale Registratur für alle KI-Artefakte
Unter den weiteren Neuigkeiten auf der KubeCon findet sich die agentregistry von Solo.io. Die Idee dahinter ist, eine zentrale Registratur für alle KI-Artefakte zu schaffen, beispielsweise MCP-Server (Model Context Protocol), Agenten oder schlichte Informationen. Es gibt damit einen singulären Punkt für die Pflege, Verwaltung und insbesondere auch zum Implementieren von Richtlinien und Sicherheit. Das Projekt steht noch ganz am Anfang und ist nur wenige Wochen alt.

Mit der agentregistry will Solo.io eine zentrale Registratur für alle KI-Artefakte schaffen,
(Bild: Solo.io )
Auch alteingesessene Softwarehersteller sind längst auf den KI-Zug aufgesprungen, beispielsweise Oracle mit der AI Datenbank 26ai. Unter Verwendung von LLMs und MCP-Servern lassen sich Abfragen über KI-Agenten-basierte Arbeitsabläufe ausbauen. Damit sollen sich die Ergebnisse korrekter oder umfangreicher gestalten und bei Bedarf sogar zusätzliche Daten anfordern lassen. Anwenderinnen und Anwender können sogar KI-Agenten innerhalb der Datenbank definieren und ausführen. Der Vorgang lässt sich direkt über die REST-Schnittstelle oder über MCP-Server starten.
Oracle hat zudem eine KI-Agent-Spezifikation entwickelt, die den Einsatz mit verschiedensten Rahmenwerken und Arbeitsabläufen der unterschiedlichen Mitspieler in diesem Umfeld ermöglichen soll. Derzeit sieht der Vorstoß nach einer alleinigen Oracle-Initiative aus. Mit kagent gibt es allerdings ein CNCF-Projekt, das eine ähnliche Ausrichtung hat. In diesem Fall ist Kubernetes als Fundament und Rahmenwerk festgelegt.
(map)
Entwicklung & Code
Docker Desktop 4.50: KI-Integration und kostenlose Debug-Tools für Entwickler
Das Unternehmen Docker, Inc. hat Version 4.50 von Docker Desktop veröffentlicht. Die Entwicklungsumgebung für Container-Anwendungen liefert unter anderem einige auf Developer zugeschnittene Neuerungen, darunter kostenfreie Debug-Funktionen, erweiterte KI-Features für das Bauen von Anwendungen und mehr Kontrolle bei unternehmensweiten Sicherheitsrichtlinien.
Weiterlesen nach der Anzeige
Debugging und IDE-Integration für alle Nutzer
Docker Debug – bisher nur in kostenpflichtigen Abonnements verfügbar – steht ab sofort allen Nutzern kostenfrei parat und soll sich noch besser in VSCode, Cursor und vergleichbare IDEs integrieren. Mit dem Dockerfile-Debugger in der VSCode-Extension beispielsweise können Entwicklerinnen und Entwickler Build-Prozesse direkt im Editor Schritt für Schritt durchlaufen. Windows-Nutzer sollen von höherer Stabilität bei der WSL2-Integration profitieren.
Um den Prozess von den ersten Entwicklungsschritten bis zum produktiven Bereitstellen von Anwendungen zu beschleunigen, steht mit Compose-to-Kubernetes eine Funktion bereit, die lokale Multi-Service-Anwendungen in produktionsreife Kubernetes-Deployments übersetzt. Ergänzend unterstützt das cagent-Toolkit beim Entwickeln von Agenten. Mit cagent lassen sich spezialisierte Agenten bauen und betreiben, die über individuelle Kenntnisse und Fähigkeiten verfügen. Dank Support für MCP-Server lassen sich dabei auch externe Tools und Dienste einbinden.
MCP-Integration mit über 270 Servern
Über das Docker MCP Toolkit erhalten Entwicklerinnen und Entwickler nun Zugriff auf über 270 MCP-Server im Docker MCP Catalog, darunter mehr als 60 Remote-Server mit integrierter OAuth-Authentifizierung. Auch One-Click-Verbindungen für Claude Code und Codex sind verfügbar. Die OAuth-Integration soll die Credential-Verwaltung vereinfachen, Services wie Notion und Linear lassen sich direkt anbinden, ohne Token manuell verwalten oder Config-Files pflegen zu müssen.
Weiterlesen nach der Anzeige
Docker führt zudem Dynamic MCPs ein, die es KI-Agenten ermöglichen, Tools autonom zu entdecken, zu konfigurieren und zu kombinieren. Die Funktionen Smart Search und Tool Composition erlauben den Agenten, den MCP-Katalog zu durchsuchen, die benötigten Tools zu laden und Code für Multi-Tool-Workflows zu generieren. Die Ausführung erfolgt in einer abgeschirmten Umgebung, die zu reduzierter Token-Nutzung und weniger Context-Bloat beitragen soll.
Security-Funktionen ohne Workflow-Unterbrechung
Mit Docker Desktop 4.50 sollen sich auch das Umsetzen von Sicherheitsmaßnahmen sowie die Einhaltung organisationsübergreifender Security Policies nahtlos in die Entwicklungsprozesse integrieren. Administratoren können unter anderem Proxy-Einstellungen via macOS Configuration Profiles zentral vorgeben sowie PAC-Files (Proxy Auto-Configuration) und Embedded PAC Scripts über Installer-Flags für macOS und Windows spezifizieren. Ein schnellerer Release-Zyklus mit kontinuierlichen Updates soll darüber hinaus gewährleisten, dass Entwickler automatisch die neueste stabile Version mit Sicherheits-Patches erhalten.
Die Docker CLI verarbeitet nun auch Zertifikate von Certificate Authorities (CAs), die negative Seriennummern verwenden. Zwar schreibt der X.509-Standard positive Seriennummern vor, einige Enterprise-PKI-Systeme liefern dennoch nicht regelkonforme Zertifikate. In diesen Fällen mussten Organisationen bisher zwischen dem Einhalten ihrer CA-Konfiguration oder dem Erhalt der Docker-Kompatibilität entscheiden.
Weitergehende Informationen
Docker Desktop 4.50 steht in verschiedenen Versionen für Windows, macOS und Linux zum Download bereit. Weitergehende Informationen und mehr Details zu den Neuerungen finden sich in den Release Notes und im Docker-Blog.
(map)
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 MonatenAdobe Firefly Boards › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Datenschutz & Sicherheitvor 2 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 4 WochenIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Datenschutz & Sicherheitvor 2 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
