Entwicklung & Code
Databricks: Wie KI-Agenten den Sprung in den Produktivbetrieb schaffen sollen
Databricks will Unternehmen den Schritt vom KI-Prototyp zur produktiven Anwendung erleichtern. Auf der Data+AI World Tour in München präsentierte das Unternehmen neue Werkzeuge, mit denen KI-Agenten künftig sicherer, kontrollierbarer und wirtschaftlicher betrieben werden sollen.
Weiterlesen nach der Anzeige
Im Fokus standen die neue Plattform Agent Bricks, mehrere Erweiterungen der Data Intelligence Platform sowie eine direkte Integration mit der SAP Business Data Cloud. Damit können SAP-Daten jetzt live und bidirektional über Delta Sharing in Databricks eingebunden werden – ohne Replikation. Unternehmen sollen so Finanz-, Produktions- oder Lieferkettendaten direkt mit externen Quellen kombinieren können, etwa für Prognosen oder Risikoanalysen.
Agent Bricks: KI-Agenten in Serie
Dass Firmen beim Übergang von KI-Prototypen in den Regelbetrieb scheitern, ist aus Sicht von Databricks gar nicht so sehr ein Problem der Technik als meist eher der Kosten, fehlender Governance und Datenqualität. Genau diese Punkte will das Unternehmen mit seiner neuen Plattformstrategie adressieren.
Agent Bricks soll dafür die Entwicklung und den produktiven Betrieb von KI-Agenten standardisieren. Die Plattform bietet eine einheitliche Umgebung, um Agenten zu erstellen, zu evaluieren und zu orchestrieren – unabhängig von Modell oder Framework. Drei Ansätze sollen unterschiedliche Nutzergruppen ansprechen:
- Agentic AI Functions: Für Data Engineers, die KI-gestützte Transformationen wie Dokumenten- oder Log-Analysen direkt in bestehende Datenpipelines einbauen möchten.
- Declarative Agents: Ein Low-Code-Ansatz, bei dem Anwender Agenten mithilfe von natürlicher Sprache und Vorlagen definieren und testen können.
- Custom-Code Agents: Für Entwickler, die Frameworks wie LangChain oder Modelle wie GPT-5, Claude, Llama oder Gemini nutzen wollen – auf der Infrastruktur von Databricks.
Auch die in München vorgestellten Neuerungen zielen vor allem auf Qualität, Governance und Orchestrierung ab:
- ai_parse_document: Eine Funktion, die strukturierte Informationen aus PDFs und unstrukturierten Texten extrahiert. Damit lassen sich etwa Vertragsinhalte oder technische Berichte automatisiert analysieren.
- MLflow 3.0 für Agent Observability: Erweitert das Open-Source-Tool MLflow um Funktionen zur Beobachtung und Bewertung von Agenten. Jede Interaktion wird protokolliert, um Performance und Qualität nachvollziehbar zu machen.
- AI Gateway und MCP-Katalog: Bieten Kontrolle und Auditierbarkeit für externe Modelle und Tools. Unternehmen können API-Aufrufe zentral verwalten, limitieren und abrechnen – ein wichtiger Schritt in Richtung Kosten- und Compliance-Transparenz.
- Multi-Agent Supervisor: Ermöglicht die Koordination mehrerer spezialisierter Agenten, um komplexe Geschäftsprozesse automatisiert abzubilden.
Weiterlesen nach der Anzeige
Datenqualität im Mittelpunkt
Databricks betonte in München erneut seine strategische Linie: erst die Daten, dann die Intelligenz. Die Data Intelligence Platform, eine Weiterentwicklung des Lakehouse-Konzepts, soll ein robustes Fundament für vertrauenswürdige KI schaffen. Zentral ist dabei der Unity Catalog, der Datenquellen, Zugriffsrechte und Herkunft (Lineage) verwaltet.
„Wir sprechen von Governance by Design – Datenmanagement darf keine nachträgliche Flickarbeit sein“, sagt Databricks-Manager Matthias Ingerfeld. Mit Agent Bricks und der SAP-Integration unterstreicht Databricks diesen Ansatz: Der Erfolg von Unternehmens-KI hängt weniger von der Größe eines Modells ab als von einer stabilen, kontrollierten Infrastruktur.
Während Anbieter wie Microsoft und SAP ihre Stärken in konkreten Anwendungsszenarien ausspielen und OpenAI auf die Weiterentwicklung großer Sprachmodelle setzt, setzt Databricks damit einen anderen Schwerpunkt: offene, herstellerneutrale Daten- und Governance-Architektur. Mit Wettbewerbern wie Snowflake, ServiceNow und Microsoft (Azure Fabric) konkurriert Databricks so um dieselbe Kundengruppe – Unternehmen, die KI systematisch und skalierbar in ihre Datenlandschaften integrieren wollen. Ob dieser Fokus in der Praxis zum Durchbruch führt, bleibt abzuwarten.
(axk)
Entwicklung & Code
Neu in .NET 10.0 [10]: Vereinfachung für nameof() mit generischen Typen in C#
Bisher musste man in C# immer konkrete Typparameter angeben, um den Operator nameof() auf generische Typen anzuwenden. Ab dem aktuellen C# 14.0 kann man als kleine Syntaxvereinfachung die Typparameter im Code weglassen
Weiterlesen nach der Anzeige

Dr. Holger Schwichtenberg ist technischer Leiter des Expertennetzwerks www.IT-Visions.de, das mit 53 renommierten Experten zahlreiche mittlere und große Unternehmen durch Beratungen und Schulungen sowie bei der Softwareentwicklung unterstützt. Durch seine Auftritte auf zahlreichen nationalen und internationalen Fachkonferenzen sowie mehr als 90 Fachbücher und mehr als 1500 Fachartikel gehört Holger Schwichtenberg zu den bekanntesten Experten für .NET und Webtechniken in Deutschland.
Folgendes Codebeispiel zeigt den vereinfachten Einsatz von nameof() mit generischen Typen:
// BISHER
Console.WriteLine(nameof(List)); // --> List
Console.WriteLine(nameof(System.Collections.Generic.LinkedListNode)); // --> LinkedListNode
Console.WriteLine(nameof(System.Collections.Generic.KeyValuePair)); // --> KeyValuePair
// NEU
Console.WriteLine(nameof(List<>)); // --> List
Console.WriteLine(nameof(System.Collections.Generic.LinkedListNode<>)); // --> LinkedListNode
Console.WriteLine(nameof(System.Collections.Generic.KeyValuePair<,>)); // --> KeyValuePair
(rme)
Entwicklung & Code
TypeScript 6.0 steht in den Startlöchern: Die letzte JavaScript-basierte Version
Microsoft hat die Betaversion für TypeScript 6.0 veröffentlicht, das letzte Release mit der aktuellen JavaScript-Codebasis. Ab Version 7.0 werden der Compiler und der Language Service in Go geschrieben sein, was Geschwindigkeitsvorteile bringen soll. TypeScript 6.0 soll in erster Linie den Weg zum Umstieg ebnen.
Weiterlesen nach der Anzeige
(Bild: jaboy/123rf.com)

Tools und Trends in der JavaScript-Welt: Die enterJS 2026 wird am 16. und 17. Juni in Mannheim stattfinden. Das Programm dreht sich rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr. Frühbuchertickets sind im Online-Ticketshop erhältlich.
TypeScript 6.0 räumt mit veralteten Funktionen auf
Einige Aspekte gelten in TypeScript 6.0 als veraltet (deprecated) – doch derzeit lassen sich diese Deprecations noch einfach ignorieren. Dazu dient die Einstellung "ignoreDeprecations": "6.0" in der tsconfig.json-Datei. Ab Version 7.0 wird das nicht mehr möglich sein, und die veralteten Funktionen lassen sich dort nicht mehr nutzen.
Die Änderungen sollen den Prozessen Rechnung tragen, die in den vergangenen zwei Jahren seit Version 5.0 stattgefunden haben, so das TypeScript-Team. Unter anderem seien Bundler und ECMAScript-Module zu den häufigsten Modulzielen für neue Projekte geworden, und tsconfig.json habe sich zu einem fast universellen Konfigurationsmechanismus entwickelt, während der Wunsch nach strengerer Typisierung zugenommen habe.
Konkret entfällt unter anderem das Target ECMAScript 5, denn seit über einem Jahrzehnt steht der Nachfolger ECMAScript 2015 (ES 6) bereit und alle modernen Browser können damit umgehen, wie das TypeScript-Team ausführt. Damit einhergehend ist nun auch --downlevelIteration veraltet, da es lediglich für ECMAScript 5 relevant war. Statt der veralteten asserts-Syntax kommt nun das Keyword with für Import-Attribute zum Einsatz.
Ein ausführlicher Blogeintrag geht auf diese und weitere Deprecations sowie Feature-Neuerungen ein.
So geht es weiter
Weiterlesen nach der Anzeige
TypeScript 6.0 gilt mit der Beta als Feature-stabil und soll keine weiteren Funktionen oder Breaking Changes erhalten. Neben der Betaversion sind auch Nightly Builds verfügbar, um frühe Einblicke in das nächste Release zu erhalten. Daneben geht die Arbeit an TypeScript 7.0 weiter, und auch dafür können Interessierte Vorschauversionen ausprobieren sowie Feedback abgeben.
Wer mit TypeScript 6.0 Deprecation-Warnungen erhält, sollte diese zunächst beheben, bevor er oder sie auf Version 7.0 wechselt, empfiehlt das TypeScript-Team. Schon bald nach TypeScript 6.0 soll TypeScript 7.0 erscheinen.
(mai)
Entwicklung & Code
Redox OS kompiliert erstmals Code auf sich selbst
Das vollständig in Rust geschriebene Betriebssystem Redox OS hat im Januar 2026 einen bedeutenden Meilenstein erreicht: Entwickler konnten erstmals einen Commit komplett aus Redox heraus durchführen. Jetzt funktionieren sowohl der Rust-Compiler rustc als auch der Paketmanager Cargo auf dem System.
Weiterlesen nach der Anzeige
Dieser Fortschritt markiert einen wichtigen Schritt in Richtung eines eigenständigen Entwicklungssystems. Das Projekt wurde maßgeblich durch Anhad Singh im Rahmen des Redox Summer of Code vorangetrieben. Dank seiner Arbeit können Entwickler nun einfache Programme in Rust, C und C++ direkt auf Redox kompilieren.
Darüber hinaus haben die Entwickler zahlreiche weitere Verbesserungen implementiert. Eine neue Capability-basierte Security-Infrastruktur bietet granulare Berechtigungen für Prozesse. Der SSH-Support wurde erweitert und funktioniert nun zuverlässig für den Remote-Zugang. Zudem wurde die Latenz bei USB-Eingabegeräten deutlich reduziert.
Erweiterte Boot-Funktionen und ARM64-Unterstützung
Der Bootloader bietet jetzt eine Text-Editing-Umgebung zum Hinzufügen, Entfernen und Ändern von Boot-Parametern. Der Login-Manager wurde um Menüs für Energieverwaltung und Tastaturlayout ergänzt. Das Kernel-Memory-Management erhielt signifikante Verbesserungen, während ARM64-Systeme nun Dynamic Linking unterstützen.
Die POSIX-Compliance wurde weiter verbessert, was die Kompatibilität mit Unix-Software erhöht. Zusätzlich behobene Fehler betreffen den Intel HD Audio-Treiber, PS/2-Touchpads sowie UEFI-Firmware. Die Entwickler arbeiten außerdem am RISC-V-Port und haben QEMU auf Redox selbst portiert. Alle im Januar umgesetzten Änderungen finden sich im Redox-Blog.
Roadmap sieht spezialisierte Releases vor
Weiterlesen nach der Anzeige
Für die Zukunft plant das Projekt spezialisierte Versionen: Hosted Redox für virtuelle Maschinen, Redox Server für Edge- und Cloud-Umgebungen mit Sandboxing-Funktionen sowie Redox Desktop mit COSMIC-Integration und Wayland-Support. Diese Pläne wurden bereits 2023 skizziert und werden schrittweise umgesetzt.
Redox OS basiert auf einer Microkernel-Architektur und nutzt Rusts Memory-Safety-Eigenschaften, um die Sicherheit zu erhöhen. Das System unterstützt Intel-, AMD-, ARM- und RISC-V-Prozessoren sowie verschiedene Speicher- und Eingabegeräte. Die Desktop-Variante benötigt weniger als 512 MByte RAM, während Minimal-Images unter 50 MByte groß sind. Im Oktober 2023 kündigten die Entwickler erstmals konkrete Pläne für Server- und Desktop-Editionen an.
(fo)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 2 TagenCommunity Management zwischen Reichweite und Verantwortung
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
