Entwicklung & Code

Databricks: Wie KI-Agenten den Sprung in den Produktivbetrieb schaffen sollen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Databricks will Unternehmen den Schritt vom KI-Prototyp zur produktiven Anwendung erleichtern. Auf der Data+AI World Tour in München präsentierte das Unternehmen neue Werkzeuge, mit denen KI-Agenten künftig sicherer, kontrollierbarer und wirtschaftlicher betrieben werden sollen.

Weiterlesen nach der Anzeige

Im Fokus standen die neue Plattform Agent Bricks, mehrere Erweiterungen der Data Intelligence Platform sowie eine direkte Integration mit der SAP Business Data Cloud. Damit können SAP-Daten jetzt live und bidirektional über Delta Sharing in Databricks eingebunden werden – ohne Replikation. Unternehmen sollen so Finanz-, Produktions- oder Lieferkettendaten direkt mit externen Quellen kombinieren können, etwa für Prognosen oder Risikoanalysen.

Dass Firmen beim Übergang von KI-Prototypen in den Regelbetrieb scheitern, ist aus Sicht von Databricks gar nicht so sehr ein Problem der Technik als meist eher der Kosten, fehlender Governance und Datenqualität. Genau diese Punkte will das Unternehmen mit seiner neuen Plattformstrategie adressieren.

Agent Bricks soll dafür die Entwicklung und den produktiven Betrieb von KI-Agenten standardisieren. Die Plattform bietet eine einheitliche Umgebung, um Agenten zu erstellen, zu evaluieren und zu orchestrieren – unabhängig von Modell oder Framework. Drei Ansätze sollen unterschiedliche Nutzergruppen ansprechen:

  • Agentic AI Functions: Für Data Engineers, die KI-gestützte Transformationen wie Dokumenten- oder Log-Analysen direkt in bestehende Datenpipelines einbauen möchten.
  • Declarative Agents: Ein Low-Code-Ansatz, bei dem Anwender Agenten mithilfe von natürlicher Sprache und Vorlagen definieren und testen können.
  • Custom-Code Agents: Für Entwickler, die Frameworks wie LangChain oder Modelle wie GPT-5, Claude, Llama oder Gemini nutzen wollen – auf der Infrastruktur von Databricks.

Auch die in München vorgestellten Neuerungen zielen vor allem auf Qualität, Governance und Orchestrierung ab:

  • ai_parse_document: Eine Funktion, die strukturierte Informationen aus PDFs und unstrukturierten Texten extrahiert. Damit lassen sich etwa Vertragsinhalte oder technische Berichte automatisiert analysieren.
  • MLflow 3.0 für Agent Observability: Erweitert das Open-Source-Tool MLflow um Funktionen zur Beobachtung und Bewertung von Agenten. Jede Interaktion wird protokolliert, um Performance und Qualität nachvollziehbar zu machen.
  • AI Gateway und MCP-Katalog: Bieten Kontrolle und Auditierbarkeit für externe Modelle und Tools. Unternehmen können API-Aufrufe zentral verwalten, limitieren und abrechnen – ein wichtiger Schritt in Richtung Kosten- und Compliance-Transparenz.
  • Multi-Agent Supervisor: Ermöglicht die Koordination mehrerer spezialisierter Agenten, um komplexe Geschäftsprozesse automatisiert abzubilden.

Weiterlesen nach der Anzeige

Databricks betonte in München erneut seine strategische Linie: erst die Daten, dann die Intelligenz. Die Data Intelligence Platform, eine Weiterentwicklung des Lakehouse-Konzepts, soll ein robustes Fundament für vertrauenswürdige KI schaffen. Zentral ist dabei der Unity Catalog, der Datenquellen, Zugriffsrechte und Herkunft (Lineage) verwaltet.

„Wir sprechen von Governance by Design – Datenmanagement darf keine nachträgliche Flickarbeit sein“, sagt Databricks-Manager Matthias Ingerfeld. Mit Agent Bricks und der SAP-Integration unterstreicht Databricks diesen Ansatz: Der Erfolg von Unternehmens-KI hängt weniger von der Größe eines Modells ab als von einer stabilen, kontrollierten Infrastruktur.

Während Anbieter wie Microsoft und SAP ihre Stärken in konkreten Anwendungsszenarien ausspielen und OpenAI auf die Weiterentwicklung großer Sprachmodelle setzt, setzt Databricks damit einen anderen Schwerpunkt: offene, herstellerneutrale Daten- und Governance-Architektur. Mit Wettbewerbern wie Snowflake, ServiceNow und Microsoft (Azure Fabric) konkurriert Databricks so um dieselbe Kundengruppe – Unternehmen, die KI systematisch und skalierbar in ihre Datenlandschaften integrieren wollen. Ob dieser Fokus in der Praxis zum Durchbruch führt, bleibt abzuwarten.


(axk)



Source link

Beliebt

Die mobile Version verlassen