Künstliche Intelligenz

data2day 2026 setzt Schwerpunkte auf Datenprodukte, Agentic AI und Governance


Vom 7. bis 8. Oktober 2026 versammelt die data2day in Köln Data Scientists, Data Engineers und Datenteams. Das nun veröffentlichte Programm setzt unter anderem Schwerpunkte bei agentischen KI-Systemen, Datenkontrakten und moderner Lakehouse-Architektur. Die seit 2014 von iX und dpunkt.verlag organisierte Konferenz richtet sich dabei an Data Scientists, Data Engineers, Datenanalystinnen, Softwareentwickler und Teamleiterinnen. Das zweitägige Vortragsprogramm bietet sowohl Einsteiger:innen in Data Science und Machine Learning als auch Fortgeschrittenen, die sich mit Architekturen, Prozessen und Vorgehensmodellen befassen, eine breite Auswahl. Vorgeschaltet ist am 6. Oktober ein Workshop-Tag, an dem Simon Harrer von Entropy Data ein ganztägiges Seminar zu „Datenkontrakten in der Praxis“ leitet.

Weiterlesen nach der Anzeige

Das Programm zeigt, wie stark generative und agentische KI inzwischen in den Datenalltag vordringen. Matthias Niehoff von codecentric widmet sich dem „Agentic Data Engineering“ und der Frage, wie Agenten Datenpipelines bauen und reparieren können. Max Vieweg und Denise Hartmann (inovex) zeigen, wie sich Agenten-Loops systematisch tracen und evaluieren lassen.

Auch Sprachmodelle stehen mehrfach im Fokus: Björn Buchhold (CID) vergleicht Text2SQL-Ansätze von Frontier Models über Open Weights bis Fine-Tuning, und Kaan Duran (E.ON Digital Technology) erläutert, wie LLMs zur Verbesserung von Features im Machine Learning eingesetzt werden. Tobias Otte (viadee) stellt einen Semantic Layer als Brücke zwischen LLMs und Datenplattformen vor. Jan Trienes und Matthias Richter (inovex) erklären, wie sich generative KI systematisch evaluieren lässt. Sicherheits- und Zugriffsfragen kommen ebenfalls zur Sprache: Sohan Maheshwar (AuthZed) diskutiert, wie sich verhindern lässt, dass KI-Agenten auf nicht autorisierte Daten zugreifen.

Ein zweiter Themenblock dreht sich um Architektur und Datenmanagement. Sönke Liebau (Stackable) ordnet Datenkataloge als Kontrollinstanz im offenen Data Lakehouse ein, sein Kollege Florian Müller führt durch moderne Datenformate vom Microservice bis zum ML-Modell. Franz Wöllert (Heidelberger Druckmaschinen) berichtet unter dem Titel „Open Table Formats in the Wild – Reloaded“ über Erfahrungen mit Iceberg und verwandten Technologien. Andreas Buckenhofer (Adam Riese) zeigt, wie sich klassische Sternschemata und DWH-Modernisierung mit einem Cloud Lakehouse verbinden lassen. Matthias Niehoff (codecentric) und Nicolas Renkamp (Merck KGaA) gehen gemeinsam der Frage nach, ob ein Data Stack ohne Lock-in realistisch ist.

Datenqualität und Vertrauen ziehen sich durch mehrere Vorträge: Danilo Brajovic (Fraunhofer IPA) behandelt Methoden, Tools und blinde Flecken bei Datenqualität für ML, Felix Theodor (Otto Group one.O) beschreibt den Weg von handgefertigten Fixtures zu KI-generierten Testsuiten. Daria Haselhoff und Markus Nutz (METRO Markets) schildern den Aufbau stabiler Datenmodelle und -produkte. Jochen Christ (Entropy Data) argumentiert in seinem Vortrag „Data Contracts: Es geht um Vertrauen“ für vertraglich abgesicherte Datenbeziehungen.

Beim Thema Datenprodukte plädieren Ramona Casasola-Greiner und Matthias Böck (pub.tech) für Product Thinking statt reiner Use-Case-Logik. Nikolai Hofschulz (AUDI) betont die Rolle der Semantik beim Erschließen von Daten, Marc Schubert (adorsys) stellt einen föderierten Semantic Layer vor, der KPIs verknüpft, statt vereinheitlicht. Evgeniya Alekseeva (Daikin Europe) analysiert Erfolgs- und Misserfolgsfaktoren von Data-Governance-Initiativen.

Weiterlesen nach der Anzeige

Industrielle und produktnahe Erfahrungsberichte runden das Programm ab. Christian Haack und Björn Wendland (ControlExpert) stellen Conformal Prediction für zuverlässige KI bei Informationsextraktion und Kostenschätzung vor. Nikita Golovko (Siemens) beschreibt einen domänengetriebenen Pfad zu industrieller KI. Eva Feigl (Forterro Deutschland Abas) diskutiert, warum Daten allein nicht reichen und welche Rolle Metriken, A/B-Tests und Produkterfolg spielen. Konstantin Hopf und Deniz Oruç Çelik (TU Chemnitz) beleuchten das Spannungsfeld zwischen Data-Science-Handwerk und Management-Erwartungen. Den rechtlichen Rahmenbedingungen widmet sich unter anderem Joerg Heidrich (Heise Medien). Er erläutert, wie sich KI im Unternehmen rechtssicher entwickeln lässt.



Ab sofort können sich Interessierte bis zum 13. August für die data2day zum Frühbucherpreis von 1099 Euro (alle Preise zzgl. 19 % MwSt.) registrieren. Das reguläre Ticket kostet danach 1199 Euro. Die ganztägigen Workshops am Tag vor der Konferenz bieten Interessierten die Gelegenheit, ihr Know-how zu vertiefen. Sie lassen sich einzeln für 649 Euro oder im Kombiticket mit Rabatt für 1699 Euro buchen. Studierende, Schülerinnen und Schüler erhalten auf Anfrage vergünstigte Tickets – für Gruppen ab drei Personen ist eine Rabattstaffel im Ticketshop hinterlegt.

Wer über den Fortgang der Konferenz auf dem Laufenden bleiben möchte, kann den data2day-Newsletter abonnieren oder den Organisatoren auf LinkedIn folgen – der Hashtag lautet data2day.


(map)



Source link

Beliebt

Die mobile Version verlassen