Connect with us

Entwicklung & Code

Event-Sourcing als perfekte Grundlage für KI


Wissen Sie, was mir aufgefallen ist? Derzeit wird sehr viel über Künstliche Intelligenz gesprochen. Eigentlich immer, wenn es darum geht, was man mit KI umsetzen könnte, steht die Frage im Raum: Welches Modell verwenden wir dafür? Das ist verständlich, da dies den Markt in gewisser Weise antreibt.


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Meines Erachtens ist es jedoch die falsche Diskussion. Denn die Modelle sind letztlich nur Werkzeuge, nicht jedoch das Rohmaterial, mit dem gearbeitet wird. Das Rohmaterial sind die Daten. Ein Modell kann so leistungsfähig sein, wie es will: Wenn die Daten nicht gut sind, bringt es keinen Vorteil. Ein durchschnittliches Modell, das mit hochwertigen Daten trainiert wird, wird jedes Spitzenmodell schlagen, das auf minderwertigen Daten trainiert wurde.

In der Realität sind die Daten vieler Unternehmen jedoch genau das: minderwertig. Es spielt keine Rolle, wie intensiv über KI-Modelle diskutiert wird, wie viel Aufwand in Data Science investiert wird oder wie viele Data-Engineers und Data Scientists eingestellt werden. Am Ende nützt das alles nichts, wenn die Daten von schlechter Qualität sind. Es ist wie beim Kochen: Wenn die Zutaten verdorben oder abgelaufen sind, kann selbst die beste Köchin oder der beste Koch kein Fünf-Sterne-Menü daraus zubereiten. Das Ergebnis wird immer maßgeblich davon bestimmt, was ursprünglich an Material zur Verfügung steht. Letztlich lässt sich das auf die alte Formel „Garbage In, Garbage Out“ reduzieren.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Event-Sourcing + KI: Das Fundament für bessere KI-Modelle // deutsch

Dennoch spricht kaum jemand darüber. Statt zu überlegen, wie man zu qualitativ hochwertigen Daten gelangt, beschäftigen sich viele Unternehmen primär damit, wie man Daten normalisiert, Features extrahiert, ob nun ReLU oder Sigmoid als Aktivierungsfunktion besser geeignet ist, ob man GPT, Claude, Gemini oder ein anderes Modell nutzen sollte. Das alles sind zweifellos legitime und wichtige Fragen.

Zu oft dienen sie jedoch als Ersatzdiskussion, um sich nicht mit dem eigentlichen Problem zu befassen: Wie gelangen wir zu guten Daten?

Was meine ich, wenn ich sage, dass die meisten Unternehmen keine guten Daten haben? Das beginnt mit etwas scheinbar Banalem: Daten sind oft nicht vollständig. Hier fehlt etwas, dort fehlt etwas, und teilweise muss man sich zusammenreimen, was sinnvoll passen könnte. Ebenso häufig tritt jedoch auch das Gegenteil auf: Es gibt zu viele Daten. Identische Daten liegen mehrfach vor – in verschiedenen Systemen, jedoch nicht in identischer Form. Sie sollten natürlich identisch sein, sind es in der Praxis jedoch nicht. Mitunter handelt es sich nur um Kleinigkeiten wie Schreibfehler, häufiger jedoch um gravierende Unterschiede.

Beispielsweise ist ein System der Ansicht, dass eine Nutzerin oder ein Nutzer selbstverständlich Zutritt zu einem sicherheitskritischen Bereich haben darf, während ein anderes System dies strikt verneint. Die Frage lautet dann: Wer hat recht? Diese Themen sind im Datenalltag an der Tagesordnung: Unvollständigkeit, Inkonsistenz, Fehler. Spricht man dies an, erhält man in der Regel zwei Arten von Reaktionen: Die erste ist technischer Natur – etwa die Aussage, man habe ein hervorragendes Master-Data-Management, als wäre dies die Lösung aller Probleme. Wäre es so einfach, gäbe es keine schlechten Daten. Die zweite Reaktion lautet:

„Das ist richtig, aber es ist jetzt halt so, und wir können es nicht ändern. Wir müssen versuchen, das Beste daraus zu machen.“

Da schließt sich dann der Kreis: Das Beste daraus zu machen funktioniert nämlich nur, wenn die Grundlage zumindest brauchbar ist. Wie bereits erwähnt: Die besten Data-Engineers, der beste Algorithmus oder das leistungsfähigste Modell nützen nichts, wenn die Ausgangsdaten minderwertig sind. Genau deshalb erzielen viele Unternehmen mit KI keine überzeugenden Ergebnisse – weil der beschriebene Zustand die Regel ist.

Es stellt sich also die Frage: Warum sind Daten so häufig von so schlechter Qualität? Eine wesentliche Erklärung ist, dass bei den im operativen Betrieb anfallenden Daten fast immer ein entscheidendes Element fehlt: der fachliche Kontext. Gespeichert wird nämlich allzu oft lediglich der Status quo, also das Ergebnis bereits abgeschlossener Geschäftsprozesse. Sie wissen beispielsweise, dass eine Kundin oder ein Kunde den Status „Premiumkunde“ hat, nicht jedoch, warum das so ist, seit wann das so ist oder wer das veranlasst hat. Sie wissen, dass ein Produkt heute 9,99 Euro kostet, nicht jedoch, ob dieser Preis kürzlich erhöht wurde, seit 20 Jahren stabil ist oder als letzter Versuch dient, das Produkt mit einem Kampfpreis am Markt zu halten. Sie wissen, dass eine Bestellung offen ist, nicht jedoch, wie oft sie geändert wurde oder wer sie ursprünglich ausgelöst hat.

Dieser fehlende Kontext ist ein erhebliches Problem. Ironischerweise ist „Kontext“ im Bereich der KI ein zentrales Thema – man spricht inzwischen sogar nicht mehr nur von „Prompt-Engineering“, sondern bereits von „Context-Engineering“. Wer mit einem Sprachmodell gearbeitet hat, weiß, wie entscheidend die Größe des sogenannten Context Window ist. Je mehr relevanten Kontext man einem Modell gibt, desto besser sind in der Regel die Antworten. Das Problem: Genau dieser Kontext fehlt oft vollständig in den Quelldaten. Trainiert man KI-Modelle auf dieser Basis, ist das Ergebnis so wenig sinnvoll, wie wenn man ChatGPT lediglich die Frage

„Worauf sollte ich achten?“

stellt – ohne weiteren Hintergrund.

Tatsächlich ist das keineswegs ein neues Problem. Schon im Data Warehousing war es üblich, und man hatte sich damit arrangiert – meist jedenfalls. Bemerkenswert ist, dass damals genau dieselben inhaltlich wenig zielführenden Diskussionen geführt wurden: ob nun ein Star-Schema besser geeignet sei als herkömmliche Tabellen, ob Oracle besser als DB2 funktioniere oder welche technische Lösung sonst vorzuziehen sei. Es war dieselbe Diskussion, nur mit anderen Werkzeugen. Technische Detailfragen lassen sich leichter diskutieren, als sich mit dem fachlichen Kern des Problems auseinanderzusetzen. Das wäre wesentlich sinnvoller, erfordert jedoch, die eigene Komfortzone zu verlassen.

Das gilt weniger für Einzelpersonen, sondern eher für Unternehmen als Ganzes: Je größer ein Unternehmen ist, desto unflexibler wird es in der Regel und desto eher werden rein technische Diskussionen geführt. Hier schließt sich der Kreis wiederum zum Individuum: In großen Unternehmen wollen häufig viele Personen mitreden, die fachlich nicht ausreichend qualifiziert sind. Das ist seit jeher ein Problem und wird es wohl auch bleiben.

In der Vergangenheit konnte man dies oft ignorieren oder akzeptieren, da Data Warehousing und Online Transaction Processing (OLTP) nur Themen für große Unternehmen waren. Mit Künstlicher Intelligenz, den gestiegenen Erwartungen und der Demokratisierung des Themas wird es jedoch zunehmend dringlich – für große wie für kleine Unternehmen. Künftig wird es sich kein Unternehmen mehr leisten können, KI auf schlechten Daten zu trainieren, da die Erwartungshaltung heute eine völlig andere ist.

Hinzu kommt, dass sich die Verbreitung und Relevanz dieser Themen drastisch verändert haben. KI war in den meisten Unternehmen selbst vor zehn Jahren bestenfalls ein Forschungsthema oder ein kleines Experiment am Rand. Man entwickelte vielleicht ein einfaches Machine-Learning-Modell, um interne Daten zu analysieren, oder ergänzte einige Regeln, um Prozesse zu automatisieren – mehr nicht. Funktionierte das Vorhaben, war es erfreulich, funktionierte es nicht, war dies kein Geschäftsrisiko.

Heute ist die Situation grundlegend anders: KI steht in vielen Unternehmen nicht mehr nur in der Innovationsabteilung als Punkt 17 auf einer Liste, sondern ist häufig ein zentrales Thema im Vorstand. Die Erwartungen sind hoch: Prozesse sollen automatisiert, Entscheidungen verbessert, Risiken minimiert, Umsätze gesteigert, Kundinnen und Kunden besser verstanden, individuelle Angebote ausgespielt werden – und das möglichst gleichzeitig und sofort. KI ist kein „nice to have“ mehr, sondern ein strategisch wichtiges Asset.

Gleichzeitig sind die technischen Möglichkeiten explodiert. Große Sprachmodelle, die noch vor wenigen Jahren wie Science-Fiction wirkten, sind heute frei verfügbar. Mit wenigen Klicks lässt sich in der Cloud ein Modell starten, das mehr Parameter besitzt als vor zehn Jahren alle Modelle einer gesamten Forschungsgruppe zusammen. Es gibt Open-Source-Modelle, ausgereifte Toolchains und stabile Bibliotheken, die Infrastruktur ist so günstig und skalierbar wie nie zuvor.

Noch nie war es so einfach, KI-Modelle zu entwerfen, zu entwickeln, zu trainieren, zu testen und produktiv zu nutzen. Diese Ausgangslage wirkt perfekt, verführt jedoch leicht zu der Annahme, dass mit wenigen Klicks alles erledigt sei: Man nimmt ein Modell, speist es mit beliebigen vorhandenen Daten, und schon entstehe ein sinnvoller Output. In der Realität funktioniert dies nicht. Schlechte Daten bleiben schlechte Daten, und sie führen zu schlechten Ergebnissen – unabhängig davon, wie gut das Modell ist.

Als ob dies nicht schon problematisch genug wäre, verschärft ein weiterer Aspekt die Situation erheblich: Die Anforderungen an Erklärbarkeit, Nachvollziehbarkeit, Transparenz, Compliance und Auditierbarkeit steigen rasant. Es genügt nicht mehr, dass ein Modell einfach nur gute Ergebnisse liefert. Im Zweifelsfall muss nachvollziehbar begründet werden können, warum eine KI zu einer bestimmten Entscheidung gelangt ist. Es muss ersichtlich sein, welche Daten maßgeblich waren, ob diese vollständig, konsistent und korrekt waren. Der gesamte Weg der Daten – von der Quelle bis zum Output – muss nachvollziehbar sein.

Das ist nicht nur eine technische Spielerei, sondern in vielen Bereichen bereits Pflicht oder wird es in naher Zukunft werden: Im Finanzwesen besteht beispielsweise die regulatorische Vorgabe, die Entstehung eines Kredit-Scorings nachweisen zu können. In der Medizin muss erklärbar sein, wie eine Diagnose zustande kam. In der Versicherungsbranche ist darzulegen, wie eine Risikoeinstufung entstanden ist. Auch im staatlichen Bereich ist Transparenz nicht nur sinnvoll, sondern in höchstem Maße wünschenswert.

Stellen Sie sich vor, Sie sitzen in einem Audit oder in einem Gerichtsverfahren, und es wird gefragt:

„Können Sie uns genau zeigen, welche Daten dieses Modell zu dieser Entscheidung geführt haben?“

Wenn Sie das nicht können, weil es technisch nicht rekonstruierbar ist, dann entsteht ein gravierendes Problem. Häufig liegt das daran, dass Systeme die Historie nie gespeichert und den Kontext nie dokumentiert haben. Und genau hier stehen viele Unternehmen heute: Auf der einen Seite gibt es den größten Hype um KI aller Zeiten, mit enormen Anforderungen an Datenqualität, Kontext und Historie. Auf der anderen Seite verfügen nahezu alle Unternehmen über unzureichende Daten, die für ihre geplanten Vorhaben ungeeignet sind.

Die Lücke zwischen dem, was erreicht werden soll, und dem, was die Daten hergeben, ist riesig – und sie schrumpft nicht. Untätigkeit verschärft sie sogar, da Systeme weiterlaufen und täglich mehr Kontext und Historie verloren geht. Es gibt kein automatisches Aufholen. Kurzum: Was heute nicht erfasst wird, ist unwiederbringlich verloren.

Das bedeutet: Wenn Sie davon ausgehen, dass KI in Ihrem Unternehmen in den kommenden Jahren eine größere Rolle spielen wird (und in welchem Unternehmen wäre das nicht der Fall?), dann sollte Ihre größte Sorge nicht der Einsatz eines bestimmten KI-Modells sein. Entscheidend ist vielmehr, wie Sie die Grundlage für eine belastbare Datenbasis schaffen. Diese sollte so schnell wie möglich aufgebaut werden, idealerweise sofort. Denn Daten, die heute nicht erfasst werden, stehen auch morgen keinem Modell der Welt mehr zur Verfügung. Dieser Verlust ist endgültig.

Die naheliegende Frage lautet: Wie könnte eine Lösung für dieses Problem aussehen? Was muss geschehen, oder was muss ein Unternehmen tun, um künftig über eine Datenbasis zu verfügen, auf der sich mit KI-Modellen präzise, verlässliche und nachvollziehbare Ergebnisse erzielen lassen? Die Antwort liegt nahe: Wir benötigen vollständigere Daten, die nicht nur den aktuellen Zustand abbilden, sondern auch den Weg dorthin. Historische Daten sind erforderlich, ebenso fachlicher Kontext. Es geht nicht nur darum, das „Was“ zu erfassen, sondern vor allem auch das „Warum“. Wir müssen wissen, was passiert ist, wann, durch wen und aus welchem Grund. Nur dann lassen sich aus diesen Daten aussagekräftige Muster ableiten, Abhängigkeiten verstehen und Vorhersagen treffen, die mehr sind als bloßes Raten.

Genau das ist der Kern des Event-Sourcing. Falls Ihnen das Konzept nicht vertraut ist, hier eine kurze Zusammenfassung (alternativ empfehle ich Ihnen das Video „Event-Sourcing – das einzige Video, das Du brauchst“ als Einführung): Event-Sourcing ist ein Ansatz zur Datenspeicherung, bei dem nicht der Status quo abgelegt und von Zeit zu Zeit aktualisiert oder gelöscht wird. Stattdessen werden die einzelnen Schritte gespeichert – also die Veränderungen, die im Laufe der Zeit zum aktuellen Zustand geführt haben. Dies geschieht nicht als bloße Abfolge technischer Updates, sondern fachlich beschrieben, damit auch erkennbar ist, warum sich etwas verändert hat.

Vergleichbar ist das Vorgehen mit einem Girokonto: Die Bank speichert nicht nur den aktuellen Kontostand und verweist bei Nachfragen auf Unwissenheit, sondern führt ein fortlaufendes Protokoll aller Transaktionen. Daraus lässt sich der aktuelle Kontostand jederzeit berechnen.

Der entscheidende Vorteil besteht darin, dass sich zusätzlich zahlreiche andere Erkenntnisse gewinnen lassen, da die gesamte Entwicklung sichtbar bleibt. Ohne Event-Sourcing wären diese Informationen unwiederbringlich verloren, und auch Verfahren wie Change-Data-Capture (CDC) könnten sie nicht vollständig rekonstruieren, da sie nur erfassen, dass und wie sich Daten geändert haben – nicht jedoch warum. Liegt dieses „Warum“ jedoch vor, entstehen fachlich reichhaltige und semantisch wertvolle Daten, in denen sich Muster deutlich leichter erkennen lassen.

Dieses Prinzip lässt sich nicht nur auf Girokonten anwenden, sondern auf nahezu jede Domäne – also auch auf die Daten und Geschäftsprozesse Ihres Unternehmens. Statt Zustands-Snapshots zu speichern, werden die geschäftsrelevanten Ereignisse erfasst – lückenlos, chronologisch und unveränderlich. Genau wie bei der Bank kann daraus jederzeit der aktuelle Zustand berechnet werden. Die Historie lässt sich vollständig abspielen, analysieren, auf Teilzeiträume eingrenzen oder für Was-wäre-wenn-Szenarien nutzen.

Stellen Sie sich vor, Sie würden ein KI-Modell nicht auf aggregierten Enddaten trainieren, sondern auf den ursprünglichen Ereignissen. Das Modell könnte dann nicht nur erkennen, dass eine Kundin oder ein Kunde abgesprungen ist, sondern auch, welche Interaktionen, Bestellungen, Preisänderungen, Lieferverzögerungen oder andere Faktoren vorher stattgefunden haben. Auf dieser Grundlage lassen sich Muster viel einfacher und vor allem genauer identifizieren, die möglicherweise bei anderen Kundinnen und Kunden ebenfalls auftreten. Das eröffnet eine völlig neue Qualität der Analyse und Prognose.

Zudem können KI-Modelle nicht nur mit den aktuellen Daten trainiert werden, sondern auch aus der Sicht beliebiger Zeitpunkte in der Vergangenheit. Features lassen sich gezielter extrahieren, da die relevanten Variablen klarer erkennbar sind. Auch die Validierung der Modelle wird erleichtert, weil überprüft werden kann, ob Vorhersagen tatsächlich eingetroffen sind – diese Ergebnisse lassen sich nämlich ihrerseits auch wiederum als Events speichern.

Auf diese Weise kann ein Modell durch die fortlaufende Entwicklung sogar besser lernen, da alle Trainingsentscheidungen jederzeit nachvollzogen und hinterfragt werden können. Und dieses Prinzip funktioniert universell – in jeder Branche und für nahezu jede Software. Das bedeutet übrigens nicht, dass Event-Sourcing ausschließlich für den Einsatz mit Künstlicher Intelligenz geeignet wäre. Auch ohne KI bietet Event-Sourcing zahlreiche Vorteile. Wer jedoch ernsthaft den Einsatz von KI plant, findet darin die ideale Grundlage, da es genau das liefert, was KI am dringendsten benötigt und am seltensten erhält: fachlich vollständige, konsistente und kontextreiche Daten.

Allerdings lässt sich Event-Sourcing nicht einfach per Schalter aktivieren. Wer es einführen möchte, muss einige typische Hürden überwinden. Diese sind zwar alle lösbar, erfordern jedoch Erfahrung. Ein häufiger Fehler besteht darin, pro forma Ereignisse zu definieren, die jedoch nicht fachlich durchdacht sind. Ereignisse wie „Bestellung created“, „Bestellung updated“ und „Bestellung deleted“ mögen formal korrekt erscheinen, bilden aber keine fachliche Realität ab.

Richtig wären Formulierungen wie „Bestellung aufgegeben“, „Bestellung freigegeben“ oder „Bestellung storniert“. Es geht darum, sich von rein technischen CRUD-Operationen zu lösen und hin zu fachlich getriebenen Begriffen zu kommen. Zwar ist dies vielen bekannt, in der Umsetzung wird es jedoch oft vernachlässigt – aus Gewohnheit oder mangels Erfahrung. Der Mehrwert bleibt so allerdings aus, da man inhaltlich in alten Denkmustern verharrt.

Ein weiterer Fehler besteht darin, die Definition der Ereignisse allein den Entwicklerinnen und Entwicklern zu überlassen. Diese verfügen häufig nicht über das notwendige Detailwissen zu fachlichen Abläufen, Auslösern und Relevanz. Hier ist die enge Zusammenarbeit mit den Fachabteilungen zwingend erforderlich. Häufig scheitert es dabei jedoch bereits an der Kommunikation – sei es, weil gar nicht miteinander gesprochen wird oder aneinander vorbei. Ohne ein echtes Verständnis der Fachlichkeit lohnt sich der Einstieg in Event-Sourcing nicht.

Die zweite Hürde ist der technische Umbau: Viele Unternehmen starten nicht auf der grünen Wiese, sondern verfügen über bestehende Systeme – in der Regel auf CRUD-Operationen ausgerichtet, andernfalls gäbe es das beschriebene Problem gar nicht. Diese Systeme sind oft mit zahlreichen weiteren Anwendungen integriert, verknüpft und verbunden. Eine vollständige Ablösung ist in der Regel nicht kurzfristig möglich. Es erfordert daher eine sorgfältige Planung, wie die Umstellung erfolgen kann. Dafür existieren bewährte Ansätze, die jedoch ebenfalls Erfahrung voraussetzen.

Die dritte Hürde betrifft die Infrastruktur: Event-Sourcing ist nicht einfach nur ein anderes Tabellendesign in der Datenbank, sondern ein grundsätzlich anderes Verständnis von Daten und Prozessen. Das hat Konsequenzen für die Softwarearchitektur und die Implementierung. Aufgabenstellungen unterscheiden sich deutlich von denen klassischer, relational geprägter Anwendungen. Die eingesetzte Datenbank muss zu diesem Ansatz passen. Wer seit Jahrzehnten eine relationale Datenbank wie PostgreSQL nutzt und diese auch für Event-Sourcing einsetzen möchte, trifft damit oft eine Fehlentscheidung. Nicht, weil PostgreSQL eine schlechte Datenbank wäre – ganz im Gegenteil –, sondern weil es sich um ein relationales Modell handelt, Event-Sourcing jedoch kein relationales Konzept ist. Ein Werkzeug wie PostgreSQL ist hervorragend, aber für diesen Anwendungsfall schlicht ungeeignet.

Sinnvoller ist es daher, eine auf Event-Sourcing spezialisierte Datenbank zu nutzen. An diesem Punkt entstehen häufig Diskussionen, warum dies notwendig sei, da es doch nur um das Speichern von Daten gehe. Solche Argumente zeigen meist, dass das Prinzip und das Konzept hinter Event-Sourcing noch nicht verstanden wurden – den Beteiligten ist dies jedoch oft nicht bewusst.

Schließlich gibt es noch eine kulturelle Hürde: Event-Sourcing erfordert ein grundlegendes Umdenken. Viele Menschen in Unternehmen sind es gewohnt, ausschließlich mit dem aktuellen Zustand zu arbeiten. Der Gedanke, die vollständige Historie zu speichern und auszuwerten, ist für sie ungewohnt und fremd. Zunächst muss daher ein Bewusstsein dafür geschaffen werden, warum es wertvoll ist, Ereignisse zu speichern, wie dies funktioniert, wie damit gearbeitet werden kann und wie sich dadurch möglicherweise auch der Blick auf die eigenen Prozesse verändert.

Alle diese Hürden sind überwindbar, sie sind jedoch auch real. Werden sie ignoriert, entwickelt sich aus einer großen Chance schnell ein teures und frustrierendes Projekt, das nach kurzer Zeit niemand mehr weiterverfolgen möchte. Es ist deshalb wichtig, sich vorab mit diesen Punkten auseinanderzusetzen. Die technischen Herausforderungen, etwa bei der Infrastruktur, sind dabei meist das geringste Problem. Sobald klar ist, worauf es ankommt, wird auch der Mehrwert spezialisierter Event-Sourcing-Datenbanken deutlich.

Die weitaus größere Herausforderung besteht darin, das Umdenken in den Köpfen anzustoßen. Ein umfassender Umbau in einem einzigen Schritt ist daher selten erfolgreich. Sinnvoller ist es, zunächst ein kleines, klar abgegrenztes Teilproblem zu wählen und dieses gezielt zu bearbeiten. So können erste Erfahrungen gesammelt werden, Fehler bleiben überschaubar, und es entsteht ein sichtbares Ergebnis – ein „Leuchtturmprojekt“, das andere inspiriert.

Anstatt beispielsweise einen gesamten Onlineshop umzustellen, könnte man zunächst mit dem Check-out- und dem Rechnungsprozess beginnen. In einer Versicherung böte sich etwa die Schadensmeldung an. Entscheidend ist, dass die initiale Frage lautet: Welche Entscheidungen soll KI in diesem Bereich künftig unterstützen, und welche Fragen wollen Sie datengetrieben besser beantworten können? Diese Fokussierung verhindert, sich in einem generischen

„Wir machen jetzt alles mit Event-Sourcing.“

zu verlieren.

Anschließend gilt es, die fachlichen Hausaufgaben zu erledigen. Setzen Sie sich gemeinsam mit dem Fachbereich in mehreren Workshops zusammen und arbeiten Sie an realen Beispielen heraus, wie die Prozesse aussehen. Ob Sie dafür Event-Storming, Domain-Storytelling oder eine andere Methode verwenden, ist nebensächlich. Wichtig ist, dass ein gemeinsames Verständnis und eine gemeinsame Sprache entstehen. Sinnvoll ist es, diese Arbeit von einer Person moderieren zu lassen, die Erfahrung mit solchen Formaten hat. Das Ergebnis ist eine Modellierung – zunächst nicht der gesamten Domäne, sondern eines kleinen, überschaubaren MVP, auf dessen Basis ein erster Durchstich entwickelt werden kann.

Parallel dazu sollte die technische Vorbereitung erfolgen. Machen Sie sich mit einer Event-Sourcing-Datenbank vertraut. Wenn Sie die Anwendung nicht vollständig neu entwickeln möchten, kann ein passendes Framework wie beispielsweise OpenCQRS hilfreich sein.

Dass hier das Schlagwort „CQRS“ fällt, ist übrigens kein Zufall: Bei CQRS werden separate Datenmodelle für Schreib- und Lesevorgänge verwendet (siehe cqrs.com). Viele tun sich anfangs schwer damit, den Nutzen mehrerer Datenmodelle zu erkennen – zumal diese synchronisiert werden müssen. Spätestens im Zusammenhang mit KI wird der Vorteil deutlich, da verschiedene KI-Modelle unterschiedliche Datenmodelle erfordern können. Mit CQRS ist das unkompliziert möglich. Ohne CQRS wird es deutlich komplexer und in den meisten Fällen auch schlechter.

Wenn Sie diese Grundlagen geschaffen haben, verfügen Sie über eine hervorragende Basis für KI: Aus Ihrem Event-Store lässt sich einfach ein neues Lesemodell ableiten, mit dem Sie die benötigten Features erzeugen. Features sind letztlich nämlich nichts anderes als Funktionen über Ereignissequenzen. Sie können diese für jeden beliebigen Zeitpunkt erstellen, nachvollziehen, wie sie entstanden sind, aus welchen Ereignissen sie bestehen, und vieles mehr. Dadurch werden die Daten nachvollziehbar, transparent und versionierbar.

Wenn sich herausstellt, dass die extrahierten Features nicht geeignet sind, können Sie das Lesemodell verwerfen und ein anderes aufbauen – oder beide parallel betreiben. Sie können vergleichen, ob ein Modell besser oder schlechter arbeitet, und sowohl Online- als auch Offline-Modelle trainieren. Da alle Modelle aus denselben Ursprungsdaten – den Ereignissen – abgeleitet werden, ist sichergestellt, dass keine Diskrepanzen entstehen.

So lässt sich die Architektur Schritt für Schritt ausbauen. Steht der erste Service, kann der nächste folgen. Auf diese Weise werden aus dem Bestandssystem nach und nach einzelne Komponenten herausgelöst – ein Vorgehen, das als Strangler-Ansatz bekannt ist und mit dem ich sehr gute Erfahrungen gemacht habe. Dieses Vorgehen lässt sich allerdings nicht von heute auf morgen umsetzen. Ziel ist es jedoch, langfristig eine stabile und tragfähige Grundlage für die Zukunft zu schaffen.

Die Umsetzung erfolgt dabei nicht in einem zentralen KI-Team. Das fachliche Verständnis ist entscheidend, und dieses Wissen gehört in jedes einzelne Team. Ein klassisches Data-Warehouse im herkömmlichen Sinn gibt es in diesem Ansatz nicht mehr. Stattdessen entwickelt jedes Team eigene Daten- und KI-Produkte und stellt diese über APIs anderen Teams zur Verfügung. Das Ergebnis ist eine leichtgewichtige Variante des Data-Mesh-Ansatzes.

Dieses Thema wird oft unnötig verkompliziert und als riesiges Projekt dargestellt. Aus meiner Sicht handelt es sich im Kern um einige klare Regeln – vor allem die Erkenntnis, dass die Verantwortung für die Daten beim jeweiligen fachlichen Team liegen sollte.

Es gäbe noch zahlreiche weitere Aspekte, die in diesem Zusammenhang relevant sind. Für den Abschluss möchte ich jedoch auf einen zentralen Punkt eingehen: Wenn Sie wie beschrieben vorgehen, ist die wichtigste Veränderung nicht technischer, sondern kultureller Natur. Sie nehmen Kolleginnen und Kollegen, Teams und Führungskräften die Angst vor Event-Sourcing, indem Sie zeigen, dass es sich nicht um einen Sprung ins Ungewisse handelt, sondern um einen geordneten Weg mit vielen kleinen, aber sichtbaren Erfolgen:

  • eine API, die Prozesse fachlich abbildet und verständlicher nutzbar ist,
  • ein erstes Lesemodell, das dem Fachbereich einen direkten Nutzen bringt,
  • ein erster KI-Anwendungsfall, der reproduzierbar und erklärbar ist und
  • ein erstes Datenprodukt, das andere Teams nutzen können.

Diese Erlebnisse verändern die Haltung von „komplex und riskant“ hin zu „hilfreich und zuverlässig“.

Wenn Sie diesen Weg gehen – klein starten, die Domäne ernst nehmen, technische Leitplanken setzen, CQRS nutzen, auf Event-Sourcing setzen, Lesemodelle definieren, Daten über APIs bereitstellen, Qualität messbar machen und automatisieren sowie Governance schlank halten –, werden die Hürden auf handhabbare Aufgaben reduziert. Schritt für Schritt entsteht dann genau die Datenbasis, die Sie für KI benötigen: vollständig, kontextreich und nachvollziehbar. Selbst wenn der erste KI-Anwendungsfall später durch einen anderen ersetzt wird, bleibt das Fundament bestehen. Denn die Ereignisse sind die einzige Investition, die nicht veraltet.

Wenn Sie mehr über das Zusammenspiel von Event-Sourcing, CQRS, Data-Mesh und KI erfahren möchten, sei Ihnen an dieser Stelle abschließend noch die Webseite „Event Sourcing and AI“ empfohlen.


(rme)



Source link

Entwicklung & Code

Meta integriert KI-Chats in Empfehlungen auf Facebook und Instagram


Ab dem 16. Dezember 2025 will Meta Gespräche mit seinen KI-Funktionen in die Personalisierung von Facebook und Instagram einbeziehen. Damit sollen nicht nur Likes, Kommentare oder geteilte Inhalte eine Rolle spielen, sondern auch Text- und Sprachinteraktionen mit „Meta AI“. Diese zusätzlichen Datenpunkte erweitern laut Ankündigungsbeitrag die Möglichkeiten des Unternehmens, Empfehlungen gezielter auf die Interessen der Nutzerinnen und Nutzer abzustimmen.

Als Beispiel nennt Meta eine Unterhaltung übers Wandern: Wer ein solches Thema mit der KI bespricht, kann künftig Empfehlungen zu passenden Facebook-Gruppen, Reels über Outdoor-Themen oder Werbung für Ausrüstung sehen. Das Vorgehen folgt derselben Logik wie bisherige Personalisierungsmechanismen, erweitert diese jedoch um den direkten Austausch mit den KI-Funktionen.

Meta betont, sensible Informationen nicht für Werbezwecke nutzen zu wollen. Dazu zählen Angaben zu Religion, sexueller Orientierung, politischer Einstellung, Gesundheit, ethnischer Herkunft oder Gewerkschaftszugehörigkeit. Gespräche über diese Themen sollen weder Inhalte im Feed noch personalisierte Anzeigen beeinflussen.

Damit versucht das Unternehmen, Sorgen vor einer zu tiefgehenden Auswertung privater Themen zu adressieren. In den offiziellen Informationen unterstreicht Meta, dass diese Grenzen bereits bei der bisherigen Datennutzung gelten und auch in den neuen KI-basierten Systemen eingehalten werden sollen.

Neben den automatischen Personalisierungen sollen weiterhin individuelle Anpassungen möglich sein. Über die bekannten Werkzeuge wie Ads Preferences oder Feed-Kontrollen können Nutzende ihre Anzeige- und Inhaltseinstellungen verändern. Damit bleibt es ihnen selbst überlassen, den Einfluss von KI-Empfehlungen einzugrenzen oder zu verstärken.

Außerdem können Menschen entscheiden, wie sie mit Meta AI interagieren möchten – per Spracheingabe oder Text. Bei Sprachbefehlen erscheint ein Hinweislicht, das signalisiert, dass das Mikrofon aktiv genutzt wird. Meta betont, dass eine Aufnahme nur erfolgt, wenn die Zustimmung vorliegt und eine entsprechende Funktion bewusst Verwendung findet.

Ein zentraler Punkt ist die Verknüpfung verschiedener Meta-Dienste über das Accounts Center. Nur wenn Nutzerinnen und Nutzer ihre Konten dort registrieren, fließen die Daten auch plattformübergreifend in die Empfehlungen ein. Wer beispielsweise WhatsApp nicht mit dem Accounts Center verbindet, muss laut Ankündigungsbeitrag nicht damit rechnen, dass KI-Chats aus dem Messenger das Facebook- oder Instagram-Erlebnis beeinflussen.

Auf diese Weise versucht Meta, den Nutzenden selbst mehr Kontrolle über die Reichweite ihrer Interaktionen zu geben. Die Entscheidung, welche Informationen zwischen den Plattformen geteilt werden, liegt bei denjenigen, die ihre Konten verknüpfen oder getrennt halten.

Die geplanten Änderungen treten am 16. Dezember 2025 in Kraft. Meta kündigt an, Nutzerinnen und Nutzer vorab per Benachrichtigungen und E-Mails zu informieren, sodass ausreichend Zeit bleiben soll, Einstellungen zu überprüfen oder anzupassen.

Die Einführung soll schrittweise erfolgen. Zunächst wird das Update in den meisten Regionen umgesetzt, später möchte das Unternehmen die Funktion weltweit bereitstellen.


(mdo)



Source link

Weiterlesen

Entwicklung & Code

Jakarta EE Developer Survey 2025 zeigt Wachstum bei Java 21 und Cloud


Die Eclipse Foundation hat die Ergebnisse des 2025 Jakarta EE Developer Survey veröffentlicht. Mit über 1.700 Teilnehmenden – ein Plus von 20 Prozent gegenüber dem Vorjahr – liefert die Befragung einen umfangreichen Einblick in den Stand von Enterprise Java weltweit. Die Resultate unterstreichen den wachsenden Einfluss von Jakarta EE, insbesondere im Kontext von Cloud-nativen Anwendungen und moderner Java-Entwicklung.

Die Eclipse Foundation ist eine der größten Open-Source-Organisationen und betreut Projekte wie Jakarta EE. Mit dem jährlichen Jakarta EE Developer Survey erhebt sie Trends und Prioritäten der weltweiten Java-Community.

Zum ersten Mal liegt die Java-Plattform Jakarta EE mit 58 Prozent Nutzung vor Spring (56 Prozent). Dieser Wechsel markiert einen Meilenstein in der Enterprise-Java-Welt. Ausschlaggebend sei einerseits die Veröffentlichung von Jakarta EE 11, andererseits eine wachsende Aufmerksamkeit dafür, dass Spring selbst auf Jakarta-EE-Spezifikationen basiert.


Balkendiagramm zeigt Nutzung von  Spring/Spring Boot, Jarkata EE und MicroProfile - Spring liegt vorne.

Balkendiagramm zeigt Nutzung von  Spring/Spring Boot, Jarkata EE und MicroProfile - Spring liegt vorne.

Das Balkendiagramm zeigt die Nutzung von Spring/Spring Boot, Jarkata EE und MicroProfile. Spring liegt erstmals vorne.

(Bild: Eclipse Foundation)

Obwohl die vollständige Plattformversion erst nach Abschluss der Umfrage erschien, setzen bereits 18 Prozent der Befragten auf Jakarta EE 11. Besonders dominant ist der frühe Einsatz in kleineren Unternehmen (weniger als 500 Mitarbeitende), doch auch Großunternehmen ab 10.000 Beschäftigten zeigen signifikantes Interesse.


Kaffeetasse, betterCode() Java

Kaffeetasse, betterCode() Java

(Bild: Playful Creatives / Adobe Stock)

Am 14. Oktober dreht sich bei der betterCode() Java 2025 alles um das frisch veröffentlichte Java 25. Die von iX und dpunkt verlag ausgerichtete Online-Konferenz behandelt in sechs Vorträgen die wesentlichen Neuerungen. Eine Keynote von Adam Bien zu 30 Jahren Java rundet den Tag ab.

Ein klarer Trend: 43 Prozent der Entwicklerinnen und Entwickler nutzen bereits Java 21 – ein deutlicher Sprung von 30 Prozent im Jahr 2024. Gleichzeitig geht die Nutzung älterer Versionen wie Java 8 und 17 zurück. Java 11 erlebt dagegen ein leichtes Comeback und erreicht 37 Prozent.


Balkendiagram zeigt Nutzung der Java-Versionen: Java 8 führt vor Java 17; Platz 3 belegt Java 21 und zuletzt Java 11

Balkendiagram zeigt Nutzung der Java-Versionen: Java 8 führt vor Java 17; Platz 3 belegt Java 21 und zuletzt Java 11

Die Grafik zeigt Nutzung der Java-Versionen: Java 8 führt vor Java 17; Platz 3 belegt Java 21 und am wenigsten genutzt wird Java 11.

(Bild: Eclipse Foundation)

Die Strategien zur Cloud-Migration sind weiterhin unterschiedlich verteilt. Zwar bleibt Lift-and-Shift mit 22 Prozent führend, doch gleichzeitig steigt offenbar die Unsicherheit: 20 Prozent der Befragten haben 2025 noch keine klare Cloud-Strategie, fast doppelt so viele wie im Vorjahr.

Die Prioritäten der Community verschieben sich gemäß Umfrage deutlich in Richtung Cloud-native Readiness und eine schnellere Implementierung von Jakarta-EE-Spezifikationen in Applikationsservern. Developer wünschen sich zudem offenbar praxistaugliche Kubernetes-Features wie Health Checks, Secrets-Management und Telemetrie-Unterstützung.

Die Ergebnisse der diesjährigen Umfrage zeigen, wie sich Enterprise Java Schritt für Schritt weiterentwickelt. Entwicklerinnen und Entwickler setzen verstärkt auf Jakarta EE, nutzen schneller neue Java-Versionen wie Java 21 und greifen zunehmend auf Cloud-native Ansätze zurück.

Viele Teams arbeiten bereits aktiv an Cloud-Migrationen, doch ein Teil sucht offenbar noch nach der passenden Strategie. Gleichzeitig gestalten Unternehmen ihre Architekturen flexibler und passen bestehende Systeme an moderne Anforderungen an. Damit rückt Jakarta EE verstärkt in den Mittelpunkt der aktuellen Entwicklungen im Java-Ökosystem.

Weitere Informationen sowie der Zugang zum Survey finden sich im Blogbeitrag auf der Seite der Eclipse Foundation.


(mdo)



Source link

Weiterlesen

Entwicklung & Code

Proxmox Mail Gateway 9.0 mit mehr Schutz und einfacherem Quarantäne-Management


Die Proxmox Server Solutions GmbH aus Wien hat mit dem Proxmox Mail Gateway 9.0 ihre Open-Source-Plattform für sichere E-Mail aktualisiert. Ebenso wie die Virtualisierungslösung Proxmox VE 9.0 und der Proxmox Backup Server 4.0 arbeitet das Mail Gateway damit auf Basis von Debian GNU/Linux 13.0 „Trixie“. Während Debian standardmäßig einen Linux-Kernel 6.12 LTS verwendet, habe sich das Proxmox-Entwicklerteam für einen angepassten Linux-Kernel 6.14.11-2 entschieden.

Das Dateisystem ZFS hat gerade den zweiten Release Candidate für Version 2.4 veröffentlicht (zfs-2.4.0-rc2), Proxmox setzt jedoch auf die neueste stabile ZFS-Version 2.3.4. Als Datenbank-Engine kommt PostgreSQL 17 zum Einsatz. Gegen Spam, Viren, Trojaner und Phishing-E-Mails sollen unter anderem Open-Source-Technologien wie ClamAV 1.4.3 und SpamAssassin 4.0.2 mit aktualisierten Rulesets schützen.


Proxmox-Mail-Gateway 9.0 Statistik zu Mails

Proxmox-Mail-Gateway 9.0 Statistik zu Mails

In der Statistik-Ansicht erhalten Nutzerinnen und Nutzer eine Übersicht über ein- und ausgehende sowie Junk-, Virus-Mails und Bounces.

(Bild: Proxmox Server Solutions GmbH)

Das neue Quarantäne-Interface wurde speziell für Mobilgeräte optimiert und ermöglicht es seinen Benutzern, ihre quarantänisierten Nachrichten komfortabel über eine überarbeitete Weboberfläche zu verwalten. Entwickelt mit dem Rust-basierten Yew-Framework soll es die bisherige Implementierung komplett ersetzen.

Die Authentifizierungsfunktionen und SSO-Integration (Single Sign-On) wurden deutlich erweitert: OpenID-Connect-Realms lassen sich nun vollständig über die grafische Oberfläche konfigurieren, inklusive Claim-Zuordnungen und automatischer Rollenvergabe. Dadurch wird eine nahtlose Anbindung an gängige Identity- und Access-Management-Lösungen wie Keycloak, Zitadel oder LemonLDAP::NG ermöglicht.

Mehr Sicherheit soll die Anpassung der Content-Type-Filter-Engine erreichen, die aktualisierten MIME-Typen für Microsoft-Ausführungsdateien zuverlässiger erkennen und blockieren kann.

Alle Verbesserungen und Änderungen, aber auch mögliche auftretende Probleme beim Umstieg von vorherigen Versionen des Proxmox Mail Gateway sind in dem Wiki dokumentiert.

Das Proxmox Mail Gateway 9.0 steht als Open-Source-Software ab sofort zum Download bereit und darf kostenlos eingesetzt werden. Der Zugriff auf das Enterprise-Repository kostet 180 Euro (netto) pro Jahr, professioneller Support ist von 510 bis 1800 Euro (netto) pro Jahr erhältlich.


(mdo)



Source link

Weiterlesen

Beliebt