Entwicklung & Code
Lakewatch: Databricks bringt agentenbasiertes Open-SIEM mit Claude-Integration
Das Unternehmen Databricks hat mit Lakewatch ein neues SIEM-System (Security Information and Event Management) vorgestellt, das neue Wege in der Sicherheitsüberwachung beschreiten soll. Lakewatch baut auf einer offenen Security-Lakehouse-Architektur auf und setzt sich damit laut Ankündigung von etablierten SIEM-Angeboten ab, die in der Regel Storage und Compute koppeln. KI-Agenten sollen dabei Bedrohungen automatisch erkennen, triagieren und Gegenmaßnahmen einleiten.
Weiterlesen nach der Anzeige
Wie Databricks in seinem Blog erläutert, können Unternehmen mit Lakewatch sämtliche Sicherheits-, IT- und Geschäftsdaten in einer einheitlichen Umgebung zusammenführen – einschließlich multimodaler Formate wie Video und Audio im Petabyte-Bereich. Databricks verspricht bis zu 80 Prozent niedrigere Gesamtbetriebskosten im Vergleich zu klassischen SIEM-Systemen. Diese verwerfen Databricks zufolge einen Großteil der eingehenden Telemetriedaten, um die Speicherkosten im Griff behalten zu können. Lakewatch hingegen entkoppele Storage und Compute und behalte alle Daten.

Am 7. und 8. Oktober 2026 lädt die data2day Data Scientists, Data Engineers und Data Teams zur mittlerweile 13. Auflage der Konferenz ein. Bis zum 15. April können Expertinnen und Experten beim Call for Proposals noch ihre Vorschläge für Talks und Workshops einreichen.
Als offenen Standard für die Datennormalisierung nutzt Lakewatch das Open Cybersecurity Schema Framework (OCSF). Security-Logs sowohl aus strukturierten als auch unstrukturierten Quellen werden damit automatisch in ein einheitliches Schema überführt. Die Datenaufnahme erfolgt über Lakeflow Connect, das Quellen wie AWS oder Okta anbindet. Governance- und Compliance-Anforderungen wie NIS2 oder DORA lassen sich über die feingranularen Zugriffskontrollen des Unity Catalog abdecken.
KI-Agenten statt manueller Workflows
Das Herzstück von Lakewatch bilden agentenbasierte Funktionen: Mit den im vergangenen Jahr vorgestellten Agent Bricks lassen sich benutzerdefinierte Sicherheitsagenten erstellen, die Telemetriedaten in einer Vielzahl von Formaten analysieren. Sie korrelieren Signale, reduzieren Fehlalarme und verkürzen die mittlere Erkennungs- und Reaktionszeit (MTTD/MTTR). Für natürlichsprachliche Abfragen und automatisierte Triage-Workflows integriert Databricks seinen KI-Agenten Genie. Detection-as-Code-Ansätze mit YAML, SQL und Python ermöglichen zudem automatisierte Tests über CI/CD-Pipelines.
Für das Reasoning der Agenten setzt Databricks auf Claude-Modelle von Anthropic. Die beiden Unternehmen haben im Zuge der Lakewatch-Vorstellung ihre Partnerschaft vertieft: Claude 3.7 Sonnet kommt bei der Signalkorrelation und Bedrohungsanalyse zum Einsatz. Anthropic nutzt im Gegenzug die Security-Lakehouse-Infrastruktur von Databricks. Der Ansatz, KI-Agenten als Teams zusammenarbeiten zu lassen, findet sich auch in Anthropics Multi-Agent-Systemen für Code Reviews wieder.
Weiterlesen nach der Anzeige
Offenes Ökosystem und Partnernetzwerk
Databricks positioniert Lakewatch bewusst als offenes Ökosystem. Zum Start sind unter anderem Palo Alto Networks, Zscaler, Wiz (Google Cloud), Okta, CrowdStrike-Konkurrent Arctic Wolf, Cribl und Deloitte als Partner an Bord. Hinter der Entwicklung stehen außerdem zwei Übernahmen: Antimatter (sichere Authentifizierung für KI-Agenten) und SiftD.ai, das vom Erfinder der Splunk-Abfragesprache SPL gegründet wurde. Adobe und Dropbox zählen zu den ersten ausgewählten Kunden, die das SIEM-System testen. Lakewatch ist laut Ankündigung ab sofort als Private Preview verfügbar.
(map)
Entwicklung & Code
Apple rollt über 100 neue Metriken für App-Entwickler aus
Apple gibt Entwicklern, die ihre Apps über den App Store vertreiben, ab sofort mehr Zahlen an die Hand. Der iPhone-Hersteller löst damit ein Versprechen der letztjährigen Entwicklerkonferenz WWDC ein. Es ist das größte Update des Analytics-Bereichs seit dem Start des Entwicklerportals App Store Connect. Und es zielt vor allem auf Entwickler ab, die In-App-Käufe und Abonnements über Apples Zahlungssystem anbieten.
Weiterlesen nach der Anzeige
Daten zu Conversion, Marketing und Revenue ließen sich nirgendwo sonst datenschutzkonform zusammenführen, lobt Andy Weekes, Entwickler der App Night Sky. Für ihn seien die Analytics-Daten eine Art Gesundheitscheck für sein Unternehmen. Er brauche verlässliche Daten, um zu verstehen, wie es um seine Einnahmen stehe.
Über 100 neue Metriken
Die über 100 neuen Metriken erlauben unter anderem eine sogenannte Kohorten-Analyse. Damit lassen sich Gruppen von Nutzern, die zum Beispiel in einem bestimmten Monat eine App heruntergeladen haben, miteinander vergleichen. Entwickler können damit etwa untersuchen, nach wie vielen Tagen die jeweiligen Nutzergruppen ein Abo abgeschlossen haben. Auf diese Weise lässt sich der Erfolg von Aktionen oder Veränderungen in der App messen.
Entwickler können sich auch neue Peer-Benchmarks anzeigen lassen. Diese zeigen ihnen, wie ihre App im Vergleich zu ähnlichen Apps abschneidet – ohne dass dabei sensible Daten anderer Entwickler offengelegt werden. Damit lässt sich auswerten, wie viele Nutzer, die eine App herunterladen, zu zahlenden Kunden werden (Download-to-Paid-Conversion) und wie viel Umsatz eine App im Schnitt pro Download erzielt (Proceeds per Download).
Für Entwickler ohne Aufpreis
Das klingt für den Laien alles recht kompliziert. Doch Apple habe das Ganze so aufbereitet, dass es auch jemand ohne betriebswirtschaftlichen Hintergrund verstehe, sagt Frederik Riedel, Entwickler der App One Sec aus Berlin, der in der Vergangenheit am App Store Foundation Program teilnahm. Auch Bastien Cazenave, Mitherausgeber des Spiels Sorcery School, der wie die anderen beiden Entwickler die neuen Analytics vorher kurz ausprobieren konnte, zeigt sich erfreut: Es sei eine ganz neue Detailebene, die sich Entwicklern da erschließe. Und obendrein seien die Analysedaten noch kostenlos.
Weiterlesen nach der Anzeige
So ganz uneigennützig dürfte Apples Engagement freilich nicht sein. Regulatoren in verschiedenen Ländern drängen Apple seit Jahren dazu, sein geschlossenes System auch für externe Anbieter zu öffnen, die Zahlungen und Abos abwickeln. Neben dem Datenschutzversprechen für die Nutzer kommt jetzt durch die erweiterten Analytics ein zusätzlicher Mehrwert für die Entwickler dazu, mit denen Apple seinen Plattform-Vorteil weiter ausbaut. Einige Entwickler dürften bislang auf externe kostenpflichtige Anbieter zurückgegriffen haben.
Lesen Sie auch
(mki)
Entwicklung & Code
Kommt jetzt Vibe Design? | heise online
Google hat sein Design-Werkzeug Stitch grundlegend überarbeitet. Das Ziel: Aus dem bisherigen Hilfsprogramm soll eine umfangreiche Arbeitsumgebung für Softwaredesign werden. In ihr begleitet ein KI-Agent den gesamten Entwurfsprozess. Nutzer beschreiben, was sie brauchen – die KI generiert daraus Oberflächen-Entwürfe. Klassische Wireframes als Ausgangspunkt sollen damit nicht mehr notwendig sein.
Weiterlesen nach der Anzeige
Neu ist eine Spracheingabe, über die Nutzer direkt mit dem System arbeiten können. Laut Google lassen sich damit in Echtzeit Designvarianten anfordern („zeig mir drei verschiedene Menü-Optionen“), Farbpaletten durchspielen oder ganze Landingpages im Dialog entwerfen. Die KI soll dabei auch als Sparringspartner dienen und Entwürfe kritisch kommentieren.
Unendliche Arbeitsfläche, automatische Prototypen
Die neue Oberfläche basiert auf einem „Infinite Canvas“, also einer unbegrenzt erweiterbaren Arbeitsfläche. Dort lassen sich Bilder, Texte und Code-Schnipsel als Kontext ablegen, aus dem die KI Entwürfe ableitet. Ein Agenten-Manager soll dabei helfen, mehrere Designrichtungen parallel zu verfolgen, ohne den Überblick zu verlieren.
Statische Entwürfe lassen sich per Klick in interaktive Prototypen umwandeln. Die KI generiert dabei automatisch logische Folgebildschirme und bildet so App-Abläufe ab, die sich direkt im Browser durchklicken lassen.
Damit Design-Vorgaben nicht bei jedem Projekt neu definiert werden müssen, führt Google das Format DESIGN.md ein. Hierbei handelt es sich um eine maschinenlesbare Markdown-Datei, die Gestaltungsregeln enthält. Sie lässt sich aus bestehenden Websites extrahieren und in andere Projekte oder Werkzeuge importieren. Über einen MCP-Server und ein SDK können fertige Entwürfe an Entwicklungsumgebungen wie AI Studio und Antigravity übergeben werden.
Für Profis und Start-ups
Weiterlesen nach der Anzeige
Google bezeichnet dieses Stitch-Update in seiner Ankündigung als „Vibe Design“ – angelehnt am Vibe Coding. Die Idee: Statt technischer Vorgaben beschreiben Nutzer Geschäftsziele oder die gewünschte Wirkung auf Endnutzer, die KI übersetzt das in konkrete Oberflächen. Entsprechend richtet sich Google damit ausdrücklich sowohl an professionelle Designer, die viele Varianten erkunden möchten, als auch an Gründer von Start-ups, die ihre erste Softwareidee umsetzen wollen.
(fo)
Entwicklung & Code
Schulungsangebot tech:lounge Live! 2026: Architektur, Data Science und KI
Softwareentwicklung steht an einem Wendepunkt. Daten und Künstliche Intelligenz verändern grundlegend, wie wir Systeme entwerfen, entwickeln und betreiben. Klassische Architekturansätze stoßen an ihre Grenzen, sobald Anwendungen von datengetriebenen Entscheidungen und intelligenten Komponenten bestimmt werden. Das gilt für Start-ups ebenso wie für etablierte Unternehmen, die ihre bestehenden Systeme weiterentwickeln müssen.
Weiterlesen nach der Anzeige

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Dieser Wandel betrifft nicht nur einzelne Technologien. Er betrifft die Art und Weise, wie wir über Architektur nachdenken, wie wir mit Daten umgehen und welche Rolle Entwicklerinnen und Entwickler in diesem veränderten Umfeld einnehmen. Wer heute Software baut, die in fünf Jahren noch Bestand haben soll, kommt nicht umhin, diesen Paradigmenwechsel aktiv zu gestalten.
Warum Architektur, Daten und KI zusammengehören
In vielen Unternehmen werden Architektur, Data Science und künstliche Intelligenz nach wie vor als getrennte Disziplinen behandelt. Das klingt nach sinnvoller Arbeitsteilung. In der Praxis führt es jedoch zunehmend zu Problemen, denn die drei Bereiche sind längst nicht mehr unabhängig voneinander.
Eine Architektur, die Datenflüsse nicht von Beginn an mitdenkt, wird scheitern, sobald datengetriebene Entscheidungen eine tragende Rolle spielen. Ein Machine-Learning-Modell, das ohne Rücksicht auf die umgebende Architektur trainiert wird, lässt sich kaum produktiv integrieren. Und Data Science bleibt wirkungslos, wenn die Ergebnisse nicht in tragfähige Anwendungen überführt werden können.
Was es braucht, ist ein integriertes Verständnis aller drei Disziplinen. Entwicklerinnen und Entwickler müssen architektonische Entscheidungen im Kontext von Datenstrategien treffen können. Sie müssen verstehen, was Machine Learning leisten kann und wo seine Grenzen liegen. Und sie müssen wissen, wie sich intelligente Komponenten nachhaltig in Systeme einbetten lassen. Genau an dieser Stelle setzt die tech:lounge Live! 2026 an.
Die zweite Runde
Weiterlesen nach der Anzeige
Im vergangenen Jahr hat die the native web GmbH zum ersten Mal die tech:lounge Live! veranstaltet, eine eintägige Konferenz in Freiburg im Breisgau. Das Feedback war äußerst positiv, und besonders der intensive Austausch in kleinem Kreis wurde immer wieder hervorgehoben.
Am 24. April 2026 geht die tech:lounge Live! daher in die zweite Runde, diesmal mit einem neuen Schwerpunkt: dem Zusammenspiel von Softwarearchitektur, Data Science und künstlicher Intelligenz. Sechs Referentinnen und Referenten beleuchten das Thema aus unterschiedlichen Perspektiven. Die Vorträge bauen aufeinander auf und fügen sich zu einem Gesamtbild.
Das Programm
Den Auftakt um 9 Uhr bildet eine Keynote von Golo Roden (the native web GmbH) unter dem Titel „Warum wir Software neu denken müssen“. Sie beleuchtet die grundlegenden Veränderungen, die der Paradigmenwechsel hin zu datengetriebener Software mit sich bringt, und setzt den thematischen Rahmen für den Tag.
Anschließend geht es um „Architektur im datengetriebenen Zeitalter“, ebenfalls mit Golo Roden. Der Vortrag zeigt, wie sich Architekturen verändern, wenn Datenflüsse und deren Qualität ins Zentrum der Entscheidungen rücken, und welche Prinzipien Architekturen zukunftsfähig halten.
Nach der ersten Kaffeepause widmet sich Johannes Fröhlich (SICK AG) dem Thema „Daten als APIs: Vom Datensilo zum Produkt“. Er zeigt, wie ein Data Mesh die Perspektive auf Daten verändert und was es bedeutet, wenn Daten als Schnittstellen gedacht und wie Produkte gestaltet werden.
Vor der Mittagspause entzaubert Alexandra Kirsch (Alex Kirsch IT GmbH) in „Warum Machine Learning keine Magie ist“ die vermeintliche Blackbox. Sie legt offen, wie Statistik, Wahrscheinlichkeiten und Zufall die eigentliche Grundlage bilden, und schafft ein Fundament, das hilft, Machine Learning kritisch einzuordnen.
Am Nachmittag zeigt Niklas Goby (BadenCampus) in „KI in der Praxis: Vom Modell zur Anwendung“, wie der Schritt vom trainierten Modell zur produktiven Anwendung gelingt. Anhand praktischer Beispiele beleuchtet er Best Practices, typische Stolperfallen und die Rolle der Entwicklerinnen und Entwickler bei diesem Übergang.
Felix Leber (Jung von Matt NECKAR) blickt in „Next Generation Software Engineering“ auf die veränderte Rolle derjenigen, die moderne Systeme bauen. Welche Fähigkeiten und Denkweisen sind erforderlich, wenn klassisches Coding allein nicht mehr ausreicht?
Nach der zweiten Kaffeepause liefert Matthias Grünewald (Syna GmbH) mit „Intelligente Systeme nachhaltig denken“ einen strategischen Ausblick. Er diskutiert, wie intelligente Systeme langfristig tragfähig gestaltet werden können und welche Leitplanken dafür entscheidend sind.
Den Abschluss bildet die Closing-Session „Wider den Hype“, die die Fäden des Tages zusammenzieht und einordnet, was bleibt, was sich verändert und wie Entwicklerinnen und Entwickler die Zukunft aktiv gestalten können.
Freiburg, Lokhalle, 100 Plätze
Veranstaltungsort ist die Lokhalle in Freiburg im Breisgau, eine denkmalgeschützte Industriehalle im Güterbahnhof-Areal mit hohen Decken, viel Licht und industriellem Charme. Die Lokhalle liegt in der Nähe des Hauptbahnhofs und ist von dort gut mit der Straßenbahn erreichbar. Freiburg selbst ist mit dem ICE aus allen großen deutschen Städten erreichbar.
Von 9 bis 18 Uhr erwartet die Teilnehmerinnen und Teilnehmer ein kompaktes Programm mit Verpflegung über den gesamten Tag. Die Pausen sind bewusst großzügig bemessen, denn ein wesentlicher Teil des Wertes einer solchen Veranstaltung entsteht zwischen den Teilnehmerinnen und Teilnehmern, nicht nur auf der Bühne. Maximal 100 Plätze sorgen dafür, dass echte Gespräche möglich sind. Wer im vergangenen Jahr dabei war, weiß, wie wertvoll gerade dieser persönliche Rahmen ist.
Ein Ticket kostet 499 Euro zuzüglich 19 Prozent Umsatzsteuer und kann ab sofort auf der Website der tech:lounge Live! 2026 gebucht werden.
(rme)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 1 Monat
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
-
Künstliche Intelligenzvor 2 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
