Connect with us

Entwicklung & Code

Schulungsangebot tech:lounge Live! 2026: Architektur, Data Science und KI


Softwareentwicklung steht an einem Wendepunkt. Daten und Künstliche Intelligenz verändern grundlegend, wie wir Systeme entwerfen, entwickeln und betreiben. Klassische Architekturansätze stoßen an ihre Grenzen, sobald Anwendungen von datengetriebenen Entscheidungen und intelligenten Komponenten bestimmt werden. Das gilt für Start-ups ebenso wie für etablierte Unternehmen, die ihre bestehenden Systeme weiterentwickeln müssen.

Weiterlesen nach der Anzeige


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Dieser Wandel betrifft nicht nur einzelne Technologien. Er betrifft die Art und Weise, wie wir über Architektur nachdenken, wie wir mit Daten umgehen und welche Rolle Entwicklerinnen und Entwickler in diesem veränderten Umfeld einnehmen. Wer heute Software baut, die in fünf Jahren noch Bestand haben soll, kommt nicht umhin, diesen Paradigmenwechsel aktiv zu gestalten.

In vielen Unternehmen werden Architektur, Data Science und künstliche Intelligenz nach wie vor als getrennte Disziplinen behandelt. Das klingt nach sinnvoller Arbeitsteilung. In der Praxis führt es jedoch zunehmend zu Problemen, denn die drei Bereiche sind längst nicht mehr unabhängig voneinander.

Eine Architektur, die Datenflüsse nicht von Beginn an mitdenkt, wird scheitern, sobald datengetriebene Entscheidungen eine tragende Rolle spielen. Ein Machine-Learning-Modell, das ohne Rücksicht auf die umgebende Architektur trainiert wird, lässt sich kaum produktiv integrieren. Und Data Science bleibt wirkungslos, wenn die Ergebnisse nicht in tragfähige Anwendungen überführt werden können.

Was es braucht, ist ein integriertes Verständnis aller drei Disziplinen. Entwicklerinnen und Entwickler müssen architektonische Entscheidungen im Kontext von Datenstrategien treffen können. Sie müssen verstehen, was Machine Learning leisten kann und wo seine Grenzen liegen. Und sie müssen wissen, wie sich intelligente Komponenten nachhaltig in Systeme einbetten lassen. Genau an dieser Stelle setzt die tech:lounge Live! 2026 an.

Weiterlesen nach der Anzeige

Im vergangenen Jahr hat die the native web GmbH zum ersten Mal die tech:lounge Live! veranstaltet, eine eintägige Konferenz in Freiburg im Breisgau. Das Feedback war äußerst positiv, und besonders der intensive Austausch in kleinem Kreis wurde immer wieder hervorgehoben.

Am 24. April 2026 geht die tech:lounge Live! daher in die zweite Runde, diesmal mit einem neuen Schwerpunkt: dem Zusammenspiel von Softwarearchitektur, Data Science und künstlicher Intelligenz. Sechs Referentinnen und Referenten beleuchten das Thema aus unterschiedlichen Perspektiven. Die Vorträge bauen aufeinander auf und fügen sich zu einem Gesamtbild.

Den Auftakt um 9 Uhr bildet eine Keynote von Golo Roden (the native web GmbH) unter dem Titel „Warum wir Software neu denken müssen“. Sie beleuchtet die grundlegenden Veränderungen, die der Paradigmenwechsel hin zu datengetriebener Software mit sich bringt, und setzt den thematischen Rahmen für den Tag.

Anschließend geht es um „Architektur im datengetriebenen Zeitalter“, ebenfalls mit Golo Roden. Der Vortrag zeigt, wie sich Architekturen verändern, wenn Datenflüsse und deren Qualität ins Zentrum der Entscheidungen rücken, und welche Prinzipien Architekturen zukunftsfähig halten.

Nach der ersten Kaffeepause widmet sich Johannes Fröhlich (SICK AG) dem Thema „Daten als APIs: Vom Datensilo zum Produkt“. Er zeigt, wie ein Data Mesh die Perspektive auf Daten verändert und was es bedeutet, wenn Daten als Schnittstellen gedacht und wie Produkte gestaltet werden.

Vor der Mittagspause entzaubert Alexandra Kirsch (Alex Kirsch IT GmbH) in „Warum Machine Learning keine Magie ist“ die vermeintliche Blackbox. Sie legt offen, wie Statistik, Wahrscheinlichkeiten und Zufall die eigentliche Grundlage bilden, und schafft ein Fundament, das hilft, Machine Learning kritisch einzuordnen.

Am Nachmittag zeigt Niklas Goby (BadenCampus) in „KI in der Praxis: Vom Modell zur Anwendung“, wie der Schritt vom trainierten Modell zur produktiven Anwendung gelingt. Anhand praktischer Beispiele beleuchtet er Best Practices, typische Stolperfallen und die Rolle der Entwicklerinnen und Entwickler bei diesem Übergang.

Felix Leber (Jung von Matt NECKAR) blickt in „Next Generation Software Engineering“ auf die veränderte Rolle derjenigen, die moderne Systeme bauen. Welche Fähigkeiten und Denkweisen sind erforderlich, wenn klassisches Coding allein nicht mehr ausreicht?

Nach der zweiten Kaffeepause liefert Matthias Grünewald (Syna GmbH) mit „Intelligente Systeme nachhaltig denken“ einen strategischen Ausblick. Er diskutiert, wie intelligente Systeme langfristig tragfähig gestaltet werden können und welche Leitplanken dafür entscheidend sind.

Den Abschluss bildet die Closing-Session „Wider den Hype“, die die Fäden des Tages zusammenzieht und einordnet, was bleibt, was sich verändert und wie Entwicklerinnen und Entwickler die Zukunft aktiv gestalten können.

Veranstaltungsort ist die Lokhalle in Freiburg im Breisgau, eine denkmalgeschützte Industriehalle im Güterbahnhof-Areal mit hohen Decken, viel Licht und industriellem Charme. Die Lokhalle liegt in der Nähe des Hauptbahnhofs und ist von dort gut mit der Straßenbahn erreichbar. Freiburg selbst ist mit dem ICE aus allen großen deutschen Städten erreichbar.

Von 9 bis 18 Uhr erwartet die Teilnehmerinnen und Teilnehmer ein kompaktes Programm mit Verpflegung über den gesamten Tag. Die Pausen sind bewusst großzügig bemessen, denn ein wesentlicher Teil des Wertes einer solchen Veranstaltung entsteht zwischen den Teilnehmerinnen und Teilnehmern, nicht nur auf der Bühne. Maximal 100 Plätze sorgen dafür, dass echte Gespräche möglich sind. Wer im vergangenen Jahr dabei war, weiß, wie wertvoll gerade dieser persönliche Rahmen ist.

Ein Ticket kostet 499 Euro zuzüglich 19 Prozent Umsatzsteuer und kann ab sofort auf der Website der tech:lounge Live! 2026 gebucht werden.


(rme)



Source link

Entwicklung & Code

Lakewatch: Databricks bringt agentenbasiertes Open-SIEM mit Claude-Integration


Das Unternehmen Databricks hat mit Lakewatch ein neues SIEM-System (Security Information and Event Management) vorgestellt, das neue Wege in der Sicherheitsüberwachung beschreiten soll. Lakewatch baut auf einer offenen Security-Lakehouse-Architektur auf und setzt sich damit laut Ankündigung von etablierten SIEM-Angeboten ab, die in der Regel Storage und Compute koppeln. KI-Agenten sollen dabei Bedrohungen automatisch erkennen, triagieren und Gegenmaßnahmen einleiten.

Weiterlesen nach der Anzeige

Wie Databricks in seinem Blog erläutert, können Unternehmen mit Lakewatch sämtliche Sicherheits-, IT- und Geschäftsdaten in einer einheitlichen Umgebung zusammenführen – einschließlich multimodaler Formate wie Video und Audio im Petabyte-Bereich. Databricks verspricht bis zu 80 Prozent niedrigere Gesamtbetriebskosten im Vergleich zu klassischen SIEM-Systemen. Diese verwerfen Databricks zufolge einen Großteil der eingehenden Telemetriedaten, um die Speicherkosten im Griff behalten zu können. Lakewatch hingegen entkoppele Storage und Compute und behalte alle Daten.


data2day 2026 Logo

data2day 2026 Logo

Am 7. und 8. Oktober 2026 lädt die data2day Data Scientists, Data Engineers und Data Teams zur mittlerweile 13. Auflage der Konferenz ein. Bis zum 15. April können Expertinnen und Experten beim Call for Proposals noch ihre Vorschläge für Talks und Workshops einreichen.

Als offenen Standard für die Datennormalisierung nutzt Lakewatch das Open Cybersecurity Schema Framework (OCSF). Security-Logs sowohl aus strukturierten als auch unstrukturierten Quellen werden damit automatisch in ein einheitliches Schema überführt. Die Datenaufnahme erfolgt über Lakeflow Connect, das Quellen wie AWS oder Okta anbindet. Governance- und Compliance-Anforderungen wie NIS2 oder DORA lassen sich über die feingranularen Zugriffskontrollen des Unity Catalog abdecken.

Das Herzstück von Lakewatch bilden agentenbasierte Funktionen: Mit den im vergangenen Jahr vorgestellten Agent Bricks lassen sich benutzerdefinierte Sicherheitsagenten erstellen, die Telemetriedaten in einer Vielzahl von Formaten analysieren. Sie korrelieren Signale, reduzieren Fehlalarme und verkürzen die mittlere Erkennungs- und Reaktionszeit (MTTD/MTTR). Für natürlichsprachliche Abfragen und automatisierte Triage-Workflows integriert Databricks seinen KI-Agenten Genie. Detection-as-Code-Ansätze mit YAML, SQL und Python ermöglichen zudem automatisierte Tests über CI/CD-Pipelines.

Für das Reasoning der Agenten setzt Databricks auf Claude-Modelle von Anthropic. Die beiden Unternehmen haben im Zuge der Lakewatch-Vorstellung ihre Partnerschaft vertieft: Claude 3.7 Sonnet kommt bei der Signalkorrelation und Bedrohungsanalyse zum Einsatz. Anthropic nutzt im Gegenzug die Security-Lakehouse-Infrastruktur von Databricks. Der Ansatz, KI-Agenten als Teams zusammenarbeiten zu lassen, findet sich auch in Anthropics Multi-Agent-Systemen für Code Reviews wieder.

Weiterlesen nach der Anzeige

Databricks positioniert Lakewatch bewusst als offenes Ökosystem. Zum Start sind unter anderem Palo Alto Networks, Zscaler, Wiz (Google Cloud), Okta, CrowdStrike-Konkurrent Arctic Wolf, Cribl und Deloitte als Partner an Bord. Hinter der Entwicklung stehen außerdem zwei Übernahmen: Antimatter (sichere Authentifizierung für KI-Agenten) und SiftD.ai, das vom Erfinder der Splunk-Abfragesprache SPL gegründet wurde. Adobe und Dropbox zählen zu den ersten ausgewählten Kunden, die das SIEM-System testen. Lakewatch ist laut Ankündigung ab sofort als Private Preview verfügbar.


(map)



Source link

Weiterlesen

Entwicklung & Code

Kommt jetzt Vibe Design? | heise online


Google hat sein Design-Werkzeug Stitch grundlegend überarbeitet. Das Ziel: Aus dem bisherigen Hilfsprogramm soll eine umfangreiche Arbeitsumgebung für Softwaredesign werden. In ihr begleitet ein KI-Agent den gesamten Entwurfsprozess. Nutzer beschreiben, was sie brauchen – die KI generiert daraus Oberflächen-Entwürfe. Klassische Wireframes als Ausgangspunkt sollen damit nicht mehr notwendig sein.

Weiterlesen nach der Anzeige

Neu ist eine Spracheingabe, über die Nutzer direkt mit dem System arbeiten können. Laut Google lassen sich damit in Echtzeit Designvarianten anfordern („zeig mir drei verschiedene Menü-Optionen“), Farbpaletten durchspielen oder ganze Landingpages im Dialog entwerfen. Die KI soll dabei auch als Sparringspartner dienen und Entwürfe kritisch kommentieren.

Die neue Oberfläche basiert auf einem „Infinite Canvas“, also einer unbegrenzt erweiterbaren Arbeitsfläche. Dort lassen sich Bilder, Texte und Code-Schnipsel als Kontext ablegen, aus dem die KI Entwürfe ableitet. Ein Agenten-Manager soll dabei helfen, mehrere Designrichtungen parallel zu verfolgen, ohne den Überblick zu verlieren.

Statische Entwürfe lassen sich per Klick in interaktive Prototypen umwandeln. Die KI generiert dabei automatisch logische Folgebildschirme und bildet so App-Abläufe ab, die sich direkt im Browser durchklicken lassen.

Damit Design-Vorgaben nicht bei jedem Projekt neu definiert werden müssen, führt Google das Format DESIGN.md ein. Hierbei handelt es sich um eine maschinenlesbare Markdown-Datei, die Gestaltungsregeln enthält. Sie lässt sich aus bestehenden Websites extrahieren und in andere Projekte oder Werkzeuge importieren. Über einen MCP-Server und ein SDK können fertige Entwürfe an Entwicklungsumgebungen wie AI Studio und Antigravity übergeben werden.

Weiterlesen nach der Anzeige

Google bezeichnet dieses Stitch-Update in seiner Ankündigung als „Vibe Design“ – angelehnt am Vibe Coding. Die Idee: Statt technischer Vorgaben beschreiben Nutzer Geschäftsziele oder die gewünschte Wirkung auf Endnutzer, die KI übersetzt das in konkrete Oberflächen. Entsprechend richtet sich Google damit ausdrücklich sowohl an professionelle Designer, die viele Varianten erkunden möchten, als auch an Gründer von Start-ups, die ihre erste Softwareidee umsetzen wollen.


(fo)



Source link

Weiterlesen

Entwicklung & Code

Kubermatic SecureGuard: Automatisiertes Secrets-Management für Kubernetes


Im Rahmen der diesjährigen KubeCon + CloudNativeCon Europe hat das Hamburger Unternehmen Kubermatic eine neue Open-Source-basierte Plattform vorgestellt, die das Verwalten sensibler Zugangsdaten in Kubernetes-Umgebungen automatisieren soll. Kubermatic SecureGuard – kurz KubeSG – soll Sicherheitsteams eine zentrale Steuerungsebene bieten, über die sich API-Schlüssel, Datenbankpasswörter und KI-Token automatisiert verwalten, rotieren und prüfen lassen.

Weiterlesen nach der Anzeige

Kompromittierte Anmeldedaten seien ein verbreitetes Problem in Cloud-nativen Infrastrukturen und stellten insbesondere für Unternehmen mit schnell wachsenden Kubernetes- und KI-Workloads eine ernste Herausforderung dar. Die weltweiten Durchschnittskosten pro Vorfall lagen laut dem IBM Cost of a Data Breach Report 2025 bei rund 4,44 Millionen US-Dollar.

Genau an dieser Stelle soll das neue Produkt KubeSG laut Ankündigung ansetzen. Technisch baut Kubermatic dabei auf zwei Open-Source-Komponenten: OpenBao als Secrets-Engine und den External Secrets Operator (ESO) für die Anbindung an Kubernetes. Deren Kombination liefert eine selbst gehostete, Kubernetes-native Schicht für das Secrets-Management. Anwendungen erhalten automatisch nur diejenigen Anmeldedaten, für die sie berechtigt sind – eingebunden als standardmäßige Kubernetes-Secrets-Objekte, Umgebungsvariablen oder gemountete Dateien.

Kubermatic will sich mit dem Open-Source-Ansatz bewusst als Gegenmodell zu proprietären Lösungen positionieren, damit auch die Sicherheitsinfrastruktur vollständig transparent und überprüfbar sein könne. KubeSG soll Unternehmen jederzeit Einblick gewähren, wie ihre Geheimnisse gespeichert, abgerufen und auditiert werden.

Weiterlesen nach der Anzeige

Über den Sicherheitsaspekt hinaus will Kubermatic mit SecureGuard auch ein operatives Problem angehen: In vielen Organisationen binde das manuelle Verwalten von Zugangsdaten erhebliche Kapazitäten. Ticket-Warteschlangen, selbst geschriebene Skripte und erzwungene Dienst-Neustarts bei der Rotation von Geheimnissen bremsen laut Kubermatic die Entwicklungsgeschwindigkeit. KubeSG soll diese Schritte automatisieren, sodass sich Entwicklerteams auf die eigentliche Softwarebereitstellung konzentrieren können, statt Anmeldedaten zu pflegen.

Die Plattform unterstützt darüber hinaus Mandantenfähigkeit mit isolierten Geheimnisspeichern. Große Unternehmen sollen so den Wirkungsradius potenzieller Sicherheitsvorfälle begrenzen können, indem Umgebungen und Teams strikt voneinander getrennt werden. Für Multi-Cloud- und Hybrid-Infrastrukturen bietet SecureGuard eine zentrale Governance-Schicht, die bei der Erfüllung von Compliance-Anforderungen helfen soll.

SecureGuard reiht sich in das Open-Source-Produktportfolio von Kubermatic ein. Dazu zählen unter anderem die Kubernetes-Plattform (KKP), Kubermatic Virtualization (KubeV) für Container-VM-Konvergenz, eine Developer Control Plane (KDP), Single-Node Kubernetes (KubeOne) sowie Multi-Tenant Load Balancing (KubeLB).

Lesen Sie auch


(map)



Source link

Weiterlesen

Beliebt