Connect with us

Entwicklung & Code

KI-Agenten und No-Code-Pipelines: Databricks Agent Bricks und Lakeflow Designer


Im Rahmen des Data + AI Summit hat das Unternehmen Databricks eine Reihe von Neuigkeiten angekündigt, darunter den Start der Agent Bricks, einer automatisierten Methode zum Erstellen von individuell auf Unternehmen zugeschnittenen KI-Agenten, sowie der Preview von Lakeflow Designer, mit dem sich Datenpipelines KI-gestützt per visueller Drag-and-Drop-Oberfläche anlegen lassen. Darüber hinaus hat das als Plattform für das Lebenszyklus-Management von Machine-Learning-Projekten ausgelegte Open-Source-Tool MLflow Version 3.0 erreicht.

Die neuen Agent Bricks sollen auf Basis der in einem Unternehmen verfügbaren Daten gezielt dabei unterstützen, kosteneffiziente und vertrauenswürdige KI-Agenten bereitzustellen und diese automatisch zu optimieren. Dazu generieren die Agent Bricks ergänzend zu den individuellen Kundendaten automatisch domänenspezifische synthetische Daten und aufgabenbezogene Benchmarks, um den Teams im Unternehmen den notwendigen – und häufig mühsamen – Optimierungsprozess abzunehmen. Die Kernaufgabe dabei ist es, die Daten der Kunden und deren Domäne genau zu verstehen, um anschließend KI-Agenten für spezifische Aufgaben bauen zu können. „Beispielsweise könnte ein Kunde ein Agentensystem bereitstellen wollen, das Fragen zu den von ihm angebotenen Produkten beantworten kann“, erläutert Joel Minnick, Vice President Marketing bei Databricks.



Mit Agent Bricks schneller zum maßgeschneiderten KI-Agenten

(Bild: Databricks)

Ausgehend von dieser Zielsetzung erzeugen die Agent Bricks dann eine Reihe sogenannter LLM Judges und zur Daten-Domäne des Kunden passende synthetische Daten. Anhand eines Fragenkatalogs und einem iterativen Frage-Antwort-Prozess, in dem die LLM Judges als Bewerter fungieren, nähert sich das System dann der Zielsetzung des Kunden schrittweise an. Dabei greifen die Agent Bricks auf sämtliche in der Databricks-Plattform verfügbaren Optimierungstechniken und ML-Modelle zurück – auch jene, die noch der Forschungsabteilung bei Databricks vorbehalten sind.

Den Umfang des Iterationsprozesses können Kunden selbst entscheiden und zwischen der Qualität des entstehenden KI-Agenten für den produktiven Einsatz und den dafür erforderlichen Kosten abwägen. Wie schnell dabei ein geeignetes Ergebnis zu erzielen ist, habe sich bei den Versuchen erster Testkunden gezeigt, sagt Minnick: „Ein Pharmakonzern hat einen Agenten zur Wissensextraktion gebaut, der Hunderttausende Dokumente zu klinischen Studien nach Daten für die Optimierung der klinischen Forschung untersucht hat. Es hat nur 60 Minuten gedauert, diesen KI-Agenten zu bauen.“ Die Agent Bricks sind ab sofort in der Beta-Version verfügbar.

Angekündigt hat Databricks auch die Preview von Lakeflow Designer. Diese neue No-Code-ETL-Funktion soll es auch nicht-technischen Anwenderinnen und Anwendern wie etwa Businessanalysten ermöglichen, mithilfe einer visuellen Drag-and-Drop-Oberfläche und einem GenAI-Assistenten in natürlicher Sprache produktionsreife Datenpipelines zu erstellen. Wie der Name es andeutet, setzt der Lakeflow Designer auf dem nun auch generell verfügbaren Data-Engineering-Tool Lakeflow auf. Dieses Werkzeug hilft beim schnelleren Aufbau zuverlässiger Datenpipelines – auch mit geschäftskritischen Daten. Um auch ETL-Pipelines mit derselben Skalierbarkeit und denselben Anforderungen an Governance und Wartbarkeit ohne Programmierkenntnisse zu erstellen, bietet Lakeflow Designer die Unterstützung durch einen KI-Assistenten. Mit dessen Hilfe lassen sich die Pipelines auf der Drag-and-Drop-Oberfläche einfach Schritt für Schritt zusammenbauen.

Unter den weiteren Ankündigungen im Databricks-Blog finden sich eine neue Entwicklungsumgebung (IDE) für Data Engineering, die KI-gestützte Codierung, Debugging und Validierung bietet, sowie neue Point-and-Click-Ingestionskonnektoren für Lakeflow Connect, die sich an verschiedene Dienste wie Google Analytics und SQL Server anbinden lassen. Auch das MLOps-Werkzeug MLflow hat ein Update erhalten und bietet in der nun allgemein verfügbaren Version 3.0 vor allem erweiterte GenAI-Funktionen – etwa für Tracing, LLM Judges, die Anwendungsversionierung und das Prompt-Management.




(Bild: TechSolution/Shutterstock)

Nach dem großen Erfolg der ersten betterCode() GenAI findet die Online-Konferenz zur KI-gestützten Softwareentwicklung am 26. Juni erneut statt.

Die Veranstalter iX und dpunkt.verlag haben das Programm der Konferenz aktualisiert und anhand des Feedbacks weiter verbessert. Es bietet folgende Vorträge:

  • Softwareentwicklung mit Copilot, ChatGPT und Co
  • Was gibt es Neues bei KI-Coding-Tools?
  • Software mit KI-Unterstützung testen
  • Mit ChatGPT Dinosaurier besiegen – LLMs für die Analyse alter Systeme
  • Stärken und Schwächen KI-unterstützter, sicherer Softwareentwicklung
  • Rechtliche Aspekte KI-gestützter Softwareentwicklung


(map)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Entwicklung & Code

programmier.bar: CTO-Special mit Peyman Pouryekta – Interim CTO und Berater


Peyman Pouryekta berät heute als selbstständiger Experte CTOs, Firmen und Venture Funds – doch sein Weg dorthin war alles andere als geradlinig. Geboren 1982 in Teheran, kam er als Kind nach Deutschland, machte später eine Elektriker-Ausbildung, brach ein Studium ab und fand schließlich über einen weiteren Ausbildungsweg zur Softwareentwicklung. In den 2010er Jahren arbeitete er in Berlin schon früh mit neuronalen Netzen, KI und skalierbaren Produkten.

Im Gespräch mit Jan Gregor Emge-Triebel und Dennis Becker geht es um Peymans Ausbildungsweg, seine ersten Leadership-Rollen und seine Entscheidung für die Selbstständigkeit. Außerdem diskutieren die drei, welche Fehler Führungskräfte sowie Gründerinnen und Gründer häufig machen – und welche Rolle künstlliche Intelligenz in Zukunft spielen wird.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.

Die aktuelle Ausgabe des Podcasts steht auch im Blog der programmier.bar bereit: „Peyman Pouryekta – Interim CTO und Berater„. Fragen und Anregungen gerne per Mail oder via Mastodon, Bluesky, LinkedIn oder Instagram.


(mai)





Source link

Weiterlesen

Entwicklung & Code

Neuerungen in C++26: Datenparallele Datentypen (SIMD)


Die SIMD-Bibliothek bietet in C++26 portable Typen zur expliziten Angabe von Datenparallelität und zur Strukturierung von Daten für einen effizienteren SIMD-Zugriff. Bevor wir uns im Detail mit der neuen Bibliothek befassen, möchte ich kurz ein paar allgemeine Anmerkungen zu SIMD (Single Instruction, Multiple Data) voranschicken.


Rainer Grimm

Rainer Grimm

Rainer Grimm ist seit vielen Jahren als Softwarearchitekt, Team- und Schulungsleiter tätig. Er schreibt gerne Artikel zu den Programmiersprachen C++, Python und Haskell, spricht aber auch gerne und häufig auf Fachkonferenzen. Auf seinem Blog Modernes C++ beschäftigt er sich intensiv mit seiner Leidenschaft C++.

Vektorisierung bezieht sich auf die SIMD-Erweiterungen (Single Instruction, Multiple Data) des Befehlssatzes moderner Prozessoren. SIMD ermöglicht es dem Prozessor, eine Operation parallel auf mehrere Daten anzuwenden.

Ein einfaches Beispiel: Ob ein Algorithmus parallel und vektorisiert ausgeführt wird, hängt von vielen Faktoren ab – unter anderem davon, ob die CPU und das Betriebssystem SIMD-Befehle unterstützen. Außerdem kommt es auf den Compiler und den Optimierungsgrad an, der zum Kompilieren des Codes eingesetzt wird.


// SIMD.cpp

const int SIZE= 8;

int vec[]={1,2,3,4,5,6,7,8};
int res[SIZE]={0,};

int main(){
  for (int i= 0; i < SIZE; ++i) {
    res[i]= vec[i]+5; // (1)
  }
}


Zeile 1 ist die Schlüsselzeile in dem kleinen Programm. Dank des Compiler Explorers ist es recht einfach, die Assemblerbefehle für Clang 3.6 mit und ohne maximale Optimierung (-O3) zu generieren.

Obwohl meine Zeit, in der ich mit Assemblerbefehlen herumgespielt habe, lange vorbei ist, ist es offensichtlich, dass alles sequenziell ausgeführt wird:



(Bild: Rainer Grimm)

Durch die Verwendung der maximalen Optimierung erhalte ich Befehle, die parallel auf mehreren Datensätzen ausgeführt werden:



(Bild: Rainer Grimm)

Die Move-Operation (movdqa) und die Add-Operation (paddd) verwenden die speziellen Register xmm0 und xmm1. Beide Register sind sogenannte SSE-Register mit einer Breite von 128 Bit. Damit können 4 ints auf einmal verarbeitet werden. SSE steht für Streaming SIMD Extensions. Leider sind Vektorbefehle stark von der eingesetzten Architektur abhängig. Weder die Befehle noch die Registerbreiten sind einheitlich.

Moderne Intel-Architekturen unterstützen meist AVX2 oder sogar AVX-512. Dies ermöglicht 256-Bit- oder 512-Bit-Operationen. Damit können 8 oder 16 ints parallel verarbeitet werden. AVX steht für Advanced Vector Extension.

Genau hier kommen die neuen datenparallelen Datentypen der Bibliothek ins Spiel, die eine einheitliche Schnittstelle zu Vektorbefehlen bieten.

Bevor ich mich mit der neuen Bibliothek beschäftige, sind einige Definitionen erforderlich. Diese Definitionen beziehen sich auf den Proposal P1928R15. Insgesamt umfasst die neue Bibliothek sechs Proposals.


Cpp SIMD

Cpp SIMD

(Bild: Rainer Grimm)

Die Menge der vektorisierbaren Typen umfasst alle Standard-Ganzzahltypen, Zeichentypen sowie die Typen float und double. Darüber hinaus sind std::float16_t, std::float32_t und std::float64_t vektorisierbare Typen, sofern sie definiert sind.

Der Begriff datenparallel bezieht sich auf alle aktivierten Spezialisierungen der Klassen-Templates basic_simd und basic_simd_mask. Ein datenparalleles Objekt ist ein Objekt vom datenparallelen Typ.

Ein datenparalleler Typ besteht aus einem oder mehreren Elementen eines zugrunde liegenden vektorisierbaren Typs, der als Elementtyp bezeichnet wird. Die Anzahl der Elemente ist für jeden datenparallelen Typ eine Konstante und wird als Breite dieses Typs bezeichnet. Die Elemente in einem datenparallelen Typ werden von 0 bis Breite −1 indiziert.

Eine elementweise Operation wendet eine bestimmte Operation auf die Elemente eines oder mehrerer datenparalleler Objekte an. Jede solche Anwendung ist in Bezug auf die anderen nicht sequenziell. Eine unäre elementweise Operation ist eine elementweise Operation, die eine unäre Operation auf jedes Element eines datenparallelen Objekts anwendet. Eine binäre elementweise Operation ist eine elementweise Operation, die eine binäre Operation auf entsprechende Elemente zweier datenparallelisierter Objekte anwendet.

Nach so viel Theorie möchte ich nun ein kleines Beispiel zeigen. Es stammt von Matthias Kretz, Autor des Proposals P1928R15. Das Beispiel aus seiner Präsentation auf der CppCon 2023 zeigt eine Funktion f, die einen Vektor entgegennimmt und dessen Elemente auf ihre Sinuswerte abbildet:


 void f(std::vector& data) {
    using floatv = std::simd;
    for (auto it = data.begin(); it < data.end(); it += floatv::size()) {
        floatv v(it);
        v = std::sin(v);
        v.copy_to(it);
    }
}


Die Funktion f nimmt einen Vektor von Floats (data) als Referenz. Sie definiert floatv als SIMD-Vektor von Floats unter Verwendung von std::simd. f durchläuft den Vektor in Blöcken, wobei jeder Block die Größe des SIMD-Vektors hat.

Für jeden Block gilt:

  • Lädt den Block in einen SIMD-Vektor (floatv v(it);).
  • Wendet die Sinusfunktion gleichzeitig auf alle Elemente im SIMD-Vektor an (v = std::sin(v);).
  • Schreibt die Ergebnisse zurück in den ursprünglichen Vektor (v.copy_to(it);).

Die Behandlung von SIMD-Anweisungen wird besonders elegant, wenn der Proposal P0350R4 in C++26 implementiert wird. SIMD kann dann beispielsweise als neue Execution Policy in Algorithmen verwendet werden:


void f(std::vector& data) {
    std::for_each(std::execution::simd, data.begin(), data.end(), [](auto& v) {
        v = std::sin(v);
    });
}


In meinem nächsten Artikel werde ich mich näher mit der neuen SIMD-Bibliothek befassen.


(map)



Source link

Weiterlesen

Entwicklung & Code

Die Produktwerker: Scrum-Werte für Product Owner – ein Kompass für den Alltag


Die fünf Scrum-Werte stehen etwas unscheinbar im Scrum Guide – nur ein kurzer Absatz, gefühlt kaum mehr als eine Randnotiz. Und doch bilden sie die Grundlage dafür, dass iteratives Arbeiten, gemäß dem Prinzip empirischer Prozesssteuerung, in Scrum überhaupt möglich ist.

In dieser Folge sprechen Oliver Winter und Tim Klein darüber, wie Product Owner diese Scrum-Werte im Alltag konkret leben können. Nicht abstrakt und theoretisch, sondern ganz praktisch – im Spannungsfeld von Verantwortung, Kommunikation und Produktführung.

Viele Teams und Organisationen arbeiten mit Scrum, ohne die Bedeutung der Scrum-Werte wirklich zu reflektieren. Dabei hängt vieles genau davon ab: Wie offen geht man mit Feedback um? Wie mutig spricht man Konflikte an? Wie sehr helfen Fokus, Commitment und Respekt dabei, Klarheit zu schaffen und wirkungsvoll zusammenzuarbeiten?

Tim und Oliver nehmen sich alle fünf Scrum-Werte vor – Commitment, Fokus, Mut, Offenheit und Respekt – und beleuchten sie aus der Sicht eines Product Owners. Sie zeigen, dass es nicht um perfekte Haltung oder moralische Überlegenheit geht, sondern um gelebte Verantwortung. Und um die Wirkung, die entsteht, wenn ein Product Owner diese Werte nicht nur benennt, sondern im täglichen Handeln sichtbar macht.

Ob in der Priorisierung, im Stakeholder-Dialog oder im Sprint Review: Die Scrum-Werte zeigen sich überall. Wer als Product Owner mutig ist, kann klare Entscheidungen treffen, statt es allen recht machen zu wollen. Wer respektvoll kommuniziert, schafft Vertrauen – gerade auch in schwierigen Situationen. Und nur wer offen bleibt, kann Feedback wirklich annehmen, ohne die eigene Position zu verlieren.

Oft stehen diese Werte in Spannung zueinander – oder im Widerspruch zu dem, was das Umfeld verlangt. Hierzu hatten die Produktwerker letzte Woche die Episode mit Johannes Schartau („Wenn Strukturen die Produktentwicklung behindern“). Gerade unter Druck fällt es schwer, Respekt zu zeigen, mutig zu bleiben oder sich zu fokussieren. Und genau deshalb braucht es Reflexion: ein klares Gespür dafür, welchen Wert ich in meinem Kontext gerade besonders stärken will. Und die Bereitschaft, kleine Schritte zu gehen, statt alles auf einmal verändern zu wollen.

Diese Folge ist eine Einladung, den Scrum-Werten mehr Raum zu geben – nicht als Theorie, sondern als Kompass im Alltag. Wer sie ernst nimmt, stärkt nicht nur die eigene Wirksamkeit als Product Owner, sondern auch das Vertrauen im Team und in die eigene Produktverantwortung.

Diese weiteren Episoden werden im Gespräch genannt:

Die aktuelle Ausgabe des Podcasts steht auch im Blog der Produktwerker bereit: „Was bedeuten die Scrum Werte für Product Owner – und wie lebst du sie im Alltag„.


Product Owner Days, Konferenz in Köln, 2. und 3. April 2025

Product Owner Days, Konferenz in Köln, 2. und 3. April 2025

(Bild: deagreez/123rf.com)

So geht Produktmanagement: Die Online-Konferenz Product Owner Day von dpunkt.verlag und iX geht in die achte Runde. Am 13. November 2025 können Product Owner, Produktmanagerinnen und Service Request Manager dort ihren Methodenkoffer erweitern, sich vernetzen und von den Good Practices anderer Unternehmen inspirieren lassen.

Vergünstigte Blind-Bird-Tickets sind bis zur Programmveröffentlichung erhältlich. In der Rückschau finden Interessierte das Programm des Vorjahres.


(mai)



Source link

Weiterlesen

Beliebt