Künstliche Intelligenz
iX-Workshop: RAG-Systeme effizient evaluieren und optimieren
Mit dem rasanten Fortschritt in der KI-Technologie wird ihre gezielte Optimierung zum entscheidenden Faktor für zuverlässige und skalierbare Lösungen.
In dem zweitägigen Intensiv-Workshop RAG-Systeme systematisch evaluieren und optimieren lernen Sie, wie Sie RAG-Systeme systematisch bewerten, Schwächen identifizieren und durch den Einsatz moderner Frameworks wie RAGAS fundierte Leistungsanalysen durchführen. Sie lernen fortgeschrittene Techniken wie Semantic Chunking, Hybrid Search, Query Expansion und Reranking kennen und wenden diese direkt in praktischen Übungen an, um Genauigkeit, Relevanz und Effizienz Ihrer RAG-Anwendungen nachhaltig zu verbessern.
Jede Menge Praxis mit echten Anwendungsfällen
Die Schulung ist interaktiv aufgebaut, mit hohem Praxisanteil und intensiver Betreuung durch zwei erfahrene Trainer. In kleinen Teams oder Zweiergruppen arbeiten Sie an realitätsnahen Use Cases und entwickeln eigenständig Lösungsstrategien für typische Herausforderungen in produktionsnahen Szenarien. So erleben Sie unmittelbar die Wirkung verschiedener Optimierungsansätze und lernen, diese gezielt zu kombinieren.
|
Oktober 23.10. – 24.10.2025 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 23. Sept. 2025 |
Angesprochen sind Softwareentwickler und AI-Engineers, die mit RAG vertraut sind und ihre Systeme in Bezug auf Leistung, Relevanz und Robustheit systematisch weiterentwickeln möchten.
Die Softwareentwickler Steve Haupt und Jacques Huss von andrena objects leiten den Workshop. Steve Haupt hat sich auf KI-Themen spezialisiert, eigene KI-Anwendungen entwickelt, zahlreiche Vorträge zu Künstlicher Intelligenz gehalten und mehrere KI-Trainings konzipiert. Jacques Huss hingegen legt seinen Fokus auf Clean Code, testgetriebene Entwicklung und den praktischen Einsatz generativer KI.

(ilk)
Künstliche Intelligenz
iX-Workshop Softwarearchitektur für KI-Systeme – skalierbare Lösungen entwickeln
KI-Projekte scheitern selten an der Technik, oft aber an fehlender Struktur. Wer KI sicher und nachhaltig im Unternehmen verankern will, braucht ein solides architektonisches Fundament.
Weiterlesen nach der Anzeige
Im Workshop Softwarearchitektur für KI-Systeme – skalierbare, sichere und wartbare Lösungen entwickeln erfahren Sie praxisnah, wie Sie KI-Architekturen konzipieren, die den Anforderungen an Skalierbarkeit, Sicherheit und Wartbarkeit gerecht werden. Sie lernen, Machine Learning und Generative KI in bestehende IT-Landschaften zu integrieren, robuste Datenpipelines zu erstellen und regulatorische Anforderungen, wie die des EU AI Acts, zu erfüllen. Auch ethische Fragestellungen und bewährte Design Patterns sind Teil des Workshops.
Fallstudien und reale Szenarien
Der Workshop ist praxisnah aufgebaut. Sie arbeiten an einer Fallstudie und entwickeln reale Szenarien für KI-Architekturen. Dabei üben Sie, Daten zu akquirieren und zu verarbeiten, skalierbare Design Patterns anzuwenden und Sicherheitskonzepte umzusetzen.
|
Dezember 08.12. – 11.12.2025 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 09. Nov. 2025 |
Der Workshop richtet sich an Softwarearchitekten und KI-Interessierte, die skalierbare KI-Lösungen in ihre IT-Strukturen integrieren und zukunftssichere Lösungen entwickeln möchten.
Durchgeführt wird der Workshop von Dimitri Blatner, einem anerkannten Experten für Softwarearchitektur, IT-Beratung und digitales Innovationsmanagement. Er verfügt über langjährige Erfahrung in der Entwicklung komplexer IT-Systeme, insbesondere in den Bereichen KI, Cloud und DevOps.

(ilk)
Künstliche Intelligenz
Digitaler Euro: Verhandlungsführer des EU-Parlaments ist gegen Online-Nutzung
Der Berichterstatter des EU-Parlaments für den digitalen Euro, Fernando Navarrete Rojas, tritt für eine zweigleisige Einführung der digitalen Einheitswährung ein. Dabei spricht sich der Angehörige der konservativen Fraktion der Europäischen Volkspartei (EVP) klar gegen eine bedingungslose Online-Nutzung aus. Seine Haltung basiert nach eigener Darstellung auf der Notwendigkeit, die strategische Souveränität der EU zu stärken, die Abhängigkeit von außereuropäischen Zahlungsanbietern zu verringern und zugleich die Finanzstabilität sowie den Datenschutz der Bürger zu gewährleisten.
Weiterlesen nach der Anzeige
Navarrete Rojas unterscheidet in seinen heise online vorliegenden, lange verzögerten Entwürfen für Änderungen am Vorschlag der EU-Kommission für ein einschlägiges Gesetzespaket grundsätzlich zwischen zwei Ausprägungen des digitalen Euro: der Offline- und der Online-Version. Die Offline-Variante beschreibt er als eine nicht kontobasierte, tokenisierte Form von digitalem Bargeld. Er wird von der Europäischen Zentralbank (EZB) ausgegeben, ist lokal auf gesicherten Geräten gespeichert und funktioniert über „Gerät-zu-Gerät“-Zahlungen (Peer-to-Peer), ohne dass eine zentrale Abwicklungsinfrastruktur erforderlich ist.
Diese Konzeption bietet laut dem früheren spanischen Zentralbanker maximale Ausfallsicherheit, da Transaktionen selbst bei Netzwerkausfällen oder in Krisensituationen möglich sind. Entscheidend ist für ihn, dass der Offline-Euro einen mit Bargeld vergleichbaren Datenschutz bietet: Zahlungen müssen weder über eine zentrale Infrastruktur geleitet noch dort erfasst werden. Durch die Nachbildung bargeldähnlicher Merkmale – wie das Fehlen digitaler Euro-Konten – würden zudem die Risiken für die Finanzstabilität reduziert.
Online-Funktionen stehen in den Sternen
Demgegenüber steht der Online-Digital-Euro, der als kontobasiertes Internet-Zahlungssystem eine von der EZB betriebene digitale Abwicklungsinfrastruktur zwingend voraussetzt. Diese Form berge naturgemäß die Gefahr, moniert Navarrete Rojas, die Geschäftsbanken zu ersetzen, Einlagen abfließen zu lassen und in direkten Wettbewerb mit bereits funktionierenden privaten europäischen Zahlungslösungen zu treten.
Daher schlägt der Verhandlungsführer vor, die Einführung des Online-Digital-Euro an eine Bedingung zu knüpfen: Er soll nur dann kommen, wenn ein von der Kommission durchzuführender Markttest ergibt, dass keine europaweite, souveräne Lösung für den Einzelhandelszahlungsverkehr wie Zahlungen zwischen Personen, am Point of Sale und im E-Commerce zur Verfügung steht.
Navarrete Rojas will so verhindern, dass bereits effiziente und skalierbare private Marktlösungen verdrängt werden. Er nennt ausdrücklich die Stärkung bestehender europäischer privater Ansätze wie der European Payment Initiative (EPI) als vorrangiges Ziel. Die EPI arbeitet an einer europäischen Zahlungsinfrastruktur, die resilient sowie universell und grenzüberschreitend zu guten Konditionen einsetzbar ist. Diese Ziele erreichte sie zunächst aber nicht.
Offline-Variante soll wie Bargeld einsetzbar sein
Weiterlesen nach der Anzeige
Für die Akzeptanz der Offline-Variante sei der Schutz der Privatsphäre zwingend erforderlich, heißt es in dem Papier. Maßnahmen zur Bekämpfung von Geldwäsche und Terrorismusfinanzierung müssten auf Nutzerebene greifen und dürften nicht durch die Kennzeichnung einzelner digitaler Einheiten erfolgen. Dadurch soll die Austauschbarkeit des Geldes gewährleistet und die Entstehung von programmierbarem oder nachverfolgbarem Geld verhindert werden. Die EZB soll ferner sicherstellen, dass Betrug und Fälschung weiterhin unter dem Niveau vergleichbarer Zahlungsinstrumente liegen.
Um die Finanzstabilität nicht zu unterlaufen, sollen die Bestände an einem potenziellen Online-Digital-Euro für natürliche Personen dem Plan nach Haltegrenzen unterliegen, um signifikante Abflüsse von Kundeneinlagen zu verhindern. So könnte jeder einschlägige digitale Account automatisch mit einem vom Nutzer festgelegten traditionellen Bankkonto verknüpft werden, um diese Limits zu überwachen und die Kontinuität der Zahlungen zu gewährleisten. Um Zahlungsdienstleister nicht unverhältnismäßig zu belasten, sollen Online-Nutzer ihre Konten nur dann automatisch aufladen oder auflösen können, wenn diese beim selben Servicepartner geführt werden.
Insgesamt müsse bei beiden Varianten des digitalen Euro die Einführung anhand klar definierter Probleme bewertet und in Bezug auf Notwendigkeit, Verhältnismäßigkeit und Opportunitätskosten mit den besten verfügbaren Marktalternativen verglichen werden, betont der Berichterstatter. Die von ihm ins Spiel gebrachten Änderungen schüfen einen Rechtsrahmen, der zunächst die Einführung der datenschutzfreundlichen und ausfallsicheren Offline-Währung als gesetzliches Zahlungsmittel unmittelbar ermögliche.
Kritik: Nur für die Ladentheke
Damian Boeselager (Volt), der für die Grünen-Fraktion an dem Dossier mitverhandelt, kritisiert den Bericht als inhaltlich zu zaghaft. Die von Navarette Rojas favorisierte Offline-Variante würde die Unabhängigkeit Europas untergraben, weil der Online-Zahlungsraum weiterhin privaten, meist US-amerikanischen Systemen wie Visa und Mastercard überlassen bliebe. Angesichts der weltpolitischen Risiken, die eine Lähmung der Zahlungssysteme durch Washington bedeuten könnten, sei entschlossenes Handeln nötig.
Eine Offline-Lösung würde „nur an der Ladentheke funktionieren – nicht im Onlinehandel, wo fast die Hälfte aller Verbraucher mit Karten bezahlt“, moniert Boeselager. Auch Haltelimits schränkten den Digitaleuro in seiner Alltagstauglichkeit massiv ein. Die Gesetzesinitiative wird nun im federführenden Wirtschaftsausschuss debattiert und voraussichtlich im Frühjahr vom Parlament verabschiedet.
(nen)
Künstliche Intelligenz
FreeBSD kurz vor 15.0: Vertrauen ist gut, Reproduzierbarkeit ist besser
Im Zuge wachsender Supply-Chain-Angriffe setzen die FreeBSD-Entwickler auf ein transparentes Build-Konzept in Form von Zero-Trust-Builds. Der Ansatz baut auf den etablierten Reproducible Builds auf, bei denen sich Binärdateien bitgenau aus dem veröffentlichten Quellcode nachbauen lassen. Während reproduzierbare Builds primär die Nachprüfbarkeit sicherstellen, geht das Zero-Trust-Modell einen Schritt weiter und entzieht dem Build-Prozess selbst das Vertrauen. Kein einzelner Server, Maintainer oder Compiler darf mehr als potenziell vertrauenswürdig gelten.
Weiterlesen nach der Anzeige
Stattdessen erzeugen voneinander unabhängige, deterministische Build-Umgebungen dieselben Artefakte, deren Übereinstimmung kryptografisch verifiziert wird. Manipulationen im Build-Prozess oder in der Toolchain würden so sofort auffallen. So entsteht ein durchgängig überprüfbarer Produktionsprozess, in dem Manipulationen in Toolchains, CI-Systemen oder Signaturprozessen erkennbar werden. Das ist ein konsequenter Schritt hin zu einer Softwarewelt, in der Sicherheit nicht auf einem von Regierungen und Geheimdiensten unterwanderten Vertrauen beruht, sondern auf trockener Verifizierbarkeit.
Erstaunlich: Reichlich Geld von der deutschen Regierung
Ende 2024 erhielt die FreeBSD Foundation von der Sovereign Tech Agency satte 686.400 EUR für die Modernisierung der Infrastruktur. Die im Oktober 2022 gegründete Fördergesellschaft wird vom Bundesministerium für Wirtschaft und Energie finanziert. Derzeit ist es eine Tochtergesellschaft der Bundesagentur für Sprunginnovationen, SPRIND GmbH. Eines der Teilprojekte, das durch die Finanzspritze finanziert werden soll, sind besagte „Zero Trust & Reproducible Builds“.
Mit kleiner Verspätung, aber einsatzbereit für FreeBSD 15
Im Januar 2025 kündigte die FreeBSD Foundation daher an, beide Technologien bis August zu implementieren. Insbesondere der Build-Prozess für kommende FreeBSD-Releases soll so ohne root-Access zu reproduzierbaren und verifizierbaren Binärdateien führen. Das Ziel wurde nun mit kleiner Verspätung erreicht und kann im aktuellen Entwicklerzweig für FreeBSD 15 genutzt werden.
Damit werden die für die Installation notwendigen ISO-Images für USB-Sticks und CD/DVD, die Images für virtuelle Maschinen und die Cloud-Images für das Ausrollen in AWS, Azure und so weiter unabhängig nachprüfbar. Dazu gehört die Eliminierung oder Normalisierung von Zeitstempeln, damit Builds unabhängig vom Erstellungszeitpunkt identische Ergebnisse liefern.
Weiterlesen nach der Anzeige
Ebenso wichtig ist eine reproduzierbare Sortierung von Dateilisten, Paket-Metadaten und ähnlichen Strukturen, um zufällige Unterschiede zu vermeiden. Überdies bleiben die Build-Umgebungen konsistent, inklusive Debug-Pfaden, Locale-Einstellungen und anderer Umgebungsparameter. Auch die eingesetzten Werkzeuge, etwa das für die Erzeugung von Dateisystem-Images verantwortliche mkimg(1)-Utility, werden erweitert, um reproduzierbare Artefakte nativ zu unterstützen.
FreeBSD folgt GNU/Linux und NetBSD mit eigenem Ansatz
Es wurde auch höchste Zeit für FreeBSD, diesen Sicherheitsaspekt zu unterstützen, den GNU/Linux und selbst NetBSD schon seit Jahren bieten. Vom konsequent auf Sicherheit ausgelegten OpenBSD gibt es keine Stellungnahme dazu, allerdings scheint es für die Entwickler kein Thema zu sein. Dort experimentiert man mit anderen Techniken wie der teilweise bewussten Variabilität durch beispielsweise Kernel- und Library‑Randomisierung. Deterministische Builds laufen diesem Konzept ein wenig zuwider.
(axk)
-
UX/UI & Webdesignvor 2 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Social Mediavor 2 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 2 WochenIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 2 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 2 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 2 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
