Künstliche Intelligenz
Wer blinzelt, verliert: Die Dollar-Trilogie im Triell zwischen Streams und UHDs
Es gibt zwei Sorten von Filmliebhabern: Die einen hassen Western, und die anderen haben „Zwei glorreiche Halunken“ von Sergio Leone gesehen – Quentin Tarantino nennt ihn gar den besten Film, der bislang gedreht wurde. Mitte der 60er Jahre stellten die abschätzig als „Spaghetti-Western“ titulierten Filme das Genre auf den Kopf und rüttelten an der amerikanischen Mythologie. Erzählten Hollywood-Western der 50er Jahre noch romantisch verklärte Geschichten vom Kampf des Guten gegen das Böse, so waren im europäischen Kino der 60er Jahre abseits der Karl-May-Verfilmungen die Charakterzeichnungen vielschichtiger: Clint Eastwood als namenloser Kopfgeldjäger etablierte einen neuen Typus als wortkarger, zynischer Opportunist. Gewalt wurde nicht durch die Vorgaben des US-amerikanischen Hays Code beschönigt, sondern in all ihrer Wucht gezeigt: kein Kameraschnitt zwischen Schuss und Treffer – das Blut durfte fließen.
Die sogenannte Dollar-Trilogie von Sergio Leone war stilprägend für diesen Kulturbruch und beeinflusste zahlreiche Regisseure: Nach Sam Peckinpah, George Lucas und Martin Scorsese griff vor allem Quentin Tarantino die Erzähl- und Darstellungsformeln in seinen Filmen auf. Zu der Reihe gehören „Für eine Handvoll Dollar“ (Per un pugno di dollari, 1964), „Für ein paar Dollar mehr“ (Per qualche dollaro in più, 1965) und „Zwei glorreiche Halunken“ (Il buono, il brutto, il cattivo, 1966), im Englischen auch bekannt als „The Good, the Bad and the Ugly“.
In diesem Artikel beleuchten wir den kulturellen Einfluss der Reihe und die technischen Unterschiede, damit Sie entscheiden können, ob sich die Filme im Stream oder auf Disc lohnen. Weil das Angebot in Deutschland sehr mager ist, gehen wir insbesondere auf die Ultra HD Blu-rays (UHD) ein, die von Kino Lorber, Eagle Pictures und Arrow Video als Import-Discs aus Italien, Großbritannien und den USA angeboten werden. Sind die neuen, von Arrow erstmals im HDR-Farbraum vorliegenden 4K-Restaurationen auf UHD gegenüber den Streams ein paar Dollar mehr wert?

Als „the Good“ war die Figur von Clint Eastwood in „Zwei glorreiche Halunken“ und den beiden Vorgängerfilmen keinesfalls als guter Held angelegt, sondern als ambivalenter, zynischer Opportunist.
(Bild: MGM / Arrow, abfotografiert von Hartmut Gieselmann)
Die Neuerfindung des Westerns
Die Geschichte um die Dollar-Trilogie dürfte auch Nicht-Western-Fans bekannt vorkommen, denn Quentin Tarantino hat sich für seinen jüngsten Film „Once upon a Time in… Hollywood“ inspirieren lassen. Die Hauptrolle des Rick Dalton (gespielt von Leonardo DiCaprio) basiert in großen Teilen auf der Geschichte Clint Eastwoods. Dieser begann seine Karriere 1959 in der TV-Serie „Rawhide“ (Tausend Meilen Staub), deren Titelsong später in „Blues Brothers“ zu Weltruhm gelangte. Nach über 200 Folgen kam die erfolgreiche Serie Mitte der 60er Jahre zu ihrem Ende, und Eastwood suchte einen neuen Job. Western hatten in den USA jedoch ihren Zenit überschritten – ganz im Gegensatz zu Europa, wo der Traum vom freien Leben im Wilden Westen die Zuschauer vom schweren Erbe des Zweiten Weltkriegs und des Faschismus ablenkte.
Doch während die Karl-May-Verfilmungen in Deutschland brave, familientaugliche Geschichten erzählten, bevorzugten die Italiener härtere Kost. Es gab zwar schon ein paar Dutzend Italo-Western – sie waren aber meist billig produzierte Abklatsche von US-Vorbildern.
Der italienische Regisseur Sergio Leone wollte jedoch mehr: 1964 adaptierte er – ohne zuvor die Rechte abzuklären – die Geschichte von „Yojimbo“ des japanischen Regisseurs Akira Kurosawa, um „Für eine Handvoll Dollar“ zu drehen. Das Budget war mit 200.000 US-Dollar eng gesetzt, sodass er sparen musste, wo er nur konnte: Eastwood bekam die Hauptrolle, weil er nur 15.000 Dollar Gage verlangte und damit deutlich günstiger war als ein Charles Bronson. Weil analoges Filmmaterial damals noch sehr teuer war, nutzte Leone das Techniscope-Verfahren, das nur halb so viele Filmrollen benötigte (dazu gleich mehr).
Eastwood spielte einen namenlosen Reiter, der sich als Söldner von zwei rivalisierenden Banden anheuern lässt und diese gegeneinander ausspielt. Ungewöhnlich für die Zeit: Er strich Dialogzeilen aus dem Skript, um seine Figur mysteriöser wirken zu lassen. Anders als bei Kurosawas Vorlage inszenierte Leone schon im ersten Teil viele Szenen im Stil einer Oper: Statt langer Arien gab es große Gesichtsaufnahmen, in denen sich die Kontrahenten minutenlang anstarrten, bevor die Gewalt explodierte. Mit einfachen Mitteln erzeugte der Film eine ungeheure Spannung, die später von unzähligen Filmstudenten kopiert wurde.
Um den richtigen Rhythmus der Szenen zu finden, arbeitete Leone eng mit seinem Schulfreund Ennio Morricone zusammen, der für jede Figur ein charakteristisches Soundmotiv entwickelte. Morricone baute Geräusche wie knallende Peitschen, Schüsse und Schreie ein und setzte auf damals moderne Instrumente wie die Stratocaster statt auf große, schwelgerische Orchester. Die Filmmusik entstand nicht nach dem Dreh, sondern im Voraus – und gab den Szenen den Rhythmus vor.
Künstliche Intelligenz
Verband: Deutschland liegt beim Quantencomputing zwei bis drei Jahre zurück
Führende Experten auf dem Gebiet der Quantentechnologien ziehen ein gemischtes Fazit zum Stand Deutschlands auf diesem Zukunftsgebiet. Die Zusammenarbeit zwischen Grundlagenforschung und jungen Unternehmen funktioniere in etablierten regionalen Ökosystemen wie München, Stuttgart/Ulm, Jülich und Braunschweig sehr gut, betonen die Wissenschaftler in einem Positionspapier, das der Elektrotechnik- und IT-Verband VDE im Vorfeld des Kongresses MikroSystemTechnik in Duisburg veröffentlicht hat. Erste Produkte für Quantensensorik und IT-Sicherheit seien bereits auf dem Markt. Im internationalen Vergleich liege Deutschland beim Quantencomputing allerdings zwei bis drei Jahre zurück.
Weiterlesen nach der Anzeige
Die größte Herausforderung ist laut der Analyse derzeit nicht primär technologischer Natur, sondern die zurückhaltende Nachfrage und das mangelnde Wissen aufseiten der Anwender in vielen Branchen. Zudem bewerten die Insider die Forschungsförderung, insbesondere mit Blick auf die Abstimmung zwischen den beteiligten Ministerien, als nicht immer kohärent und zielgerichtet genug. Jenseits der Schwächen bei Quantenrechnern befinde sich Deutschland bei der Quantensimulation, der Quantenkommunikation mit ersten Versuchsnetzen sowie der Quantensensorik auf Augenhöhe mit der internationalen Spitze.
„Die Quantentechnologien machen derzeit erkennbare Fortschritte“, schreiben die Verfasser. Aber der Weg zu erfolgreichen, auch massentauglichen Produkten sei lang: „Wir brauchen einen langen Atem.“ Aus dem Status quo leiten die Experten, denen auch Führungskräfte aus Konzernen wie IBM, Infineon, Bosch und Trumpf angehören, sieben Impulse ab. Diese sollen helfen, die Wettbewerbsfähigkeit zu sichern und Deutschland bis 2026 als führenden Standort für industrielle Anwendungen im Quantensektor zu etablieren.
Ruf nach nationaler Quanteninitiative
Die Zuständigen in Politik, Wissenschaft und Wirtschaft sollen demnach eine von allen getragene „Moonshot“-Vision und Technologie-Fahrpläne mit messbaren Zielen entwickeln. Es gelte, die regionalen Quanten-Ökosysteme strategisch zu stärken. Öffentlich geförderte Pilotlinien müssten mit Einbindung der Wirtschaft betrieben werden, der Staat soll als Ankerkunde und durch Forschungskäufe den Markt fördern. „Das heißt zum Beispiel, dass darin geförderte Hightech-Infrastrukturen nach festgelegten Regeln auch für andere Projekte niederschwellig zugänglich sind“, erklärt Thomas Becks vom VDE. „So können wir Investitionsmittel effizient einsetzen.“
Die Förderung soll fokussierter, kohärenter und thematisch auf kritische Pfade ausgerichtet werden. Eine Trennung von Hard- und Software nach Ressorts sei zu vermeiden, ist dem Papier zu entnehmen. Die Mittelvergabe müsse auf messbaren Zielen basieren, um Projekte agil anpassen oder bei Misserfolg ohne Sanktionen stoppen zu können. Zudem seien Anreize für etablierte Unternehmen und eine intensivierte, finanziell aufgestockte Startup-Förderung nötig.
Deutschland müsse im globalen Wettbewerb um exzellente Wissenschaftler und Nachwuchs durch attraktive Angebote und die Reduzierung bürokratischer Hürden punkten, fordern die Fachleute. Die größte Herausforderung sei die Akzeptanz. Neue Veranstaltungsformate und die finanzielle Unterstützung für Erstanwendungen in der Industrie sollen die Nachfrage stimulieren und Lernkurven ermöglichen. Auch die aktive Begleitung der Standardisierung und Normung sei essenziell, insbesondere bei der Integration von Quantentechnologien in bestehende Systeme wie das Internet der Dinge oder Hochleistungsrechnen.
Weiterlesen nach der Anzeige
Die Verfasser schlagen vor, eine nationale Quanteninitiative aufzubauen. Diese müsse alle relevanten Fachdisziplinen und Unternehmensgrößen einbinden. Ein solcher Schritt könne die erforderliche Koordination und eine Roadmap liefern.
()
Künstliche Intelligenz
Fedora Linux 43: Adieu X11, Hallo WebUI
Zwar ist Fedora um weitreichende Umbauten an der Linux-Distribution nie verlegen, doch haben die beiden signifikanten Änderungen zur jetzt veröffentlichten Version 43 weiteren Vorlauf benötigt und im Falle der entfernten X11-Unterstützung in Gnome zu internen Diskussionen geführt. Mit Fedora Linux 43 ist die Gnome-Session ab jetzt nur noch mit Wayland als Display-Protokoll verfügbar – ein optionales Paket zum Nachrüsten einer X11-Session gibt es nicht mehr. Denn Gnome und seine Komponenten sind hier nun ganz ohne X11 kompiliert – eine Möglichkeit dieser Desktop-Umgebung ab Gnome Version 47. Die Reduktion auf Wayland sollte zunächst auch den Display-Manager GDM zur Anmeldung betreffen, welcher ohne X11-Unterstützung auch keine anderen, zusätzlichen installierten Desktop-Umgebungen mit diesem Protokoll mehr starten könnte. So wie Ubuntu verzichtete Fedora deshalb auf den letzten Schritt und belässt X11 bis Fedora 49 in GDM, damit Anwender mit mehreren installierten Desktops neben Gnome vorerst nicht auf einen anderen Display-Manager wie LightDM ausweichen müssen.
Weiterlesen nach der Anzeige
Anaconda in neuem Gewand
Der Installer Fedoras, genannt Anaconda, fiel immer schon mit einer ungewöhnlichen Benutzerführung auf, die keine linearen Menüs präsentiert, sondern Untermenüs für die einzelnen Schritte wie Partitionierung, Benutzerkonto sowie Netzwerkverbindungen zeigt. Zuletzt bekam Anaconda in Fedora 26 mit dem alternativen Partitionierer Blivet eine größere Ergänzung, die fortgeschrittenen Anwendern detaillierte Einstellungen beim Anlegen neuer Partitionen bot. Jetzt zieht Fedora mit dem neuen Installer WebUI die lange bekannten Probleme der Anaconda-Oberfläche glatt. WebUI basiert auf HTML, Javascript sowie Python und setzt ein lineares, intuitiveres Frontend vor Anaconda, das den gewohnten Installationswegen anderer Linux-Distributionen ähnlicher ist.

Diese Oberfläche zur Installation war schon in der Gnome-Ausgabe von Fedora 42 zu sehen. Nun ist der neue, lineare Installer auch der Standard in der KDE-Version und den anderen Fedora-Spins geworden.
(Bild: Screenshot David Wolski)
Mit einer neuen Option zur Reinstallation kann WebUI das System außerdem über ein bestehendes erneut installieren, behält dabei aber die bereits vorhandenen Daten in den Home-Verzeichnissen. Sein Debüt hatte der neue Installer, der seit Fedora 37 in Entwicklung ist, schon in der vorherigen Ausgabe. Allerdings nur in der Gnome-Version Fedoras, während jetzt der neue Installer auch bei KDE Plasma und den Fedora-Spins der Standard ist. Kleine Unterschiede gibt es dabei im Installer der Gnome-Ausgabe: Die Erstellung des ersten Benutzerkontos erfolgt in Gnome nach dem ersten Boot des installierten Systems, bei den anderen Fedora-Ausgaben gleich in der WebUI. In den kommenden Ausgaben wird WebUI auch die Server-Ausgabe, die Netzwerk-Installationsmedien und die Immutable-Ausgaben installieren und das bisherige GTK4-Frontend für Anacoda ab Fedora 46 komplett ersetzen. Der Aufbau als App mit Web-Techniken soll überdies die Installation Fedora in Cloud-Instanzen über Remote-Verbindungen im Browser erleichtern.
Boot-Partition und initiale Ramdisk
Einfacher ist auch die automatische Partitionierung geworden, bei welcher Fedora von Haus ein btrfs-Volumes mit dem Home-Verzeichnis als Subvolumes anlegt, mit einer aktivierten Komprimierung per Zstandard und sehr niedriger Kompressionsstufe. Dieses Verfahren soll keinen Speicherplatz sparen, sondern die Schreibvorgänge für Flash-Datenträger messbar reduzieren. Im EFI-Modus verlangt Fedora nun stets nach einem Datenträger mit GPT als Partitionstabelle und akzeptiert keinen Master Boot Record mehr. Diese Kombination ist zwar seitens der EI-Spezifikation möglich, machte in der Praxis mit UEFI-Implementierungen verschiedener Hersteller immer wieder Probleme. Wer Fedora einige Versionen schon per Paketmanager DNF auf neue Ausgaben aktualisiert hat, kennt in vielen Fällen auch die Fehlermeldung über eine zu kleine /boot-Partition beim Entpacken neuer Kernel-Pakete. Die separate Boot-Partition dehnt Fedora deshalb bei Neuinstallation auf 2 GByte aus, um größere initiale Ramdisk, die weiterhin experimentellen Unified Kernel Images (UKIs) und mehr Firmware aufnehmen zu können. Für initiale Ramdisks nutzt Fedora nicht mehr den Packer XZ, sondern Zstandard, um einen Neustart ein paar Sekunden schneller absolvieren zu können. Das Paketformat aktualisiert Fedora auf RPM 6.0, das mehrere Signaturen pro Paket erlaubt, die Verwaltung der OpenPGP-Schlüssel aus Repositorys vereinfacht und lokal gebaute, eigene RPM-Paket automatisch signieren kann.
Desktops: Fedora in vielen Varianten
Weiterlesen nach der Anzeige
Der Kernel ist in Version 6.17, wie bei Fedora zu erwarten, auch hier wieder sehr jung. Im Laufe des Unterstützungszeitraums bis Dezember 2026 werden die Entwickler auch mindestens noch die kommende Kernel-Version 6.18 nachschieben. Die GNU-Toolchain hat Fedora auf Gcc 15.2 und Glibc 2.42 gehievt. Python-Entwickler bekommen den Interpreter in Version 3.14 vorinstalliert, das wieder einige Methoden als veraltet markiert oder bereits entfernt hat. Zur Abwärtskompatibilität gibt es weiterhin Python 3.13 in den Paketquellen. Wie immer gibt es Fedora auch mit anderen Desktops als mit Gnome 49 und KDE Plasma 6.5 in den Hauptversionen.

Seit Fedora 42 ist die KDE-Ausgabe, nun mit Plasma 6.5 ausgestattet, zur Hauptausgabe neben Gnome befördert. Automatischer Theme-Wechsel und abgerundete Kanten sind die Highlights dieser Plasma-Version.
(Bild: Screenshot David Wolski)
Installierbare Live-Systeme gibt es als „Spins“ auch wieder mit den schlankeren Arbeitsumgebungen von XFCE, LXQT, LXDE und Mate. Zudem gibt als Alternative zu Gnome auch das von Linux Mint bekannte Cinnamon, Budgie und auch schon eine Vorabversion des neuen Rust-Desktops Cosmic, der aktuell von System76 entwickelt wird. Auch diese Versionen liegen nicht nur für die x86-64Architektur vor, sondern auch für ARM.
Der aktuelle Stand der wichtigsten Unix- und Linux-Distributionen:
(dmk)
Künstliche Intelligenz
KanDDDinsky 2025: Eindrücke von Europas DDD-Community-Konferenz
Vergangene Woche waren mein Kollege Rendani und ich im Berliner nhow Hotel, zusammen mit rund 250 bis 300 anderen Menschen, die unsere Leidenschaft für Domain-Driven Design (DDD), Event Sourcing und durchdachte Softwarearchitektur teilen. Auf der KanDDDinsky 2025 war unsere erste Teilnahme an dieser Konferenz – nicht nur als Besucher, sondern als Sponsoren und Aussteller für die von uns entwickelte Datenbank EventSourcingDB.
Weiterlesen nach der Anzeige
Ein anderes Konferenzformat
Was uns sofort ins Auge fiel, war die Herangehensweise an die Zeitplanung. Statt des typischen Konferenzformats mit einheitlichen Session-Längen schufen die Organisatoren eine Puzzle-artige Agenda, die 50-minütige Vorträge mit 120-minütigen Hands-on-Workshops kombinierte. Die Sessions liefen in vier parallelen Tracks.

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Dieses Format eröffnet interessante Wahlmöglichkeiten für die Teilnehmerinnen und Teilnehmer. Theoretisch ließ sich zwar zwischen Sessions wechseln, praktisch sah die Sache jedoch anders aus. Einen zweistündigen Workshop auf halbem Weg zu verlassen, um einen Vortrag mitzunehmen, ergibt nur bedingt Sinn – auch wenn wir beobachteten, dass einige Teilnehmer sich leise zur Halbzeit aus Vorträgen verabschiedeten, um eine andere Session zu besuchen. Eine elegante Lösung, die sowohl tiefgehende Einblicke als auch schnellen Wissensaustausch ermöglicht – etwas, das uns in dieser Form auf anderen Konferenzen bisher nicht begegnet ist.
Ebenso durchdacht war die viertägige Struktur: Workshops am Dienstag (21. Oktober), die Hauptkonferenz am Mittwoch und Donnerstag (22.-23. Oktober) und ein Open Space am Freitag (24. Oktober). Diese Progression von fokussiertem Lernen über breite Exploration bis hin zu Community-getriebener Konversation zeigt, wie sorgfältig die Organisatoren darüber nachgedacht haben, wie Menschen tatsächlich mit Konferenzen interagieren möchten.
Die Content-Landschaft
Weiterlesen nach der Anzeige
Die Bandbreite der Themen auf der zweitägigen Agenda war beeindruckend. Der Mittwoch startete mit einer interaktiven Keynote zur Modellierung in Software- und menschlichen Systemen, während der Donnerstag Vorträge von Ian Coopers „The Emissary“ bis hin zu Eric Evans höchstpersönlich über „AI and Tackling Complexity“ bot. Die Klassiker waren natürlich vertreten – CQRS, Event Sourcing, DDD-Pattern – standen aber gleichberechtigt neben Sessions zu Wardley Mapping, kollaborativer Modellierung, hexagonaler Architektur und Organisationsdesign.
Über beide Tage hinweg kristallisierten sich mehrere Themen heraus. Vor allem die Schnittstelle von KI und DDD ließ sich kaum ignorieren: Rinat Abdullins „When DDD Met AI: Practical Stories from Enterprise Trenches“, Eric Evans über die Bewältigung von Komplexität mit KI und Hila Fox‘ Diskussion sozio-technischer Systeme im KI-Zeitalter – alle deuteten auf eine Community hin, die sich aktiv damit auseinandersetzt, wie diese Welten aufeinanderprallen. Der Hands-on-Workshop „Epic Systems Design: Surviving Complexity“ von Jacqui und Steven Read fand am Donnerstag statt, ebenso wie eine reflektierende Session unter dem Titel „Over 20 Years of DDD – What We Know, What We Do, What Needs to Change“, quasi eine Meta-Konversation über die Praxis selbst.
Besonders interessant fanden wir, wie natürlich dabei KI ihren Weg in den Diskurs fand. Sessions wie Marco Heimeshoffs „Hybrid Intelligence“ und die verschiedenen KI-fokussierten Vorträge wurden nicht als Neuheiten behandelt, sondern als natürliche Erweiterungen der Kernthemen der Community. Das passt perfekt zu unserer Arbeit an eventsourcing.ai, wo wir thematisieren, wie KI und Event-getriebene Architekturen einander sinnvoll ergänzen können. Die Vorteile Event-getriebener Architekturen für KI-Anwendungen – Nachvollziehbarkeit, Time-Travel-Debugging, deterministische Replays – werden anscheinend zunehmend offensichtlich.
Die Closing Keynote am Donnerstag von Alberto Brandolini über „DDD Lessons from ProductLand“ rundete die Hauptkonferenztage ab: Eine der Koryphäen der Community reflektierte darüber, wie sich DDD-Erkenntnisse jenseits der reinen Softwareentwicklung anwenden lassen.
Die Konferenz fand vollständig auf Englisch statt, was ihren international geprägten Charakter widerspiegelt. Die Teilnehmer kamen hauptsächlich aus Europa – Deutschland, Österreich, Italien und darüber hinaus – und bildeten eine diverse, aber kohärente Community. Dass Inklusion den Organisatoren wichtig ist, zeigte sich sowohl im Speaker-Lineup als auch in der Art, wie die Veranstaltung strukturiert war.
Die größere Erkenntnis
Vielleicht war unsere wichtigste Einsicht aus diesen Tagen gar nicht technischer Natur – es ging um die Community selbst. Manchmal hört man die Einschätzung, DDD, CQRS und Event Sourcing seien Nischeninteressen, die von einer kleinen Gruppe Enthusiasten in isolierten Ecken praktiziert würden.
Die KanDDDinsky widerlegte diese Wahrnehmung eindrücklich. Ja, diese Ansätze sind nicht das, was alle machen. Sie sind nicht der Standard, der mit jedem Framework ausgeliefert oder in jedem Bootcamp gelehrt wird. Aber sie sind auch keineswegs exotisch. Wenn man sich in diesem pink getönten Konferenzraum umsah und Hunderte von Menschen aus zahllosen Unternehmen und Ländern beobachtete, wurde die Realität offensichtlich: Dies ist eine substanzielle, wachsende Community mit handfester Erfahrung im Bau von Produktivsystemen.
Die Gespräche, die wir führten, waren dabei alles andere als theoretisch: Menschen lösen konkrete Probleme mit diesen Pattern. Sie ringen mit echten Trade-offs, teilen ihre Erfahrungen aus dem Alltag und lernen aus den Erfolgen und Misserfolgen der anderen. Dies ist ein ausgereifter Praxisbereich, keine experimentelle Spielwiese.
Für uns hat diese Bestätigung Gewicht. Wir bauen EventSourcingDB, weil wir überzeugt sind, dass Event Sourcing und CQRS erstklassige Tooling-Unterstützung verdienen. Die Größe und das Engagement dieser Community zu erleben, bestätigt uns darin, dass echte Nachfrage nach Tools besteht, die diese Pattern zugänglicher machen.
Ausblick
Die beiden Konferenztage setzten einen starken Akzent, wobei der Open Space am Freitag noch bevorstand, um die Gespräche in einem offeneren Format fortzuführen. Die Mischung aus Vorträgen und Workshops schuf natürliche Rhythmen – intensive Lernsessions, gefolgt von Networking und Zeit zum Verdauen. Die Location funktionierte einwandfrei, die Organisation lief reibungslos, und die Community war einladend.
Wir verarbeiten noch immer all das, was wir gelernt haben, und all die Menschen, die wir kennengelernt haben. Das ist das Zeichen einer guten Konferenz – wenn man mit mehr Fragen als Antworten nach Hause fährt und mehr Kontakte geknüpft hat, als man sofort nachverfolgen kann.
Die KanDDDinsky 2025 hat uns einen Einblick in diese Zukunft gegeben, und sie sieht vielversprechend aus: dicht, erfüllt und summend vor Ideen – genau so, wie wir es mögen. Wir freuen uns bereits darauf, diese Gespräche fortzusetzen und zu beobachten, wie diese Community die nächste Generation Event-getriebener Systeme prägt.
(rme)
-
UX/UI & Webdesignvor 2 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Social Mediavor 2 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
UX/UI & Webdesignvor 1 WocheIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 MonatFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 2 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
