Entwicklung & Code
Saubere Trennung zwischen Fachlogik und Technik: Hexagonale Architektur
Vielleicht kommt Ihnen das bekannt vor: Sie starten ein neues Projekt – voller Motivation und mit dem guten Gefühl, alles von Anfang an sauber umzusetzen. Also wählen Sie die klassische Architektur, die man überall kennt: oben die Nutzeroberfläche, unten die Datenbank, dazwischen ein wenig API. Das sieht ordentlich aus, fühlt sich professionell an, und man denkt sich: So baut man gute Software. Schließlich steht es ja so auch in den Lehrbüchern und in sämtlichen Framework-Tutorials. Und am Anfang funktioniert das auch wunderbar. Die ersten Funktionen entstehen fast von selbst. Sie klicken sich durch die Oberfläche, speichern Daten in der Datenbank, und alles wirkt kontrollierbar und aufgeräumt. Jede Schicht scheint genau das zu tun, wofür sie gedacht ist.
Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Und dann vergehen ein paar Monate – und die ersten Probleme beginnen sich langsam zu zeigen. Plötzlich benötigen Sie die Datenbank, um Ihre Tests überhaupt starten zu können. Ein kleines neues Feature zwingt Sie dazu, Änderungen an drei oder vier Stellen gleichzeitig vorzunehmen. Und irgendwie ist Ihre Geschäftslogik in die Controller gerutscht oder steckt direkt in der Datenbank. Fachlichkeit und Technik beginnen, sich immer stärker zu vermischen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Hexagonale Architektur – die Architektur der Zukunft? // deutsch
Dann kommt irgendwann der Tag, an dem Sie etwas Größeres anfassen müssen. Vielleicht müssen Sie das Framework aktualisieren, weil das alte nicht mehr unterstützt wird. Vielleicht möchten Sie die Datenbank austauschen oder eine völlig neue Nutzeroberfläche aufsetzen. Und genau in diesem Moment merken Sie, dass Sie gefangen sind, gefangen in Ihrer eigenen Architektur. Was am Anfang noch so ordentlich aussah, entpuppt sich in Wirklichkeit als Falle.
Das Problem mit klassischen Architekturen
Wenn wir uns einmal etwas genauer anschauen, warum klassische Architekturen langfristig häufig so viele Probleme verursachen, dann ist das zunächst gar nicht offensichtlich. Auf dem Papier wirken sie nämlich sauber. Wir haben unsere Schichten: ganz oben die Nutzeroberfläche, in der Mitte die API oder vielleicht ein paar Services, und ganz unten die Datenbank. Alle wissen, wo ihr Code jeweils hingehört, und anfangs entsteht das gute Gefühl, dass man eine saubere, gut strukturierte Anwendung entwickelt.
Doch sobald die Software wächst, zeigt sich die Realität. Fachlichkeit und Technik lassen sich in der Praxis fast nie sauber trennen. Ein neues Feature kommt, und plötzlich verteilt sich die Geschäftslogik: Ein Teil landet im Controller, ein anderer Teil in den Datenbank-Entities und ein weiterer Teil in irgendeinem Service. Denn natürlich ist es bequem, von irgendwo schnell einmal auf ein Framework-Feature zuzugreifen oder direkt eine Datenbank-Annotation zu verwenden, statt eine saubere Schnittstelle zu definieren. Und mit jedem dieser kleinen Schritte wird Ihre Software ein Stück enger mit der Technik verflochten.
Am Anfang merken Sie das kaum. Doch nach ein paar Monaten wird es plötzlich unmöglich, Ihre Geschäftslogik ohne die Datenbank oder das Framework zu starten. Wenn Sie testen möchten, benötigen Sie zunächst eine laufende Datenbank. Wenn Sie refaktorisieren wollen, müssen Sie darauf achten, keine versteckte Magie des Frameworks unbeabsichtigt zu beschädigen.
Fachlichkeit und Technik vermischen sich
Das führt dazu, dass Ihre Software zunehmend unbeweglich wird. Jede Änderung wird riskant. Ein simples neues Feature zieht sich durch mehrere Schichten, und selbst kleinste Anpassungen können Nebenwirkungen haben, die Sie erst bemerken, wenn etwas ganz anderes nicht mehr funktioniert. Und je länger das Projekt läuft, desto größer wird die Unsicherheit vor Änderungen. Notwendige Refactorings werden häufiger verschoben. Irgendwann kommt dann der Moment, an dem Sie etwas wirklich Grundlegendes ändern müssen. Vielleicht benötigen Sie ein Framework-Upgrade, weil Sicherheitslücken bekannt geworden sind. Vielleicht müssen Sie die Datenbank wechseln, weil Ihr Produkt skalieren soll. Oder Sie möchten eine neue Nutzeroberfläche entwickeln, weil Ihre Anwendung auf einer anderen Plattform laufen soll.
Und genau in diesem Moment stellen Sie fest, dass Sie in Ihrer Architektur gefangen sind. Die Geschäftslogik ist inzwischen so eng mit der Technik verknüpft, dass sie kaum noch zu entkoppeln ist. Genau das ist die große, unsichtbare Falle der klassischen Drei-Schichten-Architektur. Sie vermittelt anfänglich ein Gefühl von Ordnung – doch je größer Ihr System wird, desto höher fällt der Preis für diese scheinbare Ordnung aus. Es fehlen allzu oft klare Grenzen zwischen dem, was fachlicher Kern ist, und dem, was lediglich technische Infrastruktur sein sollte. Und ebendiese fehlenden Grenzen machen Ihre Software langfristig teuer, unflexibel und fehleranfällig.
Wenn diese strukturelle Falle erst einmal erkannt ist, stellt sich unmittelbar die Frage: Wie kann man ihr entkommen? Die Antwort darauf ist überraschend einfach – und gleichzeitig radikal. Die Geschäftslogik muss so gestaltet werden, dass sie vollständig unabhängig von Datenbanken, Frameworks und Benutzeroberflächen funktioniert. Genau das ist die Grundidee der hexagonalen Architektur.
Was ist hexagonale Architektur?
Hexagonal bedeutet in diesem Zusammenhang nicht, dass künftig alle Komponenten in Form von Sechsecken dargestellt werden müssten. Es geht vielmehr darum, dass Ihre Anwendung einen stabilen Kern erhält, und alles, was sich außen herum befindet, austauschbar wird. Dieser Kern ist die sogenannte Domain – also die Geschäftslogik, die das eigentliche Kerngeschäft abbildet. Alles andere – sei es Benutzeroberfläche, Datenbank, API, Messaging-System oder Cloud-Service – ist lediglich ein Adapter, also gewissermaßen ein Plug-in, das sich an diesen Kern andockt.
Um das Bild greifbar zu machen: Stellen Sie sich Ihre Anwendung als Insel vor. Im Zentrum dieser Insel befindet sich Ihre Geschäftslogik. Das ist jener Teil, der Ihr Produkt ausmacht, der Ihr Unternehmen besonders macht und für den Kundinnen und Kunden letztlich bezahlen, weil hier die eigentliche Wertschöpfung erfolgt. Außen herumliegt das Wasser, und auf der gegenüberliegenden Seite liegt die große weite Welt: Benutzeroberflächen, Datenbanken, externe Systeme, Frameworks und mehr. Um diese Welt nun mit Ihrer Geschäftslogik zu verbinden, bauen Sie Brücken – genau diese sind die Adapter. Wenn Sie dann eine dieser Brücken austauschen, bleibt die Insel selbst davon völlig unberührt.
Viele Teams betonen zwar, dass sie Domain-Driven Design (DDD) anwenden – tatsächlich enthalten die Objekte jedoch häufig nur Daten, während sämtliche Entscheidungen in Services ausgelagert werden. Eine echte hexagonale Architektur entfaltet ihre Stärken jedoch erst dann, wenn die Domain tatsächlich Verhalten enthält: also Regeln, Invarianten und Entscheidungen. Wenn die Objekte hingegen keine eigene Logik mitbringen, entsteht erneut Spaghetti-Code. Auch das schönste Hexagon kann daran nichts ändern. Solche Datenmodelle, die keine eigene Logik tragen, werden deshalb auch als anämisch – also gewissermaßen blutarm – bezeichnet.
Onion Architecture, Clean Architecture & Co.
Vielleicht sind Ihnen in diesem Zusammenhang auch schon die Begriffe „Onion Architecture“ oder „Clean Architecture“ begegnet. Im Kern handelt es sich dabei jeweils um denselben Ansatz wie bei hexagonaler Architektur. Alle drei Architekturmodelle verfolgen nämlich das gleiche Ziel: Die Geschäftslogik soll ins Zentrum rücken, die Technik nach außen treten. Unterschiede bestehen hauptsächlich in der Darstellung und in einzelnen Details. Die Onion Architecture verwendet das Bild konzentrischer Ringe, die Clean Architecture ergänzt Begriffe wie Entities, Use Cases und Interfaces, und die hexagonale Architektur spricht stattdessen von Ports und Adaptern – häufig in der Darstellung eines Sechsecks. In der praktischen Umsetzung sind diese Begriffe jedoch vor allem unterschiedliche Perspektiven auf eine gemeinsame Grundidee. Wer das Prinzip der hexagonalen Architektur verstanden hat, besitzt damit zugleich das Fundament für Onion und Clean Architecture.
Häufig wird moderne Architektur auch unmittelbar mit Microservices in Verbindung gebracht – jedoch bedeutet die Verwendung hexagonaler Architektur nicht automatisch, dass Microservices eingesetzt werden müssen. Auch ein modularer Monolith – gelegentlich auch als „Modulith“ bezeichnet – kann problemlos auf Basis einer hexagonalen Struktur aufgebaut werden. Und wenn später ein Wechsel hin zu Microservices ansteht, gelingt dieser deutlich einfacher, weil durch die fachlichen Grenzen bereits alle strukturellen Voraussetzungen erfüllt sind. Microservices bieten jedoch den Vorteil, dass sie diese Struktur oft noch konsequenter erzwingen. Meiner persönlichen praktischen Erfahrung nach funktioniert der fachliche Ansatz daher in Verbindung mit Microservices häufig besonders gut.
Abhängigkeiten von außen nach innen
Der zentrale Mechanismus der hexagonalen Architektur besteht – wie bereits erwähnt – aus Ports und Adaptern. Ein Port ist dabei eine Schnittstelle, die Ihre Geschäftslogik entweder anbietet oder von außen erwartet. Ihr Fachmodell könnte etwa formulieren:
„Um ein Buch auszuleihen, benötige ich ein Repository, das mir Bücher liefert und Speichervorgänge entgegennimmt.“
Es legt aber nicht fest, wie dieses Repository konkret implementiert ist. Es definiert lediglich den Vertrag – genau das ist der Port. Der Adapter, also die Brücke in unserem Bild, ist die konkrete Umsetzung. Er weiß, wie er diese Schnittstelle erfüllt: Vielleicht verwendet er eine PostgreSQL-Datenbank, vielleicht eine EventSourcingDB, vielleicht ein einfaches In-Memory-Array für Tests – oder etwas ganz anderes. Für Ihre Geschäftslogik spielt das keine Rolle. Sie kennt ausschließlich die Schnittstelle, nicht aber die dahinterliegende technische Umsetzung.
Entscheidend dabei ist die Richtung der Abhängigkeiten. In einer klassischen Schichtenarchitektur hängt der Fachcode fast immer von der Technik ab: Die Nutzeroberfläche ruft Services auf, Services greifen auf Repositories zu, und diese sind direkt mit der Datenbank verbunden. In der hexagonalen Architektur hingegen ist es genau umgekehrt: Die Technik hängt an der Geschäftslogik, aber die Geschäftslogik weiß nichts von der Technik. Dadurch erzielen Sie drei wesentliche Vorteile:
- Erstens wird Ihre Software testbar, weil Sie die Geschäftslogik isoliert prüfen können.
- Zweitens wird sie anpassbar, weil Sie Datenbanken, Benutzeroberflächen und Frameworks austauschen können, ohne die Geschäftslogik ändern zu müssen.
- Und drittens wird sie langlebig, weil der fachliche Kern Ihrer Software vollständig unabhängig bleibt von Technologien, die in wenigen Jahren bereits veraltet sein könnten.
Damit die Geschäftslogik auch tatsächlich unabhängig bleibt, werden die Adapter – wie beschrieben – von außen bereitgestellt. Dies erfolgt typischerweise über Dependency Injection. Die Domain kennt somit nur die Ports – wer die jeweilige Implementierung liefert, entscheidet die Außenwelt zur Laufzeit. Das ist kein exklusives Merkmal der hexagonalen Architektur, sondern schlicht saubere Entkopplung.
„Wir sind aber nicht Netflix!“
Vielfach wird angenommen, dass eine so strukturierte Architektur nur bei besonders großen Systemen erforderlich sei. Häufig fällt dann der Satz:
„Wir sind aber nicht Netflix!“
Das jedoch greift zu kurz. Natürlich handelt es sich bei den meisten Systemen nicht um Plattformen dieser Größenordnung. Dennoch gilt: Jede Software, die überhaupt einen Zweck erfüllt, enthält auch Fachlichkeit – also auch Ihre Software. Denn niemand entwickelt Software ausschließlich aus technischer Neugier, sondern fast immer, weil ein fachliches Problem gelöst werden soll. Und genau deshalb gehört die Fachlichkeit immer in den Mittelpunkt. Möglicherweise benötigen Sie nicht in jedem Projekt CQRS oder Event Sourcing. Aber ein klares Verständnis davon, welche fachlichen Begriffe und Regeln Ihre Software prägen, benötigen Sie immer. Wenn Sie diese Fachlichkeit konsequent ins Zentrum stellen, ergibt sich die Technik darum herum nahezu von selbst. Genau darum geht es.
Wenn Sie Ihre Software also so gestalten, dass die Geschäftslogik im Zentrum steht und die Technik nur außen angedockt ist, verändert sich die Arbeit damit grundlegend. Denn plötzlich fühlt sich Softwareentwicklung wieder leicht an – selbst in sehr großen Projekten. Der erste große Vorteil ist die Testbarkeit. Sie können Ihre Geschäftslogik vollständig isoliert prüfen – ohne laufende Datenbank, ohne gestartetes Framework, ohne Abhängigkeit von der Außenwelt. Sie schreiben einen Test, instanziieren die Geschäftslogik, geben ihr die benötigten Daten – und prüfen, ob sie das richtige Verhalten zeigt. Das spart Zeit und schafft vor allem Sicherheit: Sie wissen, dass Ihr Kerngeschäft funktioniert – unabhängig davon, was außerhalb geschieht.
Der zweite Vorteil ist die Flexibilität. Wenn Ihre Geschäftslogik keine Kenntnis von Datenbanken, Frameworks oder technischen Details hat, können Sie diese jederzeit austauschen. Heute arbeiten Sie vielleicht mit PostgreSQL, morgen mit einer EventSourcingDB oder MongoDB. Sie könnten Ihre Nutzeroberfläche von einer klassischen Webanwendung auf eine mobile App oder eine reine API-Variante umstellen. Ihre Geschäftslogik bleibt unverändert – ein enormer Vorteil für die langfristige Wartbarkeit.
Der dritte Vorteil ist die Langlebigkeit Ihrer Software. Technologien kommen und gehen. Frameworks und Werkzeuge werden abgelöst. Die Geschäftslogik jedoch bleibt in vielen Fällen über Jahre im Einsatz. Wenn sie von Anfang an unabhängig gehalten wird, schützen Sie damit den wertvollsten Teil Ihrer Software: das eigentliche Kerngeschäft. Refactorings verlieren ihren Schrecken, weil klar ist: Die Technik ist austauschbar – aber die Logik bleibt stabil. Viele Teams erkennen diese Falle erst spät und müssen dann aufwendig umbauen. Wer früh mit hexagonaler Architektur beginnt, erspart sich diesen Schritt. Doch auch ein späterer, schrittweiser Umbau ist möglich: Zunächst die Grenzen ziehen, dann Adapter definieren, anschließend die Technik entkoppeln. Architektur ist in den meisten Fällen ein evolutiver Prozess – kein Big Bang.
Zugang zu modernen Architekturmustern
Hexagonale Architektur ist übrigens nicht nur für sich genommen interessant – sie eröffnet auch den Zugang zu modernen Architekturmustern wie Event Sourcing und CQRS. Vielleicht haben Sie bereits von CQRS gehört – falls nicht: Es lohnt sich, sich damit einmal näher zu beschäftigen. Das Akronym CQRS steht dabei für Command Query Responsibility Segregation und bedeutet, dass Lese- und Schreiboperationen in der Anwendung konsequent getrennt werden: Commands verändern den Zustand, Queries lesen ihn aus. Event Sourcing geht sogar noch einen Schritt weiter: Anstelle des aktuellen Zustands werden sämtliche Änderungen, die im Laufe der Zeit stattfinden, als Events gespeichert. So entsteht ein wertvoller Datenschatz, der sich analysieren, auswerten und zur Verbesserung der Fachlichkeit nutzen lässt. Und als zusätzlicher Vorteil: Sie schreiben Ihre Geschäftslogik mit konsequentem Fokus auf die Fachlichkeit – nicht auf die Technik. Als Einstieg in die Thematik sei die Website cqrs.com empfohlen.
Gerade hier zeigt sich übrigens sehr gut, wie perfekt die hexagonale Architektur ins Gesamtbild passt: Commands und Queries sind in dieser Architektur nämlich einfach Ports – also Schnittstellen, über die die Geschäftslogik angesprochen wird. Ob ein Command nun über eine HTTP-API, eine Message-Queue oder einen Testfall hereinkommt, spielt für die Geschäftslogik keine Rolle. Auch die Anbindung des Event-Stores ist lediglich ein Adapter, der die Ports bedient. Das bedeutet: Wenn Sie später auf CQRS oder Event Sourcing umsteigen möchten, müssen Sie nicht bei null beginnen. Ihre Anwendung ist bereits vorbereitet – durch die klare Trennung von Fachlogik und Technik.
In einer zunehmend verteilten Welt, in der Themen wie Streaming, Real-Time-Processing und Cloud-native-Architekturen an Bedeutung gewinnen, ist das ein erheblicher Vorteil. Sie bauen heute eine robuste, langlebige Anwendung – und halten sich zugleich die Tür für zukünftige Technologien offen.
Heute schon an morgen denken
Klassische Architekturen wirken zu Beginn sehr sauber, entwickeln sich jedoch im Laufe der Zeit zur Falle. Fachlogik und Technik vermischen sich, Änderungen werden riskant, und plötzlich hängt Ihre gesamte Anwendung an Frameworks und Datenbanken, die eigentlich nur Hilfsmittel sein sollten. Die hexagonale Architektur kehrt dieses Verhältnis um. Sie stellt die Fachlogik in den Mittelpunkt und macht die Technik austauschbar.
Das Ergebnis: testbare, flexible und langlebige Software. Sie schaffen sich die Freiheit, auf neue Anforderungen und Technologien zu reagieren, ohne das Kerngeschäft Ihrer Anwendung ständig neu aufbauen zu müssen. Wer Software auf diese Weise gestaltet, schützt damit das Wertvollste, was ein Team besitzt: das eigene Fachwissen. Denn alles andere ist nur Infrastruktur – und diese kann jederzeit ersetzt werden.
(rme)
Entwicklung & Code
Smarte Brillen: Meta öffnet sich für Entwickler
Es ist ein Schritt in Richtung eigener Hardware samt App-Ökosystem. Meta bietet künftig ein Wearables Device Access Toolkit für Entwickler an. Das heißt, sie können damit Apps erstellen, die dann Metas Vision- und Audio-Fähigkeiten in den Brillen nutzen können.
„Angesichts des Erfolgs, den wir mit diesem Formfaktor erzielt haben, möchten wir eine Plattform bereitstellen, auf der Sie als Entwickler Erfahrungen entwickeln können, die die Funktionen von KI-Brillen für Nutzer Ihrer mobilen Anwendungen erweitern“, schreibt Meta im Blogbeitrag. Angesichts der Tatsache, dass sich Meta bisher mit seinen erfolgreichen Diensten Facebook, Instagram und WhatsApp auf die Vorgaben von Apple und Google einlassen musste, erscheint der Schritt für Meta wie eine Art Befreiungsschlag. Endlich ein eigenes Ökosystem und eigene Vorgaben für andere Anbieter. Freilich gibt es das auch bereits rund um die Quest, die trägt jedoch nicht zum wirtschaftlichen Erfolg bei, wie die Plattform-Dienste.
Das Meta Wearables Device Access Toolkit, wie es etwas sperrig heißt, wird zunächst gegen Ende des Jahres als Preview verfügbar sein. Auch wird mit ihm offenbar noch nicht der volle Funktionsumfang der smarten Brillen nutzbar sein. So heißt es im Blogbeitrag: „Unsere erste Version des Toolkits gibt Zugriff auf eine Reihe von Sensoren im Gerät, sodass Funktionen in mobilen Apps entwickelt werden können, die die Vorteile der Freisprechfunktion von KI-Brillen nutzen.“ Als Beispiel sagt Meta, könne man „POV-Erlebnisse“ entwerfen, für die die Kamera der Brille genutzt werden – POV steht für Point of Viiew und wird häufig als Zusatz in sozialen Netzwerken genutzt, wenn jemand etwas in Ich-Perspektive meint. Man kann also mit dem Toolkit künftig auf die Kamera zugreifen.
Auch soll „freihändige Informationsbeschaffung und Kommunikation“ möglich sein. Das bedeutet dann wohl Zugriff auf die Mikrofone und den Audioausgang.
Disney und Twitch testen bereits Metas Toolkit
Alles wird jedoch erstmal nur als Betaversion verfügbar sein – und damit auch nur in einer Testumgebung auszuprobieren. Meta entscheidet nach ausreichenden Tests, was welche Entwickler auch tatsächlich veröffentlichen dürfen. SDK, Dokumentation und Testumgebung stellt Meta bereit.
Schon vorab dürfen offenbar Twitch und Disney testen. So sollen Creator künftig via Meta-Brille live bei Twitch streamen können. Disney arbeitet an einem Prototyp, mit dem Besucher der Disneyparks über die KI-Brillen Informationen und Unterhaltung erhalten, heißt es in einem weiteren Blogbeitrag zur Connect-Virtual-Reality-Keynote. Schon vor zwei Jahren sprach Disneys-CEO Bob Chapek davon, Sehgewohnheiten von Disney+ dafür nutzen zu wollen, personalisierte Erlebnisse in dem Park anzubieten.
Lesen Sie auch
(emw)
Entwicklung & Code
Drei Fragen und Antworten: Wer kauft mein Softwareprodukt – und wann?
Das eigene Softwareprodukt entwickeln und verkaufen: Wenn ein Projekt langsam an Fahrt aufnimmt, Nutzerzahlen gewinnt oder Popularität in Fachkreisen erlangt, liegt der Gedanke nahe. Doch an welchem Punkt ist es überhaupt sinnvoll, darüber nachzudenken? Klaus Wagner, Gründer von ox8 Corporate Finance, gewährt einen Blick hinter die Kulissen.
Herr Wagner, an welchem Punkt im Entwicklungsprozess kann man darüber nachdenken, ein Softwareprodukt zu verkaufen? Welche Voraussetzungen sollte es bereits mitbringen?
Heutzutage verkaufen die meisten Softwareunternehmen keine einmaligen Lizenzen für fertige Produkte mehr. Stattdessen dominieren Abo-, Miet- oder SaaS-Modelle, bei denen Lizenzen zeitlich begrenzt vergeben werden – oft mit dem Versprechen einer kontinuierlichen Weiterentwicklung und regelmäßiger Updates. Das wirkt sich unmittelbar auf die Go-to-Market-Strategie aus: Softwareprodukte werden heute deutlich schneller auf den Markt gebracht als früher. Ein vollständig ausgereiftes Produkt ist nicht mehr Voraussetzung für den Verkaufsstart. Wichtig ist vielmehr, dass die Software einen klaren Mehrwert für die Zielgruppe bietet, ein konkretes Kundenbedürfnis adressiert und für den Endnutzer bereits funktional und benutzbar ist – also mindestens ein Minimum Viable Product (MVP) darstellt. Natürlich sollte bereits zum Verkaufsstart ein valider Business Case erkennbar sein, das Produkt muss zum Markt passen – selbst wenn es noch nicht final ausgereift ist. Weitere Funktionalitäten und Optimierungen – insbesondere im Frontend – folgen dann schrittweise, basierend auf Nutzerfeedback und Marktanforderungen.
Klaus Wagner ist Gründer und Managing Partner von ox8 Corporate Finance. Er ist seit 2001 im Tech M&A Beratungsgeschäft tätig und hat seitdem an mehr als 60 erfolgreich abgeschlossenen Transaktionen mit einem Volumen von 5 bis 500 Millionen Euro mitgewirkt. Das umfasst sowohl Finanzierungs-, Akquisitions- als auch Verkaufstransaktionen – häufig grenzüberschreitend. Klaus Wagner studierte Betriebswirtschaft an der European Business School in Oestrich-Winkel und hält neben dem Diplomkaufmann einen Bachelor in Computer Science von der James Madison University, Virginia, USA.
(Bild: ox8)
Und welche Softwareprodukte sind im Augenblick besonders gefragt? Wie wichtig sind Hypes?
Auf Basis unserer Marktbeobachtungen und laufender M&A-Mandate sehen wir, dass Softwareprodukte mit wiederkehrenden Umsätzen weiterhin besonders gefragt sind – sowohl bei Kunden als auch bei Investoren. Geschäftsmodelle auf Abonnementbasis bieten eine hohe Planbarkeit der Einnahmen, was speziell für Investoren bei der Unternehmensbewertung ein zentrales Kriterium darstellt. Wenn solche Modelle zusätzlich durch starke operative Kennzahlen überzeugen, steigt ihre Attraktivität erheblich. Das können etwa signifikantes Umsatzwachstum, hohe Kundenbindung – Stickiness –, geringe Abhängigkeit von einzelnen Großkunden sowie langfristige Vertragslaufzeiten sein. In solchen Fällen sind Investoren oftmals bereit, eine höhere Bewertungs-abhängige Prämie zu zahlen, da sie das Modell als stabil, skalierbar und nachhaltig einschätzen Gleichzeitig spielen technische Hypes im M&A-Markt durchaus eine Rolle – aktuell etwa rund um KI-gestützte oder KI-native Softwareunternehmen. Sie gelten als besonders zukunftsfähig, öffnen neue Anwendungsfelder und bieten die Chance auf nachhaltige Wettbewerbsvorteile. Investoren suchen also verstärkt nach zukünftigen Schlüsselunternehmen mit echtem Mehrwert und klarer Differenzierung im Wettbewerb. Hypes sind dabei nicht nur kurzfristige Phänomene, sondern wichtige Impulsgeber: Sie lenken das Kapital in bestimmte Innovationsfelder, beschleunigen technologische Entwicklung und wirken oft als Treiber für gesamte Branchen.
Wie preist man sein Produkt dann ein? Muss ich mich voll auf das Angebot eines Käufers verlassen oder gibt es Anhaltspunkte, nach denen ich mich richten kann?
Die Preisgestaltung von Software ist ein komplexes Thema – geprägt von Markttrends, Wettbewerbsanalysen und dem wachsendem Einfluss spezialisierter Pricing-Experten. Viele vertreten den Anspruch, den idealen Ansatz für eine optimale Preisstrategie gefunden zu haben. Idealerweise verfolgt man einen wertbasierten Ansatz, bei dem sich der Preis am konkreten Nutzen orientiert, den das Produkt für den Kunden stiftet – also am geschaffenen Mehrwert oder an messbaren Effizienzgewinnen. Auf dieser Basis lässt sich eine nachvollziehbare Preisstruktur entwickeln. Natürlich darf man hierbei den Wettbewerb als Referenzrahmen nicht aus den Augen verlieren: Etwa bei der Frage, ob das eigene Produkt eine Premium-Positionierung rechtfertigt oder preislich im Mittelfeld angesiedelt sein sollte. Es ist dabei entscheidend, wie hoch die Akzeptanz unterschiedlicher Preismodelle in der jeweiligen Zielgruppe und im Zielmarkt ist. Unsere Erfahrung zeigt übrigens: Fast alle Softwareunternehmen, die wir betreut haben, haben ihre Preisstruktur im Laufe der Zeit mindestens einmal deutlich angepasst.
Herr Wagner, vielen Dank für die Antworten.
In der Serie „Drei Fragen und Antworten“ will die iX die heutigen Herausforderungen der IT auf den Punkt bringen – egal ob es sich um den Blick des Anwenders vorm PC, die Sicht des Managers oder den Alltag eines Administrators handelt. Haben Sie Anregungen aus Ihrer tagtäglichen Praxis oder der Ihrer Nutzer? Wessen Tipps zu welchem Thema würden Sie gerne kurz und knackig lesen? Dann schreiben Sie uns gerne oder hinterlassen Sie einen Kommentar im Forum.
(kki)
Entwicklung & Code
Slack droht Hack Club mit Datenlöschung nach Preissprung
Das Non-Profit-Projekt Hack Club, das weltweit Programmier-Communities für Jugendliche organisiert, wirft Slack eine drastische Preiserhöhung und unfairen Umgang vor. In einem offenen Brief schrieb Hack-Club-Mitarbeiter Mahad Kalam, der Kommunikationsdienst habe überraschend eine Zahlung von 50.000 US-Dollar binnen einer Woche und künftig 200.000 US-Dollar jährlich verlangt. Sollte die Organisation nicht einwilligen, werde der Slack-Workspace deaktiviert und die gesamte Nachrichtenhistorie gelöscht, hieß es.
Hack Club kritisiert Slack-Preissprung
Hack Club nutzte Slack seit fast elf Jahren und war vor einigen Jahren von einem kostenlosen Non-Profit-Plan auf ein 5.000-Dollar-Jahresabo umgestiegen – nach eigenen Angaben bereitwillig, da das Angebot als fair galt. Die plötzliche Kostenexplosion habe nun jedoch Chaos ausgelöst: Freiwillige und Mitarbeitende müssten in kürzester Zeit Integrationen neu aufsetzen und Daten migrieren, was laufende Programme massiv beeinträchtigen würde.
Mahad Kalam betonte, Salesforce (der Mutterkonzern von Slack) übe hier „massiven Druck“ auf eine Non-Profit-Organisation für Jugendliche aus. Mindestens eine mehrmonatige Übergangszeit sei bei einer solchen Preiserhöhung zu erwarten gewesen.
Nach öffentlicher Kritik, die unter anderem auf Hacker News und in sozialen Netzwerken viral ging, meldete sich Slack-CEO Denise Dresser bei Hack Club. Laut Mahad Kalam habe sie ein verbessertes Angebot gemacht, „besser als der vorherige Plan“, Details dazu nannte er jedoch nicht.
Wechsel zu Mattermost stand im Raum
Vor dem Friedensangebot schien für Hack Club die logische Konsequenz der Wechsel zu Mattermost, einer Open-Source-Alternative zu Slack, die selbst gehostet werden kann und Organisationen mehr Kontrolle über ihre Daten bietet. In einem späteren Beitrag auf Hacker News erklärte die Mitgründerin des Clubs allerdings, dass Slack die bisherigen Konditionen nicht nur wiederhergestellt, sondern sogar verbessert habe. Damit könne die Jugend-Community nun doch bleiben.
Slack steht nicht zum ersten Mal wegen plötzlicher Preissprünge in der öffentlichen Kritik. Auch das Kubernetes-Team sah sich kürzlich vom Accountverlust bedroht und erwägte einen Wechsel zu Discord. Der zu Salesforce gehörende Chatanbieter lenkte schließlich ein und behielt die besonderen Konditionen für Kubernetes bei.
(mdo)
-
UX/UI & Webdesignvor 1 Monat
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 Wochen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 1 Monat
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 1 Monat
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 3 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 6 Tagen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Digital Business & Startupsvor 3 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier