Connect with us

Entwicklung & Code

Wenn Intuition versagt: KI und die Grenzen unserer Vorstellungskraft


Viele sprechen davon, dass Künstliche Intelligenz in n-dimensionalen Räumen arbeitet – und meistens klingt das irgendwie nach Science-Fiction. Wenn man das hört, denkt man sofort an fremde Welten, an Paralleluniversen, kurz: an Dinge, die sich unser Gehirn nicht vorstellen kann.


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Doch genau da liegt das Problem: Wir Menschen versuchen nur allzu gerne, uns alles bildlich vorzustellen. Aber ab der vierten Dimension klappt das nicht mehr. Wir stolpern, scheitern und merken, dass unsere Vorstellungskraft an diesem Punkt endet.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

KI ist mächtig, aber keine Magie // deutsch

Dennoch sind hochdimensionale Räume in der KI ganz normaler Alltag. Sprachmodelle, Bilderkennung, Empfehlungssysteme – sie alle arbeiten in weitaus mehr als nur drei Dimensionen. Aber kaum jemand kann wirklich erklären, was das konkret bedeutet. Die Aussage, etwas passiere in einem 27-dimensionalen Raum, klingt natürlich eindrucksvoll, aber was steckt dahinter? Ist das ein ganz anderer Raum, quasi eine fremde Welt, etwas, das wir niemals begreifen können? Oder ist es vielleicht doch viel einfacher, als wir zunächst glauben?

Genau da möchte ich Sie heute abholen. Denn es lohnt sich, das zu verstehen. Nicht nur, um mitreden zu können, wenn wieder jemand von tausenden Dimensionen spricht. Sondern auch, weil es zeigt, warum KI oft so schwer nachvollziehbar ist, warum Sprachmodelle Vektordatenbanken brauchen und warum am Ende nicht irgendein magischer Algorithmus entscheidet, ob eine KI funktioniert, sondern ganz klassisch Erfahrung und Fachwissen.

Klären wir zunächst einmal, was Dimensionen überhaupt sind. Auf mich hat das lange sehr gewaltig gewirkt, so, als ob man dafür Astrophysik studiert haben müsste. Aber in Wahrheit steckt da etwas sehr viel Einfacheres dahinter: Eine Dimension ist nämlich nichts anderes als ein Merkmal, eine Eigenschaft, ein Freiheitsgrad – wie auch immer Sie das nennen wollen.

Wenn wir nur eine einzige Dimension haben, dann genügt eine einzelne Zahl, um etwas zu beschreiben. Nehmen Sie zum Beispiel die Temperatur. Sie können sagen:

„Heute sind es 15 Grad.“

Mehr brauchen Sie nicht, um klarzumachen, wie warm oder wie kalt es ist. Eine Zahl genügt. Das ist eine eindimensionale Welt.

Fügen wir eine zweite Dimension hinzu, wird es spannender. Denn dann brauchen Sie schon zwei Zahlen, um sich zurechtzufinden. Stellen Sie sich eine Landkarte vor. Ein einzelner Wert sagt Ihnen nur, wie weit Sie nach links oder nach rechts gehen müssen. Doch ein zweiter Wert sagt Ihnen, wie weit Sie nach oben oder unten gehen müssen. Das heißt: Zwei Dimensionen benötigen zwei Zahlen – und schon können Sie sich auf einer Fläche bewegen.

In der dritten Dimension leben wir alle. Hier genügt die Karte nicht mehr, weil sie nur die Höhe und die Breite kennt. Wir benötigen zusätzlich aber noch die Tiefe. Erst damit können wir wirklich beschreiben, wo sich etwas in unserer Welt befindet. Das heißt, mit drei Zahlen können Sie jedes Objekt eindeutig in Raum und Lage festlegen. Und genau hier steckt die erste entscheidende Erkenntnis: Mehr Dimensionen sind nichts Mystisches, nichts Magisches, sondern einfach nur zusätzliche Eigenschaften. Jede Dimension bedeutet: ein Freiheitsgrad mehr, eine Variable mehr, ein Stück zusätzliche Information.

Nun könnte man denken:

„Na gut, wenn drei Dimensionen so logisch sind, dann sind vier doch bestimmt auch kein Problem. Dann nehmen wir einfach noch eine Zahl dazu – und schon haben wir die vierte Dimension.“

Theoretisch stimmt das sogar. Mehr als das ist es nämlich tatsächlich nicht. Praktisch merken wir jedoch: Wir können uns das nicht mehr vorstellen. Unser Gehirn stößt an eine Grenze, und deshalb sagen viele Menschen dann, dass es gar keine vierte Dimension gebe.

Um das besser verstehen zu können, hilft ein kleines Gedankenexperiment. Stellen Sie sich vor, es gäbe Lebewesen, die nur auf einer Linie leben. Diese kennen dann logischerweise nur eine Richtung, nämlich vorwärts und rückwärts. Das ist ihre Welt. Für sie gibt es weder oben noch unten, weder links noch rechts. Alles, was sie wahrnehmen können, spielt sich auf dieser Linie ab. Diese Linie könnte nun aber auf einem Blatt Papier gezeichnet sein. Und das hieße, dass es durchaus zwei Dimensionen gäbe (nämlich die Länge und die Breite des Blattes), aber weil diese Lebewesen nur die Linie wahrnehmen können, wirkt es für sie wie eine rein eindimensionale Welt.

Jetzt stellen Sie sich ein weiteres Lebewesen vor, das auf ebendiesem Blatt Papier lebt. Für dieses Wesen gibt es nun weitere Richtungen: vorwärts und rückwärts sowie links und rechts. Ein Leben in zwei Dimensionen. Das ist schon viel komplexer, als nur auf einer Linie hin- und herzuwandern. Aber was für uns völlig selbstverständlich ist – nämlich dass man ein Blatt Papier auch hochheben oder drehen kann –, existiert in der Welt dieses Wesens nicht. Es hat schlicht keine Vorstellung von Höhe oder Tiefe. An der Stelle sei die Erzählung Flächenland von Edwin Abbott Abbott empfohlen.

Und genau so geht es uns Menschen. Wir können uns eine dreidimensionale Welt vorstellen, weil unsere Wahrnehmung dreidimensional arbeitet. Aber sobald eine vierte Dimension dazukommt, verlieren wir den Halt. Unser Gehirn ist schlicht nicht dafür gemacht, sich das anschaulich vorzustellen. Das bedeutet jedoch nicht, dass diese vierte Dimension nicht existieren würde oder nicht berechenbar wäre. Ganz im Gegenteil: Die Mathematik kümmert es überhaupt nicht, ob wir uns etwas vorstellen können oder nicht. Für sie ist es völlig normal, mit vier, fünf, 27 oder auch 5.000 Dimensionen zu rechnen. Nur wir Menschen scheitern daran, ein Bild davon in unserem Kopf zu erzeugen. Und genau das ist die zweite wichtige Erkenntnis: Dass wir etwas nicht visualisieren können, heißt noch lange nicht, dass es nicht real ist – und schon gar nicht, dass wir es nicht berechnen könnten.

Wenn wir nun von Künstlicher Intelligenz sprechen, sind Dimensionen letztlich nichts anderes als Merkmale, die unsere Daten beschreiben. Um ein konkretes Beispiel zu nennen: Denken Sie bitte kurz an ein Musikstück, das Ihnen gut gefällt. Da gibt es das Tempo, gemessen in Beats per Minute (BPM). Es gibt die Lautstärke, die man in Dezibel angeben kann. Es gibt die Frage, ob Gesang vorkommt oder nicht, welche Instrumente eingesetzt werden und so weiter. All das sind Eigenschaften und jede einzelne dieser Eigenschaften entspricht einer Dimension.

Das heißt: Je mehr Merkmale wir aufnehmen, desto mehr Dimensionen kommen hinzu. Bei Musik könnten das auch noch die Tonhöhe sein, die Länge eines Stücks, die Tonart, die Verteilung der Wellen im Frequenzspektrum und so weiter. Jede dieser Eigenschaften ist eine Variable und zusammen bilden sie einen Raum, in dem jedes Musikstück seinen Platz hat. Dasselbe gilt natürlich nicht nur für Musik, sondern für alle Daten.

Plötzlich wird klar: Dimensionen in der KI sind nichts Abgehobenes, keine geheimnisvollen Räume, sondern schlicht und einfach nur Features: Dinge, die man messen, beobachten oder aus den Daten ableiten kann. Und das ist die dritte wichtige Erkenntnis: In der KI sind Dimensionen keine Science-Fiction-Welten, sondern handfeste Eigenschaften. Mehr Dimensionen bedeuten mehr Informationen, die ein Modell gleichzeitig berücksichtigen kann.

Besonders interessant wird es nun, wenn wir uns Sprachmodelle anschauen. Denn Sprache funktioniert nur, wenn wir Bedeutungen verstehen, wenn wir merken, dass bestimmte Wörter nah beieinanderliegen, dass sie ähnlich sind, dass sie etwas miteinander zu tun haben. Und genau dafür brauchen Sprachmodelle sogenannte Vektordatenbanken. Man kann sich das vorstellen wie eine riesige Landkarte – aber eben nicht in zwei Dimensionen, sondern in hunderten oder gar tausenden. Jedes Wort ist ein Punkt in diesem Raum. Wörter, die oft gemeinsam vorkommen, liegen nah beieinander. Wörter, die Gegensätze sind oder nichts miteinander zu tun haben, liegen weit auseinander. Wörter, die in ähnlichen Kontexten auftauchen, rücken wiederum näher zusammen.

Nehmen Sie beispielsweise die Begriffe „Natur“ und „Technologie“. Die beiden sind vermutlich ziemlich weit voneinander entfernt. „Computer“ und „Technologie“ hingegen liegen wahrscheinlich nah beieinander. Das Wort „Baum“ ist ganz klar bei „Natur“ angesiedelt, aber nicht ganz so weit von „Technologie“ entfernt, wie man zunächst vermuten würde, denn auch in der Informatik sprechen wir von Bäumen, wenn wir bestimmte Datenstrukturen meinen.

Rasch wird klar, dass nur zwei oder drei Dimensionen für diesen Ansatz niemals ausreichen. Auf einer zweidimensionalen Karte oder selbst in einem dreidimensionalen Raum könnten Sie vielleicht ein paar Wörter sinnvoll anordnen, aber die Mehrdeutigkeit ginge schnell verloren. Es braucht viel mehr Freiheitsgrade, um die feinen Unterschiede abzubilden. Deshalb arbeiten Sprachmodelle mit vielen tausend Dimensionen. Denn nur so können sie die Vielfalt und die Nuancen menschlicher Sprache erfassen. Und das führt uns direkt zur vierten wichtigen Erkenntnis: Vektordatenbanken sind nichts anderes als mehrdimensionale Karten von Bedeutungen. Ohne sie könnten Sprachmodelle nicht funktionieren.

So faszinierend das alles klingt, bringt es doch ein ganz eigenes Problem mit sich: Je mehr Dimensionen wir hinzufügen, desto schwieriger wird es für uns, mit einfachen Begriffen wie „Nähe“ oder „Abstand“ umzugehen. In zwei oder drei Dimensionen haben wir ein klares Gefühl dafür: Wir können sehen, ob zwei Punkte nah beieinander liegen oder weit auseinander. Wir können intuitiv einschätzen, ob Dinge zusammengehören oder nicht. In 27 oder 5000 Dimensionen funktioniert das jedoch nicht mehr. Mathematisch lässt sich der Abstand zwar problemlos berechnen, aber unsere Intuition hört auf, uns dabei zu helfen.

Das führt dazu, dass Abstände ihre Aussagekraft verlieren. Dinge, die in drei Dimensionen klar voneinander getrennt wären, rücken in höheren Dimensionen oft erstaunlich nah zusammen. Oder umgekehrt: Punkte, die in zwei Dimensionen nahe beieinander erscheinen, können in einem Raum mit vielen Dimensionen plötzlich extrem weit auseinanderliegen.

Gerade für das Clustering, also das Bilden von Gruppen und Ähnlichkeiten, ist das ein echtes Problem. Denn: Je mehr Dimensionen es gibt, desto schwieriger wird es, sinnvolle Strukturen zu erkennen. Die Daten verhalten sich für uns Menschen plötzlich fremd, unanschaulich, manchmal sogar widersprüchlich. Das ist der sogenannte „Curse of Dimensionality“. Mit jeder zusätzlichen Dimension schrumpft unsere Fähigkeit, das Ganze noch zu durchschauen. Was für den Computer nur Mathematik ist, wird für uns zur Blackbox. Und das ist die fünfte wichtige Erkenntnis: Mehr Dimensionen bedeuten zwar mehr Möglichkeiten für die KI, für uns Menschen jedoch weniger Intuition und weniger Nachvollziehbarkeit.

In der Praxis bedeutet das, dass je mehr Dimensionen eine KI nutzt, die Frage umso wichtiger wird, welche Eigenschaften wir überhaupt hineingeben. Das heißt, die Datenvorbereitung und die Auswahl der richtigen Features sind entscheidend. Das klingt leider oft wesentlich leichter, als es tatsächlich ist. Denn es gibt keinen magischen Algorithmus, der uns sagt, welche Merkmale am besten geeignet wären, wie wir sie normalisieren müssten oder wie wir sie am besten kombinieren könnten. In der Realität bedeutet das: Man muss es ausprobieren. Man testet verschiedene Kombinationen, schaut, welche Ergebnisse dabei herauskommen, justiert nach und probiert wieder von vorn.

Das ist manchmal sehr mühsam und oft auch frustrierend. Aber es ist die Realität in der KI-Entwicklung. Am Ende ist es eine Mischung aus Statistik, Wahrscheinlichkeiten und sehr viel Ausprobieren. Provokant könnte man sagen: KI ist letztlich nur besseres Raten. Sie arbeitet nicht mit Gewissheiten, sondern mit Wahrscheinlichkeiten, mit Unschärfen, mit Annäherungen.

Genau darin liegt die große Herausforderung: Je mehr Dimensionen im Spiel sind, desto weniger können wir uns auf unsere Intuition verlassen. Wir können nicht mehr einfach draufschauen und sehen, warum die KI eine bestimmte Entscheidung getroffen hat. Wir sind darauf angewiesen, das Ganze mathematisch zu verstehen oder zu akzeptieren, dass es für uns eine Blackbox bleibt. Das ist die sechste wichtige Erkenntnis: KI ist mächtig, aber keine Magie. Sie ist im Kern Statistik auf Steroiden.

Genau an diesem Punkt bekommen so viele Menschen einen falschen Eindruck: Weil KI für uns so oft wie eine Blackbox wirkt, glauben wir schnell, KI sei etwas „Magisches“. Etwas, das von allein funktioniert, quasi: Man wirft Daten hinein, und die Maschine findet schon die richtigen Muster. Aber so funktioniert es nicht.

Gerade weil KI so viel Trial and Error ist, braucht es Menschen, die Erfahrung mitbringen. Menschen, die fachlich verstehen, welche Merkmale überhaupt sinnvoll sind. Denn wenn man die falschen Features auswählt, kann das Modell noch so groß und komplex sein – es wird niemals zu brauchbaren Ergebnissen kommen. Das heißt: Es braucht technisches Know-how, um Architekturen zu bauen, die mit dieser Mehrdimensionalität umgehen können. Es reicht nicht, einfach eine KI zu trainieren, sondern man muss wissen, wie man Daten normalisiert, vorbereitet und strukturiert. Und es braucht Erfahrung, um aus diesem Trial and Error ein zumindest halbwegs zielgerichtetes Vorgehen zu machen. Nicht einfach blind irgendetwas zu probieren, sondern zu verstehen, warum ein bestimmter Ansatz funktioniert oder warum er scheitert.

Und das ist die siebte wichtige Erkenntnis: KI-Erfolg ist keine Frage von Magie, sondern das Ergebnis einer Kombination aus Statistik und Expertise. Ohne Fachwissen bleibt KI blind. Ohne Erfahrung bleibt sie zufällig. Erst die Verbindung macht sie wirklich wertvoll.

Wenn Sie sich das alles noch einmal vor Augen führen, bleibt ein klares Bild: KI arbeitet in unglaublich vielen Dimensionen. Dimensionen, die wir uns nicht vorstellen können, weil unser Denken schon bei der vierten an seine Grenzen stößt. Genau das macht KI so mächtig und gleichzeitig so schwer nachvollziehbar. Deshalb genügt es nicht, einfach irgendein Modell laufen zu lassen: Es braucht Fachwissen, um die richtigen Features zu wählen. Es braucht technisches Know-how, um Architekturen zu bauen, die mit dieser Mehrdimensionalität zurechtkommen. Und es braucht Erfahrung, um das Ganze in eine Richtung zu lenken, die wirklich Ergebnisse bringt.


(rme)



Source link

Entwicklung & Code

.NET: Ein Herz und Sponsoring für NuGet-Maintainer


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Microsoft hat verkündet, dass für Package-Maintainer im NuGet.org-Ökosystem – dem Paketmanager für .NET – das neue Sponsorship-Feature zur Verfügung steht. Es erlaubt ihnen das Hinterlegen von Sponsorship-URLs, unter der User ihnen finanzielle Unterstützung zukommen lassen können.

Weiterlesen nach der Anzeige

Der Link zu den Sponsorship-URLs erscheint als Herz-Emoji beziehungsweise „Sponsor“-Button auf der jeweiligen Paketseite. Nach einem Klick darauf können User mittels einer Plattform wie GitHub Sponsors oder Patreon ihre gewünschte Zahlung tätigen. Wie Microsoft betont, können auch kleine Beiträge einen großen Unterschied machen, um zur Verwaltung und Sicherheit kritischer Pakete beizutragen.


betterCode() .NET 10.0

betterCode() .NET 10.0

(Bild: coffeemill/123rf.com)

Verbesserte Klassen in .NET 10.0, Native AOT mit Entity Framework Core 10.0 und mehr: Darüber informieren .NET-Profis auf der Online-Konferenz betterCode() .NET 10.0 am 18. November 2025. Nachgelagert gibt es sechs ganztägige Workshops zu Themen wie C# 14.0, künstliche Intelligenz und Web-APIs.

Entwicklerinnen und Entwickler, die einen Link zum Sponsoring einfügen möchten, müssen Besitzer oder Co-Besitzer des betreffenden NuGet-Pakets sein. Der Link muss zu einer der folgenden zugelassenen Plattformen führen: GitHub Sponsors, Patreon, Open Collective, Ko-fi, Tidelift oder Liberapay.

Auf der Paketmanagement-Seite des jeweiligen Pakets müssen Developer dafür zum Abschnitt „Sponsorship Links“ herunterscrollen und dort in das Formular einen oder mehrere Links eintragen, zum Beispiel Es lassen sich je Package-ID bis zu zehn URLs hinterlegen und per „Remove“-Button bei Bedarf wieder entfernen.


Im Formular lassen sich Sponsorship-Links einfügen.

Im Formular lassen sich Sponsorship-Links einfügen.

Im Formular lassen sich Sponsorship-Links einfügen.

(Bild: Microsoft)

Nach dem Eintragen der URLs können Developer verifizieren, dass das Hinterlegen funktioniert hat, indem sie die öffentliche Seite ihres Pakets aufrufen. Dort sollte im „About“-Abschnitt der „Sponsor“-Button erscheinen und beim Klick darauf ein Pop-up zu den hinterlegten URLs anzeigen.

Weiterlesen nach der Anzeige


NuGet-Paket mit Sponsoring-Button

NuGet-Paket mit Sponsoring-Button

NuGet-Paket mit Sponsoring-Button

(Bild: Microsoft)


Das Pop-up nach Klick auf den Button zeigt die hinterlegten URLs an.

Das Pop-up nach Klick auf den Button zeigt die hinterlegten URLs an.

Das Pop-up nach Klick auf den Button zeigt die hinterlegten URLs an.

(Bild: Microsoft)

Im Rahmen des Sponsorship-Features werden auf NuGet.org keine persönlichen oder Zahlungsinformationen gespeichert, denn die Transaktionen geschehen auf den gewählten externen Plattformen, wie Microsoft betont.

Weitere Informationen und ein FAQ-Abschnitt finden sich in der Ankündigung auf Microsofts Entwicklerblog.


(mai)



Source link

Weiterlesen

Entwicklung & Code

Projektmanagement: Wir sind eine große Familie


Weiterlesen nach der Anzeige

Moin.

Wir sind eine große Familie, sang Peter Alexander 1973, und mancher Chef holt den Schlager auch heute nochmal heraus. Während das Lied eine Geschmacksfrage ist, lädt der Satz im Firmenkontext dazu ein, aufmerksam zu werden. „Wir sind eine große Familie“, sagt der Chef. Klingt super, finde ich. Oder doch nicht?


Escape the Feature Factory: Stefan Mintert

Escape the Feature Factory: Stefan Mintert

(Bild: 

Stefan Mintert

)

Stefan Mintert arbeitet mit seinen Kunden daran, die Unternehmenskultur in der Softwareentwicklung zu verbessern. Das derzeit größte Potenzial sieht er in der Leadership; unabhängig von einer Hierarchieebene.

Die Aufgabe, dieses Potenzial zu heben, hat er sich nach einem beruflichen Weg mit einigen Kurswechseln gegeben. Ursprünglich aus der Informatik kommend, mit mehreren Jahren Consulting-Erfahrung, hatte er zunächst eine eigene Softwareentwicklungsfirma gegründet. Dabei stellte er fest, dass Führung gelernt sein will und gute Vorbilder selten sind.

Es zeichnete sich ab, dass der größte Unterstützungsbedarf bei seinen Kunden in der Softwareentwicklung nicht im Produzieren von Code liegt, sondern in der Führung. So war es für ihn klar, wohin die Reise mit seiner Firma Kutura geht: Führung verbessern, damit die Menschen, die die Produkte entwickeln, sich selbst entwickeln und wachsen können.

Für Heise schreibt Stefan als langjähriger, freier Mitarbeiter der iX seit 1994.

Auch Familien haben ihre Schattenseiten. So wurden 2023 mehr als 250.000 Menschen das Opfer häuslicher Gewalt. Davon sind mehr als 78.000 Opfer innerfamiliärer Gewalt zwischen nahen Angehörigen. (Quelle: BKA-Lagebild, BMFSFJ)

Vermutlich meint mein Chef das nicht, wenn er von Familie spricht, aber was denn dann? Welchen Zweck verfolgt er mit seiner Aussage? Was will er von mir? Welches Verhalten soll meinerseits hervorgerufen werden? Und, last, but not least: Wie gehe ich damit um?

Am liebsten würde ich es bei den Fragen belassen, weil Ihr bestimmt auch eigene Antworten parat habt. Dann wäre der Beitrag allerdings sehr kurz. Deshalb ein Vorschlag: Macht beim Lesen eine Pause, denkt über die Fragen nach und schreibt Antworten in die Kommentare. Danach könnt Ihr meine Antworten lesen. Ich bedanke mich im Voraus für Eure Beiträge.

Weiterlesen nach der Anzeige

Zum Zweck der Äußerung: Meine beste Antwort lautet „Bindung“. Wer das sagt, möchte andere an sich binden; möglicherweise vor dem Hintergrund einer unangenehmen Aufgabe oder bevorstehenden negativen Veränderung. Zumindest denke ich, dass es nicht nötig ist, bei der Bindung nachzuhelfen, wenn das Arbeitsleben im Augenblick das reinste Paradies ist. Wer sollte dann gehen wollen?

Bindung an sich ist ja nicht so schlecht, allerdings stellt sich eine weitere Frage: Was ist, wenn die wirtschaftliche Lage für die Firma schlechter wird? Wir sind doch eine große Familie, oder? Hier wird doch niemand gefeuert, oder? Wir alle kennen die Wahrheit und das genügt, um die Mär der großen Familie als genau das zu entlarven: ein Märchen. Es gibt Firmen, die eine Ausnahme darstellen, aber dort ist es vermutlich nicht nötig, auf die starke Bindung mit der Familienaussage hinzuweisen.

Damit kommen wir zur wichtigsten Frage: Wie gehe ich damit um? Das hängt natürlich stark vom Einzelfall ab, sodass ich hier keine universelle Antwort anbieten kann. Mein Vorschlag ist, klar zu kommunizieren, wie das, was man gerade hört, ankommt.

Zum Einstieg vielleicht eine Erwiderung der Art: „Wenn ich höre, dass wir eine Familie sind, habe ich den Eindruck/bekomme ich das Gefühl, dass …“


Agile Leadership Conference 2025

Agile Leadership Conference 2025

(Bild: Katsiaryna/stock.adobe.com)

Die Agile Leadership Conference 2025 findet im November und Dezember statt. Der Leadership Day (27.11.25) behandelt das Führen von Teams und Organisationen, während sich der Self Leadership Day (3.12.25) mit Selbstführung und dem aktiven Selbst als Führungskraft beschäftigt.

Wenn es um Bindung geht, kann man deutlich machen, dass wir keine Familie sind und Bindung anders funktioniert. Das ist der richtige Zeitpunkt, die eigene Motivation auszusprechen. Was treibt Dich an und was möchtest Du demnächst oder mittelfristig erreichen? Wenn die Wir-sind-eine-Familie-Aussage mit der unangenehmen Aufgabe wie Überstunden für einen längeren Zeitraum verbunden ist, ist es ein guter Zeitpunkt, über Gegenleistungen zu sprechen. Die Palette ist breit gefächert. Man kann über Überstundenausgleich, Sonderurlaub, Fortbildungen oder natürlich Prämien sprechen. Das sind alles persönliche Benefits.

Alternativ kann man auch Veränderung in der Arbeit ansprechen. Geht es beispielsweise darum, dass ein vorgegebener Termin in der Produktentwicklung nicht ohne Überstunden des Teams gehalten werden kann, ist es vielleicht der richtige Zeitpunkt, auf die Ursache einzugehen. Eine mögliche Forderung wäre dann Mitspracherecht bei zukünftigen Terminen. Wozu sollte man für das anstehende Release Überstunden machen, wenn absehbar ist, dass es beim nächsten Release genauso läuft?

In jedem Fall verstehe ich „Wir sind eine Familie“ als Einstieg in eine Verhandlung. Wer sie als Person oder als Team nicht nutzt, verschenkt die Chance für eine Verbesserung.

Im Podcast Escape the Feature Factory greife ich ausgewählte Themen des Blogs auf und diskutiere sie mit einem Gast. Durch den Austausch lerne ich eine zweite Perspektive kennen. Wenn Du auch daran interessiert bist, findest Du den Podcast bei Spotify, Deezer, Amazon Music, und Apple Podcasts. Wenn Du die Themen, die ich im Blog anspreche, in Deiner Firma verbessern möchtest, komm‘ in unsere Leadership-Community für Softwareentwicklung.


(rme)



Source link

Weiterlesen

Entwicklung & Code

Aus Softwarefehlern lernen – Teil 5: 440 Millionen Dollar Verlust in Minuten


In modernen Softwareprojekten ist das Deployment längst keine einmalige Aktion mehr, sondern ein kontinuierlicher Prozess. Anwendungen bestehen aus Dutzenden oder Hunderten von Services, laufen in Containern und erhalten oft mehrmals am Tag ein Update. Um neue Funktionen schrittweise zu aktivieren, greifen Teams auf Feature Flags oder Konfigurationsschalter zurück. Diese Flexibilität ist ein Segen – und gleichzeitig eine erhebliche Gefahrenquelle.

Weiterlesen nach der Anzeige


Golo Roden

Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Die Teile der Serie „Aus Softwarefehlern lernen“:

Ein eindrückliches Beispiel liefert der Fall Knight Capital aus dem Jahr 2012. Das Unternehmen war ein Schwergewicht im elektronischen Handel an der US-Börse und wickelte täglich Millionen von Transaktionen ab. Am 1. August 2012 spielte Knight ein neues Softwareupdate aus, das eine Funktion namens „Retail Liquidity Program“ unterstützen sollte. Die Bereitstellung lief jedoch schief: Ein Feature Flag, das ursprünglich für Testzwecke existierte, wurde auf einem von acht Servern nicht korrekt aktualisiert.

Was folgte, war ein Paradebeispiel für die Kaskade aus Konfigurationsfehlern und fehlender Deployment-Sicherheit: Auf sieben Servern lief die neue Logik wie geplant, ein einzelner Server führte beim Start jedoch alten Code aus, der längst nicht mehr produktiv sein sollte – weil das Flag dort nicht korrekt gesetzt war.

Dieser alte Code enthielt eine Legacy-Routine, die fälschlicherweise massenhaft Kaufaufträge generierte. Innerhalb von nur 45 Minuten verursachte Knight Capital rund 440 Millionen US-Dollar Verlust. Das Unternehmen stand am Rand der Insolvenz, nur eine schnelle Übernahme und externe Finanzierung retteten es vor dem Aus.

Die Lehren aus diesem Vorfall sind für jede Organisation relevant – ob Börsenhandel, E-Commerce oder SaaS-Betrieb:

Weiterlesen nach der Anzeige

  1. Feature Flags brauchen einen Lebenszyklus: Ein Schalter, der nicht dokumentiert, nicht versioniert und nicht befristet ist, wird irgendwann zum Risiko. Flags müssen ein Ablaufdatum, einen Owner und eine Entfernungsperspektive haben.
  2. Deployments müssen atomar und konsistent sein: Es reicht nicht, acht Server irgendwann nacheinander zu aktualisieren. Ohne Sicherstellung, dass alle Instanzen dasselbe Release und dieselbe Konfiguration fahren, entstehen Split-Brain-Situationen. Moderne CI/CD-Pipelines oder Kubernetes-Rollouts lösen dieses Problem durch atomare Deployments und Health-Checks. „Atomar“ bedeutet hier nicht, dass alle Instanzen gleichzeitig umgestellt werden, sondern dass innerhalb eines Deployments keine Mischzustände existieren.
  3. Immutable Infrastructure ist die beste Versicherung: Systeme, die man nicht nachträglich verändert, sondern bei Änderungen komplett neu instanziiert, vermeiden Zombiecode. Wer ein neues Image ausrollt, kann sicher sein, dass kein Server alten Code im RAM behält.
  4. Staged Rollouts und Kill-Switches reduzieren den Schaden: Große Änderungen sollten zunächst bei einem Bruchteil der Instanzen aktiviert werden, am besten begleitet von automatisierten Metriken. Ein zentraler Schalter zum sofortigen Abschalten (Kill-Switch) kann Milliardenverluste verhindern. Jede Stufe eines Rollouts ist dabei für sich konsistent, aber die Ausweitung auf alle Instanzen erfolgt schrittweise.
  5. Runbooks und Übung unter Realbedingungen: Selbst die beste Technik hilft wenig, wenn im Ernstfall niemand weiß, wie man reagiert. Unternehmen, die Notfallprozeduren für fehlerhafte Deployments proben, reagieren schneller und souveräner.

Interessant ist, dass Knight Capital nicht am Fehlen von Technologie scheiterte. Die Tools für sichere Deployments existierten längst. Es war vielmehr ein Organisations- und Prozessversagen, bei dem technische Schulden (wie Legacy-Code und Flag-Wildwuchs) und menschliche Routine („haben wir immer so gemacht“) zusammenkamen.

Für moderne Cloud- und Webprojekte gilt übrigens dasselbe Muster: Wer Feature Flags einsetzt, ohne Lifecycle und Dokumentation zu etablieren, erzeugt unbemerkt eine tickende Zeitbombe. Und wer Deployments manuell oder halbautomatisch ausrollt, nimmt Inkonsistenzen in Kauf, die sich irgendwann rächen.

Die Lösung ist eine Kombination aus Disziplin und Automatisierung:

  • Feature Flags werden wie Code behandelt, mit Versionierung, Owner und Entfernungspflicht.
  • Deployments laufen atomar und reproduzierbar, am besten als Infrastructure as Code.
  • Ein zentraler Kill-Switch schützt vor irreversiblen Schäden.

Knight Capital ist das prominenteste Beispiel, aber ähnliche Zwischenfälle gab es seither mehrfach – von falschen Cloudkonfigurationen bis zu versehentlich aktivierten Debug-Modi in der Produktion. Und jedes Mal zeigt sich erneut: Ein einziger vergessener Schalter kann ausreichen, um ein Unternehmen ins Wanken zu bringen.


(who)



Source link

Weiterlesen

Beliebt