Künstliche Intelligenz
Aus Softwarefehlern lernen Teil 10: Software für eine bessere digitale Zukunft
Die Softwarebranche liebt es, von „neuen Herausforderungen“ zu sprechen. Seien es Cloud-native Architekturen, Microservices, Machine Learning oder Edge Computing: Jede Technologiewelle bringt ihre eigenen Buzzwords und vermeintlich einzigartige Probleme mit sich. Doch wer die großen Softwarekatastrophen der letzten Jahrzehnte studiert, erkennt schnell: Deren Muster sind zeitlos.
Weiterlesen nach der Anzeige

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Die Teile der Serie „Aus Softwarefehlern lernen“:
Teil 10: Von Wiederholungstätern zu lernenden Organisationen: Wie die Softwarebranche ihre Lektion lernt
Der Mars Climate Orbiter verglühte 1999, weil Einheiten verwechselt wurden. Die Ariane 5 explodierte 1996 wegen eines Überlaufs. Knight Capital verlor 2012 440 Millionen Dollar durch einen fehlerhaften Deployment-Prozess. Der Therac-25 tötete in den 1980er-Jahren Menschen durch Race Conditions. Diese Vorfälle liegen Jahrzehnte auseinander, stammen aus völlig unterschiedlichen Domänen und basieren doch auf denselben fundamentalen Fehlern.
Das wirft eine unbequeme Frage auf: Wenn wir die Ursachen kennen, die Lösungen dokumentiert sind und die Werkzeuge existieren, warum passieren diese Fehler dann immer noch? Die Antwort ist ernüchternd: Weil technisches Wissen allein nicht ausreicht. Die Wiederholung bekannter Fehler ist kein technisches, sondern ein organisatorisches und kulturelles Problem.
Die Illusion der technischen Lösung
Nach jedem spektakulären Softwarevorfall folgt dasselbe Ritual: Analysen werden geschrieben, Lessons-Learned dokumentiert, neue Tools entwickelt. Nach Heartbleed gab es bessere Fuzzing-Tools. Nach Knight Capital wurde über Deployment-Automatisierung diskutiert. Nach dem Mars Climate Orbiter sprach man über Typsysteme und Einheiten-Bibliotheken. All diese technischen Verbesserungen sind wertvoll und notwendig. Doch sie fokussieren stets nur auf die Symptome, behandeln allerdings nicht die Ursache:
- Die Ariane 5 hatte Tests, sie deckten nur nicht die relevanten Szenarien ab.
- Knight Capital hatte Deployment-Prozesse, sie wurden unter Zeitdruck nur nicht befolgt.
- Der Therac-25 galt als modernes, softwaregesteuertes System, und genau das wurde zum Problem, weil Hardware-Interlocks eingespart wurden.
Weiterlesen nach der Anzeige
Die technische Ebene ist zweifellos die einfachste. Moderne Programmiersprachen bieten starke Typsysteme, die Einheitenfehler zur Compile-Zeit erkennen. Linter und statische Analysetools finden potenzielle Null-Pointer-Exceptions, bevor der Code läuft. Property-based-Testing deckt Grenzwertprobleme auf. Fuzzing findet Memory-Corruption-Bugs. All diese Werkzeuge sind mächtig – aber nur, wenn sie auch eingesetzt werden. Und genau hier beginnt das eigentliche Problem: die organisatorische Ebene.
Jedes Softwareteam kennt die gut gemeinten Prozesse. Code-Reviews, bei denen mindestens zwei Entwicklerinnen oder Entwickler draufschauen. Pair-Programming für kritische Codepfade. Ausführliche Testabdeckung, Blameless-Postmortems nach jedem Vorfall, Feature-Flags mit dokumentiertem Lifecycle, Deployment-Pipelines mit automatischen Rollback-Mechanismen und so weiter. All das sind bewährte Praktiken: Sie stehen in unzähligen Best-Practice-Guides, werden auf Konferenzen besprochen und in zahlreichen Stellenausschreibungen gefordert. Doch wenn der Termin näherrückt, der Kunde drängt oder der Wettbewerber schneller ist, sind genau diese Prozesse das erste Opfer.
„Wir reviewen das später“ wird zu „Wir haben es nie reviewed“. „Das testen wir noch ausführlich“ wird zu „Hat im Happy-Path funktioniert“. „Wir dokumentieren das Feature-Flag“ wird zu „Irgendwo steht bestimmt was dazu“. Dieser Mechanismus ist so vorhersagbar, dass er fast schon ein Naturgesetz der Softwareentwicklung ist: Nicht technisch erzwungene Prozesse erodieren unter Zeitdruck. Das Knight-Capital-Desaster ist dafür ein Paradebeispiel. Das Unternehmen hatte Prozesse für Deployments. Doch als es das neue Release ausrollte, blieb ein Server zurück. Ein einzelner vergessener Server mit einem alten Feature-Flag – und 45 Minuten später waren 440 Millionen Dollar vernichtet. Die Ursache war nicht fehlendes Wissen, sondern fehlende Disziplin in der Ausführung.
Hier zeigt sich ein grundlegendes Muster: Organisationen, die Qualitätssicherung als nice to have behandeln, weil sie vermeintlich zu teuer ist, bezahlen den Preis dennoch – nur später und dafür meist deutlich teurer. Um dem entgegenzuwirken, ist Automatisierung der Schlüssel. Was technisch erzwungen wird, kann nicht vergessen werden. Was hingegen von Hand geprüft werden muss, wird früher oder später übersehen oder vergessen. Das bedeutet zum Beispiel:
- Atomare Deployments, bei denen entweder alle Server aktualisiert werden oder keiner.
- Compiler, die Code ohne explizite Null-Behandlung ablehnen.
- CI/CD-Pipelines, die bei fehlenden Tests den Build abbrechen.
- Typsysteme, die Einheiten überprüfen.
Diese Mechanismen sind keine Schikane, sondern Lebensversicherungen für Software. Doch selbst die beste Automatisierung hilft nichts, wenn die dritte Ebene fehlt: die kulturelle – also die Art, wie eine Organisation mit Fehlern umgeht.
Die unterschätzte Dimension: Fehlerkultur und psychologische Sicherheit
Die technische und prozessuale Ebene lässt sich vergleichsweise einfach messen und verbessern. Doch die kulturelle Ebene ist subtiler und gleichzeitig entscheidender. In vielen Organisationen herrscht noch immer eine Kultur der Schuldzuweisung. Wenn etwas schiefgeht, wird nach dem Schuldigen gesucht. „Wer hat das deployed?“, „Wer hat das reviewed?“ oder „Wer hätte das sehen müssen?“. Diese Fragen sind menschlich verständlich, aber nicht zielführend, sondern kontraproduktiv.
Der Grund dafür ist einfach: Wenn Fehler mit Konsequenzen für Einzelne verbunden sind, werden sie verschleiert statt offen besprochen. Entwicklerinnen und Entwickler trauen sich nicht mehr, Bedenken zu äußern. Code-Reviews werden oberflächlicher, weil niemand als Bremser gelten will. Probleme werden vertuscht, bis sie eskalieren. Die Alternative sind Blameless Postmortems: Eine Praxis, die aus der Kultur des Site-Reliability-Engineering kommt. Die Grundidee ist, dass nach einem Vorfall nicht nach Schuldigen gesucht wird, sondern nach Systemschwächen. Also nicht „Wer hat den Fehler gemacht?“, sondern „Welche Umstände haben dazu geführt, dass dieser Fehler möglich war?“
Diese Haltung klingt weich, ist aber knallhart pragmatisch. Denn die Wahrheit ist: Fast jeder schwerwiegende Softwarefehler ist ein System- und kein individuelles Versagen. Wenn ein einzelner Developer einen Bug einbaut, ein Reviewer ihn übersehen, ein Test ihn nicht finden und ein Deployment ihn in Produktion bringen kann, dann ist das Problem das System, nicht der Mensch. Der Therac-25 ist dafür ein erschütterndes Beispiel. Die Race Condition, die Menschen tötete, war subtil und schwer zu reproduzieren. Sie trat nur auf, wenn Anwender sehr schnell Eingaben tätigten. Wäre es fair, den Entwicklern vorzuwerfen, sie hätten diesen Spezialfall testen müssen? Oder ist es nicht vielmehr ein Versagen des Designs, das sicherheitskritische Hardware-Interlocks durch Software-Checks ersetzt, ohne formale Verifikation, ohne unabhängiges Audit, ohne redundante Sicherungsebene?
Organisationen mit guter Fehlerkultur dokumentieren ihre Vorfälle detailliert, machen sie dem gesamten Team zugänglich und leiten konkrete Verbesserungen ab. Sie feiern es, wenn jemand einen potenziellen Fehler frühzeitig meldet. Sie reservieren explizit Zeit für technische Schulden und Refactoring. Sie nehmen Warnungen von Expertinnen und Experten ernst, auch wenn diese unbequem sind. In der griechischen Mythologie gab es Kassandra, die stets die Wahrheit sah, der aber niemand glaubte. Jede Organisation hat ihre Kassandras: Entwicklerinnen und Entwickler, die vor Risiken warnen, die auf technische Schulden hinweisen, die sagen „Das wird irgendwann schiefgehen“. Ob die Organisation diese Warnungen ernst nimmt, ist ein Gradmesser für ihre Reife.
Diese kulturelle Dimension wirkt sich direkt auf die Kosten aus. Die spektakulären Fälle zeigen drastisch, was es kostet, nicht aus Fehlern zu lernen. Diese Zahlen sind eindrücklich, aber sie zeigen dennoch nur die Spitze des Eisbergs. Die meisten Softwarefehler führen nicht zu spektakulären Katastrophen, sondern zu schleichendem Schaden: ständiges Feuerlöschen statt planvoller Entwicklung, frustrierte Teams mit hoher Fluktuation, Vertrauensverlust bei Kundinnen und Kunden, verpasste Marktchancen, technische Schulden, die sich exponentiell aufbauen. Zahlreiche Studien beziffern die Kosten schlechter Softwarequalität auf Hunderte Milliarden bis Billionen Dollar jährlich. Das ist keine abstrakte Zahl, sondern die Summe aus Millionen kleiner und großer Fehler, die täglich auftreten.
Künstliche Intelligenz
Intel macht weniger Minus als erwartet
Umsatz am oberen Ende der selbstgesteckten Erwartungen, aber weniger Nettoverlust als befürchtet: Intel liefert im Rahmen der eigenen Möglichkeiten einen passablen Jahresabschluss ab. Knapp 13,7 Milliarden US-Dollar hat das Unternehmen im vierten Quartal 2025 umgesetzt. Das sind vier Prozent weniger als im Vorjahreszeitraum. Unterm Strich stehen 591 Millionen Dollar Nettoverlust und damit etwa 14 Prozent weniger Miese als erwartet.
Weiterlesen nach der Anzeige
Über das komplette Jahr hat Intel knapp 52,9 Milliarden Dollar umgesetzt und damit fast genauso viel wie 2024. Auf dem Papier sinkt der Jahresverlust von 18,8 Milliarden auf 267 Millionen Dollar. Die Differenz ist allerdings nur so groß, weil Intel 2024 hohe Milliardensummen abschreiben musste. Das betriebliche Jahresergebnis schießt von -11,7 Milliarden auf -2,2 Millionen Dollar hoch, weil Intel insgesamt über fünf Milliarden Dollar bei Forschung, Entwicklung, Marketing und Administrativem spart und längst nicht mehr so viele Kosten für die Umstrukturierung anfallen. Sie sinken von knapp sieben Milliarden auf 2,2 Milliarden Dollar. Der betriebliche Jahres-Cashflow hat sich von 8,3 Milliarden auf 9,7 Milliarden Dollar verbessert.
Operativ bleibt zumindest für das vierte Quartal 2025 sogar ein Plus von 580 Millionen Dollar stehen, ein Wachstum von 41 Prozent gegenüber dem Vorjahreszeitraum. Vor Steuern bleiben davon 338 Millionen Dollar übrig; die 671 Millionen Dollar Steuern schießen Intel dann ins Minus.
Chipfertigung über 10 Milliarden Dollar im Minus
Das Sorgenkind bleibt die eigene Chipfertigung (Intel Foundry), die über das komplette Jahr 10,3 Milliarden Dollar Verlust gemacht hat. Das sind immerhin drei Milliarden weniger Minus als noch 2024.
Das Defizit ist so hoch, seitdem Intel die Foundry als eigenständigen Chipauftragsfertiger betrachtet, bei dem die Prozessorsparten zu branchenüblichen Preisen CPUs produzieren lassen. Die Umsätze reichen bislang nicht, um die Sparte nachhaltig über Wasser zu halten.
Es gibt allerdings einen allerersten, wenn auch kleinen Lichtblick: Die Intel Foundry hat im vierten Quartal 2025 offenbar 170 Millionen Dollar Umsatz mit externen Kunden gemacht. Das entspricht einem Anteil von 3,8 Prozent der insgesamt 4,5 Milliarden Dollar Umsatz. Ein Jahr zuvor waren es noch 27 Millionen Dollar externer Umsatz von gut 4,3 Milliarden Dollar.
Zu den Kundeneinnahmen der Foundry äußert sich Intel wie branchenüblich nicht. Aufgrund früherer Ankündigung wäre denkbar, dass Amazon (AWS) oder Microsoft KI-Chips mit Intels Fertigungstechnik testen oder in Kleinserie fertigen lassen.
Weiterlesen nach der Anzeige
Prozessoren bleiben stark
Intels unangefochtenes Zugpferd bleibt die sogenannte Client Computing Group rund um Core-Prozessoren für Notebooks und Desktop-PCs. 32,2 Milliarden Dollar hat sie 2025 umgesetzt, gut drei Prozent weniger als 2024. Sie macht 9,3 Milliarden Dollar Operativgewinn.

Intel
)
Serverprodukte sind mit 16,9 Milliarden Dollar Jahresumsatz weit abgeschlagen. Trotz des KI-Booms und der irrsinnigen Investitionen von Hyperscalern in Rechenzentren wächst Intels Serversparte nur um knapp fünf Prozent.
Intel hat weiterhin keine KI-Beschleuniger, die gut bei Hyperscalern ankommen. CEO Lip-Bu Tan sagt deswegen: „Unsere Überzeugung, dass CPUs in der KI-Ära eine wesentliche Rolle spielen, wächst weiter.“
Alle anderen Geschäftsbereiche haben knapp 3,6 Milliarden Dollar umgesetzt. Dazu zählen maßgeblich die Automotive-Sparte Mobileye und bis zum dritten Quartal der FPGA-Hersteller Altera, den Intel da mehrteilig verkauft hat.
Trüber Ausblick betrübt Börse
Im angelaufenen ersten Quartal 2026 erwartet Intel 11,7 Milliarden bis 12,7 Milliarden Dollar Umsatz und damit im besten Fall Stillstand gegenüber Anfang 2025. Die Bruttomarge soll von aktuell 36,1 auf nur noch 32,3 Prozent fallen. Der Nettoverlust soll Richtung zwei Milliarden Dollar steigen.
Gerade der letzte Punkt dürfte die Börse abgeschreckt haben: Im nachbörslichen Handel fiel Intels Aktie um etwa sechs Prozent. Damit steht das Wertpapier allerdings immer noch besser da als in den zwei Jahren zuvor.
(mma)
Künstliche Intelligenz
Kernfusion: Kanadisches Start-up General Fusion findet neue Investoren
An kontrollierte Kernfusion zu einem Bruchteil der Kosten anderer Projekte arbeitet General Fusion seit über 20 Jahren. 2009 hieß es, das werde binnen zehn Jahren fertig. Ausgegangen ist sich das nicht. Immerhin erzeugt der Reaktor Lawson Machine 26 (LM26) seit Februar 2025 Plasma, im kommenden Jahrzehnt soll Fusionsenergie kommerziell nutzbar sein. Damit auf dem Weg dorthin das Geld nicht ausgeht, geht General Fusion nun an die New Yorker Börse NASDAQ.
Weiterlesen nach der Anzeige
Das Management hofft auf gut 300 Millionen US-Dollar für die Firmenkasse. Allerdings ist es kein klassischer Börsengang. Vielmehr hat General Fusion das Interesse eines SPAC geweckt.
Ein SPAC namens SVAC III
SPAC steht für Special Purpose Acquisition Company. So eine Firma wird nur dazu gegründet, Geld von Investoren einzusammeln, dann ohne eigentliche Geschäftstätigkeit an der Börse zu notieren, um schließlich binnen zweier Jahre mit einer noch nicht börsennotierten Firma – hier: General Fusion – zu verschmelzen. Das war um das Jahr 2020 en vogue; für den übernommenen Betrieb ist das ein schneller und günstigerer Weg an die Börse. General Fusion wird im Zuge der Fusion mit 600 Millionen US-Dollar bewertet.
Viele solcher SPAC-Konstrukte haben ihren Anlegern wenig Freude bereitet. Der Zwang, binnen zweier Jahre viele Millionen für irgendeine Akquisition ausgeben zu müssen, ist womöglich nicht der ideale Anreiz für die beste Investitionsentscheidung.
Das konkrete SPAC-Vehikel heißt Spring Valley Acquisition Corp. III (SVAC III). Es hat 230 Millionen US-Dollar von Spekulanten eingesammelt, die ihr Geld allerdings vor der Übernahme zurückziehen könnten. Die Organisatoren eines SPAC heißen „Sponsoren”. Das gleiche Team hat unter dem Namen Spring Valley Acquisition Corp. (ohne „III”) 2022 die Firma Nuscale Power mittels SPAC-Fusion an die Börse gebracht. Dieses US-Start-up entwickelt proprietäre kleine modulare Atomreaktoren (SMR). Der Aktienkurs hat in den letzten Monaten eine Achterbahnfahrt gemacht, liegt nach einem herben Kurssturz aber immer noch beim etwa Doppelten des Übernahmekurses.
Zusätzliche Investoren
Weiterlesen nach der Anzeige
Parallel zur Fusion mit SVAC III hat General Fusion noch andere Investoren gefunden, die 105 Millionen Dollar für Vorzugswandelaktien hinlegen. Sie sollen pro Aktie 20 Prozent mehr zahlen, als SVAC III bietet.
Der Plan sieht vor, dass General Fusion insgesamt 335 Millionen Dollar erhält: Die 230 Millionen Dollar, die derzeit in der SVACIII-Kasse liegen, und die 105 Millionen Dollar von den zusätzlichen Investoren. Abzüglich Transaktionskosten winken damit bis zu 311 Millionen Dollar Liquidität.
Die bisherigen Eigentümer General Fusions behalten 58 Prozent der Anteile. Die SVACIII-Aktionäre bekommen 22 Prozent, die zusätzliche Investoren Gruppe gut 13 Prozent. Als Belohnung für die Einfädelung der ganzen Sache gehen knapp sieben Prozent an den SPAC-Sponsor. Dieser Anteil verdreifacht sich ungefähr, sollte sich der Aktienkurs gut entwickeln (sogenanntes earnout im Gegenwert von 135 Millionen Dollar).
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
So soll das funktionieren
General Fusion setzt auf das exotische Konzept der Magnetized Target Fusion (MTF), eine Art Mittelding anderer Fusion-Konzepte (Magneteinschluss und Trägheitsfusion). Bei General Fusion dient ein rotierender Zylinder aus flüssigem Metall als Brennkammer, in den heißes Wasserstoff-Plasma eingebracht wird. Mittels Hochleistungssprengstoff wird das Plasma verdichtet und auf etwa 100 Millionen Grad erhitzt. Bei dieser Temperatur können Wasserstoffatome verschmelzen und Energie freisetzen. Das könnte sogar funktionieren.
(ds)
Künstliche Intelligenz
ESA-Sonden Proba-3: Zeitraffer zeigt drei heftige Sonneneruptionen nacheinander
Die ESA-Weltraumsonden Proba-3 haben am 21. September innerhalb von fünf Stunden gleich drei heftige Materieausbrüche auf der Sonne beobachtet, und jetzt hat die Weltraumagentur einen Zeitraffer davon veröffentlicht. Der wurde aus Aufnahmen unseres Sterns zusammengesetzt, die im Abstand von fünf Minuten von Proba-3 und dem Solar Dynamics Observatory der NASA aufgenommen wurden. Zuerst sieht man darauf oben rechts eine noch vergleichsweise kleine Protuberanz, es folgt eine größere links oben und schließlich die heftigste unten rechts. Solch ein Zusammenfall von mehreren Materieausbrüchen sei ziemlich selten, erklärt Andrei Zhukov vom Königlichen Observatorium von Belgien, der die Forschung mit dem eingesetzten Koronagrafen leitet.
Weiterlesen nach der Anzeige

Der Zeitraffer
(Bild: ESA/Proba-3/ASPIICS, NASA/SDO/AIA)
Auf den zusammengesetzten Aufnahmen stammt der äußere (gelbe) Teil aus den Sensoren von Proba-3, er zeigt die innere Sonnenkorona. Dort sei es etwa zweihundertmal heißer als auf der Sonnenoberfläche, erklärt die ESA. Wenn deutlich kälteres Plasma von dort heraufgeschleudert werde, spreche man von einer aktiven Protuberanz. Bei solch einer Sonneneruption wird das Plasma in unterschiedliche Richtungen gestoßen. Weil die Sonnenkorona vom strahlend hellen Licht der Sonne überstrahlt wird, kann das nur mit Hilfsmitteln sichtbar gemacht werden. Gleichzeitig sind die Eruptionen aber für die Forschung von hohem Wert, da sie auf Vorgänge unter der Sonnenoberfläche schließen lassen.
Proba-3 besteht aus zwei Satelliten, die in höchster Präzision zusammenarbeiten, um die Sonnenkorona sichtbar zu machen. Dabei wirft einer der beiden einen Schatten auf den zweiten, der damit in den Genuss einer künstlichen Sonnenfinsternis kommt. Die immens helle Sonnenscheibe wird also verdeckt und nur die Korona bleibt sichtbar. Die dann gesammelten Daten sollen Einblicke in das Weltraumwetter, koronale Massenauswürfe und Sonnenstürme geben, die Satelliten beeinträchtigen und sich auch auf die Kommunikation auf der Erde auswirken können. Ergründen wollen die Verantwortlichen auch, warum die Korona überhaupt so viel heißer ist als die Sonnenoberfläche. Und nebenbei kommen dann immer wieder solche beeindruckenden Aufnahmen heraus.
(mho)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Künstliche Intelligenzvor 3 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Entwicklung & Codevor 1 MonatKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGoogle „Broadwing“: 400-MW-Gaskraftwerk speichert CO₂ tief unter der Erde
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
