Connect with us

Künstliche Intelligenz

Aus Softwarefehlern lernen Teil 10: Software für eine bessere digitale Zukunft


Die Softwarebranche liebt es, von „neuen Herausforderungen“ zu sprechen. Seien es Cloud-native Architekturen, Microservices, Machine Learning oder Edge Computing: Jede Technologiewelle bringt ihre eigenen Buzzwords und vermeintlich einzigartige Probleme mit sich. Doch wer die großen Softwarekatastrophen der letzten Jahrzehnte studiert, erkennt schnell: Deren Muster sind zeitlos.

Weiterlesen nach der Anzeige


Golo Roden

Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Die Teile der Serie „Aus Softwarefehlern lernen“:

Der Mars Climate Orbiter verglühte 1999, weil Einheiten verwechselt wurden. Die Ariane 5 explodierte 1996 wegen eines Überlaufs. Knight Capital verlor 2012 440 Millionen Dollar durch einen fehlerhaften Deployment-Prozess. Der Therac-25 tötete in den 1980er-Jahren Menschen durch Race Conditions. Diese Vorfälle liegen Jahrzehnte auseinander, stammen aus völlig unterschiedlichen Domänen und basieren doch auf denselben fundamentalen Fehlern.

Das wirft eine unbequeme Frage auf: Wenn wir die Ursachen kennen, die Lösungen dokumentiert sind und die Werkzeuge existieren, warum passieren diese Fehler dann immer noch? Die Antwort ist ernüchternd: Weil technisches Wissen allein nicht ausreicht. Die Wiederholung bekannter Fehler ist kein technisches, sondern ein organisatorisches und kulturelles Problem.

Nach jedem spektakulären Softwarevorfall folgt dasselbe Ritual: Analysen werden geschrieben, Lessons-Learned dokumentiert, neue Tools entwickelt. Nach Heartbleed gab es bessere Fuzzing-Tools. Nach Knight Capital wurde über Deployment-Automatisierung diskutiert. Nach dem Mars Climate Orbiter sprach man über Typsysteme und Einheiten-Bibliotheken. All diese technischen Verbesserungen sind wertvoll und notwendig. Doch sie fokussieren stets nur auf die Symptome, behandeln allerdings nicht die Ursache:

  • Die Ariane 5 hatte Tests, sie deckten nur nicht die relevanten Szenarien ab.
  • Knight Capital hatte Deployment-Prozesse, sie wurden unter Zeitdruck nur nicht befolgt.
  • Der Therac-25 galt als modernes, softwaregesteuertes System, und genau das wurde zum Problem, weil Hardware-Interlocks eingespart wurden.

Weiterlesen nach der Anzeige

Die technische Ebene ist zweifellos die einfachste. Moderne Programmiersprachen bieten starke Typsysteme, die Einheitenfehler zur Compile-Zeit erkennen. Linter und statische Analysetools finden potenzielle Null-Pointer-Exceptions, bevor der Code läuft. Property-based-Testing deckt Grenzwertprobleme auf. Fuzzing findet Memory-Corruption-Bugs. All diese Werkzeuge sind mächtig – aber nur, wenn sie auch eingesetzt werden. Und genau hier beginnt das eigentliche Problem: die organisatorische Ebene.

Jedes Softwareteam kennt die gut gemeinten Prozesse. Code-Reviews, bei denen mindestens zwei Entwicklerinnen oder Entwickler draufschauen. Pair-Programming für kritische Codepfade. Ausführliche Testabdeckung, Blameless-Postmortems nach jedem Vorfall, Feature-Flags mit dokumentiertem Lifecycle, Deployment-Pipelines mit automatischen Rollback-Mechanismen und so weiter. All das sind bewährte Praktiken: Sie stehen in unzähligen Best-Practice-Guides, werden auf Konferenzen besprochen und in zahlreichen Stellenausschreibungen gefordert. Doch wenn der Termin näherrückt, der Kunde drängt oder der Wettbewerber schneller ist, sind genau diese Prozesse das erste Opfer.

„Wir reviewen das später“ wird zu „Wir haben es nie reviewed“. „Das testen wir noch ausführlich“ wird zu „Hat im Happy-Path funktioniert“. „Wir dokumentieren das Feature-Flag“ wird zu „Irgendwo steht bestimmt was dazu“. Dieser Mechanismus ist so vorhersagbar, dass er fast schon ein Naturgesetz der Softwareentwicklung ist: Nicht technisch erzwungene Prozesse erodieren unter Zeitdruck. Das Knight-Capital-Desaster ist dafür ein Paradebeispiel. Das Unternehmen hatte Prozesse für Deployments. Doch als es das neue Release ausrollte, blieb ein Server zurück. Ein einzelner vergessener Server mit einem alten Feature-Flag – und 45 Minuten später waren 440 Millionen Dollar vernichtet. Die Ursache war nicht fehlendes Wissen, sondern fehlende Disziplin in der Ausführung.

Hier zeigt sich ein grundlegendes Muster: Organisationen, die Qualitätssicherung als nice to have behandeln, weil sie vermeintlich zu teuer ist, bezahlen den Preis dennoch – nur später und dafür meist deutlich teurer. Um dem entgegenzuwirken, ist Automatisierung der Schlüssel. Was technisch erzwungen wird, kann nicht vergessen werden. Was hingegen von Hand geprüft werden muss, wird früher oder später übersehen oder vergessen. Das bedeutet zum Beispiel:

  • Atomare Deployments, bei denen entweder alle Server aktualisiert werden oder keiner.
  • Compiler, die Code ohne explizite Null-Behandlung ablehnen.
  • CI/CD-Pipelines, die bei fehlenden Tests den Build abbrechen.
  • Typsysteme, die Einheiten überprüfen.

Diese Mechanismen sind keine Schikane, sondern Lebensversicherungen für Software. Doch selbst die beste Automatisierung hilft nichts, wenn die dritte Ebene fehlt: die kulturelle – also die Art, wie eine Organisation mit Fehlern umgeht.

Die technische und prozessuale Ebene lässt sich vergleichsweise einfach messen und verbessern. Doch die kulturelle Ebene ist subtiler und gleichzeitig entscheidender. In vielen Organisationen herrscht noch immer eine Kultur der Schuldzuweisung. Wenn etwas schiefgeht, wird nach dem Schuldigen gesucht. „Wer hat das deployed?“, „Wer hat das reviewed?“ oder „Wer hätte das sehen müssen?“. Diese Fragen sind menschlich verständlich, aber nicht zielführend, sondern kontraproduktiv.

Der Grund dafür ist einfach: Wenn Fehler mit Konsequenzen für Einzelne verbunden sind, werden sie verschleiert statt offen besprochen. Entwicklerinnen und Entwickler trauen sich nicht mehr, Bedenken zu äußern. Code-Reviews werden oberflächlicher, weil niemand als Bremser gelten will. Probleme werden vertuscht, bis sie eskalieren. Die Alternative sind Blameless Postmortems: Eine Praxis, die aus der Kultur des Site-Reliability-Engineering kommt. Die Grundidee ist, dass nach einem Vorfall nicht nach Schuldigen gesucht wird, sondern nach Systemschwächen. Also nicht „Wer hat den Fehler gemacht?“, sondern „Welche Umstände haben dazu geführt, dass dieser Fehler möglich war?“

Diese Haltung klingt weich, ist aber knallhart pragmatisch. Denn die Wahrheit ist: Fast jeder schwerwiegende Softwarefehler ist ein System- und kein individuelles Versagen. Wenn ein einzelner Developer einen Bug einbaut, ein Reviewer ihn übersehen, ein Test ihn nicht finden und ein Deployment ihn in Produktion bringen kann, dann ist das Problem das System, nicht der Mensch. Der Therac-25 ist dafür ein erschütterndes Beispiel. Die Race Condition, die Menschen tötete, war subtil und schwer zu reproduzieren. Sie trat nur auf, wenn Anwender sehr schnell Eingaben tätigten. Wäre es fair, den Entwicklern vorzuwerfen, sie hätten diesen Spezialfall testen müssen? Oder ist es nicht vielmehr ein Versagen des Designs, das sicherheitskritische Hardware-Interlocks durch Software-Checks ersetzt, ohne formale Verifikation, ohne unabhängiges Audit, ohne redundante Sicherungsebene?

Organisationen mit guter Fehlerkultur dokumentieren ihre Vorfälle detailliert, machen sie dem gesamten Team zugänglich und leiten konkrete Verbesserungen ab. Sie feiern es, wenn jemand einen potenziellen Fehler frühzeitig meldet. Sie reservieren explizit Zeit für technische Schulden und Refactoring. Sie nehmen Warnungen von Expertinnen und Experten ernst, auch wenn diese unbequem sind. In der griechischen Mythologie gab es Kassandra, die stets die Wahrheit sah, der aber niemand glaubte. Jede Organisation hat ihre Kassandras: Entwicklerinnen und Entwickler, die vor Risiken warnen, die auf technische Schulden hinweisen, die sagen „Das wird irgendwann schiefgehen“. Ob die Organisation diese Warnungen ernst nimmt, ist ein Gradmesser für ihre Reife.

Diese kulturelle Dimension wirkt sich direkt auf die Kosten aus. Die spektakulären Fälle zeigen drastisch, was es kostet, nicht aus Fehlern zu lernen. Diese Zahlen sind eindrücklich, aber sie zeigen dennoch nur die Spitze des Eisbergs. Die meisten Softwarefehler führen nicht zu spektakulären Katastrophen, sondern zu schleichendem Schaden: ständiges Feuerlöschen statt planvoller Entwicklung, frustrierte Teams mit hoher Fluktuation, Vertrauensverlust bei Kundinnen und Kunden, verpasste Marktchancen, technische Schulden, die sich exponentiell aufbauen. Zahlreiche Studien beziffern die Kosten schlechter Softwarequalität auf Hunderte Milliarden bis Billionen Dollar jährlich. Das ist keine abstrakte Zahl, sondern die Summe aus Millionen kleiner und großer Fehler, die täglich auftreten.



Source link

Künstliche Intelligenz

Kernfusion: Kanadisches Start-up General Fusion findet neue Investoren


An kontrollierte Kernfusion zu einem Bruchteil der Kosten anderer Projekte arbeitet General Fusion seit über 20 Jahren. 2009 hieß es, das werde binnen zehn Jahren fertig. Ausgegangen ist sich das nicht. Immerhin erzeugt der Reaktor Lawson Machine 26 (LM26) seit Februar 2025 Plasma, im kommenden Jahrzehnt soll Fusionsenergie kommerziell nutzbar sein. Damit auf dem Weg dorthin das Geld nicht ausgeht, geht General Fusion nun an die New Yorker Börse NASDAQ.

Weiterlesen nach der Anzeige

Das Management hofft auf gut 300 Millionen US-Dollar für die Firmenkasse. Allerdings ist es kein klassischer Börsengang. Vielmehr hat General Fusion das Interesse eines SPAC geweckt.

SPAC steht für Special Purpose Acquisition Company. So eine Firma wird nur dazu gegründet, Geld von Investoren einzusammeln, dann ohne eigentliche Geschäftstätigkeit an der Börse zu notieren, um schließlich binnen zweier Jahre mit einer noch nicht börsennotierten Firma – hier: General Fusion – zu verschmelzen. Das war um das Jahr 2020 en vogue; für den übernommenen Betrieb ist das ein schneller und günstigerer Weg an die Börse. General Fusion wird im Zuge der Fusion mit 600 Millionen US-Dollar bewertet.

Viele solcher SPAC-Konstrukte haben ihren Anlegern wenig Freude bereitet. Der Zwang, binnen zweier Jahre viele Millionen für irgendeine Akquisition ausgeben zu müssen, ist womöglich nicht der ideale Anreiz für die beste Investitionsentscheidung.

Das konkrete SPAC-Vehikel heißt Spring Valley Acquisition Corp. III (SVAC III). Es hat 230 Millionen US-Dollar von Spekulanten eingesammelt, die ihr Geld allerdings vor der Übernahme zurückziehen könnten. Die Organisatoren eines SPAC heißen „Sponsoren”. Das gleiche Team hat unter dem Namen Spring Valley Acquisition Corp. (ohne „III”) 2022 die Firma Nuscale Power mittels SPAC-Fusion an die Börse gebracht. Dieses US-Start-up entwickelt proprietäre kleine modulare Atomreaktoren (SMR). Der Aktienkurs hat in den letzten Monaten eine Achterbahnfahrt gemacht, liegt nach einem herben Kurssturz aber immer noch beim etwa Doppelten des Übernahmekurses.

Weiterlesen nach der Anzeige

Parallel zur Fusion mit SVAC III hat General Fusion noch andere Investoren gefunden, die 105 Millionen Dollar für Vorzugswandelaktien hinlegen. Sie sollen pro Aktie 20 Prozent mehr zahlen, als SVAC III bietet.

Der Plan sieht vor, dass General Fusion insgesamt 335 Millionen Dollar erhält: Die 230 Millionen Dollar, die derzeit in der SVACIII-Kasse liegen, und die 105 Millionen Dollar von den zusätzlichen Investoren. Abzüglich Transaktionskosten winken damit bis zu 311 Millionen Dollar Liquidität.

Die bisherigen Eigentümer General Fusions behalten 58 Prozent der Anteile. Die SVACIII-Aktionäre bekommen 22 Prozent, die zusätzliche Investoren Gruppe gut 13 Prozent. Als Belohnung für die Einfädelung der ganzen Sache gehen knapp sieben Prozent an den SPAC-Sponsor. Dieser Anteil verdreifacht sich ungefähr, sollte sich der Aktienkurs gut entwickeln (sogenanntes earnout im Gegenwert von 135 Millionen Dollar).

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

So soll das funktionieren

General Fusion setzt auf das exotische Konzept der Magnetized Target Fusion (MTF), eine Art Mittelding anderer Fusion-Konzepte (Magneteinschluss und Trägheitsfusion). Bei General Fusion dient ein rotierender Zylinder aus flüssigem Metall als Brennkammer, in den heißes Wasserstoff-Plasma eingebracht wird. Mittels Hochleistungssprengstoff wird das Plasma verdichtet und auf etwa 100 Millionen Grad erhitzt. Bei dieser Temperatur können Wasserstoffatome verschmelzen und Energie freisetzen. Das könnte sogar funktionieren.


(ds)



Source link

Weiterlesen

Künstliche Intelligenz

ESA-Sonden Proba-3: Zeitraffer zeigt drei heftige Sonneneruptionen nacheinander


Die ESA-Weltraumsonden Proba-3 haben am 21. September innerhalb von fünf Stunden gleich drei heftige Materieausbrüche auf der Sonne beobachtet, und jetzt hat die Weltraumagentur einen Zeitraffer davon veröffentlicht. Der wurde aus Aufnahmen unseres Sterns zusammengesetzt, die im Abstand von fünf Minuten von Proba-3 und dem Solar Dynamics Observatory der NASA aufgenommen wurden. Zuerst sieht man darauf oben rechts eine noch vergleichsweise kleine Protuberanz, es folgt eine größere links oben und schließlich die heftigste unten rechts. Solch ein Zusammenfall von mehreren Materieausbrüchen sei ziemlich selten, erklärt Andrei Zhukov vom Königlichen Observatorium von Belgien, der die Forschung mit dem eingesetzten Koronagrafen leitet.

Weiterlesen nach der Anzeige


Die beschriebene Zeitrafferaufnahme

Die beschriebene Zeitrafferaufnahme

Der Zeitraffer

(Bild: ESA/Proba-3/ASPIICS, NASA/SDO/AIA)

Auf den zusammengesetzten Aufnahmen stammt der äußere (gelbe) Teil aus den Sensoren von Proba-3, er zeigt die innere Sonnenkorona. Dort sei es etwa zweihundertmal heißer als auf der Sonnenoberfläche, erklärt die ESA. Wenn deutlich kälteres Plasma von dort heraufgeschleudert werde, spreche man von einer aktiven Protuberanz. Bei solch einer Sonneneruption wird das Plasma in unterschiedliche Richtungen gestoßen. Weil die Sonnenkorona vom strahlend hellen Licht der Sonne überstrahlt wird, kann das nur mit Hilfsmitteln sichtbar gemacht werden. Gleichzeitig sind die Eruptionen aber für die Forschung von hohem Wert, da sie auf Vorgänge unter der Sonnenoberfläche schließen lassen.

Proba-3 besteht aus zwei Satelliten, die in höchster Präzision zusammenarbeiten, um die Sonnenkorona sichtbar zu machen. Dabei wirft einer der beiden einen Schatten auf den zweiten, der damit in den Genuss einer künstlichen Sonnenfinsternis kommt. Die immens helle Sonnenscheibe wird also verdeckt und nur die Korona bleibt sichtbar. Die dann gesammelten Daten sollen Einblicke in das Weltraumwetter, koronale Massenauswürfe und Sonnenstürme geben, die Satelliten beeinträchtigen und sich auch auf die Kommunikation auf der Erde auswirken können. Ergründen wollen die Verantwortlichen auch, warum die Korona überhaupt so viel heißer ist als die Sonnenoberfläche. Und nebenbei kommen dann immer wieder solche beeindruckenden Aufnahmen heraus.


(mho)



Source link

Weiterlesen

Künstliche Intelligenz

TikTok USA: Behördliche Genehmigungen für Verkauf sollen fertig sein


Eine Woche vor Weihnachten hat TikTok den aufgezwungenen Vertrag zum Verkauf der Mehrheitsanteile der US-Tochter unterzeichnet. Das Closing, also die Umsetzung des Verkaufs, sollte bis Donnerstag erfolgen. Theoretisch droht ansonsten das Wiederaufleben des Betriebsverbots in den USA. Doch es dürfte sich alles ausgehen.

Weiterlesen nach der Anzeige

Denn laut Semafor haben die zuständigen Wettbewerbsbehörden sowohl in der Volksrepublik China als auch in den Vereinigten Staaten von Amerika den Verkauf genehmigt. Offizielle Bestätigungen stehen noch aus. Ungefähr die Hälfte der US-Bevölkerung nutzt TikTok.

Durch den Verkauf entgeht die chinesische Videoplattform einem Verbot in den USA. Ein 2024 verabschiedetes Gesetz hat den Zwangsverkauf der US-Tochter TikTok zum Ziel. Offiziell geht es dabei darum, die Daten von US-Bürgern dem Zugriff der chinesischen Regierung zu entziehen und auch den TikTok-Empfehlungsalgorithmus unter US-Kontrolle zu stellen. Wirtschaftlich geht um den Reibach.

Die neue Struktur ist bislang intransparent. Das neue TikTok-Joint-Venture soll laut Weißem Haus für den Datenschutz für US-Nutzer, Zensur sowie Sicherheit von Algorithmus und Software verantwortlich sein. Der Empfehlungsalgorithmus soll auf Basis der US-Nutzerdaten neu trainiert werden.

Der IT-Konzern Oracle, das Investmentunternehmen Silver Lake sowie der in Abu Dhabi beheimatete Investmentfonds MGX werden zusammen 45 Prozent an TikTok USA halten. Bytedance behält knapp 20 Prozent der Aktien. Der Rest geht an bisherige Bytedance-Investoren. Bekannt ist zudem, dass im siebenköpfigen Verwaltungsrat des US-Ablegers namens TikTok USDS Joint Venture LLC mindestens vier US-Bürger sitzen werden, die von der US-Regierung bestätigt werden müssen (“national security clearance“).

Allerdings dürfte sich Bytedance einen Teil der Einnahmen aus Werbung und Onlinehandel gesichert haben. Dafür, sowie zur Aufrechterhaltung der Kompatibilität mit TikTok im Rest der Welt, wird Bytedance in den USA weiter eigene Tochterfirmen haben.

Weiterlesen nach der Anzeige

Oracle wiederum übernimmt die lukrative Aufgabe, die Daten der US-Nutzer TikToks in einer speziell dafür geschaffenen Cloud zu hosten. Außerdem soll Oracle Veränderungen am Algorithmus und Updates der TikTok-App „überwachen“. Oracle-Chef Larry Ellison ist ein großzügiger Unterstützer Donald Trumps.


(ds)



Source link

Weiterlesen

Beliebt