Connect with us

Künstliche Intelligenz

Aus Softwarefehlern lernen Teil 10: Software für eine bessere digitale Zukunft


Die Softwarebranche liebt es, von „neuen Herausforderungen“ zu sprechen. Seien es Cloud-native Architekturen, Microservices, Machine Learning oder Edge Computing: Jede Technologiewelle bringt ihre eigenen Buzzwords und vermeintlich einzigartige Probleme mit sich. Doch wer die großen Softwarekatastrophen der letzten Jahrzehnte studiert, erkennt schnell: Deren Muster sind zeitlos.

Weiterlesen nach der Anzeige


Golo Roden

Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Die Teile der Serie „Aus Softwarefehlern lernen“:

Der Mars Climate Orbiter verglühte 1999, weil Einheiten verwechselt wurden. Die Ariane 5 explodierte 1996 wegen eines Überlaufs. Knight Capital verlor 2012 440 Millionen Dollar durch einen fehlerhaften Deployment-Prozess. Der Therac-25 tötete in den 1980er-Jahren Menschen durch Race Conditions. Diese Vorfälle liegen Jahrzehnte auseinander, stammen aus völlig unterschiedlichen Domänen und basieren doch auf denselben fundamentalen Fehlern.

Das wirft eine unbequeme Frage auf: Wenn wir die Ursachen kennen, die Lösungen dokumentiert sind und die Werkzeuge existieren, warum passieren diese Fehler dann immer noch? Die Antwort ist ernüchternd: Weil technisches Wissen allein nicht ausreicht. Die Wiederholung bekannter Fehler ist kein technisches, sondern ein organisatorisches und kulturelles Problem.

Nach jedem spektakulären Softwarevorfall folgt dasselbe Ritual: Analysen werden geschrieben, Lessons-Learned dokumentiert, neue Tools entwickelt. Nach Heartbleed gab es bessere Fuzzing-Tools. Nach Knight Capital wurde über Deployment-Automatisierung diskutiert. Nach dem Mars Climate Orbiter sprach man über Typsysteme und Einheiten-Bibliotheken. All diese technischen Verbesserungen sind wertvoll und notwendig. Doch sie fokussieren stets nur auf die Symptome, behandeln allerdings nicht die Ursache:

  • Die Ariane 5 hatte Tests, sie deckten nur nicht die relevanten Szenarien ab.
  • Knight Capital hatte Deployment-Prozesse, sie wurden unter Zeitdruck nur nicht befolgt.
  • Der Therac-25 galt als modernes, softwaregesteuertes System, und genau das wurde zum Problem, weil Hardware-Interlocks eingespart wurden.

Weiterlesen nach der Anzeige

Die technische Ebene ist zweifellos die einfachste. Moderne Programmiersprachen bieten starke Typsysteme, die Einheitenfehler zur Compile-Zeit erkennen. Linter und statische Analysetools finden potenzielle Null-Pointer-Exceptions, bevor der Code läuft. Property-based-Testing deckt Grenzwertprobleme auf. Fuzzing findet Memory-Corruption-Bugs. All diese Werkzeuge sind mächtig – aber nur, wenn sie auch eingesetzt werden. Und genau hier beginnt das eigentliche Problem: die organisatorische Ebene.

Jedes Softwareteam kennt die gut gemeinten Prozesse. Code-Reviews, bei denen mindestens zwei Entwicklerinnen oder Entwickler draufschauen. Pair-Programming für kritische Codepfade. Ausführliche Testabdeckung, Blameless-Postmortems nach jedem Vorfall, Feature-Flags mit dokumentiertem Lifecycle, Deployment-Pipelines mit automatischen Rollback-Mechanismen und so weiter. All das sind bewährte Praktiken: Sie stehen in unzähligen Best-Practice-Guides, werden auf Konferenzen besprochen und in zahlreichen Stellenausschreibungen gefordert. Doch wenn der Termin näherrückt, der Kunde drängt oder der Wettbewerber schneller ist, sind genau diese Prozesse das erste Opfer.

„Wir reviewen das später“ wird zu „Wir haben es nie reviewed“. „Das testen wir noch ausführlich“ wird zu „Hat im Happy-Path funktioniert“. „Wir dokumentieren das Feature-Flag“ wird zu „Irgendwo steht bestimmt was dazu“. Dieser Mechanismus ist so vorhersagbar, dass er fast schon ein Naturgesetz der Softwareentwicklung ist: Nicht technisch erzwungene Prozesse erodieren unter Zeitdruck. Das Knight-Capital-Desaster ist dafür ein Paradebeispiel. Das Unternehmen hatte Prozesse für Deployments. Doch als es das neue Release ausrollte, blieb ein Server zurück. Ein einzelner vergessener Server mit einem alten Feature-Flag – und 45 Minuten später waren 440 Millionen Dollar vernichtet. Die Ursache war nicht fehlendes Wissen, sondern fehlende Disziplin in der Ausführung.

Hier zeigt sich ein grundlegendes Muster: Organisationen, die Qualitätssicherung als nice to have behandeln, weil sie vermeintlich zu teuer ist, bezahlen den Preis dennoch – nur später und dafür meist deutlich teurer. Um dem entgegenzuwirken, ist Automatisierung der Schlüssel. Was technisch erzwungen wird, kann nicht vergessen werden. Was hingegen von Hand geprüft werden muss, wird früher oder später übersehen oder vergessen. Das bedeutet zum Beispiel:

  • Atomare Deployments, bei denen entweder alle Server aktualisiert werden oder keiner.
  • Compiler, die Code ohne explizite Null-Behandlung ablehnen.
  • CI/CD-Pipelines, die bei fehlenden Tests den Build abbrechen.
  • Typsysteme, die Einheiten überprüfen.

Diese Mechanismen sind keine Schikane, sondern Lebensversicherungen für Software. Doch selbst die beste Automatisierung hilft nichts, wenn die dritte Ebene fehlt: die kulturelle – also die Art, wie eine Organisation mit Fehlern umgeht.

Die technische und prozessuale Ebene lässt sich vergleichsweise einfach messen und verbessern. Doch die kulturelle Ebene ist subtiler und gleichzeitig entscheidender. In vielen Organisationen herrscht noch immer eine Kultur der Schuldzuweisung. Wenn etwas schiefgeht, wird nach dem Schuldigen gesucht. „Wer hat das deployed?“, „Wer hat das reviewed?“ oder „Wer hätte das sehen müssen?“. Diese Fragen sind menschlich verständlich, aber nicht zielführend, sondern kontraproduktiv.

Der Grund dafür ist einfach: Wenn Fehler mit Konsequenzen für Einzelne verbunden sind, werden sie verschleiert statt offen besprochen. Entwicklerinnen und Entwickler trauen sich nicht mehr, Bedenken zu äußern. Code-Reviews werden oberflächlicher, weil niemand als Bremser gelten will. Probleme werden vertuscht, bis sie eskalieren. Die Alternative sind Blameless Postmortems: Eine Praxis, die aus der Kultur des Site-Reliability-Engineering kommt. Die Grundidee ist, dass nach einem Vorfall nicht nach Schuldigen gesucht wird, sondern nach Systemschwächen. Also nicht „Wer hat den Fehler gemacht?“, sondern „Welche Umstände haben dazu geführt, dass dieser Fehler möglich war?“

Diese Haltung klingt weich, ist aber knallhart pragmatisch. Denn die Wahrheit ist: Fast jeder schwerwiegende Softwarefehler ist ein System- und kein individuelles Versagen. Wenn ein einzelner Developer einen Bug einbaut, ein Reviewer ihn übersehen, ein Test ihn nicht finden und ein Deployment ihn in Produktion bringen kann, dann ist das Problem das System, nicht der Mensch. Der Therac-25 ist dafür ein erschütterndes Beispiel. Die Race Condition, die Menschen tötete, war subtil und schwer zu reproduzieren. Sie trat nur auf, wenn Anwender sehr schnell Eingaben tätigten. Wäre es fair, den Entwicklern vorzuwerfen, sie hätten diesen Spezialfall testen müssen? Oder ist es nicht vielmehr ein Versagen des Designs, das sicherheitskritische Hardware-Interlocks durch Software-Checks ersetzt, ohne formale Verifikation, ohne unabhängiges Audit, ohne redundante Sicherungsebene?

Organisationen mit guter Fehlerkultur dokumentieren ihre Vorfälle detailliert, machen sie dem gesamten Team zugänglich und leiten konkrete Verbesserungen ab. Sie feiern es, wenn jemand einen potenziellen Fehler frühzeitig meldet. Sie reservieren explizit Zeit für technische Schulden und Refactoring. Sie nehmen Warnungen von Expertinnen und Experten ernst, auch wenn diese unbequem sind. In der griechischen Mythologie gab es Kassandra, die stets die Wahrheit sah, der aber niemand glaubte. Jede Organisation hat ihre Kassandras: Entwicklerinnen und Entwickler, die vor Risiken warnen, die auf technische Schulden hinweisen, die sagen „Das wird irgendwann schiefgehen“. Ob die Organisation diese Warnungen ernst nimmt, ist ein Gradmesser für ihre Reife.

Diese kulturelle Dimension wirkt sich direkt auf die Kosten aus. Die spektakulären Fälle zeigen drastisch, was es kostet, nicht aus Fehlern zu lernen. Diese Zahlen sind eindrücklich, aber sie zeigen dennoch nur die Spitze des Eisbergs. Die meisten Softwarefehler führen nicht zu spektakulären Katastrophen, sondern zu schleichendem Schaden: ständiges Feuerlöschen statt planvoller Entwicklung, frustrierte Teams mit hoher Fluktuation, Vertrauensverlust bei Kundinnen und Kunden, verpasste Marktchancen, technische Schulden, die sich exponentiell aufbauen. Zahlreiche Studien beziffern die Kosten schlechter Softwarequalität auf Hunderte Milliarden bis Billionen Dollar jährlich. Das ist keine abstrakte Zahl, sondern die Summe aus Millionen kleiner und großer Fehler, die täglich auftreten.



Source link

Künstliche Intelligenz

Einführung von Starterpacks: X kopiert Bluesky


Der US-Kurznachrichtendienst X führt die von Bluesky bekannte Funktion der sogenannten Starter Packs ein. Das gab Produktchef Nikita Bier jetzt in einem Beitrag auf X bekannt. Dass sich X dabei am Funktionsumfang des Konkurrenzdienstes Bluesky bedient, macht das US-Unternehmen unverblümt deutlich. Die neue Funktion heißt Starterpacks und soll in den kommenden Wochen für alle X-Nutzer eingeführt werden.

Weiterlesen nach der Anzeige

Starter Packs sind ursprünglich von Bluesky Mitte 2024 eingeführt worden und erfreuten sich schnell großer Beliebtheit. Die von Nutzern kuratierten Accountsammlungen, denen man mit einem Klick folgen kann, helfen vor allem neuen Anwendern, sich auf der Plattform zurechtzufinden. Das soll das als „cold start“ bekannte Problem eines Wechsels auf eine neue Plattform mildern. Bedeutsam wurden die Listen mit vorgeschlagenen Accounts vor allem während der zweiten Abwanderungswelle von X nach dem Wahlsieg von Donald Trump in den USA.

Im Gegensatz zu den Starter Packs auf Bluesky basieren die Starterpacks von X nicht auf Nutzervorschlägen. X-Nutzer können keine eigenen Starterpacks erstellen und mit anderen teilen. Vielmehr gibt X intern erstellte, eigene Listen vor. Die sollen neuen X-Nutzern helfen, ihren Interessen entsprechende Konten zu finden, schreibt Bier auf X.

Die X-Starterpacks sind thematisch sortiert und enthalten sowohl unbekannte als auch bekannte Accounts aus den Bereichen Nachrichten, Politik, Mode, Technologie, Business, Gesundheit und Fitness, Gaming, Aktien, Memes und mehr. Für deren Erstellung habe das Unternehmen die eigene Plattform durchforstet, um die Top-X-Nutzer jeder thematischen Nische ausfindig zu machen.

X ist nicht das einzige soziale Netzwerk, das die Funktion der Starter Packs von Bluesky kopiert. Metas Threads testet seit Dezember 2024 eine eigene Version der Vorschlagslisten, die aber ähnlich wie bei Bluesky von Nutzern erstellt werden. Auch das dezentrale soziale Netzwerk Mastodon plant, kuratierte Accountsammlungen offiziell einzuführen. Bislang sind die Mastodon-Startpakete nur inoffiziell verfügbar.

Weiterlesen nach der Anzeige


(rah)



Source link

Weiterlesen

Künstliche Intelligenz

Digitaler Befreiungsschlag: EU-Parlament fordert Loslösung von US-Tech-Riesen


Das EU-Parlament hat am Donnerstag einen Bericht über technologische Souveränität und digitale Infrastruktur mit einer großen, fraktionsübergreifenden Mehrheit von EVP, Sozialdemokraten, Liberalen und Grünen angenommen. Das breite Bündnis signalisiert die Entschlossenheit der Abgeordneten, die europäische Abhängigkeit von US-Technologien drastisch zu reduzieren und eigene Kapazitäten massiv auszubauen.

Weiterlesen nach der Anzeige

Die Volksvertreter fordern mit der Resolution von der EU-Kommission mutige Reformen, insbesondere einen ambitionierten „Cloud and AI Development Act“. Ein politisches Ausrufezeichen setzt die Verabschiedung eines Zusatzes, mit dem das Parlament das Recht der EU zur Durchsetzung eigener Gesetze wie dem Digital Services Act (DSA) bekräftigt und US-Einreiseverbote gegen zivilgesellschaftliche Akteure wie die Spitze der zivilgesellschaftlichen Organisation HateAid scharf verurteilt.

Inhaltlich setzt der Bericht auf eine strategische Neuausrichtung der öffentlichen Beschaffung und der Infrastruktur. Die verabschiedete Kompromisslinie sieht vor, dass Mitgliedstaaten europäische Tech-Anbieter in strategischen Sektoren bevorzugen können, um die technologische Kapazität der Gemeinschaft systematisch zu stärken. Die Grünen forderten hier sogar eine noch strengere Regelung, bei der die Nutzung von Produkten „Made in EU“ zur Regel werden sollte und Ausnahmen explizit begründet werden müssten. Auch bei der Cloud-Infrastruktur drängten sie auf eine Definition, die eine vollständige EU-Jurisdiktion ohne Abhängigkeiten von Drittstaaten vorsieht.

Mit dem Beschluss wollen die Abgeordneten den Grundstein für eine europäische digitale öffentliche Infrastruktur legen, die auf offenen Standards und Interoperabilität basiert. Dabei wird das Prinzip Public Money, Public Code als strategisches Fundament verankert, um die Abhängigkeit von einzelnen Anbietern zu verringern. Software, die mit Steuergeldern speziell für die Verwaltung entwickelt wird, soll demnach unter freien Lizenzen für alle bereitgestellt werden. Zur Finanzierung setzt das Parlament auf den Ausbau von öffentlich-privaten Investitionen. Im Gespräch war vorab etwa ein mit zehn Milliarden Euro dotierter „European Sovereign Tech Fund“, um gezielt strategische Infrastrukturen zu errichten, die der Markt allein nicht bereitstellt.

Die Schattenberichterstatterin für die Grünen, Alexandra Geese, sieht Europa mit dem Votum bereit, die Kontrolle über seine digitale Zukunft zu übernehmen. Solange europäische Daten von US-Anbietern gehalten würden, die Gesetzen wie dem Cloud Act unterliegen, sei die Sicherheit in Europa nicht gewährleistet.

Weiterlesen nach der Anzeige

Die Dringlichkeit der parlamentarischen Forderungen bestätigt eine Analyse der Gesellschaft für Informatik (GI). Experten wie Harald Wehnes und Julian Kunkel warnen, dass 2025 einen tiefen Einschnitt markiere: Die neue nationale Sicherheitsstrategie der USA definiere digitale Infrastrukturen explizit als nationale Sicherheitsgüter. In dem Papier der Trump-Regierung werde ein „digitaler Imperialismus“ deutlich, der Europa nur noch als reinen Absatzmarkt und Territorium für strategische Abhängigkeiten sehe. Wenn US-Monopolstellungen als Machtmittel instrumentalisiert würden, drohe Europa zu einem politisch entmündigten Gebiet zu verkommen.

Die GI-Autoren weisen darauf hin, dass das Dienstleistungsbilanzdefizit der EU gegenüber den USA bereits 2024 einen Rekordwert von 148 Milliarden Euro erreichte. Diese enorme Summe fließe direkt in die technologische Dominanz der Gegenseite. Angesichts dieser Bedrohung drängen sie auf eine radikale Kehrtwende in der öffentlichen IT-Beschaffung. Der Ansatz „European Tech First“ sei kein blinder Protektionismus, sondern Notwehr zur Sicherung der Handlungsfähigkeit.

Besonders kritisch sehen die Informatiker „Souveränitäts-Washing“: Angebote von US-Hyperscalern für „souveräne Clouds“ seien oft Scheinlösungen, da die finale technologische Kontrolle in den USA verbleibe. Stattdessen brauche es eine konsequente Bevorzugung von Open-Source-Lösungen aus dem europäischen Wirtschaftsraum. Der Beschluss des Parlaments bietet die Chance, diesen Appellen politisches Gewicht zu verleihen. Die Abgeordneten wollen damit den Weg für ein eigenständiges, werteorientiertes digitales Europa freimachen, das sich nicht länger durch algorithmische Kontrolle von außen steuern lässt.


(mho)



Source link

Weiterlesen

Künstliche Intelligenz

Schnelle Evolution: Neue Spezies erscheinen 2000 Jahre nach Chicxulub-Einschlag


Vor etwa 66 Millionen Jahren schlug ein Asteroid auf der Erde ein und löschte fast alles Leben aus, allen voran die Dinosaurier, die damals beherrschende Spezies. Danach hat sich das Leben wieder entwickelt – und zwar in atemberaubendem Tempo, wie Wissenschaftler herausgefunden haben.

Weiterlesen nach der Anzeige

Der Asteroid hatte einen Durchmesser von 10 bis 15 Kilometern. Er schlug auf der heutigen Halbinsel Yucatan in Mexiko ein – damals war dort Wasser – und hinterließ einen der größten Einschlagkrater auf der Erde, mit einem Durchmesser von 180 Kilometern und einer Tiefe von 30 Kilometern. Dabei wurden immense Mengen Erdreich in die Luft geschleudert, wodurch sich das Klima extrem veränderte. Innerhalb kürzester Zeit starben 75 Prozent aller Arten aus. Es war das größte Massensterben der Erdgeschichte.

Dass sich das Leben wieder entwickelt hat, sehen wir heute. Der Neuanfang vollzog sich dabei in erdgeschichtlich sehr kurzer Zeit: Bereits nach weniger als 2000 Jahren seien neue Planktonarten aufgetaucht, berichtet ein Team des Instituts für Geophysik der University of Texas in der Fachzeitschrift Geology über seine Forschungen am Chicxulub-Krater in Mexiko. „Das ist unglaublich schnell“, sagte Chris Lowery. Normalerweise entwickeln sich neue Spezies über einen Zeitraum von etwa einer Million Jahre.

Lowerys Team hat jedoch schon früher an dem Einschlagskrater geforscht und herausgefunden, dass sich das Leben rasch nach der Katastrophe wieder erholte. Dennoch ging die Forschung davon aus, dass es mehrere Zehntausend Jahre dauerte, bis neue Arten auftauchten.

Als Indikator dafür gelten Sedimentansammlungen, also Lockermaterialien, die teilweise organischen Ursprungs sind. Die Annahme war, dass sich Sedimente nach dem Einschlag im gleichen Maß ansammelten wie vorher. Darauf basierten die Altersbestimmungen kleiner Fossilien in der Schicht, die als Kreide-Paläogen-Grenze (K/Pg-Grenze) bezeichnet wird.

Lowerys Team geht davon aus, dass Massensterben an Land und im Meer die Sedimentationsrate an der K/Pg-Grenze änderte. Es nutzte für die Datierung Helium-3 als Marker. Das Helium-Isotop lagert sich mit einer konstanten Geschwindigkeit im Sediment auf dem Meeresgrund ab. Lagert sich das Sediment langsam ab, ist darin viel Helium-3 enthalten. Lagert es sich hingegen schnell ab, ist der Helium-3-Gehalt entsprechend geringer.

Weiterlesen nach der Anzeige

Das Team bestimmte anhand des Helium-3-Gehalts die Sedimentationsraten an sechs Fundorten der K/Pg-Grenze in Europa, Nordafrika und im Golf von Mexiko. Diese Daten nutzte es dann, um das Alter von Sedimenten zu bestimmen, in denen Parvularugoglobigerina eugubina auftritt. Das Vorkommen dieser Planktonart gilt als Hinweis auf eine Erholung nach dem Massensterben.

Parvularugoglobigerina eugubina tauchte im Zeitraum 3500 und 11000 Jahren nach dem Chicxulub-Einschlag auf – der genaue Zeitpunkt ist nach Standort unterschiedlich. Allerdings fanden die Forscher auch einige Planktonarten, die weniger als 2.000 Jahre nach dem Chicxulub-Einschlag auftraten und eine Erholung der Artenvielfalt einleiteten, die sich über 10 Millionen Jahre fortsetzte.

„Die Geschwindigkeit der Erholung zeigt, wie widerstandsfähig die Natur ist. Dass sich nach erdgeschichtlichem Maßstab in einem Herzschlag komplexes Leben wiederherstellt, ist wirklich erstaunlich“, sagte Timothy Bralower, einer der Autoren der Studie. „Angesichts der Bedrohung durch die anthropogene Zerstörung von Lebensräumen ist dies möglicherweise auch beruhigend für die Widerstandsfähigkeit moderner Arten.“


(wpl)



Source link

Weiterlesen

Beliebt