Connect with us

Künstliche Intelligenz

Aus Softwarefehlern lernen Teil 10: Software für eine bessere digitale Zukunft


Die Softwarebranche liebt es, von „neuen Herausforderungen“ zu sprechen. Seien es Cloud-native Architekturen, Microservices, Machine Learning oder Edge Computing: Jede Technologiewelle bringt ihre eigenen Buzzwords und vermeintlich einzigartige Probleme mit sich. Doch wer die großen Softwarekatastrophen der letzten Jahrzehnte studiert, erkennt schnell: Deren Muster sind zeitlos.

Weiterlesen nach der Anzeige


Golo Roden

Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Die Teile der Serie „Aus Softwarefehlern lernen“:

Der Mars Climate Orbiter verglühte 1999, weil Einheiten verwechselt wurden. Die Ariane 5 explodierte 1996 wegen eines Überlaufs. Knight Capital verlor 2012 440 Millionen Dollar durch einen fehlerhaften Deployment-Prozess. Der Therac-25 tötete in den 1980er-Jahren Menschen durch Race Conditions. Diese Vorfälle liegen Jahrzehnte auseinander, stammen aus völlig unterschiedlichen Domänen und basieren doch auf denselben fundamentalen Fehlern.

Das wirft eine unbequeme Frage auf: Wenn wir die Ursachen kennen, die Lösungen dokumentiert sind und die Werkzeuge existieren, warum passieren diese Fehler dann immer noch? Die Antwort ist ernüchternd: Weil technisches Wissen allein nicht ausreicht. Die Wiederholung bekannter Fehler ist kein technisches, sondern ein organisatorisches und kulturelles Problem.

Nach jedem spektakulären Softwarevorfall folgt dasselbe Ritual: Analysen werden geschrieben, Lessons-Learned dokumentiert, neue Tools entwickelt. Nach Heartbleed gab es bessere Fuzzing-Tools. Nach Knight Capital wurde über Deployment-Automatisierung diskutiert. Nach dem Mars Climate Orbiter sprach man über Typsysteme und Einheiten-Bibliotheken. All diese technischen Verbesserungen sind wertvoll und notwendig. Doch sie fokussieren stets nur auf die Symptome, behandeln allerdings nicht die Ursache:

  • Die Ariane 5 hatte Tests, sie deckten nur nicht die relevanten Szenarien ab.
  • Knight Capital hatte Deployment-Prozesse, sie wurden unter Zeitdruck nur nicht befolgt.
  • Der Therac-25 galt als modernes, softwaregesteuertes System, und genau das wurde zum Problem, weil Hardware-Interlocks eingespart wurden.

Weiterlesen nach der Anzeige

Die technische Ebene ist zweifellos die einfachste. Moderne Programmiersprachen bieten starke Typsysteme, die Einheitenfehler zur Compile-Zeit erkennen. Linter und statische Analysetools finden potenzielle Null-Pointer-Exceptions, bevor der Code läuft. Property-based-Testing deckt Grenzwertprobleme auf. Fuzzing findet Memory-Corruption-Bugs. All diese Werkzeuge sind mächtig – aber nur, wenn sie auch eingesetzt werden. Und genau hier beginnt das eigentliche Problem: die organisatorische Ebene.

Jedes Softwareteam kennt die gut gemeinten Prozesse. Code-Reviews, bei denen mindestens zwei Entwicklerinnen oder Entwickler draufschauen. Pair-Programming für kritische Codepfade. Ausführliche Testabdeckung, Blameless-Postmortems nach jedem Vorfall, Feature-Flags mit dokumentiertem Lifecycle, Deployment-Pipelines mit automatischen Rollback-Mechanismen und so weiter. All das sind bewährte Praktiken: Sie stehen in unzähligen Best-Practice-Guides, werden auf Konferenzen besprochen und in zahlreichen Stellenausschreibungen gefordert. Doch wenn der Termin näherrückt, der Kunde drängt oder der Wettbewerber schneller ist, sind genau diese Prozesse das erste Opfer.

„Wir reviewen das später“ wird zu „Wir haben es nie reviewed“. „Das testen wir noch ausführlich“ wird zu „Hat im Happy-Path funktioniert“. „Wir dokumentieren das Feature-Flag“ wird zu „Irgendwo steht bestimmt was dazu“. Dieser Mechanismus ist so vorhersagbar, dass er fast schon ein Naturgesetz der Softwareentwicklung ist: Nicht technisch erzwungene Prozesse erodieren unter Zeitdruck. Das Knight-Capital-Desaster ist dafür ein Paradebeispiel. Das Unternehmen hatte Prozesse für Deployments. Doch als es das neue Release ausrollte, blieb ein Server zurück. Ein einzelner vergessener Server mit einem alten Feature-Flag – und 45 Minuten später waren 440 Millionen Dollar vernichtet. Die Ursache war nicht fehlendes Wissen, sondern fehlende Disziplin in der Ausführung.

Hier zeigt sich ein grundlegendes Muster: Organisationen, die Qualitätssicherung als nice to have behandeln, weil sie vermeintlich zu teuer ist, bezahlen den Preis dennoch – nur später und dafür meist deutlich teurer. Um dem entgegenzuwirken, ist Automatisierung der Schlüssel. Was technisch erzwungen wird, kann nicht vergessen werden. Was hingegen von Hand geprüft werden muss, wird früher oder später übersehen oder vergessen. Das bedeutet zum Beispiel:

  • Atomare Deployments, bei denen entweder alle Server aktualisiert werden oder keiner.
  • Compiler, die Code ohne explizite Null-Behandlung ablehnen.
  • CI/CD-Pipelines, die bei fehlenden Tests den Build abbrechen.
  • Typsysteme, die Einheiten überprüfen.

Diese Mechanismen sind keine Schikane, sondern Lebensversicherungen für Software. Doch selbst die beste Automatisierung hilft nichts, wenn die dritte Ebene fehlt: die kulturelle – also die Art, wie eine Organisation mit Fehlern umgeht.

Die technische und prozessuale Ebene lässt sich vergleichsweise einfach messen und verbessern. Doch die kulturelle Ebene ist subtiler und gleichzeitig entscheidender. In vielen Organisationen herrscht noch immer eine Kultur der Schuldzuweisung. Wenn etwas schiefgeht, wird nach dem Schuldigen gesucht. „Wer hat das deployed?“, „Wer hat das reviewed?“ oder „Wer hätte das sehen müssen?“. Diese Fragen sind menschlich verständlich, aber nicht zielführend, sondern kontraproduktiv.

Der Grund dafür ist einfach: Wenn Fehler mit Konsequenzen für Einzelne verbunden sind, werden sie verschleiert statt offen besprochen. Entwicklerinnen und Entwickler trauen sich nicht mehr, Bedenken zu äußern. Code-Reviews werden oberflächlicher, weil niemand als Bremser gelten will. Probleme werden vertuscht, bis sie eskalieren. Die Alternative sind Blameless Postmortems: Eine Praxis, die aus der Kultur des Site-Reliability-Engineering kommt. Die Grundidee ist, dass nach einem Vorfall nicht nach Schuldigen gesucht wird, sondern nach Systemschwächen. Also nicht „Wer hat den Fehler gemacht?“, sondern „Welche Umstände haben dazu geführt, dass dieser Fehler möglich war?“

Diese Haltung klingt weich, ist aber knallhart pragmatisch. Denn die Wahrheit ist: Fast jeder schwerwiegende Softwarefehler ist ein System- und kein individuelles Versagen. Wenn ein einzelner Developer einen Bug einbaut, ein Reviewer ihn übersehen, ein Test ihn nicht finden und ein Deployment ihn in Produktion bringen kann, dann ist das Problem das System, nicht der Mensch. Der Therac-25 ist dafür ein erschütterndes Beispiel. Die Race Condition, die Menschen tötete, war subtil und schwer zu reproduzieren. Sie trat nur auf, wenn Anwender sehr schnell Eingaben tätigten. Wäre es fair, den Entwicklern vorzuwerfen, sie hätten diesen Spezialfall testen müssen? Oder ist es nicht vielmehr ein Versagen des Designs, das sicherheitskritische Hardware-Interlocks durch Software-Checks ersetzt, ohne formale Verifikation, ohne unabhängiges Audit, ohne redundante Sicherungsebene?

Organisationen mit guter Fehlerkultur dokumentieren ihre Vorfälle detailliert, machen sie dem gesamten Team zugänglich und leiten konkrete Verbesserungen ab. Sie feiern es, wenn jemand einen potenziellen Fehler frühzeitig meldet. Sie reservieren explizit Zeit für technische Schulden und Refactoring. Sie nehmen Warnungen von Expertinnen und Experten ernst, auch wenn diese unbequem sind. In der griechischen Mythologie gab es Kassandra, die stets die Wahrheit sah, der aber niemand glaubte. Jede Organisation hat ihre Kassandras: Entwicklerinnen und Entwickler, die vor Risiken warnen, die auf technische Schulden hinweisen, die sagen „Das wird irgendwann schiefgehen“. Ob die Organisation diese Warnungen ernst nimmt, ist ein Gradmesser für ihre Reife.

Diese kulturelle Dimension wirkt sich direkt auf die Kosten aus. Die spektakulären Fälle zeigen drastisch, was es kostet, nicht aus Fehlern zu lernen. Diese Zahlen sind eindrücklich, aber sie zeigen dennoch nur die Spitze des Eisbergs. Die meisten Softwarefehler führen nicht zu spektakulären Katastrophen, sondern zu schleichendem Schaden: ständiges Feuerlöschen statt planvoller Entwicklung, frustrierte Teams mit hoher Fluktuation, Vertrauensverlust bei Kundinnen und Kunden, verpasste Marktchancen, technische Schulden, die sich exponentiell aufbauen. Zahlreiche Studien beziffern die Kosten schlechter Softwarequalität auf Hunderte Milliarden bis Billionen Dollar jährlich. Das ist keine abstrakte Zahl, sondern die Summe aus Millionen kleiner und großer Fehler, die täglich auftreten.



Source link

Künstliche Intelligenz

Arbeitsmarktanforderungen 2030: Menschliche Kompetenzen vor KI-Skills


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Menschliche Fähigkeiten wie Kreativität, kritisches Denken und Empathie verlieren auf dem Arbeitsmarkt keinen Wert, sondern sollen laut dem Weltwirtschaftsforum (World Economic Forum, WEF) im Jahr 2030 sogar an erster Stelle stehen – noch vor KI-Kompetenzen. Das geht aus einem aktuellen Whitepaper hervor, das Teil der Serie „New Economy Skills“ des WEF ist. In dieser werden fünf vom WEF identifizierte Kernkompetenzen für das Jahr 2030 beleuchtet, die von Unternehmen und Volkswirtschaften zur Aus- und Weiterbildung ihrer Fachkräfte priorisiert werden sollten.

Weiterlesen nach der Anzeige

Auf Platz zwei der fünf Kernkompetenzen im Jahr 2030 stehen KI-, Daten- und Digitalkompetenzen. Auf Platz drei folgen Umwelt- und Nachhaltigkeitskompetenzen, auf Platz vier fachliche und berufliche Kompetenzen und auf Platz fünf betriebswirtschaftliche Kompetenzen.

Die menschlichen Kompetenzen umfassen unter anderem kreative und problemlösende Fähigkeiten wie kritisches, analytisches, systemisches sowie mathematisches Denken, um komplexe Herausforderungen zu bewältigen und neue Ideen zu entwickeln. Auch Motivation und Selbstwahrnehmung, lebenslanges Lernen, Coaching, Neugier, Detailgenauigkeit, Resilienz, Flexibilität und Agilität sowie emotionale Intelligenz werden zu ihnen gezählt. Laut Bericht befähigen sie Menschen, sich selbst zu managen, weiterzubilden, zwischenmenschliche Beziehungen zu gestalten und ihr Wohlbefinden zu erhalten. Zudem wird prognostiziert, dass Kompetenzen wie Empathie, Resilienz, Führungsqualitäten und Lehrfähigkeit sowie höhere kognitive Fähigkeiten, wie analytisches und kreatives Denken und Neugierde, „nur ein 13-prozentiges Potenzial für eine KI-Transformation [haben], da sie auf menschlichem – nicht maschinellem – Urteilsvermögen, Kontext und Lebenserfahrung beruhen.“


Screenshot aus dem Bericht, Grafik, Kreis, aufgeteilt in vier Stücke

Screenshot aus dem Bericht, Grafik, Kreis, aufgeteilt in vier Stücke

Vier Kategorien menschlicher Kompetenzen weist der Bericht aus: Kreativität und Problemlösung, emotionale Intelligenz, Lernen und Wachstum, Kollaboration und Kommunikation.

(Bild: WEF)

Im Gegensatz dazu unterlägen mathematisches und statistisches Denken, Systemdenken, Sprechen, Schreiben und Sprachen sowie Zuverlässigkeit und Detailgenauigkeit einer fast sechsmal höheren Wahrscheinlichkeit einer hybriden oder vollständigen Transformation. Hier könne generative KI einen Großteil der Routinearbeit übernehmen. Eine menschliche Aufsicht bleibe aber weiterhin unerlässlich. Insgesamt gebe es nur wenige Fähigkeiten mit Potenzial für eine vollständige Transformation, bei der KI ganze Aufgaben mit minimaler menschlicher Interaktion bewältigen könne. Menschenzentrierte Kompetenzen blieben also „die Brücke zwischen technologischem Fortschritt und sinnvollen organisatorischen und gesellschaftlichen Ergebnissen.“



Aktuelle Kompetenztransformationskapazität von generativer KI (%) nach Kompetenzgruppe.

(Bild: WEF)

Weiterlesen nach der Anzeige

Auch macht der Bericht darauf aufmerksam, dass für den Arbeitsmarkt benötigte menschliche Kompetenzen weder ab Geburt ausreichend entwickelt, noch unbeeinflusst von äußeren Bedingungen vorhanden sind. So wird zum einen unterstrichen, dass menschliche Kompetenzen wie etwa Zusammenarbeit, kritisches Denken, Anpassungsfähigkeit, Neugier und emotionale Intelligenz in Bildungssystemen bisher zu wenig gefördert werden. Zum anderen werden die menschenzentrierten Fähigkeiten als „unsichtbar“ und „fragil“ beschrieben. Unsichtbar, weil sie oft als gegeben gesehen und somit ihre Ausprägungen nicht wie andere Fähigkeiten gemessen oder gewürdigt werden. Fragil, weil etwa wirtschaftliche Abschwünge, Krisen und soziale Umbrüche Menschen belasten und damit auch ihre gut entwickelten Fähigkeiten negativ beeinflussen. Dementsprechend müssten menschliche Kompetenzen für zukünftigen wirtschaftlichen und gesellschaftlichen Erfolg als wertvoll und zusätzliches Bildungsziel mit aussagekräftigen Qualifikationen anerkannt werden und Menschen möglichst Stabilität und Sicherheit erleben, um sie auch abrufen zu können.


Screenshot einer Tabelle aus dem Bericht, Weltregionen werden aufgelistet und Einschätzungen von 0 bis 100 zu den Kompetenzen

Screenshot einer Tabelle aus dem Bericht, Weltregionen werden aufgelistet und Einschätzungen von 0 bis 100 zu den Kompetenzen

Unternehmen haben für das Jahr 2025 eingeschätzt, wie stark die vier Kategorien der menschlichen Kompetenzen in ihrer Arbeitnehmerschaft entwickelt sind, aufgeteilt nach Weltregionen.

(Bild: WEF)

Welche Kompetenzen global wie ausgebildet sind, sei kulturell unterschiedlich und auch Geschlechterrollen in den jeweiligen Kulturen spielten eine Rolle. Dies habe etwa die PISA-Studie von 2022 gezeigt. Nur die Hälfte der Schülerinnen und Schüler in OECD-Ländern war in der Lage, in vertrauten Kontexten originelle Ideen zu entwickeln, und in über 20 Ländern erreichten sie meist kein grundlegendes Niveau an kreativer Kompetenz. Überdies zeigte die Erhebung, dass Schüler aus höheren sozioökonomischen Schichten durchweg besser abschnitten und Mädchen besser als Jungen.

Dem Bericht zufolge besteht bei Unternehmen schon heute eine Nachfrage nach qualifzierten menschlichen Kompetenzen in ihrer Belegschaft, während das Angebot nicht mithalten kann. Das gehe etwa aus dem „Executive Opinion Survey 2025“ des WEF hervor, das zeige, dass nur jeder zweite Arbeitgeber seine Mitarbeiter als kompetent in den Bereichen Zusammenarbeit und Kreativität einschätzt, und noch weniger in den Bereichen Resilienz, Neugier und lebenslanges Lernen. Dies deute darauf hin, dass Teamarbeit und Zusammenarbeit zwar relative Stärken darstellen, die Denkweisen und Gewohnheiten, die kontinuierliches Wachstum und selbstgesteuertes Lernen fördern, jedoch weltweit weiterhin schwach ausgebildet seien. Nicht alle Beschäftigten seien in dieser Hinsicht aber untätig. Laut Daten des Weiterbildungsanbieters Coursera sei ein stetiger Anstieg der Lernstunden für menschenzentrierte Kompetenzen von 2020 bis 2025 zu erkennen. Seit 2022 sei ein starkes Wachstum im analytischen und systemischen Denken zu verzeichnen, und seit 2024 auch für Lerneinheiten zu kreativem Denken, Resilienz, Empathie, Neugier und dem lebenslangen Lernen.



Das US-Unternehmen Coursera hat Daten zu Lernstunden für menschliche Kompetenzen von 2020-2025 bereitgestellt.

(Bild: WEF)


(kbe)



Source link

Weiterlesen

Künstliche Intelligenz

Sonys neue Ober-Alpha und Sonys Firmware-Problem – Fotonews der Woche 49/2025


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Machen wir´s auch in dieser Woche kurz, denn zur neuen Sony Alpha 7 V ist schon fast alles gesagt – aber eben auch nur fast. Wir konnten die Kamera bereits kurz ausprobieren, wenn auch ohne Labormessungen und nicht mit Fremdobjektiven, das wird gleich noch wichtig. Das vorläufige Fazit des Kolumnisten lautet: Sony hat da genau an den richtigen Schrauben gedreht.

Weiterlesen nach der Anzeige

Die neue Alpha ist nicht nur fast so schnell wie manche Sportboliden (30 fps mit elektronischem Verschluss, 10 mit mechanischem), was der neue teilweise gestapelte Sensor mit 33 Megapixeln Auflösung ermöglicht. Solche Bildwandler mit Logik und RAM darauf lassen sich schneller auslesen, und mildern auch Rolling-Shutter-Effekte. Ganz ohne diese kommt nur ein Sensor mit Global Shutter aus – den behält Sony weiterhin seinem Tempomonster A9 III vor.

Aber die spielt auch in einer anderen Preisklasse, für die A7 V sind „nur“ 3000 Euro gefordert. Das ist eben die neue Oberklasse, Sony hat hat die Kamera ebenfalls „nur“ 200 Euro teurer als den Vorgänger vor vier Jahren gemacht. Unsere ausführliche Meldung verrät mehr, auch, was bei den Videofunktionen alles fehlt. Das schaffen andere, wie Canon mit der R6 III, in dieser Preisklasse inzwischen besser.

Nämlicher Vorgänger, die A7 IV von Ende 2021, hat kurz vor der Vorstellung des neuen Modells ein großes Firmware-Update erhalten, auf Version 6.00. Selbst definierbare Fokusfelder, dauerhafte Anzeige des Audiopegels beim Filmen und weitere Funktionen lockten. Doch darauf muss man nun weiter warten, denn Sony hat das Update zurückgezogen, wie ein aktueller Hinweis auf der Downloadseite erklärt. Zuvor gab es unter anderem bei Reddit Berichte über „Bricks“ nach dem Update – also funktionslose Kameras, die in die Werkstatt müssen.

Das bestätigt wieder einmal, dass man gerade bei Firmware-Updates für Kameras nicht jede neue Version sofort einspielen sollte. Zu sehr häufen sich in der letzten Zeit die teils schwerwiegenden Bugs, hier nur eine Auswahl: Sony bei der A1 vor anderthalb Jahren, Canon und Nikon bei mehreren Kameras Mitte 2025. Ebenso darf man nicht mehr erwarten, dass altes Zubehör bei einer brandneuen Kamera sofort funktioniert.

Weiterlesen nach der Anzeige

Das führt dann zurück zur neuen A7 V, denn die ist nicht unbedingt mit jedem Objektiv von Drittherstellern kompatibel, wie ein YouTube-Video samt Statement von Sony zeigt. Das ist dann auch unsere Empfehlung für einen Long Watch zum Sonntagabend oder dem Start in die neue Woche. Und, trotz all der Ärgernisse in dieser Ausgabe der Fotonews: Firmware lässt sich fixen. Bleibt nur zu hoffen, dass Sony das auch gründlich tut.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Im November wieder fast jeder zweite Fernzug unpünktlich


Die Situation für Fahrgäste der Deutschen Bahn hat sich im November kaum verbessert. Erneut war nahezu jeder zweite Fernzug des bundeseigenen Konzerns verspätet unterwegs. 54,5 Prozent der Züge kamen ohne größere Verzögerung ans Ziel, wie vorläufige Zahlen zeigen, die die Bahn nun veröffentlicht hat.

Weiterlesen nach der Anzeige

Das waren zwar etwas mehr als im Vormonat, als die Pünktlichkeit 51,5 Prozent betrug. Dennoch kann der bundeseigene Konzern mit der Qualität des Bahnbetriebs weiterhin nicht zufrieden sein. Als verspätet gilt ein Zug ab einer Verzögerung von sechs Minuten. Zugausfälle sind dabei nicht berücksichtigt.

Die Gründe sind lange bekannt: Aufgrund des schlechten Zustands des Schienennetzes wird so viel gebaut wie noch nie. Die Baustellen bremsen den Fernverkehr aus. Hinzu kommen die überlasteten Fernverkehrsknoten, vor denen sich die Züge immer wieder stauen. Diese Verzögerungen wirken sich schnell aufs gesamte Netz aus.

Lesen Sie auch


(nen)



Source link

Weiterlesen

Beliebt