Connect with us

Künstliche Intelligenz

KI als Katalysator für Softwarearchitektur: Praxisbeispiel aus dem ÖPNV


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Künstliche Intelligenz (KI) bringt neue Anforderungen, Paradigmen und Wechselwirkungen mit sich, die klassische Ansätze der Softwarearchitektur an vielen Stellen erweitern oder herausfordern. Für Softwarearchitektinnen und -architekten bedeutet das: Sie müssen ihre Rolle, ihre Methoden und ihre Denkweisen weiterentwickeln, um den komplexen Rahmenbedingungen datengetriebener Systeme gerecht zu werden.


Mahbouba Gharbi

Mahbouba Gharbi

(Bild: 

Mahbouba Gharbi

)

Mahbouba ist Geschäftsführerin, Softwarearchitektin und Trainerin bei der ITech Progress GmbH, einem Beratungsunternehmen und akkreditierten Schulungsanbieter des iSAQB mit über zwanzig Jahren Erfahrung. Als Kuratorin des iSAQB-Advanced-Level-Moduls SWARC4AI vermittelt sie methodische und technische Konzepte für den Entwurf und die Entwicklung skalierbarer KI-Systeme. Dabei legt sie besonderen Wert auf praxisnahe, nachhaltige und anwendungsorientierte Lösungen.


Dimitri Blatner

Dimitri Blatner

(Bild: 

Dimitri Blatner

)

Dimitri ist Softwarearchitekt und Trainer bei der ITech Progress GmbH. Als zertifizierter Trainer für das iSAQB-Advanced-Level-Modul SWARC4AI vermittelt er praxisnahes Wissen zum Entwurf und zur Entwicklung skalierbarer KI-Systeme. Seine Schwerpunkte liegen in den Bereichen Cloud-Technologien, DevSecOps, hybride Architekturen und KI-basierte Lösungen. Dimitri unterstützt Unternehmen dabei, innovative und zugleich sichere Systeme erfolgreich zu realisieren.

Dieser Artikel beleuchtet, wie sich der Architektur-Entstehungsprozess durch den Einsatz von KI verändert – und was dies konkret für die Praxis der Softwarearchitektur bedeutet. Zum Veranschaulichen zeigen wir Beispiele eines Projekts aus dem öffentlichen Personennahverkehr (ÖPNV), an dem wir als Softwarearchitekten beteiligt waren.

Im Architekturkontext tritt künstliche Intelligenz in zwei unterschiedlichen Rollen auf – als Unterstützung im Entstehungsprozess und als aktive Systemkomponente. Diese Unterscheidung ist essenziell für die Einordnung technischer, methodischer und organisatorischer Anforderungen. In ihrer Rolle als Werkzeug unterstützt KI die Architekten entlang verschiedener Prozessphasen. In frühen Phasen können KI-Tools bei der Konsolidierung und Analyse von Anforderungen helfen. Natural Language Processing (NLP) ermöglicht zum Beispiel das Extrahieren funktionaler und nichtfunktionaler Anforderungen aus Textquellen oder Gesprächsprotokollen.

Später im Prozess lassen sich mithilfe graphbasierter Modelle Architekturvarianten generieren, die die KI hinsichtlich vordefinierter Qualitätsmerkmale bewertet. In Review-Phasen unterstützt die KI bei der Analyse bestehender Systeme, etwa durch das Erkennen von Architekturerosion oder von zyklischen Abhängigkeiten.

Diese Unterscheidung zwischen den beiden Rollen von KI gilt auch im ÖPNV und sie bringt jeweils andere Qualitätsanforderungen, Betriebsrisiken und Verantwortlichkeiten mit sich. Während KI als Analyse-Tool im Hintergrund arbeitet und prozessorientierte Verbesserungen unterstützt, beeinflusst sie als Bestandteil produktiver Systeme unmittelbar das Verhalten, die Resilienz und Weiterentwicklung des digitalen Fahrgastangebots und des Betriebsmanagements.

Das Verkehrsunternehmen mit über 10 Millionen Fahrgästen pro Monat hat künstliche Intelligenz systematisch in seine Softwarearchitektur integriert, mit dem Ziel, die Qualität, Wartbarkeit und Serviceorientierung zu verbessern – sowohl in der betrieblichen IT als auch in den digitalen Produkten für die Fahrgäste. Bereits im Architekturprozess kommt ein generatives KI-Analysemodul auf Basis eines großen Sprachmodells (LLM) zum Einsatz: Es wertet Architekturdokumentationen automatisiert aus, extrahiert zentrale Designentscheidungen, etwa zur Anbindung von Fahrgastinformationssystemen oder zur Datenhaltung von Echtzeitfahrplänen – und gleicht diese mit den implementierten Services und Schnittstellen ab. So können die Architekten Inkonsistenzen und technische Schulden frühzeitig erkennen und dokumentieren.

Ein weiteres datengetriebenes Assistenzsystem identifiziert mithilfe von Unsupervised Learning Ausfallmuster in historischen Fahrzeugdaten. Diese Erkenntnisse fließen direkt in Anforderungen an Sensorik und Datenlatenz ein – und stärken somit Architekturentscheidungen.

Im Betrieb analysiert ein prädiktives Machine-Learning-Modell (ML-Modell) kontinuierlich Diagnosedaten der Busflotte. Es erkennt frühzeitig Anzeichen technischer Defekte (Predictive Maintenance) und ermöglicht gezielte Wartungsmaßnahmen. Zugleich generiert es automatisch passende Fahrgastinformationen, sobald Abweichungen vom Fahrplan auftreten – abgestimmt auf die Prognosegüte. Die Systemarchitektur bildet hierfür nicht nur das ML-Modell selbst ab, sondern auch die erforderlichen Datenpipelines, MLOps-Infrastruktur sowie Prozesse für Validierung, Monitoring und kontinuierliches Training. Die Modellpipeline wird so zu einem kritischen, wartbaren und transparenten Bestandteil der Gesamtarchitektur.

Traditionelle Softwarearchitektur ist in erster Linie funktionsorientiert: Sie konzentriert sich auf technische Komponenten, klare Schnittstellen und wohldefinierte Abläufe. In KI-basierten Systemen verschiebt sich der Fokus erheblich. Hier prägen Datenflüsse, Machine-Learning-Modelle und Trainingsprozesse den Aufbau des Systems. Dadurch gewinnen Datenquellen, deren Qualität und deren Verfügbarkeit eine entscheidende Bedeutung. Die Auswahl und Vorbereitung der Daten haben unmittelbaren Einfluss auf die Leistungsfähigkeit und Korrektheit der später eingesetzten Modelle.

Darüber hinaus müssen Architekten sich mit Konzepten wie Modellversionierung, kontinuierlicher Modellverbesserung (Continuous Learning) und passenden Monitoring-Mechanismen beschäftigen. Klassische Erwartungen an Systemstabilität weichen neuen Anforderungen an Flexibilität und Anpassungsfähigkeit, da sich Modelle durch Nachtrainieren oder den Austausch gegen verbesserte Varianten verändern. Die Architekturarbeit wird dadurch dynamischer und datengetriebener.

Die Qualitätskriterien für Softwaresysteme erweitern sich durch KI um neue Dimensionen. Neben etablierten Anforderungen wie Performance, Wartbarkeit oder Sicherheit treten Aspekte wie Erklärbarkeit, Fairness und Vertrauenswürdigkeit auf. Entscheidungen, die durch ML-Modelle getroffen werden, müssen für technische und nicht-technische Stakeholder nachvollziehbar sein – insbesondere dann, wenn sie Auswirkungen auf Menschen oder gesellschaftliche Prozesse haben.

Zusätzlich steigt die Bedeutung von Robustheit gegenüber veränderten Datenlagen und von Mechanismen zur Absicherung gegen fehlerhafte Modellvorhersagen. Architekten sind gefordert, Unsicherheiten explizit zu behandeln: durch Confidence Scores, Abstufungen in der Entscheidungssicherheit oder Fallback-basierte Systempfade. Damit wird deutlich: Architektur im KI-Zeitalter muss über rein technische Kriterien hinausgehen und systemische Resilienz und ethische Verantwortung mitdenken.

Im Unterschied zu klassischen Projekten, bei denen die Architektur zu Beginn weitgehend festgelegt wird, besteht der Architekturprozess in KI-Projekten von Anfang an aus einem iterativen Vorgehen (Abbildung 1). Wesentliche Erkenntnisse über Datenverteilung, Modellverhalten oder Anwendungsfälle ergeben sich oft erst während explorativer Experimente. Entsprechend muss die Architektur flexibel genug sein, um nachträglich anpassbar oder sogar grundlegend überholbar zu sein und einen hohen Grad an Automatisierung zu ermöglichen.


Infografik Architekturentwicklung

Infografik Architekturentwicklung

Die Architekturentwicklung erfolgt iterativ (Abb. 1).

(Bild: Gharbi/Blatner)

Dies erfordert nicht nur technische Modularität, sondern auch eine veränderte Herangehensweise: Architekturarbeit wird zu einem kontinuierlichen Lernprozess. Entscheidungen unter Unsicherheit, das Einführen temporärer Lösungen (Safeguards) und die Bereitschaft, bestehende Ideen bei neuen Erkenntnissen zu verwerfen, gehören zum Alltag. Der Architekturprozess entwickelt sich so zu einem evolutionären Dialog mit der Realität der Daten und des Anwendungsbereichs.

Mit der Einführung von KI-Technologien verändert sich auch die Zusammensetzung der Teams. Rollen wie Data Scientist, ML Engineer oder MLOps-Spezialist bringen neue Perspektiven und Arbeitsweisen ein, die sich grundlegend von traditionellen Entwickler- oder Quality-Assurance-Profilen unterscheiden (Abbildung 2). Für Architekten bedeutet das, sich nicht nur technisch, sondern auch kommunikativ und methodisch anzupassen. Sie müssen die Konzepte, Arbeitsweisen und Erwartungen dieser neuen Rollen verstehen und als Brückenbauer agieren: zwischen Fachbereichen, Datenverantwortlichen und technischen Implementierungsteams. Architekturentscheidungen betreffen zunehmend nicht nur Code und Komponenten, sondern auch Datenstrukturen, Modelle, Trainingseinheiten und Betriebsprozesse. Das führt zu komplexeren Verantwortungsschnittstellen, die klare Absprachen und transparente Prozesse erfordern.


Infografik Verantwortungsschnittstellen

Infografik Verantwortungsschnittstellen

Neue Rollen und Verantwortungsschnittstellen (Abb. 2)

(Bild: Gharbi/Blatner)

Erfolgreiche Architektur im KI-Umfeld setzt ein tiefes Verständnis für die jeweilige Anwendungsdomäne voraus. Ob im Gesundheitswesen, im öffentlichen Verkehr oder in der Finanzbranche – Daten und Modelle müssen mit fachlichem Kontext angereichert und an die Bedürfnisse der Stakeholder angepasst werden. Architekten suchen daher aktiv den Austausch mit Experten aus der Domäne, verstehen deren Sprache und integrieren deren Sichtweisen in architektonische Überlegungen.

Methodisch helfen dabei Verfahren wie Domain Storytelling, Event Storming oder Design Thinking. Diese Ansätze ermöglichen es, komplexe Anforderungen frühzeitig zu erkennen, blinde Flecken in der Modellierung zu vermeiden und die Akzeptanz für KI-basierte Systeme zu erhöhen. Besonders wichtig ist es, nicht nur Entscheidungsträger, sondern auch spätere Nutzerinnen und Nutzer in die Architekturarbeit einzubinden, beispielsweise durch Co-Creation-Workshops oder Szenarienentwicklung.



Source link

Künstliche Intelligenz

US-Behörde prüft: Tesla meldet Unfälle mit Autopilot zu langsam


Die US-amerikanische Verkehrssicherheitsbehörde NHTSA (National Highway Traffic Safety Administration) hat eine Untersuchung gegen Tesla eingeleitet. Grund: Das Unternehmen soll Unfälle, die sich im Zusammenhang mit seinen Fahrassistenz- und Selbstfahrfunktionen wie „Autopilot“ ereigneten, viel zu spät gemeldet haben. Anstatt die Vorfälle, wie vorgeschrieben, innerhalb von fünf Tagen zu melden, reichte Tesla die Berichte erst Monate nach den Unfällen ein.

Die Behörde konzentriert sich laut einer Meldung der Nachrichtenagentur Associated Press (AP) bei ihrer Prüfung auf die Frage, warum die Meldungen so lange verzögert wurden, ob die Berichte vollständig waren und ob es womöglich noch weitere bisher unbekannte Unfälle gibt. Tesla selbst gab an, die Verzögerungen seien „auf ein Problem mit Teslas Datenerfassung zurückzuführen“, das man inzwischen behoben habe.

Diese neue Untersuchung kommt zu einem kritischen Zeitpunkt: Tesla hat erst vor Kurzem in Austin einen Service mit selbstfahrenden Taxis gestartet. Der Konzern von Elon Musk plant, Robotaxi-Dienste bald landesweit anzubieten. Ferner will der E-Autobauer Millionen von Fahrzeugen mit Software-Updates ausstatten, die autonomes Fahren ermöglichen sollen.

Obwohl die Umsätze und Gewinne von Tesla aufgrund von Boykotten wegen Musks langzeitige Unterstützung für US-Präsident Donald Trump und rechtsextreme Politiker in Europa sinken, hält sich der Aktienkurs des Unternehmens weiterhin auf hohem Niveau. Analysten führen dies auf die Begeisterung der Investoren für die „Autopilot“-Pläne des Konzerns zurück.

Die aktuelle Prüfrunde ist nicht die erste: Bereits im Oktober startete die NHTSA eine Untersuchung wegen möglicher Probleme mit Teslas „Autopilot“-System bei schlechter Sicht. Diese betrifft 2,4 Millionen Fahrzeuge und steht im Zusammenhang mit mehreren Unfällen, darunter einem tödlichen. Ein US-Geschworenengericht entschied jüngst: Tesla trägt eine Mitschuld an diesem Crash mit Todesfolge. Das Unternehmen soll Schadenersatz von insgesamt mehreren hundert Millionen US-Dollar zahlen, wehrt sich vor Gericht aber gegen diesen Beschluss. Seit Juni analysiert die NHTSA zudem Tesla-Vorfälle mit potenziellen Verstößen gegen Verkehrsregeln.

Seit 2021 müssen Fahrzeughersteller in den USA Unfälle mit teilautomatisierten Fahrsystemen (SAE-Stufe 2) melden. Von den insgesamt über 2600 gemeldeten Crashs in den Vereinigten Staaten entfallen mit 2308 die meisten auf Tesla. Die NHTSA weist jedoch darauf hin, dies liege auch daran, dass das Unternehmen der größte Hersteller von teilweise selbstfahrenden Autos auf dem US-Markt ist.

Tesla bot in Austin bisher nur einem ausgewählten Kreis von Fahrgästen Robotaxi-Fahrten an. Ab September soll mit einer neuen Offensive allen zahlenden Kunden die Nutzung solcher Shuttles möglich sein, wie Musk auf X Anfang August ankündigte. Tesla hat außerdem begonnen, in San Francisco eingeschränkte Robotaxi-Dienste mit Fahrern am Steuer zuzulassen, um den kalifornischen Vorschriften zu entsprechen. Als größter Konkurrent gilt die Google-Schwester Waymo, die bereits über eine Million Fahrten pro Monat mit Robotaxis absolviert. Auch Europa hat Musk bei solchen Fahrten im Visier, wenn die Behörden die neuen Versionen der „Autopilot“-Software abgenickt haben.

Lesen Sie auch


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Drei Fragen und Antworten: Internal Developer Platforms – Entlastung für Devs?


Microservices, Container und Cloud-Technologien machen Software-Entwicklung zu einem immer komplexeren Geschäft. Vorkonfigurierte Entwicklerplattformen, die sogenannten Internal Developer Platforms (IDP), versprechen da Abhilfe. Als Selbstbedienungsportale für die benötigte Infrastruktur sollen sie kognitive Last verringern und mehr Konzentration auf den Code erlauben. Guido-Arndt Söldner, Titelautor der neuen iX 9/2024, erklärt, was hinter dem Heilsversprechen steckt und wann sich eine solche Plattform tatsächlich lohnt.




Dr. Guido-Arndt Söldner ist Geschäftsführer der Söldner Consult GmbH und beschäftigt sich mit den Themen Cloud-Computing und Enterprise-Programmierung.

Was genau ist denn eine Internal Developer Platform (IDP)?

Eine Internal Developer Platform ist eine zentrale Plattform, die von einem Platform-Engineering-Team erstellt wird, um Entwicklern standardisierte und bewährte Wege für die Softwareentwicklung zu bieten und Self-Service-Funktionen zu ermöglichen. Sie umfasst eine Sammlung von Tools und Services, die die Produktivität der Entwickler steigern, die Softwarebereitstellung beschleunigen und manuelle Operationen reduzieren. Im Kern abstrahiert eine IDP die Komplexität der zu Grunde liegenden Infrastruktur, sodass Entwickler sich auf das Coden konzentrieren können, ohne sich mit Details wie Deployment, CI/CD oder Environment-Management auseinandersetzen zu müssen.

IDPs fördern auch eine bessere Developer Experience, senken Kosten und sorgen für Konsistenz in der Organisation. In jüngster Zeit halten IDPs auch in der Infrastruktur-Automatisierung ein, um klassische Ticket-Ops Aufgaben wie Ressourcen-Anlage, Firewall Management, Rechte-Vergabe oder ähnliches zu automatisieren.

Über welche Tools sprechen wir? Geht es um lokale Programme oder das Backend?

Bei IDPs geht es primär um Backend-Tools und -Services, nicht um lokale Programme auf dem Entwickler-Rechner. Lokale Tools wie IDEs (z. B. VS Code) oder einfache Skripte spielen eine untergeordnete Rolle; stattdessen fokussiert sich eine IDP auf cloud-basierte oder interne Backend-Systeme, die Infrastruktur automatisieren und skalierbar machen. Sie dient als Frontend und Self-Service Portal für einen typische Platform Engineering Stack, der aus Komponenten wie CI/CD-Pipelines, Infrastruktur-Management, Observability und Monitoring sowie Security und Governance besteht.

Für welche Organisationen lohnt es sich, eine IDP aufzusetzen? Wie kompliziert ist das Aufsetzen einer IDP?

IDPs lohnen sich vor allem für mittelgroße bis große Organisationen, in denen die Softwareentwicklung skaliert werden muss und Komplexität zunimmt. Kleine Startups oder Teams mit niedriger Komplexität brauchen oft keine IDP, da sie teuer und übertrieben sein kann – stattdessen reichen einfache DevOps-Praktiken. Sie sind ideal bei großen Developer-Teams so ab 50 und mehr Entwicklern, um Produktivität zu steigern und Cognitive Load zu reduzieren. Sie helfen, wenn Tool-Sprawl und Silos ein Problem darstellen, etwa in Unternehmen mit einer Multi-Cloud-Strategie und wenn schnelle Release-Zyklen gewünscht sind. Sie helfen auch Visibilität über Tools und Cloud-Umgebungen herzustellen.

Das Aufsetzen und Administrieren einer IDP kann größere Aufwände mit sich ziehen. Es lohnt sich, zu überlegen, ob man alles selber entwickeln und betreiben will oder mittels externer Hilfe beziehungsweise fertigen Lösungen und dedizierten Plugins schneller zum Ziel kommen kann. Insgesamt gibt es eine Vielzahl von IDP-Projekten, die sich in Offenheit, Fokus, Komplexität und Features unterscheiden. Open Source IDPs wie Backstage kann man als SaaS-Dienst oder auch im eigenen Rechenzentrum souverän betreiben. Sie bieten oft eine hohe Flexibilität, können leicht angepasst werden und haben eine sehr große Community. Es gibt immer mehr fertige Lösungen für unterschiedliche Use Cases.

Im Eigenbetrieb kann aber ein höherer Overhead entstehen. Kommerzielle Portal-Lösungen glänzen mit schnellem Onboarding und weniger Betriebsaufwänden, sind aber oft inflexibler hinsichtlich Erweiterungen.

Guido-Arndt, vielen Dank für die Antworten! Einen Überblick zu Internal Develeoper Platforms gibt es in der neuen iX. Außerdem vergleichen wir IDPs für Kubernetes – und werfen einen Blick auf die Praxis mit der populären Plattform Backstage. All das und viele weitere Themen finden Leser im September-Heft, das ab sofort im heise Shop oder am Kiosk erhältlich ist.

In der Serie „Drei Fragen und Antworten“ will die iX die heutigen Herausforderungen der IT auf den Punkt bringen – egal ob es sich um den Blick des Anwenders vorm PC, die Sicht des Managers oder den Alltag eines Administrators handelt. Haben Sie Anregungen aus Ihrer tagtäglichen Praxis oder der Ihrer Nutzer? Wessen Tipps zu welchem Thema würden Sie gerne kurz und knackig lesen? Dann schreiben Sie uns gerne oder hinterlassen Sie einen Kommentar im Forum.


(axk)



Source link

Weiterlesen

Künstliche Intelligenz

Medion geht zum Großteil an Gründer zurück


Die Medion GmbH ist erst seit Anfang des Jahres vollständig im Besitz von Lenovo, das aber schon seit 2011 die Mehrheit an dem deutschen Elektronikhändler hielt. Jetzt hat sich der Konzern von einem Großteil der Beteiligung wieder getrennt, wie die Wirtschaftswoche berichtet.

Lenovo behält nur noch die PC-Sparte und wird weiter unter den Markennamen Medion und Erazer Notebooks und PCs produzieren. Alles andere, also Haushaltelektronik, TV-Geräte, Wearables und auch der Aldi-Talk-Vertrieb, gehört jetzt zu einer neu gegründeten Medion GmbH. Die soll sich auch um Vertrieb und Marketing der Medion- und Erazer-PCs kümmern, Lenovo agiert nur als OEM-Lieferant. Der Medion-Onlineshop läuft bereits unter dem neuen Unternehmen.

Eigentümer der GmbH ist Gerd Brachmann, der 1983 das Unternehmen gemeinsam mit einem Geschäftspartner gründete und 1999 an die Börse brachte. Brachmann blieb auch nach der Übernahme als Geschäftspartner an Bord.

Durch die Kooperation mit Aldi wuchs Medion in den „Nullerjahren“ zu einem der größten Elektronik- und Computerhändler Deutschlands heran und war mit Aldi Talk auch im Telekommunikationsgeschäft eine feste Größe. Zuletzt geriet das Unternehmen regelmäßig in die Verlustzone. Die neue Gesellschaft peilt für das laufende Geschäftsjahr ein Ergebnis von 10 Millionen Euro bei 600 Millionen Euro Umsatz an.

Über den Kaufpreis des Unternehmens ist nichts bekannt. Die meisten Mitarbeiter wechseln laut Wirtschaftswoche in die neue GmbH. Lediglich 23 Angestellte verbleiben bei Lenovo. Kurz vor dem Rückkauf durch Brachmann wurde ein neuer Kooperationsvertrag mit der Servicegesellschaft von E-Plus, einem Tochterunternehmen von Telefónica, geschlossen, die das Netz für Aldi Talk zur Verfügung stellt.


(ulw)



Source link

Weiterlesen

Beliebt