Künstliche Intelligenz
KI als Katalysator für Softwarearchitektur: Praxisbeispiel aus dem ÖPNV
Künstliche Intelligenz (KI) bringt neue Anforderungen, Paradigmen und Wechselwirkungen mit sich, die klassische Ansätze der Softwarearchitektur an vielen Stellen erweitern oder herausfordern. Für Softwarearchitektinnen und -architekten bedeutet das: Sie müssen ihre Rolle, ihre Methoden und ihre Denkweisen weiterentwickeln, um den komplexen Rahmenbedingungen datengetriebener Systeme gerecht zu werden.
(Bild: Mahbouba Gharbi )
Mahbouba ist Geschäftsführerin, Softwarearchitektin und Trainerin bei der ITech Progress GmbH, einem Beratungsunternehmen und akkreditierten Schulungsanbieter des iSAQB mit über zwanzig Jahren Erfahrung. Als Kuratorin des iSAQB-Advanced-Level-Moduls SWARC4AI vermittelt sie methodische und technische Konzepte für den Entwurf und die Entwicklung skalierbarer KI-Systeme. Dabei legt sie besonderen Wert auf praxisnahe, nachhaltige und anwendungsorientierte Lösungen.
(Bild: Dimitri Blatner )
Dimitri ist Softwarearchitekt und Trainer bei der ITech Progress GmbH. Als zertifizierter Trainer für das iSAQB-Advanced-Level-Modul SWARC4AI vermittelt er praxisnahes Wissen zum Entwurf und zur Entwicklung skalierbarer KI-Systeme. Seine Schwerpunkte liegen in den Bereichen Cloud-Technologien, DevSecOps, hybride Architekturen und KI-basierte Lösungen. Dimitri unterstützt Unternehmen dabei, innovative und zugleich sichere Systeme erfolgreich zu realisieren.
Dieser Artikel beleuchtet, wie sich der Architektur-Entstehungsprozess durch den Einsatz von KI verändert – und was dies konkret für die Praxis der Softwarearchitektur bedeutet. Zum Veranschaulichen zeigen wir Beispiele eines Projekts aus dem öffentlichen Personennahverkehr (ÖPNV), an dem wir als Softwarearchitekten beteiligt waren.
Zwei Rollen von KI: Werkzeug und Komponente
Im Architekturkontext tritt künstliche Intelligenz in zwei unterschiedlichen Rollen auf – als Unterstützung im Entstehungsprozess und als aktive Systemkomponente. Diese Unterscheidung ist essenziell für die Einordnung technischer, methodischer und organisatorischer Anforderungen. In ihrer Rolle als Werkzeug unterstützt KI die Architekten entlang verschiedener Prozessphasen. In frühen Phasen können KI-Tools bei der Konsolidierung und Analyse von Anforderungen helfen. Natural Language Processing (NLP) ermöglicht zum Beispiel das Extrahieren funktionaler und nichtfunktionaler Anforderungen aus Textquellen oder Gesprächsprotokollen.
Später im Prozess lassen sich mithilfe graphbasierter Modelle Architekturvarianten generieren, die die KI hinsichtlich vordefinierter Qualitätsmerkmale bewertet. In Review-Phasen unterstützt die KI bei der Analyse bestehender Systeme, etwa durch das Erkennen von Architekturerosion oder von zyklischen Abhängigkeiten.
Diese Unterscheidung zwischen den beiden Rollen von KI gilt auch im ÖPNV und sie bringt jeweils andere Qualitätsanforderungen, Betriebsrisiken und Verantwortlichkeiten mit sich. Während KI als Analyse-Tool im Hintergrund arbeitet und prozessorientierte Verbesserungen unterstützt, beeinflusst sie als Bestandteil produktiver Systeme unmittelbar das Verhalten, die Resilienz und Weiterentwicklung des digitalen Fahrgastangebots und des Betriebsmanagements.
KI-gestützte Softwarearchitektur im kommunalen ÖPNV
Das Verkehrsunternehmen mit über 10 Millionen Fahrgästen pro Monat hat künstliche Intelligenz systematisch in seine Softwarearchitektur integriert, mit dem Ziel, die Qualität, Wartbarkeit und Serviceorientierung zu verbessern – sowohl in der betrieblichen IT als auch in den digitalen Produkten für die Fahrgäste. Bereits im Architekturprozess kommt ein generatives KI-Analysemodul auf Basis eines großen Sprachmodells (LLM) zum Einsatz: Es wertet Architekturdokumentationen automatisiert aus, extrahiert zentrale Designentscheidungen, etwa zur Anbindung von Fahrgastinformationssystemen oder zur Datenhaltung von Echtzeitfahrplänen – und gleicht diese mit den implementierten Services und Schnittstellen ab. So können die Architekten Inkonsistenzen und technische Schulden frühzeitig erkennen und dokumentieren.
Ein weiteres datengetriebenes Assistenzsystem identifiziert mithilfe von Unsupervised Learning Ausfallmuster in historischen Fahrzeugdaten. Diese Erkenntnisse fließen direkt in Anforderungen an Sensorik und Datenlatenz ein – und stärken somit Architekturentscheidungen.
Im Betrieb analysiert ein prädiktives Machine-Learning-Modell (ML-Modell) kontinuierlich Diagnosedaten der Busflotte. Es erkennt frühzeitig Anzeichen technischer Defekte (Predictive Maintenance) und ermöglicht gezielte Wartungsmaßnahmen. Zugleich generiert es automatisch passende Fahrgastinformationen, sobald Abweichungen vom Fahrplan auftreten – abgestimmt auf die Prognosegüte. Die Systemarchitektur bildet hierfür nicht nur das ML-Modell selbst ab, sondern auch die erforderlichen Datenpipelines, MLOps-Infrastruktur sowie Prozesse für Validierung, Monitoring und kontinuierliches Training. Die Modellpipeline wird so zu einem kritischen, wartbaren und transparenten Bestandteil der Gesamtarchitektur.
Architektur wird daten- und modellzentriert
Traditionelle Softwarearchitektur ist in erster Linie funktionsorientiert: Sie konzentriert sich auf technische Komponenten, klare Schnittstellen und wohldefinierte Abläufe. In KI-basierten Systemen verschiebt sich der Fokus erheblich. Hier prägen Datenflüsse, Machine-Learning-Modelle und Trainingsprozesse den Aufbau des Systems. Dadurch gewinnen Datenquellen, deren Qualität und deren Verfügbarkeit eine entscheidende Bedeutung. Die Auswahl und Vorbereitung der Daten haben unmittelbaren Einfluss auf die Leistungsfähigkeit und Korrektheit der später eingesetzten Modelle.
Darüber hinaus müssen Architekten sich mit Konzepten wie Modellversionierung, kontinuierlicher Modellverbesserung (Continuous Learning) und passenden Monitoring-Mechanismen beschäftigen. Klassische Erwartungen an Systemstabilität weichen neuen Anforderungen an Flexibilität und Anpassungsfähigkeit, da sich Modelle durch Nachtrainieren oder den Austausch gegen verbesserte Varianten verändern. Die Architekturarbeit wird dadurch dynamischer und datengetriebener.
Qualität bekommt neue Dimensionen
Die Qualitätskriterien für Softwaresysteme erweitern sich durch KI um neue Dimensionen. Neben etablierten Anforderungen wie Performance, Wartbarkeit oder Sicherheit treten Aspekte wie Erklärbarkeit, Fairness und Vertrauenswürdigkeit auf. Entscheidungen, die durch ML-Modelle getroffen werden, müssen für technische und nicht-technische Stakeholder nachvollziehbar sein – insbesondere dann, wenn sie Auswirkungen auf Menschen oder gesellschaftliche Prozesse haben.
Zusätzlich steigt die Bedeutung von Robustheit gegenüber veränderten Datenlagen und von Mechanismen zur Absicherung gegen fehlerhafte Modellvorhersagen. Architekten sind gefordert, Unsicherheiten explizit zu behandeln: durch Confidence Scores, Abstufungen in der Entscheidungssicherheit oder Fallback-basierte Systempfade. Damit wird deutlich: Architektur im KI-Zeitalter muss über rein technische Kriterien hinausgehen und systemische Resilienz und ethische Verantwortung mitdenken.
Der Architekturprozess wird iterativer
Im Unterschied zu klassischen Projekten, bei denen die Architektur zu Beginn weitgehend festgelegt wird, besteht der Architekturprozess in KI-Projekten von Anfang an aus einem iterativen Vorgehen (Abbildung 1). Wesentliche Erkenntnisse über Datenverteilung, Modellverhalten oder Anwendungsfälle ergeben sich oft erst während explorativer Experimente. Entsprechend muss die Architektur flexibel genug sein, um nachträglich anpassbar oder sogar grundlegend überholbar zu sein und einen hohen Grad an Automatisierung zu ermöglichen.
Die Architekturentwicklung erfolgt iterativ (Abb. 1).
(Bild: Gharbi/Blatner)
Dies erfordert nicht nur technische Modularität, sondern auch eine veränderte Herangehensweise: Architekturarbeit wird zu einem kontinuierlichen Lernprozess. Entscheidungen unter Unsicherheit, das Einführen temporärer Lösungen (Safeguards) und die Bereitschaft, bestehende Ideen bei neuen Erkenntnissen zu verwerfen, gehören zum Alltag. Der Architekturprozess entwickelt sich so zu einem evolutionären Dialog mit der Realität der Daten und des Anwendungsbereichs.
Neue Rollen und Verantwortungsschnittstellen
Mit der Einführung von KI-Technologien verändert sich auch die Zusammensetzung der Teams. Rollen wie Data Scientist, ML Engineer oder MLOps-Spezialist bringen neue Perspektiven und Arbeitsweisen ein, die sich grundlegend von traditionellen Entwickler- oder Quality-Assurance-Profilen unterscheiden (Abbildung 2). Für Architekten bedeutet das, sich nicht nur technisch, sondern auch kommunikativ und methodisch anzupassen. Sie müssen die Konzepte, Arbeitsweisen und Erwartungen dieser neuen Rollen verstehen und als Brückenbauer agieren: zwischen Fachbereichen, Datenverantwortlichen und technischen Implementierungsteams. Architekturentscheidungen betreffen zunehmend nicht nur Code und Komponenten, sondern auch Datenstrukturen, Modelle, Trainingseinheiten und Betriebsprozesse. Das führt zu komplexeren Verantwortungsschnittstellen, die klare Absprachen und transparente Prozesse erfordern.
Neue Rollen und Verantwortungsschnittstellen (Abb. 2)
(Bild: Gharbi/Blatner)
Interdisziplinarität und Stakeholder-Einbindung
Erfolgreiche Architektur im KI-Umfeld setzt ein tiefes Verständnis für die jeweilige Anwendungsdomäne voraus. Ob im Gesundheitswesen, im öffentlichen Verkehr oder in der Finanzbranche – Daten und Modelle müssen mit fachlichem Kontext angereichert und an die Bedürfnisse der Stakeholder angepasst werden. Architekten suchen daher aktiv den Austausch mit Experten aus der Domäne, verstehen deren Sprache und integrieren deren Sichtweisen in architektonische Überlegungen.
Methodisch helfen dabei Verfahren wie Domain Storytelling, Event Storming oder Design Thinking. Diese Ansätze ermöglichen es, komplexe Anforderungen frühzeitig zu erkennen, blinde Flecken in der Modellierung zu vermeiden und die Akzeptanz für KI-basierte Systeme zu erhöhen. Besonders wichtig ist es, nicht nur Entscheidungsträger, sondern auch spätere Nutzerinnen und Nutzer in die Architekturarbeit einzubinden, beispielsweise durch Co-Creation-Workshops oder Szenarienentwicklung.
Künstliche Intelligenz
Maker Bits: Software, Hardware und Infos für Maker
OrcaSlicer 2.3.1
Der beliebte Open-Source-Slicer OrcaSlicer ist in Version 2.3.1 erschienen und bringt zahlreiche Detailverbesserungen sowie Fixes mit. Neben einem überarbeiteten Updater und optimierten Build-Prozessen wurden diverse neue Druckerprofile integriert, darunter Modelle von Flyingbear, Sovol (SV08 MAX, SV01) und Rolohaun. Auch bestehende Profile, etwa für den Anycubic Kobra oder Ender 3 V3 KE, erhielten Feintuning.
Für eine stabilere Druckqualität sorgen Verbesserungen beim Input Shaping und bei der G-Code-Verarbeitung, speziell bei Z-Achsen-Bewegungen. Zudem behebt die neue Version einen Bug, der bei bestimmten Prusa-Modellen falsche Druckereinstellungen auswählte, sowie einen Importfehler bei 3MF-Dateien aus älteren Alpha-Versionen. Neue Komfortfunktionen wie die Erinnerung an die Slider-Position im Einzel-Layer-Modus, überarbeitete Übersetzungen und ein Warnsystem für die „Infill Rotation“-Templates runden das Update ab.
Praktisch wird es in einem YouTube-Video von YouTuber Teaching Tech: Stabile und doch schnell zu druckende Objekte können durch rotierbare Infills (per Listen auch für mehrere Abschnitte im Modell), Multiline-Infill und extra komplett gefüllten Zwischenlagen erzeugt werden.
Fuzzy-Skin erzeugt wie bisher auch künstlich angeraute Oberflächen auf den Drucken, sei es zu dekorativen Zwecken oder um die Griffigkeit zu erhöhen. Die kann entweder durch kleine Bewegungen des Druckkopfes und(!)/oder neu auch durch Variation der Flussrate geschehen. Neu ist auch, dass man die Stellen, wo dies geschehen soll, per Aufmalen mit der Maus steuern kann.
Das Optimieren des Input-Shapings wird mit neuen Druckvorlagen noch einfacher und schneller, und man kann nun auch Bereiche für Resonanzvermeidung angeben.
Für Multifarb-Drucke ist es jetzt möglich, Filamente komplett zu tauschen, ohne eine umständliche Auswahl mit der Maus machen zu müssen, ideal für Multi-Color-Objekte, die man nicht selbst gesliced hat.
Zum Download sollte man übrigens nur das offizielle Softfever-Github oder neu die offizielle Website orcaslicer.com nutzen! Alle anderen Adressen, die in einer Suche auftauchen, könnten potenzielle Phising-Fallen werden, auch wenn sie jetzt noch auf das offizielle Repository zeigen. Die Dokumentation ist wie gehabt auf dem GitHub-Wiki zu finden.
Raspberry Pi OS „Trixie“
Raspberry Pi hat eine neue Version seines Betriebssystems für die Raspberry-Pi-Boards veröffentlicht. Die neue Version von Raspberry Pi OS aktualisiert das Basis-Betriebssystem von Debian 12 auf Debian 13 („Trixie“). Es gibt ein neues Design mit neuen Symbolen und einem neuen Hintergrundbild sowie ein brandneues Kontrollzentrum zum Konfigurieren von Elementen wie Tastatur, Bildschirmen, Hinzufügen von Druckern usw. Die Release-Logs sind lang und im GitHub einzusehen.
Am einfachsten ist die Installation auf eine Speicherkarte mit dem Raspberry Pi Imager, mit dem auch schon einige wichtige Einstellungen für das System (Netzwerk, ssh, etc.) direkt erledigt werden können.
Blender 5.0 in den Startlöchern
Mit Blender 5.0 steht ein großer Versionssprung für die Open-Source-3D-Suite bevor. Neben massiven Leistungsverbesserungen bringt das Update zahlreiche Komfortfunktionen und eine runderneuerte Oberfläche. Die finale Veröffentlichung ist für den 11. November 2025 geplant, die Beta startete am 1. Oktober (auch wenn sie sich als Alpha ausgibt), der Release Candidate am 5. November.
(Bild: Blender.org)
Das Releasedatum ist bisher nicht 100-prozentig fix, denn mit der aktuellen Beta-Version von Blender 5.0 könnten noch Fehler gemeldet werden, die das Release verzögern. Die aktuellen Release Notes geben einiges an Lesestoff. Aufregend finde ich persönlich die weiteren Verbesserungen am Sequencer, der immer mehr zum Videoeditor wird und nun auch den Compositor besser einbindet.
Massive Geometrie & neue Limits: Die neue Version kann inzwischen mit großen Meshes umgehen – ideal für aufwendige 3D-Scans, High-Poly-Modelle und riesige Szenen. Dateien aus Blender 5.0 lassen sich allerdings nicht mehr in älteren Versionen (unter 4.5) öffnen, umgekehrt funktioniert das aber weiterhin.
Grease Pencil mit Motion Blur: Ein Highlight für 2D/3D-Hybride: Das Grease-Pencil-Tool bekommt erstmals Motion-Blur-Unterstützung beim Rendern. Animierte Zeichnungen sollen damit flüssiger und filmischer wirken.
Feinschliff an der Oberfläche: Blenders UI wird weiter poliert – mit verbessertem Drag-and-drop, klareren Outliner-Rückmeldungen, einheitlicheren Widgets und kleineren Layoutanpassungen. Auch der Video-Sequencer wurde überarbeitet: Neue Clips erscheinen jetzt direkt unter dem Mauszeiger statt irgendwo in der Timeline.
Work-in-Progress: Cycles, Geometry Nodes und mehr: Viele zentrale Bereiche, von den Geometry Nodes über Sculpting bis zum Compositing, sind noch in Arbeit. Spekuliert wird über Animation Layers und eine überarbeitete UV-Sync-Selection – lang ersehnte Features der Community.
Für Add-on-Entwickler und Studios heißt das: rechtzeitig testen. Blender 5.0 könnte nicht nur größer, sondern auch wegweisend für die kommenden Jahre in der 3D-Open-Source-Welt werden.
(caw)
Künstliche Intelligenz
Jammertest: 360 Experten testen Satellitennavigation unter Störfeuer
Die Europäische Weltraumorganisation ESA hat am weltweit größten Feldtest für die Resilienz von Satellitennavigationssystemen teilgenommen. Beim Jammertest 2025 im norwegischen Bleik, 300 Kilometer nördlich des Polarkreises, untersuchten 360 Teilnehmer aus 120 Organisationen und über 20 Ländern, wie ihre GNSS-Empfänger auf gezielte Störangriffe reagieren. Die Veranstaltung wird jährlich von sieben norwegischen Behörden und Testnor organisiert.
Die zunehmende Abhängigkeit von Global Navigation Satellite Systems (GNSS) wie dem europäischen Galileo oder dem US-amerikanischen GPS macht diese Systeme zu attraktiven Zielen für Störer. Vorfälle nehmen weltweit täglich zu – UN-Organisationen hatten bereits im April vor der dramatischen Zunahme gewarnt.
Die wirtschaftlichen Risiken sind erheblich: Ein GNSS-Ausfall würde Europa täglich Milliarden Euro kosten, so die ESA. Betroffen wären nicht nur Navigationsdienste, sondern auch Energienetze, Bankinfrastruktur, Notfalltransporte und die zivile Luftfahrt. Die präzisen Zeitsignale der Satelliten synchronisieren Finanztransaktionen, Kommunikationsnetze und Stromversorgung – ein Ausfall hätte weitreichende Folgen für die öffentliche Sicherheit.
Jamming, Spoofing und Meaconing im Praxistest
Beim Jammertest werden drei Hauptarten von GNSS-Störungen simuliert. Jamming überflutet Empfänger mit Störsignalen auf denselben Frequenzen und blockiert damit die Satellitennavigation komplett. Polnische Forscher hatten solche Störungen 2024 in der Ostsee über 84 Stunden lang dokumentiert.
Noch gefährlicher ist Spoofing, bei dem gefälschte Signale ausgesendet werden, um Empfänger in die Irre zu führen. Eine Variante davon ist Meaconing, bei dem echte Signale aufgezeichnet, verzögert und erneut ausgestrahlt werden – schwerer zu erkennen, weil die Signale authentisch sind.
Galileo Second Generation mit verbesserter Störfestigkeit
„Als Designer der EU-Satellitennavigationssysteme sind wir dafür verantwortlich, technische Fähigkeiten in EGNOS und Galileo einzubauen, die Robustheit gegen Jamming und Spoofing gewährleisten“, erklärt Miguel Manteiga Bautista, ESA-Leiter für Galileo. Die erste Galileo-Generation biete bereits Dienste wie den Public Regulated Service mit speziellen Schutzfunktionen. Verbesserungen durch Mehrfrequenzbetrieb, breitere Bandbreite und Authentifizierung der Navigationsnachrichten würden sukzessive eingeführt.
Die zweite Galileo-Generation werde einen großen Evolutionssprung bei Fähigkeiten und Flexibilität darstellen. Auch die nächste Generation von EGNOS (European Geostationary Navigation Overlay Service), einem System, das sowohl GPS als auch Galileo ergänzen soll, werde die Resilienz gegen Störungen verbessern. Parallel arbeitet die ESA mit der Industrie an widerstandsfähigeren Empfängern und alternativen Systemen, die bei GNSS-Ausfall funktionieren.
Feldtests unter arktischen Bedingungen
Die Feldtests in Norwegen ergänzen die Labortests, die die ESA und Hersteller vornehmen. In der realen Welt sei Interferenz unvorhersehbar und Schwachstellen träten auf, wenn man sie am wenigsten erwarte. Die Überprüfung der GNSS-Empfänger-Robustheit unter realen Testbedingungen sei daher essenziell.
Das Dorf Bleik auf der Insel Andøya bietet ideale Bedingungen: Auf fast 70 Grad nördlicher Breite wirken die östlichen Berge als natürliche Barrieren, die Störsignale eindämmen. Die Teilnehmer testeten ihre Ausrüstung auf Fahrzeugen, Drohnen, Flugzeugen, Helikoptern und Schiffen. Der Jammertest ermöglicht kontrollierte Experimente unter realistischen Bedingungen.
Die ESA betont, dass Satellitennavigation zur kritischen Infrastruktur gehört und entsprechende Schutzmaßnahmen erfordert. Die Erkenntnisse aus dem Jammertest fließen direkt in die Entwicklung robusterer Systeme und Empfänger ein, um die europäische Resilienz in der Satellitennavigation zu stärken.
(mki)
Künstliche Intelligenz
Server-SSDs getestet: Robust, langlebig, massive Kapazitäten
Wer seinen PC selbst zusammenbaut, kennt die beiden heute üblichen Bauformen für SSDs: 2,5-Zoll-Gehäuse mit SATA-Anschluss und die kleinen M.2-Streifen, meistens 80 Millimeter lang, die per PCIe kommunizieren. Server-SSDs existieren noch in anderen Bauformen und unterscheiden sich auch sonst deutlich von solchen für PCs und Notebooks.
SSDs im 2,5-Zoll-Gehäuse gibt es auch für Server, und zwar mit verschiedenen Anschlüssen. Außer SATA kommt auch SAS (Serial Attached SCSI), zum Einsatz; ein besseres SATA: SAS erlaubt höhere Geschwindigkeiten sowie eine bessere Verwaltung der SSD. Moderner und noch schneller ist U.2, es nutzt vier PCIe-Lanes und erreicht darüber 14 GByte/s beim Lesen. SAS- und U.2-SSDs stecken meistens in Schnellwechselrahmen (Backplanes) und lassen sich im laufenden Betrieb tauschen (Hotswapping).
In diesem Artikel konzentrieren wir uns jedoch auf die modernen Einschub-SSDs, die speziell für die Bedürfnisse der Rechenzentren entwickelt wurden: EDSFF (Enterprise and Data Center Storage Form Factor) setzt sich immer mehr durch. Eine solche SSD testen wir auch beispielhaft, und zwar die Kioxia CD8P-V.
Das war die Leseprobe unseres heise-Plus-Artikels „Server-SSDs getestet: Robust, langlebig, massive Kapazitäten“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 1 Monat
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 3 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 2 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows