Connect with us

Künstliche Intelligenz

KI als Katalysator für Softwarearchitektur: Praxisbeispiel aus dem ÖPNV


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Künstliche Intelligenz (KI) bringt neue Anforderungen, Paradigmen und Wechselwirkungen mit sich, die klassische Ansätze der Softwarearchitektur an vielen Stellen erweitern oder herausfordern. Für Softwarearchitektinnen und -architekten bedeutet das: Sie müssen ihre Rolle, ihre Methoden und ihre Denkweisen weiterentwickeln, um den komplexen Rahmenbedingungen datengetriebener Systeme gerecht zu werden.


Mahbouba Gharbi

Mahbouba Gharbi

(Bild: 

Mahbouba Gharbi

)

Mahbouba ist Geschäftsführerin, Softwarearchitektin und Trainerin bei der ITech Progress GmbH, einem Beratungsunternehmen und akkreditierten Schulungsanbieter des iSAQB mit über zwanzig Jahren Erfahrung. Als Kuratorin des iSAQB-Advanced-Level-Moduls SWARC4AI vermittelt sie methodische und technische Konzepte für den Entwurf und die Entwicklung skalierbarer KI-Systeme. Dabei legt sie besonderen Wert auf praxisnahe, nachhaltige und anwendungsorientierte Lösungen.


Dimitri Blatner

Dimitri Blatner

(Bild: 

Dimitri Blatner

)

Dimitri ist Softwarearchitekt und Trainer bei der ITech Progress GmbH. Als zertifizierter Trainer für das iSAQB-Advanced-Level-Modul SWARC4AI vermittelt er praxisnahes Wissen zum Entwurf und zur Entwicklung skalierbarer KI-Systeme. Seine Schwerpunkte liegen in den Bereichen Cloud-Technologien, DevSecOps, hybride Architekturen und KI-basierte Lösungen. Dimitri unterstützt Unternehmen dabei, innovative und zugleich sichere Systeme erfolgreich zu realisieren.

Dieser Artikel beleuchtet, wie sich der Architektur-Entstehungsprozess durch den Einsatz von KI verändert – und was dies konkret für die Praxis der Softwarearchitektur bedeutet. Zum Veranschaulichen zeigen wir Beispiele eines Projekts aus dem öffentlichen Personennahverkehr (ÖPNV), an dem wir als Softwarearchitekten beteiligt waren.

Im Architekturkontext tritt künstliche Intelligenz in zwei unterschiedlichen Rollen auf – als Unterstützung im Entstehungsprozess und als aktive Systemkomponente. Diese Unterscheidung ist essenziell für die Einordnung technischer, methodischer und organisatorischer Anforderungen. In ihrer Rolle als Werkzeug unterstützt KI die Architekten entlang verschiedener Prozessphasen. In frühen Phasen können KI-Tools bei der Konsolidierung und Analyse von Anforderungen helfen. Natural Language Processing (NLP) ermöglicht zum Beispiel das Extrahieren funktionaler und nichtfunktionaler Anforderungen aus Textquellen oder Gesprächsprotokollen.

Später im Prozess lassen sich mithilfe graphbasierter Modelle Architekturvarianten generieren, die die KI hinsichtlich vordefinierter Qualitätsmerkmale bewertet. In Review-Phasen unterstützt die KI bei der Analyse bestehender Systeme, etwa durch das Erkennen von Architekturerosion oder von zyklischen Abhängigkeiten.

Diese Unterscheidung zwischen den beiden Rollen von KI gilt auch im ÖPNV und sie bringt jeweils andere Qualitätsanforderungen, Betriebsrisiken und Verantwortlichkeiten mit sich. Während KI als Analyse-Tool im Hintergrund arbeitet und prozessorientierte Verbesserungen unterstützt, beeinflusst sie als Bestandteil produktiver Systeme unmittelbar das Verhalten, die Resilienz und Weiterentwicklung des digitalen Fahrgastangebots und des Betriebsmanagements.

Das Verkehrsunternehmen mit über 10 Millionen Fahrgästen pro Monat hat künstliche Intelligenz systematisch in seine Softwarearchitektur integriert, mit dem Ziel, die Qualität, Wartbarkeit und Serviceorientierung zu verbessern – sowohl in der betrieblichen IT als auch in den digitalen Produkten für die Fahrgäste. Bereits im Architekturprozess kommt ein generatives KI-Analysemodul auf Basis eines großen Sprachmodells (LLM) zum Einsatz: Es wertet Architekturdokumentationen automatisiert aus, extrahiert zentrale Designentscheidungen, etwa zur Anbindung von Fahrgastinformationssystemen oder zur Datenhaltung von Echtzeitfahrplänen – und gleicht diese mit den implementierten Services und Schnittstellen ab. So können die Architekten Inkonsistenzen und technische Schulden frühzeitig erkennen und dokumentieren.

Ein weiteres datengetriebenes Assistenzsystem identifiziert mithilfe von Unsupervised Learning Ausfallmuster in historischen Fahrzeugdaten. Diese Erkenntnisse fließen direkt in Anforderungen an Sensorik und Datenlatenz ein – und stärken somit Architekturentscheidungen.

Im Betrieb analysiert ein prädiktives Machine-Learning-Modell (ML-Modell) kontinuierlich Diagnosedaten der Busflotte. Es erkennt frühzeitig Anzeichen technischer Defekte (Predictive Maintenance) und ermöglicht gezielte Wartungsmaßnahmen. Zugleich generiert es automatisch passende Fahrgastinformationen, sobald Abweichungen vom Fahrplan auftreten – abgestimmt auf die Prognosegüte. Die Systemarchitektur bildet hierfür nicht nur das ML-Modell selbst ab, sondern auch die erforderlichen Datenpipelines, MLOps-Infrastruktur sowie Prozesse für Validierung, Monitoring und kontinuierliches Training. Die Modellpipeline wird so zu einem kritischen, wartbaren und transparenten Bestandteil der Gesamtarchitektur.

Traditionelle Softwarearchitektur ist in erster Linie funktionsorientiert: Sie konzentriert sich auf technische Komponenten, klare Schnittstellen und wohldefinierte Abläufe. In KI-basierten Systemen verschiebt sich der Fokus erheblich. Hier prägen Datenflüsse, Machine-Learning-Modelle und Trainingsprozesse den Aufbau des Systems. Dadurch gewinnen Datenquellen, deren Qualität und deren Verfügbarkeit eine entscheidende Bedeutung. Die Auswahl und Vorbereitung der Daten haben unmittelbaren Einfluss auf die Leistungsfähigkeit und Korrektheit der später eingesetzten Modelle.

Darüber hinaus müssen Architekten sich mit Konzepten wie Modellversionierung, kontinuierlicher Modellverbesserung (Continuous Learning) und passenden Monitoring-Mechanismen beschäftigen. Klassische Erwartungen an Systemstabilität weichen neuen Anforderungen an Flexibilität und Anpassungsfähigkeit, da sich Modelle durch Nachtrainieren oder den Austausch gegen verbesserte Varianten verändern. Die Architekturarbeit wird dadurch dynamischer und datengetriebener.

Die Qualitätskriterien für Softwaresysteme erweitern sich durch KI um neue Dimensionen. Neben etablierten Anforderungen wie Performance, Wartbarkeit oder Sicherheit treten Aspekte wie Erklärbarkeit, Fairness und Vertrauenswürdigkeit auf. Entscheidungen, die durch ML-Modelle getroffen werden, müssen für technische und nicht-technische Stakeholder nachvollziehbar sein – insbesondere dann, wenn sie Auswirkungen auf Menschen oder gesellschaftliche Prozesse haben.

Zusätzlich steigt die Bedeutung von Robustheit gegenüber veränderten Datenlagen und von Mechanismen zur Absicherung gegen fehlerhafte Modellvorhersagen. Architekten sind gefordert, Unsicherheiten explizit zu behandeln: durch Confidence Scores, Abstufungen in der Entscheidungssicherheit oder Fallback-basierte Systempfade. Damit wird deutlich: Architektur im KI-Zeitalter muss über rein technische Kriterien hinausgehen und systemische Resilienz und ethische Verantwortung mitdenken.

Im Unterschied zu klassischen Projekten, bei denen die Architektur zu Beginn weitgehend festgelegt wird, besteht der Architekturprozess in KI-Projekten von Anfang an aus einem iterativen Vorgehen (Abbildung 1). Wesentliche Erkenntnisse über Datenverteilung, Modellverhalten oder Anwendungsfälle ergeben sich oft erst während explorativer Experimente. Entsprechend muss die Architektur flexibel genug sein, um nachträglich anpassbar oder sogar grundlegend überholbar zu sein und einen hohen Grad an Automatisierung zu ermöglichen.


Infografik Architekturentwicklung

Infografik Architekturentwicklung

Die Architekturentwicklung erfolgt iterativ (Abb. 1).

(Bild: Gharbi/Blatner)

Dies erfordert nicht nur technische Modularität, sondern auch eine veränderte Herangehensweise: Architekturarbeit wird zu einem kontinuierlichen Lernprozess. Entscheidungen unter Unsicherheit, das Einführen temporärer Lösungen (Safeguards) und die Bereitschaft, bestehende Ideen bei neuen Erkenntnissen zu verwerfen, gehören zum Alltag. Der Architekturprozess entwickelt sich so zu einem evolutionären Dialog mit der Realität der Daten und des Anwendungsbereichs.

Mit der Einführung von KI-Technologien verändert sich auch die Zusammensetzung der Teams. Rollen wie Data Scientist, ML Engineer oder MLOps-Spezialist bringen neue Perspektiven und Arbeitsweisen ein, die sich grundlegend von traditionellen Entwickler- oder Quality-Assurance-Profilen unterscheiden (Abbildung 2). Für Architekten bedeutet das, sich nicht nur technisch, sondern auch kommunikativ und methodisch anzupassen. Sie müssen die Konzepte, Arbeitsweisen und Erwartungen dieser neuen Rollen verstehen und als Brückenbauer agieren: zwischen Fachbereichen, Datenverantwortlichen und technischen Implementierungsteams. Architekturentscheidungen betreffen zunehmend nicht nur Code und Komponenten, sondern auch Datenstrukturen, Modelle, Trainingseinheiten und Betriebsprozesse. Das führt zu komplexeren Verantwortungsschnittstellen, die klare Absprachen und transparente Prozesse erfordern.


Infografik Verantwortungsschnittstellen

Infografik Verantwortungsschnittstellen

Neue Rollen und Verantwortungsschnittstellen (Abb. 2)

(Bild: Gharbi/Blatner)

Erfolgreiche Architektur im KI-Umfeld setzt ein tiefes Verständnis für die jeweilige Anwendungsdomäne voraus. Ob im Gesundheitswesen, im öffentlichen Verkehr oder in der Finanzbranche – Daten und Modelle müssen mit fachlichem Kontext angereichert und an die Bedürfnisse der Stakeholder angepasst werden. Architekten suchen daher aktiv den Austausch mit Experten aus der Domäne, verstehen deren Sprache und integrieren deren Sichtweisen in architektonische Überlegungen.

Methodisch helfen dabei Verfahren wie Domain Storytelling, Event Storming oder Design Thinking. Diese Ansätze ermöglichen es, komplexe Anforderungen frühzeitig zu erkennen, blinde Flecken in der Modellierung zu vermeiden und die Akzeptanz für KI-basierte Systeme zu erhöhen. Besonders wichtig ist es, nicht nur Entscheidungsträger, sondern auch spätere Nutzerinnen und Nutzer in die Architekturarbeit einzubinden, beispielsweise durch Co-Creation-Workshops oder Szenarienentwicklung.



Source link

Künstliche Intelligenz

Server-SSDs getestet: Robust, langlebig, massive Kapazitäten


Wer seinen PC selbst zusammenbaut, kennt die beiden heute üblichen Bauformen für SSDs: 2,5-Zoll-Gehäuse mit SATA-Anschluss und die kleinen M.2-Streifen, meistens 80 Millimeter lang, die per PCIe kommunizieren. Server-SSDs existieren noch in anderen Bauformen und unterscheiden sich auch sonst deutlich von solchen für PCs und Notebooks.

SSDs im 2,5-Zoll-Gehäuse gibt es auch für Server, und zwar mit verschiedenen Anschlüssen. Außer SATA kommt auch SAS (Serial Attached SCSI), zum Einsatz; ein besseres SATA: SAS erlaubt höhere Geschwindigkeiten sowie eine bessere Verwaltung der SSD. Moderner und noch schneller ist U.2, es nutzt vier PCIe-Lanes und erreicht darüber 14 GByte/s beim Lesen. SAS- und U.2-SSDs stecken meistens in Schnellwechselrahmen (Backplanes) und lassen sich im laufenden Betrieb tauschen (Hotswapping).




In diesem Artikel konzentrieren wir uns jedoch auf die modernen Einschub-SSDs, die speziell für die Bedürfnisse der Rechenzentren entwickelt wurden: EDSFF (Enterprise and Data Center Storage Form Factor) setzt sich immer mehr durch. Eine solche SSD testen wir auch beispielhaft, und zwar die Kioxia CD8P-V.


Das war die Leseprobe unseres heise-Plus-Artikels „Server-SSDs getestet: Robust, langlebig, massive Kapazitäten“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Chatkontrolle: Immer mehr Warnungen vor dem Aufweichen sicherer Verschlüsselung


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im Vorfeld wichtiger Weichenstellungen in Berlin und Brüssel rund um den seit Jahren umkämpften Entwurf der EU-Kommission für eine Verordnung zur massenhaften Online-Überwachung unter dem Aufhänger des Kampfs gegen sexuellen Kindesmissbrauch wächst der Widerstand gegen die Initiative. Nach zivilgesellschaftlichen Organisationen und Betreibern von Messenger-Diensten sprechen sich nun auch IT-Verbände, andere Unternehmenszusammenschlüsse, der Kinderschutzbund und Pressevereinigungen nachdrücklich gegen das Durchleuchten privater Online-Kommunikation und das Aufbrechen von Verschlüsselung aus.

Der eco-Verband der Internetwirtschaft etwa warnt eindringlich vor der geplanten Chatkontrolle. Er fordert die Bundesregierung sowie die EU-Länder auf, den Vorschlag der dänischen Ratspräsidentschaft bei den anstehenden Beratungen im Ausschuss der Ständigen Vertreter der Mitgliedstaaten (Coreper) diese Woche und beim Treffen der Justiz- und Innenminister Mitte Oktober abzulehnen.

Der Entwurf sehe weiterhin die Verpflichtung von Anbietern digitaler Kommunikationsdienste vor, private Nachrichten zu durchsuchen, führt der eco aus. Dies beträfe auch Ende-zu-Ende-verschlüsselte Dienste wie WhatsApp, Signal und Threema. Eine neu ins Spiel gebrachte „Einwilligungslösung“, die Nutzer vor die Wahl stelle, einer Überwachung zuzustimmen oder Funktionen wie den Versand von Bildern und Videos zu verlieren, ändert laut dem Verband wenig am Schaffen einer „unkontrollierbaren Infrastruktur zur Massenüberwachung“ und dem faktischen Aushebeln sicherer Verschlüsselung.

„Ein ‚Kompromiss‘, der das anlasslose Scannen privater Kommunikation festschreibt – ob nur nach bekannten oder auch nach unbekannten Inhalten – ist keiner“, betont Klaus Landefeld aus dem eco-Vorstand. „Er bleibt grundrechtswidrig, technisch fehlgeleitet und sicherheitspolitisch gefährlich.“ Wer Verschlüsselung aufweiche, schwäche immer auch den Schutz von Bürgern, Unternehmen und kritischen Infrastrukturen. Internet-Beschwerdestellen wie die vom eco erzielten bereits Löschquoten bis zu 99 Prozent bei Missbrauchsdarstellungen.

Auch die European Digital SME Alliance, der rund 45.000 kleine und mittlere Unternehmen wie Ecosia, Element, Heinlein Group, Nextcloud und Wire angehören, schlägt in einem offenen Brief Alarm. Sie monieren, dass die aktuelle Vorlage aus Dänemark weiterhin das clientseitige Scannen auch verschlüsselter Nachrichten direkt auf Endgeräten vorsehe, grundlegende Sicherheitsstandards untergrabe und die digitale Souveränität Europas gefährde.

Die Unterzeichner betonen, dass der Schutz der Privatsphäre und die Verschlüsselung essenziell für wirtschaftliche Unabhängigkeit und nationale Sicherheit seien. Würden europäische Dienste faktisch zum Einbau von Schwachstellen gezwungen, verlören Nutzer das Vertrauen und würden zu ausländischen Anbietern wechseln. Das werde „Europa noch abhängiger von amerikanischen und chinesischen Tech-Giganten machen“ und den Wettbewerbsvorteil, den europäische Unternehmen durch europäische Datenschutzvorgaben erworben hätten, zerstören.

Der Deutsche Journalisten-Verband (DJV) sieht eine konkrete Gefahr für Journalisten: „Der Quellenschutz, ein Grundpfeiler der Pressefreiheit, lebt von der Garantie sicherer Kommunikationswege.“ Könnten Informanten nicht mehr vertraulich Kontakt aufnehmen, versiege der Informationsfluss. „Sollte die Chatkontrolle beschlossen werden, wäre das ein historischer Bruch“, heißt es in einem Kommentar. „Eine Demokratie, die private Kommunikation pauschal unter Verdacht stellt, stellt sich selbst infrage.“ Auch Reporter ohne Grenzen befürchtet: Journalistische Arbeit und insbesondere investigative Recherchen wären mit dem Aushebeln von Verschlüsselung einer wichtigen funktionalen Grundlage beraubt.

Der Deutsche Kinderschutzbund (DKSB) bekräftigt derweil seine Ablehnung des Überwachungsvorstoßes. Der mitgliederstärkste Kinderschutzverband Deutschlands unterstützt zwar das Ziel der Kommission, Darstellungen sexualisierter Gewalt zu bekämpfen. Elena Frense, Fachreferentin für Medien und Digitales beim DKSB, hob gegenüber Netzpolitik.org aber hervor: „Allerdings lehnen wir die Möglichkeit zum Scan verschlüsselter privater Kommunikation, die sogenannte Chatkontrolle, ab.“

Mit einem Last-Minute-Trick versuche das CSU-geführte Bundesinnenministerium, die Zustimmung von Justizministerin Stefanie Hubig (SPD) zur Chatkontrolle zu erzwingen, zeigt sich der Ex-EU-Abgeordnete Patrick Breyer besorgt. Mit deutscher Unterstützung wäre im Rat dann erstmals eine Mehrheit für die Initiative möglich. Ein als „Kompromiss“ präsentierter Vorschlag sehe vor, beim anlasslosen Durchleuchten privater Nachrichten „nur“ noch nach bereits bekanntem Missbrauchsmaterial zu suchen. Doch auch damit müsste durchgehende Verschlüsselung ausgehebelt werden. Perfide sei, dass die immer wieder problematischen Chatverläufe von Polizisten, Soldaten und Geheimdienstlern sowie der für sie zuständigen Minister von der Chatkontrolle ausgenommen werden sollen.

Sprecherinnen der Links-Fraktion im Bundestag mahnen, das Argument des vorgeblichen Schutzes von Kindern vor sexualisierter Gewalt nicht zu instrumentalisieren, um die staatliche Überwachung auszubauen. Entscheidend seien eine stärkere Aufklärungs- und Bildungsarbeit sowie ein „umfängliches Gesetz gegen digitale Gewalt“. Das zivilgesellschaftliche Bündnis „Chatkontrolle stoppen“ hat eine Last-Minute-Petition gestartet, die innerhalb eines Tages über 140.000 Personen unterzeichnet haben.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Googles AI Mode kommt nach Deutschland


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Wer eine besonders komplexe Frage beantwortet haben möchte, sollte künftig den AI Mode in der Google-Suche auswählen. Das dahintersteckende KI-Modell Gemini 2.5 ist speziell auf Suchanfragen abgestimmt – das bedeutet, dass sowohl die Echtzeitsuche als auch die gigantische Datenbank, der Knowledge Graph, damit verknüpft sind. Sowohl Fragen als auch Antworten müssen nicht in Textform sein. Es sind also beispielsweise auch Fragen zu einem Bild möglich.

Der AI Mode liefert keine Linklisten. Auch die AI Overviews oder KI-Übersichten liefern bereits oberhalb der Links eine KI-generierte Antwort auf eine Frage, wenn Google meint, eine solche Beantwortung sei sinnvoll. Für eine Antwort im AI Mode sammelt und analysiert Gemini mehr Informationen und fasst diese passend zusammen. Berücksichtigt wird auch die bisherige Suchhistorie sowie der eigene Standort, wenn man das erlaubt. Von der ersten Antwort kann man weiterführende Fragen stellen und eine Art Konversation führen. Das ähnelt stark einem KI-Chatbot. Anders als der Chatbot Gemini ist der AI Mode aber für die Suche optimiert – so erklärt Google den Unterschied. Vor allem aber ist der AI Mode in die reguläre Suche integriert.

Die Funktion erinnert zudem freilich an Perplexity und ChatGPT. Auch hier gibt es KI-generierte und zusammengestellte Antworten auf Fragen in Echtzeit. Im Unterschied dazu hat Google aber den Knowledge Graph mit Millionen Informationen zu Öffnungszeiten, Eintrittspreise, Funktionsweisen und Fakten, wie etwa der Höhe des Eiffelturms.

Der AI Mode ist in den USA und anderen Ländern bereits verfügbar, nun kommt unter anderem auch nach Deutschland und das auch auf Deutsch. Laut Google eignet sich der AI Mode besonders, um tiefer in ein Thema einzusteigen. Viele der Fragen, die Menschen stellen, habe es so vorher gar nicht gegeben, weil Google keine Antwort darauf gehabt hätte. Sie seien zudem zwei bis drei Mal länger. Damit begründet Google auch unter anderem, warum gar nicht messbar sei, ob Webseitenbetreibern Klicks durch die KI-Antworten wegbrechen. Der Vorwurf lautet, dass Google sich bei anderen Inhalten bedient, diese selbst nutzt, um sie im AI Mode oder in den KI-Übersichten anzuzeigen. Die Inhalteersteller haben vorwiegend bisher Geld damit verdient, Werbung auf ihren Seiten auszuspielen – dafür bedarf es jedoch des Besuchs eines Menschen, dem Werbung angezeigt werden kann. Google sagt allerdings, dass es seit den AI Overviews insgesamt zehn Prozent Wachstum der Suchanfragen insgesamt gäbe.

Dabei beherrscht Google das Geschäft rund um Online-Werbung ohnehin. In den USA ist in einem Verfahren bereits beschlossen worden, dass Google ein Monopol inne und sich selbst bevorzugt hat. Derzeit werden die daraus resultierenden Auflagen in einem Verfahren besprochen, es droht im schlimmsten Fall die Abspaltung des Werbegeschäfts.

In den USA experimentiert Google bereits mit Anzeigen im AI Mode. Noch sammle man Erfahrungen, bevor Werbung auch in anderen Ländern angezeigt wird.


(emw)



Source link

Weiterlesen

Beliebt