Connect with us

Künstliche Intelligenz

KI als Katalysator für Softwarearchitektur: Praxisbeispiel aus dem ÖPNV


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Künstliche Intelligenz (KI) bringt neue Anforderungen, Paradigmen und Wechselwirkungen mit sich, die klassische Ansätze der Softwarearchitektur an vielen Stellen erweitern oder herausfordern. Für Softwarearchitektinnen und -architekten bedeutet das: Sie müssen ihre Rolle, ihre Methoden und ihre Denkweisen weiterentwickeln, um den komplexen Rahmenbedingungen datengetriebener Systeme gerecht zu werden.


Mahbouba Gharbi

Mahbouba Gharbi

(Bild: 

Mahbouba Gharbi

)

Mahbouba ist Geschäftsführerin, Softwarearchitektin und Trainerin bei der ITech Progress GmbH, einem Beratungsunternehmen und akkreditierten Schulungsanbieter des iSAQB mit über zwanzig Jahren Erfahrung. Als Kuratorin des iSAQB-Advanced-Level-Moduls SWARC4AI vermittelt sie methodische und technische Konzepte für den Entwurf und die Entwicklung skalierbarer KI-Systeme. Dabei legt sie besonderen Wert auf praxisnahe, nachhaltige und anwendungsorientierte Lösungen.


Dimitri Blatner

Dimitri Blatner

(Bild: 

Dimitri Blatner

)

Dimitri ist Softwarearchitekt und Trainer bei der ITech Progress GmbH. Als zertifizierter Trainer für das iSAQB-Advanced-Level-Modul SWARC4AI vermittelt er praxisnahes Wissen zum Entwurf und zur Entwicklung skalierbarer KI-Systeme. Seine Schwerpunkte liegen in den Bereichen Cloud-Technologien, DevSecOps, hybride Architekturen und KI-basierte Lösungen. Dimitri unterstützt Unternehmen dabei, innovative und zugleich sichere Systeme erfolgreich zu realisieren.

Dieser Artikel beleuchtet, wie sich der Architektur-Entstehungsprozess durch den Einsatz von KI verändert – und was dies konkret für die Praxis der Softwarearchitektur bedeutet. Zum Veranschaulichen zeigen wir Beispiele eines Projekts aus dem öffentlichen Personennahverkehr (ÖPNV), an dem wir als Softwarearchitekten beteiligt waren.

Im Architekturkontext tritt künstliche Intelligenz in zwei unterschiedlichen Rollen auf – als Unterstützung im Entstehungsprozess und als aktive Systemkomponente. Diese Unterscheidung ist essenziell für die Einordnung technischer, methodischer und organisatorischer Anforderungen. In ihrer Rolle als Werkzeug unterstützt KI die Architekten entlang verschiedener Prozessphasen. In frühen Phasen können KI-Tools bei der Konsolidierung und Analyse von Anforderungen helfen. Natural Language Processing (NLP) ermöglicht zum Beispiel das Extrahieren funktionaler und nichtfunktionaler Anforderungen aus Textquellen oder Gesprächsprotokollen.

Später im Prozess lassen sich mithilfe graphbasierter Modelle Architekturvarianten generieren, die die KI hinsichtlich vordefinierter Qualitätsmerkmale bewertet. In Review-Phasen unterstützt die KI bei der Analyse bestehender Systeme, etwa durch das Erkennen von Architekturerosion oder von zyklischen Abhängigkeiten.

Diese Unterscheidung zwischen den beiden Rollen von KI gilt auch im ÖPNV und sie bringt jeweils andere Qualitätsanforderungen, Betriebsrisiken und Verantwortlichkeiten mit sich. Während KI als Analyse-Tool im Hintergrund arbeitet und prozessorientierte Verbesserungen unterstützt, beeinflusst sie als Bestandteil produktiver Systeme unmittelbar das Verhalten, die Resilienz und Weiterentwicklung des digitalen Fahrgastangebots und des Betriebsmanagements.

Das Verkehrsunternehmen mit über 10 Millionen Fahrgästen pro Monat hat künstliche Intelligenz systematisch in seine Softwarearchitektur integriert, mit dem Ziel, die Qualität, Wartbarkeit und Serviceorientierung zu verbessern – sowohl in der betrieblichen IT als auch in den digitalen Produkten für die Fahrgäste. Bereits im Architekturprozess kommt ein generatives KI-Analysemodul auf Basis eines großen Sprachmodells (LLM) zum Einsatz: Es wertet Architekturdokumentationen automatisiert aus, extrahiert zentrale Designentscheidungen, etwa zur Anbindung von Fahrgastinformationssystemen oder zur Datenhaltung von Echtzeitfahrplänen – und gleicht diese mit den implementierten Services und Schnittstellen ab. So können die Architekten Inkonsistenzen und technische Schulden frühzeitig erkennen und dokumentieren.

Ein weiteres datengetriebenes Assistenzsystem identifiziert mithilfe von Unsupervised Learning Ausfallmuster in historischen Fahrzeugdaten. Diese Erkenntnisse fließen direkt in Anforderungen an Sensorik und Datenlatenz ein – und stärken somit Architekturentscheidungen.

Im Betrieb analysiert ein prädiktives Machine-Learning-Modell (ML-Modell) kontinuierlich Diagnosedaten der Busflotte. Es erkennt frühzeitig Anzeichen technischer Defekte (Predictive Maintenance) und ermöglicht gezielte Wartungsmaßnahmen. Zugleich generiert es automatisch passende Fahrgastinformationen, sobald Abweichungen vom Fahrplan auftreten – abgestimmt auf die Prognosegüte. Die Systemarchitektur bildet hierfür nicht nur das ML-Modell selbst ab, sondern auch die erforderlichen Datenpipelines, MLOps-Infrastruktur sowie Prozesse für Validierung, Monitoring und kontinuierliches Training. Die Modellpipeline wird so zu einem kritischen, wartbaren und transparenten Bestandteil der Gesamtarchitektur.

Traditionelle Softwarearchitektur ist in erster Linie funktionsorientiert: Sie konzentriert sich auf technische Komponenten, klare Schnittstellen und wohldefinierte Abläufe. In KI-basierten Systemen verschiebt sich der Fokus erheblich. Hier prägen Datenflüsse, Machine-Learning-Modelle und Trainingsprozesse den Aufbau des Systems. Dadurch gewinnen Datenquellen, deren Qualität und deren Verfügbarkeit eine entscheidende Bedeutung. Die Auswahl und Vorbereitung der Daten haben unmittelbaren Einfluss auf die Leistungsfähigkeit und Korrektheit der später eingesetzten Modelle.

Darüber hinaus müssen Architekten sich mit Konzepten wie Modellversionierung, kontinuierlicher Modellverbesserung (Continuous Learning) und passenden Monitoring-Mechanismen beschäftigen. Klassische Erwartungen an Systemstabilität weichen neuen Anforderungen an Flexibilität und Anpassungsfähigkeit, da sich Modelle durch Nachtrainieren oder den Austausch gegen verbesserte Varianten verändern. Die Architekturarbeit wird dadurch dynamischer und datengetriebener.

Die Qualitätskriterien für Softwaresysteme erweitern sich durch KI um neue Dimensionen. Neben etablierten Anforderungen wie Performance, Wartbarkeit oder Sicherheit treten Aspekte wie Erklärbarkeit, Fairness und Vertrauenswürdigkeit auf. Entscheidungen, die durch ML-Modelle getroffen werden, müssen für technische und nicht-technische Stakeholder nachvollziehbar sein – insbesondere dann, wenn sie Auswirkungen auf Menschen oder gesellschaftliche Prozesse haben.

Zusätzlich steigt die Bedeutung von Robustheit gegenüber veränderten Datenlagen und von Mechanismen zur Absicherung gegen fehlerhafte Modellvorhersagen. Architekten sind gefordert, Unsicherheiten explizit zu behandeln: durch Confidence Scores, Abstufungen in der Entscheidungssicherheit oder Fallback-basierte Systempfade. Damit wird deutlich: Architektur im KI-Zeitalter muss über rein technische Kriterien hinausgehen und systemische Resilienz und ethische Verantwortung mitdenken.

Im Unterschied zu klassischen Projekten, bei denen die Architektur zu Beginn weitgehend festgelegt wird, besteht der Architekturprozess in KI-Projekten von Anfang an aus einem iterativen Vorgehen (Abbildung 1). Wesentliche Erkenntnisse über Datenverteilung, Modellverhalten oder Anwendungsfälle ergeben sich oft erst während explorativer Experimente. Entsprechend muss die Architektur flexibel genug sein, um nachträglich anpassbar oder sogar grundlegend überholbar zu sein und einen hohen Grad an Automatisierung zu ermöglichen.


Infografik Architekturentwicklung

Infografik Architekturentwicklung

Die Architekturentwicklung erfolgt iterativ (Abb. 1).

(Bild: Gharbi/Blatner)

Dies erfordert nicht nur technische Modularität, sondern auch eine veränderte Herangehensweise: Architekturarbeit wird zu einem kontinuierlichen Lernprozess. Entscheidungen unter Unsicherheit, das Einführen temporärer Lösungen (Safeguards) und die Bereitschaft, bestehende Ideen bei neuen Erkenntnissen zu verwerfen, gehören zum Alltag. Der Architekturprozess entwickelt sich so zu einem evolutionären Dialog mit der Realität der Daten und des Anwendungsbereichs.

Mit der Einführung von KI-Technologien verändert sich auch die Zusammensetzung der Teams. Rollen wie Data Scientist, ML Engineer oder MLOps-Spezialist bringen neue Perspektiven und Arbeitsweisen ein, die sich grundlegend von traditionellen Entwickler- oder Quality-Assurance-Profilen unterscheiden (Abbildung 2). Für Architekten bedeutet das, sich nicht nur technisch, sondern auch kommunikativ und methodisch anzupassen. Sie müssen die Konzepte, Arbeitsweisen und Erwartungen dieser neuen Rollen verstehen und als Brückenbauer agieren: zwischen Fachbereichen, Datenverantwortlichen und technischen Implementierungsteams. Architekturentscheidungen betreffen zunehmend nicht nur Code und Komponenten, sondern auch Datenstrukturen, Modelle, Trainingseinheiten und Betriebsprozesse. Das führt zu komplexeren Verantwortungsschnittstellen, die klare Absprachen und transparente Prozesse erfordern.


Infografik Verantwortungsschnittstellen

Infografik Verantwortungsschnittstellen

Neue Rollen und Verantwortungsschnittstellen (Abb. 2)

(Bild: Gharbi/Blatner)

Erfolgreiche Architektur im KI-Umfeld setzt ein tiefes Verständnis für die jeweilige Anwendungsdomäne voraus. Ob im Gesundheitswesen, im öffentlichen Verkehr oder in der Finanzbranche – Daten und Modelle müssen mit fachlichem Kontext angereichert und an die Bedürfnisse der Stakeholder angepasst werden. Architekten suchen daher aktiv den Austausch mit Experten aus der Domäne, verstehen deren Sprache und integrieren deren Sichtweisen in architektonische Überlegungen.

Methodisch helfen dabei Verfahren wie Domain Storytelling, Event Storming oder Design Thinking. Diese Ansätze ermöglichen es, komplexe Anforderungen frühzeitig zu erkennen, blinde Flecken in der Modellierung zu vermeiden und die Akzeptanz für KI-basierte Systeme zu erhöhen. Besonders wichtig ist es, nicht nur Entscheidungsträger, sondern auch spätere Nutzerinnen und Nutzer in die Architekturarbeit einzubinden, beispielsweise durch Co-Creation-Workshops oder Szenarienentwicklung.



Source link

Künstliche Intelligenz

Sparkassenchef: Digitaler Euro ist Türöffner für Big-Tech-Player


Der Präsident des Deutschen Sparkassen- und Giroverbands (DSGV), Ulrich Reuter, übt scharfe Kritik am geplanten digitalen Euro. Für den Funktionär ist das Vorhaben in der von der EU-Kommission und der Europäischen Zentralbank (EZB) geplanten Form eine Art trojanisches Pferd für Big-Tech-Konzerne wie Apple oder Google. Das teure Prestigeprojekt könnte ihm zufolge die digitale Souveränität Europas im Zahlungsverkehr massiv gefährden.

Weiterlesen nach der Anzeige

Entgegen dem Ziel, Unabhängigkeit von US-amerikanischen Payment-Giganten zu schaffen, öffne der digitale Euro in seiner bisherigen Konzeption außereuropäischen Anbietern bequemen Zugang zu europäischen Kunden, ihren Daten und der Zahlungsinfrastruktur, warnt Reuter in einem Meinungsbeitrag für Table.Media. Dies führe dazu, dass Kundeninformationen weiterhin ausgeforscht werden könnten, die Abhängigkeit von internationalen Zahlungsdienstleistern und Big-Tech-Akteure für Händler nicht ende und Europa keine ausreichende Kontrolle über seine Zahlungsströme gewinne.

Damit würde das Gegenteil der erklärten Ziele erreicht, meint Reuter. Bildhaft spricht er vom „Mitsitzen“ von US-Präsident Donald Trump am Kaffeetisch zwischen Bundeskanzler Friedrich Merz und dem französischen Präsidenten Emmanuel Macron, weil US-Unternehmen den innereuropäischen Zahlungsverkehr beherrschten.

Der Zahlungssektor sei von einem Hochleistungswettbewerb geprägt, der Marktteilnehmer mit Kundenerfahrung und Innovationskraft erfordere, führt der Sparkassen-Lobbyist aus. Die EZB hingegen sei allenfalls eine außenstehende Schiedsrichterin ohne eigene Kundenerfahrung. Indem sie bei der milliardenschweren Initiative selbst „mitspielen“ wolle, blockiere sie über Jahre hinweg sämtliche Entwicklungskapazitäten europäischer Payment-Anbieter. Damit belaste die Zentralbank diese im globalen Wettbewerb, anstatt ihnen beim Bündeln ihrer Kräfte zu helfen. Für die bessere, marktorientierte Alternative hält Reuter die gemeinsame Payment-Antwort der europäischen Finanzwirtschaft namens Wero, die auch Paypal Konkurrenz machen soll.

Ein dritter Punkt des Funktionärs behandelt das Fundament des Geldes: das Vertrauen. Dieses entstehe durch Verlässlichkeit und Stabilität, die durch den Digitaleuro untergraben würden. Reuter befürchtet, dass die EZB dem Geldkreislauf Bankeinlagen entziehen und dadurch die Kreditvergabe schwächen sowie das Finanzsystem destabilisieren könnte. Da der Euro bereits heute in digitaler Form auf jedem Bankkonto existiere, das als „Haustür“ zum Zahlungsverkehr fungiere, riskiere ein digitaler Euro ohne Anbindung an die gewohnten Kundenkonten eine geringe Akzeptanz.

Reuter betont, dass digitale Souveränität nur durch starke, wettbewerbsfähige europäische Anbieter entstehe. Ein Digitaleuro müsse daher den europäischen Zahlungsverkehr im internationalen Wettbewerb stärken, sich im Markt bewähren, von Marktteilnehmern getragen werden und sich nur über das Konto in die Lebenswelt der Menschen integrieren lassen. Das EU-Parlament streitet aktuell darüber, ob der digitale Euro nur offline oder auch online – also kontobasiert – nutzbar sein soll. Klassische Geschäftsbanken fühlen sich seit Jahren angesichts der EZB-Pläne ausgebootet, da Einlagen flöten gingen und viele Kunden gar kein Girokonto mehr benötigten.

Weiterlesen nach der Anzeige

Die Befürchtung, der digitale Euro könnte als Türöffner für Big Tech fungieren, ergibt sich aus der Art und Weise, wie die EZB die zugehörigen Zahlungsdienste gestalten will. Es soll sich um ein gesetzliches Zahlungsmittel handeln, das von der Zentralbank ausgegeben wird. Für die Zahlungsabwicklung etwa über Apps, Wallets und Point-of-Sale-Lösungen ist die Beteiligung von Vermittlern nötig. Durch die Schaffung einer neuen, standardisierten digitalen Währungsinfrastruktur könnte es für große, technologisch agile Big-Tech- oder US-Payment-Konzerne einfacher werden, ihre Dienste direkt in dieses System einzuklinken.

Wenn diese großen globalen Player benutzerfreundlichere und innovativere Wallets oder Apps anbieten als europäische Banken, dürften sie schnell die Schnittstelle zum Kunden besetzen. Sie würden zwar das Geld selbst nicht ausgeben, aber die Kontrolle über die Kundenerfahrung und die Transaktionsdaten an sich ziehen. Die EZB will daher vorschreiben, dass Händler in der Eurozone das Digitalgeld annehmen müssen. Das soll die Abhängigkeit von einzelnen dominanten Anbietern verringern. Die Zentralbank könnte zudem die Big-Tech-Beteiligung durch strikte Auflagen etwa zur zulässigen Datennutzung einschränken, um eine marktbeherrschende Stellung zu verhindern.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Top 10: Das beste Mini-Handy im Test – kleine Top-Smartphones bis 6,4 Zoll


Samsung Galaxy S23 im Test

Das kleinste Modell der neuen Galaxy-S-Reihe macht vieles wett, was der Vorgänger versäumt hat. Wie gut das Samsung Galaxy S23 wirklich ist, zeigt der TechStage-Test.

VORTEILE

  • extrem starke Leistung
  • hervorragendes Display
  • tolle Kamera
  • elegantes Design 

NACHTEILE

  • teuer
  • kein Netzteil
  • lädt langsamer als Konkurrenz 

Das kleinste Modell der neuen Galaxy-S-Reihe macht vieles wett, was der Vorgänger versäumt hat. Wie gut das Samsung Galaxy S23 wirklich ist, zeigt der TechStage-Test.

In diesem Testbericht widmen wir uns dem kleinsten Modell der Reihe – dem Samsung Galaxy S23. Auf den ersten Blick scheinen die Unterschiede zum Vorgänger nur minimal zu sein. Der Teufel steckt wie immer im Detail und hat es in sich – um schon ein wenig vorwegzunehmen. Das Galaxy S22 war ein tolles Smartphone, allerdings waren wir enttäuscht von der Akkulaufzeit, zudem konnte der Exynos 2200 nicht mit dem Snapdragon 8 Gen 1 aus anderen Top-Smartphones mithalten.

Den größten Fortschritt verspricht der neue Chipsatz. Samsung verzichtet endlich auf einen eigenen Prozessor und arbeitet bei seinem Flaggschiff eng mit Qualcomm zusammen. Zum Einsatz kommt der brandneue Snapdragon 8 Gen 2 in einer auf das Gerät zugeschnittenen Ausführung mit dem Namenszusatz „for Galaxy“. Wie stark dieser Chip ist und wo Samsung sonst noch beim Galaxy S23 nachgebessert hat, zeigt unser Test.

Design

Geht es um die Größe, hat sich nichts geändert. Das Samsung Galaxy S23 bietet erneut ein Display mit 6,1 Zoll und kommt auf nahezu die gleichen Abmessungen wie der Vorgänger: 146,3 × 70,9 × 7,6 mm bei einem Gewicht von 167 g. Damit liegt es gut in der Hand, dank der kompakten Ausmaße kann man es auch einhändig bedienen. Die Power-Taste sowie die Lautstärkewippe rechts sind wie der Fingerabdrucksensor im Display gut erreichbar.

Der Rahmen ist erneut aus Metall, die Rückseite besteht aus Glas. Lackiert ist das Testgerät, das uns Gomibo zur Verfügung gestellt hat, in einem matten Schwarz („Phantom Black“). Die Oberfläche zeigt sich erfreulich unempfindlich für Fingerabdrücke. Damit wirkt das Galaxy S23 für unseren Geschmack noch eine Spur edler als der Vorgänger.

Die Verarbeitung ist tadellos. Weder Spaltmaße noch wackelige Komponenten stören das Erlebnis – was bei dem Preis auch inakzeptabel wäre. Das Galaxy S23 wirkt allerdings fast schon zerbrechlich, sodass wir den Kauf einer Schutzhülle nahelegen. Dabei dürfte das Galaxy S23 mehr einstecken können als bisherige Generationen. Samsung schützt das Display und die Rückseite mit dem neuen Gorilla Glass Victus 2 von Corning. Laut Hersteller übersteht das Display den Sturz auf Asphalt auch noch aus 2 Meter Höhe – sogar bei ungünstigen Aufprallwinkeln. Wir haben es aber nicht übers Herz gebracht, das auszuprobieren. Vor Staub und Wasser ist es erneut nach IP68 geschützt.

Die größte sichtbare Änderung betrifft das Design der Kameralinsen auf der Rückseite. Diese ragen nun jeweils einzeln von einem Ring umfasst hervor. In diesem Jahr orientiert sich der kompakte Vertreter der Reihe damit am Design des Ultra-Modells. Dadurch wirkt das S23 nochmals filigraner. Beim Galaxy S22 waren die drei Linsen noch in einem größeren Element eingefasst. An der Anordnung selbst hat sich nichts geändert.

Display

Wie bereits angesprochen, bleibt es bei 6,1 Zoll. Die Auflösung des OLED-Displays beträgt erneut 2340 × 1080 Pixel, was auf der kompakten Anzeige zu einer hohen Pixeldichte von 423 Pixel pro Zoll (ppi) führt. Das Bild ist bei der Größe stets messerscharf, Farben erscheinen kräftig und Schwarzwerte dunkel wie die Nacht. Kontraste sind perfekt abgestimmt und die Blickwinkelstabilität ist ebenfalls toll. Noch besser ist hier nur das Top-Modell Samsung Galaxy S23 Ultra (Testbericht) dank weiterer automatischer Optimierungen.

Die maximale Bildwiederholrate beträgt 120 Hz. Es gibt die Wahl zwischen „Standard“ mit 60 Hz oder „Adaptiv“ mit einer automatischen Anpassung zwischen 48 und 120 Hz. Höhere Bildwiederholraten erlauben flüssigere Animationen beim Scrollen oder bei Spielen, erhöhen aber den Stromverbrauch.

Hell genug ist das Display, um bei Sonnenlicht im Freien ablesbar zu sein. Stellt man die Helligkeit manuell aufs Maximum, leuchtet es noch zurückhaltend mit 465 cd/m². Bei aktiver Helligkeitsanpassung schnellt dieser Wert aber auf etwa 885 cd/m² hoch. Das ist ein starker Wert, auch wenn es nicht an die 1350 cd/m² des Ultra-Modells heranreicht.

Kamera

Allein vom Datenblatt her hat sich wenig getan bei der Kamera des Galaxy S23. Die Hauptkamera bietet erneut 50 Megapixel mit f/1.8-Blende, Phasenvergleich-Autofokus und optischer Bildstabilisierung (OIS). Das Objektiv fasst vier Pixel in einem Raster zu einem zusammen (Pixel Binning) – die späteren Bilder entsprechen also 12,5 Megapixel. Durch das Zusammenfassen der Bildpunkte erlangen die Aufnahmen eine bessere Bildschärfe und höheren Detailgrad, gerade bei schlechten Lichtbedingungen. Auf Wunsch kann man auch die vollen 50 Megapixel für ein Bild abrufen.

Identisch erscheinen zudem das Weitwinkelobjektiv mit 12 Megapixeln und f/2.2-Blende sowie die Telelinse mit 10 Megapixeln, OIS und F/2.4-Blende. Der einzige auf den ersten Blick erkennbare Fortschritt betrifft die Frontkamera. Diese hat jetzt 12 statt 10 Megapixel. Die übrigen Verbesserungen stecken im Detail. So hat Samsung die Kamera-Software optimiert und die optische Bildstabilisierung wurde ebenfalls verbessert. Sie stabilisiert Bewegungen nur bis zu 3 Grad statt zuvor 1,5 Grad.

Das Ergebnis kann sich sehen lassen. Der Vorgänger war schon exzellent, aber das Galaxy S23 ist nochmals besser geworden. Trotz trister Lichtverhältnisse eines wolkenverhangenen Winterhimmels bieten unsere Test-Schnappschüsse eine ausgeprägte Dynamik, Bildschärfe und hohe Bilddetails. Die Farbgebung und der Weißabgleich bei den Aufnahmen sind ansprechend, wirken aber stets natürlich. Weitwinkelaufnahmen weichen bei der Farbgebung so gut wie gar nicht von der Hauptlinse ab.

Samsung Galaxy S23

Das Teleobjektiv bietet einen dreifachen optischen Zoom mit hervorragenden Ergebnissen. Wer es noch näher benötigt, kombiniert den Digitalzoom mit der optischen Vergrößerung. Selbst bei 30-facher Vergrößerung erkennt man noch, was die Kamera da eingefangen hat – auch wenn hier Bildrauschen nicht zu verhindern ist und etwas Schärfe verloren geht. Bis zu einer zehnfachen Vergrößerung bekommt man noch brauchbare Aufnahmen mit wenig Qualitätsverlust. Selfies mit der Frontkamera sind zudem scharf und natürlich, mit ausgeprägtem Dynamikumfang.

Sehr beeindruckend ist die Kamera des Galaxy S23 bei Nachtaufnahmen – hier ist das Ergebnis dank Software-Optimierung noch besser geworden. Wenn genügend Restlicht vorhanden ist, etwa durch eine Laterne, wirken Fotos im Nachtmodus fast wie bei Tag. Lediglich mit der Telelinse oder dem Weitwinkelobjektiv kommt es zu stärkerem Bildrauschen bei Dunkelheit. Dank des starken Prozessors sind sogar Videos mit 8K bei 30 fps (Frames pro Sekunde) möglich. Wir raten eher zu 4K mit 60 fps – die Hi-Res-Videos wirken knackscharf, stabil und geschmeidig.

Ausstattung

Endlich der Top-Prozessor, den ein Flagship verdient: Samsung setzt bei der Galaxy-S23-Reihe auf den Qualcomm Snapdragon 8 Gen 2. Der Exynos 2200 beim Vorgänger konnte späteren Smartphones mit Snapdragon 8 Gen 1 im Hinblick auf Top-Performance nicht das Wasser reichen. Jetzt feiert der Nachfolger des Super-Chipsatzes Premiere und wurde mit einem etwas höheren Takt für den Hochleistungs-Kern sowie die integrierte GPU nochmals für die Modelle optimiert.

Für den digitalen Vortrieb sorgen acht Kerne. Das Zugpferd ist der Hauptkern (Kryo Prime) mit 3,2 GHz, der von vier Kernen (Kryo Gold) mit 2,8 GHz und drei Kernen (Kryo Silver) mit 2 GHz flankiert wird. Für die Grafik ist die neue Adreno 740 als GPU zuständig. Zudem beträgt der Arbeitsspeicher 8 GB. Für Laien ausgedrückt: Das Galaxy S23 bietet Leistung satt – mehr, als die meisten Menschen vermutlich benötigen. Das Smartphone reagiert super flott und geschmeidig. Mit dieser Ausstattung ist das Galaxy S23 sogar ein echtes Gaming-Smartphone.

Die großen Leistungsreserven bestätigen auch die Benchmarks. Bei Work 3.0 von PCmark erreicht unser Galaxy S23 etwa 15.000 Punkte – was ein bärenstarker Wert ist. Das Samsung Galaxy S23 Ultra (Testbericht) war hier nochmals besser – bei gleicher RAM-Größe. Top ist auch die Grafikleistung. Bei 3Dmark musste der Test „Wild Life Extreme“ herhalten, da der Prozessor für unseren Standard-Benchmark „Wild Life“ zu schnell ist. Das war aber auch schon bei der ersten Generation des Snapdragon 8 so. Die Animationen aus dem Benchmark flitzen einfach nur geschmeidig über die Anzeige. Satte 3800 Punkte hat das S23 hier erreicht – gemeinsam mit dem Ultra-Modell der beste bisher gemessene Wert.

Die restliche Ausstattung lässt ebenfalls wenig Wünsche offen. Die Datenübertragung über den Typ-C-Steckplatz ist flott dank USB 3.2, der interne Speicher beträgt wahlweise 128 GB nach UFS 3.1 oder 256 GB nach UFS 4.0. Eine Erweiterung über Micro-SD-Karte ist aber nicht möglich. Der Rest ist auf dem neuesten Stand: Bluetooth 5.3, Wi-Fi 6E sowie NFC. Richtig gut klingen die Stereolautsprecher, sie wirken nochmals voluminöser als beim Vorgänger.

Software & Updates

Samsung ist mittlerweile der Klassenprimus in Hinblick auf Software. Ausgeliefert wird das Samsung Galaxy S23 mit Android 13. Die Koreaner versprechen monatliche Sicherheits-Patches für 5 Jahre sowie bis zu vier Version-Upgrades – das beinhaltet also auch noch Android 17.

Als Bedienoberfläche kommt One UI 5.1 zum Einsatz. Wer schon ein Samsung-Handy genutzt hat, wird sich sofort heimisch fühlen. Im Vergleich zu Stock-Android weicht One UI stärker ab, für nahezu jeden Google-Dienst bietet Samsung eine eigene Alternative. Ab Werk kommen dazu noch ein paar Microsoft-Anwendungen.

Größere Neuheiten gibt es bei Bixby – im Prinzip Samsungs Antwort auf Alexa, Siri und Google Assistant. Dafür benötigt man zum Google-Konto noch einen Samsung-Account. Neu sind die Bixby-Routinen, mit denen man das Verhalten des Smartphones wie von Smart Home gewohnt für bestimmte Situationen programmieren kann. Das Smartphone schlägt automatisch neue Routinen vor, Nutzer können aber auch selbst welche anstoßen. Den Sprachassistenten von Bixby hat Samsung ebenfalls erweitert.

Akku

Die vielleicht größte Schwachstelle des Galaxy S22 war die nur mittelmäßige Akkulaufzeit. Samsung hat hier nachgebessert – auf den ersten Blick allerdings moderat. Der Akku bietet jetzt eine Kapazität von 3900 mAh statt 3700 mAh. Zugegeben: Wir waren zunächst etwas skeptisch, ob die 200 mAh so viel bewirken.

Glücklicherweise hat Samsung viel Arbeit in die Optimierung der Software gesteckt. Wir vermuten auch, dass der Snapdragon 8 Gen 2 eher auf Effizienz, denn bloße Leistung getrimmt ist. Denn das Ergebnis war eine unerwartet positive Überraschung: Beim Battery Test erreicht das Gerät eine Akkulaufzeit von fast 14 Stunden. Der Test ermittelt diesen in einem simulierten Dauerbetrieb mit verschiedenen Anwendungen bei einer fest eingestellten Bildhelligkeit.

Das Galaxy S23 übertrifft damit sogar noch das Ultra-Modell – eine echte Überraschung. Der Vorgänger erreichte beim gleichen Test nur eine halb so lange Akkulaufzeit von etwa 7 Stunden. Wie lange der Akku wirklich durchhält, hängt natürlich vom Nutzerverhalten ab. Spiele oder Videos verbrauchen mehr Energie. Im Alltag dürfte das Galaxy S23 aber zwei Tage locker durchhalten.

Einziger Kritikpunkt wäre hier das Fehlen eines Netzteils im Lieferumfang – sowie die im Vergleich zur chinesischen Konkurrenz relativ langsame Ladegeschwindigkeit. Mit Netzteil lädt das Galaxy S23 maximal mit 25 Watt. Per Induktion sind 10 Watt möglich. Anker hat uns als Ladegerät das neue Power Port III zur Verfügung gestellt, das für die Galaxy-S-Reihe optimiert wurde. Damit war der Akku von 20 auf 100 Prozent in exakt einer Stunde aufgeladen. Weitere Ladegeräte zeigen wir in der Top 10: Die besten USB-C-Ladegeräte – billig lädt schneller als teuer.

Preis

Die UVP ist gegenüber dem Vorgängermodell um etwa 100 Euro gestiegen. Die Basis-Version mit 128 GB hat eine UVP von 949 Euro, mit 256 GB sind es 1009 Euro. Größere Speichervarianten gibt es nicht. Zu haben ist das Galaxy S23 mit 128 GB mittlerweile schon ab 500 Euro. Die Version mit 256 GB kostet rund 560 Euro.

Als Farben stehen Schwarz („Phantom Black“), Grün („Green“), Flieder („Lavender“) sowie Weiß („Cream“) zur Auswahl. Exklusiv im Online-Shop von Samsung gibt es noch die Farben Anthrazit („Graphite“), Rot („Red“), Gelb („Lime“) und Hellblau („Skye Blue“).

Fazit

Samsung ist mit dem Galaxy S23 ein wirklich großer Wurf gelungen. Es ist das derzeit beste kompakte Smartphone und bügelt nahezu alle Ärgernisse des Vorgängers aus. Die Leistung wirkt schier unerschöpflich, das OLED-Display ist brillant und die Kamera ist vorwiegend dank Software-Optimierungen noch mal ein bisschen besser geworden.

Es gibt nur wenig zu beanstanden, etwa den Preisanstieg, der aber auch bei der Konkurrenz zu erwarten ist sowie das Fehlen eines Netzteils. Zudem lädt das Galaxy S23 verglichen mit der Konkurrenz deutlich langsamer. Das wäre es aber auch schon mit den Schwächen.



Source link

Weiterlesen

Künstliche Intelligenz

20 Jahre Xbox 360: Microsofts Griff nach den Sternen


Bis zur Jahrtausendwende war Microsoft nicht direkt als Spielefirma bekannt. Klar, das damals noch vom Gründer Bill Gates geführte Unternehmen lieferte die Betriebssysteme, auf denen die PC-Spiele dieser Welt seit den frühen 80ern liefen. Und natürlich gab es schon immer Games, die mit Microsoft verbunden waren, allen voran die bereits seit 1982 existierende „Flight Simulator“-Reihe. Und eine Hardwaresparte hatte die Firma auch, die unter anderem zum Teil exzellente Produkte wie die „Microsoft Mouse“ oder die „SideWinder“-Reihe von Gamepads und Flightsticks auf den Markt brachte.

Weiterlesen nach der Anzeige

Aber eine eigene Konsole? Dieses Feld überließ man sehr lange Zeit den anderen. Während Nintendo, Sony und Sega einen Erfolg nach dem anderen feierten, streckte Microsoft seine Fühler erstmals Ende der 90er Jahre in diese Richtung aus – in Form des auf „Windows CE“ basierenden Betriebssystems, das Segas geliebte, aber letzten Endes leider sehr glücklose Dreamcast-Konsole befeuerte. Das scheint den Enthusiasmus der Redmonder Firma aber nicht gebremst zu haben, denn ziemlich genau drei Jahre nach der Erstveröffentlichung der Dreamcast brachte Microsoft endlich sein eigenes Spielsystem auf den Markt: die Xbox, ein Name, der sich aus dem ursprünglichen Arbeitstitel „DirectXbox“ ableitete. Das war ein mächtig gewaltiger Kasten, der schon sehr viel richtig machte (eingebaute Festplatte, Breitband-Internetnutzung, sehr entwicklerfreundliche Entwicklungsumgebung etc.) und Spielemarken wie „Halo“ oder „Ninja Gaiden“ etablierte.

Aus dem Stand heraus wurde die Xbox mit insgesamt etwa 24 Millionen verkauften Einheiten zum sehr soliden Erfolg. Zwar kein Vergleich zu den 160 Millionen der PlayStation 2, aber ein deutlicher Abstand zum GameCube (etwa 22 Mio.) und der Dreamcast (etwa 10 Mio.) Mit dem auf der E3 2005 offiziell angekündigten Nachfolgemodell sollte alles besser werden – weniger als die Weltherrschaft wollte Microsoft nicht akzeptieren!

Der Name dieses Nachfolger war nicht etwa „Xbox 2“, sondern „Xbox 360“. Eine ungewöhnliche Wahl. Laut Robbie Bach, dem damaligen Leiter der Entertainment-Sparte bei Microsoft, hatte das zum einen den Grund, dass man neben der seinerzeit ebenfalls kurz vor der Veröffentlichung stehenden PlayStation 3 nicht direkt numerisch veraltet aussehen wollte. Zum anderen sollte die neue Xbox mehr sein als „nur“ eine Spielkonsole: man sollte darauf auch Filme und TV-Sendungen schauen können, Musik hören, im Internet surfen – eben ein 360°-Entertainment-Angebot. Auch für das 2007 in den USA mit Streaming startende Netflix war die 360 eine wichtige Plattform.



Die Xbox 360 war auch das Zuhause ganz fantastischer Indie-Spiele wie zum Beispiel „Braid“ (2008).

(Bild: Microsoft)

Die stand ab dem 22. November 2005 in den nordamerikanischen Läden, anderthalb Wochen später folgte Europa. Die große weiße Verpackung mit den freundlichen grünen Ringen und dem schlichten „XBOX 360“-Schriftzug enthielt ein System, das für die Konsolen der damaligen Zeit mächtig viel Rechenpower in dem schmalen Gehäuse versteckte: Die Dreikern-CPU „Xenon“ auf PowerPC-Basis mit 3,2 GHz, 512 MB GDDR3-RAM und die ATI-GPU „Xenos“ mit 500 MHz. Für das Jahr 2005 war das ein feuriges Rennpferd!

Noch dazu war die Entwicklungsumgebung (anders als bei der etwa ein Jahr später veröffentlichten PlayStation 3) wieder sehr nutzerfreundlich. Microsoft konnte da schon auf zehn Jahre Erfahrung auch mit DirectX unter Windows zurückgreifen. Für die Xbox 360 zu entwickeln unterschied sich kaum von der klassischen PC-Programmierung – kein Wunder also, dass sich kleine und große Spielestudios mit großem Hallo auf das System stürzten. Rechnet man alle Laden- und Digitalveröffentlichungen via Xbox Live Arcade zusammen, erhielt die Xbox 360 während ihrer regulären acht Lebensjahre mehr als 2.100 Spiele.

Weiterlesen nach der Anzeige

Es war aber nicht nur die schiere Menge an möglicher Unterhaltung, die die Xbox 360 zu etwas sehr Besonderes gemacht hat, es war auch ihre Darreichungsform. Denn erst mit der 360 hielt standardmäßig echtes HD-Gaming in den Wohn- und Kinderzimmern dieser Welt Einzug. Auf PlayStation 2 und GameCube gab’s nur eine 480p-Ausgabe, und die erste Xbox ermöglichte zwar per se ein 720p-Signal, aber das wurde nur von sehr wenigen Spielen genutzt, und das auch nur in den USA im NTSC-Bildstandard – in PAL-Regionen war diese Funktion nicht verfügbar.

Die Xbox 360 dagegen war von Anfang an auf 720p (also „HD ready“) ausgelegt, mit dem im Oktober 2006 ausgelieferten Dashboard-Update folgte sogar noch Unterstützung für 1080p („Full HD“) über Komponenten- und VGA-Kabel. Später auch über HDMI bei neueren Konsolen-Modellen. Die 360 war mit ihren Anschlüssen anfangs sehr auf den US-Markt zugeschnitten, wo Komponenten-Eingänge für HD-Signale an den Fernsehern üblich waren. Und wenn man „Call of Duty 2“, „Kameo: Elements of Power“, „Need for Speed: Most Wanted“ oder „Peter Jackson’s King Kong“ (vier der 15 europäischen Starttitel) einmal in HD gespielt hat, war der Schritt zurück zu den flimmernden Matschpixeln unserer Vorväter ein schwerer.

Ein weiterer extrem wichtiger Verdienst der Xbox 360 war, dass sie Online-Gaming auf Konsolen massentauglich gemacht hat. Natürlich gab es schon vorher entsprechende Möglichkeiten, die Dreamcast zum Beispiel kam mit einem serienmäßig verbauten 56k-Modem daher. Für PlayStation 2 und GameCube gab es früher oder später entsprechende Netzwerk-Adapter, und schon die erste Xbox setzt via eingebauten Ethernet-Adapter auf Breitband-Internetnutzung.


Gears of War

Die Xbox 360 ist für viele mittlerweile legendäre Spielereihen berühmt. Darunter „Gears of War“, von dem es vier Teile auf der 360 gab…

(Bild:

Microsoft

)

Aber da war es noch mehr „Proof of Concept“ als echter Online-Service. Die echte Demokratisierung des Online-Gamings auf der Konsole kam mit der Xbox 360 und dem von Anfang an auf Spieletauglichkeit gebürsteten „Xbox Live“-Angebot daher, lange Zeit der mit Abstand beste Online-Service auf Konsolen. Spiele wie „Gears of War“, „Halo 3“, „Battlefield: Bad Company 2“ oder „Forza Motorsport 2“ waren schon für Solo-Spieler ein riesiger Spaß. Aber online, mit oder gegen echte Menschen, eröffneten sich ganz neue Unterhaltungswelten.

Dazu gehört auch der Spieleservice namens „Xbox Live Arcade“. Auch der nahm seinen Anfang auf der ursprünglichen Xbox, war da aber nur ein Nachgedanke. Auf der Xbox 360 war das eines der wichtigsten Argumente für kleinere Entwickler. Denn hier fanden sich nicht nur tolle Umsetzungen vieler Klassiker wie „Rez“, „Castlevania: Symphony of the Night“, „Ikaruga“, „Radiant Silvergun“ oder „Contra“ , sondern auch einige der besten Indie-Games aller Zeiten. Spiele wie „Braid“, „Geometry Wars: Retro Evolved“, „Bastion“, „Limbo“, „Super Meat Boy“ oder „Trials HD“ nahmen in der Xbox Live Arcade der 360 ihren Anfang.



Schon 2005 erschien das Effektfeuerwerk „Geometry Wars: Retro Evolved“ als Indy-Titel.

(Bild: Microsoft)

Natürlich lief nicht alles so glatt, wie es im Nachhinein klingt. So durfte anfangs in der Arcade nur in „Microsoft Points“ gezahlt werden, einer virtuellen Währung, die man sich für echte Euros kaufen musste – was immer nur in Blöcken ging, wie zum Beispiel 400 Points für 4,80 Euro. Auch durften die Arcade-Spiele anfangs nicht größer sein als 50 Megabyte. Aber sowohl dieses Größenlimit als auch das willkürliche Bezahlsystem verschwanden schnell wieder, und man durfte sich jeden Mittwoch auf mindestens ein neues XBLA-Spiel freuen.

Aber nicht jede Neuerung der 360 war automatisch eine gute Idee. Das Konzept der „Achievements“ zum Beispiel ist noch bis heute umstritten: Auf der einen Seite ist der über freigeschaltete Achievements stetig ansteigende „Gamerscore“ es eine nette Zusatzbelohnung für besonders aufmerksame oder verbissene Spieler. Auf der anderen Seite haben gewiefte Entwickler sehr schnell die Sogwirkung einfacher „Cheevos“ für sich entdeckt, und billig hingerotzte Games in die XBLA gedrückt, deren einzige Existenzberechtigung die sehr einfach freizuschaltenden Achievements waren. Aber egal, wie man zu diesem System steht, es hat sich durchgesetzt. Achievements oder deren Pendants finden sich heute auf der PlayStation, bei Steam, in Retro-Emulatoren und eigentlich irgendwie überall.

Auch bei anderen Ideen fragt man sich im Nachhinein, wieso das jemals durchgewunken wurde: Das „Kinect“-System, eine übergroße Kamera, die Bewegungen vor dem Fernseher erfasst und ins Spiel übertragen kann, hat in der Entwicklung und im Marketing hunderte Millionen US-Dollar gekostet – und sorgte letzten Endes nur für ein paar simple Spiele, die nie mit denen mithalten konnten, die es schon Jahre zuvor für Sonys „EyeToy“-System gab. Und das später nachgeschobene externe HD-DVD-Laufwerk floppte trotz mehrerer Preissenkungen – den Formatkrieg um HD-Discs hatte Sony mit der Blu-ray gewonnen. Die PlayStation 3 mit entsprechendem Laufwerk erschien erst ein Jahr nach der Xbox 360.

Und dann gab es natürlich auch noch den gefürchteten „Red Ring of Death“: Ein Hardwarefehler, der die erste Generation der Xbox 360 betraf, und seinen Namen der Ringanzeige an der Front der 360 verdankte. Die leuchtete beim regulären Betrieb ermutigend grün – aber wenn die Konsole kaputt war, dann strahlten die Segmente blutrot und nichts ging mehr.



Wenn man Pech hatte, dann gab die 360 mitten im Betrieb einfach auf und leuchtete nur noch rot. Das betraf aber nur frühe Konsolen.

(Bild: Paul Kautz)

2007 wurde das zu einem echten Problem für Microsoft, mehr und mehr Kunden berichteten von spontan ausfallenden Konsolen, den Autor dieser Zeilen erwischte es gleich drei Mal. Microsoft verlängerte die Garantie der Xbox 360 und tauschte alle vom Problem betroffenen Geräte auch anstandslos aus. Was aber natürlich abermals sehr viel Geld kostete. Offizielle Berichte sprechen von knapp 1,15 Mrd. US-Dollar, außerdem war das Vertrauen der Kunden angeknackst. In seiner eigenen YouTube-Dokumentation zur Geschichte der Xbox-Konsolen namens „Power On“ stellt Microsoft das Ganze als schnelle Problemlösung auf höchster Ebene dar, zeigt aber auch die Wut, die viele Spieler in den USA damals an den Konsolen ausließen. Der Fairness halber sei gesagt, dass auch die PlayStation 3 unter einem ähnlichen, aber weniger weitverbreiteten Problem namens „Yellow Light of Death“ (YLOD) litt.

Aber wenn die Konsole lief, dann lief sie wie geschmiert: Das Bild war wunderbar scharf, der Controller lag super in der Hand, der Ton donnerte in Dolby Digital aus den Boxen – das war eine ganz neue Spielewelt! „Gears of War“, „Forza Horizon“, „Halo“, „Mass Effect“, „Dead Rising“, „Lost Planet“, „Skyrim“, „Dead or Alive“, „Crackdown“, „Project Gotham Racing“, „Lost Odyssey“, „Blue Dragon“, „Fable“, „Alan Wake“, „Halo Wars“ – es gibt so viele Spiele und Serien, die auf der Xbox 360 entweder ihren Anfang nahmen, fortgesetzt wurden oder zu ihrer Bestform fanden.



Die Xbox 360 war vor allem im Westen populär. In Japan konnte sie (genau wie ihre Vorgängerin) nie richtig Fuß fassen – und das, obwohl es darauf exzellente Japano-RPGs wie „Lost Odyssey“ (2007) gab.

(Bild: Microsoft)

Es hat schon seinen Grund warum die Xbox 360 nicht nur bis heute mit mehr als 80 Millionen verkauften Exemplaren Microsofts bestverkaufte Konsole ist sondern auch die beliebteste. Die Firma hat aus den Erfahrungen und Fehlern der ersten Xbox gründlich gelernt und einen Nachfolger abgeliefert, der einfach alles sehr viel besser gemacht hat.

Exakt acht Jahre nach ihrem Erstverkaufstag folgte auf die 360 dann die Xbox One. Aber ob wir an die in weiteren zwölf Jahren auch noch so enthusiastisch zurückdenken werden?


(nie)



Source link

Weiterlesen

Beliebt