Connect with us

Künstliche Intelligenz

Von Legacy-Monolithen zu Self-contained Systems


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Legacy-System – kaum ein anderer Begriff schürt mehr Abneigung und Furcht im Herzen von Softwareentwicklerinnen und -entwicklern. Was einmal als flexible und einfache Anwendung begann, wuchs über die Jahre zu einem unüberschaubaren Monolithen heran, der sich nur noch unter größtem Aufwand weiterentwickeln, testen und deployen lässt.

Weiterlesen nach der Anzeige


Johannes Seitz

Johannes Seitz

Johannes Seitz ist als Softwarearchitekt und Trainer mit dem Schwerpunkt Domain-driven Design und Softwaremodernisierung bei INNOQ tätig.

Eine solche Anwendung ist ein typisches Beispiel für ein schlecht oder gar nicht modularisiertes System, bei dem eine Anpassung an einer Stelle weitere an anderen Stellen nach sich zieht. Architektinnen und Architekten sprechen von starker Kopplung. Sind alle Funktionen in einen großen, unstrukturierten Block Code gegossen, ist der Kopplungseffekt auch innerhalb dessen zu beobachten. Anpassungen können dann zu einem Fehlverhalten an einer unerwarteten, anderen Stelle führen.

Zerlegt man den Monolithen in lose gekoppelte Module, haben lokale Änderungen keine Anpassungen in anderen Systemen mehr zur Folge. Werden diese Module in Form von autonomen, aber miteinander integrierten Systemen umgesetzt, erhält man zusätzlich den Vorteil, dass sie weitgehend unabhängig voneinander deployt werden können. Dieser Ansatz ist der bekannte Microservices-Architekturstil [1], dem viele Architektinnen und Architekten allerdings inzwischen mit Skepsis gegenüberstehen, da die Komplexität schnell wächst.

Daneben gibt es noch einen einfacheren Ansatz, der ähnliche und noch weitere Vorteile verspricht: Self-contained Systems (SCS).

Die Self-contained-Systems-Architektur legt großen Wert auf eine hohe Unabhängigkeit verschiedener Module. Diese lose gekoppelte Systemarchitektur (siehe Textbox unten „Kleine Bausteine, lose verbunden“) verspricht, dass Teams einzelne Teile weitgehend unabhängig entwickeln und deployen. Während die relativ vage Definition eines Microservice als „unabhängig deploybarer Service, modelliert um eine fachliche Domäne“ [1] große Freiräume bei der Wahl des Architekturstils lässt, sind die Kriterien für Self-contained Systems klarer umrissen.

Weiterlesen nach der Anzeige

Eine starke Kopplung kann viele Formen annehmen, von eher technischen wie „Ich muss genau wissen, auf welcher IP dieser Dienst läuft“ oder „Jedes Mal, wenn ein Feld dazukommt, muss ich überall die Deserialisierungslogik updaten“ bis hin zu einer sehr subtilen Art der Kopplung: „Wenn ich fachlich an System A etwas ändere, muss auch zwangsweise System B angepasst werden“.

Zum Bau weitgehend unabhängiger Systeme ist vor allem die zuletzt genannte Form hinderlich. Es ist deshalb nicht nur notwendig, die technischen Implementierungsdetails zu abstrahieren, um so wenig Artefakte der Infrastruktur (Datenbank, Frontend und weitere) wie möglich zwischen Systemen zu teilen. Vielmehr müssen Schnittstellen zwischen Systemen gebildet werden, die möglichst viele der fachlichen Implementierungsdetails verstecken. Diese Empfehlung ist nicht neu, sondern geht auf die Arbeit von David Parnas in den 70er-Jahren zurück [2].

Um die fachlich abstrahierten Schnittstellen zu finden, bedienen sich Architektinnen und Architekten gerne aus dem Repertoire des strategischen Domain-driven Design [3]. Eine Faustregel für Self-contained Systems ist, dass jedes System idealerweise einen Bounded Context umsetzt, also einen abgeschlossenen Bereich mit einer einheitlichen, aus der Fachdomäne stammenden Sprachgebung.

Wie Microservices sind sie mit einer streng gezogenen fachlichen Grenze versehen, häufig handelt es sich dabei jedoch um einen kompletten Bounded Context – also einen abgeschlossenen Bereich mit einer einheitlichen, aus der Fachdomäne stammenden Sprachgebung – im Sinne des strategischen Domain-driven Design (DDD). Dadurch sind sie tendenziell größer als Microservices, sodass weniger Aufwand für Integration und Infrastruktur anfällt.

Zudem gibt es für SCS eine Reihe an Best Practices zur Systemintegration. SCS sollen bevorzugt auf Nachrichten nach dem Credo „fire and forget“ setzen und nach dem Versenden nicht auf Antwort warten. Synchrone Request-Response-Kommunikation (zum Beispiel über RESTful-Services) sollte vermieden werden. Dann entsteht ein System, das bei Teilausfällen sehr resilient reagiert.

Die Nutzeroberfläche wird stets als ein Teil des Self-contained System behandelt (eine Idee, die im Rahmen der Micro Frontends ebenfalls in der Microservices-Welt Fuß gefasst hat). In erster Linie bleibt hierdurch mehr Arbeit innerhalb eines Teams und es entstehen keine Frontend-Monolithen als Flaschenhälse. Ein weiterer, oft überraschender Effekt ist, dass sich in vielen Fällen ein Austausch von Datenstrukturen zwischen UIs und die dadurch entstehende fachliche Kopplung über geteilte Datenformate komplett vermeiden lässt. Entwickler können stattdessen Teile der Nutzeroberflächen des einen Systems in einem anderen verwenden.

Damit die unabhängige Entwicklung der verschiedenen SCS nicht in einem unterschiedlichen Look and Feel oder einem Wildwuchs von Integrationsansätzen endet, fordert die SCS-Architektur von allen Systemen, sich an eine gemeinsame, koordinierte Makroarchitektur zu halten. Dazu gehören beispielsweise die Verwendung bestimmter Integrationstechniken, UI-Komponenten oder Styleguides. Sie ermöglichen ein weitgehend reibungsloses Zusammenspiel im System of Systems.

Gerade die Best Practices zur Systemintegration eröffnen Migrationspfade, um eine gewachsene Architektur in kleinen, inkrementellen Schritten zu einer SCS-Architektur umzubauen. Eine Umstellung nach dem Big-Bang-Muster ist nach Erfahrung des Autors nur in seltenen Fällen empfehlenswert oder wirtschaftlich.


Konferenz betterCode() Modern Architecture

Konferenz betterCode() Modern Architecture

(Bild: RONY/Adobe Stock)

Die Online-Konferenz betterCode() Modern Architecture von iX und dpunkt.verlag am 25. März 2026 stellt aktuelle Konzepte der Softwarearchitektur vor wie Clean Architecture, Hexagonale Architektur oder Microservices. Design mit LLMs ist ebenso ein Thema wie Architektur für eine digitale Souveränität.

Der erste Schritt vom Monolithen zu SCS ist es, die Teilstücke zu identifizieren, die sich in ein eigenes SCS überführen lassen. Da die Zielarchitektur aus fachlich geschnittenen Systemen besteht, ist die im Monolithen enthaltene Fachlichkeit genauer zu analysieren. Diesen Schritt sollten Entwicklerinnen und Entwickler nicht auf die leichte Schulter nehmen, da sich bei der Aufteilung der Applikation in ihre verschiedenen Bausteine entscheidet, wie stark oder lose diese gekoppelt sind (siehe Textbox oben „Kleine Bausteine, lose verbunden“).

Eine Möglichkeit, eine Analyse der Fachdomänen durchzuführen, ist das Event Storming zur Identifikation der Bounded Contexts. Abbildung 1 zeigt das Ergebnis einer solchen Analyse für eine fiktive Car-Sharing-Anwendung. Dort wurden die fachlichen Domänen „Nutzerregistrierung“, „Fuhrparkmanagement“, „Trips“, „Abrechnung“ und „Kundendienst“ identifiziert. Bei der Analyse entstehen bereits erste Ideen, wie die verschiedenen Fachlichkeiten miteinander interagieren und welche Nachrichten sie miteinander austauschen.


Das Ergebnis der fachlichen Analyse dient dazu, sinnvolle Schnittstellen für den Legacy-Monolith zu finden (Abb. 1).,

Das Ergebnis der fachlichen Analyse dient dazu, sinnvolle Schnittstellen für den Legacy-Monolith zu finden (Abb. 1).,

Das Ergebnis der fachlichen Analyse dient dazu, sinnvolle Schnittstellen für den Legacy-Monolith zu finden (Abb. 1).

Hat sich im Dialog mit den Fachabteilungen eine Aufteilung gefunden, die die gewünschte fachliche, lose Kopplung widerspiegelt, beginnen Architektinnen und Architekten damit, Teile des Altsystems nach und nach durch neue SCS zu ersetzen. Diese arbeiten mit dem Altsystem zusammen, ohne dass Nutzer einen Unterschied feststellen. Das ist eine Herangehensweise, die auch Strangler Fig Application heißt, da eine neue Anwendung wie die namensgebende Würgefeige langsam aber sicher immer größere Teile des alten Wirtssystems überdeckt und es letztendlich abtötet (siehe Abbildung 2).


Die Strangler Fig Application übernimmt nach und nach immer mehr Funktionen des Legacy-Systems. Nutzerinnen und Nutzer sehen immer nur die Fassade (Abb. 2).,

Die Strangler Fig Application übernimmt nach und nach immer mehr Funktionen des Legacy-Systems. Nutzerinnen und Nutzer sehen immer nur die Fassade (Abb. 2).,

Die Strangler Fig Application übernimmt nach und nach immer mehr Funktionen des Legacy-Systems. Nutzerinnen und Nutzer sehen immer nur die Fassade (Abb. 2).

Ein gutes Kriterium für die Wahl der ersten Fachlichkeit, die aus dem Legacy-System herausgelöst wird, ist der dadurch entstehende Geschäftswert [4]. Die Migration fügt beispielsweise dem Legacy-System zusätzliche Funktionen hinzu, etwa einen Check-in-Prozess sowohl für den Desktop als auch das Smartphone. Fachlichen Wert kann eine Migration auch stiften, wenn sie einen akuten Schmerz mit dem Legacy-System beseitigt: besonders unzuverlässige, fehleranfällige Funktionen.

Der Aufwand der Migration ist ein weiteres Kriterium. Spielt die Fachlichkeit an vielen Stellen im Monolithen eine Rolle, kann diese starke Verwebung eine Re-Integration erheblich erschweren. Beide Kriterien können in einer 2×2-Entscheidungsmatrix kombiniert werden (siehe Abbildung 3). Fachlichkeiten, die sich in der rechten, oberen Ecke befinden, sind gute Kandidaten für ein erstes SCS. Eine weitere Technik zur Analyse, die sich in der DDD-Community immer größerer Beliebtheit erfreut, sind Core Domain Charts.


Eine Entscheidungsmatrix hilft dabei, das erste Self-contained System zu identifizieren (Abb. 3).,

Eine Entscheidungsmatrix hilft dabei, das erste Self-contained System zu identifizieren (Abb. 3).,

Eine Entscheidungsmatrix hilft dabei, Kandidaten für das erste Self-contained System zu identifizieren (Abb. 3).

Hat man sich für einen guten Kandidaten entschieden, ergeben sich eine Reihe technischer Fragen. Gerade hier wirken sich die Stärken der sehr losen Kopplung durch die SCS-Architektur positiv aus. Folgende Möglichkeiten gibt es:

Link Integration: Im einfachsten Fall springen Nutzer über einen Link im Altsystem in das neue. Eine kleine Menge von Daten sowie eine Rücksprungadresse für den Erfolgs- oder Fehlerfall können hier als Request-Parameter mitgegeben werden:


Zum Fahrzeug

UI-Inklusion: Auch eingebundene UI-Elemente erlauben eine sehr lose Kopplung zwischen zwei Systemen. Da nur Formate wie pures HTML und CSS ausgetauscht werden, muss das konsumierende System sehr wenig Details über Datenstrukturen oder deren Interpretation von dem Quellsystem wissen. Soll das System Kundendienst beispielsweise Stammdaten über ein Fahrzeug anzeigen, sind nicht die kompletten Datenstrukturen aus dem Fuhrparkmanagement erforderlich, vielmehr reicht eine kurze Beschreibung des Fahrzeugs (siehe Abbildung 4).


Ein UI-Element wird über HTTP von einem SCS geladen (Abb. 4).,

Ein UI-Element wird über HTTP von einem SCS geladen (Abb. 4).,

Ein UI-Element wird über HTTP von einem SCS geladen (Abb. 4).

Die Vorteile liegen auf der Hand: Entscheiden sich Architektinnen oder Architekten beispielsweise, die Daten eines Fahrzeugs anders zu benennen oder weitere Merkmale wie Kennzeichen aufzunehmen, kann das konsumierende System bleiben, wie es ist. Diese sehr lose Form der Kopplung wird jedoch durch eine Abhängigkeit zur Laufzeit bezahlt. Ist das Fuhrparkmanagement-SCS nicht verfügbar, liegen nur noch Stammdaten aus dem Cache vor.

Messaging zum Datenaustausch: Ist Laufzeitabhängigkeit bei der UI-Integration nicht erwünscht oder muss das System die Daten nicht nur anzeigen, sondern auch auswerten, ist eine Integration erforderlich, die zu einer stärkeren Kopplung zwischen beiden Systemen führt. Zu den Grundsätzen der SCS-Architektur gehört, dass jedes System über eine eigene Datenbank verfügen soll, die alle Daten enthält, die es benötigt. Verwenden mehrere Systeme bestimmte Daten, wird es nötig, sie zwischen den SCS auszutauschen.

Dabei hat sich eine Übertragung in Form von Domain Events bewährt. Dabei erzeugt ein System bei bestimmten Ereignissen (etwa beim Abschluss eines fachlichen Vorgangs) ein Domain Event mit allen relevanten Informationen (aber nicht mehr!) und publiziert es. Das konsumierende System kann auf die Publikation durch eigene Logik reagieren und seine eigene Kopie des entsprechenden Datensatzes anlegen oder anpassen. Bei der redundanten Speicherung ist es wichtig, genau festzulegen, welches System die Wahrheit definiert. Nur aus dieser Quelle sollten nachlaufende Systeme Daten konsumieren oder ändern.

Das oben beschriebene Event Storming hat bereits mögliche Events zur Integration identifiziert (siehe die orangefarbenen Kreise in Abbildung 1). Es gilt, diese zu relevanten Zeitpunkten aus dem Legacy-System heraus zu publizieren, sodass die neuen SCS sie konsumieren können.

Manchmal möchte ein System an anderer Stelle verortete Daten ändern oder anlegen. Am besten lässt sich das durch eine UI-Integration lösen: Muss etwa der Kundendienst einen Eintrag im Fuhrpark korrigieren, ist ein Sprung in die UI des Fuhrparkmanagements mit einem Rücksprung in das Kundendienst-SCS die beste Wahl. Ein Gegenbeispiel, bei dem diese Taktik nicht funktioniert, wäre die automatische Sperrung eines Benutzers, der seine Rechnungen nicht bezahlt. Hier kann ein Command (in Abbildung 1 grün) das Quellsystem anweisen, eine Änderung der Daten vorzunehmen. Das Quellsystem kann diese Anfrage jedoch ablehnen, wenn sie gegen die eigenen Regeln verstößt.

Integration über synchrone API-Aufrufe: Auch über eine RESTful API lässt sich ein anderes System direkt ansprechen. Da diese Methode Systeme zur Laufzeit stark aneinander bindet und zu einer fehleranfälligen, schwer abzufangenden Kaskade an blockierenden Aufrufen führen kann, gilt sie als letzter Ausweg. Sie kommt etwa dann zum Zuge, wenn die Daten aus dem Quellsystem viel zu umfangreich sind, um sie über Events zu replizieren, oder wenn sie nur durch die Anwendung fachlicher Logik quasi ad-hoc generiert werden können.

Auch nach der Wahl und Planung eines ersten SCS-Kandidaten bleiben Fragen offen: Wie soll in Zukunft ein gemeinsamer Look and Feel zwischen den Self-contained Systems und dem Monolithen hergestellt werden? Wie lässt sich eine gemeinsame Nutzer- und Rechteverwaltung etablieren? Diese und noch viele weitere Fragen müssen Architektinnen und Architekten nicht sofort oder zumindest nicht sofort richtig beantworten.

Ein wesentlicher Vorteil der inkrementellen Migrationsstrategie ist, dass die Konsequenz einer Fehlentscheidung nicht katastrophal ist. Solange nur ein oder zwei Systeme laufen, ist Zeit zum Lernen, welche Entscheidungen wirklich für alle Systeme als getroffen gelten (Stichwort Makroarchitektur) und welche besser lokal zu fällen sind (Mikroarchitektur). Viele Ansätze zur Integration, Sicherstellung der UI-Konsistenz oder für Single Sign-on hängen von den konkreten Gegebenheiten ab.

Die Makroarchitektur wächst mit jedem weiteren Self-contained System, während das monolithische System weiter schrumpft. Unterstützung in Form von Best Practices für die Makroarchitektur unabhängiger Systeme finden sich auch in den Prinzipien der Independent Systems Architecture, die mit SCS sehr gut harmonieren.

Mit Beharrlichkeit und einem Fokus auf Geschäftswert werden Architektinnen und Architekten eher früher als später eine Landschaft von gut modularisierten, lose gekoppelten SCS und die damit verbundenen Vorteile genießen lernen. Und eventuell werden sie feststellen, dass manche Teile ihres Systems gar keiner Migration bedürfen.

[1] Sam Newman; Building Microservices: Designing Fine-Grade Systems; 2021
[2] David Parnas; On the Criteria To Be Used in Decomposing Systems into Modules; 1972
[3] Eric Evans; Domain-Driven Design: Tackling Complexity in the Heart of Software, 2003
[4] Sam Newman; Monolith to Microservices: Evolutionary Patterns to Transform Your Monolith; 2019


(
who)



Source link

Künstliche Intelligenz

Ray-Ban Meta Smart Glasses: Neue Modelle und KI-Funktionen angekündigt


Meta erweitert sein Portfolio um eine neue Kategorie von Smart Glasses, die speziell für Korrekturgläser und ganztägigen Tragekomfort ausgelegt sind. Die sogenannten „Ray-Ban Meta Optics Styles“ unterstützen laut Meta nahezu alle Sehstärken und führen neue ergonomische Anpassungen für unterschiedliche Gesichtsformen ein, darunter flexiblere Scharniere, austauschbare Nasenpads und vom Optiker anpassbare Bügelenden.

Weiterlesen nach der Anzeige

Mit der neuen Produktkategorie reagiert Meta auf zwei der größten Kritikpunkte: einen begrenzten Bereich an unterstützten Dioptrien und eine mangelnde Eignung für den ganztägigen Einsatz. Laut The Verge ist die Sachlage beim Dioptrienbereich komplexer, als es auf den ersten Blick erscheint und ob die neuen Modelle beim Tragekomfort tatsächlich Abhilfe schaffen, muss ein Praxistest zeigen. Die neuen Smart Glasses kann man wohlgemerkt auch ohne Korrekturgläser bestellen.

Die ersten beiden Modelle der neuen Kategorie heißen „Blayzer“ und „Scriber“ und sie kommen mit zwei schlankeren Fassungen als bei früheren Ray-Ban Meta-Brillen. Blayzer hat eine rechteckige Form und ist in zwei Größen erhältlich, während das Scriber-Modell eine rundere Form aufweist. Sie sind in verschiedenen Farben erhältlich und werden mit einem dunkelbraunen Ladeetui geliefert.

Obwohl die neue Kategorie schlanker ausfällt, bringen die Modelle laut Meta alle Funktionen der bisherigen Ray-Ban Meta-Brillen mit. Ob sie an anderer Stelle Kompromisse aufweisen, ist noch unklar. Gewichtsangaben macht Meta nicht.

Die Brillen können ab sofort in den USA über Meta und Ray-Ban vorbestellt werden und sind Meta zufolge ab dem 14. April bei Optikern in den USA sowie in „ausgewählten internationalen Märkten“ erhältlich. Meta nennt im deutschen Webstore einen Einstiegspreis von 469 Euro. Damit liegen die schlankeren und ergonomischeren Modelle preislich über dem Niveau der ersten Generation (ab 329 Euro) und zweiten Generation (ab 419 Euro) der Ray-Ban Meta-Brillen.

Für das bestehende Portfolio kündigt Meta neue Farben und Linsen an. Die Sportbrillen Oakley Meta HSTN und Oakley Meta Vanguard erhalten neue Kombinationen aus Farben und Gläsern, während die zweite Generation der Ray-Ban-Meta-Brillen im Frühjahr und Sommer drei neue, zeitlich limitierte Farbvarianten bekommt.

Weiterlesen nach der Anzeige

Metas Smart Glasses erhalten zudem portfolioübergreifend neue KI-Funktionen rund um Ernährung und WhatsApp. Die Erfassung der eigenen Ernährung soll dadurch deutlicher einfacher werden. Nutzer können Mahlzeiten per Sprachbefehl oder Foto erfassen, woraufhin Meta AI Nährwertinformationen extrahiert und in der entsprechenden App protokolliert. Auf dieser Basis erstellt das System mit der Zeit personalisierte Empfehlungen und kann auch situativ Ernährungstipps geben. Diese Funktionen starten demnächst in den USA auf den Ray-Ban- und Oakley-Modellen und im Sommer auf der Meta Ray-Ban Display, die derzeit nur in den USA verkauft wird.

Zusätzlich führt Meta neue KI-Funktionen für WhatsApp ein. Künftig lassen sich eingehende Nachrichten per Sprachbefehl von Metas KI-Assistent zusammenfassen oder gezielt durchsuchen, etwa nach konkreten Details aus einem Chat. Die Verarbeitung erfolgt dabei direkt auf dem Gerät und bleibt durch E2E-Verschlüsselung geschützt. Die Funktionen werden bald für Betatester aller bislang erhältlichen Modelle freigeschaltet.

Die Meta-Ray Ban Display hat diesen Monat bereits eine Reihe neuer Features erhalten. Für das Frühjahr kündigt Meta nun weitere Funktionen an. Künftig sollen Nutzer ihre Perspektive und den Inhalt des Displays gleichzeitig aufzeichnen können. Die digitalen Einblendungen und das Kamerabild werden dabei in einem Video kombiniert, das sich teilen lässt. Darüber hinaus wird die visuelle Fußgängernavigation ausgeweitet: Ab Mai soll sie in allen Städten der USA verfügbar werden und Schritt-für-Schritt-Anweisungen direkt im Sichtfeld anzeigen.

Auch das Meta Neural Band, das der Meta-Ray Ban Display beiliegt, wird in den kommenden Wochen per Update erweitert: Die im Januar eingeführte Fingerschrift verlässt die Testphase und erreicht bald alle US-Nutzer. Zudem wird sie künftig auch mit iMessage kompatibel sein. Bislang unterstützte die Funktion lediglich Instagram, WhatsApp, Messenger und die native Nachrichten-App von Android.

Die Ray-Ban Meta- und Oakley Meta-Brillen werden in den kommenden Monaten auf weitere Märkte ausgeweitet, darunter Japan, Südkorea, Singapur, Chile, Kolumbien und Peru. Zudem baut Meta die Live-Übersetzungsfunktion für diese Modelle aus. Ab dem Sommer sollen sie insgesamt 20 Sprachen unterstützen, darunter Mandarin, Koreanisch, Japanisch und Arabisch. Bisher unterstützte die Live-Übersetzung Englisch, Deutsch, Französisch, Italienisch, Spanisch und Portugiesisch.


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Milliarden-Deal: Nvidia steigt bei Marvell ein


Die KI-Branche läuft weiter heiß. Der US-Chip-Konzern Nividia hat zwei Milliarden US-Dollar in Marvell Technology investiert. Beide Unternehmen gehen zudem eine strategische Partnerschaft ein. Diese soll Kunden, die auf Nvidia-Architekturen aufbauen, die Nutzung der von Marvell entwickelten, kundenspezifischen KI-Chips in Kombination mit Nvidias Netzwerkkomponenten und Prozessoren erleichtern. Das teilten beide Unternehmen am Dienstag in gleichlautenden Erklärungen mit.

Weiterlesen nach der Anzeige

Durch die Partnerschaft erhalten die Kunden „mehr Auswahl und Flexibilität bei der Entwicklung von Infrastrukturen der nächsten Generation“, heißt es. Marvell wird demnach kundenspezifische Chips und mit Nvidias NVLink Fusion kompatible Netzwerklösungen beisteuern, während der Nvidia unterstützende Technologien wie CPUs, Netzwerkkarten und Verbindungen bereitstellt.

„Der Wendepunkt in der KI-Entwicklung ist erreicht. Die Nachfrage nach Token-Generierung steigt rasant, und weltweit wird mit Hochdruck an der Entwicklung von KI-Fabriken gearbeitet“, wird Nvidia-CEO Jensen Huang in der Mitteilung zitiert. „Gemeinsam mit Marvell ermöglichen wir unseren Kunden, das KI-Infrastruktur-Ökosystem von Nvidia zu nutzen und spezialisierte KI-Rechenkapazitäten zu skalieren.“

Die Partnerschaft mit Nvidia unterstreiche die wachsende Bedeutung von Hochgeschwindigkeitsverbindungen, optischen Verbindungen und beschleunigter Infrastruktur für die Skalierung von KI, erklärte der CEO von Marvell, Matt Murphy. „Durch die Verbindung von Marvells führender Expertise in den Bereichen analoge Hochleistungselektronik, optische digitale Signalverarbeitung (DSP), Siliziumphotonik und kundenspezifische Siliziumtechnologie mit Nvidias wachsendem KI-Ökosystem mittels NVLink Fusion ermöglichen wir unseren Kunden den Aufbau skalierbarer und effizienter KI-Infrastrukturen.“

Jacob Bourne, Analyst bei dem Marktforschungsunternehmen eMarketer verweist gegenüber der Nachrichtenagentur Reuters darauf, dass bei KI-Systemen und -Rechenzentren deren Skalierbarkeit sowie Bandbreite und Energieeffizienz eine Schlüsselrolle spielen. „Die Übernahme [von Marvell, Anm.] erweitert Nvidias Ökosystem um spezialisiertere Siliziumchips und stärkt damit Nvidias Position als zentraler Zugangspunkt für zunehmend vielfältige KI-Workloads“, so der Experte.

Beide Unternehmen werden außerdem zusammenarbeiten, um fortschrittliche Netzwerklösungen für KI voranzutreiben, darunter optische Verbindungslösungen und Siliziumphotoniktechnologie, die eine schnelle und energieeffiziente Datenübertragung ermöglichen, kündigten sie an.

Angesichts des weltweiten KI-Booms investieren die großen Tech-Konzerne derzeit Milliarden in den Aufbau von KI-Infrastruktur. Im vergangenen Herbst kündigte Nvidia zusammen mit OpenAI das „größte KI-Infrastrukturprojekt der Geschichte“ an und dafür insgesamt 100 Milliarden US-Dollar in den ChatGPT-Entwickler zu investieren. Geplant wurden mehrere Rechenzentren, die mit zehn Gigawatt einen Energiebedarf aufweisen sollten, welcher der Leistung von zehn Kernkraftwerken entsprechen würde. Mittlerweile klingen die OpenAI-Pläne von Nvidia weniger forsch. Zwar dementierte Nvidia-CEO Huang Medienberichte, wonach die Investitionspläne auf Eis gelegt wurden. Aber auch die ursprünglich genannte Summe von 100 Milliarden US-Dollar erscheint nunmehr unrealistisch. Nvidia will zwar weiter in OpenAI investieren – aber keine 100 Milliarden.

Weiterlesen nach der Anzeige


(akn)



Source link

Weiterlesen

Künstliche Intelligenz

E-SUV BMW iX3 40: Einstiegsmodell mit 235 kW und 635 km Reichweite


Nur wenige Wochen nach der Markteinführung des neuen BMW iX3 in Deutschland bringt BMW eine günstigere, zweite Antriebsvariante heraus. Das neue Einstiegsmodell BMW iX3 40 ist als Basis-Version des iX3 mit Heckantrieb mit stromerregter Synchronmaschine (SSM) ausgestattet und leistet 235 kW. Das Drehmoment gibt der Hersteller mit 500 Nm an. Von null auf 100 km/h sollen damit 5,9 Sekunden vergehen, abgeregelt wird erst bei 200 km/h.

Weiterlesen nach der Anzeige

Ein statt den 108,7 kWh des iX3 50 xDrive netto nur 82,6 kWh fassender Akku soll bei einem kombinierten WLTP-Verbrauch von 14,6 kWh/100 km eine Reichweite von bis zu 635 Kilometer ermöglichen. Deutlich geringer ist trotz 800–Volt-Spannungslage des Cell-to-Pack-Speichers die maximale DC-Ladeleistung mit 300 kW als die des bislang einzigen erhältlichen BMW iX3 50 Xdrive. Allerdings hat BMW die Akkukapazität so gewählt, dass die Ladung von 10 auf 80 Prozent mit 21 Minuten gleich lang dauert. Fürs AC-Laden wird der iX3 40 serienmäßig mit einem 11-kW-AC-Ladegrät geliefert, der 22-kW-Lader kostet Aufpreis.

Wie bereits für den iX3 50 bietet BMW eine bidirektionale Ladefunktion an, die es ermöglicht, den Wagen als Energiespeicher zu Hause zu nutzen, was besonders sinnvoll in Verbindung mit einer eigenen Stromerzeugung, beispielsweise per Photovoltaik ist.

Da der BMW i3 auf der gleichen technischen Basis aufbaut, dürfte die kommende i3-Antriebsvariante mit ähnlichen Eckdaten zu erwarten sein. Der BMW iX3 40 ist ab Sommer 2026 zu einem Preis ab 63.400 Euro erhältlich, rund 7500 Euro günstiger als der iX 50, aber etwas über den zunächst angekündigten 60.000 Euro.

Mehr zu Elektroautos


(fpi)



Source link

Weiterlesen

Beliebt