Künstliche Intelligenz
USA: Der schwierige Weg zur Hochgeschwindigkeitsnation mit der Bahn
Wer die USA auf der Schiene bereisen will, fühlt sich fast wie in einer anderen Zeit. Teils wunderschöne, aber alte sogenannte Union Stations als Hauptbahnhöfe, Gepäckwagen mit Check-in-Service für das Großgepäck und Reisezeiten aus längst vergessenen Zeiten, sind das, was die Fernzüge des US-Anbieters Amtrak meist ausmacht. Insbesondere, wenn man mal wirkliche Verspätungen erlebt hat, die durchaus mehr als einen Tag lang sein können. Die Gründe diesbezüglich sind vielfältig und teils in unterschiedlichen Infrastrukturansätzen begründet, teils aber auch operativen Prioritäten geschuldet. Während hierzulande der Fernverkehr Priorität genießt und auch mal kurz vor dem Endbahnhof noch Regionalzüge zum Warten zwingt, ist das in den USA anders.
Weiterlesen nach der Anzeige
Der Güterverkehr genießt in weiten Teilen Priorität oder nimmt sich diese, was auch regelmäßig zu Streit führt. Die Fernzüge von Amtrak dürfen dann warten, denn Amtrak fährt mit seinen wenigen Fernzügen nur selten auf eigener Infrastruktur und ist von anderen Betreibern abhängig. Die Pünktlichkeitsstatistiken etwa aus dem Jahr 2021 (PDF) lassen jedenfalls selbst die Deutsche Bahn noch gut aussehen. Immerhin gibt es hier und da Fortschritte. So hat das US-Justizministerium im September etwa eine außergerichtliche Einigung zwischen Norfolk Southern und Amtrak bekannt gegeben.
Demnach bekommen Amtrak-Züge nun die höchste Priorität auf der Infrastruktur von Norfolk Southern. Seit sich das Justizministerium Mitte 2024 eingeschaltet hat, haben sich die Verspätungsminuten um 53 Prozent reduziert. Dabei ist in den USA so wenig im Fernverkehr los, dass es leicht ist, fast alle Züge zu beobachten. Amtraks Track a Train ermöglicht dies.

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Viel Verkehr ist die Ausnahme
Es gibt in den USA natürlich einige Ausnahmen. Neben klassischen Pendlerzügen (morgens rein, abends raus) gibt es vereinzelt auch höher frequentierten Fernverkehr. An der Westküste ist etwa zwischen Seattle über Portland nach San Francisco etwas mehr los. Vor allem Seattle und Portland haben Verbindungen, wo Fahrgäste auch mal einen Zug verpassen können. Selbiges gilt zwischen San Diego und Los Angeles. Über San Francisco sind diese beiden Gebiete auch einigermaßen gut miteinander verbunden. Sonst ist aber ein Tag pro Richtung nicht ungewöhnlich, wie die Verbindung zwischen den Twin Cities (Minneapolis/St. Paul) und Chicago.
Noch besser geht es dem North East Corridor (NEC) zwischen Boston über New York City nach Washington D.C. Hier ist auch eines von insgesamt zwei Hochgeschwindigkeitsnetzen der USA im Betrieb. Dort fahren die Amtrak Acela, die Hochgeschwindigkeitszüge von Amtrak. Die wurden kürzlich sogar um neue Züge (Nextgen Acela von Alstom) ergänzt und können nun 160 mph oder 258 km/h fahren. Die alten Züge fuhren nur 150 mph. Das Dumme daran: Der NEC bietet kaum Gelegenheiten, diese Geschwindigkeit zu erreichen. Vor der Einführung dieser Züge lag die Durchschnittsgeschwindigkeit bei etwa 70 mph oder 112 km/h. Das liegt aber nicht an den vielen Halten, sondern an der Strecke. Große Teile davon sind auf Geschwindigkeiten zwischen 70 und 100 mph beschränkt. Dazu kommen Bahnhofseinfahrten mit engen Kurven, die sich nicht umfahren lassen.
Das zweite Hochgeschwindigkeitsnetz befindet sich in Florida mit der Brightline. Dieselzüge erreichen dort immerhin 125 mph oder etwas über 200 km/h, wobei der größte Teil der Strecke auf 110 mph limitiert ist. Das ist besser als der NEC, aber aus deutscher Sicht eher eine schnelle Regionalbahn. Hierzulande fährt etwa der Franken-Thüringen Express mit 190 km/h und auch zwischen München und Nürnberg fahren Regionalbahnen ähnlich schnell. Mehr geht in den USA bisher nicht. Doch das soll sich durchaus ändern.
Weiterlesen nach der Anzeige
Hoffnungsträger Brightline West nach Las Vegas
Ein für die USA wichtiges Hochgeschwindigkeitsprojekt ist die Brightline West. Sie soll bis 2030 Las Vegas mit dem Großraum Los Angeles verbinden. Der Termin wurde allerdings kürzlich auf 2029 verschoben, es wird also knapp. Wer Eisenbahnprojekte in den USA kennt, weiß, dass es hier zu massiven Verzögerungen kommen kann. In geringem Maße gibt es auch schon vorbereitende Baumaßnahmen für die Brightline West. Richtig losgehen soll es aber erst 2026.
Das Projekt hat dabei einen großen Vorteil: Die Strecke orientiert sich an dem „Right of Way“ der Interstate 15. Das soll den Bau massiv vereinfachen, auch weil die Landgewinnung weniger problematisch ist. Das Besondere: Die Casino-Stadt Las Vegas, in der auch die jährliche Technikmesse CES stattfindet, hat schon lange keinen Fernbahnanschluss mehr. Amtrak hat die Stadt für den Personenverkehr auf der Schiene aufgegeben. Brightline West bringt diesen zurück, wenn auch anders als früher.
Es werden nämlich nur 350 Kilometer gebaut. Die Brightline West wird auf der Seite von Los Angeles in der Nähe des Flughafens Ontario (CA) enden, genauer in Rancho Cucamonga. Dort heißt es dann: Umsteigen in die San Bernardino Metrolink Line, die Los Angeles‘ Union Station in etwa 1:15 Stunden erreichen kann. Immerhin: Brightline will mit Metrolink nicht nur über die Fahrpläne reden, sondern auch über kombinierte Tickets.
Brightline wird nur bis Vegas-Vorort fahren
In Las Vegas endet die Brightline West auch nicht ideal. Sie wird ziemlich weit südlich des berühmten Strips mit seinen Hotels, der selbst in großen Teilen gar nicht zu Las Vegas gehört, ankommen. Formal fährt die Brightline also nur bis zum Vegas-Vorort Paradise. Da Las Vegas keinen echten Schienenpersonennahverkehr hat, wird wohl ein Transit Center Fahrgäste von und zur Brightline-Station bringen. Taxis, wenige Busse und Ridesharing dürften das übernehmen. Wer den ÖPNV in Las Vegas mal benutzt hat, weiß, dass das recht herausfordernd und vor allem langsam ist.
Das alles relativiert die recht kurze Reisezeit von zwei Stunden auf der Brightline West. Auf beiden Seiten kommt noch einiges an Reisezeit dazu. Allerdings liegen auch die Flughäfen nicht gerade ideal. Von Haustür zu Haustür sind mit dem Zug wohl vier bis fünf Stunden zu erwarten. Das Flugzeug dürfte mit allem Drumherum ähnliche Reisezeiten bieten.
Dafür kann man von der Brightline West viel erwarten. Die Brightline in Florida ist für die USA ein Vorbild, was Bahnhofsdesign und multimodale Integration angeht. Brightline West plant ersten Renderings zufolge Vergleichbares. Das kann man übrigens auch von den Zügen erwarten. Wenn der Betreiber den Standard der Brightline-Züge übernimmt, dürfte Reisen angenehm werden.
Züge aus deutscher Entwicklung
Das Rollmaterial wird Siemens Mobility stellen. Zehn American Pioneer 220 (AP220) sind für die Flotte vorgesehen. Die 220 steht für die Höchstgeschwindigkeit in Meilen. Es sind also Geschwindigkeiten von 354 km/h in der Spitze geplant.

Der American Pioneer 220 soll auf der Brightline West fahren.
(Bild: Siemens Mobility)
Technisch nutzt Siemens die in Entwicklung befindliche Velaro-Novo-Plattform. Ein Mittelwagen hat in Deutschland kürzlich in Verbindung mit dem Messzug ICE S fast einen neuen deutschen Rekord aufgestellt und erreichte 405 km/h. Das Triebdrehgestell des Velaro Novo lief beim damaligen Test übrigens einfach mit, ohne den Zug anzutreiben, so Siemens. Damit sind die Reserven für einen Betrieb mit 350 km/h schon einmal erreicht. Nach Angaben von Siemens reichten dafür schon 390 km/h bei einem Zertifizierungsziel von 360 km/h.
Kalifornien steckt in Schwierigkeiten
Sehr viel länger in der Planung und auch im Bau befindet sich das Projekt California High-Speed Rail (CAHSR). Das soll einmal San Francisco mit Los Angeles verbinden. Das Potenzial ist also da. Allein zwischen den beiden Hauptflughäfen (SFO und LAX) sind an manchen Tagen um die 40 Flugzeuge je Richtung unterwegs. Dazu kommen Flughäfen wie etwa Oakland, San José (Valley-Seite) oder Burbank und Ontario (Metro Los Angeles).
Trotz zahlreicher Vorbereitungen, insbesondere in San Francisco, wird es aber absehbar keine direkte Verbindung zwischen den Städten geben. Aktuell gibt es nämlich nur zwischen Merced (knapp unter 100.000 Einwohner) und kurz vor Bakersfield (ca. 400.000 Einwohner) im Süden Bauarbeiten, was wohl der ersten Betriebsphase entspricht. Sicher ist das aber nicht, denn es gibt auch Berichte, dass CAHSR das Initial Operating Segment noch mal überdenken will. Statt Merced könnte Gilroy angefahren werden, was südlich von San José und sich damit zumindest in der Nähe des Silicon Valleys befindet.
Nach San Francisco könnte es dann vielleicht doch schneller gehen als zuletzt angenommen. Denn dort sind viele Vorbereitungen für die Aufnahme von CAHSR-Zügen schon abgeschlossen. Die Züge von Caltrain operieren bereits seit letztem Jahr unter einer Oberleitung und damit fast vollelektrisch von San Francisco bis Tamien. Zwischen Tamien und Gilroy fahren die Züge aber weiterhin mit Diesel. Immerhin wäre so ein Umstieg in Richtung San Francisco möglich.
Wann das der Fall sein wird, kann aber kaum jemand sagen. Für das initiale Segment soll Anfang der 2030er-Jahre der Betrieb beginnen. Das Startdatum wird aber regelmäßig nach hinten geschoben. Vieles rund um CAHSR ist bis heute unklar. Das gilt sogar für das Rollmaterial.
Letztendlich plagte das CAHSR-Projekt auch immer die Sorge um das Geld. Gleichzeitig haben die USA auch kaum praktische Erfahrungen mit dem Bau von Neubaustrecken in diesen Dimensionen, was dieses Projekt gut beweist.
Das US-Verkehrsministerium hat übrigens Ende August 2025 CAHSR Mittel in Höhe von 4 Milliarden US-Dollar entzogen. Seit September stellt aber der Bundesstaat Kalifornien rund eine Milliarde US-Dollar pro Jahr bis 2045 sicher.
Eine Magnetbahn für den Nordost-Korridor?
Kaum Aktivität gibt es noch um ein Projekt, das eine Magnetschwebebahn zwischen Washington D.C. und Baltimore vorschlägt. Northeast Maglev heißt das Projekt, das allerdings noch nicht sonderlich weit ist. Es gibt noch nicht einmal eine festgelegte Strecke.
Technisch soll die US-Magnetbahn auf dem japanischen Chūō-Shinkansen basieren, der sich in Japan derzeit im Bau befindet und den bisherigen Tōkaidō-Shinkansen entlasten soll. Der Zug soll im Betrieb Geschwindigkeiten um die 500 km/h erreichen.

Der vorgeschlagene Betrachtungsraum für eine Magnetbahn in den USA.
(Bild: Northeast Maglev)
Die Kosten wurden zuletzt auf 10 Milliarden bis 15 Milliarden US-Dollar geschätzt. Es ist allerdings eher unwahrscheinlich, dass das Projekt in absehbarer Zeit realisiert wird, zumal die Unterstützung des Bundes fehlt. Offiziell hat das US-Verkehrsministerium auch diesem Projekt im August das Geld entzogen.
Ein schwerer Weg mit wenig Hoffnung
Schnell mit dem Zug in den USA zu fahren, wird für die Bevölkerung weiterhin ein kaum erreichbarer Traum bleiben. Amtraks Acela und die Brightline in Florida sind die einzigen Systeme, die zumindest in die Nähe von Hochgeschwindigkeitsverkehr kommen.
Etwas Hoffnung gibt es für die California High Speed Rail zwischen Los Angeles und San Francisco. Das Projekt zieht sich jedoch hin und es ist nicht klar, wann durchgehende Züge zwischen Los Angeles als größter Stadt Kaliforniens und dem Silicon Valley möglich sein werden.
Die beste Chance hat aktuell die Brightline West, obwohl das Projekt recht spät startete. Die Brightline East hat allerdings bereits gezeigt, dass Higher Speed Rail durchaus auf einer längeren Strecke mit komfortablem Wagenmaterial und modernen Bahnhöfen machbar ist. Mittlerweile wurde die Strecke so weit im Norden erweitert, dass sie auch als High Speed Rail klassifiziert werden kann, wenn auch sehr knapp und in Abhängigkeit von der Definition. Sollte aber alles klappen, dürfte die Verbindung zwischen Los Angeles und Las Vegas die erste sein, die man guten Gewissens dem Hochgeschwindigkeitsverkehr zuordnen kann. Für das Projekt spricht auch, dass es initial zumindest die Metropolregionen erreichen soll. Bei Bahnprojekten in den USA ist jedoch Vorsicht geboten: Es kann trotz allem noch viel schiefgehen.
(nen)
Künstliche Intelligenz
In acht Schritten zur digitalen Souveränität
Die Abhängigkeit von einzelnen Tech-Anbietern und proprietären IT-Infrastrukturen rückt zunehmend ins Zentrum strategischer IT-Planung. Öffentliche Organisationen und Unternehmen müssen sich heute in einem komplexen Geflecht aus selbst entwickelten Anwendungen, zugekauften SaaS-Lösungen und grenzüberschreitenden Datenflüssen zurechtfinden. Entscheidend ist dabei, langfristig die digitale Souveränität zu sichern – sprich, die volle Handlungsfähigkeit über die eigene IT zu bewahren. Doch wie lässt sich der Weg dorthin strukturiert gestalten?
Weiterlesen nach der Anzeige

Holger Pfister ist General Manager für die DACH-Region bei SUSE. Er ist verantwortlich für das gesamte Geschäft von SUSE in Deutschland, Österreich und der Schweiz. Als Vorstandsmitglied der Open Source Business Alliance setzt er sich besonders für den Einsatz von Open Source in der öffentlichen Verwaltung ein. In seiner Rolle bei SUSE unterstützt er Unternehmen, öffentliche Verwaltung und Partner dabei, resilientere IT-Infrastrukturen zu schaffen, die einen entscheidenden Beitrag zur Erreichung der digitalen Souveränität bilden.
Schritt 1: Stakeholder einbinden und konkreten Souveränitätsbedarf identifizieren
Digital souverän zu werden ist ein Prozess, der – wie die meisten Transformationsvorhaben – mit einem offenen Dialog beginnt. Im ersten Schritt gilt es, mit den wichtigsten Anspruchsgruppen wie Vorstandsmitgliedern, Technologiepartnern und IT-Teams ins Gespräch zu gehen, um ihre Anforderungen, Bedenken und Prioritäten zu verstehen. Auf dieser Grundlage lassen sich gemeinsam der Transformationsprozess gestalten und die zentralen Themen identifizieren.
All diese Stakeholder bringen unterschiedliche Anforderungen und Perspektiven zu wesentlichen Fragen ein: Wo sollen sensible Daten liegen? Wer darf darauf zugreifen? Und wie lässt sich eine technologische Abhängigkeit von einzelnen Anbietern vermeiden? Antworten auf diese Fragen geben nicht nur Einblicke in die jeweiligen Bedürfnisse, sondern auch die möglichen Risiken. So bilden diese Gespräche die Grundlage für tragfähige Entscheidungen in den drei zentralen Handlungsfeldern: Daten, Betrieb und Technologie.
Schritt 2: Regulatorische Veränderungen beobachten
Nachdem die internen Bedürfnisse, Risiken und Prioritäten ermittelt wurden, gilt es im nächsten Schritt, auch die äußeren Rahmenbedingungen ins Visier zu nehmen. Datenschutz, Datenlokalisierung und Kontrollmechanismen rücken weltweit zunehmend in den Fokus staatlicher Regulierung. Programme wie FedRAMP in den USA, das neuseeländische Informationssicherheits-Manual (NZISM) oder Chinas Strategie zur technologischen Eigenständigkeit sind nur einige Beispiele für nationale Regelwerke, die digitale Souveränität auf sehr unterschiedliche Weise definieren.
Auch innerhalb der EU existiert ein komplexes Zusammenspiel aus europaweiten Vorgaben, wie die DSGVO, die NIS2-Richtlinie und die DORA-Verordnung. Hinzu kommen nationale Initiativen wie Frankreichs SecNumCloud oder Deutschlands Cloud Computing Compliance Criteria Catalogue (C5). Diese Regelwerke verfolgen zwei zentrale Ziele: europäische Daten zu schützen und die Unabhängigkeit von außereuropäischen Anbietern in strategischen Bereichen wie Verteidigung, Finanzwesen oder Gesundheit zu sichern.
Weiterlesen nach der Anzeige
Für Organisationen bedeutet das, regulatorische Entwicklungen stets im Blick zu behalten und ihre Strategien entsprechend anzupassen. Offizielle Quellen wie EUR-Lex oder Informationsangebote der EU-Kommission helfen, den Überblick zu bewahren.

Wie können Unternehmen und Behörden ihre IT aus den Abhängigkeiten von US-Hyperscalern, amerikanischen oder chinesischen KI-Anbietern und Softwareherstellern lösen? Das diskutieren Fachleute aus Politik, Wirtschaft und Wissenschaft am 11. und 12. November auf dem IT Summit by heise in München. Vorträge und Speaker finden Sie im Programm des IT Summit. Am ersten Konferenztag findet zudem ein kostenloser Workshop statt, der zeigt, wie Open-Source-Lösungen zur digitalen Souveränität und Cybersicherheit beitragen können. Buchen Sie jetzt Ihr Ticket.
Schritt 3: Ökosystem und Software-Lieferkette kartieren
Ein wesentlicher Baustein auf dem Weg zur digitalen Souveränität ist ein genaues Verständnis der gesamten Software-Lieferkette sowie ihre lückenlose Dokumentation. Ein hilfreiches Werkzeug dafür ist eine Software Bill of Materials (SBOM). Sie wird besonders für kritische Anwendungen eingesetzt und basiert auf anerkannten Standards wie SPDX oder CycloneDX. So macht es eine SBOM möglich, sämtliche Softwarekomponenten, deren Herkunft sowie bestehende Abhängigkeiten systematisch zu erfassen.
Besondere Aufmerksamkeit sollten dabei Anwendungen erhalten, die hochsensible Daten verarbeiten, darunter personenbezogene Informationen, Finanzdaten oder Daten, die unter die Definition kritischer Infrastrukturen fallen. Solche Anwendungen unterliegen in der Regel besonders strenger behördlicher Überwachung und Compliance-Anforderungen.
Schritt 4: Workloads nach Souveränitätsrisiko klassifizieren
Neben besonders sensiblen Anwendungen gilt es, alle alltäglichen Workloads zu erfassen und zu bewerten. Ein wichtiger Schritt ist es, jene Workloads zu identifizieren, bei denen Organisationen ihre Daten zwingend auf eigenen Servern oder in vollständig isolierten, netzwerkabgeschotteten Umgebungen verarbeiten müssen. Technische Maßnahmen können hier den entscheidenden Unterschied machen, etwa ein Open-Source-Stack mit Kubernetes-Orchestrierung, Air-Gap-Fähigkeiten und eigenem Paketmanagement.
Für stark regulierte Umgebungen empfiehlt es sich zudem, auf die Absicherung der Software-Lieferkette zu achten, etwa durch Zertifizierungen nach Common Criteria EAL 4+ oder anerkannten Sicherheitsstandards wie SLSA. Diese Maßnahmen tragen dazu bei, die Integrität der gesamten Anwendung vom Entwicklungs- bis zum Deployment-Prozess nachweislich zu gewährleisten.
Schritt 5: Souveräne Architektur implementieren
Sind die Anwendungen kartiert und bewertet, richtet sich der Blick auf die Architektur als Ganzes. Sie sollte auf offenen Standards basieren, klare Schnittstellen bieten und mit unterschiedlichen Systemen zusammenarbeiten können. Diese Offenheit schafft Wahlfreiheit, verringert Abhängigkeiten von einzelnen Anbietern und erleichtert die Integration neuer Komponenten.
Die Architektur muss zudem fest in der Organisation verankert sein. Das gelingt, wenn Verantwortlichkeiten eindeutig geregelt und Arbeitsabläufe klar strukturiert sind.
Schritt 6: Technologie-Stack konsequent auf Open Source ausrichten
Der Technologie-Stack bildet das Rückgrat einer souveränen Architektur. Ein konsequenter Einsatz quelloffener Technologien schafft die nötige Transparenz und Kontrolle, um langfristig technologische Abhängigkeiten zu vermeiden. Offener Quellcode erlaubt es, Sicherheitsprüfungen unabhängig durchzuführen, Schwachstellen schnell zu beheben und Funktionen flexibel an die eigenen Anforderungen anzupassen.
Standardisierte Schnittstellen und offene Formate sichern die Interoperabilität zwischen unterschiedlichen Systemen und erleichtern den Austausch einzelner Komponenten. So lassen sich neue Technologien einbinden, ohne den Betrieb bestehender Systeme zu gefährden. Open Source bietet zudem die Möglichkeit, auf ein breites Ökosystem von Tools und Communities zuzugreifen.
Schritt 7: Business Continuity planen
Zusätzlich zu einem robusten Technologie-Stack sollten Organisationen auch für den Ernstfall vorsorgen und ihre Business Continuity planen. Die Business-Continuity-Planung konzentriert sich darauf, Risikomanagementverfahren festzulegen, um Unterbrechungen geschäftskritischer Dienste zu verhindern und die volle Funktionsfähigkeit mit so wenig Ausfallzeit wie möglich wiederherzustellen.
Ein Business-Continuity-Plan sollte dabei festlegen, wie Systeme reagieren, wenn zentrale Anbieter ausfallen – etwa durch Sanktionen oder den Verlust von Kontrollsystemen außerhalb der EU. Wichtig ist, kritische Workloads so abzusichern, dass sie bei Ausfällen schnell auf andere Standorte umziehen können. Geo-Clustering, also die verteilte Replikation über mehrere geografisch getrennte Rechenzentren, kann beispielsweise das Risiko regionaler Störungen minimieren und so geschäftskritische Prozesse am Laufen halten.
Schritt 8: Digitale Souveränität als Kernprinzip der IT-Strategie verankern
Ein Business-Continuity-Plan sichert den Betrieb im Ernstfall. Damit digitale Souveränität jedoch langfristig Bestand hat, muss sie fester Bestandteil der IT-Strategie werden. Organisationen sollten sie nicht als einmalige Maßnahme sehen, sondern als Grundprinzip, das alle IT-Prozesse durchzieht.
Dazu gehört es, Systeme und Umgebungen regelmäßig zu überprüfen, Risiken frühzeitig zu erkennen und bei Bedarf Anpassungen vorzunehmen. Relevante Stakeholder sollten fortlaufend eingebunden werden, während regulatorische Änderungen und technologische Entwicklungen im Blick bleiben. So wird digitale Souveränität zu einem Grundprinzip, das Organisationen dauerhaft handlungsfähig, resilient und unabhängig macht.
Im Kern geht es bei digitaler Souveränität um das Zusammenspiel von Daten, Betrieb und Technologie. Die acht Schritte machen deutlich: Wer die wachsende Abhängigkeit von externen IT-Anbietern erkennt und adressiert, schafft die Basis für langfristige Handlungsfähigkeit. Digitale Souveränität funktioniert dabei nicht als einmaliges Projekt, sondern als kontinuierlicher Prozess und fest verankertes Grundprinzip. Wird sie konsequent in Strukturen, Prozesse und die Unternehmenskultur integriert, schafft sie eine zukunftsfähige, sichere und unabhängige IT.
(fo)
Künstliche Intelligenz
Zehn Jahre nach Release: „Fallout 4“ wird als Anniversary Edition neu aufgelegt
Bethesda feiert den zehnten Geburtstag von „Fallout 4“ mit einer Anniversary Edition. Wie bei „The Elder Scrolls 4: Skyrim“ umfasst das Paket alle Updates und DLCs. Neu sind lediglich einige von der Community entwickelte Mods, die in Bethesdas Bezahl-Store für Mods namens Creation Club angeboten werden.
Weiterlesen nach der Anzeige
Zudem bringt Bethesda die Anniversary Edition von „Fallout 4“ auf die Switch 2 – die erste Switch-Ausgabe des Rollenspiels. Während die Anniversary Edition bereits am 10. November für PC, Xbox Series X/S, Xbox One, Playstation 5 und Playstation 4 erscheint, soll die Switch-2-Variante erst im kommenden Jahr auf den Markt kommen.
Mod-Spaltung möglich
Für langjährige „Fallout 4“-Spieler dürfte der Release der Anniversary Edition eher ein Ärgernis als ein Grund zur Freude sein: Die Erfahrung von „The Elder Scrolls 4: Skyrim“ zeigt, dass der Release zumindest anfänglich zu einer Spaltung der Modding-Community führen könnte. Es ist denkbar, dass bestimmte Mods nicht mehr funktionieren werden, wenn man auf die neue Version umsteigt.
Bei „Skyrim“ wurden bestehende Nutzer nicht automatisch auf die Anniversary Edition umgestellt, sondern mussten für das Upgrade 20 Euro zahlen. Es ist wahrscheinlich, dass Bethesda bei „Fallout 4“ einen ähnlichen Weg geht. Wer jahrelang seine Modlist kuratiert und ausgefeilt hat, sollte darauf bei „Fallout 4“ zumindest anfänglich verzichten.
Zweifelhafte Neuerungen
Die Neuerungen der Anniversary Editions von Bethesda sind ohnehin sehr zweifelhaft: Bei der Anniversary Edition von „Skyrim“ implementierte Bethesda Dutzende Community-Mods und legte dabei offenbar kein besonders kritisches Augenmaß an den Tag – viele Mods passten nicht unbedingt zur Stimmung und zum Stil des Rollenspiels. Auch qualitativ konnten manche der implementierten Mods nicht mit der Qualität des Hauptspiels oder vieler frei zugänglicher Mods mithalten.
Weiterlesen nach der Anzeige
Das könnte sich auch bei der Anniversary Edition von „Fallout 4“ anbahnen: So bietet ein neuer Mod etwa die Möglichkeit, die Rasse des Hundebegleiters Dogmeat zu ändern – beispielsweise in einen Dalmatiner. Neu ist auch die Möglichkeit, die Power Armor und den Pip-Boy in pinker Farbe zu bekommen.
Der Release der Anniversary Edition von „Fallout 4“ fällt wenige Wochen vor die Veröffentlichung der zweiten Staffel von Amazons Prime-Serie „Fallout“. Schon den Release der ersten Staffel hatte Bethesda mit einem Spiel-Upgrade gefeiert – damals wurde die Grafik von „Fallout 4“ aufpoliert.
(dahe)
Künstliche Intelligenz
Bericht: Digitalfunk der Bundeswehr „nicht gefechtstauglich“
Laut einem Bericht der „Welt am Sonntag“ gibt es weiterhin massive Probleme beim neuen Digitalfunk der Landstreitkräfte. Mit einer nun vorgesehenen Lösung aus „vorübergehend gleichermaßen digitalisierten wie noch analogen“ Geräten bleibe man zwar „militärisch handlungsfähig“, heißt es, müsse allerdings eine „temporäre Reduzierung der Einsatzbereitschaft hinnehmen“, berichtet die Zeitung unter Berufung auf Dokumente aus dem Verteidigungsministerium und der Bundeswehr. Das Ministerium hatte, auf Berichte über Probleme mit den Funkgeräten angesprochen, zuletzt mehrfach erklärt, das Vorhaben liege im Zeitplan.
Weiterlesen nach der Anzeige
Warnungen vor Verzögerung
Außerdem wird das Gesamtsystem den Recherchen zufolge auch nach einem weiteren, für November anberaumten Test nur „für Ausbildung und Übung“ einsetzbar sein, ist aber nicht gefechtstauglich. Laut der als Verschlusssache gezeichneten Papiere gab es demnach bereits vor einem gescheiterten Test im Mai dieses Jahres Warnungen, dass die von einer Arbeitsgemeinschaft von Herstellern gelieferte Software weniger könne als verlangt.
Die Einführung neuer Funkgeräte ist Teil des Rüstungsprogramms „Digitalisierung landbasierter Operationen“ – auch als D-LBO abgekürzt. Dabei geht es darum, den einzelnen Schützen, Fahrzeugsysteme und Führungsfahrzeuge bis hin zum verlegefähigen Gefechtsstand über abgesicherte Funkverbindungen mit Daten und Sprache zu vernetzen. In einem Gefecht ist dies vor allem für den vorderen Bereich der Truppe zentral.
(nie)
-
UX/UI & Webdesignvor 2 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Social Mediavor 2 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 MonatFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 1 WocheIllustrierte Reise nach New York City › PAGE online
-
Apps & Mobile Entwicklungvor 2 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
