Connect with us

Künstliche Intelligenz

Große Zahlen und kleine, effektive Veränderungen – Fotonews der Woche 43/2025


Dass Canon bei der Kameraproduktion überlegener Marktführer ist, ist nicht neu und wir hatten darüber bereits vor sechs Wochen berichtet. Nun hat der Hersteller nach eigenen Angaben im Oktober 2025 das 170-millionste Objektiv produziert, ein RF 70-200mm F2.8 L IS USM Z. Dieses Modell kam bereits im November 2024 auf den Markt. Die neue Zahl ist ein Meilenstein, den das japanische Unternehmen mit entsprechendem Stolz als weiteren Ausbau seines Weltrekords als Produzent mit der höchsten Gesamtzahl an Wechselobjektiven verkündet.

Weiterlesen nach der Anzeige


Das Titelbild der Ausgabe 06 2025 des Foto-Magazins c't Fotografie

Das Titelbild der Ausgabe 06 2025 des Foto-Magazins c't Fotografie

Kurzer Abriss der immensen Produktionssteigerung der letzten 30 Jahre: 10 Millionen Objektive 1995, 50 Millionen 2009 und 100 Millionen 2014 – als erstes Unternehmen weltweit.

Den langfristigen Erfolg sicherte sich Canon durch technische Innovation und entsprechende Patente. Canon entwickelte den Ultraschallmotor (USM), die Bildstabilisator-Technologie (IS) und mehrlagige Diffractive Optical Elemente und setzte sie als erstes Unternehmen in Spiegelreflexkameras ein. 2018 kam – rund fünf Jahre nach Sony – das spiegellose EOS-R-System mit größerem RF-Bajonettdurchmesser und kürzerem Auflagemaß auf den Markt. Heute umfasst Canons Portfolio 108 Modelle mit Brennweiten von 10 Millimetern im Ultraweitwinkel bis 1200 Millimetern beim Supertele. Die Produktion läuft an fünf Standorten in Japan, Taiwan und Malaysia.

Leica bricht dagegen mit einer jahrzehntelangen Tradition: Die M EV1 ist die erste M-Kamera mit elektronischem Sucher (EVF). Nach Angaben des Herstellers war dies der Wunsch vieler Kunden, die das M-System schätzen, aber das herausfordernde Scharfstellen mit dem Messsucher im Fotoalltag gern vermeiden würden. Der EVF stammt aus der Leica Q3 und bietet 5,76 Millionen Bildpunkte, 0,76-fache Vergrößerung und hundertprozentige Bildfeldabdeckung. Ein Augensensor schaltet wie auch bei anderen Spiegelreflexkameras zwischen Sucher und rückseitigem Monitor um. Die Dioptrienkorrektur lässt sich von -4 bis +2 dpt anpassen.

Anders als beim Messsucher bietet der neue elektronische Sucher den Vorteil, dass Belichtung, Weißabgleich und Schärfentiefe bereits vor der Aufnahme besser beurteilt werden können. Dafür schaut man nun nicht mehr direkt auf das Motiv, sondern muss sich auf die Wiedergabe über das winzige Display verlassen. Dennoch hat letzteres besonders bei Optiken Vorteile, die sich bisher aufgrund des fixen Bildausschnitts kaum mit einem Messsucher vereinbaren ließen, wie Ultraweitwinkel-, Tele- und Makroobjektiven. Allein die Naheinstellgrenze lag dort bisher technisch bedingt bei 70 Zentimetern, völlig unnütz für Aufnahmen von Insekten oder Blüten im Nahbereich.

c’t Fotografie Zoom In abonnieren

Ihr Newsletter mit exklusiven Foto-Tipps, spannenden News, Profi-Einblicken und Inspirationen – jeden Samstag neu.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Unterstützt wird ein Fotograf durch die Leica-M-EV1 nun auch von den üblichen kleinen Helfern wie Fokus-Peaking oder einer zweistufigen Fokus-Lupe. Der Hebel an der Kameravorderseite, der bei Messsucherkameras der Bildfeldvorwahl dient, kann nun mit Fokussierhilfen oder digitalem Zoom (1,3x und 1,8x) belegt werden. Die weiteren technischen Details finden sich in unserer ausführlichen Meldung zur Leica M EV1. Ein Schnäppchen ist die neue Messsucher-lose M nicht. Mit knapp 8000 Euro für den Body bleibt sie im Luxussegment. Da bleibt sich Leica dann doch wieder treu.

Weiterlesen nach der Anzeige

Fujifilm hat in dieser Woche die dritte Generation der X-T30 vorgestellt. Dabei handelt es sich um eine Anpassung der Vorgängerin an die aktuelle Marktsituation, kein direktes Nachfolgemodell, das eigentlich eine X-T40 sein müsste. Die X-T30 III richtet sich wie bisher eher an Einsteiger oder an Fotografen, die eine leichte Kamera für unterwegs suchen. Der 26-Megapixel-Sensor im APS-C-Format bleibt unverändert, neu ist der Bildprozessor X-Prozessor 5, den auch schon Schwestermodelle wie die X-T5 nutzen. Fujifilm verspricht doppelt so schnelle Bildverarbeitung, was sich vor allem bei Serienbildern und hochauflösenden Videos bemerkbar macht. Die Energieeffizienz wurde verbessert – der Akku schafft nun bis zu 425 Aufnahmen nach CIPA-Standard.

Das wohl wichtigste neue Merkmal ist die optimierte Motiverkennung beim Autofokus. Er soll nun neben Gesichtern und Augen auch Tiere, Vögel, Fahr- und Flugzeuge und Insekten verfolgen und das schneller und präziser als beim vorigen Modell. Gehäuse und Gewicht bleiben identisch, auf der linken Schulter prangt das Fuji-typische Filmsimulationsrad. Videos gibt es jetzt auch in 6,2K bei 30 Bildern pro Sekunde.

Ein neues Weitwinkelzoom, das Fujinon XC13-33mm F3.5-6.3 OIS, ergänzt die Kamera und zeigt die Ausrichtung auf Einsteiger deutlich am Preis von unter 400 Euro. Es wiegt 125 Gramm und misst im eingefahrenen Zustand 3,8 cm – das kleinste und leichteste Zoomobjektiv für die X-Serie. Es deckt 13 bis 33 mm ab (entspricht 20 bis 50 mm an Vollformat) und fokussiert ab 20 cm mit maximal 0,25-facher Vergrößerung. Der optische Bildstabilisator gleicht bis zu vier Blendenstufen aus. Die Konstruktion umfasst zehn Elemente in neun Gruppen, darunter vier asphärische Linsen und drei ED-Glaselemente.

Bekannt ist es ja, doch aus aktuellem Anlass ein Grund, sich doch noch einmal Gedanken zu machen. Gerade Fotografen, die viele wichtige Bilddaten auf ihren Festplatten sichern, sollten regelmäßig über deren Sicherung auch auf einem zweiten Medium und in der Cloud nachdenken. Falls Sie glücklicher Besitzer älterer Festplatten des Herstellers Western Digital sind, umso mehr. Warum, das erfahren Sie in unserer Empfehlung für einen Long Read zum Wochenende.

Lesen Sie auch


(cbr)



Source link

Künstliche Intelligenz

In acht Schritten zur digitalen Souveränität


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Abhängigkeit von einzelnen Tech-Anbietern und proprietären IT-Infrastrukturen rückt zunehmend ins Zentrum strategischer IT-Planung. Öffentliche Organisationen und Unternehmen müssen sich heute in einem komplexen Geflecht aus selbst entwickelten Anwendungen, zugekauften SaaS-Lösungen und grenzüberschreitenden Datenflüssen zurechtfinden. Entscheidend ist dabei, langfristig die digitale Souveränität zu sichern – sprich, die volle Handlungsfähigkeit über die eigene IT zu bewahren. Doch wie lässt sich der Weg dorthin strukturiert gestalten?

Weiterlesen nach der Anzeige




Holger Pfister ist General Manager für die DACH-Region bei SUSE. Er ist verantwortlich für das gesamte Geschäft von SUSE in Deutschland, Österreich und der Schweiz. Als Vorstandsmitglied der Open Source Business Alliance setzt er sich besonders für den Einsatz von Open Source in der öffentlichen Verwaltung ein. In seiner Rolle bei SUSE unterstützt er Unternehmen, öffentliche Verwaltung und Partner dabei, resilientere IT-Infrastrukturen zu schaffen, die einen entscheidenden Beitrag zur Erreichung der digitalen Souveränität bilden.

Digital souverän zu werden ist ein Prozess, der – wie die meisten Transformationsvorhaben – mit einem offenen Dialog beginnt. Im ersten Schritt gilt es, mit den wichtigsten Anspruchsgruppen wie Vorstandsmitgliedern, Technologiepartnern und IT-Teams ins Gespräch zu gehen, um ihre Anforderungen, Bedenken und Prioritäten zu verstehen. Auf dieser Grundlage lassen sich gemeinsam der Transformationsprozess gestalten und die zentralen Themen identifizieren.

All diese Stakeholder bringen unterschiedliche Anforderungen und Perspektiven zu wesentlichen Fragen ein: Wo sollen sensible Daten liegen? Wer darf darauf zugreifen? Und wie lässt sich eine technologische Abhängigkeit von einzelnen Anbietern vermeiden? Antworten auf diese Fragen geben nicht nur Einblicke in die jeweiligen Bedürfnisse, sondern auch die möglichen Risiken. So bilden diese Gespräche die Grundlage für tragfähige Entscheidungen in den drei zentralen Handlungsfeldern: Daten, Betrieb und Technologie.

Nachdem die internen Bedürfnisse, Risiken und Prioritäten ermittelt wurden, gilt es im nächsten Schritt, auch die äußeren Rahmenbedingungen ins Visier zu nehmen. Datenschutz, Datenlokalisierung und Kontrollmechanismen rücken weltweit zunehmend in den Fokus staatlicher Regulierung. Programme wie FedRAMP in den USA, das neuseeländische Informationssicherheits-Manual (NZISM) oder Chinas Strategie zur technologischen Eigenständigkeit sind nur einige Beispiele für nationale Regelwerke, die digitale Souveränität auf sehr unterschiedliche Weise definieren.

Auch innerhalb der EU existiert ein komplexes Zusammenspiel aus europaweiten Vorgaben, wie die DSGVO, die NIS2-Richtlinie und die DORA-Verordnung. Hinzu kommen nationale Initiativen wie Frankreichs SecNumCloud oder Deutschlands Cloud Computing Compliance Criteria Catalogue (C5). Diese Regelwerke verfolgen zwei zentrale Ziele: europäische Daten zu schützen und die Unabhängigkeit von außereuropäischen Anbietern in strategischen Bereichen wie Verteidigung, Finanzwesen oder Gesundheit zu sichern.

Weiterlesen nach der Anzeige

Für Organisationen bedeutet das, regulatorische Entwicklungen stets im Blick zu behalten und ihre Strategien entsprechend anzupassen. Offizielle Quellen wie EUR-Lex oder Informationsangebote der EU-Kommission helfen, den Überblick zu bewahren.


Berggipfel, blauer Hintergrund, Schriftzug IT Summit by heise

Berggipfel, blauer Hintergrund, Schriftzug IT Summit by heise

Wie können Unternehmen und Behörden ihre IT aus den Abhängigkeiten von US-Hyperscalern, amerikanischen oder chinesischen KI-Anbietern und Softwareherstellern lösen? Das diskutieren Fachleute aus Politik, Wirtschaft und Wissenschaft am 11. und 12. November auf dem IT Summit by heise in München. Vorträge und Speaker finden Sie im Programm des IT Summit. Am ersten Konferenztag findet zudem ein kostenloser Workshop statt, der zeigt, wie Open-Source-Lösungen zur digitalen Souveränität und Cybersicherheit beitragen können. Buchen Sie jetzt Ihr Ticket.

Ein wesentlicher Baustein auf dem Weg zur digitalen Souveränität ist ein genaues Verständnis der gesamten Software-Lieferkette sowie ihre lückenlose Dokumentation. Ein hilfreiches Werkzeug dafür ist eine Software Bill of Materials (SBOM). Sie wird besonders für kritische Anwendungen eingesetzt und basiert auf anerkannten Standards wie SPDX oder CycloneDX. So macht es eine SBOM möglich, sämtliche Softwarekomponenten, deren Herkunft sowie bestehende Abhängigkeiten systematisch zu erfassen.

Besondere Aufmerksamkeit sollten dabei Anwendungen erhalten, die hochsensible Daten verarbeiten, darunter personenbezogene Informationen, Finanzdaten oder Daten, die unter die Definition kritischer Infrastrukturen fallen. Solche Anwendungen unterliegen in der Regel besonders strenger behördlicher Überwachung und Compliance-Anforderungen.

Neben besonders sensiblen Anwendungen gilt es, alle alltäglichen Workloads zu erfassen und zu bewerten. Ein wichtiger Schritt ist es, jene Workloads zu identifizieren, bei denen Organisationen ihre Daten zwingend auf eigenen Servern oder in vollständig isolierten, netzwerkabgeschotteten Umgebungen verarbeiten müssen. Technische Maßnahmen können hier den entscheidenden Unterschied machen, etwa ein Open-Source-Stack mit Kubernetes-Orchestrierung, Air-Gap-Fähigkeiten und eigenem Paketmanagement.

Für stark regulierte Umgebungen empfiehlt es sich zudem, auf die Absicherung der Software-Lieferkette zu achten, etwa durch Zertifizierungen nach Common Criteria EAL 4+ oder anerkannten Sicherheitsstandards wie SLSA. Diese Maßnahmen tragen dazu bei, die Integrität der gesamten Anwendung vom Entwicklungs- bis zum Deployment-Prozess nachweislich zu gewährleisten.

Sind die Anwendungen kartiert und bewertet, richtet sich der Blick auf die Architektur als Ganzes. Sie sollte auf offenen Standards basieren, klare Schnittstellen bieten und mit unterschiedlichen Systemen zusammenarbeiten können. Diese Offenheit schafft Wahlfreiheit, verringert Abhängigkeiten von einzelnen Anbietern und erleichtert die Integration neuer Komponenten.

Die Architektur muss zudem fest in der Organisation verankert sein. Das gelingt, wenn Verantwortlichkeiten eindeutig geregelt und Arbeitsabläufe klar strukturiert sind.

Der Technologie-Stack bildet das Rückgrat einer souveränen Architektur. Ein konsequenter Einsatz quelloffener Technologien schafft die nötige Transparenz und Kontrolle, um langfristig technologische Abhängigkeiten zu vermeiden. Offener Quellcode erlaubt es, Sicherheitsprüfungen unabhängig durchzuführen, Schwachstellen schnell zu beheben und Funktionen flexibel an die eigenen Anforderungen anzupassen.

Standardisierte Schnittstellen und offene Formate sichern die Interoperabilität zwischen unterschiedlichen Systemen und erleichtern den Austausch einzelner Komponenten. So lassen sich neue Technologien einbinden, ohne den Betrieb bestehender Systeme zu gefährden. Open Source bietet zudem die Möglichkeit, auf ein breites Ökosystem von Tools und Communities zuzugreifen.

Zusätzlich zu einem robusten Technologie-Stack sollten Organisationen auch für den Ernstfall vorsorgen und ihre Business Continuity planen. Die Business-Continuity-Planung konzentriert sich darauf, Risikomanagementverfahren festzulegen, um Unterbrechungen geschäftskritischer Dienste zu verhindern und die volle Funktionsfähigkeit mit so wenig Ausfallzeit wie möglich wiederherzustellen.

Ein Business-Continuity-Plan sollte dabei festlegen, wie Systeme reagieren, wenn zentrale Anbieter ausfallen – etwa durch Sanktionen oder den Verlust von Kontrollsystemen außerhalb der EU. Wichtig ist, kritische Workloads so abzusichern, dass sie bei Ausfällen schnell auf andere Standorte umziehen können. Geo-Clustering, also die verteilte Replikation über mehrere geografisch getrennte Rechenzentren, kann beispielsweise das Risiko regionaler Störungen minimieren und so geschäftskritische Prozesse am Laufen halten.

Ein Business-Continuity-Plan sichert den Betrieb im Ernstfall. Damit digitale Souveränität jedoch langfristig Bestand hat, muss sie fester Bestandteil der IT-Strategie werden. Organisationen sollten sie nicht als einmalige Maßnahme sehen, sondern als Grundprinzip, das alle IT-Prozesse durchzieht.

Dazu gehört es, Systeme und Umgebungen regelmäßig zu überprüfen, Risiken frühzeitig zu erkennen und bei Bedarf Anpassungen vorzunehmen. Relevante Stakeholder sollten fortlaufend eingebunden werden, während regulatorische Änderungen und technologische Entwicklungen im Blick bleiben. So wird digitale Souveränität zu einem Grundprinzip, das Organisationen dauerhaft handlungsfähig, resilient und unabhängig macht.

Im Kern geht es bei digitaler Souveränität um das Zusammenspiel von Daten, Betrieb und Technologie. Die acht Schritte machen deutlich: Wer die wachsende Abhängigkeit von externen IT-Anbietern erkennt und adressiert, schafft die Basis für langfristige Handlungsfähigkeit. Digitale Souveränität funktioniert dabei nicht als einmaliges Projekt, sondern als kontinuierlicher Prozess und fest verankertes Grundprinzip. Wird sie konsequent in Strukturen, Prozesse und die Unternehmenskultur integriert, schafft sie eine zukunftsfähige, sichere und unabhängige IT.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

Zehn Jahre nach Release: „Fallout 4“ wird als Anniversary Edition neu aufgelegt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Bethesda feiert den zehnten Geburtstag von „Fallout 4“ mit einer Anniversary Edition. Wie bei „The Elder Scrolls 4: Skyrim“ umfasst das Paket alle Updates und DLCs. Neu sind lediglich einige von der Community entwickelte Mods, die in Bethesdas Bezahl-Store für Mods namens Creation Club angeboten werden.

Weiterlesen nach der Anzeige

Zudem bringt Bethesda die Anniversary Edition von „Fallout 4“ auf die Switch 2 – die erste Switch-Ausgabe des Rollenspiels. Während die Anniversary Edition bereits am 10. November für PC, Xbox Series X/S, Xbox One, Playstation 5 und Playstation 4 erscheint, soll die Switch-2-Variante erst im kommenden Jahr auf den Markt kommen.

Für langjährige „Fallout 4“-Spieler dürfte der Release der Anniversary Edition eher ein Ärgernis als ein Grund zur Freude sein: Die Erfahrung von „The Elder Scrolls 4: Skyrim“ zeigt, dass der Release zumindest anfänglich zu einer Spaltung der Modding-Community führen könnte. Es ist denkbar, dass bestimmte Mods nicht mehr funktionieren werden, wenn man auf die neue Version umsteigt.

Bei „Skyrim“ wurden bestehende Nutzer nicht automatisch auf die Anniversary Edition umgestellt, sondern mussten für das Upgrade 20 Euro zahlen. Es ist wahrscheinlich, dass Bethesda bei „Fallout 4“ einen ähnlichen Weg geht. Wer jahrelang seine Modlist kuratiert und ausgefeilt hat, sollte darauf bei „Fallout 4“ zumindest anfänglich verzichten.

Die Neuerungen der Anniversary Editions von Bethesda sind ohnehin sehr zweifelhaft: Bei der Anniversary Edition von „Skyrim“ implementierte Bethesda Dutzende Community-Mods und legte dabei offenbar kein besonders kritisches Augenmaß an den Tag – viele Mods passten nicht unbedingt zur Stimmung und zum Stil des Rollenspiels. Auch qualitativ konnten manche der implementierten Mods nicht mit der Qualität des Hauptspiels oder vieler frei zugänglicher Mods mithalten.

Weiterlesen nach der Anzeige

Das könnte sich auch bei der Anniversary Edition von „Fallout 4“ anbahnen: So bietet ein neuer Mod etwa die Möglichkeit, die Rasse des Hundebegleiters Dogmeat zu ändern – beispielsweise in einen Dalmatiner. Neu ist auch die Möglichkeit, die Power Armor und den Pip-Boy in pinker Farbe zu bekommen.

Der Release der Anniversary Edition von „Fallout 4“ fällt wenige Wochen vor die Veröffentlichung der zweiten Staffel von Amazons Prime-Serie „Fallout“. Schon den Release der ersten Staffel hatte Bethesda mit einem Spiel-Upgrade gefeiert – damals wurde die Grafik von „Fallout 4“ aufpoliert.


(dahe)



Source link

Weiterlesen

Künstliche Intelligenz

USA: Der schwierige Weg zur Hochgeschwindigkeitsnation mit der Bahn


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Wer die USA auf der Schiene bereisen will, fühlt sich fast wie in einer anderen Zeit. Teils wunderschöne, aber alte sogenannte Union Stations als Hauptbahnhöfe, Gepäckwagen mit Check-in-Service für das Großgepäck und Reisezeiten aus längst vergessenen Zeiten, sind das, was die Fernzüge des US-Anbieters Amtrak meist ausmacht. Insbesondere, wenn man mal wirkliche Verspätungen erlebt hat, die durchaus mehr als einen Tag lang sein können. Die Gründe diesbezüglich sind vielfältig und teils in unterschiedlichen Infrastrukturansätzen begründet, teils aber auch operativen Prioritäten geschuldet. Während hierzulande der Fernverkehr Priorität genießt und auch mal kurz vor dem Endbahnhof noch Regionalzüge zum Warten zwingt, ist das in den USA anders.

Weiterlesen nach der Anzeige

Der Güterverkehr genießt in weiten Teilen Priorität oder nimmt sich diese, was auch regelmäßig zu Streit führt. Die Fernzüge von Amtrak dürfen dann warten, denn Amtrak fährt mit seinen wenigen Fernzügen nur selten auf eigener Infrastruktur und ist von anderen Betreibern abhängig. Die Pünktlichkeitsstatistiken etwa aus dem Jahr 2021 (PDF) lassen jedenfalls selbst die Deutsche Bahn noch gut aussehen. Immerhin gibt es hier und da Fortschritte. So hat das US-Justizministerium im September etwa eine außergerichtliche Einigung zwischen Norfolk Southern und Amtrak bekannt gegeben.

Demnach bekommen Amtrak-Züge nun die höchste Priorität auf der Infrastruktur von Norfolk Southern. Seit sich das Justizministerium Mitte 2024 eingeschaltet hat, haben sich die Verspätungsminuten um 53 Prozent reduziert. Dabei ist in den USA so wenig im Fernverkehr los, dass es leicht ist, fast alle Züge zu beobachten. Amtraks Track a Train ermöglicht dies.




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Es gibt in den USA natürlich einige Ausnahmen. Neben klassischen Pendlerzügen (morgens rein, abends raus) gibt es vereinzelt auch höher frequentierten Fernverkehr. An der Westküste ist etwa zwischen Seattle über Portland nach San Francisco etwas mehr los. Vor allem Seattle und Portland haben Verbindungen, wo Fahrgäste auch mal einen Zug verpassen können. Selbiges gilt zwischen San Diego und Los Angeles. Über San Francisco sind diese beiden Gebiete auch einigermaßen gut miteinander verbunden. Sonst ist aber ein Tag pro Richtung nicht ungewöhnlich, wie die Verbindung zwischen den Twin Cities (Minneapolis/St. Paul) und Chicago.

Noch besser geht es dem North East Corridor (NEC) zwischen Boston über New York City nach Washington D.C. Hier ist auch eines von insgesamt zwei Hochgeschwindigkeitsnetzen der USA im Betrieb. Dort fahren die Amtrak Acela, die Hochgeschwindigkeitszüge von Amtrak. Die wurden kürzlich sogar um neue Züge (Nextgen Acela von Alstom) ergänzt und können nun 160 mph oder 258 km/h fahren. Die alten Züge fuhren nur 150 mph. Das Dumme daran: Der NEC bietet kaum Gelegenheiten, diese Geschwindigkeit zu erreichen. Vor der Einführung dieser Züge lag die Durchschnittsgeschwindigkeit bei etwa 70 mph oder 112 km/h. Das liegt aber nicht an den vielen Halten, sondern an der Strecke. Große Teile davon sind auf Geschwindigkeiten zwischen 70 und 100 mph beschränkt. Dazu kommen Bahnhofseinfahrten mit engen Kurven, die sich nicht umfahren lassen.

Das zweite Hochgeschwindigkeitsnetz befindet sich in Florida mit der Brightline. Dieselzüge erreichen dort immerhin 125 mph oder etwas über 200 km/h, wobei der größte Teil der Strecke auf 110 mph limitiert ist. Das ist besser als der NEC, aber aus deutscher Sicht eher eine schnelle Regionalbahn. Hierzulande fährt etwa der Franken-Thüringen Express mit 190 km/h und auch zwischen München und Nürnberg fahren Regionalbahnen ähnlich schnell. Mehr geht in den USA bisher nicht. Doch das soll sich durchaus ändern.

Weiterlesen nach der Anzeige

Ein für die USA wichtiges Hochgeschwindigkeitsprojekt ist die Brightline West. Sie soll bis 2030 Las Vegas mit dem Großraum Los Angeles verbinden. Der Termin wurde allerdings kürzlich auf 2029 verschoben, es wird also knapp. Wer Eisenbahnprojekte in den USA kennt, weiß, dass es hier zu massiven Verzögerungen kommen kann. In geringem Maße gibt es auch schon vorbereitende Baumaßnahmen für die Brightline West. Richtig losgehen soll es aber erst 2026.

Das Projekt hat dabei einen großen Vorteil: Die Strecke orientiert sich an dem „Right of Way“ der Interstate 15. Das soll den Bau massiv vereinfachen, auch weil die Landgewinnung weniger problematisch ist. Das Besondere: Die Casino-Stadt Las Vegas, in der auch die jährliche Technikmesse CES stattfindet, hat schon lange keinen Fernbahnanschluss mehr. Amtrak hat die Stadt für den Personenverkehr auf der Schiene aufgegeben. Brightline West bringt diesen zurück, wenn auch anders als früher.

Es werden nämlich nur 350 Kilometer gebaut. Die Brightline West wird auf der Seite von Los Angeles in der Nähe des Flughafens Ontario (CA) enden, genauer in Rancho Cucamonga. Dort heißt es dann: Umsteigen in die San Bernardino Metrolink Line, die Los Angeles‘ Union Station in etwa 1:15 Stunden erreichen kann. Immerhin: Brightline will mit Metrolink nicht nur über die Fahrpläne reden, sondern auch über kombinierte Tickets.

In Las Vegas endet die Brightline West auch nicht ideal. Sie wird ziemlich weit südlich des berühmten Strips mit seinen Hotels, der selbst in großen Teilen gar nicht zu Las Vegas gehört, ankommen. Formal fährt die Brightline also nur bis zum Vegas-Vorort Paradise. Da Las Vegas keinen echten Schienenpersonennahverkehr hat, wird wohl ein Transit Center Fahrgäste von und zur Brightline-Station bringen. Taxis, wenige Busse und Ridesharing dürften das übernehmen. Wer den ÖPNV in Las Vegas mal benutzt hat, weiß, dass das recht herausfordernd und vor allem langsam ist.

Das alles relativiert die recht kurze Reisezeit von zwei Stunden auf der Brightline West. Auf beiden Seiten kommt noch einiges an Reisezeit dazu. Allerdings liegen auch die Flughäfen nicht gerade ideal. Von Haustür zu Haustür sind mit dem Zug wohl vier bis fünf Stunden zu erwarten. Das Flugzeug dürfte mit allem Drumherum ähnliche Reisezeiten bieten.

Dafür kann man von der Brightline West viel erwarten. Die Brightline in Florida ist für die USA ein Vorbild, was Bahnhofsdesign und multimodale Integration angeht. Brightline West plant ersten Renderings zufolge Vergleichbares. Das kann man übrigens auch von den Zügen erwarten. Wenn der Betreiber den Standard der Brightline-Züge übernimmt, dürfte Reisen angenehm werden.

Das Rollmaterial wird Siemens Mobility stellen. Zehn American Pioneer 220 (AP220) sind für die Flotte vorgesehen. Die 220 steht für die Höchstgeschwindigkeit in Meilen. Es sind also Geschwindigkeiten von 354 km/h in der Spitze geplant.



Der American Pioneer 220 soll auf der Brightline West fahren.

(Bild: Siemens Mobility)

Technisch nutzt Siemens die in Entwicklung befindliche Velaro-Novo-Plattform. Ein Mittelwagen hat in Deutschland kürzlich in Verbindung mit dem Messzug ICE S fast einen neuen deutschen Rekord aufgestellt und erreichte 405 km/h. Das Triebdrehgestell des Velaro Novo lief beim damaligen Test übrigens einfach mit, ohne den Zug anzutreiben, so Siemens. Damit sind die Reserven für einen Betrieb mit 350 km/h schon einmal erreicht. Nach Angaben von Siemens reichten dafür schon 390 km/h bei einem Zertifizierungsziel von 360 km/h.

Sehr viel länger in der Planung und auch im Bau befindet sich das Projekt California High-Speed Rail (CAHSR). Das soll einmal San Francisco mit Los Angeles verbinden. Das Potenzial ist also da. Allein zwischen den beiden Hauptflughäfen (SFO und LAX) sind an manchen Tagen um die 40 Flugzeuge je Richtung unterwegs. Dazu kommen Flughäfen wie etwa Oakland, San José (Valley-Seite) oder Burbank und Ontario (Metro Los Angeles).

Trotz zahlreicher Vorbereitungen, insbesondere in San Francisco, wird es aber absehbar keine direkte Verbindung zwischen den Städten geben. Aktuell gibt es nämlich nur zwischen Merced (knapp unter 100.000 Einwohner) und kurz vor Bakersfield (ca. 400.000 Einwohner) im Süden Bauarbeiten, was wohl der ersten Betriebsphase entspricht. Sicher ist das aber nicht, denn es gibt auch Berichte, dass CAHSR das Initial Operating Segment noch mal überdenken will. Statt Merced könnte Gilroy angefahren werden, was südlich von San José und sich damit zumindest in der Nähe des Silicon Valleys befindet.

Nach San Francisco könnte es dann vielleicht doch schneller gehen als zuletzt angenommen. Denn dort sind viele Vorbereitungen für die Aufnahme von CAHSR-Zügen schon abgeschlossen. Die Züge von Caltrain operieren bereits seit letztem Jahr unter einer Oberleitung und damit fast vollelektrisch von San Francisco bis Tamien. Zwischen Tamien und Gilroy fahren die Züge aber weiterhin mit Diesel. Immerhin wäre so ein Umstieg in Richtung San Francisco möglich.

Wann das der Fall sein wird, kann aber kaum jemand sagen. Für das initiale Segment soll Anfang der 2030er-Jahre der Betrieb beginnen. Das Startdatum wird aber regelmäßig nach hinten geschoben. Vieles rund um CAHSR ist bis heute unklar. Das gilt sogar für das Rollmaterial.

Letztendlich plagte das CAHSR-Projekt auch immer die Sorge um das Geld. Gleichzeitig haben die USA auch kaum praktische Erfahrungen mit dem Bau von Neubaustrecken in diesen Dimensionen, was dieses Projekt gut beweist.

Das US-Verkehrsministerium hat übrigens Ende August 2025 CAHSR Mittel in Höhe von 4 Milliarden US-Dollar entzogen. Seit September stellt aber der Bundesstaat Kalifornien rund eine Milliarde US-Dollar pro Jahr bis 2045 sicher.

Kaum Aktivität gibt es noch um ein Projekt, das eine Magnetschwebebahn zwischen Washington D.C. und Baltimore vorschlägt. Northeast Maglev heißt das Projekt, das allerdings noch nicht sonderlich weit ist. Es gibt noch nicht einmal eine festgelegte Strecke.

Technisch soll die US-Magnetbahn auf dem japanischen Chūō-Shinkansen basieren, der sich in Japan derzeit im Bau befindet und den bisherigen Tōkaidō-Shinkansen entlasten soll. Der Zug soll im Betrieb Geschwindigkeiten um die 500 km/h erreichen.



Der vorgeschlagene Betrachtungsraum für eine Magnetbahn in den USA.

(Bild: Northeast Maglev)

Die Kosten wurden zuletzt auf 10 Milliarden bis 15 Milliarden US-Dollar geschätzt. Es ist allerdings eher unwahrscheinlich, dass das Projekt in absehbarer Zeit realisiert wird, zumal die Unterstützung des Bundes fehlt. Offiziell hat das US-Verkehrsministerium auch diesem Projekt im August das Geld entzogen.

Schnell mit dem Zug in den USA zu fahren, wird für die Bevölkerung weiterhin ein kaum erreichbarer Traum bleiben. Amtraks Acela und die Brightline in Florida sind die einzigen Systeme, die zumindest in die Nähe von Hochgeschwindigkeitsverkehr kommen.

Etwas Hoffnung gibt es für die California High Speed Rail zwischen Los Angeles und San Francisco. Das Projekt zieht sich jedoch hin und es ist nicht klar, wann durchgehende Züge zwischen Los Angeles als größter Stadt Kaliforniens und dem Silicon Valley möglich sein werden.

Die beste Chance hat aktuell die Brightline West, obwohl das Projekt recht spät startete. Die Brightline East hat allerdings bereits gezeigt, dass Higher Speed Rail durchaus auf einer längeren Strecke mit komfortablem Wagenmaterial und modernen Bahnhöfen machbar ist. Mittlerweile wurde die Strecke so weit im Norden erweitert, dass sie auch als High Speed Rail klassifiziert werden kann, wenn auch sehr knapp und in Abhängigkeit von der Definition. Sollte aber alles klappen, dürfte die Verbindung zwischen Los Angeles und Las Vegas die erste sein, die man guten Gewissens dem Hochgeschwindigkeitsverkehr zuordnen kann. Für das Projekt spricht auch, dass es initial zumindest die Metropolregionen erreichen soll. Bei Bahnprojekten in den USA ist jedoch Vorsicht geboten: Es kann trotz allem noch viel schiefgehen.


(nen)



Source link

Weiterlesen

Beliebt