Connect with us

Künstliche Intelligenz

Ohne mechanische Verbindung: Virtuelles Kuppeln von Zügen per Ultrabreitband


Eine verstärkte Automatisierung im Zugverkehr könnte die Kapazität des bestehenden Schienennetzes erhöhen. Eine Schlüsseltechnologie dafür ist das virtuelle Kuppeln, bei dem einzelne Züge oder Waggons nicht mehr mechanisch verbunden sind, sondern rein digital. Sie fahren in einem festgelegten, sehr engen Abstand hintereinander. Damit dies reibungslos funktioniert, müssen die Zugteile kontinuierlich Daten über ihre Position und Geschwindigkeit austauschen. Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) hat dafür im Rahmen des von der EU mit knapp 54 Millionen Euro geförderten Projekts R2DATO ein neuartiges Funksystem entwickelt und jetzt erfolgreich auf einem Testgelände erprobt.

Im Fokus des an R2DATO beteiligten DLR-Instituts für Kommunikation und Navigation lag dabei die dezentrale Kommunikation zwischen Zügen, die sich in unmittelbarer Nähe zueinander befinden. „Wir sprechen von Distanzen von zwanzig bis zweihundert Metern, die man fürs virtuelle Kuppeln benötigt“, erklärt DLR-Projektleiter Paul Unterhuber. „Für den Eisenbahnbereich ist das extrem nah.“ Denn dort komme es – abhängig von der Geschwindigkeit – zu Bremswegen, „die mehrere hundert Meter bis zu einem Kilometer lang sind“.

Das vom DLR entwickelte System nutzt Ultrabreitbandkommunikation (UWB), eine Funktechnologie, die ein extrem breites Frequenzspektrum zur Datenübertragung verwendet. Sie ermöglicht eine hochpräzise Positionsbestimmung und Datenübermittlung über kurze Distanzen. UWB wird bereits etwa in Smartphones, Ortungsgeräten für den Innen- oder Industriebereich und in Autoschlüsseln eingesetzt.

„Als weiteren Vorteil ermöglicht es UWB, die Distanz zwischen zwei Zügen sehr genau zu errechnen“, berichtet Unterhuber. Dazu nutze das Institut die Latenzzeit, die Datenpakete vom Sender zum Empfänger benötigen. Damit seien alle notwendigen Informationen vorhanden, „um Beschleunigungs- und Bremsvorgänge im für das virtuelle Kuppeln wichtigen Nahbereich zu regeln“.

Zusätzlich verfügt das System über ein laserbasiertes Referenzsystem, das ebenfalls den Abstand zwischen den Zügen misst. Es hilft, die Genauigkeit der UWB-Messungen zu überprüfen. Alle Komponenten werden von Batterien mit Strom versorgt. Mit dem parallel vorangetriebenen Projekt „digitale automatische Kupplung“ hat R2DATO nichts zu tun.

Die ersten Tests fanden auf einem 350 Meter langen Gleis der Niederländischen Staatsbahn (NS) in Amersfoort statt. Zwei Regionalzüge, die mit dem DLR-System ausgerüstet waren, legten die Strecke mehrere hundert Mal zurück. Die entscheidende Technik befand sich dabei in kompakten Boxen, die an den mechanischen Kupplungen der Züge befestigt waren. Eine weitere Einheit am Boden diente als Basisstation zur Datensammlung.

Die Züge simulierten verschiedene Szenarien bei Geschwindigkeiten von 10 bis 25 Kilometern in der Stunde, wobei die Abstände zwischen 15 und 80 Metern betrugen. Auch Szenarien, in denen ein Zug fuhr und der andere stand, wurden simuliert. Die Züge wurden von Lokführern gesteuert, was aufgrund der geringen Abstände nicht einfach zu meistern war. Das DLR-Team stellte ihnen dafür auf einem separaten Monitor Live-Informationen aus dem System zur Verfügung. Künftig sollen diese Daten zu einem weitgehend automatisierten oder autonomen Zugbetrieb beitragen.

Die Testergebnisse bezeichnet das DLR als vielversprechend: Der Abstand zwischen den Zügen ließ sich auf wenige Zentimeter genau bestimmen, was mit bisherigen Technologien im Bahnbereich nicht möglich ist. „Generell konnten wir mit den Tests grundsätzlich zeigen, dass die Kommunikation zwischen den Zügen und die darauf basierende Distanzberechnung auch in der Praxis in einem bahnnahen Umfeld funktionieren“, freut sich Unterhuber. Die gesammelten Daten sollen weiter ausgewertet werden. Die R2DATO-Koordination liegt beim französischen Bahnbetrieb SNCF. Beteiligt sind etwa auch die Deutsche Bahn, die ÖBB, die italienische Staatsbahn und diverse Ausrüster.

Das im Rahmen der Schienenverkehrsforschung entworfene DLR-Konzept Next Generation Train (NGT) setzt ebenfalls auf virtuell gekuppelte Zugverbände. Ein „NGT-Taxi“ soll den automatisierten Betrieb auf Nebenstrecken ermöglichen und diese wieder attraktiver machen. Es könnte bedarfsorientiert – mit virtuell gekuppelten Waggons – auf die Zahl der aktuell reisewilligen Fahrgäste reagieren.


(nie)



Source link

Künstliche Intelligenz

Der Siegeszug von Apple Silicon: Fünf Jahre Macs mit Apple-Prozessoren


In Leistungsvergleichen mit systemübergreifenden Programmen wie Geekbench hatte es sich schon Jahre vor dem ersten M-Chip gezeigt: Bei der CPU-Performance und einigen Grafiktests schnitten iPads besser ab als so mancher Mac mit Intel-Prozessor. Es lag also nichts näher, als die Apple-eigenen Chips auch in Macs einzusetzen, zumal sie als energiesparend galten und ohne Lüfter auskamen. Hinzu kam, dass sowohl iOS wie macOS X auf Unix basierten und somit in Sachen Code nicht weit auseinanderlagen.

Das größte Problem auf dem Weg zum Mac mit Apple Silicon – so nennt Apple seine Prozessoren (Deutsch: Apple Silizium) – war, die für Intel-Architekturen geschriebenen Programme auf den M-Chips zum Laufen zu bringen. Hier hatte Apple bereits Erfahrung, denn der Konzern war mit seinen Macs schon mehrfach auf andere Prozessoren umgestiegen. Der erste Macintosh von 1984 arbeitete mit einem Motorola 68000 mit einem einzelnen 8-MHz-Kern. Die Mobilrechner hießen da übrigens noch PowerBooks. Zehn Jahre später schwenkte Apple auf eine gemeinsame Entwicklung mit Motorola und IBM um: Im Power Macintosh 6100 saß erstmals ein PowerPC, der 601 mit 60 MHz. Programme erforderten Updates, um weiterzulaufen. Programmierer mussten eine Zeit lang Versionen für beide Architekturen liefern, die „Fat Binary“ genannt wurden.

  • Die ersten M-Chips für den Mac bedeuteten eine Performance-Revolution.
  • Die nachfolgenden Generationen brachten lediglich eine Evolution.
  • Dank geringer Hitzeentwicklung wurden Macs leise und trotzdem leistungsstark.

Schon drei Jahre später folgte 1997 der Power Macintosh G3 mit dem PowerPC 750 (G3), der besser für den Einsatz in Desktop-Computern geeignet war und bereits mit 233 MHz lief. Als der Nachfolger G5 im Jahre 2005 nicht über 2700 MHz hinauskam und auch die Performance pro Watt nicht mehr schnell genug stieg, entschloss sich Apple – damals noch unter Steve Jobs –, zum vorherigen Erzfeind Intel als Prozessorlieferant zu wechseln. Deren Core-Architektur war auch für Mobil-Macs geeignet, während iBook und PowerBook mit G4 in der Weiterentwicklung stecken blieben.


Das war die Leseprobe unseres heise-Plus-Artikels „Der Siegeszug von Apple Silicon: Fünf Jahre Macs mit Apple-Prozessoren“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

iX-Workshop: Moderne Authentifizierung in der Praxis – 2FA für Windows & Web


Täglich werden Millionen Accounts durch unsichere, veraltete Passwörter kompromittiert. Sicherheitsexperten setzen daher auf sichere Alternativen wie Passkeys.

In unserem praxisorientierten iX-Workshop Moderne Authentifizierung in der Praxis: 2FA für Windows & Web lernen Administratoren, Entwickler und DevOps-Engineers aktuelle Verfahren zur sicheren Authentifizierung kennen. Sie erfahren, wie Public Key Infrastructures (PKI), Zwei-Faktor-Authentifizierung und passwortlose Anmeldeverfahren funktionieren und wie sie diese sicher einsetzen können. Der Fokus liegt auf der sicheren und praxisnahen Anwendung dieser Technologien.

Der Online-Workshop vermittelt Ihnen moderne Alternativen zur klassischen Authentifizierung und zeigt, welche Bedeutung PKI-Zertifikate, FIDO und Passkeys dabei haben. Sie lernen, Zertifikate zu verwalten, zertifikatsbasierte Authentifizierung einzusetzen und Sicherheitskonzepte praxisnah umzusetzen. Dazu zählen unter anderem die Einrichtung von SSH- und Smartcard-Authentifizierung sowie die Absicherung von Webanwendungen und VPNs.

Ihr neu erworbenes Wissen wenden Sie bei Übungen in einer sicheren virtuellen Umgebung an, die mit OpenSSL und Active Directory Certificate Services ausgestattet ist. Durch den Workshop führt der Sicherheitsexperte Tim Schmidt. Als Security Researcher bei der Neodyme AG ist er Experte für Code-Audits, Penetrationstests und Reverse Engineering von IoT-Geräten.

Dieser zweitägige Workshop richtet sich an Administratoren und DevOps-Engineers, die ihre IT-Infrastruktur durch moderne Authentifizierung jenseits von Passwörtern besser absichern und sich vor wachsenden Bedrohungen schützen wollen. Auch Entwickler, die zum Beispiel FIDO-Authentifizierungsprotokolle in eigener Software verwenden möchten, profitieren von dieser Schulung.

Die Teilnahme an diesem praxisorientierten Workshop ist auf zwölf Personen begrenzt, um einen regen Austausch mit dem Trainer und den anderen Teilnehmern zu ermöglichen.


Weitere iX-Sicherheitsworkshops

Weitere iX-Sicherheitsworkshops


(ilk)



Source link

Weiterlesen

Künstliche Intelligenz

Sechs Schritte: Epic Games zeigt Apples neuen App-Marketplace-Installer


Epic Games beschäftigt sich einmal mehr mit Apples Umsetzung der EU-Vorgaben bei der Integration alternativer App-Marketplaces in iOS. In einem länglichen Dokument führt der Spielekonzern aus, dass es jetzt noch sechs Schritte braucht, bis man den Epic Games Store auf sein iPhone bekommt. Immerhin hat sich das etwas verbessert: Zuvor – also vor iOS 18.6 – habe Apple 15 Schritte von den Nutzern verlangt. Dennoch war es Epic Games bis Ende 2024 gelungen, 29 Millionen Installationen zu erreichen. Angestrebt waren laut Unternehmenschef Tim Sweeney allerdings 100 Millionen.

Wie Epic Games aufzeigt, taucht der erste Apple-Dialog auf, wenn man von der Epic-Website aus versucht, den Install-Knopf zu betätigen. Dann fragt Apple nach, ob der App Marketplace installiert werden soll, warnt aber davor, dass die Daten allesamt vom Anbieter (und nicht von Apple) gemanagt werden und man diesem Zugriff auf diese gebe. Außerdem könnten App-Store-Account, dortige Bezahlmethoden und Funktionen wie das Abomanagement oder die Anforderung von Rückerstattungen nicht genutzt werden.

Klickt man dennoch auf „Erlauben“, kommt ein Bestätigungsdialog, der biometrisch oder per PIN bestätigt werden muss. Dann erfolgt der Download und schließlich als Schritt Nummer fünf ein Dialog, ob man den Epic Games Store öffnen will oder zum Home-Bildschirm zurückkehren möchte. In Schritt Nummer sechs ist der Epic Games Store dann geöffnet und kann verwendet werden. Dann sind „Fortnite“ und Co. herunterlad- und spielbar.

Epic Games lobt Apple auch: Der Konzern habe auf Druck der EU „Scare-Screens“ und andere „irreführende Meldungen“ beseitigt. Zudem sei eine Sackgasse entfernt worden, „die den Benutzer in den iOS-Einstellungen feststecken ließ“. All das wirkt sich auch auf die Zahlen aus. Laut Epic Games brachen mit dem alten Installationsprozess 65 Prozent der Nutzer ab. Nun ist die „Drop-off“-Rate auf 25 Prozent heruntergegangen. Die Installationsrate nähere sich jetzt Windows und Mac.

Google kritisiert Epic Games unterdessen weiter: Dessen aktueller Prozess unter Android zur Installation des Epic Games Store verlangt demnach noch 12 Schritte, was das Unternehmen für illegal hält. „Google verstößt weiterhin eklatant gegen den Digital Markets Act mit einem 12-stufigen Installationsablauf und einem irreführenden Warnbildschirm, auf dem steht, dass Software von bekannten und seriösen Google-Konkurrenten ’schädlich‘ sein kann.“ Aber auch Apple verletzt laut Epic Games Ansicht weiter den DMA – unter anderem kritisiert der Spielekonzern „Müllgebühren“ wie Apples Core Technology Fee.


(bsc)



Source link

Weiterlesen

Beliebt