Connect with us

Künstliche Intelligenz

Digitale Souveränität: „Am Ende gilt für die US-Konzerne immer das US-Recht.“


Seit Donald Trumps Amtsantritt ist die IT-Welt in Deutschland und Europa eine andere. Die Sorge, dass der US-Präsident die digitale Vorherrschaft der US-Konzerne als Machthebel ausnutzt, liegt nahe. Der Fall des Internationalen Strafgerichtshofs, der sich wohl nicht zuletzt aus Furcht vor US-Sanktionen von Microsoft abgewandt und für openDesk entschieden hat, illustriert das eindrucksvoll. Im Interview erklärt CDU-Politiker Ralph Brinkhaus, was Digitalpolitik für mehr Souveränität tun kann. Das Interview fand via E-Mail statt.

Weiterlesen nach der Anzeige




(Bild: 

Tobias Koch

)

Ralph Brinkhaus ist seit 2009 als Mitglied des Deutschen Bundestags. Von 2018 bis 2022 war er Fraktionsvorsitzender der CDU/CSU-Bundestagsfraktion. Seit 2025 ist Brinkhaus Vorsitzender der Arbeitsgruppe für Digitales und Staatsmodernisierung der CDU/-CSU Bundestagsfraktion. Sein Kernthema ist dabei die Modernisierung des Staates.

Der erratische Stil von Trumps US-Regierung lässt viele Marktteilnehmer zweifeln, ob sie weiter IT der großen US-Konzerne nutzen sollten. Welche Chancen birgt das für deutsche Anbieter?

Darin liegen große Chancen für deutsche IT-Anbieter. Die kürzlich verkündete Entscheidung des Internationalen Strafgerichtshofs zur Nutzung von openDesk ist dafür ein Beispiel. Allerdings hoffe ich nicht nur auf Chancen für Open-Source-Modelle, sondern auch auf Chancen für europäische Anbieter proprietärer Software.

Welche Rolle spielt denn Open Source für die Souveränität und die heimische IT-Wirtschaft? Oder ist Herkunft entscheidender als die Quelloffenheit der Software?

Open Source ist ein Baustein für die Souveränität, aber nicht die abschließende Lösung für alle Fragen der digitalen Souveränität. Wir müssen auch an den deutschen IT-Mittelstand mit proprietären Angeboten denken. Und es geht mir bei der ganzen Souveränitätsdiskussion nicht darum, künftig zu 100 Prozent in allen Bereichen nur noch deutsche und europäische Lösungen zu haben. Es geht darum, einseitige Abhängigkeiten auf ein kontrollierbares Maß zu senken.

Was muss die deutsche Digitalpolitik jetzt dafür tun, um die hiesige IT-Wirtschaft voranzubringen?

Zunächst einmal muss die hiesige IT-Wirtschaft sich durch wettbewerbsfähige Produkte selbst voranbringen. Wir sind und bleiben eine soziale Marktwirtschaft. Gleichzeitig muss der Staat mit gutem Beispiel vorangehen – also sich selbst erstmal durchdigitalisieren. Daran arbeiten wir mit Hochdruck, von der Verwaltungsdigitalisierung bis zur Modernisierungsagenda. Und der Staat kann als Ankerkunde auftreten. Das kann und muss noch verstärkt werden. Derzeit ist beispielsweise das neue Vergaberechtsgesetz im Gesetzgebungsverfahren, und die Bundesregierung hat bereits im Entwurf vorgesehen, dass bei der Auftragsausführung künftig digitale Souveränität berücksichtigt werden kann.

Weiterlesen nach der Anzeige

Helfen Vergaberegeln, den EU-Anbietern mehr Chancen einzuräumen?

Ja, das kann ein großer Schritt sein. Mit dem Staat als Ankerkunden können Unternehmen Umsatz und Gewinn generieren und diesen wiederum in die Weiterentwicklung ihrer Produkte investieren. Ein international bekanntes Beispiel dafür ist SpaceX, das am Anfang vor allem Regierungsaufträge bekommen hat und dann auch auf dem kommerziellen Markt sehr erfolgreich expandiert ist.

Das Digitalministerium hat erst kürzlich festgestellt, dass Deutschland und seine Verwaltung in vielen Bereichen von US-Technik abhängig sind. Warum setzen gerade deutsche Behörden und Ministerien so sehr auf Microsoft und Co.?

Dies gilt nach meiner Kenntnis nicht nur für Behörden, sondern für Deutschland insgesamt. Microsoft hat den größten Marktanteil. Mir geht es darum, ob wir künftig zu große einseitige außereuropäische Abhängigkeiten reduzieren können – und damit meine ich nicht nur Software, sondern auch Rohstoffe etc. Es geht nicht darum, alles Außereuropäische auf null herunterzufahren. Wir sollten niemals versuchen, eine Insel in der Welt sein.

Die großen US-Konzerne reagieren auf die aktuelle Souveränitätsdebatte mit mehr oder minder vom US-Mutterschiff abgetrennten Clouds – womit man speziell auch die regulatorischen Vorgaben von Behörden bedienen will. Zementiert das nicht vorhandene Abhängigkeiten?

Ja, und außerdem glaube ich nicht an eine vollständige Abtrennung. Spätestens bei der Wartung sind sie doch wieder auf das Mutterschiff angewiesen. Und am Ende gilt für die US-Konzerne immer das US-Recht.

Welche internationalen IT-Partner außerhalb der EU werden auch in Zukunft einen guten Ruf genießen können?

Ich denke, dass wir beispielsweise mit Kanada, Südkorea und Japan durchaus sehr gute IT-Partner haben, und bin mir sicher, dass dies auch so bleiben wird.

Warum haben wir diese Debatte vor allem über die Abhängigkeit von US-Cloud-Anbietern, aber nicht bei chinesischen IT-Hardware-Herstellern?

Wir haben die Debatte bei chinesischen IT-Hardware-Herstellern von Anfang an geführt – denken Sie nur an die Umsetzung der NIS1-Richtlinie und die Huawei-Diskussionen noch unter der Regierung von Bundeskanzlerin Merkel. Derzeit ist das NIS2-Umsetzungsgesetz im parlamentarischen Verfahren.

Erleben wir gerade das Ende der Globalisierungs-Ära und stattdessen eine Neubesinnung auf nationale Champions?

Wir erleben in der derzeitigen geopolitischen Neuordnung und dem US-China-Handelskonflikt tatsächlich ein Stück weit ein Ende der sogenannten Globalisierungs-Ära. Das heißt aber nicht, dass wir uns nur noch auf nationale Champions fokussieren. Wir bleiben dem freien Handel auch im Digitalbereich verpflichtet, wir dürfen dabei aber nicht naiv sein. Sonst werden wir in Europa irgendwann am Ende der Wertschöpfungskette stehen.

Herr Brinkaus, vielen Dank für die Antworten!


(axk)



Source link

Künstliche Intelligenz

Smartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht


Smartphone-Fotos aus der Ferne sehen oft enttäuschend aus. Telefotografie bleibt ein Problem, bei dem selbst die cleverste Bildverarbeitung an ihre Grenzen stößt. Lange Brennweiten brauchen Platz und Licht – beides ist im Smartphone-Gehäuse knapp. Physik lässt sich eben nicht per Software-Update aushebeln.

Die chinesischen Smartphone-Hersteller Oppo und Vivo wollen das nun mit Teleaufsätzen für ihre Spitzentelefone lösen. Klingt bekannt? Vor über zehn Jahren waren Aufsatzlinsen schon einmal ein Thema, das dann aber von der rasanten Entwicklung der Hauptkameras überholt wurde.

  • Smartphone-Telefotos wirken oft enttäuschend, weil lange Brennweiten im flachen Gehäuse an physikalische Grenzen stoßen und Software das nur begrenzt kaschiert.
  • Oppo und Vivo setzen auf aufsteckbare Tele-Konverter vor dem eingebauten Teleobjektiv – mit viel Marken-Show.
  • Die Basis ist solide: Beide Smartphones nutzen vergleichsweise große Tele-Sensoren, was grundsätzlich Detail und Bildruhe hilft.
  • In der Bedienung zeigen sich klare Alltagsnachteile: Das Zubehör macht das Setup sperrig, der Umbau kostet Zeit und je nach System blockiert der Adapter andere Kameras oder verlangt umständliche Moduswechsel.
  • Bei der Bildqualität liefern die Teleaufsätze sichtbar natürlichere, optisch „echtere“ Ergebnisse als starker Digitalzoom.

Ob die neuen Teleaufsätze nun der große Wurf sind oder besser zum Vergessen taugen, klärt der Artikel. Das ist auch für iPhone-Nutzer spannend, denn PGYTech, das Unternehmen hinter den Aufsätzen, hat bereits eine Kickstarter-Kampagne für Apple-Smartphones gestartet.


Das war die Leseprobe unseres heise-Plus-Artikels „Smartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Der Aufstieg und Fall von Oculus: Wie Metas VR-Ambitionen einst begannen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Was 2009 als Bastelprojekt eines 17-Jährigen begann, entwickelte sich innerhalb weniger Jahre zum Katalysator eines neuen VR-Zeitalters. Oculus war mehr als nur ein Unternehmen – es war ein Symbol für die Wiedergeburt der Virtual Reality. Doch mit dem Einstieg von Facebook kam es zum Bruch mit der Community und namhaften Partnern, strategischen Kurswechseln und schließlich zum vollständigen Rückzug aller Gründer. Heute existiert die Marke Oculus nur noch als Teil von Metas VR-Gaming-Sparte und könnte aufgrund der kürzlich vorgenommenen Einsparungen bald komplett verschwinden. Was bleibt, ist eine Geschichte von Innovation, Konflikten, einem rasanten Wandel und dem Scheitern einer Vision.

Weiterlesen nach der Anzeige

Palmer Luckey war gerade einmal fünfzehn Jahre alt, als er sich erstmals mit VR-Hardware beschäftigte. Er analysierte alte Forschungsberichte, Militärpatente und medizinische VR-Systeme, bevor er sich gebrauchte Technik günstig auf eBay besorgte und selbst experimentierte. Mit siebzehn baute er den ersten VR-Prototyp, genannt „PR1“ – ein schwerer, unbequemer, aber funktionierender VR-Helm. Sein Ziel: eine erschwingliche, leistungsfähige VR-Brille für den Gaming-Markt.

Anfang 2012 war es dann so weit: Die sechste Generation seines Prototyps, mittlerweile „Oculus Rift“ genannt, war bereit für die Öffentlichkeit. Dazu gründete Luckey zusammen mit Programmierer Brendan Iribe, Softwarearchitekt Michael Antonov und Jack McCauley, der maßgeblich an der Entwicklung der „Guitar Hero“-Instrumente beteiligt war, das Start-up „Oculus VR“. Das Hobby-Projekt entwickelte sich schnell zu einem ernst zu nehmenden Tech-Start-up. Die entscheidende Personalie kam allerdings mit id-Software-Legende John Carmack.



Meta Quest mit Controllern.

(Bild: Meta)

Carmack war begeistert von Luckeys Prototyp und präsentierte das Gerät auf der E3 2012 mit einer VR-Version von „Doom 3“. Schnell entbrannte ein kleiner Hype in der Gaming-Szene und Oculus nutzte das Momentum für eine Kickstarter-Kampagne. Auch Valve-Gründer Gabe Newell empfahl öffentlich, die Kampagne zu unterstützen, und so sollten am 1. August 2012 insgesamt 250.000 US-Dollar eingesammelt werden. Binnen 36 Stunden stand die Summe und am Ende kamen über 2,4 Millionen Dollar von rund 9.500 Unterstützern zusammen. Die Begeisterung war riesig: Endlich schien VR nicht mehr nur ein Forschungs- und Tüftlerthema, sondern greifbar für Konsumenten. Carmack schloss sich 2013 Oculus als Chief Technology Officer an.

Bereits im März 2013 lieferte Oculus das erste Development Kit (DK1) aus, das zwar noch weit vom finalen Produkt entfernt war, aber Entwickelnden erstmals ermöglichte, eigene Spiele für VR umzusetzen. Kurz darauf folgte eine 16-Millionen-Dollar-Finanzierungsrunde und im Dezember 2013 kamen weitere 75 Millionen hinzu. Der Durchbruch sollte mit dem „Crystal Cove“-Prototyp gelingen, vorgestellt auf der CES 2014. Er bot erstmals Raumtracking und ein OLED-Display mit niedriger Latenz. Das war entscheidend, um Motion Sickness zu reduzieren, die ein gravierendes Problem vieler früher VR-Systeme darstellte. Im März 2014 begann der Vorverkauf des DK2. Oculus schloss Partnerschaften mit Unity und Epic Games, die ihre Engines kostenlos für Rift-Entwickler bereitstellten. Auch Valve teilte viel Know-how und Personal mit Oculus und glaubte an ein gemeinsames Ziel. Die VR-Welt war im Aufbruch.

Weiterlesen nach der Anzeige




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Am 25. März 2014 verkündete Facebook für viele überraschend die Übernahme von Oculus für rund zwei Milliarden US-Dollar. Mark Zuckerberg sprach von einer kommenden Plattform, die über Gaming hinaus neue Formen von Kommunikation, Bildung und Zusammenarbeit ermöglichen würde. Für den Social-Media-Milliardär sollte sich nun endlich der Traum einer eigenen und selbstkontrollierten Hardware erfüllen – sein ganz persönlicher iPhone-Moment. Zwölf Jahre später wissen wir, dass Zuckerbergs VR-Wette trotz Namensänderung und Milliarden-Investitionen nicht aufgegangen ist.

Die VR-Community war schon damals sofort gespalten. Viele Unterstützer waren in das Projekt „Oculus“ auch emotional investiert. Sie sahen sich als Teil einer Bewegung, an deren Spitze ein Tech-Wunderkind stand, das revolutionäre Technologie in seiner Garage entwickelte – für die Community und nicht für einen Tech-Konzern. Doch die Realität sah anders aus. Oculus war schon immer ein erfolgsorientiertes Unternehmen mit großem Potenzial, das auch abseits von Kickstarter Finanzspritzen erhielt. Eine Übernahme war also nur eine Frage der Zeit.

Nachdem das als sympathisch wahrgenommene Start-up allerdings Teil eines unbeliebten Konzerns wurde, der bis dato vor allem für Datensammlung und Plattformkontrolle bekannt war, fühlten sich viele Kickstarter-Unterstützer betrogen. Einer davon war Minecraft-Erfinder Markus Persson, der umgehend seine Gespräche mit Oculus über eine VR-Umsetzung seines Erfolgsspiels einstellte. Ein paar Monate später schluckte allerdings Microsoft sein Unternehmen und Minecraft erschien 2016 doch noch für die Oculus Rift. Die Übernahme führte auch zu einem Zerwürfnis mit Valve, das anschließend mit HTC zusammenarbeitete und ein paar Jahre später schließlich selbst die Valve Index veröffentlichte.

Trotz der Kritik ging die Produktentwicklung weiter und dank der Facebook-Milliarden auch deutlich schneller als geplant. Das erste kommerzielle Rift-Headset (CV1) erschien im März 2016 für 599 US-Dollar. Es bot 1080 × 1200 Pixel pro Auge, 90 Hz, 360-Grad-Tracking und erstmals die speziell für VR entwickelten Touch-Controller. Parallel arbeitete Oculus mit Samsung an Gear VR, einer günstigen Mobile-Lösung mit Galaxy-Smartphones als Basis. 2018 folgte die Oculus Go, die erstmals ganz ohne PC oder Smartphone funktionierte, allerdings nur drei Bewegungsgrade (3DoF) beherrschte.


Erste Oculus Rift VR-Brille neben Originalverpackung – frühes Virtual-Reality-Headset als Meilenstein der VR-Gaming-Geschichte.

Erste Oculus Rift VR-Brille neben Originalverpackung – frühes Virtual-Reality-Headset als Meilenstein der VR-Gaming-Geschichte.

Die erste Oculus Rift händigte Palmer Luckey dem ersten Vorbesteller persönlich aus.

(Bild: Palmer Luckey)

Ein Jahr später änderten Facebook und Oculus den Kurs: Mit der Quest erschien erstmals eine autarke VR-Brille mit 6-DoF-Tracking und Inside-Out-Kameras. Die Verbindung zu einem teuren Gaming-PC war nicht mehr nötig, womit eine weitere Einstiegshürde abgebaut werden konnte. Mit der Quest 2 senkte Meta 2020 den Preis auf 299 US-Dollar und verdoppelte die Leistung. Die Geräte verkauften sich millionenfach, auch dank Software wie „Beat Saber“, das noch heute die Liste der meistverkauften Quest-Spiele aller Zeiten anführt.

Seit der Facebook-Übernahme veränderte sich die Plattformphilosophie grundlegend. Aus einer relativ offenen Entwicklerplattform wurde ein kontrolliertes Ökosystem. Facebook verlangte zunehmend Exklusivverträge, schloss den Store für experimentelle Projekte und koppelte ab 2020 Oculus-Geräte an Facebook-Konten – ein Schritt, der zu einem zwischenzeitlichen Verkaufsstopp von Oculus-VR-Brillen in Deutschland führte.

Entwickler fühlten sich ausgeschlossen, Nutzer beklagten Datenschutzprobleme und Sideloading-Tools wie SideQuest entstanden, um Sperren zu umgehen. Oculus gründete unter Facebook eigene Studios und finanzierte exklusive Titel. Ab 2020 übernahm Facebook mehrere namhafte Entwicklerstudios, darunter Beat Games („Beat Saber“), Ready at Dawn („Lone Echo“), BigBox VR („Population: One“), Sanzaru Games („Asgard’s Wrath“) und Camouflaj („Iron Man VR“).

Lesen Sie auch

Ziel war eine stabile Pipeline an hochwertigen, exklusiven Inhalten für die Quest-Plattform. Im Laufe der Jahre sollten die Oculus Studios VR-Blockbuster wie „Asgard’s Wrath 2“, „Batman: Arkham Shadow“ oder „Marvel’s Deadpool VR“ hervorbringen. Storytelling-Versuche wie das Oculus Story Studio zeigten auch das Potenzial für VR-Filme, doch die Priorität verschob sich klar in Richtung Spiele.

Zwischen 2015 und 2021 verließen alle Oculus-Mitgründer das Unternehmen – ein schleichender Prozess, der die wachsende Kluft zwischen der ursprünglichen Vision und der neuen Konzernrealität offenbarte. Jack McCauley ging bereits kurz nach der Facebook-Übernahme desillusioniert von der neuen Unternehmensstruktur und den veränderten Prioritäten. Palmer Luckey, das Gesicht der Firma und Erfinder des ersten Prototyps, wurde 2017 entlassen. Der Auslöser war eine politische Kontroverse: Luckey hatte eine Pro-Trump-Gruppe namens „Nimble America“ finanziell unterstützt, die unter anderem Anti-Clinton-Memes verbreitete. Die Enthüllung führte zu massiver Kritik aus der Entwickler-Community, einige Studios drohten mit dem Boykott von Oculus-Produkten.

Facebook distanzierte sich, Luckey verschwand zunächst aus der Öffentlichkeit und schied schließlich aus dem Unternehmen aus. Er selbst sprach später von einem erzwungenen Abgang. Mittlerweile sind die Wogen geglättet und Luckey arbeitet mit seinem Rüstungsunternehmen Anduril wieder mit Meta zusammen. Brendan Iribe, CEO und einer der wichtigsten strategischen Köpfe hinter Oculus, verließ das Unternehmen 2018. Der Grund: Facebook hatte das ambitionierte Rift-2-Projekt eingestellt, an dem Iribe maßgeblich beteiligt war. Die Entscheidung signalisierte eine klare Verschiebung weg von High-End-PC-VR hin zu günstigeren, autarken Geräten wie der Quest.

Für Iribe, der an die Zukunft der PC-gebundenen Virtual Reality glaubte, war dies ein Bruch mit der ursprünglichen Produktphilosophie. Nate Mitchell, zuletzt Head of VR Product bei Facebook, ging 2021. Iribe und Mitchell arbeiten heute gemeinsam an einem KI-Projekt. Michael Antonov wechselte 2019 in die Biotech-Branche. Auch John Carmack, der 2013 als CTO zu Oculus gestoßen war und dem Unternehmen enorme Glaubwürdigkeit verliehen hatte, reduzierte ab 2019 seine Rolle auf eine beratende Funktion. 2022 verließ er Meta vollständig und kritisierte öffentlich die Ineffizienz des Konzerns. In einem internen Memo sprach er von „verschwendetem Potenzial“ und einer Organisation, die trotz enormer Ressourcen zu langsam vorankommt.

Ohne die ursprünglichen Köpfe hinter Oculus vollzog Facebook im Oktober 2021 einen radikalen Kurswechsel: Das Unternehmen benannte sich in Meta um und erklärte das „Metaverse“ zur zentralen Zukunftsvision. Mark Zuckerberg präsentierte in einer aufwendig inszenierten Keynote eine Welt voller virtueller Räume, in denen Menschen arbeiten, spielen und sich treffen sollten. Seine VR-Brillen sollten das Tor zu dieser neuen Realität werden. Doch die meisten Menschen schienen eher verwirrt von Zuckerbergs Visionen. Die Marke Oculus wurde im Zuge dessen schrittweise eingedampft. Aus Oculus Quest wurde Meta Quest, das Oculus-Logo verschwand von den Geräten, die eigenständige Oculus-App wurde in die Meta-Infrastruktur integriert. Was einst als unabhängiges Start-up begonnen hatte, war nun vollständig in den Konzern aufgegangen – nicht nur strukturell, sondern auch symbolisch.


Meta-Avatar in virtueller Umgebung mit Eiffelturm und Kathedrale – Beispiel für VR-Avatare und soziale Virtual-Reality-Welten.

Meta-Avatar in virtueller Umgebung mit Eiffelturm und Kathedrale – Beispiel für VR-Avatare und soziale Virtual-Reality-Welten.

Mit diesem Screenshot aus „Horizon Worlds“ tat sich Mark Zuckerberg 2022 keinen Gefallen.

(Bild: Mark Zuckerberg / Meta Platforms)

Zuckerbergs Metaverse-Strategie sollte enorme Ressourcen verschlingen. Allein 2022 investierte Meta über 13 Milliarden US-Dollar in seine Reality Labs, die Sparte für VR und AR. Doch die Ergebnisse blieben hinter den Erwartungen zurück. „Horizon Worlds“, Metas soziale VR-Plattform, kämpft seit jeher mit geringen Nutzerzahlen, technischen Problemen und einer wenig einladenden Ästhetik. Kritiker spotteten schon früh über die cartoonhaften Avatare ohne Beine, die eher an frühe Second-Life-Experimente erinnerten als an eine revolutionäre Online-Plattform. Statt einer offenen, kollaborativen VR-Welt entstand ein geschlossener Plattformansatz. Die ursprüngliche Vision der Oculus-Gründer – offene Standards, Entwicklerfreiheit, Community-Nähe – geriet immer weiter in den Hintergrund.

Meta kontrollierte Hardware, Software, Store und Inhalte. Die Verknüpfung mit Facebook- und später Meta-Konten wurde zur Pflicht, Datenschutzbedenken häuften sich. Entwickler beklagten intransparente Richtlinien und willkürliche Ablehnungen im App-Store und das erhoffte Branchenwachstum blieb auch mit verbesserten und günstigen Geräten wie der Meta Quest 3 und Quest 3S aus. Heute setzt Meta vor allem auf Künstliche Intelligenz und Smart Glasses, während Virtual Reality nur noch nebenherzulaufen scheint.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Oculus hat der Virtual Reality einst den Weg in die Gegenwart geebnet. Ohne Luckeys Pionierarbeit, Carmacks Unterstützung und die Begeisterung der frühen Unterstützer gäbe es viele Entwicklungen in der Branche heute womöglich gar nicht. Doch die Geschichte zeigt auch, wie schnell eine Idealvorstellung durch Konzernlogik ersetzt werden kann. Der kometenhafte Aufstieg von Oculus ist damit auch ein Lehrstück über die Risiken von Übernahmen im Tech-Sektor und missverstandenen und fehlgeleiteten Visionen. Mit den enormen Einsparungen in Metas VR-Gaming-Sparte und der Schließung zahlreicher Studios, dürfte es nur noch eine Frage der Zeit sein, bis auch das letzte Überbleibsel des einst so gefeierten Start-ups von der VR-Bildfläche verschwindet.


(joe)



Source link

Weiterlesen

Künstliche Intelligenz

Fahrassistenz: Hyundai entwickelt „Vision Pulse“-Sensorfusion mit Lidar und UWB


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Assistenzfunktionen im Auto sind auf eine verlässliche automatische Umgebungserkennung möglichst nahe an der Echtzeit angewiesen. Jeder, der solche Systeme schon benutzt hat, weiß allerdings, dass sie nicht immer richtig liegen in ihrer Einschätzung. Die Hoffnung der Industrie liegt dennoch darin, mithilfe dieser Fähigkeiten den Fahrer immer besser unterstützen und künftig ganz ersetzen zu können. Wie alle großen Mitspieler arbeitet auch der Hyundai-Konzern mit seiner Automarke Kia fleißig an der Perfektionierung des assistierten Fahrens und stellt ein System namens „Vision Pulse“ vor. Da jede zurzeit bekannte Methode zur Ortsbestimmung und Umfelderfassung unter bestimmten Bedingungen fehlerbehaftet arbeitet, setzt man mehrere Techniken gleichzeitig ein, damit sie sich mit ihren spezifischen Vor- und Nachteilen ergänzen. Man bezeichnet das etwas verallgemeinernd als „Sensorfusion“.

Weiterlesen nach der Anzeige

Schon seit Längerem hat sich eine Positionierung von anderen Verkehrsteilnehmern mithilfe von Lidar bewährt, auch wenn selbst dieses teure System in Grenzbereichen fehlerbehaftet sein kann. Eine parallel arbeitende Umfelderfassung auf Basis elektromagnetischer Ultrabreitband-Signale im Gigahertzbereich (UWB, wie „Ultra Wideband“) kann diese Fehler in Quasi-Echtzeit korrigieren und damit die Grundlage für eine zentimetergenaue, zuverlässige Raumorientierung bieten. Zudem ist UWB praktisch nicht durch andere Funkwellen störbar und wird auch nicht gebeugt. Mehrere wissenschaftliche Arbeiten haben das mittlerweile gut zeigen können. Die Hoffnungen auf diese Art der Umfelderkennung sind daher groß. Dazu kommt, dass die Ultrabreitbandtechnik im Gegensatz zu Lidar äußerst kostengünstig ist und vergleichsweise wenig Strom benötigt.

Der Hyundai-Konzern möchte diese Art der Sensorfusion künftig in Pkws seiner Marken Hyundai, Kia und Genesis einsetzen, um die Qualität ihrer Assistenzsysteme zu verbessern. Als Markennamen hat man sich „Vision Pulse“ ausgedacht. Der Konzern verspricht, die Assistenz sei damit in der Lage, in einem Umkreis von 100 m Objekte mit einer Fehlertoleranz von nur 10 cm zu orten und spricht von einer Erkennungsgenauigkeit von über 99 Prozent „auch bei widrigen Wetterbedingungen oder Dunkelheit“. Seine „hohe Kommunikationsgeschwindigkeit zwischen 1 und 5 Millisekunden“ soll ein „effektives Sicherheitsmanagement in Echtzeit“ ermöglichen. Algorithmen extrahieren aus den Daten die Positionen und Bewegungsrichtungen mehrerer für das Fahrzeug relevanter Objekte, selbst wenn sie sich mit hoher Geschwindigkeit bewegen, wie Hyundai schreibt. Das System wird in diesem Video von Kia gezeigt:

Zusätzlich soll der Empfänger zur Ortung über die eigene Wellenausbreitung auch die UWB-Signale nutzen, die andere mit dieser Technologie arbeitende Geräte abstrahlen. Damit soll die Erkennung noch differenzierter werden und immer dichter, je mehr dieser kleinen Sender auf den Straßen unterwegs sind. Hyundai baut sie, wie viele andere Hersteller bereits in die eigenen Autos für die Kommunikation mit einem Funkschlüssel ein. Zudem nutzen auch einige Smartphones, Smartwatches und Tracker UWB für bestimmte Funktionen.

Weiterlesen nach der Anzeige

Hyundai schlägt sogar vor, auf dieser Basis möglichst viele kleine Sender an Fußgänger zu verteilen und damit bei Kindergarten- und Schulkindern zu beginnen. Gerade die verletzlichsten Verkehrsteilnehmer wären dann potenziell besser geschützt als die meisten anderen. Noch befindet sich das System in einer Testphase unter realistischen Alltagsbedingungen und realen industriellen Umgebungen. Kia und Hyundai Motor testen zurzeit in einem eigenen Entwicklungszentrum in Hwaseong und dem Seehafen in Busan (beide in Korea), wie Vision Pulse helfen kann, Zusammenstößen zwischen Arbeitsfahrzeugen und Fußgängern vorzubeugen.

Mehr über Hyundai


(fpi)



Source link

Weiterlesen

Beliebt