Künstliche Intelligenz
Virtual Reality in den 80ern: Ohne Videospielcrash gäbe es heute keine VR-Brille
Die Geschichte der Virtual Reality ist voller Kuriositäten, spannender Storys und Pionieren, die einzigartiges geleistet haben. Doch die wohl wichtigste Zeit für die Entwicklung dieses Mediums waren die Achtzigerjahre. In diesem Jahrzehnt nahm die Geschichte der Virtual Reality eine entscheidende Wendung – paradoxerweise ausgelöst durch den Zusammenbruch der Videospielindustrie. Ohne diesen Crash und die daraus resultierenden Entwicklungen hätte es möglicherweise niemals eine Oculus Rift oder Valve Index gegeben.
LEEP: Ein Tüftler überzeugt die NASA
Nach den ersten immersiven Experimenten in den 1960er Jahren rund um Morton Heiligs „Sensorama“ und Ivan Sutherlands „The Damocles Sword“ wurde es lange still um die Erforschung virtueller Realitäten. Erst in den Achtzigern nahm die Entwicklung wieder Fahrt auf, als die NASA ihr Interesse für innovative Zukunftstechnologien neu entdeckte. Den Stein ins Rollen brachte 1980 der Fotograf Eric Howlett mit seinem „LEEP Panoramic Stereo Photography System“ – bestehend aus einer Weitwinkelkamera und einem Betrachtungsgerät mit bis zu 140 Grad Sichtfeld.
Obwohl Howlett mit seiner Erfindung auf der Photographic Society of America-Konferenz Aufsehen erregte, konnte er etablierte Unternehmen wie Kodak nicht überzeugen. Der Versuch der Eigenproduktion scheiterte ebenfalls. Erst als Mitte der Achtziger ein NASA-Ingenieur von der Erfindung erfuhr, wurde LEEP Realität und weckte später auch das Interesse von VPL Research – einem der wichtigsten Unternehmen der VR-Geschichte.
Vom Gartenhandschuh zum Datenhandschuh
Parallel dazu arbeitete MIT-Absolvent Thomas Zimmerman an der Umsetzung virtueller Musikinstrumente und entwickelte ein System zur Messung von Fingerbiegungen. Sein Prototyp bestand aus einem simplen Gartenhandschuh mit hohlen Röhrchen an jedem Finger, ausgestattet mit LED-Lichtern und Fototransistoren. Je stärker sich ein Finger bog, desto weniger Licht drang durch die Röhrchen. 1982 reichte Zimmerman ein Patent für seinen optischen Flex-Sensor ein.
Zimmermans Prototyp war allerdings nicht der erste jemals entwickelte Datenhandschuh. Bereits 1977 konzipierten Daniel J. Sandin und Tom DeFanti den „Sayre Glove“ auf einem ähnlichen Prinzip. Dieser schaffte es aber nie über einen Prototypstatus hinaus. Zimmerman hingegen hatte in den folgenden Jahren noch einiges mit seinem Gartenhandschuh vor.
Über seine Programmierkollegin Nancy Mayer, Ehefrau des ATARI-Mitbegründers Steve Mayer, gelangte er schließlich zu ATARI. Das Forschungslabor des Spielegiganten beschäftigte sich damals mit der Zukunft digitaler Unterhaltungsmedien und bot Zimmerman 10.000 US-Dollar für die Patentrechte an seinem Datenhandschuh, doch er lehnte ab.
Der Videospielcrash als Wendepunkt
1983 traf die Videospielkrise ATARI hart und zwang das Unternehmen, sein Forschungslabor zu schließen. Zimmerman konzentrierte sich fortan auf die Entwicklung von Voice-Synthesizern, sein Flex-Sensor verschwand in der Schublade. Auch Jaron Lanier, der für ATARI das innovative Musikspiel „Moondust“ entwickelt hatte, verlor durch den Crash seinen Job.
Lanier nutzte die Lizenzeinnahmen aus „Moondust“, um an einer visuellen Programmiersprache zu forschen – Code sollte durch Zeichen, Symbole und Sounds ersetzt werden. Damit wollte Lanier komplexe Programmierungen auch für Nicht-Informatiker zugänglich machen. Das Projekt war seiner Zeit allerdings voraus: Die damaligen Monitore waren schlichtweg zu klein für die Darstellung.
Die Geburt von VPL Research
1984 lernten sich die Musikliebhaber Lanier und Zimmerman schließlich auf einem Stanford-Konzert kennen. Für Lanier schien Zimmermans Flex-Sensor das ideale Eingabegerät für seine visuelle Programmiersprache zu sein. Gemeinsam gründeten sie VPL Research und arbeiteten mit einem Team an der technischen Umsetzung ihrer Visionen. VPL Research leistete bahnbrechende Pionierarbeit: Lanier prägte 1987 erstmals den Begriff „Virtual Reality“, entwickelte seine Programmiersprache für VR-Anwendungen unter dem Namen „Body Electric“ weiter und schuf mit der Rendering-Engine „Isaac“ die ersten virtuellen Avatare.
Aus Zimmermans Gartenhandschuh wurde der „Z-Glove“ mit Ultraschall-Tracking, der erstmals Handpositionen im dreidimensionalen Raum erkannte. Die nächste Iteration, der „Data Glove“, nutzte magnetische Sensoren und Lichtwellenleiter für präzisere Messungen. Die NASA erkannte das Potenzial sofort.
Die Entstehung der ersten kommerziellen VR-Brille
Die US-Raumfahrtbehörde entwickelte 1985 das „Virtual Environment Display System“ – ein Weitwinkel-Anzeigesystem mit 120-Grad-Sichtfeld, montiert auf einem herkömmlichen Motorradhelm mit Bewegungssensoren. Damit sollten Ingenieure ihre Modelle im dreidimensionalen Raum betrachten können – ein Anwendungsgebiet, das für aktuelle VR- und Mixed-Reality-Headsets wie die Apple Vision Pro oder die HTC Vive Focus Vision im B2B-Segment zum Standardrepertoire gehört.
Ab 1986 half VPL Research bei der Weiterentwicklung zu „VIEW“, das auf Howletts LEEP-System basierte und virtuelle Simulationen sowie Robotersteuerung in Echtzeit ermöglichen sollte. VPL Research nahm den Fuß nicht vom Gas und stellte schon kurz nach dem Data Glove die nächste Innovation vor. Aus dem Handschuh wurde ein ganzer Anzug: Der „Data Suit“ konnte Bewegungen von Armen, Beinen und Rumpf erfassen und kam vor allem als Motion Capturing-Anzug bei Filmdrehs zum Einsatz.
Ein Jahr später stellte VPL die erste kommerzielle VR-Brille vor: das aus heutiger Sicht kurios benannte „VPL EyePhone HRX“. Die VR-Brille sollte vorrangig bei Unternehmen und in der Forschung eingesetzt werden. Kein Wunder, denn selbst für die technikaffinsten Privatanwender wäre der Anschaffungspreis von 49.000 US-Dollar – inflationsbereinigt entspricht das heute etwa 140.000 US-Dollar – eine kaum zu nehmende Hürde gewesen. Für den als Eingabegerät noch einmal weiterentwickelten Data Glove veranschlagte VPL weitere 9000 US-Dollar.
Das Ende einer Ära
Um die VR-Brille betreiben zu können, benötigten Nutzer für die damalige Zeit enorm leistungsfähige Rechner. Für ein Komplettset, bestehend aus VR-Brille, Datenhandschuhen und Computer, beliefen sich die Anschaffungskosten auf etwa 250.000 US-Dollar. Das entspricht einem heutigen Wert von etwa 700.000 US-Dollar. Die Geräte waren allerdings noch lange nicht mit heutigen Standards vergleichbar und litten bei aller Innovation unter den technischen Limitierungen der damaligen Zeit.
Das „EyePhone“ hatte eine Auflösung von 320 x 240 Pixeln pro Auge und schaffte es lediglich auf fünf bis sechs Bilder pro Sekunde. Zum Vergleich: Damalige TV-Geräte erreichten bereits 30 Bilder pro Sekunde, heute gängige VR-Brillen wie Valve Index, Meta Quest 3 oder die Playstation VR 2 arbeiten mit Bildraten von bis zu 144 Hz und die Apple Vision Pro löst in 4K auf. Trotz der (theoretisch) beeindruckenden Technologie gab es kaum lukrative Anwendungsbereiche, und der Konsumentenmarkt blieb aufgrund der hohen Fertigungskosten unerreichbar. Immerhin: 1989 brachte es eine abgespeckte DataGlove-Version als gehyptes Nintendo-Zubehör zu zweifelhaftem Ruhm.
Für Investoren wurde VPL zunehmend uninteressant und musste 1990 – kurz vor dem ersten großen VR-Hype im Entertainmentbereich – Konkurs anmelden. Heute gilt Gaming als der große Türöffner für VR auf dem Konsumentenmarkt. Ironischerweise legte ausgerechnet der Videospielcrash von 1983 den Grundstein für die moderne Virtual Reality. Ohne die Schließung der ATARI-Forschungslabore hätten Lanier und Zimmerman möglicherweise nie zusammengefunden, und VPL Research hätte mit ihrer Forschung nie die nötige Pionierarbeit für heutige Entwicklungen leisten können. Die NASA setzt heute übrigens immer noch auf Virtual Reality für das Astronautentraining. Zum Einsatz kommen dabei VR-Brillen von Meta, die im Handel für rund 500 Euro zu haben sind und nicht mal mehr einen Rechner für den Betrieb benötigen.
(joe)
Künstliche Intelligenz
EUDI: Lufthansa und Amadeus testen digitale EU-Wallet für einfacheres Reisen
Durch Digitalisierung von Identitäts- und Reiseprozessen sollen wiederholte manuelle Eingaben oder Vorzeigen physischer Dokumente überflüssig werden. Ab 2026 sollen daher elektronische Brieftaschen auf Basis des Rechtsakts für eine europäische digitale Identität (EUid) nicht nur Verwaltungsdienstleistungen, sondern auch Reisen für EU-Bürger vereinfachen. Die entsprechende Wallet auf dem Smartphone ermöglicht die sichere Speicherung wichtiger Dokumente wie Reisepässe und Personalausweise, aber auch biometrischer Profile und Zahlungsinformationen.
Lufthansa und der Reisedienstleister Amadeus, die beide am European Digital Identity (EUDI) Wallet Consortium für großangelegte Pilotprojekte beteiligt sind, haben die in der EU vorgesehene E-Brieftasche nach eigenen Angaben bereits erfolgreich für verschiedene solche Prozesse getestet. Dazu gehören Online-Check-in sowie Abläufe am Flughafen wie Gepäckaufgabe und Boarding. In der zweiten Jahreshälfte sollen weitere Tests für Flughafensicherheit und Grenzkontrollen folgen.
Die EUDI-Wallet verspricht in diesem Umfeld laut Amadeus Vorteile: Reisende könnten ihre Ausweisdaten mit nur einem Klick von der E-Brieftasche an die Fluggesellschaft übertragen, anstatt sie manuell einzutippen. Nutzer würden zudem befähigt, ihre in der Wallet hinterlegten Körpermerkmale wie Gesichtsbild oder Fingerabdrücke zu teilen, um biometrische Systeme am Flughafen zu nutzen. Ein separater Scan oder eine Authentifizierung per Selfie entfalle.
Fehlendes Puzzlestück für kontaktloses Reisen
Vom Check-in über die Gepäckabgabe bis zum Betreten des Flugzeugs genüge das Smartphone, wirbt Amadeus für das Verfahren. Bei automatisierten Grenzkontrolle könnten Einreisewillige ihre Identität mittels Handy nachweisen. Die Wallet ermögliche ferner sichere Zahlungen online oder an Terminals am Flughafen, indem auf eine hinterlegte Kreditkarte zugegriffen wird.
Um die nahtlose Integration von EUDI-Wallets zu gewährleisten, hat Amadeus seine Lösung „Travel Ready“ weiterentwickelt. Diese Plattform setzen nicht nur viele Reiseunternehmen im Hintergrund ein. Sie soll nun auch die notwendige Infrastruktur für die Interoperabilität mit Wallets von Drittanbietern bieten und die Kompatibilität aller künftigen digitalen Identitätslösungen sicherstellen. Die sensibelsten Daten blieben dabei auf dem Endgerät des Nutzers gespeichert, betont Amadeus. Sie gelangten nicht auf externe Server. Reisende könnten selbst entscheiden, welche Daten sie für welche Transaktion preisgeben.
„Fliegen wird für Europäer deutlich einfacher“, zieht Falk Durm von Lufthansa ein Fazit des ersten Probelaufs. Rudy Daniello von Amadeus ist sich sicher: „Die digitale Identität ist das fehlende Puzzlestück für nahtloses Reisen.“ Die Luftfahrtbranche arbeitet schon seit Längerem daran, Check-ins an Flughäfen mit Bordkarten durch ein System digitaler Reiseausweise zu ersetzen. Die Internationale Zivilluftfahrtorganisation (ICAO) hat dazu das Konzept sogenannter Digital Travel Credentials entwickelt. Nach ersten Pilotprojekten mit Fluglinien will Amadeus die Blaupause bald in der Breite umzusetzen.
(ds)
Künstliche Intelligenz
Nvidia soll TSMCs erster Kunde für A16-Technik werden
Nvidias übernächste GPU-Generation Feynman könnte mit der fortschrittlichen Fertigungstechnik A16 des weltweit größten Chipauftragsfertigers TSMC erscheinen. Nvidia soll dessen Einsatz derzeit erwägen, auch um sich einen technischen Vorteil gegenüber AMD zu verschaffen. Darüber berichtet CTEE aus Taiwan.
TSMC will gegen Ende 2026 die Serienproduktion von A16-Chips beginnen. Nvidia hat die Feynman-Generation für 2028 angesetzt und könnte Muster dann womöglich schon 2027 verschicken. 2026 und 2027 erscheinen erst einmal Rubin und Rubin Ultra in Serie.
Rückseitige Stromversorgung
A16 kombiniert TSMCs 2-Nanometer-Fertigung (N2) mit einer rückseitigen Chipstromversorgung, Backside Power Delivery beziehungsweise Super Power Rails genannt. Während der Transistoraufbau zu N2 weitgehend identisch bleibt, wandern die Metalllagen zur Stromversorgung der Transistoren von der Ober- auf die Unterseite. Das entwirrt die Datenpfade auf der Oberseite und verbessert die elektrischen Charakteristika laut TSMC erheblich, nahe einem üblichen Generationssprung.
Ebenfalls für Nvidia praktisch: TSMC baut immer komplexere Konstruktionen aus mehreren Chips, um die Performance zu steigern.
Für Smartphones wirtschaftlich unspannend
Normalerweise ist Apple stets der erste große Abnehmer für Chips mit TSMCs neuester Fertigungstechnik, inzwischen gefolgt von Mediatek. Die Backside Power Delivery ist für mobile Chips aufgrund der höheren Kosten und des komplexen Aufbaus allerdings weniger interessant. Apple & Co. könnten daher von N2 direkt auf A14 ohne rückseitige Stromversorgung springen und dann wieder schneller als Nvidia sein.
Das Geld für modernste Fertigungstechnik hat Nvidia allemal. Im KI-Umfeld kann Nvidia die Preise weit genug anheben, um die Bruttomarge über 70 Prozent zu halten.
Chipauftragsfertiger selbst machen die Preise für Silizium-Wafer und damit Chips nie öffentlich. Gerüchten zufolge sollen die Kosten eines einzelnen Wafers mit der N2-Generation auf 30.000 US-Dollar steigen. Auf Nvidias Blackwell-KI-Beschleunigern sitzen zwei gut 800 mm² große GPUs, wovon nicht einmal 100 Stück auf einen Wafer mit 300 mm Durchmesser passen.
Für GeForce-Grafikkarten erscheint der Wechsel zu A16 aufgrund der Kosten eher unwahrscheinlich. Nvidia könnte die Entwicklung zwischen Gaming- und KI-Chips folglich weiter aufsplitten.
(mma)
Künstliche Intelligenz
E-Mobilität: Neuzulassungen von E-Pkw sind im 1. Halbjahr sprunghaft gestiegen
Die Elektromobilität in Deutschland nimmt deutlich an Fahrt auf und hat im ersten Halbjahr 2025 erneut Fortschritte erzielt. Der am Dienstag veröffentlichte 7. Elektromobilitätsmonitor des Bundesverbands der Energie- und Wasserwirtschaft (BDEW) zeigt in drei zentralen Bereichen, dass der Wandel zu nachhaltiger Mobilität an Dynamik gewinnt. Bedenken vieler potenzieller E-Auto-Käufer rund um Reichweitenangst oder Ladesäulenmangel gehören den Zahlen zufolge zunehmend der Vergangenheit an.
Die Verkaufszahlen für Elektro-Pkw haben laut dem Statusbericht einen neuen Höchststand erreicht. Im ersten Halbjahr 2025 wurden insgesamt 248.726 neue E-Autos zugelassen. Das sind 35 Prozent mehr als im Vorjahreszeitraum und ein Plus von 13 Prozent gegenüber dem bisherigen Rekordjahr 2023. Allein im August 2025 machten batterieelektrische Fahrzeuge (BEV) 19 Prozent aller Neuzulassungen aus. Das wachsende Angebot wirkt offenbar: Schon im Juli hatten über 18 Prozent aller Neuzulassungen einen Elektromotor, sodass der Boom bereits eine Weile anhält.
Diese Entwicklung ist laut dem BDEW ein klarer Beleg dafür, dass sich immer mehr Verbraucher für E-Mobilität entscheiden. Gleichzeitig tragen die steigenden Zulassungszahlen dazu bei, die durchschnittlichen CO₂-Emissionen der Neuwagenflotte zu senken und die ambitionierten – von der Autoindustrie kritisierten – EU-Flottengrenzwerte einzuhalten.
Mehr Stromzapfsäulen
Auch der Ausbau der öffentlichen Ladeinfrastruktur schreitet mit großen Schritten voran. Bis Mitte 2025 standen in Deutschland rund 184.000 öffentliche Ladepunkte zur Verfügung, was einer Steigerung von 11 Prozent im Vergleich zum Jahresbeginn entspricht. In den ersten sechs Monaten des Jahres wurden über 20.000 neue Ladepunkte von der privaten Wirtschaft errichtet. Besonders die Zahl der Ultraschnelllader hat stark zugenommen, was die Ladeleistung insgesamt signifikant erhöht.
Trotz der Rekordzulassungen von E-Autos waren im Schnitt nur 15 Prozent der öffentlichen Ladepunkte gleichzeitig belegt. Das bedeutet für Fahrer, die eine Lademöglichkeit suchen, dass durchschnittlich 85 Prozent der Stromzapfsäulen frei sind.
Erstmals hat der Verband mit der Übersicht auch die Ladeinfrastruktur für E-Lkw in den Blick genommen. Er zeigt, dass auch hier der Ausbau gut vorankommt. Bereits 70 Ladestandorte sind für E-Lkw verfügbar, von denen 50 die EU-Kriterien erfüllen. Damit sind bereits 67 Prozent des 13.300 Kilometer langen Autobahnnetzes abgedeckt – das EU-Ziel von 15 Prozent wird somit um das 4,5-fache übertroffen.
Preisvorteile beim E-Auto
E-Mobilität ist nicht nur sauberer, sondern in den meisten Fällen auch günstiger, ist dem Report zudem zu entnehmen. Die Kostenanalyse zeigt, dass das Laden eines Elektroautos in vier von fünf gängigen Szenarien preiswerter ist als das Tanken eines Verbrenners. Dazu gehören das Laden zu Hause, das öffentliche Normalladen und Schnellladen beim Vertragspartner sowie das öffentliche Stromtanken bei einem Roamingpartner.
Selbst im fünften Fall, dem öffentlichen Schnellladen über einen Roamingpartner, sind die Kosten je nach Vertrag vergleichbar. Und selbst im Extremszenario, bei dem ein E-Auto ausschließlich an öffentlichen Schnellladesäulen und nur über Roaming geladen wird, muss dies nicht mehr kosten als die durchschnittlichen Kraftstoffpreise.
Nachhaltige Steueranreize erwünscht
Einen klaren Beweis dafür, dass der E-Mobilitätsmarkt in Deutschland runder läuft, sieht die BDEW-Chefin Kerstin Andreae in der Statistik. Sie betont, dass der Staat jetzt auf dieser positiven Dynamik aufbauen muss, um die E-Mobilität weiter zu fördern und insbesondere für Privatkunden noch attraktiver zu gestalten. Ein starker Heimatmarkt sei unerlässlich, um die internationale Wettbewerbsfähigkeit Deutschlands zu sichern.
Andreae warnt davor, die Flottengrenzwerte abzusenken. Dies würde die Investitionen und Arbeitsplätze in der Branche gefährden und die Planbarkeit für alle Marktakteure zunichtemachen. Stattdessen sollten die bestehenden Ansätze der Bundesregierung weiter ausgebaut werden. Sie schlägt vor, dass die öffentliche Hand beim Kauf von E-Fahrzeugen für die eigenen Fuhrparks mit gutem Beispiel vorangeht. Zudem sollte der kürzlich beschlossene Innovationsbooster für Sonderabschreibungen auch auf Leasingfahrzeuge ausgeweitet werden. Anstatt auf teure Förderprogramme zu setzen, seien nachhaltige Steueranreize für E-Autos der richtige Weg, wie erfolgreiche Beispiele in Ländern wie Norwegen, den Niederlanden oder Belgien belegten.
Der BDEW fordert eine umfassende E-Mobilitätsstrategie von der Bundesregierung und der EU-Kommission. Die Energiebranche müsse dabei als wichtiger Wegbereiter aktiv in die laufenden Auto-Dialoge eingebunden werden, um die Weichen für eine erfolgreiche Zukunft zu stellen. EU-Kommissionspräsidentin Ursula von der Leyen betonte gerade in ihrer Rede zur Lage der Union: „Die Zukunft ist elektrisch!“ Zugleich plädiert sie aber für „Technologieneutralität“. Auch der niedersächsische Ministerpräsident Olaf Lies (SPD) erachtet den elektrischen Antrieb als Leittechnologie der Zukunft. Trotzdem ist er dafür, dass Fahrzeuge mit Verbrennungsmotoren wie Plug-in-Hybride weiterhin zugelassen werden dürfen, wenn sie zum Erreichen der Klimaziele beitragen.
(mack)
-
UX/UI & Webdesignvor 4 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 Wochen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 4 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 4 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Digital Business & Startupsvor 3 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Apps & Mobile Entwicklungvor 3 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen