Künstliche Intelligenz
Virtual Reality in den 80ern: Ohne Videospielcrash gäbe es heute keine VR-Brille
Die Geschichte der Virtual Reality ist voller Kuriositäten, spannender Storys und Pionieren, die einzigartiges geleistet haben. Doch die wohl wichtigste Zeit für die Entwicklung dieses Mediums waren die Achtzigerjahre. In diesem Jahrzehnt nahm die Geschichte der Virtual Reality eine entscheidende Wendung – paradoxerweise ausgelöst durch den Zusammenbruch der Videospielindustrie. Ohne diesen Crash und die daraus resultierenden Entwicklungen hätte es möglicherweise niemals eine Oculus Rift oder Valve Index gegeben.
LEEP: Ein Tüftler überzeugt die NASA
Nach den ersten immersiven Experimenten in den 1960er Jahren rund um Morton Heiligs „Sensorama“ und Ivan Sutherlands „The Damocles Sword“ wurde es lange still um die Erforschung virtueller Realitäten. Erst in den Achtzigern nahm die Entwicklung wieder Fahrt auf, als die NASA ihr Interesse für innovative Zukunftstechnologien neu entdeckte. Den Stein ins Rollen brachte 1980 der Fotograf Eric Howlett mit seinem „LEEP Panoramic Stereo Photography System“ – bestehend aus einer Weitwinkelkamera und einem Betrachtungsgerät mit bis zu 140 Grad Sichtfeld.
Obwohl Howlett mit seiner Erfindung auf der Photographic Society of America-Konferenz Aufsehen erregte, konnte er etablierte Unternehmen wie Kodak nicht überzeugen. Der Versuch der Eigenproduktion scheiterte ebenfalls. Erst als Mitte der Achtziger ein NASA-Ingenieur von der Erfindung erfuhr, wurde LEEP Realität und weckte später auch das Interesse von VPL Research – einem der wichtigsten Unternehmen der VR-Geschichte.
Vom Gartenhandschuh zum Datenhandschuh
Parallel dazu arbeitete MIT-Absolvent Thomas Zimmerman an der Umsetzung virtueller Musikinstrumente und entwickelte ein System zur Messung von Fingerbiegungen. Sein Prototyp bestand aus einem simplen Gartenhandschuh mit hohlen Röhrchen an jedem Finger, ausgestattet mit LED-Lichtern und Fototransistoren. Je stärker sich ein Finger bog, desto weniger Licht drang durch die Röhrchen. 1982 reichte Zimmerman ein Patent für seinen optischen Flex-Sensor ein.
Zimmermans Prototyp war allerdings nicht der erste jemals entwickelte Datenhandschuh. Bereits 1977 konzipierten Daniel J. Sandin und Tom DeFanti den „Sayre Glove“ auf einem ähnlichen Prinzip. Dieser schaffte es aber nie über einen Prototypstatus hinaus. Zimmerman hingegen hatte in den folgenden Jahren noch einiges mit seinem Gartenhandschuh vor.
Über seine Programmierkollegin Nancy Mayer, Ehefrau des ATARI-Mitbegründers Steve Mayer, gelangte er schließlich zu ATARI. Das Forschungslabor des Spielegiganten beschäftigte sich damals mit der Zukunft digitaler Unterhaltungsmedien und bot Zimmerman 10.000 US-Dollar für die Patentrechte an seinem Datenhandschuh, doch er lehnte ab.
Der Videospielcrash als Wendepunkt
1983 traf die Videospielkrise ATARI hart und zwang das Unternehmen, sein Forschungslabor zu schließen. Zimmerman konzentrierte sich fortan auf die Entwicklung von Voice-Synthesizern, sein Flex-Sensor verschwand in der Schublade. Auch Jaron Lanier, der für ATARI das innovative Musikspiel „Moondust“ entwickelt hatte, verlor durch den Crash seinen Job.
Lanier nutzte die Lizenzeinnahmen aus „Moondust“, um an einer visuellen Programmiersprache zu forschen – Code sollte durch Zeichen, Symbole und Sounds ersetzt werden. Damit wollte Lanier komplexe Programmierungen auch für Nicht-Informatiker zugänglich machen. Das Projekt war seiner Zeit allerdings voraus: Die damaligen Monitore waren schlichtweg zu klein für die Darstellung.
Die Geburt von VPL Research
1984 lernten sich die Musikliebhaber Lanier und Zimmerman schließlich auf einem Stanford-Konzert kennen. Für Lanier schien Zimmermans Flex-Sensor das ideale Eingabegerät für seine visuelle Programmiersprache zu sein. Gemeinsam gründeten sie VPL Research und arbeiteten mit einem Team an der technischen Umsetzung ihrer Visionen. VPL Research leistete bahnbrechende Pionierarbeit: Lanier prägte 1987 erstmals den Begriff „Virtual Reality“, entwickelte seine Programmiersprache für VR-Anwendungen unter dem Namen „Body Electric“ weiter und schuf mit der Rendering-Engine „Isaac“ die ersten virtuellen Avatare.
Aus Zimmermans Gartenhandschuh wurde der „Z-Glove“ mit Ultraschall-Tracking, der erstmals Handpositionen im dreidimensionalen Raum erkannte. Die nächste Iteration, der „Data Glove“, nutzte magnetische Sensoren und Lichtwellenleiter für präzisere Messungen. Die NASA erkannte das Potenzial sofort.
Die Entstehung der ersten kommerziellen VR-Brille
Die US-Raumfahrtbehörde entwickelte 1985 das „Virtual Environment Display System“ – ein Weitwinkel-Anzeigesystem mit 120-Grad-Sichtfeld, montiert auf einem herkömmlichen Motorradhelm mit Bewegungssensoren. Damit sollten Ingenieure ihre Modelle im dreidimensionalen Raum betrachten können – ein Anwendungsgebiet, das für aktuelle VR- und Mixed-Reality-Headsets wie die Apple Vision Pro oder die HTC Vive Focus Vision im B2B-Segment zum Standardrepertoire gehört.
Ab 1986 half VPL Research bei der Weiterentwicklung zu „VIEW“, das auf Howletts LEEP-System basierte und virtuelle Simulationen sowie Robotersteuerung in Echtzeit ermöglichen sollte. VPL Research nahm den Fuß nicht vom Gas und stellte schon kurz nach dem Data Glove die nächste Innovation vor. Aus dem Handschuh wurde ein ganzer Anzug: Der „Data Suit“ konnte Bewegungen von Armen, Beinen und Rumpf erfassen und kam vor allem als Motion Capturing-Anzug bei Filmdrehs zum Einsatz.
Ein Jahr später stellte VPL die erste kommerzielle VR-Brille vor: das aus heutiger Sicht kurios benannte „VPL EyePhone HRX“. Die VR-Brille sollte vorrangig bei Unternehmen und in der Forschung eingesetzt werden. Kein Wunder, denn selbst für die technikaffinsten Privatanwender wäre der Anschaffungspreis von 49.000 US-Dollar – inflationsbereinigt entspricht das heute etwa 140.000 US-Dollar – eine kaum zu nehmende Hürde gewesen. Für den als Eingabegerät noch einmal weiterentwickelten Data Glove veranschlagte VPL weitere 9000 US-Dollar.
Das Ende einer Ära
Um die VR-Brille betreiben zu können, benötigten Nutzer für die damalige Zeit enorm leistungsfähige Rechner. Für ein Komplettset, bestehend aus VR-Brille, Datenhandschuhen und Computer, beliefen sich die Anschaffungskosten auf etwa 250.000 US-Dollar. Das entspricht einem heutigen Wert von etwa 700.000 US-Dollar. Die Geräte waren allerdings noch lange nicht mit heutigen Standards vergleichbar und litten bei aller Innovation unter den technischen Limitierungen der damaligen Zeit.
Das „EyePhone“ hatte eine Auflösung von 320 x 240 Pixeln pro Auge und schaffte es lediglich auf fünf bis sechs Bilder pro Sekunde. Zum Vergleich: Damalige TV-Geräte erreichten bereits 30 Bilder pro Sekunde, heute gängige VR-Brillen wie Valve Index, Meta Quest 3 oder die Playstation VR 2 arbeiten mit Bildraten von bis zu 144 Hz und die Apple Vision Pro löst in 4K auf. Trotz der (theoretisch) beeindruckenden Technologie gab es kaum lukrative Anwendungsbereiche, und der Konsumentenmarkt blieb aufgrund der hohen Fertigungskosten unerreichbar. Immerhin: 1989 brachte es eine abgespeckte DataGlove-Version als gehyptes Nintendo-Zubehör zu zweifelhaftem Ruhm.
Für Investoren wurde VPL zunehmend uninteressant und musste 1990 – kurz vor dem ersten großen VR-Hype im Entertainmentbereich – Konkurs anmelden. Heute gilt Gaming als der große Türöffner für VR auf dem Konsumentenmarkt. Ironischerweise legte ausgerechnet der Videospielcrash von 1983 den Grundstein für die moderne Virtual Reality. Ohne die Schließung der ATARI-Forschungslabore hätten Lanier und Zimmerman möglicherweise nie zusammengefunden, und VPL Research hätte mit ihrer Forschung nie die nötige Pionierarbeit für heutige Entwicklungen leisten können. Die NASA setzt heute übrigens immer noch auf Virtual Reality für das Astronautentraining. Zum Einsatz kommen dabei VR-Brillen von Meta, die im Handel für rund 500 Euro zu haben sind und nicht mal mehr einen Rechner für den Betrieb benötigen.
(joe)
Künstliche Intelligenz
Österreichs Regierung will Altersgrenzen in Sozialen Netzen durchsetzen
Nachdem ein 21-Jähriger an einer Grazer Schule elf Menschen erschossen hat, möchte Österreichs Bundesregierung Kinder aus Sozialen Netzen draußenhalten. „(Wir werden) uns auch für strengere Regeln für Kinder und Jugendliche im Umgang mit Sozialen Medien einsetzen“, sagte Bundeskanzler Christian Stocker (ÖVP) am Montag bei seiner Regierungserklärung zum Amoklauf. „Denn wir sehen: Digitale Plattformen sind längst nicht mehr nur Orte der Information oder der Unterhaltung. Sie können auch Orte der Radikalisierung und der Verrohung sein. Hier braucht es klare Regeln und klare Verantwortung auf Seiten der Plattformbetreiber.“ In der deutschen Bundesregierung ist ebenfalls die Forderung nach wirksamen Altersgrenzen für Social Media erhoben worden.
Der für Digitalisierung zuständige österreichische Staatssekretär Alexander Pröll (ÖVP) möchte „die Plattformen dazu verpflichten, dass sie ihren Altersbeschränkungen auch nachkommen. Sie müssen quasi Türsteher sein für die Jugendlichen, und wir werden in Österreich eine nationale Lösung machen.“ Das sagte er im in der ORF-Radiosendung Ö1 Mittagsjournal am Dienstag. Die Methode der Durchsetzung ist nicht geklärt. Pröll zeigt sich offen für die Idee, Konten in Sozialen Netzen mit der staatlichen elektronischen Identität ID Austria zu verknüpfen.
13, 14, 15, 16 – wer bietet höher?
Welche Altersgrenze genau gelten soll, ist ebenfalls noch nicht entschieden. Die großen Betreiber haben selbst 13 oder 14 Jahre festgelegt, setzen das aber nicht streng durch. „Ich sage nur: Die DSGVO schreibt vor, dass Daten für unter 14-Jährige eigentlich nicht verarbeitet werden dürfen“, glaubt Staatssekretär Pröll. Spanien, Frankreich und Griechenland haben sich auf der EU-Digitalministerkonferenz in Luxemburg für ein EU-weites Verbot Sozialer Netze für Kinder unter 15 Jahren starkgemacht, Spanien fordert es für unter 16-Jährige.
Norwegen plant, das Mindestalter von 13 auf 15 Jahre anzuheben und Strukturen für die Altersüberprüfung auszubauen. In Australien ist der Ausschluss von Menschen unter 16 aus Sozialen Netzen bereits beschlossene Sache. Das wünschen sich auch die oppositionellen österreichischen Grünen. Zusätzlich möchten sie die Plattformbetreiber für alle Inhalte haftbar machen.
(ds)
Künstliche Intelligenz
EU-Gremien einig: DSGVO soll grenzüberschreitend einfacher durchsetzbar sein
Auf eine kleine Novelle der Datenschutz-Grundverordnung (DSGVO) haben sich Vertreter des EU-Rats, des Parlaments und der Kommission geeinigt. Dem sind rund zwei Jahre Debatte und mehrere Monate Verhandlungen vorausgegangen. Die vorläufige Einigung über einen Entwurf zielt darauf ab, die Zusammenarbeit zwischen nationalen Datenschutzbehörden bei der Durchsetzung der DSGVO in grenzüberschreitenden Fällen zu verbessern. Das hat die polnische Ratspräsidentschaft am Montagabend mitgeteilt. Demnach vereinfachen die neuen Vorschriften die Verfahren, etwa in Zusammenhang mit Rechten von Beschwerdeführern und der Zulässigkeit von Fällen.
Die EU-Kommission wollte mit ihrem ursprünglichen Vorschlag 2023, das „Irland-Problem“ beheben: Die irische Datenschutzbehörde gilt Kritikern als Flaschenhals bei der DSGVO-Durchsetzung. Die Data Protection Commission (DPC) in Dublin ist federführende Aufsichtsinstanz für Big-Tech-Konzerne wie Google, Meta Platforms, Apple und X, die ihre europäischen Hauptsitze auf der Insel haben. Andere Datenschutzbehörden in der EU können bei solchen Datenkonzernen nicht direkt eingreifen.
Im Europäischen Datenschutzausschuss (EDSA) als gemeinsamen Gremium der Aufsichtsbehörden kommt es über Entscheidungsvorlagen der irischen DPC oft zum Streit, was komplizierte und lange Verständigungsverfahren auslöst. Die irische Behörde wird dann oft überstimmt. Vor allem an diesem Punkt setzen die EU-Gesetzgeber nun an, um Prozesse zu beschleunigen.
Standardverfahren: 15 Monate bis zum Finale
Unabhängig davon, wo in der EU ein Bürger eine Beschwerde im Zusammenhang mit der grenzüberschreitenden Datenverarbeitung einreicht, werde die Zulässigkeit künftig auf Basis derselben Informationen beurteilt, führt der Ratsvorsitz aus. Die Reform harmonisiere die Anforderungen und Verfahren für Anhörung von Beschwerdeführern im Falle einer Ablehnung und sehe gemeinsame Regeln für die Beteiligung am Verfahren vor. Das Anhörungsrecht der anderen Partei werde „in wichtigen Phasen des Verfahrens gewährleistet“. Beiden Seiten stehe offen, die vorläufigen Ergebnisse vor der endgültigen Entscheidung einzusehen, um Stellung nehmen zu können.
Eine Übereinkunft zu der Novelle schien schon im Mai greifbar, doch über die festzusetzenden Fristen waren sich die Verhandlungsführer noch uneins. Jetzt haben sie sich auf eine Untersuchungsfrist von insgesamt 15 Monaten, die in besonders komplexen Fällen um 12 Monate verlängert werden kann, geeinigt. Einfache Verfahren mit Zusammenarbeit zwischen nationalen Datenschutzbehörden sollen binnen einen Jahres abgeschlossen sein.
Kritik aus Zivilgesellschaft und Tech-Branche
Die Unterhändler haben sich auch auf einen Mechanismus zur schnelleren Bearbeitung von Beschwerden verständigt. Er soll es der federführenden Datenschutzbehörde ermöglichen, einen Fall zu beenden, bevor der EDSA einbezogen werden muss. Diese Option würde etwa greifen, wenn eine Organisation Rechtsverletzung einräumt und potenzielle Sanktionen akzeptiert. Um langwierige Diskussionen zwischen verschiedenen Datenschutzbehörden zu vermeiden, soll Konsensbildung erleichtert werden. So muss die federführende Behörde ihren Kollegen in der EU zeitnah eine Zusammenfassung der wichtigsten Punkte eines Verfahrens übermitteln. Vorgesehen ist ferner ein Kooperationsansatz, womit in einfacheren Fällen nicht alle zusätzlichen Kooperationspflichten zu befolgen wären.
Die EU-Staaten und das Europäische Parlament müssen die Reform noch formalisieren und bestätigen. Max Schrems von der Datenschutzorganisation Noyb hält an seiner Kritik fest, dass die Novelle DSGVO-Verfahren faktisch „undurchführbar“ mache. Die Durchsetzung der Normen drohe durch verhältnismäßig lange Fristen und komplexe Verfahren untergraben zu werden. Der IT-Verband CCIA Europe, dem viele Big-Tech-Firmen angehören, ist aus einem anderen Grund unzufrieden: Anstatt den bürokratischen Aufwand zu reduzieren, dürfte ihm zufolge die Einhaltung der DSGVO für Unternehmen aller Größenordnungen noch schwieriger werden. Mit einem zweiten Vorhaben will die Kommission Firmen mit bis zu 749 Mitarbeitern von der DSGVO-Dokumentationspflicht befreien. NGOs warnen, damit öffne die Kommission die Büchse der Pandora.
(ds)
Künstliche Intelligenz
Afrinic: Gericht stoppt Vorstandswahl | heise online
Die Vorstandswahl für Afrikas zentrale IP-Adressvergabestelle Afrinic ist vorerst gestoppt. Das hat der gerichtlich bestimmte Afrinic-Zwangsverwalter Gowtamsingh Dabee am Montag bestätigt. Auf Antrag des tansanischen Provider-Verbands TISPA hat der Supreme Court Mauritius‘ am Freitag verfügt, dass die ab Montag geplante Online-Abstimmung sowie die für 23. Juni angesetzte Wahl vorerst nicht abgehalten werden dürfen.
„TISPA hat diese einstweilige Verfügung erwirkt, weil es ernsthafte Bedenken gibt, dass unseren Mitgliedern und anderen Afrinic-Mitgliedern wesentliche Rechte verwehrt werden“, teilt der tansanische Verband mit. So seien Afrinic-Mitgliedern die ihnen zustehenden Adressressourcen nicht zugeteilt worden. Zudem seien Mitglieder, die nach September 2023 eingetreten sind, bei der Wahl nicht stimmberechtigt. Beides verstoße gegen die Satzung der Afrinic.
Machtkampf um Afrinic
Hintergrund ist der Machtkampf um die afrikanische IP-Adressvergabestelle Afrinic, die in der Cybercity Ebène auf Mauritius ihren Sitz unterhält. Afrinic ist seit Jahren mit den Unternehmen Cloud Innovation und Larus in einen Rechtsstreit um IP4-Adressblöcke verstrickt. Diese Adressen wollte die Registry wieder einziehen, nachdem Larus sie international weitervermietet. Im Zuge des Rechtsstreits konnte Cloud Innovation eine gerichtliche Entscheidung erwirken, wonach Afrinic keine IP-Adressen mehr vergeben kann, solange es unter Zwangsverwaltung steht.
„Wir wollen die Dinge gerade rücken“, erklärte TISPA-Generalsekretär Noah Maina gegenüber heise online. Der Verband sieht sich bestätigt durch den jüngsten Appell der Internet Corporation for Assigned Names and Numbers (ICANN), die dringend Aufklärung der Unregelmäßigkeiten und eine faire Wahl angemahnt hatte. Sowohl die ICANN als auch Maina haben Zweifel an der Neutralität des Zwangsverwalters Dabee geäußert.
Doch noch eine Wahl?
Maina hält auch nichts von dem Vorschlag, Afrinics Ressourcen künftig von den vier Schwesterorganisationen in Europa, Asien, Nordamerika und Lateinamerika (RIPE, APNIC, ARIN, Lacnic) verwalten zu lassen. So etwas könne nur von den Afrinic Mitgliedern gemeinschaftlich beschlossen werden, meint der TISPA-Generalsekretär.
Das Gericht hat auf Antrag der TISPA im jüngsten Beschluss zugleich mit dem Stopp auch verfügt, Afrinic müsse die Wahl „gemäß der Satzung“ und gemäß dem Einsetzungsbescheid für den Zwangsverwalter durchführen. Dieser erklärt inzwischen, die Wahl zu den acht Sitzen für den derzeit vakanten Vorstand könne vielleicht doch noch stattfinden. Eine Anfrage, ob er die Verfügung anfechten werde, ist bislang unbeantwortet.
(vbr)
-
Online Marketing & SEOvor 6 Tagen
Aus Marketing, Medien, Agenturen & Tech: Diese 40 klugen Köpfe unter 40 müssen Sie kennen
-
Digital Business & Startupsvor 5 Tagen
Von Peter Thiel finanziertes Krypto-Startup Bullish will an die Börse
-
Künstliche Intelligenzvor 6 Tagen
Amazon soll Werbung bei Prime Video verdoppelt haben
-
Social Mediavor 2 Tagen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Künstliche Intelligenzvor 5 Tagen
Telemedizin: Patientenversorgung braucht einfach zugängliche Kommunikationswege
-
Apps & Mobile Entwicklungvor 3 Tagen
So gut ist Dune: Awakening: Dune sehen und durch Sandwürmer sterben
-
UX/UI & Webdesignvor 4 Tagen
Wie gelingt eine einwandfreie Zusammenarbeit?
-
Datenschutz & Sicherheitvor 6 Tagen
CCC: Gesammelte Ausweisdaten von Übernachtungsdienstleister Numa gefunden