Connect with us

Künstliche Intelligenz

Virtual Reality in den 80ern: Ohne Videospielcrash gäbe es heute keine VR-Brille


Die Geschichte der Virtual Reality ist voller Kuriositäten, spannender Storys und Pionieren, die einzigartiges geleistet haben. Doch die wohl wichtigste Zeit für die Entwicklung dieses Mediums waren die Achtzigerjahre. In diesem Jahrzehnt nahm die Geschichte der Virtual Reality eine entscheidende Wendung – paradoxerweise ausgelöst durch den Zusammenbruch der Videospielindustrie. Ohne diesen Crash und die daraus resultierenden Entwicklungen hätte es möglicherweise niemals eine Oculus Rift oder Valve Index gegeben.

Nach den ersten immersiven Experimenten in den 1960er Jahren rund um Morton Heiligs „Sensorama“ und Ivan Sutherlands „The Damocles Sword“ wurde es lange still um die Erforschung virtueller Realitäten. Erst in den Achtzigern nahm die Entwicklung wieder Fahrt auf, als die NASA ihr Interesse für innovative Zukunftstechnologien neu entdeckte. Den Stein ins Rollen brachte 1980 der Fotograf Eric Howlett mit seinem „LEEP Panoramic Stereo Photography System“ – bestehend aus einer Weitwinkelkamera und einem Betrachtungsgerät mit bis zu 140 Grad Sichtfeld.

Obwohl Howlett mit seiner Erfindung auf der Photographic Society of America-Konferenz Aufsehen erregte, konnte er etablierte Unternehmen wie Kodak nicht überzeugen. Der Versuch der Eigenproduktion scheiterte ebenfalls. Erst als Mitte der Achtziger ein NASA-Ingenieur von der Erfindung erfuhr, wurde LEEP Realität und weckte später auch das Interesse von VPL Research – einem der wichtigsten Unternehmen der VR-Geschichte.

Parallel dazu arbeitete MIT-Absolvent Thomas Zimmerman an der Umsetzung virtueller Musikinstrumente und entwickelte ein System zur Messung von Fingerbiegungen. Sein Prototyp bestand aus einem simplen Gartenhandschuh mit hohlen Röhrchen an jedem Finger, ausgestattet mit LED-Lichtern und Fototransistoren. Je stärker sich ein Finger bog, desto weniger Licht drang durch die Röhrchen. 1982 reichte Zimmerman ein Patent für seinen optischen Flex-Sensor ein.

Zimmermans Prototyp war allerdings nicht der erste jemals entwickelte Datenhandschuh. Bereits 1977 konzipierten Daniel J. Sandin und Tom DeFanti den „Sayre Glove“ auf einem ähnlichen Prinzip. Dieser schaffte es aber nie über einen Prototypstatus hinaus. Zimmerman hingegen hatte in den folgenden Jahren noch einiges mit seinem Gartenhandschuh vor.

Über seine Programmierkollegin Nancy Mayer, Ehefrau des ATARI-Mitbegründers Steve Mayer, gelangte er schließlich zu ATARI. Das Forschungslabor des Spielegiganten beschäftigte sich damals mit der Zukunft digitaler Unterhaltungsmedien und bot Zimmerman 10.000 US-Dollar für die Patentrechte an seinem Datenhandschuh, doch er lehnte ab.

1983 traf die Videospielkrise ATARI hart und zwang das Unternehmen, sein Forschungslabor zu schließen. Zimmerman konzentrierte sich fortan auf die Entwicklung von Voice-Synthesizern, sein Flex-Sensor verschwand in der Schublade. Auch Jaron Lanier, der für ATARI das innovative Musikspiel „Moondust“ entwickelt hatte, verlor durch den Crash seinen Job.

Lanier nutzte die Lizenzeinnahmen aus „Moondust“, um an einer visuellen Programmiersprache zu forschen – Code sollte durch Zeichen, Symbole und Sounds ersetzt werden. Damit wollte Lanier komplexe Programmierungen auch für Nicht-Informatiker zugänglich machen. Das Projekt war seiner Zeit allerdings voraus: Die damaligen Monitore waren schlichtweg zu klein für die Darstellung.

1984 lernten sich die Musikliebhaber Lanier und Zimmerman schließlich auf einem Stanford-Konzert kennen. Für Lanier schien Zimmermans Flex-Sensor das ideale Eingabegerät für seine visuelle Programmiersprache zu sein. Gemeinsam gründeten sie VPL Research und arbeiteten mit einem Team an der technischen Umsetzung ihrer Visionen. VPL Research leistete bahnbrechende Pionierarbeit: Lanier prägte 1987 erstmals den Begriff „Virtual Reality“, entwickelte seine Programmiersprache für VR-Anwendungen unter dem Namen „Body Electric“ weiter und schuf mit der Rendering-Engine „Isaac“ die ersten virtuellen Avatare.

Aus Zimmermans Gartenhandschuh wurde der „Z-Glove“ mit Ultraschall-Tracking, der erstmals Handpositionen im dreidimensionalen Raum erkannte. Die nächste Iteration, der „Data Glove“, nutzte magnetische Sensoren und Lichtwellenleiter für präzisere Messungen. Die NASA erkannte das Potenzial sofort.

Die US-Raumfahrtbehörde entwickelte 1985 das „Virtual Environment Display System“ – ein Weitwinkel-Anzeigesystem mit 120-Grad-Sichtfeld, montiert auf einem herkömmlichen Motorradhelm mit Bewegungssensoren. Damit sollten Ingenieure ihre Modelle im dreidimensionalen Raum betrachten können – ein Anwendungsgebiet, das für aktuelle VR- und Mixed-Reality-Headsets wie die Apple Vision Pro oder die HTC Vive Focus Vision im B2B-Segment zum Standardrepertoire gehört.

Ab 1986 half VPL Research bei der Weiterentwicklung zu „VIEW“, das auf Howletts LEEP-System basierte und virtuelle Simulationen sowie Robotersteuerung in Echtzeit ermöglichen sollte. VPL Research nahm den Fuß nicht vom Gas und stellte schon kurz nach dem Data Glove die nächste Innovation vor. Aus dem Handschuh wurde ein ganzer Anzug: Der „Data Suit“ konnte Bewegungen von Armen, Beinen und Rumpf erfassen und kam vor allem als Motion Capturing-Anzug bei Filmdrehs zum Einsatz.

Ein Jahr später stellte VPL die erste kommerzielle VR-Brille vor: das aus heutiger Sicht kurios benannte „VPL EyePhone HRX“. Die VR-Brille sollte vorrangig bei Unternehmen und in der Forschung eingesetzt werden. Kein Wunder, denn selbst für die technikaffinsten Privatanwender wäre der Anschaffungspreis von 49.000 US-Dollar – inflationsbereinigt entspricht das heute etwa 140.000 US-Dollar – eine kaum zu nehmende Hürde gewesen. Für den als Eingabegerät noch einmal weiterentwickelten Data Glove veranschlagte VPL weitere 9000 US-Dollar.

Um die VR-Brille betreiben zu können, benötigten Nutzer für die damalige Zeit enorm leistungsfähige Rechner. Für ein Komplettset, bestehend aus VR-Brille, Datenhandschuhen und Computer, beliefen sich die Anschaffungskosten auf etwa 250.000 US-Dollar. Das entspricht einem heutigen Wert von etwa 700.000 US-Dollar. Die Geräte waren allerdings noch lange nicht mit heutigen Standards vergleichbar und litten bei aller Innovation unter den technischen Limitierungen der damaligen Zeit.

Das „EyePhone“ hatte eine Auflösung von 320 x 240 Pixeln pro Auge und schaffte es lediglich auf fünf bis sechs Bilder pro Sekunde. Zum Vergleich: Damalige TV-Geräte erreichten bereits 30 Bilder pro Sekunde, heute gängige VR-Brillen wie Valve Index, Meta Quest 3 oder die Playstation VR 2 arbeiten mit Bildraten von bis zu 144 Hz und die Apple Vision Pro löst in 4K auf. Trotz der (theoretisch) beeindruckenden Technologie gab es kaum lukrative Anwendungsbereiche, und der Konsumentenmarkt blieb aufgrund der hohen Fertigungskosten unerreichbar. Immerhin: 1989 brachte es eine abgespeckte DataGlove-Version als gehyptes Nintendo-Zubehör zu zweifelhaftem Ruhm.

Für Investoren wurde VPL zunehmend uninteressant und musste 1990 – kurz vor dem ersten großen VR-Hype im Entertainmentbereich – Konkurs anmelden. Heute gilt Gaming als der große Türöffner für VR auf dem Konsumentenmarkt. Ironischerweise legte ausgerechnet der Videospielcrash von 1983 den Grundstein für die moderne Virtual Reality. Ohne die Schließung der ATARI-Forschungslabore hätten Lanier und Zimmerman möglicherweise nie zusammengefunden, und VPL Research hätte mit ihrer Forschung nie die nötige Pionierarbeit für heutige Entwicklungen leisten können. Die NASA setzt heute übrigens immer noch auf Virtual Reality für das Astronautentraining. Zum Einsatz kommen dabei VR-Brillen von Meta, die im Handel für rund 500 Euro zu haben sind und nicht mal mehr einen Rechner für den Betrieb benötigen.


(joe)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Maue Apple Intelligence: Apple will mit Milliarden das Steuer herumreißen


Milliardeninvestitionen, mögliche Übernahmen, mehr Fokus: Apple hat neue Details genannt, wie der Konzern bei Apple Intelligence und Siri aufholen will. KI sei eine der „tiefgreifendsten Technologien unserer Zeit“ und werde in alle Apple-Geräte, Plattformen sowie im ganzen Unternehmen integriert, betonte Apple-Chef Tim Cook in der Nacht auf Freitag gegenüber Finanzanalysten nach der Bekanntgabe der jüngsten Geschäftszahlen.

Er stellte zugleich in Aussicht, dass der Konzern die Investitionen in diesem Bereich „signifikant“ steigern werde. Eine „beträchtliche Anzahl“ weiterer Mitarbeiter werde sich künftig obendrein auf KI-Funktionen konzentrieren, erläuterte Cook – „wir setzen unsere gesamte Energie dafür ein“.

Für mögliche Übernahmen von KI-Firmen zeigte sich Apple zudem „sehr offen“. Das Unternehmen habe in diesem Jahr bereits mehrere kleine KI-Firmen gekauft, halte sich aber sämtliche Optionen offen. Größere Aufkäufe seien ebenfalls denkbar, wenn das letztlich „unsere Roadmap beschleunigt“, so Cook. Zugleich bekräftigte er, dass Apple in Hinblick auf die überfällige Weiterentwicklung des Sprachassistenzsystems Siri „gute Fortschritte“ mache. Die „persönlichere“ Version folge 2026. Apple hatte wichtige neue Siri-Funktionen ursprünglich schon für iOS 18 in Aussicht gestellt, musste die Einführung aber wegen Problemen aufschieben.

Apple hat bereits damit begonnen, seine Investitionsausgaben in eigene Rechenzentren für Private Cloud Compute – die Cloud-Komponente von Apple Intelligence – massiv hochzuschrauben. In den ersten neun Monaten des laufenden Geschäftsjahres steckte Apple bereits knapp 9,5 Milliarden US-Dollar in eigene Infrastruktur – mehr als im gesamten vorausgehenden Geschäftsjahr. Von den riesigen „Capital Expenditures“ für KI, die Konkurrenten wie Microsoft und Google derzeit aufwenden, bleibt Apple damit aber noch meilenweit entfernt.

Die Investitionsausgaben des Konzerns werden sich „substanziell“ erhöhen, gab Apples Finanzchef dabei zu Protokoll. Er verwies zugleich nochmals darauf, dass Apple auf ein „Hybrid-Modell“ setzt und auch die Infrastruktur anderer Anbieter nutzt. Das ist etwa bei der Integration von ChatGPT der Fall.

Apple Intelligence liefert inzwischen zwar eine Reihe an Basis-KI-Funktionen, hinkt der großen Konkurrenz aber deutlich hinterher – nicht zuletzt durch Apples vorsichtigeren und datensparsamen Ansatz. Für viel Unruhe unter Apple-Anlegern sorgte zuletzt die Ankündigung, dass ausgerechnet Apples Ex-Chefdesigner Jony Ive für OpenAI an neuer KI-Hardware feilt. Erste Produkte werden 2026 erwartet. Nach der Bekanntgabe der Geschäftszahlen versuchte der Apple-Chef nun, die Befürchtungen zu zerschlagen: Es sei schwierig, sich eine Welt ohne das – inzwischen drei Milliarden mal verkaufte – iPhone vorzustellen, so Cook. Neuartige KI-Geräte wären wohl ergänzend, aber „kein Ersatz“. Zudem denke auch Apple über solche „anderen Dinge“ nach.


(lbe)



Source link

Weiterlesen

Künstliche Intelligenz

Mastering Microservices 2025: Zukunftssichere Softwaresysteme


Der Architekturstil Microservices verspricht, Software modularer, schneller und leichter anpassbar zu machen – und ist daher aus der modernen Anwendungsentwicklung nicht mehr wegzudenken. Was sich im ersten Moment vorteilhaft anhört, hat in der praktischen Umsetzung jedoch auch seine Tücken. Die Herausforderungen von Microservices ergeben sich primär aus der höheren Komplexität verteilter Systeme. Genau an diesem Punkt setzt von iX und dpunkt.verlag am 16. Oktober 2025 organisierte Onlinekonferenz Mastering Microservices an.

Das Programm legt den Fokus auf zukunftssichere, polyglotte und nachhaltige Softwarearchitekturen. Erfahrene Experten teilen ihr Know-how dazu, wie sich die Herausforderungen verteilter Systeme in verschiedenen Programmiersprachen erfolgreich meistern lassen.

Das sind die Highlights des Programms:

  • Project Leyden für Java-Performance: Moritz Halbritter (Broadcom) zeigt, wie Project Leyden die Problematik des langsamen Startups und hohen Ressourcenverbrauchs in Java-Anwendungen löst
  • Jakarta EE für Cloud-native Microservices: Lars Röwekamp (Open Knowledge) demonstriert moderne Enterprise-Entwicklung mit Jakarta EE und MicroProfile
  • KI-gesteuerte Orchestrierung: Martin Brandl und André Ratzenberger (white duck) stellen das innovative KI-Agenten-Framework Flock vor
  • Vereinfachte Frontend-Entwicklung: Frederik Pietzko (IITS) erklärt, wie die Kombination von HTMX mit Kotlin hilft, der Komplexität von JavaScript entgegenzutreten
  • Nachhaltige Microservices: Sascha Böhme (QAware) präsentiert Messtools und energieeffiziente Technologien


Moritz Halbritter (Broadcom)

Moritz Halbritter (Broadcom)

Moritz Halbritter (Broadcom)

In seinem Talk wirft Moritz Halbritter einen Blick auf die Details von Project Leyden: was steckt dahinter und wie funktioniert es . Er zeigt, wie sich JDK 24 und Spring Boot nutzen lassen, um den Speicherverbrauch zu reduzieren und die Startup-Zeit zu verbessern.

Die Mastering Microservices ist das Online-Event für alle, die Verantwortung dafür übernehmen, dass Softwaresysteme effizienter, skalierbarer, sicherer und nachhaltig arbeiten. Teilnehmende profitieren neben den Experten-Talks auch von interaktiven Fragerunden per Chat und Video sowie dem Wissensaustausch mit anderen Teilnehmenden – und den im Nachgang verfügbaren Vortragsaufzeichnungen und Präsentationen.

Ab sofort sind Frühbuchertickets zum Preis von 249 Euro (alle Preise inkl. MwSt.) verfügbar. Teams ab drei Personen erhalten attraktive Gruppenrabatte. Alle Informationen und Tickets finden sich direkt im Shop auf der Konferenzwebsite.

Wer über den Fortgang der Konferenz Mastering Microservices auf dem Laufenden bleiben möchte, kann sich auf der Website für den Newsletter registrieren oder den Veranstaltern auf LinkedIn folgen – der aktuelle Hashtag lautet #mms25.


(map)



Source link

Weiterlesen

Künstliche Intelligenz

Elektronische Fußfessel: Gesetzentwurf soll nach der Sommerpause kommen


Elektronische Fußfesseln nach „spanischem Modell“ für Gewalttäter könnten laut Bundesjustizministerin Stefanie Hubig (SPD) schon im kommenden Jahr in ganz Deutschland eingeführt werden. Das erklärte sie gegenüber der Süddeutschen Zeitung. Durch das „spanische Modell“ sollen insbesondere Femizide, Stalking, Gewalt und Bedrohungen etwa durch Ex-Partner verhindert werden. Die Innenministerinnen und Innenminister der Länder hatten die Einführung einer bundeseinheitlichen Regelung auf ihrer Frühjahrskonferenz im Juni gefordert.

Für das spanische Modell sind nicht feste Verbotszonen wie beim bisherigen Einsatz der Elektronischen Aufenthaltsüberwachung (EAÜ) für die Täter ausschlaggebend, sondern der Abstand zwischen Täter und Opfer ist maßgeblich. Feste Verbotszonen können beispielsweise den Wohnort oder den Arbeitsplatz von Opfern betreffen. Für das spanische Modell führt das Opfer eine GPS-Einheit mit sich und wird darüber informiert, wenn sich der Täter mit Fußfessel absichtlich oder auch unabsichtlich in seiner Nähe befindet. Sowohl das Opfer als auch die Polizei erhalten dann einen Warnhinweis. Hubig will dies Opfern aber nicht vorschreiben. Ihnen werde es „offengelassen, ob sie selbst ein Empfangsgerät bei sich führen wollen oder nicht.“

Hubig kündigte an, nach der Sommerpause einen Gesetzentwurf vorzulegen und skizzierte den weiteren zeitlichen Ablauf: „Realistisch ist, dass wir damit im Laufe des nächsten Jahres anfangen können. Das Gesetz muss nach seiner Verabschiedung noch durch die Länder in die Praxis umgesetzt werden. Die Länder arbeiten derzeit bereits mit Hochdruck an den Vorbereitungen der Umsetzung und dem Ausbau der notwendigen Kapazitäten. Es gibt schon die gemeinsame Überwachungsstelle der Bundesländer in Hessen.“

Nicht nur die Fußfesseln sollen Opfer besser schützen, auch sollen Gewaltschutzanordnungen im Kindschaftsrecht verankert werden, um auch Kinder „besser vor einem Gewalt ausübenden Elternteil zu schützen“. Und der Strafrahmen für Verstöße gegen das Gewaltschutzgesetz soll erhöht werden: „Von einer Geldstrafe oder höchstens zwei Jahren Freiheitsstrafe wie bislang auf eine Geldstrafe oder bis zu drei Jahre Freiheitsstrafe, damit die Anordnungen mehr Wirksamkeit bekommen.“ Zusätzlich soll „zum Beispiel die Teilnahme an einem Anti-Gewalt-Training verpflichtend angeordnet werden können“, sagte Hubig der SZ.

Seit Anfang dieses Jahres wird eine Fußfessel nach spanischen Modell bereits in einem Fall in Deutschland angewandt. Das Justizministerium Hessen berichtete im Januar, dass die Ex-Frau eines Täters, der bereits eine Haftstrafe verbüßt hat, in Sachsen auf diese Weise geschützt wird. Dem hessischen Justizminister Christian Heinz (CDU) und der sächsischen Justizministerin Constanze Geiert (CDU) zufolge, „[sprechen] die Erfolge in Spanien für sich“. Hessen hat Fußfesseln der neuen Generation, mit der das spanische Modell umsetzbar ist, 2024 eingeführt. In dem westdeutschen Bundesland ist auch die Gemeinsame elektronische Überwachungsstelle der Länder (GÜL) angesiedelt. Ihre Aufgabe ist die Überwachung der Fußfesselträger. Sie nimmt die Ereignismeldungen rund um die Uhr entgegen und bewertet sie im Hinblick auf möglicherweise notwendige Maßnahmen der Gefahrenabwehr oder der Führungsaufsicht. Die GÜL soll zukünftig mehr Mittel erhalten, um für die geplanten Gesetzesänderungen gewappnet zu sein. Auch das erklärten die Innenministerinnen und Minister im Juni in Bremerhaven auf ihrer Frühjahrskonferenz.


(kbe)



Source link

Weiterlesen

Beliebt