Connect with us

Künstliche Intelligenz

Virtual Reality in den 80ern: Ohne Videospielcrash gäbe es heute keine VR-Brille


Die Geschichte der Virtual Reality ist voller Kuriositäten, spannender Storys und Pionieren, die einzigartiges geleistet haben. Doch die wohl wichtigste Zeit für die Entwicklung dieses Mediums waren die Achtzigerjahre. In diesem Jahrzehnt nahm die Geschichte der Virtual Reality eine entscheidende Wendung – paradoxerweise ausgelöst durch den Zusammenbruch der Videospielindustrie. Ohne diesen Crash und die daraus resultierenden Entwicklungen hätte es möglicherweise niemals eine Oculus Rift oder Valve Index gegeben.

Nach den ersten immersiven Experimenten in den 1960er Jahren rund um Morton Heiligs „Sensorama“ und Ivan Sutherlands „The Damocles Sword“ wurde es lange still um die Erforschung virtueller Realitäten. Erst in den Achtzigern nahm die Entwicklung wieder Fahrt auf, als die NASA ihr Interesse für innovative Zukunftstechnologien neu entdeckte. Den Stein ins Rollen brachte 1980 der Fotograf Eric Howlett mit seinem „LEEP Panoramic Stereo Photography System“ – bestehend aus einer Weitwinkelkamera und einem Betrachtungsgerät mit bis zu 140 Grad Sichtfeld.

Obwohl Howlett mit seiner Erfindung auf der Photographic Society of America-Konferenz Aufsehen erregte, konnte er etablierte Unternehmen wie Kodak nicht überzeugen. Der Versuch der Eigenproduktion scheiterte ebenfalls. Erst als Mitte der Achtziger ein NASA-Ingenieur von der Erfindung erfuhr, wurde LEEP Realität und weckte später auch das Interesse von VPL Research – einem der wichtigsten Unternehmen der VR-Geschichte.

Parallel dazu arbeitete MIT-Absolvent Thomas Zimmerman an der Umsetzung virtueller Musikinstrumente und entwickelte ein System zur Messung von Fingerbiegungen. Sein Prototyp bestand aus einem simplen Gartenhandschuh mit hohlen Röhrchen an jedem Finger, ausgestattet mit LED-Lichtern und Fototransistoren. Je stärker sich ein Finger bog, desto weniger Licht drang durch die Röhrchen. 1982 reichte Zimmerman ein Patent für seinen optischen Flex-Sensor ein.

Zimmermans Prototyp war allerdings nicht der erste jemals entwickelte Datenhandschuh. Bereits 1977 konzipierten Daniel J. Sandin und Tom DeFanti den „Sayre Glove“ auf einem ähnlichen Prinzip. Dieser schaffte es aber nie über einen Prototypstatus hinaus. Zimmerman hingegen hatte in den folgenden Jahren noch einiges mit seinem Gartenhandschuh vor.

Über seine Programmierkollegin Nancy Mayer, Ehefrau des ATARI-Mitbegründers Steve Mayer, gelangte er schließlich zu ATARI. Das Forschungslabor des Spielegiganten beschäftigte sich damals mit der Zukunft digitaler Unterhaltungsmedien und bot Zimmerman 10.000 US-Dollar für die Patentrechte an seinem Datenhandschuh, doch er lehnte ab.

1983 traf die Videospielkrise ATARI hart und zwang das Unternehmen, sein Forschungslabor zu schließen. Zimmerman konzentrierte sich fortan auf die Entwicklung von Voice-Synthesizern, sein Flex-Sensor verschwand in der Schublade. Auch Jaron Lanier, der für ATARI das innovative Musikspiel „Moondust“ entwickelt hatte, verlor durch den Crash seinen Job.

Lanier nutzte die Lizenzeinnahmen aus „Moondust“, um an einer visuellen Programmiersprache zu forschen – Code sollte durch Zeichen, Symbole und Sounds ersetzt werden. Damit wollte Lanier komplexe Programmierungen auch für Nicht-Informatiker zugänglich machen. Das Projekt war seiner Zeit allerdings voraus: Die damaligen Monitore waren schlichtweg zu klein für die Darstellung.

1984 lernten sich die Musikliebhaber Lanier und Zimmerman schließlich auf einem Stanford-Konzert kennen. Für Lanier schien Zimmermans Flex-Sensor das ideale Eingabegerät für seine visuelle Programmiersprache zu sein. Gemeinsam gründeten sie VPL Research und arbeiteten mit einem Team an der technischen Umsetzung ihrer Visionen. VPL Research leistete bahnbrechende Pionierarbeit: Lanier prägte 1987 erstmals den Begriff „Virtual Reality“, entwickelte seine Programmiersprache für VR-Anwendungen unter dem Namen „Body Electric“ weiter und schuf mit der Rendering-Engine „Isaac“ die ersten virtuellen Avatare.

Aus Zimmermans Gartenhandschuh wurde der „Z-Glove“ mit Ultraschall-Tracking, der erstmals Handpositionen im dreidimensionalen Raum erkannte. Die nächste Iteration, der „Data Glove“, nutzte magnetische Sensoren und Lichtwellenleiter für präzisere Messungen. Die NASA erkannte das Potenzial sofort.

Die US-Raumfahrtbehörde entwickelte 1985 das „Virtual Environment Display System“ – ein Weitwinkel-Anzeigesystem mit 120-Grad-Sichtfeld, montiert auf einem herkömmlichen Motorradhelm mit Bewegungssensoren. Damit sollten Ingenieure ihre Modelle im dreidimensionalen Raum betrachten können – ein Anwendungsgebiet, das für aktuelle VR- und Mixed-Reality-Headsets wie die Apple Vision Pro oder die HTC Vive Focus Vision im B2B-Segment zum Standardrepertoire gehört.

Ab 1986 half VPL Research bei der Weiterentwicklung zu „VIEW“, das auf Howletts LEEP-System basierte und virtuelle Simulationen sowie Robotersteuerung in Echtzeit ermöglichen sollte. VPL Research nahm den Fuß nicht vom Gas und stellte schon kurz nach dem Data Glove die nächste Innovation vor. Aus dem Handschuh wurde ein ganzer Anzug: Der „Data Suit“ konnte Bewegungen von Armen, Beinen und Rumpf erfassen und kam vor allem als Motion Capturing-Anzug bei Filmdrehs zum Einsatz.

Ein Jahr später stellte VPL die erste kommerzielle VR-Brille vor: das aus heutiger Sicht kurios benannte „VPL EyePhone HRX“. Die VR-Brille sollte vorrangig bei Unternehmen und in der Forschung eingesetzt werden. Kein Wunder, denn selbst für die technikaffinsten Privatanwender wäre der Anschaffungspreis von 49.000 US-Dollar – inflationsbereinigt entspricht das heute etwa 140.000 US-Dollar – eine kaum zu nehmende Hürde gewesen. Für den als Eingabegerät noch einmal weiterentwickelten Data Glove veranschlagte VPL weitere 9000 US-Dollar.

Um die VR-Brille betreiben zu können, benötigten Nutzer für die damalige Zeit enorm leistungsfähige Rechner. Für ein Komplettset, bestehend aus VR-Brille, Datenhandschuhen und Computer, beliefen sich die Anschaffungskosten auf etwa 250.000 US-Dollar. Das entspricht einem heutigen Wert von etwa 700.000 US-Dollar. Die Geräte waren allerdings noch lange nicht mit heutigen Standards vergleichbar und litten bei aller Innovation unter den technischen Limitierungen der damaligen Zeit.

Das „EyePhone“ hatte eine Auflösung von 320 x 240 Pixeln pro Auge und schaffte es lediglich auf fünf bis sechs Bilder pro Sekunde. Zum Vergleich: Damalige TV-Geräte erreichten bereits 30 Bilder pro Sekunde, heute gängige VR-Brillen wie Valve Index, Meta Quest 3 oder die Playstation VR 2 arbeiten mit Bildraten von bis zu 144 Hz und die Apple Vision Pro löst in 4K auf. Trotz der (theoretisch) beeindruckenden Technologie gab es kaum lukrative Anwendungsbereiche, und der Konsumentenmarkt blieb aufgrund der hohen Fertigungskosten unerreichbar. Immerhin: 1989 brachte es eine abgespeckte DataGlove-Version als gehyptes Nintendo-Zubehör zu zweifelhaftem Ruhm.

Für Investoren wurde VPL zunehmend uninteressant und musste 1990 – kurz vor dem ersten großen VR-Hype im Entertainmentbereich – Konkurs anmelden. Heute gilt Gaming als der große Türöffner für VR auf dem Konsumentenmarkt. Ironischerweise legte ausgerechnet der Videospielcrash von 1983 den Grundstein für die moderne Virtual Reality. Ohne die Schließung der ATARI-Forschungslabore hätten Lanier und Zimmerman möglicherweise nie zusammengefunden, und VPL Research hätte mit ihrer Forschung nie die nötige Pionierarbeit für heutige Entwicklungen leisten können. Die NASA setzt heute übrigens immer noch auf Virtual Reality für das Astronautentraining. Zum Einsatz kommen dabei VR-Brillen von Meta, die im Handel für rund 500 Euro zu haben sind und nicht mal mehr einen Rechner für den Betrieb benötigen.


(joe)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Gemini 2.5 Flash-Lite ist das schnellste und kostengünstigste KI-Modell Googles


Mit Gemini 2.5 Flash und 2.5 Pro hat Google vor knapp einem Monat seine bislang leistungsfähigsten KI-Modelle vorgestellt. Diese sind laut Datenkonzern nun allgemein verfügbar, doch Google präsentiert jetzt eine weitere Variante dieser Dienste. Gemini 2.5 Flash-Lite ist das bislang schnellste und kosteneffizienteste KI-Modell Googles, sagt Google. Diese Version ist zunächst als Vorschau nutzbar.

Mitte Mai hatte der Datenkonzern auf der Google I/O neben einem KI-Abo für 250 US-Dollar und dem agentischem Gemini weitere Details zu Gemini 2.5 genannt. Gemini 2.5 Flash und 2.5 Pro sollen aufgrund ihrer Leistungsfähigkeit das Fundament legen für eine neue KI-Welt mit einem Weltmodell, das alles kann – wie ein echtes Gehirn. Kurz zuvor hatte Google bereits eine Vorab-Version von Gemini 2.5 Pro für Entwickler verfügbar gemacht.

Jetzt sind Gemini 2.5 Flash und 2.5 Pro als stabile Versionen allgemein verfügbar, sodass (auch vorsichtige) Entwickler diese KI-Modelle in ihre eigene Software nun zuversichtlich integrieren können, schreibt Google im eigenen Blog-Beitrag. Doch das ist dem Konzern offenbar nicht genug, denn gleichzeitig erweitert Google die Gemini-2.5-Modelle um eine neue Variante namens Gemini 2.5 Flash-Lite.

Eine solche Flash-Lite-Version gab es bereits beim KI-Vorgängermodell Gemini 2.0, aber Google hat bei Gemini 2.5 Flash-Lite nach eigenen Angaben die Qualität in vielen Bereichen wie Coding, Mathematik, Wissenschaft, Reasoning und multimodalen Benchmarks verbessert. Insbesondere sollen die Latenzzeiten bei einer Vielzahl von Anfragen reduziert worden sein gegenüber Gemini 2.0 Flash-Lite und 2.0 Flash. Dies sei wichtig bei etwa Übersetzungen und Klassifizierungen.

Dabei besitzt die Vorab-Version von Gemini 2.5 Flash-Lite (gemini-2.5-flashlite-preview-06-17) dieselben Fähigkeiten, die Gemini 2.5 nützlich machen, heißt es seitens Google DeepMind. Dazu gehört die Möglichkeit des Reasonings, wenn das KI-Modell nicht nur Inhalte wiedergeben, sondern auch logisch verknüpfen kann. Zudem soll es möglich sein, KI-Denkprozesse bei unterschiedlichen Budgets zu aktivieren, um Gemini etwa mit der Google-Suche zu verknüpfen oder für Programmieraufgaben oder multimodale Eingaben zu nutzen.



Kosten und Benchmarks von Gemini 2.5 Flash-Lite

(Bild: Google)

Da die Kosten für die Nutzung von Gemini 2.5 Flash-Lite teilweise nur ein Drittel oder sogar lediglich einen Bruchteil der Preise für Gemini 2.5 Flash oder 2.5 Pro ausmachen, bezeichnet Google Gemini 2.5 Flash-Lite als das bislang kostengünstigste KI-Modell dieser Modellfamilie. Auch soll es das bislang schnellste Gemini-Modell sein, wobei die Qualität der Ergebnisse von 2.5 Flash-Lite nur wenig hinter den Vollpreismodellen zurückbleiben soll (siehe Tabelle oben).

Die Vorab-Version von Gemini 2.5 Flash-Lite steht Entwicklern ab sofort in Google AI Studio und Vertex AI zur Verfügung, neben den jetzt stabilen Gemini 2.5 Flash und 2.5 Pro. Letztere sind auch in der Gemini-App nutzbar. Daneben bietet Google speziell angepasste Versionen von Gemini 2.5 Flash-Lite und 2.5 Flash in der Google-Suche an.

Lesen Sie auch


(fds)



Source link

Weiterlesen

Künstliche Intelligenz

iX-Workshop: Souveräne Cloud – Strategien für digitale Unabhängigkeit


Die Digitalisierung und der Einsatz von Cloud-Technologien stellen Unternehmen vor zentrale Fragen der Souveränität. Wie behalten sie die Kontrolle über Daten und Systeme, minimieren dabei Abhängigkeiten und erfüllen zudem regulatorische Anforderungen?

In dem interaktiven Workshop Souveräne Cloud: Roadmap für eine sichere und resiliente IT entwickeln Sie ein fundiertes Verständnis für Cloud-Souveränität und lernen, strategische Entscheidungen für eine resiliente und unabhängige IT-Infrastruktur zu treffen. Dazu analysieren Sie verschiedene Cloud-Modelle, reflektieren aktuelle Markttrends und setzen sich intensiv mit Chancen und Risiken von Multi-Cloud-Strategien auseinander.

August
19.08.2025
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 21. Jul. 2025
November
13.11.2025
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 15. Okt. 2025

Anhand konkreter Praxisbeispiele erarbeiten Sie Schritt für Schritt Ihre individuelle Cloud-Transformations-Roadmap. Dabei entwickeln Sie einen Umsetzungsplan, der die technischen, organisatorischen und regulatorischen Anforderungen Ihrer Organisation berücksichtigt. Der Workshop bietet Raum für interaktive Diskussionen, praxisnahe Übungen und den Austausch mit dem erfahrenen Trainer.

Der Workshop richtet sich an Führungskräfte und Verantwortliche aus Management, IT, Infrastruktur, Datenmanagement und Enterprise Architecture, die eine zukunftssichere IT-Strategie anstreben und ihre digitale Souveränität stärken möchten.

Ihr Trainer Sebastian Tappe unterstützt als Manager Cloud Consulting bei der Rewion GmbH Kunden bei der erfolgreichen Strategiefindung und Umsetzung ihrer Cloud Journey. Mit seiner Erfahrung in Cloud-Transformation-Projekten und dem Aufbau von Cloud-Abteilungen und Competence Centern ist er ein anerkannter Trusted Advisor.


Weitere iX-Workshops zum Thema Cloud-Technologien

Weitere iX-Workshops zum Thema Cloud-Technologien


(ilk)



Source link

Weiterlesen

Künstliche Intelligenz

USA: Zahlreiche Personen nach Handel mit Online-Tierquälvideos angeklagt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Regelmäßig werden Tierquälvideos online über private Gruppen in den sozialen Medien verbreitet. Nachdem die BBC vor zwei Jahren ein Affenfolternetzwerk aufgedeckt hat, über das Sadisten online über private Messenger-Gruppen Affenquälvideos bestellen konnten, gibt es inzwischen zahlreiche Angeklagte und auch Verhaftungen.

Eine Anklageschrift der Bundesstaatsanwaltschaft für den südlichen Bezirk von Ohio richtet sich gegen eine Täterin, die auch als „Bitchy“ und „Slicey’s Tail“ bekannt ist und gegen einen Täter, der sich „Rob C“ und „Marshal“ nennt. Die Angeklagten werden für den Zeitraum zwischen 2021 und 2022 beschuldigt, Tiermisshandlungsvideos („animal crush videos“) über Online-Chatgruppen verbreitet zu haben, die unter anderem die Folter, Tötung, sadistische Verstümmelung und den Missbrauch der Tiere zeigen. Zu den Hauptanklagepunkten gehören daher die Vermarktung und der Vertrieb solcher Videos. Sie kontaktierten Personen im Ausland, die die Gewaltakte gegen die Affen zu filmen und bezahlten diese dafür.

Anfang Mai 2025 wurden zudem elf Personen wegen ihrer Beteiligung an Affenfolter-Gruppen angeklagt. Die Gruppe soll unter anderem einen Minderjährigen in Indonesien für die Durchführung der Taten bezahlt haben, wie aus einer weiteren Anklageschrift hervorgeht. Den Personen aus verschiedenen US-Bundesstaaten wird vorgeworfen, Teil von Online-Gruppen gewesen zu sein, die gezielt Videos von Folter, sexueller Gewalt und Tötung von Affen in Auftrag gegeben, finanziert, hergestellt und verbreitet haben.

In den USA, Großbritannien und Indonesien wurden seit 2023 Medienberichten zufolge führende Mitglieder der Netzwerke zu mehrjährigen Haftstrafen verurteilt. In diesen Fällen wurden oft Täter in Indonesien beauftragt, die Tiere zu quälen, auch dort wird ermittelt. Maßgeblich an der Organisation, Finanzierung und Verbreitung der Videos beteiligt war der aus Ohio stammende Ronald Bedra, der 2024 zu 54 Monaten Haft verurteilt wurde. In Schottland wurde zudem eine Frau zu mehr als zwei Jahren Haft verurteilt, weil sie Hunderte solche Videos verbreitete und aktiv an der Organisation beteiligt war. Die BBC berichtete. In den USA wurde ein zentraler Drahtzieher, bekannt als „The Torture King“, zu mehr als drei Jahren Gefängnis verurteilt.

Trotz dieser Erfolge bleibt das Problem bestehen: Die Gruppen formieren sich nach Festnahmen schnell neu, wechseln die Plattformen und setzen ihre Aktivitäten fort. Die Videos sind weiterhin auf Telegram und auch auf Facebook zu finden – oft in Gruppen mit tausenden Mitgliedern. Die Ermittler sprechen von einer Eskalation der Gewalt und warnen, dass die Täter immer extremere Inhalte produzieren, um die Nachfrage zu bedienen.

Die Strafverfolgung ist schwierig, weil die Täter und Auftraggeber über Landesgrenzen hinweg agieren und teilweise nicht leicht zu ermitteln sind. Viele Plattformen wie Facebook und TikTok versagen zudem bei der Moderation: Selbst nach zahlreichen Meldungen bleiben Videos mit offensichtlicher Tierquälerei online, werden von Nutzern weiterverbreitet. Oft kümmern sich große Tech-Unternehmen nicht angemessen um die Moderation der Inhalte. Laut Welttierschutzgesellschaft kursierten auf Facebook über Wochen hinweg grausame Tierquälvideos in Gruppen mit mehr als 50.000 Followern – trotz mehrfacher Meldungen derartige Quälvideos verbreitet. Erst unter öffentlichem Druck durch die Medien wurden sie schließlich entfernt.

In den USA ist Tierquälerei in allen Bundesstaaten verboten, die Gesetzeslage ist jedoch föderal geregelt. Besonders grausame Fälle wie die Herstellung und Verbreitung der Videos sind nach Bundesrecht mit bis zu sieben Jahren Haft strafbar. Auch auf Ebene der Einzelstaaten werden Tierquälerei und Tiermisshandlung meist als Straftat verfolgt, mit Strafrahmen von Geldstrafen bis zu mehrjährigen Haftstrafen, abhängig von der Schwere der Tat und dem jeweiligen Bundesstaat. In schweren oder wiederholten Fällen werden in den USA regelmäßig Gefängnisstrafen verhängt.

In Deutschland ist Tierquälerei nach § 17 Tierschutzgesetz eine Straftat und kann mit bis zu drei Jahren Freiheitsstrafe oder Geldstrafe geahndet werden. Gerichte können zudem ein lebenslanges Tierhalteverbot verhängen und die betroffenen Tiere einziehen. Leichtere oder fahrlässige Verstöße gelten als Ordnungswidrigkeiten und werden mit Bußgeldern bis zu 25.000 Euro bestraft. In der Praxis werden die meisten Fälle jedoch mit Geldstrafen oder Tierhalteverboten geahndet; Gefängnisstrafen sind selten.


(mack)



Source link

Weiterlesen

Beliebt