Künstliche Intelligenz
Waveguides erklärt: So funktioniert das Display in Smart Glasses und AR-Brillen
Waveguides oder Wellenleiter, wie man sie auf Deutsch nennt, kann man sich als Bahnen vorstellen, die Licht, Radiowellen oder Schall gezielt von einem Ort zum nächsten führen. Die Waveguide-Displays in Smart Glasses und AR-Brillen sind eine spezielle Form von Waveguides, die für die präzise Führung von Licht entwickelt wurden. Daher spricht man in diesem Zusammenhang auch von optischen Waveguides.
Optische Waveguides sind eine weitverbreitete Form von Wellenleitern: In Gestalt von Glasfasernetzen etwa bilden sie die Grundlage für das Internet und die moderne Telekommunikation. Während Glasfasern kabelartig und biegsam sind und moduliertes Infrarotlicht über weite Strecken transportieren, sind die optischen Waveguides in Smart Glasses und AR-Brillen flach und starr und leiten sichtbares Licht über wenige Zentimeter direkt ins Auge.
So funktionieren Waveguide-Displays
Ein Waveguide-Brillendisplay besteht im Wesentlichen aus zwei Bausteinen: der Light Engine, die meist im vorderen Bereich des Brillenbügels nahe dem Scharnier sitzt, und dem Waveguide selbst, der die Linse oder einen Teil dieser bildet.
Die Light Engine hat zwei zentrale Funktionen: Zum einen liefert sie die Lichtquelle und erzeugt ein winziges Bild mithilfe eines Mikrodisplays, wobei je nach Produkt unterschiedliche Technologien wie LCoS, Micro-OLED oder MicroLED zum Einsatz kommen. Zum anderen richtet sie die Lichtstrahlen aus und führt sie im erforderlichen Winkel in den Waveguide ein.
Der Waveguide selbst besteht aus einem Substrat mit möglichst hohem Brechungsindex. Meist handelt es sich um speziell angefertigtes Glas oder Kunststoff. Der Waveguide hat drei wichtige Aufgaben: Er koppelt das Licht der Light Engine ein, führt es entlang der Linse an seinen Bestimmungsort und koppelt es dort wieder aus, sodass es gezielt ins Auge des Brillenträgers gelangt.

Auf dem Bild gut zu sehen: Beidseitige Light Engines und Waveguides.
(Bild: Schott)
Auf seinem Weg durch den Waveguide bleibt das Licht durch ein physikalisches Phänomen namens Totalreflexion im Substrat eingeschlossen und bewegt sich darin wie in einem Spiegelkorridor. Totalreflexion tritt auf, wenn Licht aus einem Medium mit höherem Brechungsindex (Waveguide-Substrat) auf ein Medium mit niedrigerem Brechungsindex (meistens Luft oder eine umgebende Trägerlinse aus Glas oder Kunststoff) trifft. Ob es im Substrat bleibt, hängt vom Einfallswinkel ab: Überschreitet dieser den sogenannten kritischen Winkel, wird das Licht vollständig reflektiert. Je größer der Unterschied zwischen den Brechungsindizes ist, desto größer ist auch der Winkelbereich, in dem das Licht im Substrat gehalten werden kann. Dadurch verbessert sich die Effizienz der Lichtführung, und die Waveguides können dünner und kompakter konstruiert werden.
Beim Auskoppeln des Lichts schließlich wird das ursprünglich winzige Bild der Light Engine vom Waveguide aufgefächert und erzeugt so den Eindruck einer im Raum schwebenden Bildfläche, die kleinere oder größere Teile des Sichtfelds füllt.
Letzten Endes muss ein Waveguide-Display zweierlei leisten: Es führt künstliches Licht gezielt ins Auge und damit ins Sichtfeld, während es zugleich natürliches Licht durch seine Oberfläche passieren lässt, sodass die Umgebung sichtbar bleibt. Aus der Kombination beider Lichtquellen ergeben sich digitale Einblendungen, die die physische Welt überlagern und erweitern.

Das Funktionsprinzip eines Diffractive Waveguide: Einkopplung, Führung und Auskopplung des Lichts bei gleichzeitiger Transparenz zur Außenwelt.
(Bild: Schott)
Die Transparenz ist eine entscheidende Eigenschaft: Sie unterscheidet Waveguide-Displays von klassischen Displays in Mixed-Reality-Headsets wie der Meta Quest 3 oder Apple Vision Pro. Dort sitzt ein LCD- oder OLED-Bildschirm direkt vor den Augen, der den Blick auf die Außenwelt vollständig blockiert. Das reale Umfeld wird von Kameras aufgenommen und als Videobild wiedergegeben: eine Technik, die „Passthrough“ genannt wird und sich grundlegend vom „Seethrough“ optischer Display-Systeme wie Waveguides unterscheidet. Schaltet sich ein Mixed-Reality-Headset aus, sitzt man im Dunkeln. Fällt dagegen ein Waveguide-Display aus, bleibt die Umgebung weiterhin sichtbar. Die Lichtdurchlässigkeit kann jedoch von Waveguide zu Waveguide variieren.
Es gibt unterschiedliche Waveguide-Displays
Es gibt verschiedene Arten von Waveguides, die sich primär darin unterscheiden, wie sie Licht ein- und auskoppeln. Die häufigste Sorte sind Diffractive Waveguides, die das Licht der Light Engine mithilfe von ins Waveguide-Substrat eingeprägten Nanostrukturen beugen („Diffraction“ ist das englische Wort für Beugung). Diffractive Waveguides kommen in vielen bekannten Geräten wie Hololens, Magic Leap, den aktuellen Snap Spectacles sowie Metas Orion-Prototyp zum Einsatz.
Eine weitere, im Aufkommen begriffene Art von Waveguide-Display sind Geometric Reflective Waveguides, deren Entwicklung maßgeblich vom Waveguide-Pionier Lumus vorangetrieben wird. Diese Sorte von Waveguide kommt in der Meta Ray-Ban Display zum Einsatz. Ihren Namen tragen diese Waveguides, weil sie auf klassischen geometrischen Lichtwegen mit Spiegeln und Prismen basieren, im Gegensatz zu Diffractive Waveguides, die das Licht durch Beugung lenken. Statt Nanostrukturen leiten hier Schichten semitransparenter Spiegelchen das Licht ins Auge. „Die Bildqualität ist über die geometrische Anordnung dieser Spiegelchen definiert“, erklärt Rüdiger Sprengard, Head of Augmented Reality beim deutschen Spezialglashersteller und Lumus-Partner Schott, der Waveguides beider Arten fertigt.

In der Meta Ray-Ban Display lässt sich die erste Spiegelreihe noch erkennen, die restlichen bleiben unsichtbar.
(Bild: Lumus / Meta)
Beide Waveguide-Sorten erfordern unterschiedliche Fertigungsprozesse mit jeweils eigenen Herausforderungen, die die Ausbeute beeinträchtigen können. Bei Diffractive Waveguides müssen Strukturen im Nanometerbereich über linsenartige Flächen hinweg mit nahezu null Defekten eingeprägt werden. Geometric Reflective Waveguides wiederum erfordern ein äußerst präzises Beschichten und Anordnen halbspiegelnder Oberflächen auf Glas, wobei schon kleinste Abweichungen Helligkeitsunterschiede oder Farbstörungen verursachen können.

Ein schematischer Vergleich zwischen Diffractive und Geometric Reflective Waveguides.
(Bild: tobe)
Lange war unklar, ob Geometric Reflective Waveguides überhaupt jemals in großen Stückzahlen produziert werden können. Inzwischen hat Schott die Serienfertigung gemeistert. Und laut Metas Technikchef Andrew Bosworth ist es Schott, das die Waveguides für die Meta Ray-Ban Display in Malaysia fertigt.
Licht beugen oder reflektieren: Stärken und Schwächen
Die Vor- und Nachteile der beiden Waveguide-Sorten lassen sich gut an Metas Brillenmodellen ablesen. Vor einem Jahr präsentierte Meta den technisch eindrucksvollen AR-Brillenprototyp Orion, der Diffractive Waveguides nutzt. Diesen Monat folgte die Ankündigung der marktreifen Smart Glasses Meta Ray-Ban Display, die stattdessen auf ein Geometric Reflective Waveguide setzt. Hat Meta binnen eines Jahres die Waveguide-Sorte gewechselt? Keineswegs, denn die Modelle gehören unterschiedlichen Produktkategorien mit jeweils eigenen Anforderungen an.
Orion stellt den Versuch dar, eine vollwertige AR-Brille mit möglichst schlankem Formfaktor zu entwickeln: Sie bietet ein besonders weites Sichtfeld für digitale Einblendungen, kann die Umgebung räumlich erfassen und digitale Objekte darin verankern. Neben Blick- und Handerfassung ist sie potenziell auch in der Lage, 3D-Grafik anstelle bloßer Bildflächen darzustellen. Bis zur technologischen und kommerziellen Reife von Metas AR-Vision dürften allerdings noch ein paar Jahre vergehen.

Das Diffractive Waveguide in Meta Orion ermöglicht ein weites Sichtfeld.
(Bild: Meta)
Mit der Meta Ray-Ban Display verfolgt Meta derweil ein bescheideneres Ziel: Die bislang displaylosen Smart Glasses der Marke Ray-Ban Meta werden um eine kleine Anzeige im rechten Auge erweitert, die verschiedene Funktionen erfüllt. Sie blendet etwa Antworten des KI-Assistenten Meta AI ein, zeigt Nachrichten aus Whatsapp, Messenger und Instagram an, dient als Sucher für Fotos und Videos und unterstützt Nutzer mit visueller Navigation.

Die Meta Ray-Ban Display bietet ein Heads-up-Display (HUD) statt eines weiten AR-Sichtfelds. Die digitale Anzeige erscheint im Raum vor dem Nutzer, nicht auf der Linse, wie auf dem Bild dargestellt.
(Bild: Meta)
Eine der Stärken von Diffractive Waveguides ist, dass sie ein besonders weites Sichtfeld ermöglichen, weshalb Meta bei Orion auf diese Waveguide-Sorte setzte. Bei Diffractive Waveguides spielt der Brechungsindex des Substrats eine zentrale Rolle: Je höher er ist, desto größer kann das digitale Sichtfeld ausfallen. Mit einem Waveguide-Substrat aus Siliziumkarbid statt Glas erreicht Orion ein für diesen Formfaktor ungewöhnlich weites Sichtfeld von 70 Grad. Das entspricht einer rund 16-mal so großen digitalen Projektionsfläche im Vergleich zur Ray-Ban Meta Display. Gleichzeitig reduziert Siliziumkarbid eine der größten Schwächen von Diffractive Waveguides: die wellenlängenabhängige Lichtbeugung, die häufig Farbverzerrungen und Regenbogeneffekte verursacht. Der Haken: Siliziumkarbid ist in der Herstellung so aufwendig, dass eine Kommerzialisierung derzeit nicht infrage kommt.
Da für die Ray-Ban Meta Display ohnehin kein großes Sichtfeld vorgesehen ist, fiel Metas Wahl auf ein Geometric Reflective Waveguide, das günstiger herzustellen ist und in anderen Leistungsbereichen Vorteile bietet. Diese Art von Waveguide nutzt semitransparente Spiegel, die das Licht nahezu verlustfrei und unabhängig von der Wellenlänge reflektieren. Dadurch erreicht das Waveguide-Display eine deutlich höhere Bildqualität, Helligkeit und Effizienz als Diffractive Waveguides und ermöglicht so ein Smart-Glasses-Display, das einige Stunden nutzbar ist und auch im Freien bei hellem Tageslicht sichtbar bleibt.

Das Geometric Reflective Waveguide der Meta Ray-Ban Display eignet sich für den Einsatz im Freien.
(Bild: Meta)
Ein weiterer Vorteil des Geometric Reflective Waveguide ist, dass das Display für Außenstehende kaum sichtbar ist. Diffractive Waveguides erzeugen dagegen oft störende Reflexionen nach außen, die den Blickkontakt beeinträchtigen können. „Das Problem ist, dass diese Waveguides nicht richtungsselektiv sind. Die wollen genauso viel Bild zur Außenwelt schicken wie ins Auge. Die Spiegelchen [der Geometric Reflective Waveguides] hingegen haben ganz wenig Reflexionen zur Welt hin“, sagt Sprengard und bezeichnet diesen Umstand als ein „Geschenk der Natur“.
Für Sprengard ist noch offen, welche Art von Waveguide sich am Ende durchsetzen wird. Fest steht jedoch, dass sich beide Technologien weiterentwickeln werden. Substrate mit höherem Brechungsindex und neue, präzisere Prägungstechniken aus der Halbleiterfertigung könnten die Schwächen von Diffractive Waveguides verringern, während Geometric Reflective Waveguides beim Sichtfeld aufholen werden, da dieses hier weniger stark vom Brechungsindex abhängt. Lumus hat bereits angekündigt, im nächsten Jahr ein neues Waveguide-Design vorzustellen, dessen Sichtfeld mit Orion konkurrieren könnte. Abseits von Waveguides wird zugleich an leistungsfähigeren Light Engines gearbeitet, dem zweiten Baustein von Waveguide-Brillendisplays.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Neben Diffractive und Geometric Reflective Waveguides gibt es weitere Sorten von Waveguide-Displays. Sollten Smart Glasses wie die Ray-Ban Meta Display erfolgreich sein, könnte das die Forschung und Entwicklung beschleunigen und die Entstehung von neuen Arten und Unterarten vorantreiben. Zwar existieren auch ganze andere Display-Ansätze wie Birdbath-Optik, doch Waveguides gelten derzeit als die vielversprechendste Technologie, um alltagstaugliche Smart Glasses und AR-Brillen Wirklichkeit werden zu lassen.
Dass die Technologie nach vielen Jahren endlich marktreif wird und Verbraucher erreicht, sieht Sprengard als wichtigen Meilenstein: „Das ist der Anfang von etwas, das die Art und Weise, wie wir Unterhaltungselektronik im Alltag benutzen, verändern wird.“
(tobe)
Künstliche Intelligenz
Anker Solix: Power Dock bündelt bis zu vier Balkonkraftwerke zum Multisystem
Viele Menschen beginnen ihre Reise ins Feld der Photovoltaik mit kleinen und überschaubaren Anlagen von der Stange, die aber selten dem Bedarf entsprechen. Einmal auf den Geschmack gekommen, rüstet man dann auf, besorgt sich hier noch ein paar Komponenten, erweitert hier und da seine Panelflächen und steht irgendwann vor der Aufgabe, alle Teile zu einer gemeinsamen PV-Anlage zu vereinigen.
Das Multisystem von Anker Solix folgt diesem Gedanken – vom Kleinen zum Großen – und bündelt über das Solix Power Dock bis zu vier Balkonkraftwerke zu einer einheitlichen PV-Anlage mit zentralem Energiemanagement. Ganz ohne Elektriker kommt man dabei nicht aus, aber das Aufstocken einer Installation ist mit wenigen Handgriffen erledigt. An den vier im Inneren versteckten Schukosteckdosen des Power Docks lassen sich Wechselrichter oder Batteriekomplettsysteme der Marke Solix, aber auch welche von anderen Anbietern hängen.
- Anker Solix verschiebt mit dem Power Dock die Grenze vom Balkonkraftwerk hin zur PV-Anlage.
- Einmal vom Fachmann installiert, lässt sich das System einfach vom Nutzer erweitern.
- Die im System angebotene Wallbox ist schlecht integriert.
Die Powerbanks von Anker Solix werden vom Dock als einheitliches Batteriesystem verwaltet, das die Nutzung der selbst erzeugten Solarenergie optimiert und durch geschicktes Lade- / Entlademanagement finanzielle Vorteile aus dynamischen Stromtarifen zieht. Modelle von Drittanbietern kann das System nicht steuern, ihr Solarertrag bezieht das Multisystem aber immerhin in die Regelung ein.
Das war die Leseprobe unseres heise-Plus-Artikels „Anker Solix: Power Dock bündelt bis zu vier Balkonkraftwerke zum Multisystem“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
XPipe 19: SSH-Manager unterstützt nun auch alte Unix-Systeme
Der quelloffene SSH-Manager XPipe ist in Version 19 erschienen. Das wesentliche Merkmal des Updates ist die deutlich verbesserte Kompatibilität mit veralteten Unix-basierten Systemen, die bereits das Ende ihres Lebenszyklus erreicht haben. Laut Entwickler Christopher Schnick soll XPipe nun mit praktisch jedem System funktionieren, zu dem überhaupt eine SSH-Verbindung möglich ist – unabhängig vom Alter.
Weiterlesen nach der Anzeige
XPipe ist ein Desktop-Tool zur Verwaltung von SSH-Verbindungen, das sich primär an Administratoren richtet. Die Open-Source-Software bietet einen grafischen Datei-Browser für Remote-Systeme und verwaltet an zentraler Stelle alle Verbindungen zu Servern, Containern und virtuellen Maschinen. Bislang konzentrierte sich die Entwicklung auf aktuelle Systeme, doch in der Praxis müssen IT-Abteilungen häufig auch Legacy-Infrastrukturen betreuen.
Verbindungen zu AIX und HP-UX
Die neue Version behebt zahlreiche Kompatibilitätsprobleme mit älteren Unix-Varianten. So erkennt der SSH-Dialog jetzt automatisch noch unterstützte Verschlüsselungsalgorithmen, wenn ein Server so veraltete Crypto-Methoden anbietet, dass moderne SSH-Clients diese nicht mehr kennen. XPipe umgeht außerdem Einschränkungen älterer Versionen der Kommandozeilen-Tools find, tar und dd, die in Legacy-Systemen verwendet werden.
Weitere Anpassungen betreffen Systeme, in denen das sleep-Kommando keine Dezimalzahlen akzeptiert oder die Shell-Option set -u gesetzt ist. Die Software kann nun auch AIX-Versionen vollständig erkennen und die Namen von Unix-basierten Nicht-Linux-Systemen korrekt formatieren. IBM AIX und HP-UX gehören zu den Plattformen, die Schnick in seinem Blogbeitrag zu XPipe 19 explizit nennt.
Netbird-Integration und abstrakte Hosts
Neu ist die Integration des VPN-Tools Netbird: XPipe kann jetzt über die lokal installierte Netbird-Kommandozeile auf Geräte im Netbird-Netzwerk per SSH zugreifen. Für Systeme ohne Shell-Zugriff führt Version 19 das Konzept abstrakter Hosts ein: Admins können damit Verbindungen zu Geräten besser organisieren, die nur VNC, RDP oder Web-Dienste anbieten – etwa Embedded-Systeme oder Netzwerkgeräte.
Die Adresse lässt sich dabei inline angeben oder aus bestehenden XPipe-Einträgen wählen. Die Software passt die Verbindung dann automatisch an die Möglichkeiten des Zielsystems an. Mehrere Verbindungen zum selben Host werden übersichtlich gruppiert dargestellt.
Weiterlesen nach der Anzeige
SFTP-Only-Systeme und weitere Verbesserungen
XPipe 19 unterstützt erstmals reine SFTP-Verbindungen ohne SSH-Shell-Zugang. Solche Systeme lassen sich im Datei-Browser öffnen, wenn auch mit eingeschränkter Funktionalität, da keine Kommandos ausgeführt werden können. Die Software kann außerdem Dateien per sudo lesen, wenn der aktuelle Nutzer keine Leserechte besitzt.
Zu den weiteren Neuerungen zählen Unterstützung für Flatpak-Varianten verschiedener Editoren und Terminals, verbessertes Drag-and-Drop in der Navigationsleiste des Browsers sowie die Option, Service-Tunnel beim Start automatisch zu aktivieren. Die technische Basis wurde auf JDK 25 und JavaFX 25 aktualisiert.
XPipe 19 steht auf der Projekt-Website zum Download bereit. Die Software läuft auf Linux, macOS und Windows. Das Nix-Paket unterstützt nun auch macOS. Neben der freien Community-Variante können Unternehmen XPipe in unterschiedlichen kommerziellen Lizenzen beziehen, die weitere Features hinzufügen.
Lesen Sie auch
(fo)
Künstliche Intelligenz
Dank KI: Komplette Milchstraße inklusive ihrer 100 Milliarden Sterne simuliert
Einem internationalen Forschungsteam ist es erstmals gelungen, die Milchstraße bis hinunter zu ihren etwa 100 Milliarden Sternen komplett zu simulieren, und zwar für einen Zeitraum von 10.000 Jahren. Das hat das japanische Forschungsinstitut Riken mitgeteilt, das die Arbeit geleitet hat. Demnach umfasst die Simulation nicht nur 100-mal so viele Sterne wie die bisher leistungsfähigsten Vorgänger, sie wurde auch 100-mal schneller fertiggestellt. Ermöglicht wurde das demnach durch die Einbeziehung von KI-Algorithmen. Das Vorgehen sei jetzt nicht nur für die Astrophysik von großem Wert, es könne auch bei der Erforschung des Klimawandels und von Wettermustern helfen, ergänzt die Forschungsgruppe.
Weiterlesen nach der Anzeige
Deutlich schneller als bisherige Simulationen
Wie die Forscherinnen und Forscher ausführen, konnten mit den bisher besten Simulationen nur maximal eine Milliarde Sterne modelliert werden, Berechnungen zur Milchstraße hatten also als kleinste Einheit immer nur Haufen aus 100 Sternen. Was individuellen Sternen passiert, wurde herausgerechnet. Das war aber vor allem problematisch, weil ein explodierender Einzelstern als Supernova weit über seine direkte Umgebung hinaus Einfluss nehmen kann. Gleichzeitig hätte es 36 Jahre gedauert, wenn man eine Million Jahre in der Entwicklung der Milchstraße mit der jetzt erreichten Detailgenauigkeit hätte simulieren wollen. Mit der jetzt entwickelten Methode würde das lediglich 115 Tage dauern.
Für die verbesserte Simulation hat das Team unter anderem ein KI-Modell mit hochaufgelösten Modellen von Sternenexplosionen trainiert, aus denen die Ausbreitung des ausgestoßenen Gases über 100.000 Jahre abgeleitet werden konnte. In der Folge müssen bei der Simulation der ganzen Galaxie keine Ressourcen mehr für diese Prozesse abgezweigt werden, schreibt das Team. Damit könnten gleichzeitig Dynamiken in der gesamten Galaxie simuliert und enger begrenzte Phänomene wie die Supernovae einbezogen werden. Zur Verifizierung hat das Team die Ausgabedaten mit denen etablierter Simulationen von Supercomputern abgeglichen.
Die Verantwortlichen geben sich überzeugt, dass ihre Herangehensweise auch in anderen rechenintensiven Wissenschaftszweigen eine große Hilfe darstellen kann. Sie verweisen auf Simulationen des Wetters, von Ozeanen und des Klimas insgesamt. In allen müssten eng begrenzte Prozesse mit systemweiten in Verbindung gebracht werden. Zudem zeige ihre Arbeit einmal mehr, dass durch KI beschleunigte Simulationen ein echtes wissenschaftliches Werkzeug sein können. Im konkreten Fall könnten sie uns beispielsweise aufzeigen, wie jene Stoffe in der Milchstraße entstanden sind, aus denen sich schließlich das Leben auf der Erde entwickelt hat. Die Forschungsarbeit dazu wurde zur Supercomputing-Konferenz SC 25 vorgestellt und ist öffentlich einsehbar.
(mho)
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 MonatenAdobe Firefly Boards › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Datenschutz & Sicherheitvor 3 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 1 MonatIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 2 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Online Marketing & SEOvor 3 Monaten„Buongiorno Brad“: Warum Brad Pitt für seinen Werbejob bei De’Longhi Italienisch büffeln muss
