Künstliche Intelligenz

Waveguides erklärt: So funktioniert das Display in Smart Glasses und AR-Brillen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Waveguides oder Wellenleiter, wie man sie auf Deutsch nennt, kann man sich als Bahnen vorstellen, die Licht, Radiowellen oder Schall gezielt von einem Ort zum nächsten führen. Die Waveguide-Displays in Smart Glasses und AR-Brillen sind eine spezielle Form von Waveguides, die für die präzise Führung von Licht entwickelt wurden. Daher spricht man in diesem Zusammenhang auch von optischen Waveguides.

Optische Waveguides sind eine weitverbreitete Form von Wellenleitern: In Gestalt von Glasfasernetzen etwa bilden sie die Grundlage für das Internet und die moderne Telekommunikation. Während Glasfasern kabelartig und biegsam sind und moduliertes Infrarotlicht über weite Strecken transportieren, sind die optischen Waveguides in Smart Glasses und AR-Brillen flach und starr und leiten sichtbares Licht über wenige Zentimeter direkt ins Auge.

Ein Waveguide-Brillendisplay besteht im Wesentlichen aus zwei Bausteinen: der Light Engine, die meist im vorderen Bereich des Brillenbügels nahe dem Scharnier sitzt, und dem Waveguide selbst, der die Linse oder einen Teil dieser bildet.

Die Light Engine hat zwei zentrale Funktionen: Zum einen liefert sie die Lichtquelle und erzeugt ein winziges Bild mithilfe eines Mikrodisplays, wobei je nach Produkt unterschiedliche Technologien wie LCoS, Micro-OLED oder MicroLED zum Einsatz kommen. Zum anderen richtet sie die Lichtstrahlen aus und führt sie im erforderlichen Winkel in den Waveguide ein.

Der Waveguide selbst besteht aus einem Substrat mit möglichst hohem Brechungsindex. Meist handelt es sich um speziell angefertigtes Glas oder Kunststoff. Der Waveguide hat drei wichtige Aufgaben: Er koppelt das Licht der Light Engine ein, führt es entlang der Linse an seinen Bestimmungsort und koppelt es dort wieder aus, sodass es gezielt ins Auge des Brillenträgers gelangt.



Auf dem Bild gut zu sehen: Beidseitige Light Engines und Waveguides.

(Bild: Schott)

Auf seinem Weg durch den Waveguide bleibt das Licht durch ein physikalisches Phänomen namens Totalreflexion im Substrat eingeschlossen und bewegt sich darin wie in einem Spiegelkorridor. Totalreflexion tritt auf, wenn Licht aus einem Medium mit höherem Brechungsindex (Waveguide-Substrat) auf ein Medium mit niedrigerem Brechungsindex (meistens Luft oder eine umgebende Trägerlinse aus Glas oder Kunststoff) trifft. Ob es im Substrat bleibt, hängt vom Einfallswinkel ab: Überschreitet dieser den sogenannten kritischen Winkel, wird das Licht vollständig reflektiert. Je größer der Unterschied zwischen den Brechungsindizes ist, desto größer ist auch der Winkelbereich, in dem das Licht im Substrat gehalten werden kann. Dadurch verbessert sich die Effizienz der Lichtführung, und die Waveguides können dünner und kompakter konstruiert werden.

Beim Auskoppeln des Lichts schließlich wird das ursprünglich winzige Bild der Light Engine vom Waveguide aufgefächert und erzeugt so den Eindruck einer im Raum schwebenden Bildfläche, die kleinere oder größere Teile des Sichtfelds füllt.

Letzten Endes muss ein Waveguide-Display zweierlei leisten: Es führt künstliches Licht gezielt ins Auge und damit ins Sichtfeld, während es zugleich natürliches Licht durch seine Oberfläche passieren lässt, sodass die Umgebung sichtbar bleibt. Aus der Kombination beider Lichtquellen ergeben sich digitale Einblendungen, die die physische Welt überlagern und erweitern.



Das Funktionsprinzip eines Diffractive Waveguide: Einkopplung, Führung und Auskopplung des Lichts bei gleichzeitiger Transparenz zur Außenwelt.

(Bild: Schott)

Die Transparenz ist eine entscheidende Eigenschaft: Sie unterscheidet Waveguide-Displays von klassischen Displays in Mixed-Reality-Headsets wie der Meta Quest 3 oder Apple Vision Pro. Dort sitzt ein LCD- oder OLED-Bildschirm direkt vor den Augen, der den Blick auf die Außenwelt vollständig blockiert. Das reale Umfeld wird von Kameras aufgenommen und als Videobild wiedergegeben: eine Technik, die „Passthrough“ genannt wird und sich grundlegend vom „Seethrough“ optischer Display-Systeme wie Waveguides unterscheidet. Schaltet sich ein Mixed-Reality-Headset aus, sitzt man im Dunkeln. Fällt dagegen ein Waveguide-Display aus, bleibt die Umgebung weiterhin sichtbar. Die Lichtdurchlässigkeit kann jedoch von Waveguide zu Waveguide variieren.

Es gibt verschiedene Arten von Waveguides, die sich primär darin unterscheiden, wie sie Licht ein- und auskoppeln. Die häufigste Sorte sind Diffractive Waveguides, die das Licht der Light Engine mithilfe von ins Waveguide-Substrat eingeprägten Nanostrukturen beugen („Diffraction“ ist das englische Wort für Beugung). Diffractive Waveguides kommen in vielen bekannten Geräten wie Hololens, Magic Leap, den aktuellen Snap Spectacles sowie Metas Orion-Prototyp zum Einsatz.

Eine weitere, im Aufkommen begriffene Art von Waveguide-Display sind Geometric Reflective Waveguides, deren Entwicklung maßgeblich vom Waveguide-Pionier Lumus vorangetrieben wird. Diese Sorte von Waveguide kommt in der Meta Ray-Ban Display zum Einsatz. Ihren Namen tragen diese Waveguides, weil sie auf klassischen geometrischen Lichtwegen mit Spiegeln und Prismen basieren, im Gegensatz zu Diffractive Waveguides, die das Licht durch Beugung lenken. Statt Nanostrukturen leiten hier Schichten semitransparenter Spiegelchen das Licht ins Auge. „Die Bildqualität ist über die geometrische Anordnung dieser Spiegelchen definiert“, erklärt Rüdiger Sprengard, Head of Augmented Reality beim deutschen Spezialglashersteller und Lumus-Partner Schott, der Waveguides beider Arten fertigt.



In der Meta Ray-Ban Display lässt sich die erste Spiegelreihe noch erkennen, die restlichen bleiben unsichtbar.

(Bild: Lumus / Meta)

Beide Waveguide-Sorten erfordern unterschiedliche Fertigungsprozesse mit jeweils eigenen Herausforderungen, die die Ausbeute beeinträchtigen können. Bei Diffractive Waveguides müssen Strukturen im Nanometerbereich über linsenartige Flächen hinweg mit nahezu null Defekten eingeprägt werden. Geometric Reflective Waveguides wiederum erfordern ein äußerst präzises Beschichten und Anordnen halbspiegelnder Oberflächen auf Glas, wobei schon kleinste Abweichungen Helligkeitsunterschiede oder Farbstörungen verursachen können.



Ein schematischer Vergleich zwischen Diffractive und Geometric Reflective Waveguides.

(Bild: tobe)

Lange war unklar, ob Geometric Reflective Waveguides überhaupt jemals in großen Stückzahlen produziert werden können. Inzwischen hat Schott die Serienfertigung gemeistert. Und laut Metas Technikchef Andrew Bosworth ist es Schott, das die Waveguides für die Meta Ray-Ban Display in Malaysia fertigt.

Die Vor- und Nachteile der beiden Waveguide-Sorten lassen sich gut an Metas Brillenmodellen ablesen. Vor einem Jahr präsentierte Meta den technisch eindrucksvollen AR-Brillenprototyp Orion, der Diffractive Waveguides nutzt. Diesen Monat folgte die Ankündigung der marktreifen Smart Glasses Meta Ray-Ban Display, die stattdessen auf ein Geometric Reflective Waveguide setzt. Hat Meta binnen eines Jahres die Waveguide-Sorte gewechselt? Keineswegs, denn die Modelle gehören unterschiedlichen Produktkategorien mit jeweils eigenen Anforderungen an.

Orion stellt den Versuch dar, eine vollwertige AR-Brille mit möglichst schlankem Formfaktor zu entwickeln: Sie bietet ein besonders weites Sichtfeld für digitale Einblendungen, kann die Umgebung räumlich erfassen und digitale Objekte darin verankern. Neben Blick- und Handerfassung ist sie potenziell auch in der Lage, 3D-Grafik anstelle bloßer Bildflächen darzustellen. Bis zur technologischen und kommerziellen Reife von Metas AR-Vision dürften allerdings noch ein paar Jahre vergehen.



Das Diffractive Waveguide in Meta Orion ermöglicht ein weites Sichtfeld.

(Bild: Meta)

Mit der Meta Ray-Ban Display verfolgt Meta derweil ein bescheideneres Ziel: Die bislang displaylosen Smart Glasses der Marke Ray-Ban Meta werden um eine kleine Anzeige im rechten Auge erweitert, die verschiedene Funktionen erfüllt. Sie blendet etwa Antworten des KI-Assistenten Meta AI ein, zeigt Nachrichten aus Whatsapp, Messenger und Instagram an, dient als Sucher für Fotos und Videos und unterstützt Nutzer mit visueller Navigation.



Die Meta Ray-Ban Display bietet ein Heads-up-Display (HUD) statt eines weiten AR-Sichtfelds. Die digitale Anzeige erscheint im Raum vor dem Nutzer, nicht auf der Linse, wie auf dem Bild dargestellt.

(Bild: Meta)

Eine der Stärken von Diffractive Waveguides ist, dass sie ein besonders weites Sichtfeld ermöglichen, weshalb Meta bei Orion auf diese Waveguide-Sorte setzte. Bei Diffractive Waveguides spielt der Brechungsindex des Substrats eine zentrale Rolle: Je höher er ist, desto größer kann das digitale Sichtfeld ausfallen. Mit einem Waveguide-Substrat aus Siliziumkarbid statt Glas erreicht Orion ein für diesen Formfaktor ungewöhnlich weites Sichtfeld von 70 Grad. Das entspricht einer rund 16-mal so großen digitalen Projektionsfläche im Vergleich zur Ray-Ban Meta Display. Gleichzeitig reduziert Siliziumkarbid eine der größten Schwächen von Diffractive Waveguides: die wellenlängenabhängige Lichtbeugung, die häufig Farbverzerrungen und Regenbogeneffekte verursacht. Der Haken: Siliziumkarbid ist in der Herstellung so aufwendig, dass eine Kommerzialisierung derzeit nicht infrage kommt.

Da für die Ray-Ban Meta Display ohnehin kein großes Sichtfeld vorgesehen ist, fiel Metas Wahl auf ein Geometric Reflective Waveguide, das günstiger herzustellen ist und in anderen Leistungsbereichen Vorteile bietet. Diese Art von Waveguide nutzt semitransparente Spiegel, die das Licht nahezu verlustfrei und unabhängig von der Wellenlänge reflektieren. Dadurch erreicht das Waveguide-Display eine deutlich höhere Bildqualität, Helligkeit und Effizienz als Diffractive Waveguides und ermöglicht so ein Smart-Glasses-Display, das einige Stunden nutzbar ist und auch im Freien bei hellem Tageslicht sichtbar bleibt.



Das Geometric Reflective Waveguide der Meta Ray-Ban Display eignet sich für den Einsatz im Freien.

(Bild: Meta)

Ein weiterer Vorteil des Geometric Reflective Waveguide ist, dass das Display für Außenstehende kaum sichtbar ist. Diffractive Waveguides erzeugen dagegen oft störende Reflexionen nach außen, die den Blickkontakt beeinträchtigen können. „Das Problem ist, dass diese Waveguides nicht richtungsselektiv sind. Die wollen genauso viel Bild zur Außenwelt schicken wie ins Auge. Die Spiegelchen [der Geometric Reflective Waveguides] hingegen haben ganz wenig Reflexionen zur Welt hin“, sagt Sprengard und bezeichnet diesen Umstand als ein „Geschenk der Natur“.

Für Sprengard ist noch offen, welche Art von Waveguide sich am Ende durchsetzen wird. Fest steht jedoch, dass sich beide Technologien weiterentwickeln werden. Substrate mit höherem Brechungsindex und neue, präzisere Prägungstechniken aus der Halbleiterfertigung könnten die Schwächen von Diffractive Waveguides verringern, während Geometric Reflective Waveguides beim Sichtfeld aufholen werden, da dieses hier weniger stark vom Brechungsindex abhängt. Lumus hat bereits angekündigt, im nächsten Jahr ein neues Waveguide-Design vorzustellen, dessen Sichtfeld mit Orion konkurrieren könnte. Abseits von Waveguides wird zugleich an leistungsfähigeren Light Engines gearbeitet, dem zweiten Baustein von Waveguide-Brillendisplays.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Neben Diffractive und Geometric Reflective Waveguides gibt es weitere Sorten von Waveguide-Displays. Sollten Smart Glasses wie die Ray-Ban Meta Display erfolgreich sein, könnte das die Forschung und Entwicklung beschleunigen und die Entstehung von neuen Arten und Unterarten vorantreiben. Zwar existieren auch ganze andere Display-Ansätze wie Birdbath-Optik, doch Waveguides gelten derzeit als die vielversprechendste Technologie, um alltagstaugliche Smart Glasses und AR-Brillen Wirklichkeit werden zu lassen.

Dass die Technologie nach vielen Jahren endlich marktreif wird und Verbraucher erreicht, sieht Sprengard als wichtigen Meilenstein: „Das ist der Anfang von etwas, das die Art und Weise, wie wir Unterhaltungselektronik im Alltag benutzen, verändern wird.“


(tobe)



Source link

Beliebt

Die mobile Version verlassen