Künstliche Intelligenz
Waveguides erklärt: So funktioniert das Display in Smart Glasses und AR-Brillen
Waveguides oder Wellenleiter, wie man sie auf Deutsch nennt, kann man sich als Bahnen vorstellen, die Licht, Radiowellen oder Schall gezielt von einem Ort zum nächsten führen. Die Waveguide-Displays in Smart Glasses und AR-Brillen sind eine spezielle Form von Waveguides, die für die präzise Führung von Licht entwickelt wurden. Daher spricht man in diesem Zusammenhang auch von optischen Waveguides.
Optische Waveguides sind eine weitverbreitete Form von Wellenleitern: In Gestalt von Glasfasernetzen etwa bilden sie die Grundlage für das Internet und die moderne Telekommunikation. Während Glasfasern kabelartig und biegsam sind und moduliertes Infrarotlicht über weite Strecken transportieren, sind die optischen Waveguides in Smart Glasses und AR-Brillen flach und starr und leiten sichtbares Licht über wenige Zentimeter direkt ins Auge.
So funktionieren Waveguide-Displays
Ein Waveguide-Brillendisplay besteht im Wesentlichen aus zwei Bausteinen: der Light Engine, die meist im vorderen Bereich des Brillenbügels nahe dem Scharnier sitzt, und dem Waveguide selbst, der die Linse oder einen Teil dieser bildet.
Die Light Engine hat zwei zentrale Funktionen: Zum einen liefert sie die Lichtquelle und erzeugt ein winziges Bild mithilfe eines Mikrodisplays, wobei je nach Produkt unterschiedliche Technologien wie LCoS, Micro-OLED oder MicroLED zum Einsatz kommen. Zum anderen richtet sie die Lichtstrahlen aus und führt sie im erforderlichen Winkel in den Waveguide ein.
Der Waveguide selbst besteht aus einem Substrat mit möglichst hohem Brechungsindex. Meist handelt es sich um speziell angefertigtes Glas oder Kunststoff. Der Waveguide hat drei wichtige Aufgaben: Er koppelt das Licht der Light Engine ein, führt es entlang der Linse an seinen Bestimmungsort und koppelt es dort wieder aus, sodass es gezielt ins Auge des Brillenträgers gelangt.

Auf dem Bild gut zu sehen: Beidseitige Light Engines und Waveguides.
(Bild: Schott)
Auf seinem Weg durch den Waveguide bleibt das Licht durch ein physikalisches Phänomen namens Totalreflexion im Substrat eingeschlossen und bewegt sich darin wie in einem Spiegelkorridor. Totalreflexion tritt auf, wenn Licht aus einem Medium mit höherem Brechungsindex (Waveguide-Substrat) auf ein Medium mit niedrigerem Brechungsindex (meistens Luft oder eine umgebende Trägerlinse aus Glas oder Kunststoff) trifft. Ob es im Substrat bleibt, hängt vom Einfallswinkel ab: Überschreitet dieser den sogenannten kritischen Winkel, wird das Licht vollständig reflektiert. Je größer der Unterschied zwischen den Brechungsindizes ist, desto größer ist auch der Winkelbereich, in dem das Licht im Substrat gehalten werden kann. Dadurch verbessert sich die Effizienz der Lichtführung, und die Waveguides können dünner und kompakter konstruiert werden.
Beim Auskoppeln des Lichts schließlich wird das ursprünglich winzige Bild der Light Engine vom Waveguide aufgefächert und erzeugt so den Eindruck einer im Raum schwebenden Bildfläche, die kleinere oder größere Teile des Sichtfelds füllt.
Letzten Endes muss ein Waveguide-Display zweierlei leisten: Es führt künstliches Licht gezielt ins Auge und damit ins Sichtfeld, während es zugleich natürliches Licht durch seine Oberfläche passieren lässt, sodass die Umgebung sichtbar bleibt. Aus der Kombination beider Lichtquellen ergeben sich digitale Einblendungen, die die physische Welt überlagern und erweitern.

Das Funktionsprinzip eines Diffractive Waveguide: Einkopplung, Führung und Auskopplung des Lichts bei gleichzeitiger Transparenz zur Außenwelt.
(Bild: Schott)
Die Transparenz ist eine entscheidende Eigenschaft: Sie unterscheidet Waveguide-Displays von klassischen Displays in Mixed-Reality-Headsets wie der Meta Quest 3 oder Apple Vision Pro. Dort sitzt ein LCD- oder OLED-Bildschirm direkt vor den Augen, der den Blick auf die Außenwelt vollständig blockiert. Das reale Umfeld wird von Kameras aufgenommen und als Videobild wiedergegeben: eine Technik, die „Passthrough“ genannt wird und sich grundlegend vom „Seethrough“ optischer Display-Systeme wie Waveguides unterscheidet. Schaltet sich ein Mixed-Reality-Headset aus, sitzt man im Dunkeln. Fällt dagegen ein Waveguide-Display aus, bleibt die Umgebung weiterhin sichtbar. Die Lichtdurchlässigkeit kann jedoch von Waveguide zu Waveguide variieren.
Es gibt unterschiedliche Waveguide-Displays
Es gibt verschiedene Arten von Waveguides, die sich primär darin unterscheiden, wie sie Licht ein- und auskoppeln. Die häufigste Sorte sind Diffractive Waveguides, die das Licht der Light Engine mithilfe von ins Waveguide-Substrat eingeprägten Nanostrukturen beugen („Diffraction“ ist das englische Wort für Beugung). Diffractive Waveguides kommen in vielen bekannten Geräten wie Hololens, Magic Leap, den aktuellen Snap Spectacles sowie Metas Orion-Prototyp zum Einsatz.
Eine weitere, im Aufkommen begriffene Art von Waveguide-Display sind Geometric Reflective Waveguides, deren Entwicklung maßgeblich vom Waveguide-Pionier Lumus vorangetrieben wird. Diese Sorte von Waveguide kommt in der Meta Ray-Ban Display zum Einsatz. Ihren Namen tragen diese Waveguides, weil sie auf klassischen geometrischen Lichtwegen mit Spiegeln und Prismen basieren, im Gegensatz zu Diffractive Waveguides, die das Licht durch Beugung lenken. Statt Nanostrukturen leiten hier Schichten semitransparenter Spiegelchen das Licht ins Auge. „Die Bildqualität ist über die geometrische Anordnung dieser Spiegelchen definiert“, erklärt Rüdiger Sprengard, Head of Augmented Reality beim deutschen Spezialglashersteller und Lumus-Partner Schott, der Waveguides beider Arten fertigt.

In der Meta Ray-Ban Display lässt sich die erste Spiegelreihe noch erkennen, die restlichen bleiben unsichtbar.
(Bild: Lumus / Meta)
Beide Waveguide-Sorten erfordern unterschiedliche Fertigungsprozesse mit jeweils eigenen Herausforderungen, die die Ausbeute beeinträchtigen können. Bei Diffractive Waveguides müssen Strukturen im Nanometerbereich über linsenartige Flächen hinweg mit nahezu null Defekten eingeprägt werden. Geometric Reflective Waveguides wiederum erfordern ein äußerst präzises Beschichten und Anordnen halbspiegelnder Oberflächen auf Glas, wobei schon kleinste Abweichungen Helligkeitsunterschiede oder Farbstörungen verursachen können.

Ein schematischer Vergleich zwischen Diffractive und Geometric Reflective Waveguides.
(Bild: tobe)
Lange war unklar, ob Geometric Reflective Waveguides überhaupt jemals in großen Stückzahlen produziert werden können. Inzwischen hat Schott die Serienfertigung gemeistert. Und laut Metas Technikchef Andrew Bosworth ist es Schott, das die Waveguides für die Meta Ray-Ban Display in Malaysia fertigt.
Licht beugen oder reflektieren: Stärken und Schwächen
Die Vor- und Nachteile der beiden Waveguide-Sorten lassen sich gut an Metas Brillenmodellen ablesen. Vor einem Jahr präsentierte Meta den technisch eindrucksvollen AR-Brillenprototyp Orion, der Diffractive Waveguides nutzt. Diesen Monat folgte die Ankündigung der marktreifen Smart Glasses Meta Ray-Ban Display, die stattdessen auf ein Geometric Reflective Waveguide setzt. Hat Meta binnen eines Jahres die Waveguide-Sorte gewechselt? Keineswegs, denn die Modelle gehören unterschiedlichen Produktkategorien mit jeweils eigenen Anforderungen an.
Orion stellt den Versuch dar, eine vollwertige AR-Brille mit möglichst schlankem Formfaktor zu entwickeln: Sie bietet ein besonders weites Sichtfeld für digitale Einblendungen, kann die Umgebung räumlich erfassen und digitale Objekte darin verankern. Neben Blick- und Handerfassung ist sie potenziell auch in der Lage, 3D-Grafik anstelle bloßer Bildflächen darzustellen. Bis zur technologischen und kommerziellen Reife von Metas AR-Vision dürften allerdings noch ein paar Jahre vergehen.

Das Diffractive Waveguide in Meta Orion ermöglicht ein weites Sichtfeld.
(Bild: Meta)
Mit der Meta Ray-Ban Display verfolgt Meta derweil ein bescheideneres Ziel: Die bislang displaylosen Smart Glasses der Marke Ray-Ban Meta werden um eine kleine Anzeige im rechten Auge erweitert, die verschiedene Funktionen erfüllt. Sie blendet etwa Antworten des KI-Assistenten Meta AI ein, zeigt Nachrichten aus Whatsapp, Messenger und Instagram an, dient als Sucher für Fotos und Videos und unterstützt Nutzer mit visueller Navigation.

Die Meta Ray-Ban Display bietet ein Heads-up-Display (HUD) statt eines weiten AR-Sichtfelds. Die digitale Anzeige erscheint im Raum vor dem Nutzer, nicht auf der Linse, wie auf dem Bild dargestellt.
(Bild: Meta)
Eine der Stärken von Diffractive Waveguides ist, dass sie ein besonders weites Sichtfeld ermöglichen, weshalb Meta bei Orion auf diese Waveguide-Sorte setzte. Bei Diffractive Waveguides spielt der Brechungsindex des Substrats eine zentrale Rolle: Je höher er ist, desto größer kann das digitale Sichtfeld ausfallen. Mit einem Waveguide-Substrat aus Siliziumkarbid statt Glas erreicht Orion ein für diesen Formfaktor ungewöhnlich weites Sichtfeld von 70 Grad. Das entspricht einer rund 16-mal so großen digitalen Projektionsfläche im Vergleich zur Ray-Ban Meta Display. Gleichzeitig reduziert Siliziumkarbid eine der größten Schwächen von Diffractive Waveguides: die wellenlängenabhängige Lichtbeugung, die häufig Farbverzerrungen und Regenbogeneffekte verursacht. Der Haken: Siliziumkarbid ist in der Herstellung so aufwendig, dass eine Kommerzialisierung derzeit nicht infrage kommt.
Da für die Ray-Ban Meta Display ohnehin kein großes Sichtfeld vorgesehen ist, fiel Metas Wahl auf ein Geometric Reflective Waveguide, das günstiger herzustellen ist und in anderen Leistungsbereichen Vorteile bietet. Diese Art von Waveguide nutzt semitransparente Spiegel, die das Licht nahezu verlustfrei und unabhängig von der Wellenlänge reflektieren. Dadurch erreicht das Waveguide-Display eine deutlich höhere Bildqualität, Helligkeit und Effizienz als Diffractive Waveguides und ermöglicht so ein Smart-Glasses-Display, das einige Stunden nutzbar ist und auch im Freien bei hellem Tageslicht sichtbar bleibt.

Das Geometric Reflective Waveguide der Meta Ray-Ban Display eignet sich für den Einsatz im Freien.
(Bild: Meta)
Ein weiterer Vorteil des Geometric Reflective Waveguide ist, dass das Display für Außenstehende kaum sichtbar ist. Diffractive Waveguides erzeugen dagegen oft störende Reflexionen nach außen, die den Blickkontakt beeinträchtigen können. „Das Problem ist, dass diese Waveguides nicht richtungsselektiv sind. Die wollen genauso viel Bild zur Außenwelt schicken wie ins Auge. Die Spiegelchen [der Geometric Reflective Waveguides] hingegen haben ganz wenig Reflexionen zur Welt hin“, sagt Sprengard und bezeichnet diesen Umstand als ein „Geschenk der Natur“.
Für Sprengard ist noch offen, welche Art von Waveguide sich am Ende durchsetzen wird. Fest steht jedoch, dass sich beide Technologien weiterentwickeln werden. Substrate mit höherem Brechungsindex und neue, präzisere Prägungstechniken aus der Halbleiterfertigung könnten die Schwächen von Diffractive Waveguides verringern, während Geometric Reflective Waveguides beim Sichtfeld aufholen werden, da dieses hier weniger stark vom Brechungsindex abhängt. Lumus hat bereits angekündigt, im nächsten Jahr ein neues Waveguide-Design vorzustellen, dessen Sichtfeld mit Orion konkurrieren könnte. Abseits von Waveguides wird zugleich an leistungsfähigeren Light Engines gearbeitet, dem zweiten Baustein von Waveguide-Brillendisplays.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Neben Diffractive und Geometric Reflective Waveguides gibt es weitere Sorten von Waveguide-Displays. Sollten Smart Glasses wie die Ray-Ban Meta Display erfolgreich sein, könnte das die Forschung und Entwicklung beschleunigen und die Entstehung von neuen Arten und Unterarten vorantreiben. Zwar existieren auch ganze andere Display-Ansätze wie Birdbath-Optik, doch Waveguides gelten derzeit als die vielversprechendste Technologie, um alltagstaugliche Smart Glasses und AR-Brillen Wirklichkeit werden zu lassen.
Dass die Technologie nach vielen Jahren endlich marktreif wird und Verbraucher erreicht, sieht Sprengard als wichtigen Meilenstein: „Das ist der Anfang von etwas, das die Art und Weise, wie wir Unterhaltungselektronik im Alltag benutzen, verändern wird.“
(tobe)
Künstliche Intelligenz
Mit Android 17: Google ermöglicht einfache Installation alternativer App-Stores
Anfang November hatten Epic und Google einen Vergleich vorgeschlagen, der ihren langjährigen Rechtsstreit über den Vertrieb von Android-Apps beenden könnte. Als Teil der Beendigung der Streitigkeiten hatte Google sich verpflichtet, wesentliche Änderungen am Android-Ökosystem, dem Play Store und Vereinbarungen mit Entwicklern und Herstellern vorzunehmen. Eine der für Nutzer wohl größten Änderungen ist die Einführung der Unterstützung für „registrierte App-Stores“, die mit der Veröffentlichung von Android 17, also voraussichtlich Mitte 2026, erfolgen wird.
Weiterlesen nach der Anzeige
Durch diese Öffnung erlaubt Google es Drittanbietern – und damit nicht nur Epic – alternative App-Stores direkt über eine Webseite anzubieten. Diese „registrierten App-Stores“ müssen vonseiten Googles als legitime Plattform für das Herunterladen von Android-Apps zertifiziert werden. Die Vereinbarung gilt zunächst bis zum 30. Juni 2032.
Registrierte App-Stores per Webseite installierbar
Jeder Store, der eine Zertifizierung erhält, ist dazu berechtigt, den neuen „Single Store Install Screen“ von Android für die Installation zu verwenden. Dieser neue Installationsbildschirm soll laut Dokument (via Android Authority) die Nutzerinnen und Nutzer in „neutraler Sprache“ über den Store informieren, den sie installieren möchten. Zudem soll er erklären, welche Berechtigungen erforderlich sind, sowie die Möglichkeit, andere Apps über diesen zu installieren.
Wie der Installations- und Berechtigungsprozess eines registrierten Stores vonstattengehen soll, visualisiert ein Designvorschlag, der einem Gerichtsdokument angehängt ist. Dieses zeigt zudem neue Details zur Funktionsweise: Um einen alternativen App-Store, wie etwa künftig den Epic-Store, zu installieren, rufen Nutzer die Website einer Plattform auf und tippen dort auf einen „Herunterladen“-Button.

Design noch nicht final: Mockup der Installation eines alternativen App-Stores auf Android 17.
(Bild: Courtlistener)
Mit dieser Aktion wird der Installationsbildschirm für den Store geöffnet. Hier soll der Nutzer künftig gefragt werden, ob er „diesen App Store installieren“ möchte. Auf diesem Bildschirm werden Nutzer zudem darüber informiert, dass der Store „bei Android registriert“ ist und dass es über den alternativen Store möglich sein wird, „Apps auf Ihrem Gerät zu installieren und zu verwalten“. Zudem heißt es, dass die alternative Plattform App-Bewertungen und -Updates übernimmt.
Weiterlesen nach der Anzeige
Google hat bis Ende 2026 Zeit
Nach der Installation des alternativen Stores können Nutzer sämtliche dort angebotenen Anwendungen ähnlich wie über den Play Store beziehen. Als Beispiel zeigt das Bild einen Music Player. Mit der Lösung scheint Google es Anbietern solcher Stores einfacher zu machen als Apple, wobei der iPhone-Bauer den Prozess schon von 15 auf sechs Schritte reduziert hat. Nicht nur Google selbst, sondern auch Hardwarepartner müssen dem einheitlichen Installationsprozess Folge leisten.
Lesen Sie auch
Google soll den systemseitigen Support für die alternativen App-Stores mit der nächsten großen Android-Version, also Android 17, bereitstellen, spätestens jedoch bis zum Quarterly Platform Release 2 (QPR2), der Ende 2026 erwartet wird. Die erste Vorabversion für Entwickler von Android 17 wird in wenigen Tagen erwartet. Zumindest, wenn Google dem Zeitplan von Android 16 folgt. Die erste Entwicklervorschau der aktuellen Android-Version erschien gegen Ende November 2024.
Abseits der App-Stores bleibt der Konzern dabei, dass ab Herbst 2026 nur noch Anwendungen auf zertifizierten Android-Geräten installiert werden können, deren Herausgeber sich zuvor bei Google registriert und dann die jeweilige Anwendung signiert hat. Nach lauter Kritik gab Google ein wenig nach: Wie der Konzern vergangene Woche schrieb, wird es eine Sideloading-Lösung für „erfahrene Nutzer“ geben, mit der sie auch unverifizierte Apps installieren können.
(afl)
Künstliche Intelligenz
LibrePods: „Volle“ AirPods-Unterstützung für Android braucht Root
Der junge Entwickler Kavish Devar hat eine (fast) vollständige Android-Anpassung für Apples AirPods-Stöpsel entwickelt. Das Projekt namens LibrePods ist auf GitHub zu finden und ist auch für Linux verfügbar. Momentan ist LibrePods für die AirPods-Pro-Generationen 2 und 3 vorgesehen, andere AirPods-Modelle liefern demnach nur „grundlegende Features“ wie den Akkustatus und die Ohrenerkennung. Ein Grundproblem des Tools: Es bedingt Root-Rechte. Grund sei, so Devar, dass es einen Bug im Android-Bluetooth-Stack gibt, der die Verbindung verhindert. Zudem nutzten Hörgerätemodus und die Einstellung des Transparenzmodus Funktionen, die weitergehende Systemmodifikationen notwendig machten. So muss sich Android gegenüber den AirPods als Apple-Gerät melden – über das Service Discovery Protocol.
Weiterlesen nach der Anzeige
Nahezu alle Features – mit Risiko
Wer das Rooting-Risiko eingeht, kann laut dem Entwickler diverse Features nutzen, die mit den AirPods Pro 2 und 3 bei Android-Geräten derzeit nicht zur Verfügung stehen. Dazu gehört die automatische Ohrerkennung, die Gesprächserkennung (Musiklautstäre wird automatisch reduziert), die besagte Einstellbarkeit des Transparenzmodus und die Hörgerätefunktion. Letzere hat Devar zufolge mit LibrePod keine Geosperre.
Zudem soll die Genauigkeit des Akkustands höher sein (statt via BLE), Kopfgesten funktionieren unter Android sowie die nützliche Multi-Device-Verbindung, bei denen man schnell zwischen Geräten wechseln kann. Schließlich sind auch die Gesten – also was beim langen Druck auf die AirPods-Stängel passiert – konfigurierbar, zudem Features aus dem Bereich der Barrierefreiheit.
Apple wird wohl nicht liefern
Apple macht bislang keine Anstalten, die AirPods auch unter Android adäquat zu unterstützen. Das dürfte auch so bleiben: Die Stöpsel gehören etwa zu den Geräten, die die EU-Kommission reguliert. Anders ist das beim iPhone: Hier muss Apple jede neue Funktion, die nur mit anderen Apple-Geräten arbeitet, grundsätzlich auch für andere Hardwarehersteller freigeben.
Das führt unter anderem dazu, dass Apple künftig die automatische WLAN-Zugangsübertragung an die Apple Watch innerhalb der EU stoppt, um diese Infos nicht an andere Geräte von Drittanbietern weiterleiten zu müssen. Bei Produkten der Apple-Tochter Beats sieht der Support der Geräte unter Android besser aus. Diese sind stets über eine eigene App konfigurierbar. Apple könnte also, wenn es wollte.
Weiterlesen nach der Anzeige
(bsc)
Künstliche Intelligenz
Anker Solix: Power Dock bündelt bis zu vier Balkonkraftwerke zum Multisystem
Viele Menschen beginnen ihre Reise ins Feld der Photovoltaik mit kleinen und überschaubaren Anlagen von der Stange, die aber selten dem Bedarf entsprechen. Einmal auf den Geschmack gekommen, rüstet man dann auf, besorgt sich hier noch ein paar Komponenten, erweitert hier und da seine Panelflächen und steht irgendwann vor der Aufgabe, alle Teile zu einer gemeinsamen PV-Anlage zu vereinigen.
Das Multisystem von Anker Solix folgt diesem Gedanken – vom Kleinen zum Großen – und bündelt über das Solix Power Dock bis zu vier Balkonkraftwerke zu einer einheitlichen PV-Anlage mit zentralem Energiemanagement. Ganz ohne Elektriker kommt man dabei nicht aus, aber das Aufstocken einer Installation ist mit wenigen Handgriffen erledigt. An den vier im Inneren versteckten Schukosteckdosen des Power Docks lassen sich Wechselrichter oder Batteriekomplettsysteme der Marke Solix, aber auch welche von anderen Anbietern hängen.
- Anker Solix verschiebt mit dem Power Dock die Grenze vom Balkonkraftwerk hin zur PV-Anlage.
- Einmal vom Fachmann installiert, lässt sich das System einfach vom Nutzer erweitern.
- Die im System angebotene Wallbox ist schlecht integriert.
Die Powerbanks von Anker Solix werden vom Dock als einheitliches Batteriesystem verwaltet, das die Nutzung der selbst erzeugten Solarenergie optimiert und durch geschicktes Lade- / Entlademanagement finanzielle Vorteile aus dynamischen Stromtarifen zieht. Modelle von Drittanbietern kann das System nicht steuern, ihr Solarertrag bezieht das Multisystem aber immerhin in die Regelung ein.
Das war die Leseprobe unseres heise-Plus-Artikels „Anker Solix: Power Dock bündelt bis zu vier Balkonkraftwerke zum Multisystem“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 MonatenAdobe Firefly Boards › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Datenschutz & Sicherheitvor 3 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 1 MonatIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 2 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Online Marketing & SEOvor 3 Monaten„Buongiorno Brad“: Warum Brad Pitt für seinen Werbejob bei De’Longhi Italienisch büffeln muss
