Künstliche Intelligenz
Waveguides erklärt: So funktioniert das Display in Smart Glasses und AR-Brillen
Waveguides oder Wellenleiter, wie man sie auf Deutsch nennt, kann man sich als Bahnen vorstellen, die Licht, Radiowellen oder Schall gezielt von einem Ort zum nächsten führen. Die Waveguide-Displays in Smart Glasses und AR-Brillen sind eine spezielle Form von Waveguides, die für die präzise Führung von Licht entwickelt wurden. Daher spricht man in diesem Zusammenhang auch von optischen Waveguides.
Optische Waveguides sind eine weitverbreitete Form von Wellenleitern: In Gestalt von Glasfasernetzen etwa bilden sie die Grundlage für das Internet und die moderne Telekommunikation. Während Glasfasern kabelartig und biegsam sind und moduliertes Infrarotlicht über weite Strecken transportieren, sind die optischen Waveguides in Smart Glasses und AR-Brillen flach und starr und leiten sichtbares Licht über wenige Zentimeter direkt ins Auge.
So funktionieren Waveguide-Displays
Ein Waveguide-Brillendisplay besteht im Wesentlichen aus zwei Bausteinen: der Light Engine, die meist im vorderen Bereich des Brillenbügels nahe dem Scharnier sitzt, und dem Waveguide selbst, der die Linse oder einen Teil dieser bildet.
Die Light Engine hat zwei zentrale Funktionen: Zum einen liefert sie die Lichtquelle und erzeugt ein winziges Bild mithilfe eines Mikrodisplays, wobei je nach Produkt unterschiedliche Technologien wie LCoS, Micro-OLED oder MicroLED zum Einsatz kommen. Zum anderen richtet sie die Lichtstrahlen aus und führt sie im erforderlichen Winkel in den Waveguide ein.
Der Waveguide selbst besteht aus einem Substrat mit möglichst hohem Brechungsindex. Meist handelt es sich um speziell angefertigtes Glas oder Kunststoff. Der Waveguide hat drei wichtige Aufgaben: Er koppelt das Licht der Light Engine ein, führt es entlang der Linse an seinen Bestimmungsort und koppelt es dort wieder aus, sodass es gezielt ins Auge des Brillenträgers gelangt.

Auf dem Bild gut zu sehen: Beidseitige Light Engines und Waveguides.
(Bild: Schott)
Auf seinem Weg durch den Waveguide bleibt das Licht durch ein physikalisches Phänomen namens Totalreflexion im Substrat eingeschlossen und bewegt sich darin wie in einem Spiegelkorridor. Totalreflexion tritt auf, wenn Licht aus einem Medium mit höherem Brechungsindex (Waveguide-Substrat) auf ein Medium mit niedrigerem Brechungsindex (meistens Luft oder eine umgebende Trägerlinse aus Glas oder Kunststoff) trifft. Ob es im Substrat bleibt, hängt vom Einfallswinkel ab: Überschreitet dieser den sogenannten kritischen Winkel, wird das Licht vollständig reflektiert. Je größer der Unterschied zwischen den Brechungsindizes ist, desto größer ist auch der Winkelbereich, in dem das Licht im Substrat gehalten werden kann. Dadurch verbessert sich die Effizienz der Lichtführung, und die Waveguides können dünner und kompakter konstruiert werden.
Beim Auskoppeln des Lichts schließlich wird das ursprünglich winzige Bild der Light Engine vom Waveguide aufgefächert und erzeugt so den Eindruck einer im Raum schwebenden Bildfläche, die kleinere oder größere Teile des Sichtfelds füllt.
Letzten Endes muss ein Waveguide-Display zweierlei leisten: Es führt künstliches Licht gezielt ins Auge und damit ins Sichtfeld, während es zugleich natürliches Licht durch seine Oberfläche passieren lässt, sodass die Umgebung sichtbar bleibt. Aus der Kombination beider Lichtquellen ergeben sich digitale Einblendungen, die die physische Welt überlagern und erweitern.

Das Funktionsprinzip eines Diffractive Waveguide: Einkopplung, Führung und Auskopplung des Lichts bei gleichzeitiger Transparenz zur Außenwelt.
(Bild: Schott)
Die Transparenz ist eine entscheidende Eigenschaft: Sie unterscheidet Waveguide-Displays von klassischen Displays in Mixed-Reality-Headsets wie der Meta Quest 3 oder Apple Vision Pro. Dort sitzt ein LCD- oder OLED-Bildschirm direkt vor den Augen, der den Blick auf die Außenwelt vollständig blockiert. Das reale Umfeld wird von Kameras aufgenommen und als Videobild wiedergegeben: eine Technik, die „Passthrough“ genannt wird und sich grundlegend vom „Seethrough“ optischer Display-Systeme wie Waveguides unterscheidet. Schaltet sich ein Mixed-Reality-Headset aus, sitzt man im Dunkeln. Fällt dagegen ein Waveguide-Display aus, bleibt die Umgebung weiterhin sichtbar. Die Lichtdurchlässigkeit kann jedoch von Waveguide zu Waveguide variieren.
Es gibt unterschiedliche Waveguide-Displays
Es gibt verschiedene Arten von Waveguides, die sich primär darin unterscheiden, wie sie Licht ein- und auskoppeln. Die häufigste Sorte sind Diffractive Waveguides, die das Licht der Light Engine mithilfe von ins Waveguide-Substrat eingeprägten Nanostrukturen beugen („Diffraction“ ist das englische Wort für Beugung). Diffractive Waveguides kommen in vielen bekannten Geräten wie Hololens, Magic Leap, den aktuellen Snap Spectacles sowie Metas Orion-Prototyp zum Einsatz.
Eine weitere, im Aufkommen begriffene Art von Waveguide-Display sind Geometric Reflective Waveguides, deren Entwicklung maßgeblich vom Waveguide-Pionier Lumus vorangetrieben wird. Diese Sorte von Waveguide kommt in der Meta Ray-Ban Display zum Einsatz. Ihren Namen tragen diese Waveguides, weil sie auf klassischen geometrischen Lichtwegen mit Spiegeln und Prismen basieren, im Gegensatz zu Diffractive Waveguides, die das Licht durch Beugung lenken. Statt Nanostrukturen leiten hier Schichten semitransparenter Spiegelchen das Licht ins Auge. „Die Bildqualität ist über die geometrische Anordnung dieser Spiegelchen definiert“, erklärt Rüdiger Sprengard, Head of Augmented Reality beim deutschen Spezialglashersteller und Lumus-Partner Schott, der Waveguides beider Arten fertigt.

In der Meta Ray-Ban Display lässt sich die erste Spiegelreihe noch erkennen, die restlichen bleiben unsichtbar.
(Bild: Lumus / Meta)
Beide Waveguide-Sorten erfordern unterschiedliche Fertigungsprozesse mit jeweils eigenen Herausforderungen, die die Ausbeute beeinträchtigen können. Bei Diffractive Waveguides müssen Strukturen im Nanometerbereich über linsenartige Flächen hinweg mit nahezu null Defekten eingeprägt werden. Geometric Reflective Waveguides wiederum erfordern ein äußerst präzises Beschichten und Anordnen halbspiegelnder Oberflächen auf Glas, wobei schon kleinste Abweichungen Helligkeitsunterschiede oder Farbstörungen verursachen können.

Ein schematischer Vergleich zwischen Diffractive und Geometric Reflective Waveguides.
(Bild: tobe)
Lange war unklar, ob Geometric Reflective Waveguides überhaupt jemals in großen Stückzahlen produziert werden können. Inzwischen hat Schott die Serienfertigung gemeistert. Und laut Metas Technikchef Andrew Bosworth ist es Schott, das die Waveguides für die Meta Ray-Ban Display in Malaysia fertigt.
Licht beugen oder reflektieren: Stärken und Schwächen
Die Vor- und Nachteile der beiden Waveguide-Sorten lassen sich gut an Metas Brillenmodellen ablesen. Vor einem Jahr präsentierte Meta den technisch eindrucksvollen AR-Brillenprototyp Orion, der Diffractive Waveguides nutzt. Diesen Monat folgte die Ankündigung der marktreifen Smart Glasses Meta Ray-Ban Display, die stattdessen auf ein Geometric Reflective Waveguide setzt. Hat Meta binnen eines Jahres die Waveguide-Sorte gewechselt? Keineswegs, denn die Modelle gehören unterschiedlichen Produktkategorien mit jeweils eigenen Anforderungen an.
Orion stellt den Versuch dar, eine vollwertige AR-Brille mit möglichst schlankem Formfaktor zu entwickeln: Sie bietet ein besonders weites Sichtfeld für digitale Einblendungen, kann die Umgebung räumlich erfassen und digitale Objekte darin verankern. Neben Blick- und Handerfassung ist sie potenziell auch in der Lage, 3D-Grafik anstelle bloßer Bildflächen darzustellen. Bis zur technologischen und kommerziellen Reife von Metas AR-Vision dürften allerdings noch ein paar Jahre vergehen.

Das Diffractive Waveguide in Meta Orion ermöglicht ein weites Sichtfeld.
(Bild: Meta)
Mit der Meta Ray-Ban Display verfolgt Meta derweil ein bescheideneres Ziel: Die bislang displaylosen Smart Glasses der Marke Ray-Ban Meta werden um eine kleine Anzeige im rechten Auge erweitert, die verschiedene Funktionen erfüllt. Sie blendet etwa Antworten des KI-Assistenten Meta AI ein, zeigt Nachrichten aus Whatsapp, Messenger und Instagram an, dient als Sucher für Fotos und Videos und unterstützt Nutzer mit visueller Navigation.

Die Meta Ray-Ban Display bietet ein Heads-up-Display (HUD) statt eines weiten AR-Sichtfelds. Die digitale Anzeige erscheint im Raum vor dem Nutzer, nicht auf der Linse, wie auf dem Bild dargestellt.
(Bild: Meta)
Eine der Stärken von Diffractive Waveguides ist, dass sie ein besonders weites Sichtfeld ermöglichen, weshalb Meta bei Orion auf diese Waveguide-Sorte setzte. Bei Diffractive Waveguides spielt der Brechungsindex des Substrats eine zentrale Rolle: Je höher er ist, desto größer kann das digitale Sichtfeld ausfallen. Mit einem Waveguide-Substrat aus Siliziumkarbid statt Glas erreicht Orion ein für diesen Formfaktor ungewöhnlich weites Sichtfeld von 70 Grad. Das entspricht einer rund 16-mal so großen digitalen Projektionsfläche im Vergleich zur Ray-Ban Meta Display. Gleichzeitig reduziert Siliziumkarbid eine der größten Schwächen von Diffractive Waveguides: die wellenlängenabhängige Lichtbeugung, die häufig Farbverzerrungen und Regenbogeneffekte verursacht. Der Haken: Siliziumkarbid ist in der Herstellung so aufwendig, dass eine Kommerzialisierung derzeit nicht infrage kommt.
Da für die Ray-Ban Meta Display ohnehin kein großes Sichtfeld vorgesehen ist, fiel Metas Wahl auf ein Geometric Reflective Waveguide, das günstiger herzustellen ist und in anderen Leistungsbereichen Vorteile bietet. Diese Art von Waveguide nutzt semitransparente Spiegel, die das Licht nahezu verlustfrei und unabhängig von der Wellenlänge reflektieren. Dadurch erreicht das Waveguide-Display eine deutlich höhere Bildqualität, Helligkeit und Effizienz als Diffractive Waveguides und ermöglicht so ein Smart-Glasses-Display, das einige Stunden nutzbar ist und auch im Freien bei hellem Tageslicht sichtbar bleibt.

Das Geometric Reflective Waveguide der Meta Ray-Ban Display eignet sich für den Einsatz im Freien.
(Bild: Meta)
Ein weiterer Vorteil des Geometric Reflective Waveguide ist, dass das Display für Außenstehende kaum sichtbar ist. Diffractive Waveguides erzeugen dagegen oft störende Reflexionen nach außen, die den Blickkontakt beeinträchtigen können. „Das Problem ist, dass diese Waveguides nicht richtungsselektiv sind. Die wollen genauso viel Bild zur Außenwelt schicken wie ins Auge. Die Spiegelchen [der Geometric Reflective Waveguides] hingegen haben ganz wenig Reflexionen zur Welt hin“, sagt Sprengard und bezeichnet diesen Umstand als ein „Geschenk der Natur“.
Für Sprengard ist noch offen, welche Art von Waveguide sich am Ende durchsetzen wird. Fest steht jedoch, dass sich beide Technologien weiterentwickeln werden. Substrate mit höherem Brechungsindex und neue, präzisere Prägungstechniken aus der Halbleiterfertigung könnten die Schwächen von Diffractive Waveguides verringern, während Geometric Reflective Waveguides beim Sichtfeld aufholen werden, da dieses hier weniger stark vom Brechungsindex abhängt. Lumus hat bereits angekündigt, im nächsten Jahr ein neues Waveguide-Design vorzustellen, dessen Sichtfeld mit Orion konkurrieren könnte. Abseits von Waveguides wird zugleich an leistungsfähigeren Light Engines gearbeitet, dem zweiten Baustein von Waveguide-Brillendisplays.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Neben Diffractive und Geometric Reflective Waveguides gibt es weitere Sorten von Waveguide-Displays. Sollten Smart Glasses wie die Ray-Ban Meta Display erfolgreich sein, könnte das die Forschung und Entwicklung beschleunigen und die Entstehung von neuen Arten und Unterarten vorantreiben. Zwar existieren auch ganze andere Display-Ansätze wie Birdbath-Optik, doch Waveguides gelten derzeit als die vielversprechendste Technologie, um alltagstaugliche Smart Glasses und AR-Brillen Wirklichkeit werden zu lassen.
Dass die Technologie nach vielen Jahren endlich marktreif wird und Verbraucher erreicht, sieht Sprengard als wichtigen Meilenstein: „Das ist der Anfang von etwas, das die Art und Weise, wie wir Unterhaltungselektronik im Alltag benutzen, verändern wird.“
(tobe)
Künstliche Intelligenz
Kommentar: Dauerzank um 6 GHz
In den USA dehnt sich das für WLAN zugewiesene 6-GHz-Band über fast 1,2 Gigahertz Gesamtbandbreite von 5,945 bis 7,125 GHz. In Europa ist seit der Freigabe anno 2021 bei 6,425 GHz Schluss, was 0,48 Gigahertz und damit weniger als die Hälfte des US-Spektrums ergibt. Seither kreisen Begehrlichkeiten um die oberen 700 Megahertz. Fürs WLAN wären das zwei zusätzliche extrabreite 320-MHz-Kanäle, was mehr parallele Multigigabit-Transfers in Nachbarschaften erlaubt. Den Mobilfunkern könnten sie helfen, die innerstädtische Versorgung zu verbessern. Besonders prägnant wird die Konkurrenz bei Massenveranstaltungen, also etwa in Sportstadien oder auf Konzertgeländen.
Weiterlesen nach der Anzeige

Nach ein paar Jahren im Anlagenbau und bei der c’t-Mutter Elrad schreibt und testet Ernst Ahlers seit 1997 für die c’t. Über PC-Hardware und Stromversorgung rutschte er ins aufkommende Thema Netzwerke und WLAN, das ihn bis heute und auch die nächsten Jahre wohl nicht loslässt: Mit der laufenden Einführung von IPv6 gibt es noch viele Bugs in Routern und Access Points zu entdecken.
Schon 2023 hat die World Radio Conference entschieden, den Bereich von 6,425 bis 7,125 GHz als IMT-Band in allen Weltregionen auszuweisen. IMT steht für International Mobile Telecommunications.
Ende Oktober 2025 rief eine Lobbygruppe den Bundesdigitalminister Karsten Wildberger dazu auf, das obere 6-GHz-Band für WLAN vorzusehen und wiederholt damit ihre Forderung aus dem Vorfeld der WRC 2023. Wildberger hingegen favorisiert den Mobilfunk und handelt damit bloß konsequent nach der WRC-Entscheidung.
WLAN-Lobby ist spät dran
Nun erneut aufs WLAN zu pochen, hat ein Geschmäckle: Schon vor der Freigabe des 6-GHz-Bandes waren die Chiphersteller für Wi-Fi 6E auf die extrahohen Frequenzen vorbereitet. Intel kündigte sein AX210-Funkmodul für Notebooks Ende 2020 an und c’t testete die ersten Wi-Fi-6E-Router im Frühjahr 2022. Doch schaut man sich beispielsweise das Fritz-Portfolio an, so ist die erst seit Sommer 2024 erhältliche Wi-Fi-7-Fritzbox 5690 Pro bis jetzt deren einziger Router, der auf 6 GHz funken kann. Mit dem Beispiel ist die frühere AVM jedoch nicht allein und so gilt für alle: Wer seine Herde nicht beizeiten auf die Weide führt, muss damit rechnen, dass dort schon eine andere grast.
Momentan sieht es nach einem Sieg für die Mobilfunker aus. Für die ist schnelles WLAN am Festnetz nämlich der gefährlichste Konkurrent: Wenn per Glasfaser unbegrenztes Datenvolumen mit Gigabit-Geschwindigkeit für 70 Euro pro Monat ins Haus kommt, haben nur Vielreisende einen Grund, für Mobilgeräte einen ähnlich teuren Vertrag mit großem Datenvolumen abzuschließen. Der Rest ist mit einem Kleingeldtarif, der 10 Gigabyte pro Abrechnungsintervall bietet, typischerweise schon überversorgt. Mein Smartphone ist es definitiv, ich brauche unterwegs selten viel mehr als 2 GByte. Wenn doch, löse ich Extravolumen per Tagesticket.
Weiterlesen nach der Anzeige
(ea)
Künstliche Intelligenz
WeatherNext 2: Google DeepMind stellt neues KI-Wettermodell vor
Wettermodelle, die mit Künstlicher Intelligenz (KI) arbeiten, haben zuletzt sehr genaue Vorhersagen in der diesjährigen Hurrikan-Saison im Nordatlantik geliefert. Googles KI-Abteilung DeepMind hat ein neues KI-Wettermodell vorgestellt, das nach Angaben der Entwickler sehr schnell und genau ist.
Weiterlesen nach der Anzeige
WeatherNext 2 könne Wettervorhersagen mit einer Auflösung von einer Stunde erstellen und sei dabei achtmal schneller als die vorherige Version, teilte das Entwicklerteam mit.
Das System sei bereits für Hurrikan-Vorhersagen für Wetterdienste eingesetzt worden. Jetzt sollen damit auch die Wettervorhersagen für Search, Gemini und Pixel Weather damit erstellt werden. Eine Integration in Google Maps ist für die kommenden Wochen geplant.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
A new era of AI-based weather forecasting to deliver more efficient and more accurate predictions
Das Modell liefert Vorhersagen für zwei Wochen in Bezug auf Temperatur, Luftdruck und Wind mit einer Genauigkeit von einer Stunde. Daneben berechne das System die Zugbahn eines tropischen Wirbelsturms für drei Tage im Voraus, sagen die Entwickler. Bisherige Systeme könnten das nur für zwei Tage.
Viele Branchen brauchen genaue Vorhersagen
Die hohe Auflösung von Wind, Wolken und Temperatur sowie die Bahnen von Stürmen sind vor allem wichtig für die Wirtschaft. Eine ganze Reihe von Branchen ist davon abhängig – die Landwirtschaft etwa, die Energiebranche oder die Schifffahrt.
KI-basierte Wettermodelle „nehmen historische Aufzeichnungen und versuchen daraus, großräumige Muster zu erkennen, um vorherzusagen, was als Nächstes passiert. Weil sie sich nicht um die kleinen Details kümmern, können sie sehr viel schneller arbeiten“, sagte Peter Battaglia, leitender Wissenschaftler bei DeepMind.
Weiterlesen nach der Anzeige
Ausgehend von der aktuellen Wettersituation erstellt WeatherNext 2 Hunderte von möglichen Szenarien. Dabei kommt das System mit wenig Ressourcen aus: Jedes Szenario werde auf einer Tensor Processing Unit (TPU) in nur einer Minute berechnet, sagen die Entwickler.
Diese Leistungssteigerung werde durch einen neuen Ansatz in der KI-Modellierung ermöglicht, das Functional Generative Network (FGN), das DeepMind vor einigen Monaten vorgestellt hat.
Der Einsatz von KI hat die Wettervorhersage revolutioniert, da dafür nur sehr wenig Rechenleistung benötigt wird. Ohne KI müssen Wettermodelle auf Supercomputern erstellt werden.
(wpl)
Künstliche Intelligenz
IQ-Test für Samenspender: Fragwürdiges Kalkül mit vererbbarer Intelligenz
Das dänische Donor Network führt nach eigenen Angaben als erste Samenbank in Europa verpflichtende IQ-Tests für Samenspender ein. Die Ergebnisse sollen zusammen mit einem polizeilichen Führungszeugnis für mehr Transparenz sorgen. Das Unternehmen begründet den Schritt mit der Behauptung, der IQ eines Kindes sei zu „bis zu 80 Prozent“ genetisch bedingt.
Weiterlesen nach der Anzeige
Laut Donor Network wird bei allen Spendern der „Culture Fair Test 20-R“ (CFT 20-R) durchgeführt. Dieser standardisierte Test dient der Erfassung der fluiden Intelligenz, also der Fähigkeit zum abstrakten und logischen Denken, unabhängig von erworbenem Wissen oder sprachlichen Fähigkeiten.
Die Ergebnisse des IQ-Tests werden transparent in den Spenderprofilen hinterlegt, ebenso wie Angaben zur gesundheitlichen Vorgeschichte, Familienverhältnissen und äußeren Merkmalen. Zusätzlich müssen alle Spender ein einwandfreies polizeiliches Führungszeugnis vorlegen. Demnach sollen diese Maßnahmen vor allem Empfängerinnen in Deutschland mehr Sicherheit und eine bessere Entscheidungsgrundlage bieten. Deutschland gilt laut Unternehmen als einer der wichtigsten Absatzmärkte für dänische Spendersamen.
Genetische Vererbung als Verkaufsargument
Zentrales Marketingargument ist die Aussage, „bis zu 80 Prozent des IQs eines Kindes“ seien genetisch vorbestimmt. Studien zeigen jedoch ein deutlich differenzierteres Bild: Eine Metaanalyse von Florence A.R. Oxley und weiteren aus dem Jahr 2024 kommt zu dem Schluss, dass der vererbte Anteil von Intelligenz je nach Alter und Umweltbedingungen zwischen etwa 40 und 70 Prozent schwankt.
Darüber hinaus spielt nicht nur der Spender, sondern auch die Mutter eine erhebliche Rolle. Viele Gene, die an der kognitiven Entwicklung beteiligt sind, liegen auf dem X-Chromosom. Frauen besitzen davon zwei, Männer nur eines – das eines Sohnes stammt also immer von der Mutter. Dadurch kann das mütterliche Erbgut stärker ins Gewicht fallen.
Weiterlesen nach der Anzeige
Allerdings befinden sich nicht alle Intelligenz-relevanten Gene auf dem X-Chromosom: Experten schätzen, dass etwa 15 bis 20 Prozent der Gene mit neuronalen und kognitiven Funktionen dort liegen, während der Großteil über andere Chromosomen verteilt ist. Das zeigen auch Forschungsarbeiten zum Einfluss des X-Chromosoms auf das menschliche Gehirn und Studien zu X-chromosomalen Faktoren und Kognition.
Zusätzlich beeinflussen epigenetische Mechanismen und genomische Prägung die Entwicklung des Gehirns. Bestimmte Gene werden nur dann aktiviert, wenn sie von einem bestimmten Elternteil stammen – ein Effekt, der laut Studien zu Genomic Imprinting und Gehirnfunktionen sowie Reviews zu genomischer Prägung in der neuronalen Entwicklung eng mit Lernleistung und neuronaler Plastizität verknüpft ist. Auch Faktoren wie Bildung, Ernährung und emotionale Förderung wirken maßgeblich auf die Ausbildung kognitiver Fähigkeiten, wie umfassende Studien zu Umwelteinflüssen auf die kognitive Entwicklung belegen.
(mack)
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 MonatenAdobe Firefly Boards › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Datenschutz & Sicherheitvor 3 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 1 MonatIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 2 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Online Marketing & SEOvor 3 Monaten„Buongiorno Brad“: Warum Brad Pitt für seinen Werbejob bei De’Longhi Italienisch büffeln muss
