Apps & Mobile Entwicklung
Warum Smartglasses jetzt endlich normal sind
Das Google-Glass-Trauma ist endlich vorbei: 2026 werden Smartglasses unsichtbar, stylisch und zum echten Smartphone-Killer. Vergesst klobige Nerd-Gestelle, denn die Revolution landet jetzt auf Eurer Nase.
Smartglasses waren jahrelang der Running Gag der Tech-Branche. Entweder waren sie zu klobig, zu teuer oder der Nutzwert oft so dünn wie die Akkulaufzeit. Doch nach der und nun der CES 2026 hat sich das Blatt gewendet. Die neuen Brillen sehen nicht mehr aus wie Requisiten aus einem schlechten Sci-Fi-Film, sondern wie ganz normale Brillen. Unter der Haube verstecken sie jedoch Displays, Sensoren und jede Menge KI, die den Sprung in den Massenmarkt einleiten.
Marken wie Meta, Rokid oder Ray Neo zeigen heute Modelle, die optisch kaum von einer klassischen Ray-Ban zu unterscheiden sind. Der entscheidende Trick dabei ist, dass die Technik dezent in den Hintergrund rückt. Statt überladener Metaverse-Visionen stehen nun handfeste Alltagsszenarien im Fokus. Ein riesiger virtueller Bildschirm im Zug, Produktivität im Homeoffice oder smarter Support beim Stadtbummel.
Waveguide-Displays: Warum die Technik jetzt „verschwindet“
Der größte technologische Sprung steckt im Glas selbst. Moderne Brillen setzen auf sogenannte Waveguide-Displays. Dabei sitzen winzige Projektoren im Bügel und „zaubern“ das Bild über eine spezielle Schicht direkt ins Auge. Das sorgt für ein deutlich größeres Sichtfeld, was virtuelle Monitore oder Navigationspfeile erst richtig angenehm macht.
Ein weiterer Gamechanger ist die soziale Akzeptanz. Während man früher schon aus der Ferne sah, dass das Gegenüber eine Datenbrille trägt (Stichwort: leuchtende Augen), verlieren moderne Waveguides kaum noch Licht nach außen. Das verhindert den berüchtigten „Eye Glow“ und sorgt dafür, dass Ihr in der Öffentlichkeit nicht mehr wie ein Terminator ausseht. Zudem erlaubt die höhere Effizienz kleinere Akkus und damit dünnere, leichtere Bügel.
Audio, Display oder AR? Findet Euren Typ
Damit Ihr beim Kauf nicht danebengreift, hilft eine einfache Dreiteilung des Marktes. Am unauffälligsten sind die Audio-Glasses. Sie verzichten komplett auf ein Display und setzen auf Lautsprecher im Bügel für Musik, Telefonate und manchmal auch KI-Sprachassistenten.
Wer primär arbeiten oder streamen will, greift zu den Virtual Display Glasses. Diese fungieren als schwebender 100-Zoll-Monitor für Laptop oder Konsole. Ideal für die Reise, um ungestört Filme zu schauen oder um arbeiten zu können.
Die Königsklasse sind schließlich die AR-Glasses mit KI, die Informationen wie Navigationspfeile oder Live-Übersetzungen direkt ins Sichtfeld einblenden. Wie eben schon gesagt, mit den benannten Waveguide-Displays. Außerdem können sie dank Kameras den Kontext Eurer Umgebung verstehen. Dazu können die Kameras beim Navigieren helfen oder mit dem Ki-Agenten, gemeinsam die Stadt erkunden und Informationen erfragen.

Markt-Check: Wenn das Nerd-Gadget zum Standard wird
Dass dieser Boom ausgerechnet jetzt kommt, hat handfeste Gründe. Marktforscher prognostizieren, dass sich das Umsatzvolumen bis Anfang der 2030er-Jahre vervielfachen wird. 2026 gilt dabei als der Wendepunkt, an dem die Technologie die „Nerd-Nische“ verlässt. Die KI wandert nun direkt auf das Gerät, was für blitzschnelle Reaktionen und besseren Datenschutz sorgt.
Ein entscheidender Faktor ist die Präsenz großer Techfirmen. Klassische Brillen-Giganten arbeiten heute Hand in Hand mit Smartphone-Marken und Mobilfunkanbietern. Sobald die smarten Fassungen ganz selbstverständlich beim Optiker um die Ecke oder im Mobilfunkshop hängen, verschiebt sich die Wahrnehmung massiv. Die Smartglass wird zum normalen Accessoire, das man bei einer Vertragsverlängerung einfach mal mitnimmt.
Blick nach Barcelona: Die Telekom macht ernst
Dieser Trend wird sich auf dem MWC 2026 noch einmal massiv verstärken. Die Deutsche Telekom zeigt in Barcelona einen funktionsfähigen Prototypen einer eigenen KI-Brille (basierend auf der RayNeo X3 Pro). Das demonstriert, dass Smartglasses nun im Zentrum der Strategien großer Anbieter stehen.
Der MWC wird konkrete Antworten darauf liefern, wie diese Brillen hierzulande den Weg auf unsere Nasen finden. Es wird sich zeigen, ob die Geräte als klassisches Zubehör oder im attraktiven Vertragsbundle zusammenkommen.
Lohnt sich der Kauf 2026 oder lieber noch warten?
Ist jetzt der richtige Zeitpunkt zum Einsteigen? Wenn Ihr gerne reist, selbst Vlogs dreht und eine andere Perspektive haben wollt oder Lust auf hands-free KI-Unterstützung habt, ja. Die Hardware ist endlich ausgereift genug für den Alltag. Achtet beim Kauf aber weniger auf die reine Helligkeit, sondern primär auf den Tragekomfort und die Möglichkeit für Korrekturgläser.
Ein wichtiger Faktor bleibt der Datenschutz. Achtet auf eine gut erkennbare Aufnahme-LED und physische Schalter für Mikrofon und Kamera. Mein Tipp: Wartet die finalen MWC-Enthüllungen ab. Danach wissen wir genau, welche Bundles und Dienste die Anbieter eventuell für uns geschnürt haben. Ich bin selbst sehr gespannt auf die Updates auf der MWC und freue mich auf neue Firmen, die sich ausprobieren wollen, und auf die IFA. Ja, es dauert noch bis dahin, aber dort gab es letztes Jahr viele neue Smartglasses zum Testen und Anschauen.
Was ist Euer Bild von Smartglasses? Hattet Ihr schon die Chance welche auszuprobieren? Wie steht Ihr zu dem Thema? Schreibt es mir gerne in die Kommentare!
Apps & Mobile Entwicklung
Atari VCS vs. Mattel Intellivision: Die Geschichte hinter dem ersten „Kampf der Konsolen“
Mattels Spielkonsole Intellivision gibt es jetzt auch als Retro-Konsole Intellivision Sprint (Test) – von Atari, dem einstiegen Gegner im ersten „Kampf der Konsolen“. Wie es dazu kam und warum Atari als Sieger vom Platz ging, obwohl Intellivision mehr zu bieten hatte? Eine Zeitreise in die 70er/80er Jahre liefert die Antwort.
Zeitreise in die 70er/80er
Die Intellivision galt in ihrer Zeit als die größte Bedrohung für Ataris Vorherrschaft, die das Unternehmen mit seinem 2600er-System (in den USA hieß dieses schlicht „Atari VCS“) seinerzeit innehatte, und löste mit ihrer Veröffentlichung zugleich den ersten „Konsolenkrieg“ aus. Bereits der Name, ein „Kofferwort“ aus „Intelligent“ und „Television“, sollte die Konsole als zukünftiges und zentrales Heimcomputersystem positionieren, das sich mit einer stetig wachsenden Anzahl an Peripherie erweitern ließe.
Die Entwicklung der Mattel Intellivision
Die Entwicklung begann bei Mattel im Jahr 1978, ehe die Intellivision bereits 1979 auf der CES in den USA erstmals einem breiteren Publikum vorgestellt wurde. Der erste Verkauf an Endkunden erfolgte pünktlich zum Weihnachtsgeschäft am 3. Dezember 1979 zunächst als Test in Form eines Sets mit vier Spielkassetten zu einem Preis von 275 US-Dollar zuzüglich Mehrwertsteuer in den Gottschalk-Kaufhäusern in Fresno, Kalifornien. Die landesweite Markteinführung zog sich anschließend schrittweise über das Jahr 1980 hinweg und erfolgte zu einem etwas höheren Preis von 299 US-Dollar. Ab diesem Zeitpunkt stand die Konsole in direkter Konkurrenz zum Atari 2600, das mit 199,99 US-Dollar deutlich günstiger angeboten wurde.
Stärkere Hardware zum höheren Preis
Der höhere Preis der Intellivision hatte jedoch seine Gründe, denn im Gegensatz zur Atari-Konsole handelte es sich bei der Intellivision um eine echte 16-Bit-Konsole, deren Herzstück der CP1610 von General Instruments bildete, der über einen 16-Bit-Datenbus sowie eine ebenfalls 16 Bit umfassende RAM-Adressierung verfügte. Eine Besonderheit stellte dabei das Decle-Befehlsformat der CPU dar: Anstatt mit Opcodes in 8 oder 16 Bit zu arbeiten, speicherte diese ihre Befehle in 10 Bit, den sogenannten „Decles“, was wiederum 10 Bit breite ROM-Chips erforderte. Atari setzte demgegenüber mit dem MOS 6507 sogar auf eine noch weiter abgespeckte Variante des MOS 6502 und damit auf eine reine 8-Bit-CPU.
Auch beim RAM hatte die Intellivision die Nase deutlich vorne und konnte auf insgesamt 1.456 Bytes zurückgreifen, die sich auf das System, die Grafikeinheit und einen Bereich primär für das Betriebssystem aufteilte. Atari verbaute gerade einmal 128 Bytes an internen Speicher.
Für die Grafikausgabe zeichnete ein Standard Television Interface Chip (STIC) vom Typ AY-3-8900-1 von Generel Instruments verantwortlich, der eine Auflösung von 159 × 196 Pixeln bot, wobei spätere Revisionen diese auf 160 × 196 Pixel korrigierten. Der Bildschirm war dabei in 20 × 12 Kacheln unterteilt. Die Farbpalette umfasste 16 Farben, bestehend aus 8 Primär- und 8 Pastellfarben, die gleichzeitig dargestellt werden konnten. Darüber hinaus verfügte das System über 8 Hardware-Sprites, die bei der Intellivision als „Movable Objects“ bezeichnet wurden. Diese konnten jeweils eine Auflösung von 8 × 8 oder 8 × 16 Pixeln besitzen, waren individuell skalier- und spiegelbar und verfügten zudem über eine Hardware-Kollisionserkennung.
Das Atari VCS bot zwar eine nahezu identische Auflösung, konnte jedoch lediglich bis zu 8 Farben gleichzeitig darstellen und damit nur die Hälfte dessen, was die Intellivision leistete. Auch bei der Anzahl der Sprites zeigte sich eine Einschränkung, da hier lediglich 5 zur Verfügung standen, die zudem ausschließlich in einer Größe von 8 × 8 Pixeln dargestellt werden konnten.
Beim Sound kam in der Intellivision ein AY-3-8914 zum Einsatz, der im Vergleich zum Atari 2600 mit seinen zwei TIA-Kanälen über drei Tonkanäle sowie einen zusätzlichen Rauschkanal verfügte.
Insgesamt verfügte die Intellivision damit über eine deutlich fortschrittlichere und leistungsfähigere Hardware als die Atari-Konsole, was sich auch in der Umsetzung der Spiele bemerkbar machte.
Beim Controller lag Atari weit vorne
Hinzu kam, dass der Joystick von Atari bereits kurz nach seiner Einführung als ikonisch wahrgenommen wurde, wogegen der Controller der Intellivision trotz seines größeren Funktionsumfangs als umständlich und unhandlich galt, was sich ebenfalls nachteilig auf die Wahrnehmung der Konsole auswirkte.
ColecoVision mit mehr Leistung war günstiger
Zu Mattels Leidwesen trat im August 1982 zudem mit Coleco ein weiterer Konkurrent in den Markt ein, der mit der ColecoVision eine technisch leistungsfähige Konsole präsentierte. Diese basierte auf einer Z80-Architektur und konnte sowohl mit einer für die damalige Zeit soliden Rechenleistung als auch mit einer nochmals verbesserten Grafikleistung überzeugen. Trotz dieser technischen Vorteile wurde die Konsole mit einem Einführungspreis von 175 US-Dollar deutlich günstiger angeboten als die Intellivision. Dennoch gelang es auch diesem neuen Wettbewerber nicht, Atari von seiner führenden Position zu verdrängen, insbesondere da Atari im selben Jahr zusätzlich das Atari 5200 veröffentlichte, wenngleich dieses nicht mit seinem Vorgänger kompatibel war. Ungeachtet dessen konnte die Intellivision in ihrer Hochphase einen Marktanteil von rund 20 Prozent erreichen.
Am Ende setzte sich Atari durch
Dennoch stellte der höhere Preis, den Mattel für die Intellivision aufrief, für viele Käufer einen entscheidenden Faktor dar, sich stattdessen für die günstigere Atari-Konsole zu entscheiden. Hinsichtlich der insgesamt verkauften Einheiten existieren unterschiedliche Angaben, im Allgemeinen lässt sich jedoch festhalten, dass zwischen drei und fünf Millionen Konsolen abgesetzt wurden. Die Atari-Konsole hingegen wurde über einen Zeitraum von 15 Jahren hinweg gefertigt und erreichte Verkaufszahlen von über 30 Millionen Exemplaren, womit sie trotz der schwächeren Hardware letztlich als eindeutiger Sieger hervorgeht.
Apps & Mobile Entwicklung
Claude Mythos und Opus 4.7: Was leisten Anthropics neue Spitzenmodelle?
Claude Mythos ist Anthropics Spitzenmodell, das aber nicht für ausgewählte Organisationen bereitgestellt wird, weil es zu stark im Entdecken und Ausnutzen von Sicherheitslücken sein soll. Für die Allgemeinheit gibt es nun aber Claude Opus 4.7.
Bei diesem Modell sollen die Cyber-Sicherheitsfähigkeiten nicht so ausgeprägt sein wie bei Mythos. Anthropic erklärt, man habe während des Trainingsprozesses mehrere Ansätze getestet, um das Modell zu beschränken. Ebenso wurden Sicherheitsmechanismen implementiert, die etwa automatisch Anfragen blockieren sollen, die auf hohe IT-Sicherheitsrisiken hinweisen.
- Autonom Exploits entwickeln: Anthropics neues Modell ist so stark, dass es nicht veröffentlicht wird
- Autonom Sicherheitslücken ausnutzen: BSI warnt vor Konsequenzen von Modellen wie Claude Mythos
Für professionelle IT-Sicherheitsexperten bietet Anthropic ein neues Cyber Verification Program. Man wählt also einen ähnlichen Ansatz wie OpenAI, Nutzer mit legitimen Interessen sollen sich zunächst autorisieren, wenn sie die leistungsstärksten Modelle nutzen wollen.
Mit Opus 4.7 will Anthropic ermitteln, wie sich die Sicherheitsmechanismen bewähren. Von diesen Erfahrungen sollen dann später Modelle profitieren, die sich in einer ähnlichen Leistungsklasse wie Claude Mythos bewegen.
Wie schlägt sich Opus 4.7 gegenüber den Vorgängern?
Von der regulären Leistungsfähigkeit her erscheint Opus 4.7 hingegen wie ein typisches Modell-Update. Es setzt sich bei den internen Benchmarks an die Spitze und bietet zudem Fortschritte in Bereichen wie Reasoning und ist laut Anthropic in der Lage, komplexe und mehrstufige Aufgaben besser zu bewältigen.
Außerdem kann das Modell Bilder in höherer Auflösung verarbeiten. Damit macht es Fortschritte bei Aufgaben, die auf visuellen Eingaben basieren – also etwa Screenshots, Diagramme und ähnliches.
Relevant sind all diese Bereiche auch für Agenten. Wenn diese einen Computer steuern, erstellen diese Screenshots und nutzen die Inhalte dann als Grundlage für weitere Befehle. Je besser sich also die Screenshots auswerten lassen, desto leistungsfähiger ist Agent beim Steuern eines Computers.
Beim Sicherheitsprofil ist Opus 4.7 laut Anthropic vergleichbar mit dem Vorgänger. Beim Umgang mit Prompt-Injections – also manipulierten Eingaben von Angreifern – ist das Modell im Vergleich zu Opus 4.6 etwas widerstandsfähiger. Etwas schwächer ist es hingegen bei Antworten, die sensible Bereiche wie Drogen betreffen.
Ist Mythos tatsächlich der große Sprung?
Was sind aber die Fortschritte, die Claude Mythos liefert? Eine unabhängige Analyse liefert mittlerweile das AI Security Institute. Generell lautet das Fazit: Das Modell schneidet besser ab, wenn es darum geht, Sicherheitslücken zu erfassen und mehrstufige Verfahren zu bewältigen.
Erkennen lässt sich das etwa in dem Testverfahren „The Last Ones“ (TLO), das eine Attacke auf ein Unternehmensnetzwerk simuliert. Die erfolgt in 32 Schritten. Menschen benötigen schätzungsweise rund 20 Stunden für die Aufgabe.
Claude Mythos ist laut dem AI Security Institute das erste Modell, dem es gelingt, sämtliche Schritte der Attacke in einem Durchlauf zu bewältigen. Das gelingt in drei von zehn Fällen, im Schnitt kommt es 22 Schritte weit. Claude 4.6 war das nächstbeste Modell, es konnte im Durchschnitt 16 Schritte erfolgreich absolvieren.
Laborerfolge sind nicht unbedingt mit realen Aufgaben vergleichbar
Das AI Security Institute beschreibt die Fähigkeiten als bemerkenswert. Allerdings merkt man an, dass sich erfolgreiche Simulationen nicht direkt mit realen Attacken vergleichen lassen. So fehlen etwa Sicherheitsfunktionen, die in der Praxis aktiv sind. Ebenso gibt es keine Bestrafung für fehlgeschlagene Attacken. Eine Simulation lässt sich beliebig oft wiederholen, bei echten Netzwerken würden Angriffe des Modells etwa Sicherheitsalarme auslösen.
Red Hat hat sich ebenfalls die zu den Konsequenzen von Modellen Claude Mythos geäußert. Eine der Kernaussagen in dem Blog-Beitrag ist: IT-Anbieter müssen sich darauf einstellen, dass KI-Systeme nun in der Lage sind, deutlich mehr Sicherheitslücken zu entdecken. Das senkt die Hürde für das Bereitstellen von Exploits. Man warnt aber vor Panik. Die von Anthropic im Linux-Kernel entdeckten Bugs bewertet man etwa mit Einstufungen von niedrig bis moderat.
Priorisierung angesichts der Menge an Bugs entscheidend
Für Anbieter sei es laut Red Hat nun entscheidend, die Prozesse anzupassen. „Es mögen zwar Tausende von Bugs entdeckt werden, wenn aber nur eine Handvoll davon ausnutzbare Sicherheitslücken sind, sind Priorisierung und Triage entscheidend“, heißt es in der Mitteilung. Die Grundlagen von Open Source sieht man davon aber nicht in Gefahr, es würden sich aber die Standards für diejenigen erhöhen, die die jeweiligen Tools betreiben.
Apps & Mobile Entwicklung
Mouse: P.I. For Hire: 1930er-Mäuse gestalten einen anderen Shooter

Mouse: P.I. for Hire ist doppelt Retro: Das Spiel greift auf Boomer-Shooter-Gameplay, eine Noir-Geschichte und Grafik im Stil von Cartoons der 1930er-Jahre zurück, um in der (meist pixeligen) Masse hervorzustechen. Das sieht nicht nur cool aus, sondern ist es auch – und zugleich eine Absage an Einheitsbrei.
Dass Spieler in Mouse als Privatdetektiv Jack Pepper unterwegs sind, hat nur für den Rahmen eine Bedeutung: Sie ermitteln in einem zunehmend verzwickten Fall, der in die dunkleren Ecken der fiktiven Stadt Mausburg führt – die von Mäusen im Stil von Disneys Nager-Figur bewohnt wird. In der Darstellung erinnert Mouse: P.I. For Hire ein wenig an den Sidescroller Cuphead. Die Noir-Geschichte, passend unterlegt von Klängen eines Jazz- und Big-Band-Orchesters, schlägt sich auch in der Schwarz-Weiß-Darstellung nieder, hat aber auf das Gameplay keine Auswirkungen.
Die Ermittlungen selbst sind „tödlich“: Kern des Spiels ist nicht das Nachdenken, es sind Schusswechsel mit den Ratten der Verbrecherwelt. Schießeisen können aufgewertet werden und reichen von Standardware zu exotischeren Vertretern, die Nager einfach schmelzen lassen. Wie in anderen Boomer-Shootern steht ein erweitertes Bewegungsrepertoire zur Verfügung, das unter anderem einen Propellerhut zum Schweben umfasst.
Sie gut aus, macht Spaß
Das Konzept sieht zwar ungewöhnlich aus, doch es geht auch auf, das belegen 81 Punkte auf Metacritic sowie „äußerst positive“ Bewertungen auf Steam. Bei Eurogamer werden tolle Level und Bosse sowie die Präsentation zu Highlights erklärt. Auf der Negativseite verbucht der Test hauptsächlich ein unelegantes Navigationssystem und eine Vielzahl von Anspielungen, die bemüht wirken können. Im Gesamtbild fällt das jedoch kaum ins Gewicht. Das tut es allerdings bei IGN, die deshalb deutlich weniger Punkte vergeben, aber auch am untersten Ende des Wertungsspektrums liegen.
Meinung von Max Doll

Mouse: P.I. For Hire wirkt nach den ersten Leveln wie eines dieser Spiele, die das Jahr unbedingt braucht: Wie eines der glorreichen Spiele „von damals“, die mit kleinem Team und klarer Vision gearbeitet haben, sich einfach etwas getraut haben. Denn das tut das Spiel auf jeden Fall. Es funktioniert aber auch und steckt voller liebevoller Details, eingebettet in eine schicke Detektiv-Noir-Geschichte. Das gab es schon länger nicht mehr. Erfrischend! Das Shooter-Gameplay erscheint zwar nicht ganz so herausragend, aber doch zumindest gut. Damit mausert sich Mouse zu einer der Überraschungen des Jahres.
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
