Connect with us

Apps & Mobile Entwicklung

Android XR ausprobiert: Das ist Googles Rückkehr in den Markt der Smart Glasses


Google will dieses Jahres erste Smart Glasses mit Audio-Ausgabe auf den Markt bringen. Später sind auch Varianten mit Display im Brillenglas geplant. Einen dieser Prototypen konnte ComputerBase zum MWC 2026 kurz ausprobieren. Gemini reagierte schnell, übersetzte Spanisch und Farsi und verwandelte den Stand in eine Raumstation.

Google Gemini nimmt zentrale Rolle ein

Entsprechende Pläne hatte Google erstmals zur eigenen Entwicklerkonferenz im Mai letzten Jahres bekannt gegeben. Rund zwölf Jahre nach der Google Glass will das Unternehmen gemeinsam mit Partnern und diesmal auf Android XR basierend wieder in den Markt der Smart Glasses mit Augmented Reality einsteigen. Eine wichtige Rolle wird dabei auch Google Gemini spielen. Der AI-Assistent soll neben Smartphones, Tablets, Smartwatches, Autos und Fernsehern auch auf Android XR zum Einsatz kommen.

Zwei Brillenpartner, auch mit Korrekturgläsern

Anders als bei den Pixel-Smartphones sind nach aktuellem Stand keine Smart Glasses direkt von Google geplant. Das Unternehmen setzt aktuell auf zwei Partner, die Googles Technologie integrieren und für die eigentlichen Brillen verantwortlich sein werden. Bei den Brillenherstellern holt Google das südkoreanische Unternehmen Gentle Monster und Warby Parker aus den USA ins Boot. Beide Unternehmen sollen „stylische“ Brillen mit Android XR anbieten. Möglich sein werden dabei auch Brillen mit optischer Korrektur. Zur Messe hat Google auf entsprechende Einsätze für den Prototyp gesetzt. Mit Samsung wiederum arbeitet Google an einer Referenzplattform, um mit anderen Unternehmen ein Ökosystem neuer Smart Glasses aufzubauen. Entwickler haben seit Ende 2025 Zugang zu dieser Plattform.

Android XR Prototyp von Google
Android XR Prototyp von Google
Einsätze für Korrektur
Einsätze für Korrektur
Einsätze für Korrektur
Einsätze für Korrektur
Einsätze für Korrektur
Einsätze für Korrektur

Zum MWC in Barcelona konnte ComputerBase kurz einen Prototyp von Google ausprobieren, der auch bereits mit einem Display im rechten Brillenglas ausgestattet war. Ein zusätzliche visuelle Informationen darstellendes Display ist optional für Android XR. Zur ersten Markteinführung noch im Laufe dieses Jahres sind zunächst einmal Modelle ausschließlich mit Audio-Ausgabe geplant. Die ersten Smart Glasses sollen mit einer Kamera, mehreren Mikrofonen und Lautsprechern ausgestattet sein. Hardware-Partner bei den Chipsätzen ist Qualcomm. Google hatte bereits zur I/O letztes Jahr preisgegeben, dass die neuen Brillen ein Smartphone voraussetzen werden, demnach zumindest nicht in jedem Punkt vollständig eigenständig agieren. Das erlaube Nutzern den Zugriff auf Apps, ohne in die Tasche greifen zu müssen. Bedacht werden muss auch das stark limitierte Power-Budget (in Watt) von Smart Glasses. Qualcomm gibt für Augmented-Reality-Brillen ein Budget von ungefähr 1 Watt an.

Live-Übersetzung, Musik abspielen, Bildgenerierung

Mit der von Google für die Demo zur Verfügung gestellten Brille ließ sich via Sprache und einer Schaltfläche im rechten Brillenbügel interagieren. Wie auf Smartphones lässt sich Gemini mittels „Hey Google“ starten, alternativ kann eine Schaltfläche im rechten Brillenbügel für zwei Sekunden gehalten werden, um den Assistenten zu aktivieren, der daraufhin zuhört. Im Anschluss erscheint eine kleine Gemini-Sprechblase im Display des rechten Brillenglas, über die sowohl die akustischen Eingaben des Nutzers als auch die Ausgaben dargestellt. Zusätzlich erfolgt die Audio-Ausgabe über die Lautsprecher im Gestell, wobei diese primär für den Träger zu hören ist. Außenstehende konnten die Ausgabe in deutlich minimierter Lautstärke wahrnehmen, wie weitere Journalisten vor Ort bestätigten.

Android XR Prototyp von Google
Android XR Prototyp von Google
Display im rechten Glas
Display im rechten Glas
Android XR Prototyp von Google
Android XR Prototyp von Google

Anwendungsbeispiele vor Ort waren die Live-Übersetzung mit Google Translate, die Bilderkennung mit anschließender Musikwiedergabe sowie die Bildgenerierung via Nano Banana. Ein Branchenkollege konnte zudem die Navigation mit Google Maps ausprobieren, diese Anwendung war aber nicht Teil der Demo für ComputerBase.

Die Live-Übersetzung ist entweder mittels Text- oder Audio-Ausgabe möglich. Für die Demo sprach der Google-Mitarbeiter einmal in Spanisch und einmal in Farsi mit dem Träger, beides konnte die Brille mit kleiner Verzögerung annähernd in Echtzeit übersetzen. Dabei erfolgte die Audio-Ausgabe in natürlicher Sprache in Englisch, die Zeiten starrer Roboterstimmen sind definitiv vorbei. Was derzeit nicht möglich ist, ist die Audio-Ausgabe auch für die andere Person, wenn dann zum Beispiel auf Englisch geantwortet wird, die andere Person aber überhaupt kein Englisch beherrscht. Die Ausgabe erfolgt in diesem Fall in Textform über die App auf dem Smartphone.

Die Brille kann über die integrierte Kamera zudem Objekte erkennen und Aktionen mit Bezug dazu ausführen. Am Stand ließ sich ein Schallplattencover fotografieren und anschließend die zugehörigen Musik in YouTube Music abspielen. Sobald die Kamera in der Front aktiv ist, zeigt die Brille dies auch mittels LED an. Ob Google damit das „Glasshole“-Problem und das Stigma omnipräsenter Sensoren wie unter anderem Kameras gelöst hat, ist schwer zu sagen. Die Bereitschaft dafür in der Gesellschaft scheint aktuell mehr gegebenen zu sein als vor mehr als einer Dekade mit Google Glass.

Erkennen eines Albums
Erkennen eines Albums

Anfragen gehen häufig in die Cloud

Darüber hinaus stehen auch vom Smartphone bekannte Funktionen wie die Bildgenerierung mittels Künstlicher Intelligenz zur Auswahl. Nano Banana verwandelte den Stand auf individuelle Nachfrage zum Beispiel in eine Raumstation. Dabei handelte es sich um eine eigens gewählte Anfrage und nicht nur um eine von Google „vorprogrammierte“ Funktion, die das Feature lediglich emuliert. Nano Banana wird dabei in der Cloud und nicht auf dem verbundenen Smartphone ausgeführt. Ob für solche und ähnliche Funktionen in Zukunft ein kostenpflichtiges Google-AI-Pro-Abonnement vorausgesetzt wird, konnte Google vor Ort nicht beantworten. Das wird sich zur nächsten I/O respektive später im Jahr zeigen müssen.



Source link

Apps & Mobile Entwicklung

Cybersicherheit: Claude Mythos behebt 271 Schwachstellen in Firefox


Anfang des Monats stellte Anthropic mit Claude Mythos ein KI-System vor, das durch seine Fähigkeiten beim Auffinden und Ausnutzen von Sicherheitslücken gleichermaßen Interesse wie Bedenken auslöste. Mozilla hat nun in einem Blog-Eintrag erläutert, welche Rolle das Werkzeug bereits jetzt bei der Absicherung von Firefox spielt.

Erster Erfolg schnell erkennbar

Bereits bei ersten Analysen mit Opus 4.6 Anfang Februar konnte das KI-Modell zur Behebung von 22 sicherheitskritischen Schwachstellen in Firefox 148 beitragen. Im Rahmen der Zusammenarbeit mit Anthropic erhielten die Entwickler zudem Zugriff auf eine frühe Vorschauversion von Claude Mythos, mit der sie eine spätere Firefox-Iteration detailliert untersuchten, die schließlich als Version 150 veröffentlicht wurde. Dabei identifizierten und beseitigten Mozilla und Anthropic gemeinsam insgesamt 271 Schwachstellen, die allein während der ersten Auswertung entdeckt wurden.

Möglichkeiten werden erweitert

Diese Ergebnisse nähren die Erwartung, mit der rasanten Entwicklung auf Angreiferseite Schritt halten zu können, die ebenfalls zunehmend auf automatisierte Werkzeuge beim Auffinden von Schwachstellen setzen. Bisher lag der Konsens daher eher in der Feststellung, dass es ein unrealistisches Ziel wäre, Exploits vollständig eliminieren zu können. Gleichzeitig weist Mozilla darauf hin, dass die Angriffsfläche moderner Software so groß ist, dass sie mit herkömmlichen Mitteln nur schwer umfassend abgesichert werden kann. Die bisherigen Möglichkeiten waren zudem stark durch verfügbare personelle Ressourcen begrenzt.

Keine Wunderwaffe gegen Cyber-Kriminalität

Gleichzeitig betont Mozilla, dass auch Claude Mythos kein Wunderwerk ist und ebenso keine unendlichen Möglichkeiten besitzt – womit bei den Überprüfungen schnell die Realität wieder gegriffen hat. Bei diesen habe sich schnell gezeigt, dass das Modell keine Schwachstellen aufdecken konnte, die nicht auch von menschlichen Experten mit ausreichend Zeit und Ressourcen gefunden worden wären. Der entscheidende Unterschied liege demnach vor allem im Tempo und in der Skalierbarkeit der Kontrolle. Mozilla widerspricht damit der Einschätzung einiger Experten, wonach künftige KI-Systeme völlig neue Arten von Sicherheitslücken identifizieren könnten, die über das aktuelle Verständnis von Entwicklern hinausgehen.

  • Claude Mythos und Opus 4.7: Was leisten Anthropics neue Spitzenmodelle?

Das passt zu Analysen wie der von Red Hat. Der Anbieter der Linux-Distribution bewertet ebenfalls vor allem die Menge an Sicherheitslücken und -berichten als herausfordernd. Für IT-Anbieter wäre es künftig daher bedeutend, Ressourcen so zu priorisieren, dass bei Tausenden Meldungen zuerst die kritischen und gefährlichen Schwachstellen behoben werden.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Anker Thus: Erster eigener AI-Chip wird in Deutschland produziert


Anker Thus: Erster eigener AI-Chip wird in Deutschland produziert

Bild: Anker

Mit Thus enthüllt Anker heute seinen ersten eigenen AI-Chip, der in Dresden, Deutschland, hergestellt wird. Der auf NOR-Flash basierende KI-Chip soll neuronale Netze in Endgeräte von Anker bringen, wobei zunächst der Audio-Bereich für ANC und ENC den Chip erhalten wird.

Eigenentwicklung wird in Dresden produziert

Perspektivisch gesehen plant das Unternehmen eine Erweiterung in viele mobile Accessories und IoT-Produkte. Laut Anker handelt es sich bei dem AI-Chip um eine Eigenentwicklung, also keine Lizenzierung von Technologie anderer Unternehmen. Anker habe die AI-Plattform entwickelt, die nun von einem Partner in Deutschland produziert werde.

Edge AI statt LLM

Nach Angaben von Anker verfügt der Chip über eine Rechenleistung von 5 GOPS, kann also fünf Milliarden Rechenoperationen pro Sekunde durchführen. Von schnellen AI-Beschleunigern, die mehrere Hundert oder gar tausend TOPS, also Billionen Rechenoperationen pro Sekunde ausführen können, ist das Unternehmen zwar weit entfernt, der Thus-AI-Chip von Anker ist allerdings auch klar auf sehr spezielles Edge-AI ausgelegt. Es kommt insbesondere kein vollwertiges LLM wie Gemini oder ChatGPT zum Einsatz, sondern ein auf die Anforderungen und Bedürfnisse von Anker zugeschnittenes Modell. In Zukunft seien auch Chips mit unterschiedlichen Leistungsstufen denkbar, um sie in verschiedenen Produkten mit unterschiedlicher Leistung und Stromversorgung einzusetzen, so Anker gegenüber ComputerBase.

Einsatz in vielen Anker-Produkten geplant

Während Anker heute die AI-Plattform vorstellt, will das Unternehmen in den kommenden Monaten zeigen, wie diese in Produkte für den Endkunden integriert werden kann und welche Vorteile sie dort bietet. Denn Thus ist nicht als Einzelprodukt gedacht, sondern als Plattform für die kommenden Jahre. Ziel ist es, die lokale KI schrittweise in die gesamte
Produktpalette von Anker hinweg zu bringen, so das Unternehmen. Den Anfang sollen Ankündigungen am 21. Mai in New York zum Anker-Day-Event des Unternehmens machen.

Compute-in-Memory mit NOR Flash

Anker möchte mit Thus zudem ein generelles Problem von AI-Chips gelöst haben, indem das Language Model direkt auf einem NOR-Flash betrieben wird. Inference ist generell durch Speicher begrenzt, das Hin und Her zwischen Prozessor und Speicher verschlingt zudem viel Energie. Durch den ausschließlichen Einsatz von NOR-Flash soll genau dieses Problem des großen Energieverbrauchs und des Hin und Hers gelöst werden – Speicherung und
Verarbeitung von Informationen finden an einem Ort statt. Und in der Edge-AI-Anwendung von Anker könnte dies durchaus funktionieren. Gleichzeitig benötigt NOR-Flash-basiertes Compute-in-Memory nur etwa ein Sechstel der physischen Fläche von SRAM-basierten Alternativen, eignet sich daher besonders gut für kompakte Produkte wie Ankers geplante Earbuds.

Anker Thus AI-Chip
Anker Thus AI-Chip (Bild: Anker)

Erstes Produkt mit Thus: Kabellose Earbuds

Anker plant den AI-Chip zunächst in kabellosen Earbuds einzusetzen, was zugleich die schwierigste Aufgabe sei, da in diesem Bereich ein niedriger Energieverbrauch kritisch sei und nur wenig Platz für zusätzliche Chips bereitstehe. Zudem werde der Chip hier für ANC und ENC (Environmental Noise Cancellation) fortwährend genutzt. Etwa im Bereich der Filterung von Hintergrundgeräuschen und der Stimme des Trägers bei Telefonaten sei das neuronale Netz deutlich leistungsfähiger als bisherige Lösungen. Anker spricht von bis zu 150 Mal mehr Rechenleistung. Ein Local Learning, bei dem der AI-Chip etwa die Stimme des Trägers erlernt, finde aber nicht statt, da hierfür wiederum Daten gespeichert werden müssten.

ComputerBase hat Informationen zu diesem Artikel von Anker unter NDA erhalten. Die einzige Vorgabe war der frühestmögliche Veröffentlichungszeitpunkt.



Source link

Weiterlesen

Apps & Mobile Entwicklung

tado°: Steuerung mehrerer Haushalte mit einem Konto kommt


tado°: Steuerung mehrerer Haushalte mit einem Konto kommt

Bild: tado°

tado° ermöglicht mit einem Update die Steuerung mehrerer Haushalte oder Büros mit einem Konto. Damit können auch V3+-Produkte und tado X unter einem Konto verwaltet werden. Die Funktion wird ab Sommer 2026 für alle Nutzer von tado° verfügbar sein.

Ab Sommer sollen Nutzer auf diese Weise smarte Thermostate in bis zu fünf Haushalten über ein einziges Konto steuern können. Für das eigene Zuhause, das Büro oder die Ferienwohnung sind so keine getrennten Accounts mehr erforderlich, was die Steuerung deutlich vereinfacht. Zusätzliche Kosten entstehen hierfür nicht.

Durch die gemeinsame Verwaltung mehrerer Haushalte ist nun auch eine abgestimmte automatische Steuerung etwa durch Geofencing möglich. Verlässt man das Zuhause und macht sich auf den Weg zur Ferienwohnung, kann nun zuhause automatisch die Heizung ausgeschaltet und in der Ferienwohnung automatisch vor Ankunft eingeschaltet werden, ohne dass man hierfür manuell eingreifen und zwischen den Accounts wechseln muss.

Verschiedene Generationen möglich

Dabei ist auch ein Mischbetrieb verschiedener tado°-Generationen möglich. Während in einem Haushalt tado X läuft, kann in einem anderen Haushalt weiterhin die ältere V3+-Generation genutzt werden. Erstmals können Nutzer somit unterschiedliche tado°-Produktlinien mit demselben Konto verwalten.

Im Test der smarten Heizungs­steuerung tado° X war von ComputerBase bereits bemängelt worden, dass keine Möglichkeit besteht, zwei Haushalte in einer App zu betreiben, ohne dies über zwei Accounts umzusetzen, zwischen denen dann immer wieder durch Aus- und Einloggen gewechselt werden muss.

AI Assist & Auto Assist: Ein Abo für alle Haushalte

Erfreulich für Nutzer ist dabei auch, dass ein bestehendes Abonnement für AI Assist (tado° X) oder Auto-Assist (für V3+ und ältere Generationen) in allen verwalteten Haushalten genutzt werden kann. Das Abonnement bietet Funktionen wie die automatische ortsabhängige Steuerung (Geofencing), Fenster-Offen-Erkennung, adaptives Heizen und mehr.

Die Steuerung mehrerer Wohnungen oder Häuser wird für alle tado°-Nutzer verfügbar sein. AI-Assist- und Auto-Assist-Abonnenten können gleichzeitig in all ihren Haushalten angemeldet sein und den „Ein-Klick“-Wechsel in der tado°-App nutzen, während Nicht-Abonnenten sich ab- und wieder anmelden, um zwischen den Wohneinheiten zu wechseln.

ComputerBase hat Informationen zu diesem Artikel von tado° unter NDA erhalten. Die einzige Vorgabe war der frühestmögliche Veröffentlichungs­zeitpunkt.



Source link

Weiterlesen

Beliebt