Künstliche Intelligenz
Bundesnetzagentur führt neues Messkonzept für das Mobilfunk-Monitoring ein
Mit der Einführung eines neuen, einheitlichen Messverfahrens zum Monitoring der Mobilfunkversorgung in Deutschland habe die Bundesnetzagentur den Auftrag des Bundesministeriums für Digitales und Staatsmodernisierung „einen wichtigen Baustein des „Messpakets“ aus der Gigabitstrategie der Bundesregierung 2022 umgesetzt“.
Mobilfunkversorgung aus Perspektive der Nutzerinnen und Nutzer
Das neue Messkonzept hat zum Ziel, die Qualität der Mobilfunkversorgung aus Perspektive der Nutzerinnen und Nutzer zu erfassen, heißt es. Die im Verlauf der Messungen gesammelten Informationen seien wichtig, „um die Rahmenbedingungen für den Netzausbau weiter zu verbessern“, schreibt die Bundesnetzagentur in seiner Ankündigung.
Auf diese Weise erhalte man „einen genaueren Eindruck davon, wie der Ausbau der Netze in Deutschland vorankommt“, sagt Klaus Müller, Präsident der Bundesnetzagentur. Bislang wurde lediglich die Stärke des Funksignals gemessen. Zukünftig sollen auch die Datenraten und die Zuverlässigkeit der Sprachtelefonie erfasst werden können.
Das neue Konzept stehe auch Dritten offen, sodass Länder, Gemeinden und Dienstleister das Messkonzept für die Beauftragung eigener Messungen nutzen können. Die Resultate können diese mit der Bundesnetzagentur teilen und damit die „bundesweite Datenlage erweitern“. Die Bundesnetzagentur habe zu diesem Zweck Mindestanforderungen definiert, damit die Messdaten vergleichbar seien.
Kern des Messkonzepts basiert auf acht Smartphones
Laut der Bundesnetzagentur basiert das neue Messkonzept auf acht Smartphones mit einer einheitlichen Software. Auf Messfahrten durch festgelegte Gebiete werden vier der Geräte zum Testen der Qualität der Sprachtelefonie verwendet. Die weiteren vier sollen die verfügbaren Datenraten in den Netzen der vier Mobilfunknetzbetreiber – also der Deutschen Telekom, Vodafone, O2/Telefonica und 1&1 – messen. Die Steuerung und die Erfassung der Messreihen erfolgen über eine cloudbasierte Anwendung, erklärt die Bundesnetzagentur.
Dieser Ansatz klingt praxisnäher als das bisherige Textverfahren, bei dem Messungen mit Scannern durchgeführt wurden und primär die Stärke eines Funksignals vor Ort erfassten.
Das Messsystem soll zudem zu einem späteren Zeitpunkt um ein Rucksack-Setup ergänzt werden. Mit diesem werde es möglich sein, Gebiete zu prüfen, die mit Messfahrzeugen nicht erreichbar seien. Ferner wären auch Messungen in Innenräumen möglich. Ebenso seien Umsetzungen für Messungen entlang von Wasserwegen angedacht.
(afl)
Künstliche Intelligenz
Mentra entwickelt ein Open-Source-Betriebssystem für Smart Glasses
Mentra hat eine Finanzierungsrunde in Höhe von acht Millionen US-Dollar abgeschlossen. Gleichzeitig kündigte das Unternehmen das Betriebssystem MentraOS 2.0 an und für diesen Herbst ein erstes eigenes Smart-Glasses-Modell mit Namen Mentra Live. Mentra Live ist ähnlich wie die Ray-Ban Meta-Brille mit Kamera, Mikrofon und Lautsprechern ausgestattet, richtet sich jedoch primär an Unternehmen und Entwickler. Die Smart Glasses kosten Vorbesteller 250 US-Dollar, die Auslieferung beginnt im Herbst.
Das Betriebssystem MentraOS ist für den ganztägigen Einsatz, KI-Anwendungen und Cloud-native Apps optimiert. Es unterstützt unter anderem Live-Untertitelung, Übersetzung, Benachrichtigungen sowie einen KI-Assistenten. Für Anfang 2026 ist ein weiteres Smart-Glasses-Modell mit integriertem Display geplant, das diese Funktionen voll ausschöpfen soll. Bereits jetzt ist das Betriebssystem mit den Smart Glasses Even Realities G1 und Vuzix Z100 kompatibel.
Google will noch in diesem Jahr Entwicklertools für Smart Glasses bereitstellen
Mentra wurde 2024 von Cayden Pierce und Alexander Israelov in San Francisco und Shenzhen gegründet. Zu den aktuellen Investoren gehören der Android-Kogründer Rich Miner, der Youtube-Kogründer Jawed Karim und die Venture-Abteilungen von Toyota und Amazon.
Laut Forbes will das Start-up durch gebührenpflichtige Entwicklerkonten und Umsatzbeteiligungen bei App-Verkäufen Geld verdienen, also nach einem Modell, wie es auch Apple mit dem App Store und Google mit dem Play Store praktizieren. Es dürfte jedoch nicht leicht werden, Entwickler und Hardware-Partner für MentraOS zu gewinnen. Nicht zuletzt, weil Google noch in diesem Jahr Entwicklertools für Smart Glasses basierend auf Android XR veröffentlichen wird. Das Unternehmen hatte im Mai bekannt gegeben, gemeinsam mit Samsung an einer Soft- und Hardwareplattform für Smart Glasses von Drittanbietern zu arbeiten.
Meta hat bislang noch keine Entwicklerplattform für seine Smart Glasses vorgestellt, eine Ankündigung könnte jedoch im Herbst erfolgen. Ein Fragezeichen bleibt Apple: Laut einer Prognose des Analysten Ming-Chi Kuo ist mit den ersten Smart Glasses des Unternehmens nicht vor 2027 zu rechnen.
(tobe)
Künstliche Intelligenz
Android 16: Google erklärt, wie Live-Updates genutzt werden können
Die neue Live-Update-Funktion sollte mit Android 16 auf Smartphones einziehen, ist aber wie Material 3 Expressive noch immer nicht wirklich verfügbar. Es deutet sich an, dass sie erst mit dem nächsten größeren Update, das voraussichtlich im September erscheint, kommen wird. Damit Entwickler sie einfacher in ihre Apps integrieren können, hat der Konzern eine Dokumentation veröffentlicht, die ihnen bei der Implementierung helfen soll. Auch für Endanwender ist sie aufschlussreich.
Für „zeitkritische Aktivitäten“
Die Live-Updates von Android 16 werden von manchen als Googles Interpretation von Apples Live-Aktivitäten verstanden. Andere sehe in ihr eine Erweiterung einer Funktion von Android 12, mit der Telefon-Apps die Dauer eines laufenden Anrufs in der Statusleiste anzeigen konnten. Vielleicht ist auch beides irgendwie richtig, denn die Funktion soll es Apps ermöglichen, Echtzeit-Fortschrittsbenachrichtigungen von ausgewählten Apps, auf dem Sperrbildschirm oder in den Benachrichtigungen anzuzeigen.
So kann Google Maps die Live-Update-Funktion von Android 16 verwenden.
(Bild: Google)
Nutzer können damit etwa schneller erfassen, wann ein Uber-Fahrer eintrifft oder die Essenslieferung ankommt, ohne das Smartphone zu entsperren oder die App öffnen zu müssen.
Im neuen Entwickler-Beitrag wird Google etwas konkreter und erklärt, dass die Android-16-Funktion für „fortlaufende, vom Nutzer initiierte und zeitkritische Aktivitäten“ verwendet werden können. Der Konzern gibt zudem einige Beispiele, zu denen unter anderem eine aktive Navigation, Telefonanrufe, die Verfolgung von Fahrdienstbestellungen und Lebensmittellieferungen gehören.
Live-Updates: Keine Werbung, keine Chat-Nachrichten
Google weist überdies ausdrücklich darauf hin, dass Live-Updates nicht für „Werbung, Promotionen, Chat-Nachrichten, Benachrichtigungen, bevorstehende Kalenderereignisse und einen schnellen Zugriff auf App-Funktionen“ verwendet werden dürfen.
Screenshots zeigen, wie die Live-Update-Funktion für eine Essensbestellung aussehen könnte
(Bild: Google)
Ferner ergänzt das Unternehmen, dass die meisten Live-Updates Aktivitäten darstellen sollten, „die explizit vom Nutzer ausgelöst werden“. Als Beispiele nennt Google „das Einleiten einer Navigation oder das Bestellen einer Mitfahrgelegenheit“. Interessanterweise nennt Google auch das „Starten eines Trainings“, was darauf hindeutet, dass künftig Entwickler von Fitness- oder Trainings-Apps diese Funktion nutzen dürfen.
Google sagt überdies, dass „Umgebungsinformationen, wie beispielsweise Informationen über die Umgebung des Nutzers, seine Interessen oder bevorstehende Ereignisse“ nicht in Live-Updates angezeigt werden sollen. Entwickler dürfen zudem nicht zulassen, „dass Aktivitäten, die von anderen Parteien ausgelöst werden, Live-Updates erzeugen.
Google erklärt in seinem Artikel auch den „zeitkritischen Aspekt“ der Funktion: Es heißt, ein Live-Update sei „oft für Aktivitäten geeignet, die zwischen Live-Updates und normalen Benachrichtigungen übergehen“. Als Beispiel nennt der Hersteller die Anzeige einer Bordkarten-Benachrichtigung, die auch viele Stunden vor dem Flug eines Nutzers angemessen sei. Die Benachrichtigung sollte indes erst dann zu einem Live-Update werden, „wenn der Nutzer ein dringendes Bedürfnis hat, z. B. wenn er am Flughafen oder Veranstaltungsort angekommen ist oder wenn das Boarding begonnen hat“.
Für die Verfolgung von Paketlieferungen sieht Google die Funktion nicht geeignet. Denn der Nutzer müsse diese nicht ständig überwachen.
Zeitsensitive Live-Updates: Bordkarten ja, Paketlieferungen nein
Der Artikel erläutert außerdem, wie sogenannte „Status-Chips“ genutzt werden können. Die Hinweise in der Statusleiste können etwa nur ein Symbol, ein Symbol und bis zu sieben Zeichen Text oder eine bestimmte Uhrzeit enthalten.
Beispiele für Live-Update-„Chips“ in der Statusleiste
(Bild: Google)
Google spricht Entwicklern zudem die Empfehlung aus, die Live-Update-Funktion nicht zu missbrauchen. Außerdem sollte die App-Funktion so konzipiert sein, dass das Live-Update nicht wieder sofort angezeigt werden sollte, wenn ein Nutzer es wegwischt.
Die Live-Updates sind keine Funktion, die nur auf Pixel-Smartphones ein Zuhause finden. Im Zuge der Entwicklerkonferenz I/O 2025 im Mai sagte Google, dass sie mit Android 16 auf Geräte vieler Hersteller wie Samsung, Xiaomi, Oppo und Oneplus landen wird.
(afl)
Künstliche Intelligenz
171-Zoll-Display für die Nase: Xreal One Pro ab sofort erhältlich
Mit der One Pro bringt Xreal ein technisches Upgrade seiner Display-Brille nach Europa. Die neue Version bietet erstmals natives 3DoF-Tracking ohne Zusatzgerät, ein größeres Sichtfeld und ein schlankeres, leichteres Design. Wer das optionale Kameramodul Xreal Eye kauft, kann die Brille auch für Raum-Tracking (6DoF) nutzen.
Xreal Eye erkennt räumliche Tiefe
Herzstück der One Pro ist der neue X1-Chip, der erstmals internes 3DoF-Tracking ohne das optionale Zubehör „Xreal Beam“ erlaubt. Mit dem optionalen Xreal Eye-Modul kann die Brille auf 6DoF erweitert werden, wodurch sich die virtuellen Inhalte im Raum verankern lassen. Vollwertige Augmented Reality, wie sie etwa Snaps Specs oder Metas Prototyp Orion bieten wollen, sollte man aber nicht erwarten.
Die optionale Kamera Xreal Eye wird einfach zwischen die Gläser gesteckt.
(Bild: Xreal)
Stattdessen ermöglicht Xreal Eye etwa das Vor- und Zurücklehnen, ohne dass das virtuelle Bild einem folgt. Bei bisherigen Modellen war es nicht möglich, sich näher an die Leinwand zu bewegen, da diese immer im gleichen Abstand im Blickfeld des Nutzers schwebte. Das rund 1,5 Gramm leichte Kameramodul wird zwischen den Linsen eingesetzt und kostet etwa 120 Euro. Fotos und Videos zeichnet es mit bis zu 12 Megapixeln auf.
Neues Display und größere Sichtfläche
Laut Hersteller entspricht das angezeigte Bild der One Pro etwa einem 171-Zoll-Display aus sechs Metern Entfernung. Inhalte und Strom kommen über USB-C vom Smartphone, PC, Handheld oder Konsole. Allerdings sind nicht alle Geräte automatisch kompatibel: Die Nintendo Switch 2 benötigt etwa eine Adapterlösung, da sie ein eigenes USB-C-Videosignal verwendet. Die originale Switch und das Steam Deck funktionieren in der Regel problemlos.
Für die Anzeige sorgen zwei Micro-OLED-Panels von Sony mit Full-HD-Auflösung, 120 Hz und bis zu 5.000 Nits Helligkeit. Das Sichtfeld wurde im Vergleich zum Vorgänger um 7 Grad auf 57 Grad erweitert. Möglich macht das die neue „Flat-Prism-Optik“, die weniger Reflexionen und Lichtverlust verspricht.
Durch eine kompaktere Bauweise benötigen die optischen Elemente auch weniger Platz in der Brille, was zu einem schmaleren Gehäuse führt. Die Gläser lassen sich in drei Stufen abdunkeln, um sich unterschiedlichen Lichtverhältnissen anzupassen, und der Augenabstand (IPD) ist in zwei Bereichen justierbar: 57–66 mm oder 66–75 mm.
Nach einer längeren Vorbestellungsphase ist die One Pro seit dem 1. Juli 2025 offiziell für 689 Euro erhältlich. Die günstigere Xreal One ohne erweitertes Sichtfeld gibt es bereits seit Ende 2024 für 549 Euro.
(joe)
-
Online Marketing & SEOvor 3 Wochen
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 3 Wochen
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 3 Wochen
Philip Bürli › PAGE online
-
Social Mediavor 3 Wochen
Aktuelle Trends, Studien und Statistiken
-
Social Mediavor 3 Wochen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Social Mediavor 3 Wochen
“Wir haben doch nichts zu erzählen…” – 3 Tricks für neue Social Media Content Ideen
-
Online Marketing & SEOvor 3 Wochen
#WantaFanta: Warum Fanta und Nico Santos der Gen Z Wünsche erfüllen
-
UX/UI & Webdesignvor 3 Wochen
Wie gelingt eine einwandfreie Zusammenarbeit?