Künstliche Intelligenz
Android 16: Google erklärt, wie Live-Updates genutzt werden können
Die neue Live-Update-Funktion sollte mit Android 16 auf Smartphones einziehen, ist aber wie Material 3 Expressive noch immer nicht wirklich verfügbar. Es deutet sich an, dass sie erst mit dem nächsten größeren Update, das voraussichtlich im September erscheint, kommen wird. Damit Entwickler sie einfacher in ihre Apps integrieren können, hat der Konzern eine Dokumentation veröffentlicht, die ihnen bei der Implementierung helfen soll. Auch für Endanwender ist sie aufschlussreich.
Für „zeitkritische Aktivitäten“
Die Live-Updates von Android 16 werden von manchen als Googles Interpretation von Apples Live-Aktivitäten verstanden. Andere sehe in ihr eine Erweiterung einer Funktion von Android 12, mit der Telefon-Apps die Dauer eines laufenden Anrufs in der Statusleiste anzeigen konnten. Vielleicht ist auch beides irgendwie richtig, denn die Funktion soll es Apps ermöglichen, Echtzeit-Fortschrittsbenachrichtigungen von ausgewählten Apps, auf dem Sperrbildschirm oder in den Benachrichtigungen anzuzeigen.
So kann Google Maps die Live-Update-Funktion von Android 16 verwenden.
(Bild: Google)
Nutzer können damit etwa schneller erfassen, wann ein Uber-Fahrer eintrifft oder die Essenslieferung ankommt, ohne das Smartphone zu entsperren oder die App öffnen zu müssen.
Im neuen Entwickler-Beitrag wird Google etwas konkreter und erklärt, dass die Android-16-Funktion für „fortlaufende, vom Nutzer initiierte und zeitkritische Aktivitäten“ verwendet werden können. Der Konzern gibt zudem einige Beispiele, zu denen unter anderem eine aktive Navigation, Telefonanrufe, die Verfolgung von Fahrdienstbestellungen und Lebensmittellieferungen gehören.
Live-Updates: Keine Werbung, keine Chat-Nachrichten
Google weist überdies ausdrücklich darauf hin, dass Live-Updates nicht für „Werbung, Promotionen, Chat-Nachrichten, Benachrichtigungen, bevorstehende Kalenderereignisse und einen schnellen Zugriff auf App-Funktionen“ verwendet werden dürfen.
Screenshots zeigen, wie die Live-Update-Funktion für eine Essensbestellung aussehen könnte
(Bild: Google)
Ferner ergänzt das Unternehmen, dass die meisten Live-Updates Aktivitäten darstellen sollten, „die explizit vom Nutzer ausgelöst werden“. Als Beispiele nennt Google „das Einleiten einer Navigation oder das Bestellen einer Mitfahrgelegenheit“. Interessanterweise nennt Google auch das „Starten eines Trainings“, was darauf hindeutet, dass künftig Entwickler von Fitness- oder Trainings-Apps diese Funktion nutzen dürfen.
Google sagt überdies, dass „Umgebungsinformationen, wie beispielsweise Informationen über die Umgebung des Nutzers, seine Interessen oder bevorstehende Ereignisse“ nicht in Live-Updates angezeigt werden sollen. Entwickler dürfen zudem nicht zulassen, „dass Aktivitäten, die von anderen Parteien ausgelöst werden, Live-Updates erzeugen.
Google erklärt in seinem Artikel auch den „zeitkritischen Aspekt“ der Funktion: Es heißt, ein Live-Update sei „oft für Aktivitäten geeignet, die zwischen Live-Updates und normalen Benachrichtigungen übergehen“. Als Beispiel nennt der Hersteller die Anzeige einer Bordkarten-Benachrichtigung, die auch viele Stunden vor dem Flug eines Nutzers angemessen sei. Die Benachrichtigung sollte indes erst dann zu einem Live-Update werden, „wenn der Nutzer ein dringendes Bedürfnis hat, z. B. wenn er am Flughafen oder Veranstaltungsort angekommen ist oder wenn das Boarding begonnen hat“.
Für die Verfolgung von Paketlieferungen sieht Google die Funktion nicht geeignet. Denn der Nutzer müsse diese nicht ständig überwachen.
Zeitsensitive Live-Updates: Bordkarten ja, Paketlieferungen nein
Der Artikel erläutert außerdem, wie sogenannte „Status-Chips“ genutzt werden können. Die Hinweise in der Statusleiste können etwa nur ein Symbol, ein Symbol und bis zu sieben Zeichen Text oder eine bestimmte Uhrzeit enthalten.
Beispiele für Live-Update-„Chips“ in der Statusleiste
(Bild: Google)
Google spricht Entwicklern zudem die Empfehlung aus, die Live-Update-Funktion nicht zu missbrauchen. Außerdem sollte die App-Funktion so konzipiert sein, dass das Live-Update nicht wieder sofort angezeigt werden sollte, wenn ein Nutzer es wegwischt.
Die Live-Updates sind keine Funktion, die nur auf Pixel-Smartphones ein Zuhause finden. Im Zuge der Entwicklerkonferenz I/O 2025 im Mai sagte Google, dass sie mit Android 16 auf Geräte vieler Hersteller wie Samsung, Xiaomi, Oppo und Oneplus landen wird.
(afl)
Künstliche Intelligenz
Jetzt im Heise Shop: Das neue Oxocard Connect Experimentierkit
Wie regelt man einen Motor, wie misst man Gewicht oder Licht, und wie steuert man damit sein Smart Home? Das neue Make Special zur Oxocard Connect liefert auf über 60 Seiten die passenden Antworten – mit leicht verständlichen Anleitungen, praktischen Versuchen und spannenden Projekten rund um das Thema Messen, Steuern und Regeln.
Im Fokus steht das neue Oxocard Connect Experimentierkit, das die Programmierplattform Oxocard Connect (seperat im Shop erhältlich) um zahlreiche Sensoren, Aktoren und Treiber erweitert: Farb- und Lichtsensor, Wägezelle, Touch-Sensor, IR-Kommunikation, smartes Servo und motorisierter Fader sind nur einige Highlights. Alle Module sind als Breakouts ausgeführt und direkt ins Breadboard steckbar.

Blick ins Heft
Gesteuert wird alles direkt im Browser: Über eine webbasierte Programmierumgebung und die leicht zu erlernende Sprache NanoPy lassen sich Sensoren und Motoren intuitiv ansprechen – ohne Installation, plattformunabhängig und ideal für Einsteiger. Perfekt für Schule, Ausbildung, Maker-Projekte oder das eigene Labor!
Ein Highlight-Projekt aus dem neuen Kit zeigt, wie ein motorisierter Fader nicht nur Werte messen, sondern auch aktiv regeln kann: Gesteuert über die Oxocard Connect wird damit eine smarte WLAN-Lampe (z. B. Shelly) per HTTP-Request gedimmt. Das System funktioniert bidirektional – verändert man die Helligkeit per App, fährt der Fader automatisch in die passende Position. Grundlage dafür ist ein PID-Regler, der präzise die gewünschte Zielstellung ansteuert. Das Projekt kombiniert analoges Auslesen, Motorsteuerung, Netzwerkanbindung und smarte Zustandslogik.
Oxocard Connect bringt sie zusammen: Motorfader steuert Shelly-Lampe
Das Bundle aus Heft und Experimentierkit ist ab sofort für 49,90 Euro exklusiv im heise Shop erhältlich – versandkostenfrei innerhalb Deutschlands.
(pan)
Künstliche Intelligenz
Vier spiegellose Kameras von Nikon mit Firmware-Problemen
Wenn man die Firmware einer Nikon Zf, Z50 II, Z6 III oder Z8 aktualisiert, während ein Objektiv eines Fremdherstellers auf der Kamera sitzt, kann dieses funktionslos werden. Im Laufe dieser Woche kamen nach ersten Warnungen über Probleme mit der Z8 immer mehr Hinweise auf Nikons Downloadseiten zu anderen Kameras hinzu. Als bisher letzter auch für die kompakte Zf im Retro-Look. Eine Erklärung des Unternehmens oder eine Ankündigung von korrigierten Firmwareversionen gibt es weiterhin nicht.
Daher gilt bis auf Weiteres, dass man ein Update der Kameras nur vornehmen sollte, wenn ein Nikon-Objektiv montiert ist. Alternativ, so schreibt Nikon auf seinen Downloadseiten, kann auch einer der beiden FTZ-Adapter verwendet werden. Diese dienen dazu, Objektive mit dem F-Bajonett an den spiegellosen Kameras mit deren Z-Bajonett zu verwenden. Die fehlerhafte Firmware samt den Warnhinweisen findet sich unter den folgenden Links, angegeben ist jeweils die aktuelle Versionsnummer und deren Fehlerzustand, wenn sich daran etwas ändert, wird diese Meldung aktualisiert:
Alle diese Kameras sind mit Nikons Expeed-7-Prozessor bestückt, den das Unternehmen mit dem Flaggschiff Z9 eingeführt hatte. Diese Kamera ist von den aktuellen Problemen jedoch nicht betroffen. Das liegt vermutlich daran, dass für die Z9 länger keine neue Firmware erschien.
Aufgefallen sind die Probleme zuerst bei der Nikon Z8, wie unter anderem der Objektivhersteller Tamron berichtet. Für diese Kamera hatte das Unternehmen schon vor Wochen die Firmware 3.00 angekündigt, und auch eine eigene Webseite dafür gestaltet. Wie schon bei früheren Updates für die Z8 bringt auch Version 3.00 neue Funktionen mit, in diesem Fall unter anderem die Kombination von Pixel- und Fokus-Shift für 180-Megapixel-Bilder mit erweiterter Schärfentiefe. Ebenso lässt sich der Bereich des Autofokus begrenzen, was vor allem beim Filmen hilft. Wenn man eine Z8 auf die neue Version aktualisieren will, sollte man die Hinweise zum Update unbedingt beherzigen.
Manche Benutzer berichten in Foren auch, dass ein „eingefrorenes“ Fremdobjektiv an einer Z8 nach einem Downgrade von Firmware 3.00 auf Version 2.10 wieder funktionierte. Auf solche Tipps sollte man sich aber nicht verlassen, weil sie immer nur für eine Kombination aus Kamera und Objektiv gelten.
(nie)
Künstliche Intelligenz
iOS 26: Apples Speech-APIs lassen Whisper in puncto Geschwindigkeit alt aussehen
Apple legt in seinen kommenden Betriebssystem-Versionen bei der Transkription von Live-Audio oder Aufnahmen deutlich zu. In verschiedenen Tests wurde die Leistung jetzt mit gängigen anderen Spracherkennungs-Modellen verglichen. Die Ergebnisse sind allerdings gemischt: Apples neue API, die in iOS 26, iPadOS 26 und macOS 26 Tahoe bereitgestellt wird, steht bei der Geschwindigkeit deutlich besser da als zum Beispiel das verbreitete Whisper-Modell von OpenAI. Allerdings gibt es bei der Genauigkeit noch Luft nach oben.
Das Apple-Nachrichten-Blog MacStories erprobte das verbesserte Speech-Framework mit einer 34-minütigen Videodatei. Zur Transkription wurde für den Test von Apples APIs ein Tool namens Yap verwendet, das auf GitHub abgerufen werden kann. Es erledigte die Aufgabe in nur 45 Sekunden, während das recht beliebte Tool MacWhisper mit seinen Large-Modellen zwischen 1:41 Minuten und 3:55 Minuten benötigte.
Wie sich die Modelle im Vergleich schlagen
Die Nachrichtenseite 9to5Mac ließ Apples API gegen NVIDIA Parakeet antreten, das als sehr schnell gilt, und gegen OpenAI Whisper Large V3 Turbo. Testrechner war ein MacBook Pro mit M2 Pro und 16 GByte Unified Memory. Während Parakeet das 7:31 Minuten lange Audio-File in 2 Sekunden schaffte, benötigte Apples Transkription 9 Sekunden. Das OpenAI-Modell war erst nach 40 Sekunden fertig. Je länger die Audiodatei war, desto weiter lagen die Modelle zeitlich auseinander.
Doch Whispers Langsamkeit zahlte sich wiederum bei der Genauigkeit aus. Dabei wurde zwischen dem Anteil an Zeichenfehlern (Character Error Rate, CER) und Wortfehlern (Word Error Rate, WER) unterschieden. Durchschnittlich erwies sich Whisper Large V3 Turbo mit einer CER von 0,3 Prozent und einer WER von 1 Prozent als die genaueste Lösung. Apple hatte bei den Zeichen eine Fehlerrate von durchschnittlich 3 Prozent und bei Wörtern von 8 Prozent. Parakeet liegt deutlich zurück mit einer CER von 7 Prozent und einer WER von 12 Prozent.
Wofür sich Apples API empfiehlt
Damit verspricht Apples Transkription im Ergebnis einen deutlichen Geschwindigkeitsvorteil gegenüber Whisper und macht dabei nicht so viele Fehler wie das NVIDIA-Modell. Die Tester kommen zu dem Ergebnis, dass die Wahl des Modells damit vor allem eine Frage des Anwendungszwecks ist. Apples Modell empfiehlt sich für zeitkritische Anwendungen wie Live-Untertitel oder die grobe Transkription längerer Inhalte zur Indexierung. Whisper hat die Nase vorn, wenn nur minimale Nachbearbeitung gewünscht ist oder bei Anwendungen, wo es auf die Genauigkeit ankommt.
(mki)
-
Online Marketing & SEOvor 3 Wochen
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 3 Wochen
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 3 Wochen
Philip Bürli › PAGE online
-
Social Mediavor 3 Wochen
Aktuelle Trends, Studien und Statistiken
-
Social Mediavor 3 Wochen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Online Marketing & SEOvor 3 Wochen
#WantaFanta: Warum Fanta und Nico Santos der Gen Z Wünsche erfüllen
-
Social Mediavor 3 Wochen
“Wir haben doch nichts zu erzählen…” – 3 Tricks für neue Social Media Content Ideen
-
Online Marketing & SEOvor 3 Wochen
Influencer Marketing: Warum Influencer Vertrauen verlieren und klassische Medien gewinnen