Connect with us

Künstliche Intelligenz

Günstige Überwachungskamera im Test: Ezviz CB8 Pro mit 4K, PTZ und Solarpanel


Die Ezviz CB8 Pro bietet 4K, PTZ und Akkubetrieb mit Solarpanel. Im Test stark bei Set-up und Laufzeit, aber limitiert bei Bildrate und WLAN-Reichweite.

Die Ezviz CB8 Pro ist eine batteriebetriebene Außenkamera mit 4K-Auflösung und motorisierter Schwenk- und Neigefunktion (PTZ). Mit 3840 × 2160 Pixeln liefert sie mehr als viermal so viele Bildpunkte wie eine Full-HD-Kamera (1920 × 1080 Pixel) – und damit eine deutlich höhere Detailgenauigkeit. Für die Bildaufnahme kommt ein 1/2,8-Zoll-CMOS-Sensor mit einer lichtstarken Blende von F1,2 zum Einsatz, der auch bei schwierigen Lichtverhältnissen eine gute Lichtausbeute verspricht. Die Nachtsicht arbeitet mit einem IR-Sperrfilter und integrierten Infrarot-LEDs, die bis zu 15 Meter weit reichen. Farbige Nachtaufnahmen sind dank einer zusätzlichen LED-Beleuchtung ebenfalls möglich. Wie sich die Kamera in der Praxis schlägt, zeigt dieser Testbericht.

Ausstattung: Ezviz CB8 Pro

Die Ezviz CB8 Pro verfügt über ein bewegliches Objektivgehäuse, das einen Schwenkbereich von 340 Grad und einen Neigebereich von 75 Grad sowie eine automatische Bewegungsverfolgung bietet. Die Stromversorgung erfolgt über einen eingebauten Akku mit 10.400 mAh. Dank der Schutzart IP65 ist die Kamera gegen Staub und Spritzwasser geschützt und für den Einsatz im Freien vorgesehen; der Betriebstemperaturbereich liegt zwischen –20 und 50 Grad Celsius.

Zur Reduzierung von Fehlalarmen setzt die Kamera auf eine KI-gestützte Erkennung, die zwischen Personen und Fahrzeugen unterscheidet. Über das integrierte Mikrofon und den Lautsprecher ist eine Zwei-Wege-Kommunikation möglich. Aufnahmen lassen sich wahlweise auf einer microSD-Karte (max. 512 GB) lokal speichern oder in der Ezviz-Cloud sichern – für letztere ist ein Abonnement erforderlich.

Ezviz CB8 Pro: Lieferumfang

Für die Netzwerkanbindung unterstützt die Kamera Wi-Fi 6 (802.11ax) im 2,4-GHz-Frequenzband. Zur Videokomprimierung kommt der effiziente H.265-Codec zum Einsatz, der im Vergleich zu H.264 geringere Datenmengen bei vergleichbarer Bildqualität ermöglicht. Im Lieferumfang enthalten sind die Kamera, eine Bohrschablone, Schrauben und Dübel zur Befestigung sowie ein USB-Ladekabel; ein USB-Netzteil wird nicht mitgeliefert.

Inbetriebnahme

Die Einrichtung erfolgt über die Ezviz-App, die auch für Tablets optimiert ist. Ein Einrichtungsassistent führt Schritt für Schritt durch das Set-up – nach wenigen Minuten ist die Kamera einsatzbereit.

AOV-Technologie: Lückenlose Überwachung bei geringem Stromverbrauch

Die CB8 Pro unterstützt die sogenannte AOV-Technologie (Always-On-Video), die bei batteriebetriebenen Kameras eine erweiterte Überwachung ermöglicht. Anders als herkömmliche Akkukameras, die ausschließlich bei erkannter Bewegung aufzeichnen, wechselt die CB8 Pro im AOV-Modus zwischen zwei Aufnahmemodi: In ruhigen Phasen erstellt sie in einstellbaren Intervallen Zeitrafferaufnahmen, die den zeitlichen Verlauf des überwachten Bereichs dokumentieren. Sobald eine Bewegung erkannt wird, schaltet sie in den Normalmodus und zeichnet ein Erkennungsvideo in Echtzeit auf.

Ezviz CB8 Pro: Die mitgelieferte Halterung erlaubt eine Montage an der Wand oder an der Decke.

Dieses Konzept bietet mehrere Vorteile: Die Erkennungsreichweite vergrößert sich gegenüber der rein PIR-basierten Bewegungserfassung etwa um den Faktor drei. Der Speicherbedarf fällt deutlich geringer aus als bei einer kontinuierlichen Daueraufzeichnung, da Zeitraffervideos weniger Datenvolumen erzeugen. Mit einer 64-GB-microSD-Karte lassen sich im AOV-Modus Aufnahmen für rund 280 Tage speichern – eine kontinuierliche 4K-Aufzeichnung würde dieselbe Karte bereits nach etwa 2,4 Tagen füllen.

Auch die Akkulaufzeit profitiert spürbar. Während eine Daueraufzeichnung den Akku innerhalb weniger Tage entladen würde, ermöglicht der AOV-Modus einen deutlich längeren Betrieb. Der Hersteller nennt mehrere Wochen – im Test hielt der Akku mit aktiviertem AOV-Modus rund 10 Tage. Im Vergleich zur Daueraufzeichnung ist das ein guter Wert.

Schwenk-, Neige- und Verfolgungsfunktion im Praxistest

Der motorisierte Kamerakopf deckt 340 Grad im Schwenk- und 75 Grad im Neigebereich ab. Im Test funktionierte die automatische Personenverfolgung einwandfrei: Erkannte Personen wurden zuverlässig zentral im Bildausschnitt gehalten und blieben gut identifizierbar.

Bei schnellen Bewegungen zeigte sich jedoch eine Einschränkung: Die maximale Bildrate von 15 Bildern pro Sekunde führt dazu, dass Details verloren gehen. Kameras mit höheren Bildraten – etwa 25 fps oder mehr – liefern in solchen Situationen schärfere Ergebnisse.

Personen- und Fahrzeugerkennung

Die KI-basierte Erkennung unterscheidet zuverlässig zwischen Personen und Fahrzeugen. Der Erfassungsbereich lässt sich in der App auf bestimmte Zonen eingrenzen – etwa auf einen Eingangsbereich. Im Test traten keine Fehlalarme auf, und Push-Benachrichtigungen wurden innerhalb weniger Sekunden zugestellt.

Für Home Assistant gibt es eine cloudbasierte Integration.

Gegensprechfunktion und Smart-Home-Integration

Über Mikrofon und Lautsprecher bietet die CB8 Pro eine Gegensprechfunktion, die im Test zuverlässig arbeitet. Die Sprachverständlichkeit ist allerdings – wie bei den meisten Kameralautsprechern – begrenzt.

Die Integration in Sprachassistenten wie Alexa oder Google Assistant ist möglich, erfordert jedoch das Deaktivieren der Verschlüsselung und Zwei-Faktor-Authentifizierung in der App. Dasselbe gilt für die Streamausgabe auf smarte Displays wie den Amazon Echo Show.

Weitere Funktionen im Überblick:

  • Geofencing – automatisches Aktivieren oder Deaktivieren beim Verlassen oder Betreten eines definierten Bereichs
  • Bild-in-Bild-Modus für die gleichzeitige Darstellung mehrerer Bereiche
  • Push-Benachrichtigungen bei Alarm oder Verbindungsabbruch
  • Nutzerfreigabe – die Kamera lässt sich über die App mit weiteren Personen teilen

Wegen der fehlenden Onvif-Unterstützung ist die CB8 Pro leider inkompatibel mit Dritthersteller-Lösungen wie Synology Surveillance Station. Immerhin gibt es eine cloudbasierte Integration für Home Assistant, die allerdings nicht funktioniert, wenn sich die Kamera im AOV-Modus befindet.

Speicher und Netzwerk

Aufnahmen lassen sich lokal auf einer microSD-Karte mit bis zu 512 GB speichern. Alternativ steht ein kostenpflichtiger Cloud-Speicher zur Verfügung, der mit einem siebentägigen Testzeitraum startet.

Die Kamera unterstützt Wi-Fi 6, verfügt jedoch über keine externen Antennen. Bei großer Entfernung zum Router kann die Signalstärke spürbar abnehmen, was zu Verzögerungen beim Livestream führt. Bei guter WLAN-Abdeckung wird der Livestream hingegen flüssig und ohne merkliche Latenz angezeigt.

Die Aufnahmen bei Tag können sich im wahrsten Sinne des Wortes sehen lassen. Hoher Dynamikumfang und sehr detailreich.

Bildqualität und Nachtsicht

Die 4K-Auflösung sorgt für detailreiche Aufnahmen. Bei Tageslicht entstehen gut aufgelöste Bilder mit natürlichen Farben. Die maximale Bildrate liegt bei 15 fps – ein Kompromiss zugunsten der Akkulaufzeit, der bei schnellen Bewegungen jedoch sichtbar wird.

Für die Nacht stehen zwei Modi zur Verfügung: Ein integriertes Spotlight ermöglicht farbige Nachtaufnahmen, alternativ steht die klassische Infrarotbeleuchtung bereit. Die Schwarz-Weiß-Aufnahmen per IR fallen erwartungsgemäß weniger detailreich aus als die Farbbilder mit LED-Licht.

Die Aufnahmen bei Tag können sich im wahrsten Sinne des Wortes sehen lassen. Hoher Dynamikumfang und sehr detailreich. Bei Schwarzweiß-Aufnahmen mithilfe von IR gehen wie üblich Details verloren.

Zusätzlich verfügt die Kamera über Stroboskop-Lichter und eine Sirene, die sich über die App manuell auslösen lassen. Auch eine individuell aufnehmbare Sprachmeldung ist konfigurierbar. Die Helligkeit der LEDs lässt sich in der App stufenweise anpassen.

Preis

Die Ezviz CB8 Pro kostet regulär ohne Solarpanel 160 Euro. Aktuell ist sie bei Amazon für 110 Euro im Angebot. Mit Solarpanel liegt die UVP bei 190 Euro. Derzeit gibt es das Set für 120 Euro. In den vergangenen Wochen pendelte der Preis zwischen 170 und 120 Euro.

Fazit: Viel Kamera für wenig Geld

Die Ezviz CB8 Pro überzeugt durch eine unkomplizierte Installation, einen vielseitigen Funktionsumfang und die Möglichkeit des kabellosen Betriebs mit optionaler Solarunterstützung. Die Bewegungsverfolgung arbeitet im Alltag zuverlässig, stößt bei sehr schnellen Bewegungen jedoch an die Grenzen der niedrigen Bildrate. Die Bildqualität ist insgesamt gut und liefert bei ausreichend Licht viele Details.

Einschränkend ist zu erwähnen, dass die Kamera kein Onvif unterstützt und sich daher nicht in Dritthersteller-Lösungen wie die Synology Surveillance Station einbinden lässt. Für Home Assistant existiert immerhin eine cloudbasierte Integration. Für eine stabile WLAN-Verbindung empfiehlt sich eine ausreichende Nähe zum Router oder der Einsatz eines WLAN-Repeaters.

Mit einem aktuellen Straßenpreis von rund 120 Euro gehört die Ezviz CB8 Pro zu den günstigsten batteriebetriebenen 4K-Überwachungskameras mit PTZ-Funktion auf dem Markt.



Source link

Künstliche Intelligenz

Google stellt Gemini Intelligence für Android vor


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mit Gemini Intelligence verpasst Google Android neue KI-Funktionen, mit denen das mobile Betriebssystem ein „intelligentes System“ werden soll. Die Neuerungen basieren auf den ersten agentischen Fähigkeiten, die Google für die Galaxy-S26- und Pixel-10-Reihen für den US-Markt angekündigt hatte. Diese habe Google verfeinert und um neue Features erweitert.

Weiterlesen nach der Anzeige

Laut Google soll Gemini Intelligence im Laufe des Sommers schrittweise eingeführt werden, „beginnend mit den neuesten Samsung Galaxy- und Google Pixel-Smartphones“. Im Laufe dieses Jahres sollen die neuen Funktionen auf allen Android-Geräten verfügbar sein, auch auf Smartwatches, in Autos, smarten Brillen und Laptops. Google bestätigte gegenüber heise online, dass die KI-Funktionen auch in Deutschland bereitgestellt werden sollen – ein Datum nannte das Unternehmen jedoch nicht.

Im Vorfeld wurde nach einem ersten Teaser gemutmaßt, dass Google sich hinsichtlich der Designsprache an Apples Liquid Glass orientieren könnte. Dies schmetterte Android-Ökosystem-Chef Sameer Samat rasch ab. Allerdings zieht mit Gemini Intelligence eine überarbeitete Designsprache ein, die auf Material 3 Expressive aufbaut, die Google mit Android 16 eingeführt hatte.

Erste Screenshots und Animationen legen zwar nahe, dass Google ein wenig mehr Transparenz und gläserne Akzente zu setzen scheint. Google beschreibt das neue visuelle System als ansprechend und funktional, während gezielte Animationen eingesetzt werden, um Ablenkungen zu reduzieren, sodass Nutzer sich ganz auf die jeweilige Aufgabe konzentrieren können.

Weiterlesen nach der Anzeige

Gemini Intelligence soll Nutzerinnen und Nutzern dabei helfen, „mühsame Aufgaben zu automatisieren, damit Sie sich auf das Wesentliche konzentrieren können“, schreibt Google in seiner Ankündigung. Die Funktionen zur mehrstufigen Automatisierung, die zuerst auf dem Galaxy S26 und dem Pixel 10 für beliebte Essens- und Mitfahr-Apps verfügbar waren, habe Google optimiert, „um sicherzustellen, dass jede Interaktion nahtlos verläuft“.

Diese agentischen Fähigkeiten sollen bald nicht mehr nur für Essensbestellungen und Fahrdienste nutzbar sein, sondern auch für weitere Dinge: Als Beispiele nennt das Unternehmen etwa die Reservierung eines Platzes für Sportkurse (Konkret: ein Platz in der ersten Reihe eines Spinning-Kurses) oder einen Kursplan in Gmail zu finden und die benötigten Bücher in den Warenkorb zu legen.


Android 17: Gemini Intelligence ermöglicht mehrstufe Aufgaben.

Android 17: Gemini Intelligence ermöglicht mehrstufe Aufgaben.

Google

Die App-Automatisierung werde noch leistungsfähiger, wenn man sie um Bildschirm- oder Bildkontext ergänze. Anstelle „manuell zwischen Apps zu wechseln und Daten zu kopieren, kann Gemini visuellen Kontext in sofortige Aktionen umsetzen“, erklärt Google. So könne man Gemini mit einem langen Druck auf den Power-Button damit beauftragen, eine lange Einkaufsliste in der Notizen-App in den Warenkorb zu legen und für die Lieferung zusammenzustellen. Ebenso soll es möglich sein, ein Foto einer analogen Reisebroschüre zu machen und Gemini damit zu beauftragen, „eine ähnliche Tour auf Expedia für eine Gruppe von sechs Personen“ zu suchen. Die Fortschritte der Suche könne man dann in Echtzeit in den Benachrichtigungen verfolgen. Google stellt ferner klar, dass man die Kontrolle behält: „Gemini handelt nur auf Ihren Befehl hin und stoppt in dem Moment, in dem die Aufgabe erledigt ist. Alles, was für Sie übrig bleibt, ist die abschließende Bestätigung.“

Was Nothing kann, kann Google offenbar erst recht: Mithilfe von Gemini Intelligence macht das Unternehmen erste Schritte in Richtung generativer Bedienoberflächen. Den Anfang machen dabei nutzergenerierte Widgets. Mit der Funktion „Create My Widget“ können Nutzer mit natürlicher Sprache vorgeben, was das Widget können soll, die KI soll den Rest erledigen.


Screencast: Gemini Intelligence - Widget per Sprache erstellen

Screencast: Gemini Intelligence - Widget per Sprache erstellen

Gemini Intelligence ermöglicht die Erstellung von Widgets per Sprache.

(Bild: Google)

Laut Google könne man mit der Funktion „vollständig benutzerdefinierte Widgets erstellen, indem Sie einfach in natürlicher Sprache beschreiben, was Sie möchten“. Als Beispiel führt Google etwa ein Widget an, das Nutzern wöchentlich „drei proteinreiche Rezepte für die Essensvorbereitung“ vorschlägt. Radfahrer können sich zudem ein Widget erstellen lassen, das Windgeschwindigkeit und Regenwahrscheinlichkeit anzeigt. Die generierten Widgets lassen sich in der Größe anpassen. Die Widgets lassen sich nicht nur auf Android-Smartphones, sondern auch auf Wear-OS-Uhren mit Support für Gemini Intelligence verwenden.

Gemini Intelligence soll außerdem dabei helfen, gesprochenen Text aufzupolieren. Während Nutzer mit Gboard auf Android Sprache schon verhältnismäßig schnell und präzise in Text umwandeln können, muss man das Eingesprochene bisweilen nachträglich optimieren, um „Ähs“, weitere Füllwörter und Wiederholungen zu entfernen.


Screencast: Rambler Funktion von Gemini Intelligence poliert Spracheingaben

Screencast: Rambler Funktion von Gemini Intelligence poliert Spracheingaben

Rambler: Die Gemini-Intelligence-Funktion poliert Spracheingaben.

(Bild: Google)

Mit der neuen Funktion „Rambler“ (von englisch „Rambling“ – „abschweifende Sprechweise“) soll das Eingesprochene automatisch feingeschliffen werden: „Rambler erfasst die wichtigen Teile und fügt sie zu einer prägnanten Nachricht zusammen“, erklärt Google. Die Funktion zeigt Nutzern, wenn das Feature aktiviert ist; das Gesprochene werde nur zur Transkription in Echtzeit verwendet und nicht gespeichert.

Rambler erkenne zudem mehrere Sprachen gleichzeitig. Dies wird mithilfe des mehrsprachigen Modells von Gemini realisiert, sodass Rambler nahtlos zwischen Sprachen in einer einzigen Nachricht wechseln könne. „Ganz gleich, ob Sie Englisch mit Hindi oder einer anderen Kombination mischen – Rambler versteht den Kontext und die Nuancen und sorgt dafür, dass Ihre Nachricht genau so klingt wie Sie – nur noch ausgefeilter“, heißt es.

Neu oder verbessert ist die Funktion „Autofill with Google“: Mithilfe der vor einigen Monaten in einigen Ländern (nicht EU) eingeführten Gemini-Funktion „Personal Intelligence“ soll Android künftig noch mehr Textfelder in Apps und Chrome automatisch ausfüllen können. Erst im November letzten Jahres hatte Google eine Erweiterung der Autofill-Funktion für Chrome angekündigt.


Animation: Gemini Intelligence Autofill von Formularen

Animation: Gemini Intelligence Autofill von Formularen

Gemini Intelligence soll Autofill von Formularen verbessern.

(Bild: Google)

Laut Google sollen sich relevante Informationen aus verbundenen Apps nutzen lassen, um Nutzern das Ausfüllen von Formularen abzunehmen. Die Verbindung von Gemini mit „Autofill with Google“ ist rein freiwillig, das heißt, sie entscheiden, ob und wann sie die Verbindung zu Gemini herstellen möchten – und sie können diese Verbindung jederzeit in Ihren Einstellungen aktivieren oder deaktivieren.


Gemini Intelligence - Chrome Browser mit Automatisierung

Gemini Intelligence - Chrome Browser mit Automatisierung

Gemini Intelligence – Chrome wird smarter.

(Bild: Google)

In Chrome für Android ziehen zudem neue Gemini-Funktionen ein: Nutzer können damit etwa Inhalte im Internet recherchieren, zusammenfassen und vergleichen. Eine automatische Browsersuche in Chrome soll außerdem alltägliche Aufgaben übernehmen, „sei es die Terminvereinbarung oder die Reservierung eines Parkplatzes“, so das Unternehmen. Angesichts dessen, dass bisherige Gemini-Funktionen für Chrome hierzulande noch nicht angeboten werden, ist fraglich, ob es diese zeitnah nach Europa schaffen werden.

In einem weiteren Beitrag erklärt Google, dass man für Gemini Intelligence ein „Höchstmaß an Datenschutz“ gewährleiste, das auf drei Kernprinzipien basiere. So sollen Nutzer bei der Verwendung stets die volle Entscheidungsgewalt darüber behalten, wie und wann die KI agiert. Unter anderem seien Funktionen wie das automatisierte Ausfüllen von Formularen oder App-Automatisierungen strikt Opt-in. Nutzer können einzelne Komponenten jederzeit in den Einstellungen aktivieren oder deaktivieren. Ferner führt Gemini Aufgaben nur auf Anweisung bei freigegebenen Apps und erfordert eine Bestätigung vor Käufen. Ob Daten geteilt werden, entscheidet der Nutzer aktiv selbst.


Grafik: Gemini Intelligence und Sicherheit

Grafik: Gemini Intelligence und Sicherheit

Google verspricht für Gemini Intelligence Transparenz und Sicherheit.

(Bild: Google)

Zudem kommen Google zufolge Isolations-Technologien zum Einsatz: Für „proaktive“ Funktionen (wie das in Deutschland nicht verfügbare Magic Cue) kommen Technologien wie der „Private Compute Core, Private AI Compute und geschützte virtuelle Maschinen (KVM) zum Einsatz“, erklärt das Unternehmen. Ferner umfasse die Architektur Hardware-, Prozess- und Server-Isolation, um Datenlecks zu verhindern. Überdies werden Schutzmaßnahmen gegen moderne Angriffe wie Prompt Injection direkt in Android integriert, versichert Google.


Grafik Benachgrichtigung zu Automationen lassen sich nicht wegwischen

Grafik Benachgrichtigung zu Automationen lassen sich nicht wegwischen

Gemini Intelligence: Benachrichtigungen zu laufenden Automationen lassen sich nicht wegwischen.

(Bild: Google)

Weiter sollen Nutzer den Überblick behalten, während Gemini eine App-Schnittstelle automatisiert. Sie sollen mit der Funktion „View progress“ Aktionen live verfolgen können. Ein quittierbarer Benachrichtigungs-Verlauf zeigt an, wenn die KI im Hintergrund aktiv ist. Darüber hinaus zeigt das Android-Privacy-Dashboard künftig an, welche KI-Assistenten in den vergangenen 24 Stunden aktiv waren und welche Apps sie genutzt haben. Außerdem seien wichtige Teile der Sicherheitsarchitektur Open-Source und werden von Dritten auditiert, um die Sicherheitsversprechen unabhängig zu verifizieren.

Gemini Intelligence zieht mit Android 17 ein, das im Laufe des Juni freigegeben werden soll. Wann das große Update konkret erscheint, verrät Google noch nicht.

Lesen Sie auch


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Android 17 bringt AirDrop-Support für weitere Geräte und neue Funktionen


Android 17 ist im Grunde fertig, nun hat Google im Zuge der Android Show I/O Edition neben agentischen KI-Funktionen in Form von Gemini Intelligence weitere neue Funktionen angekündigt, die mit dem großen Update in das mobile Betriebssystem einziehen. Unter anderem landet AirDrop-Support über Quick-Share auf Geräten weiterer Hersteller, zudem kommen Kreative auf ihre Kosten.

Weiterlesen nach der Anzeige

Im November 2025 hatte Google überraschend die Möglichkeit angekündigt, Daten über Quick Share auf iPhones, Macs und iPads zu übertragen – auf der Apple-Seite kommt dafür der Systemdienst AirDrop zum Einsatz. Zuerst hatte Google die Funktion nur für seine Pixel-10-Serie freigeschaltet, mittlerweile bieten auch Samsung und Oppo AirDrop-Support für einige Geräte an.


Screenshot zeigt AirDrop-Support für weitere Android-Geräte

Screenshot zeigt AirDrop-Support für weitere Android-Geräte

Laut Google landet AirDrop-Support auf diesen Geräten.

(Bild: Google)

Im Zuge der Android Show sagte Google, dass jetzt auch weitere Unternehmen ihre Geräte mit AirDrop-Unterstützung ausstatten werden. Laut dem Unternehmen sollen Geräte von OnePlus, Vivo, Xiaomi und Honor im Laufe dieses Jahres die Funktion erhalten.

Falls man kein kompatibles Gerät besitze, könne man ab heute Quick Share auf jedem Android-Smartphone nutzen, um einen QR-Code zu generieren, mit dem man Inhalte sofort über die Cloud mit iOS-Geräten teilen könne. Überdies plane Google Quick Share auch für weitere Apps verfügbar zu machen, darunter WhatsApp.

Weiterlesen nach der Anzeige

Überdies wird mit Android 17 der Übertragungsprozess von iOS auf Android vereinfacht. Man habe mit Apple zusammengearbeitet, damit Nutzerdaten bequemer von einem auf ein anderes Ökosystem geschaufelt werden können. Angekündigt hatten die beiden Unternehmen den Datenumzug schon Ende 2025; die EU begrüßte dies. Apple hatte den leichten Datenumzug schon mit iOS 26.3 umgesetzt.

Laut Google lassen sich so Passwörter, Fotos, Nachrichten, Lieblings-Apps, Kontakte und sogar die Anordnung des Startbildschirms drahtlos vom iPhone auf ein neues Android-Gerät übertragen. Dieser neue drahtlose Prozess, der auch die Übertragung von eSIMs unterstützt, soll noch in diesem Jahr zunächst auf Samsung-Galaxy- und Google-Pixel-Geräten eingeführt werden.

Google versucht mit der neuen System-Funktion „Pause Point“ Nutzer dazu zu bringen, ihre App-Nutzung zu hinterfragen. Die optionale Funktion gibt Nutzerinnen und Nutzern beim Öffnen einer „ablenkenden App“ eine 10-sekündige Atempause, in der sie sich fragen können: „Warum bin ich hier?“ Während dieser Pause könne man eine kurze Atemübung machen oder einen Timer stellen. Nutzer sollen sich ebenso Lieblingsfotos ansehen oder zu alternativen App-Vorschlägen wechseln können, „wie zum Beispiel einem Hörbuch“.


Screenshots der Pause Point Funktion

Screenshots der Pause Point Funktion

Pause Point: Google will Nutzer vom Doomscrolling abbringen.

(Bild: Google)

Nach der Aktivierung von Pause Point könne man die Funktion nicht einfach abschalten, sondern das Gerät müsse neu gestartet werden.

Mit Android 17 will Google es Kreativen einfacher machen, Inhalte zu produzieren. So könne man künftig Reaktionsvideos erstellen, ohne zwischen Apps wechseln oder einen Greenscreen einrichten zu müssen. Hierfür führt Google „Screen Reactions“ ein. Damit könne man sich selbst und den Smartphonebildschirm gleichzeitig aufnehmen. Diese Funktion wird im Laufe dieses Sommers zunächst auf Pixel-Geräten verfügbar sein.


Screencast zeigt Funktion Screen Reactions

Screencast zeigt Funktion Screen Reactions

Android-Funktion Screen-Reactions für Kreative.

(Bild: Google)

Zudem habe Google sich mit Meta zusammengetan, um Fotos in höherer Qualität auf Instagram zu teilen. Künftig lassen sich Ultra-HDR-Inhalte aufnehmen und wiedergeben. Außerdem erhält die App eine integrierte Videostabilisierung für ruckelfreie Videos. Auch Aufnahmen bei Dunkelheit sollen durch die Integration von „Night Sight“ besser zur Geltung kommen.

Zudem habe man den „Prozess von der Aufnahme bis zum Hochladen komplett optimiert, um sicherzustellen, dass deine Fotos und Videos atemberaubend scharf bleiben, wenn du auf ‚Posten’ klickst,“ schreibt Google.

Auch die Edits-App habe Google mit Meta zusammen speziell für Android überarbeitet. In der App könne man Rohmaterial mithilfe von geräteinterner KI in Sekundenschnelle in professionell aufbereitete Inhalte verwandeln, verspricht Google. Zudem unterstützt Edits künftig Tontrennung: Die Edits-App „erkenne nun Audiospuren – Wind, Geräusche und Musik – und trennt sie voneinander, um die gewünschten Töne zu verstärken und unerwünschte zu entfernen“.

Auch an die Tablets haben Google und Meta gedacht: Denn Instagram ist nun vollständig für Android-Tablets optimiert, „und nutzt den Platz auf dem großen Bildschirm optimal aus“. Schon im September vergangenen Jahres hatte Instagram eine für iPads optimierte App veröffentlicht. Kreative erhalten außerdem Zugriff auf Adobe Premiere, die im Laufe des Sommers auf Android landen wird.


Screenshot Instagram-App für Android Tablets

Screenshot Instagram-App für Android Tablets

Instagram gibt es nun auch für Android-Tablets.

(Bild: Google)

Die Premiere-App liefere unter anderem „Zugang zu exklusiven Vorlagen und Effekten, um YouTube Shorts direkt in der App zu erstellen und zu veröffentlichen“, erklärt das Unternehmen. Zudem zieht das professionelle Videoformat APV (Advanced Professional Video) ein, das unter anderem eine höhere Speichereffizienz biete. Es wurde gemeinsam mit Samsung entwickelt und ist ab sofort auf dem Samsung Galaxy S26 Ultra und dem iVvo X300 Ultra verfügbar; Support für weitere Android-Topmodelle mit Snapdragon 8 Elite-Prozessoren sollen im Laufe dieses Jahres folgen.

Wann Google die fertige Version von Android 17 veröffentlicht, hat das Unternehmen noch nicht verraten. Android 16 erschien im vergangenen Jahr einige Wochen nach der Android Show I/O Edition 2025 Anfang Juni. Zu weiteren neuen Funktionen von Android 17 gehören unter anderem App-Bubbles, getrennte WLAN- und Mobilfunk-Kacheln in den Schnelleinstellungen und Schutz gegen Angriffe durch Quantencomputer.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Android Auto: Mehr Gemini-KI und immersive Navigation kommen


Weiterlesen nach der Anzeige

Im Zuge der Android Show: I/O Edition hat Google viele Neuerungen rund um Android Auto und Android Automotive angekündigt. Nachdem Google im vergangenen Jahr den Wechsel vom Google Assistant zu Gemini verkündete, bringt das diesjährige Update erneut mehr KI ins Auto, allerdings hat Google noch mehr in petto.

Android Auto erhält in diesem Jahr zunächst den Material-3-Expressive-Anstrich, den Google mit Android 16 QPR1 auf Smartphones und Wear-OS-Uhren losgelassen hatte. Dazu gehören neue Schriftarten, flüssigere Animationen und neue Hintergrundbilder.


Android Auto Bildschirm mit Googles Designsprache Materia 3 Experessive

Android Auto Bildschirm mit Googles Designsprache Materia 3 Experessive

Android Auto erhält die Designsprache Material 3 Expressive.

(Bild: Google)

Zudem hat Google Android Auto so konzipiert, dass Nutzerinnen und Nutzer es stärker personalisieren können. Das Update bringt unter anderem Widgets und Google Maps im Vollbildmodus auf das Armaturenbrett. Überdies ist Android Auto endlich so flexibel anpassbar, dass es auf jeden Fahrzeugbildschirm passt – „egal ob es sich um ein ultrabreites Rechteck, einen Kreis oder eine Sonderform handelt“.


Android Auto auf verschiedenen Bildschirmen

Android Auto auf verschiedenen Bildschirmen

Android Auto passt sich nun an verschiedene Bildschirmformen an.

(Bild: Google)

Neu ist Google zufolge auch die Möglichkeit, Verknüpfungen zu den Lieblingskontakten, einen Garagentoröffner, eine Wetterübersicht und vieles mehr auf den Bildschirm zu bringen.

Weiterlesen nach der Anzeige


Screencast: Immersive Navigation in Android Auto

Screencast: Immersive Navigation in Android Auto

Android Auto: Das Update bringt immersive Navigation in Google Maps. Unklar ist, ob sie auch nach Deutschland kommt.

(Bild: Google)

Darüber hinaus hält die Anfang dieses Jahres angekündigte immersive Navigation für Google Maps Einzug ins Auto. Damit lässt sich Kartenmaterial mitsamt Gebäuden, Überführungen und Gelände in einer 3D-Ansicht anzeigen. Laut Google werden mit der Ansicht wichtige Details wie Fahrspuren, Ampeln und Stoppschilder hervorgehoben. Dies soll dabei helfen, einfacher durch schwierige Strecken zu navigieren.

Wie Google erklärt, ist der neue Assistent Gemini in Android Auto mittlerweile weit verbreitet. Künftig könne zudem der im Zuge der Android Show angekündigte proaktive Assistent Gemini Intelligence auch im Auto verwendet werden, sofern das Smartphone über diese Funktion verfüge.

So könne man etwa während der Fahrt das Abendessen bestellen, etwa mit DoorDash. Sage man etwa: „Bestelle meine üblichen Fisch-Tacos bei DoorDash zum Abholen, aber verdoppele die Bestellung“, könne die KI den Befehl ausführen. Der Nutzer muss die Bestellung abschließend bestätigen. Laut Google soll Gemini Intelligence auch in Deutschland verfügbar sein, einen konkreten Zeitraum hat das Unternehmen jedoch noch nicht genannt.

Auch im Entertainment-Bereich schickt Google neue Features ins Rennen: Bei Fahrzeugen mit entsprechender Ausstattung können Inhalte in Full-HD-Auflösung mit 60 fps wiedergegeben werden. Laut Google sind nicht näher spezifizierte Modelle von BMW, Ford, Genesis, Hyundai, Kia, Mahindra, Mercedes-Benz, Renault, Škoda, Tata und Volvo dabei.

Zudem sollen Videos beim Beenden des Parkmodus zur Rückkehr in den Fahrmodus nicht einfach unterbrochen werden. Stattdessen wechseln sie künftig nahtlos in einen Audio-Modus – zumindest in Apps, die Hintergrundaudio unterstützen. Für Filme oder Serien sicher nicht sinnvoll, aber für Video-Podcasts. Des Weiteren erhält Android Auto Unterstützung für räumlichen Klang per Dolby Atmos in unterstützten Apps. Laut Unternehmen sind Fahrzeuge von BMW, Genesis, Mahindra, Mercedes-Benz, Renault, Škoda, Tata und Volvo an Bord.


Android Auto neue Mediaplayer

Android Auto neue Mediaplayer

Google verpasst Android Auto aktualisierte Mediaplayer.

(Bild: Google)

Zudem frischt Google die Medien-Apps wie YouTube Music und Spotify mit neuen Designs auf. Damit sollen sie im Auto benutzerfreundlicher sein.

Abseits der Android-Auto-Neuerungen ziehen auch in Googles Infotainment-System Android Automotive mit Google-Diensten einige der oben genannten Neuerungen ein. So bringt Google unter anderem die überarbeiteten Medien-Apps und den nahtlosen Übergang von Video zu Audio in Fahrzeuge mit Android Automotive. Zudem soll das Infotainment-System Zugriff auf Konferenz-Apps wie Zoom erhalten.


Android Auto: Gemini erklärt, dass der Fernseher in den Kofferraum passt

Android Auto: Gemini erklärt, dass der Fernseher in den Kofferraum passt

Gemini soll mit dem Android Automotive Update hilfreicher in Sachen Fahrzeugwissen werden.

(Bild: Google)

Google erklärt weiter, dass Apps wie Gemini und Maps in Fahrzeugen mit Google-Play-Integration noch besser funktionieren, da man eng mit den Autoherstellern zusammenarbeite. Damit sei eine tiefere Integration in die Hardware von Fahrzeugen möglich. Daher könne Gemini künftig etwa Fragen beantworten, „die speziell auf Ihr aktuelles Fahrzeug zugeschnitten sind – beispielsweise die Identifizierung einer mysteriösen Kontrollleuchte auf dem Armaturenbrett oder die Auskunft, ob der Fernseher, den Sie abholen möchten, in Ihren Kofferraum passt“.

Ferner soll die immersive Navigation in Google Maps in kompatiblen Fahrzeugen mithilfe der Live-Spurführung präziser sein. Diese funktioniere vollständig im Fahrzeug und analysiere die Straße über die Frontkamera des Fahrzeugs. Die Live-Spurführung erkenne überdies, auf welcher Spur man sich befinde, und könne in Echtzeit Hinweise geben, wann man die Spur wechseln oder abfahren müsse.

Die Updates für Android Auto und für Fahrzeuge mit integriertem Google-System (Android Automotive) sollen im Laufe dieses Jahres freigegeben werden.


(afl)



Source link

Weiterlesen

Beliebt