Connect with us

Künstliche Intelligenz

Rossmann testet ersten humanoiden Roboter in der Logistik


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Körperlich unangenehme und unergonomische Aufgaben problemlos und nahezu ohne Pause ausführen: Was das chinesische Unternehmen UBTech mit seinem humanoiden Roboter Walker S2 verspricht, soll er jetzt in der Logistik der Drogeriekette Rossmann unter Beweis stellen.

Weiterlesen nach der Anzeige

Wie das Unternehmen mit Firmensitz in Burgwedel mitteilt, soll der Humanoide für ein Jahr vor Ort bei einem Pilotprojekt getestet werden. Der Roboter soll insbesondere bei repetitiven sowie körperlich unergonomischen Tätigkeiten unterstützen und damit die Mitarbeiterinnen und Mitarbeiter in der Logistik entlasten.

In mehreren Projektphasen testet Rossmann, wie er in die bestehenden Abläufe der Logistik integriert werden kann – von ersten Use-Case-Szenarien über den schrittweisen Einsatz in der Praxis bis hin zur Bewertung einer möglichen Ausweitung. Der Walker S2 kann seine Batterie eigenständig wechseln und ist speziell für industrielle und logistische Anwendungen entwickelt worden. Die Batterien sind als Doppelbatteriesystem ausgeführt, sodass sich jeweils eine der Batterien im Betrieb auswechseln lässt. Eine Batterie liefert Energie für zwei Stunden langes Laufen oder etwa vier Stunden Arbeit im Stehen.

UBTech verspricht, dass der Walker S2 selbstständig erkennt, wann seine Energie zur Neige geht und wann ein Akkutausch notwendig ist, um bestimmte Arbeiten weiter ausführen zu können. Der Roboter soll so länger durchhalten und komplett autonom arbeiten können. Angestrebt ist, dass solche humanoiden Roboter in der Fertigung oder bei Dienstleistungen durchgängig rund um die Uhr einsetzbar sind.

„Uns ist bewusst, dass rund um humanoide Robotik derzeit viel Hype entsteht – gerade deshalb wollen wir frühzeitig und auf Basis eigener Erfahrungen herausfinden, was im Alltag tatsächlich funktioniert und wo die Grenzen liegen“, erklärt Hendrik van Duuren, Geschäftsleitung Logistik bei Rossmann, dazu in einer Pressemitteilung. Rossmann teste dafür jetzt zum Beispiel, wie sich der Walker S2 sinnvoll in die eigenen Prozesse einbinden lässt, welche IT-Infrastruktur dafür notwendig ist und wie schnell neue Anwendungen programmierbar sind. „Gleichzeitig beobachten wir genau, wie unsere Kolleginnen und Kollegen die Zusammenarbeit mit dem Roboter erleben“, erklärt er weiter.

Weiterlesen nach der Anzeige

Rossmann wolle den praktischen Nutzen für die eigene Logistik realistisch bewerten. Der einjährige Test soll auch als Grundlage für ein langfristig tragfähiges, skalierbares Einsatzkonzept für humanoide Robotik in der Rossmann-Logistik dienen.


(nen)



Source link

Künstliche Intelligenz

Google stellt Gemini Intelligence für Android vor


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mit Gemini Intelligence verpasst Google Android neue KI-Funktionen, mit denen das mobile Betriebssystem ein „intelligentes System“ werden soll. Die Neuerungen basieren auf den ersten agentischen Fähigkeiten, die Google für die Galaxy-S26- und Pixel-10-Reihen für den US-Markt angekündigt hatte. Diese habe Google verfeinert und um neue Features erweitert.

Weiterlesen nach der Anzeige

Laut Google soll Gemini Intelligence im Laufe des Sommers schrittweise eingeführt werden, „beginnend mit den neuesten Samsung Galaxy- und Google Pixel-Smartphones“. Im Laufe dieses Jahres sollen die neuen Funktionen auf allen Android-Geräten verfügbar sein, auch auf Smartwatches, in Autos, smarten Brillen und Laptops. Google bestätigte gegenüber heise online, dass die KI-Funktionen auch in Deutschland bereitgestellt werden sollen – ein Datum nannte das Unternehmen jedoch nicht.

Im Vorfeld wurde nach einem ersten Teaser gemutmaßt, dass Google sich hinsichtlich der Designsprache an Apples Liquid Glass orientieren könnte. Dies schmetterte Android-Ökosystem-Chef Sameer Samat rasch ab. Allerdings zieht mit Gemini Intelligence eine überarbeitete Designsprache ein, die auf Material 3 Expressive aufbaut, die Google mit Android 16 eingeführt hatte.

Erste Screenshots und Animationen legen zwar nahe, dass Google ein wenig mehr Transparenz und gläserne Akzente zu setzen scheint. Google beschreibt das neue visuelle System als ansprechend und funktional, während gezielte Animationen eingesetzt werden, um Ablenkungen zu reduzieren, sodass Nutzer sich ganz auf die jeweilige Aufgabe konzentrieren können.

Weiterlesen nach der Anzeige

Gemini Intelligence soll Nutzerinnen und Nutzern dabei helfen, „mühsame Aufgaben zu automatisieren, damit Sie sich auf das Wesentliche konzentrieren können“, schreibt Google in seiner Ankündigung. Die Funktionen zur mehrstufigen Automatisierung, die zuerst auf dem Galaxy S26 und dem Pixel 10 für beliebte Essens- und Mitfahr-Apps verfügbar waren, habe Google optimiert, „um sicherzustellen, dass jede Interaktion nahtlos verläuft“.

Diese agentischen Fähigkeiten sollen bald nicht mehr nur für Essensbestellungen und Fahrdienste nutzbar sein, sondern auch für weitere Dinge: Als Beispiele nennt das Unternehmen etwa die Reservierung eines Platzes für Sportkurse (Konkret: ein Platz in der ersten Reihe eines Spinning-Kurses) oder einen Kursplan in Gmail zu finden und die benötigten Bücher in den Warenkorb zu legen.


Android 17: Gemini Intelligence ermöglicht mehrstufe Aufgaben.

Android 17: Gemini Intelligence ermöglicht mehrstufe Aufgaben.

Google

Die App-Automatisierung werde noch leistungsfähiger, wenn man sie um Bildschirm- oder Bildkontext ergänze. Anstelle „manuell zwischen Apps zu wechseln und Daten zu kopieren, kann Gemini visuellen Kontext in sofortige Aktionen umsetzen“, erklärt Google. So könne man Gemini mit einem langen Druck auf den Power-Button damit beauftragen, eine lange Einkaufsliste in der Notizen-App in den Warenkorb zu legen und für die Lieferung zusammenzustellen. Ebenso soll es möglich sein, ein Foto einer analogen Reisebroschüre zu machen und Gemini damit zu beauftragen, „eine ähnliche Tour auf Expedia für eine Gruppe von sechs Personen“ zu suchen. Die Fortschritte der Suche könne man dann in Echtzeit in den Benachrichtigungen verfolgen. Google stellt ferner klar, dass man die Kontrolle behält: „Gemini handelt nur auf Ihren Befehl hin und stoppt in dem Moment, in dem die Aufgabe erledigt ist. Alles, was für Sie übrig bleibt, ist die abschließende Bestätigung.“

Was Nothing kann, kann Google offenbar erst recht: Mithilfe von Gemini Intelligence macht das Unternehmen erste Schritte in Richtung generativer Bedienoberflächen. Den Anfang machen dabei nutzergenerierte Widgets. Mit der Funktion „Create My Widget“ können Nutzer mit natürlicher Sprache vorgeben, was das Widget können soll, die KI soll den Rest erledigen.


Screencast: Gemini Intelligence - Widget per Sprache erstellen

Screencast: Gemini Intelligence - Widget per Sprache erstellen

Gemini Intelligence ermöglicht die Erstellung von Widgets per Sprache.

(Bild: Google)

Laut Google könne man mit der Funktion „vollständig benutzerdefinierte Widgets erstellen, indem Sie einfach in natürlicher Sprache beschreiben, was Sie möchten“. Als Beispiel führt Google etwa ein Widget an, das Nutzern wöchentlich „drei proteinreiche Rezepte für die Essensvorbereitung“ vorschlägt. Radfahrer können sich zudem ein Widget erstellen lassen, das Windgeschwindigkeit und Regenwahrscheinlichkeit anzeigt. Die generierten Widgets lassen sich in der Größe anpassen. Die Widgets lassen sich nicht nur auf Android-Smartphones, sondern auch auf Wear-OS-Uhren mit Support für Gemini Intelligence verwenden.

Gemini Intelligence soll außerdem dabei helfen, gesprochenen Text aufzupolieren. Während Nutzer mit Gboard auf Android Sprache schon verhältnismäßig schnell und präzise in Text umwandeln können, muss man das Eingesprochene bisweilen nachträglich optimieren, um „Ähs“, weitere Füllwörter und Wiederholungen zu entfernen.


Screencast: Rambler Funktion von Gemini Intelligence poliert Spracheingaben

Screencast: Rambler Funktion von Gemini Intelligence poliert Spracheingaben

Rambler: Die Gemini-Intelligence-Funktion poliert Spracheingaben.

(Bild: Google)

Mit der neuen Funktion „Rambler“ (von englisch „Rambling“ – „abschweifende Sprechweise“) soll das Eingesprochene automatisch feingeschliffen werden: „Rambler erfasst die wichtigen Teile und fügt sie zu einer prägnanten Nachricht zusammen“, erklärt Google. Die Funktion zeigt Nutzern, wenn das Feature aktiviert ist; das Gesprochene werde nur zur Transkription in Echtzeit verwendet und nicht gespeichert.

Rambler erkenne zudem mehrere Sprachen gleichzeitig. Dies wird mithilfe des mehrsprachigen Modells von Gemini realisiert, sodass Rambler nahtlos zwischen Sprachen in einer einzigen Nachricht wechseln könne. „Ganz gleich, ob Sie Englisch mit Hindi oder einer anderen Kombination mischen – Rambler versteht den Kontext und die Nuancen und sorgt dafür, dass Ihre Nachricht genau so klingt wie Sie – nur noch ausgefeilter“, heißt es.

Neu oder verbessert ist die Funktion „Autofill with Google“: Mithilfe der vor einigen Monaten in einigen Ländern (nicht EU) eingeführten Gemini-Funktion „Personal Intelligence“ soll Android künftig noch mehr Textfelder in Apps und Chrome automatisch ausfüllen können. Erst im November letzten Jahres hatte Google eine Erweiterung der Autofill-Funktion für Chrome angekündigt.


Animation: Gemini Intelligence Autofill von Formularen

Animation: Gemini Intelligence Autofill von Formularen

Gemini Intelligence soll Autofill von Formularen verbessern.

(Bild: Google)

Laut Google sollen sich relevante Informationen aus verbundenen Apps nutzen lassen, um Nutzern das Ausfüllen von Formularen abzunehmen. Die Verbindung von Gemini mit „Autofill with Google“ ist rein freiwillig, das heißt, sie entscheiden, ob und wann sie die Verbindung zu Gemini herstellen möchten – und sie können diese Verbindung jederzeit in Ihren Einstellungen aktivieren oder deaktivieren.


Gemini Intelligence - Chrome Browser mit Automatisierung

Gemini Intelligence - Chrome Browser mit Automatisierung

Gemini Intelligence – Chrome wird smarter.

(Bild: Google)

In Chrome für Android ziehen zudem neue Gemini-Funktionen ein: Nutzer können damit etwa Inhalte im Internet recherchieren, zusammenfassen und vergleichen. Eine automatische Browsersuche in Chrome soll außerdem alltägliche Aufgaben übernehmen, „sei es die Terminvereinbarung oder die Reservierung eines Parkplatzes“, so das Unternehmen. Angesichts dessen, dass bisherige Gemini-Funktionen für Chrome hierzulande noch nicht angeboten werden, ist fraglich, ob es diese zeitnah nach Europa schaffen werden.

In einem weiteren Beitrag erklärt Google, dass man für Gemini Intelligence ein „Höchstmaß an Datenschutz“ gewährleiste, das auf drei Kernprinzipien basiere. So sollen Nutzer bei der Verwendung stets die volle Entscheidungsgewalt darüber behalten, wie und wann die KI agiert. Unter anderem seien Funktionen wie das automatisierte Ausfüllen von Formularen oder App-Automatisierungen strikt Opt-in. Nutzer können einzelne Komponenten jederzeit in den Einstellungen aktivieren oder deaktivieren. Ferner führt Gemini Aufgaben nur auf Anweisung bei freigegebenen Apps und erfordert eine Bestätigung vor Käufen. Ob Daten geteilt werden, entscheidet der Nutzer aktiv selbst.


Grafik: Gemini Intelligence und Sicherheit

Grafik: Gemini Intelligence und Sicherheit

Google verspricht für Gemini Intelligence Transparenz und Sicherheit.

(Bild: Google)

Zudem kommen Google zufolge Isolations-Technologien zum Einsatz: Für „proaktive“ Funktionen (wie das in Deutschland nicht verfügbare Magic Cue) kommen Technologien wie der „Private Compute Core, Private AI Compute und geschützte virtuelle Maschinen (KVM) zum Einsatz“, erklärt das Unternehmen. Ferner umfasse die Architektur Hardware-, Prozess- und Server-Isolation, um Datenlecks zu verhindern. Überdies werden Schutzmaßnahmen gegen moderne Angriffe wie Prompt Injection direkt in Android integriert, versichert Google.


Grafik Benachgrichtigung zu Automationen lassen sich nicht wegwischen

Grafik Benachgrichtigung zu Automationen lassen sich nicht wegwischen

Gemini Intelligence: Benachrichtigungen zu laufenden Automationen lassen sich nicht wegwischen.

(Bild: Google)

Weiter sollen Nutzer den Überblick behalten, während Gemini eine App-Schnittstelle automatisiert. Sie sollen mit der Funktion „View progress“ Aktionen live verfolgen können. Ein quittierbarer Benachrichtigungs-Verlauf zeigt an, wenn die KI im Hintergrund aktiv ist. Darüber hinaus zeigt das Android-Privacy-Dashboard künftig an, welche KI-Assistenten in den vergangenen 24 Stunden aktiv waren und welche Apps sie genutzt haben. Außerdem seien wichtige Teile der Sicherheitsarchitektur Open-Source und werden von Dritten auditiert, um die Sicherheitsversprechen unabhängig zu verifizieren.

Gemini Intelligence zieht mit Android 17 ein, das im Laufe des Juni freigegeben werden soll. Wann das große Update konkret erscheint, verrät Google noch nicht.

Lesen Sie auch


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Android 17 bringt AirDrop-Support für weitere Geräte und neue Funktionen


Android 17 ist im Grunde fertig, nun hat Google im Zuge der Android Show I/O Edition neben agentischen KI-Funktionen in Form von Gemini Intelligence weitere neue Funktionen angekündigt, die mit dem großen Update in das mobile Betriebssystem einziehen. Unter anderem landet AirDrop-Support über Quick-Share auf Geräten weiterer Hersteller, zudem kommen Kreative auf ihre Kosten.

Weiterlesen nach der Anzeige

Im November 2025 hatte Google überraschend die Möglichkeit angekündigt, Daten über Quick Share auf iPhones, Macs und iPads zu übertragen – auf der Apple-Seite kommt dafür der Systemdienst AirDrop zum Einsatz. Zuerst hatte Google die Funktion nur für seine Pixel-10-Serie freigeschaltet, mittlerweile bieten auch Samsung und Oppo AirDrop-Support für einige Geräte an.


Screenshot zeigt AirDrop-Support für weitere Android-Geräte

Screenshot zeigt AirDrop-Support für weitere Android-Geräte

Laut Google landet AirDrop-Support auf diesen Geräten.

(Bild: Google)

Im Zuge der Android Show sagte Google, dass jetzt auch weitere Unternehmen ihre Geräte mit AirDrop-Unterstützung ausstatten werden. Laut dem Unternehmen sollen Geräte von OnePlus, Vivo, Xiaomi und Honor im Laufe dieses Jahres die Funktion erhalten.

Falls man kein kompatibles Gerät besitze, könne man ab heute Quick Share auf jedem Android-Smartphone nutzen, um einen QR-Code zu generieren, mit dem man Inhalte sofort über die Cloud mit iOS-Geräten teilen könne. Überdies plane Google Quick Share auch für weitere Apps verfügbar zu machen, darunter WhatsApp.

Weiterlesen nach der Anzeige

Überdies wird mit Android 17 der Übertragungsprozess von iOS auf Android vereinfacht. Man habe mit Apple zusammengearbeitet, damit Nutzerdaten bequemer von einem auf ein anderes Ökosystem geschaufelt werden können. Angekündigt hatten die beiden Unternehmen den Datenumzug schon Ende 2025; die EU begrüßte dies. Apple hatte den leichten Datenumzug schon mit iOS 26.3 umgesetzt.

Laut Google lassen sich so Passwörter, Fotos, Nachrichten, Lieblings-Apps, Kontakte und sogar die Anordnung des Startbildschirms drahtlos vom iPhone auf ein neues Android-Gerät übertragen. Dieser neue drahtlose Prozess, der auch die Übertragung von eSIMs unterstützt, soll noch in diesem Jahr zunächst auf Samsung-Galaxy- und Google-Pixel-Geräten eingeführt werden.

Google versucht mit der neuen System-Funktion „Pause Point“ Nutzer dazu zu bringen, ihre App-Nutzung zu hinterfragen. Die optionale Funktion gibt Nutzerinnen und Nutzern beim Öffnen einer „ablenkenden App“ eine 10-sekündige Atempause, in der sie sich fragen können: „Warum bin ich hier?“ Während dieser Pause könne man eine kurze Atemübung machen oder einen Timer stellen. Nutzer sollen sich ebenso Lieblingsfotos ansehen oder zu alternativen App-Vorschlägen wechseln können, „wie zum Beispiel einem Hörbuch“.


Screenshots der Pause Point Funktion

Screenshots der Pause Point Funktion

Pause Point: Google will Nutzer vom Doomscrolling abbringen.

(Bild: Google)

Nach der Aktivierung von Pause Point könne man die Funktion nicht einfach abschalten, sondern das Gerät müsse neu gestartet werden.

Mit Android 17 will Google es Kreativen einfacher machen, Inhalte zu produzieren. So könne man künftig Reaktionsvideos erstellen, ohne zwischen Apps wechseln oder einen Greenscreen einrichten zu müssen. Hierfür führt Google „Screen Reactions“ ein. Damit könne man sich selbst und den Smartphonebildschirm gleichzeitig aufnehmen. Diese Funktion wird im Laufe dieses Sommers zunächst auf Pixel-Geräten verfügbar sein.


Screencast zeigt Funktion Screen Reactions

Screencast zeigt Funktion Screen Reactions

Android-Funktion Screen-Reactions für Kreative.

(Bild: Google)

Zudem habe Google sich mit Meta zusammengetan, um Fotos in höherer Qualität auf Instagram zu teilen. Künftig lassen sich Ultra-HDR-Inhalte aufnehmen und wiedergeben. Außerdem erhält die App eine integrierte Videostabilisierung für ruckelfreie Videos. Auch Aufnahmen bei Dunkelheit sollen durch die Integration von „Night Sight“ besser zur Geltung kommen.

Zudem habe man den „Prozess von der Aufnahme bis zum Hochladen komplett optimiert, um sicherzustellen, dass deine Fotos und Videos atemberaubend scharf bleiben, wenn du auf ‚Posten’ klickst,“ schreibt Google.

Auch die Edits-App habe Google mit Meta zusammen speziell für Android überarbeitet. In der App könne man Rohmaterial mithilfe von geräteinterner KI in Sekundenschnelle in professionell aufbereitete Inhalte verwandeln, verspricht Google. Zudem unterstützt Edits künftig Tontrennung: Die Edits-App „erkenne nun Audiospuren – Wind, Geräusche und Musik – und trennt sie voneinander, um die gewünschten Töne zu verstärken und unerwünschte zu entfernen“.

Auch an die Tablets haben Google und Meta gedacht: Denn Instagram ist nun vollständig für Android-Tablets optimiert, „und nutzt den Platz auf dem großen Bildschirm optimal aus“. Schon im September vergangenen Jahres hatte Instagram eine für iPads optimierte App veröffentlicht. Kreative erhalten außerdem Zugriff auf Adobe Premiere, die im Laufe des Sommers auf Android landen wird.


Screenshot Instagram-App für Android Tablets

Screenshot Instagram-App für Android Tablets

Instagram gibt es nun auch für Android-Tablets.

(Bild: Google)

Die Premiere-App liefere unter anderem „Zugang zu exklusiven Vorlagen und Effekten, um YouTube Shorts direkt in der App zu erstellen und zu veröffentlichen“, erklärt das Unternehmen. Zudem zieht das professionelle Videoformat APV (Advanced Professional Video) ein, das unter anderem eine höhere Speichereffizienz biete. Es wurde gemeinsam mit Samsung entwickelt und ist ab sofort auf dem Samsung Galaxy S26 Ultra und dem iVvo X300 Ultra verfügbar; Support für weitere Android-Topmodelle mit Snapdragon 8 Elite-Prozessoren sollen im Laufe dieses Jahres folgen.

Wann Google die fertige Version von Android 17 veröffentlicht, hat das Unternehmen noch nicht verraten. Android 16 erschien im vergangenen Jahr einige Wochen nach der Android Show I/O Edition 2025 Anfang Juni. Zu weiteren neuen Funktionen von Android 17 gehören unter anderem App-Bubbles, getrennte WLAN- und Mobilfunk-Kacheln in den Schnelleinstellungen und Schutz gegen Angriffe durch Quantencomputer.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Android Auto: Mehr Gemini-KI und immersive Navigation kommen


Weiterlesen nach der Anzeige

Im Zuge der Android Show: I/O Edition hat Google viele Neuerungen rund um Android Auto und Android Automotive angekündigt. Nachdem Google im vergangenen Jahr den Wechsel vom Google Assistant zu Gemini verkündete, bringt das diesjährige Update erneut mehr KI ins Auto, allerdings hat Google noch mehr in petto.

Android Auto erhält in diesem Jahr zunächst den Material-3-Expressive-Anstrich, den Google mit Android 16 QPR1 auf Smartphones und Wear-OS-Uhren losgelassen hatte. Dazu gehören neue Schriftarten, flüssigere Animationen und neue Hintergrundbilder.


Android Auto Bildschirm mit Googles Designsprache Materia 3 Experessive

Android Auto Bildschirm mit Googles Designsprache Materia 3 Experessive

Android Auto erhält die Designsprache Material 3 Expressive.

(Bild: Google)

Zudem hat Google Android Auto so konzipiert, dass Nutzerinnen und Nutzer es stärker personalisieren können. Das Update bringt unter anderem Widgets und Google Maps im Vollbildmodus auf das Armaturenbrett. Überdies ist Android Auto endlich so flexibel anpassbar, dass es auf jeden Fahrzeugbildschirm passt – „egal ob es sich um ein ultrabreites Rechteck, einen Kreis oder eine Sonderform handelt“.


Android Auto auf verschiedenen Bildschirmen

Android Auto auf verschiedenen Bildschirmen

Android Auto passt sich nun an verschiedene Bildschirmformen an.

(Bild: Google)

Neu ist Google zufolge auch die Möglichkeit, Verknüpfungen zu den Lieblingskontakten, einen Garagentoröffner, eine Wetterübersicht und vieles mehr auf den Bildschirm zu bringen.

Weiterlesen nach der Anzeige


Screencast: Immersive Navigation in Android Auto

Screencast: Immersive Navigation in Android Auto

Android Auto: Das Update bringt immersive Navigation in Google Maps. Unklar ist, ob sie auch nach Deutschland kommt.

(Bild: Google)

Darüber hinaus hält die Anfang dieses Jahres angekündigte immersive Navigation für Google Maps Einzug ins Auto. Damit lässt sich Kartenmaterial mitsamt Gebäuden, Überführungen und Gelände in einer 3D-Ansicht anzeigen. Laut Google werden mit der Ansicht wichtige Details wie Fahrspuren, Ampeln und Stoppschilder hervorgehoben. Dies soll dabei helfen, einfacher durch schwierige Strecken zu navigieren.

Wie Google erklärt, ist der neue Assistent Gemini in Android Auto mittlerweile weit verbreitet. Künftig könne zudem der im Zuge der Android Show angekündigte proaktive Assistent Gemini Intelligence auch im Auto verwendet werden, sofern das Smartphone über diese Funktion verfüge.

So könne man etwa während der Fahrt das Abendessen bestellen, etwa mit DoorDash. Sage man etwa: „Bestelle meine üblichen Fisch-Tacos bei DoorDash zum Abholen, aber verdoppele die Bestellung“, könne die KI den Befehl ausführen. Der Nutzer muss die Bestellung abschließend bestätigen. Laut Google soll Gemini Intelligence auch in Deutschland verfügbar sein, einen konkreten Zeitraum hat das Unternehmen jedoch noch nicht genannt.

Auch im Entertainment-Bereich schickt Google neue Features ins Rennen: Bei Fahrzeugen mit entsprechender Ausstattung können Inhalte in Full-HD-Auflösung mit 60 fps wiedergegeben werden. Laut Google sind nicht näher spezifizierte Modelle von BMW, Ford, Genesis, Hyundai, Kia, Mahindra, Mercedes-Benz, Renault, Škoda, Tata und Volvo dabei.

Zudem sollen Videos beim Beenden des Parkmodus zur Rückkehr in den Fahrmodus nicht einfach unterbrochen werden. Stattdessen wechseln sie künftig nahtlos in einen Audio-Modus – zumindest in Apps, die Hintergrundaudio unterstützen. Für Filme oder Serien sicher nicht sinnvoll, aber für Video-Podcasts. Des Weiteren erhält Android Auto Unterstützung für räumlichen Klang per Dolby Atmos in unterstützten Apps. Laut Unternehmen sind Fahrzeuge von BMW, Genesis, Mahindra, Mercedes-Benz, Renault, Škoda, Tata und Volvo an Bord.


Android Auto neue Mediaplayer

Android Auto neue Mediaplayer

Google verpasst Android Auto aktualisierte Mediaplayer.

(Bild: Google)

Zudem frischt Google die Medien-Apps wie YouTube Music und Spotify mit neuen Designs auf. Damit sollen sie im Auto benutzerfreundlicher sein.

Abseits der Android-Auto-Neuerungen ziehen auch in Googles Infotainment-System Android Automotive mit Google-Diensten einige der oben genannten Neuerungen ein. So bringt Google unter anderem die überarbeiteten Medien-Apps und den nahtlosen Übergang von Video zu Audio in Fahrzeuge mit Android Automotive. Zudem soll das Infotainment-System Zugriff auf Konferenz-Apps wie Zoom erhalten.


Android Auto: Gemini erklärt, dass der Fernseher in den Kofferraum passt

Android Auto: Gemini erklärt, dass der Fernseher in den Kofferraum passt

Gemini soll mit dem Android Automotive Update hilfreicher in Sachen Fahrzeugwissen werden.

(Bild: Google)

Google erklärt weiter, dass Apps wie Gemini und Maps in Fahrzeugen mit Google-Play-Integration noch besser funktionieren, da man eng mit den Autoherstellern zusammenarbeite. Damit sei eine tiefere Integration in die Hardware von Fahrzeugen möglich. Daher könne Gemini künftig etwa Fragen beantworten, „die speziell auf Ihr aktuelles Fahrzeug zugeschnitten sind – beispielsweise die Identifizierung einer mysteriösen Kontrollleuchte auf dem Armaturenbrett oder die Auskunft, ob der Fernseher, den Sie abholen möchten, in Ihren Kofferraum passt“.

Ferner soll die immersive Navigation in Google Maps in kompatiblen Fahrzeugen mithilfe der Live-Spurführung präziser sein. Diese funktioniere vollständig im Fahrzeug und analysiere die Straße über die Frontkamera des Fahrzeugs. Die Live-Spurführung erkenne überdies, auf welcher Spur man sich befinde, und könne in Echtzeit Hinweise geben, wann man die Spur wechseln oder abfahren müsse.

Die Updates für Android Auto und für Fahrzeuge mit integriertem Google-System (Android Automotive) sollen im Laufe dieses Jahres freigegeben werden.


(afl)



Source link

Weiterlesen

Beliebt