Künstliche Intelligenz

Google stellt Gemini Intelligence für Android vor


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mit Gemini Intelligence verpasst Google Android neue KI-Funktionen, mit denen das mobile Betriebssystem ein „intelligentes System“ werden soll. Die Neuerungen basieren auf den ersten agentischen Fähigkeiten, die Google für die Galaxy-S26- und Pixel-10-Reihen für den US-Markt angekündigt hatte. Diese habe Google verfeinert und um neue Features erweitert.

Weiterlesen nach der Anzeige

Laut Google soll Gemini Intelligence im Laufe des Sommers schrittweise eingeführt werden, „beginnend mit den neuesten Samsung Galaxy- und Google Pixel-Smartphones“. Im Laufe dieses Jahres sollen die neuen Funktionen auf allen Android-Geräten verfügbar sein, auch auf Smartwatches, in Autos, smarten Brillen und Laptops. Google bestätigte gegenüber heise online, dass die KI-Funktionen auch in Deutschland bereitgestellt werden sollen – ein Datum nannte das Unternehmen jedoch nicht.

Im Vorfeld wurde nach einem ersten Teaser gemutmaßt, dass Google sich hinsichtlich der Designsprache an Apples Liquid Glass orientieren könnte. Dies schmetterte Android-Ökosystem-Chef Sameer Samat rasch ab. Allerdings zieht mit Gemini Intelligence eine überarbeitete Designsprache ein, die auf Material 3 Expressive aufbaut, die Google mit Android 16 eingeführt hatte.

Erste Screenshots und Animationen legen zwar nahe, dass Google ein wenig mehr Transparenz und gläserne Akzente zu setzen scheint. Google beschreibt das neue visuelle System als ansprechend und funktional, während gezielte Animationen eingesetzt werden, um Ablenkungen zu reduzieren, sodass Nutzer sich ganz auf die jeweilige Aufgabe konzentrieren können.

Weiterlesen nach der Anzeige

Gemini Intelligence soll Nutzerinnen und Nutzern dabei helfen, „mühsame Aufgaben zu automatisieren, damit Sie sich auf das Wesentliche konzentrieren können“, schreibt Google in seiner Ankündigung. Die Funktionen zur mehrstufigen Automatisierung, die zuerst auf dem Galaxy S26 und dem Pixel 10 für beliebte Essens- und Mitfahr-Apps verfügbar waren, habe Google optimiert, „um sicherzustellen, dass jede Interaktion nahtlos verläuft“.

Diese agentischen Fähigkeiten sollen bald nicht mehr nur für Essensbestellungen und Fahrdienste nutzbar sein, sondern auch für weitere Dinge: Als Beispiele nennt das Unternehmen etwa die Reservierung eines Platzes für Sportkurse (Konkret: ein Platz in der ersten Reihe eines Spinning-Kurses) oder einen Kursplan in Gmail zu finden und die benötigten Bücher in den Warenkorb zu legen.



Google

Die App-Automatisierung werde noch leistungsfähiger, wenn man sie um Bildschirm- oder Bildkontext ergänze. Anstelle „manuell zwischen Apps zu wechseln und Daten zu kopieren, kann Gemini visuellen Kontext in sofortige Aktionen umsetzen“, erklärt Google. So könne man Gemini mit einem langen Druck auf den Power-Button damit beauftragen, eine lange Einkaufsliste in der Notizen-App in den Warenkorb zu legen und für die Lieferung zusammenzustellen. Ebenso soll es möglich sein, ein Foto einer analogen Reisebroschüre zu machen und Gemini damit zu beauftragen, „eine ähnliche Tour auf Expedia für eine Gruppe von sechs Personen“ zu suchen. Die Fortschritte der Suche könne man dann in Echtzeit in den Benachrichtigungen verfolgen. Google stellt ferner klar, dass man die Kontrolle behält: „Gemini handelt nur auf Ihren Befehl hin und stoppt in dem Moment, in dem die Aufgabe erledigt ist. Alles, was für Sie übrig bleibt, ist die abschließende Bestätigung.“

Was Nothing kann, kann Google offenbar erst recht: Mithilfe von Gemini Intelligence macht das Unternehmen erste Schritte in Richtung generativer Bedienoberflächen. Den Anfang machen dabei nutzergenerierte Widgets. Mit der Funktion „Create My Widget“ können Nutzer mit natürlicher Sprache vorgeben, was das Widget können soll, die KI soll den Rest erledigen.



Gemini Intelligence ermöglicht die Erstellung von Widgets per Sprache.

(Bild: Google)

Laut Google könne man mit der Funktion „vollständig benutzerdefinierte Widgets erstellen, indem Sie einfach in natürlicher Sprache beschreiben, was Sie möchten“. Als Beispiel führt Google etwa ein Widget an, das Nutzern wöchentlich „drei proteinreiche Rezepte für die Essensvorbereitung“ vorschlägt. Radfahrer können sich zudem ein Widget erstellen lassen, das Windgeschwindigkeit und Regenwahrscheinlichkeit anzeigt. Die generierten Widgets lassen sich in der Größe anpassen. Die Widgets lassen sich nicht nur auf Android-Smartphones, sondern auch auf Wear-OS-Uhren mit Support für Gemini Intelligence verwenden.

Gemini Intelligence soll außerdem dabei helfen, gesprochenen Text aufzupolieren. Während Nutzer mit Gboard auf Android Sprache schon verhältnismäßig schnell und präzise in Text umwandeln können, muss man das Eingesprochene bisweilen nachträglich optimieren, um „Ähs“, weitere Füllwörter und Wiederholungen zu entfernen.



Rambler: Die Gemini-Intelligence-Funktion poliert Spracheingaben.

(Bild: Google)

Mit der neuen Funktion „Rambler“ (von englisch „Rambling“ – „abschweifende Sprechweise“) soll das Eingesprochene automatisch feingeschliffen werden: „Rambler erfasst die wichtigen Teile und fügt sie zu einer prägnanten Nachricht zusammen“, erklärt Google. Die Funktion zeigt Nutzern, wenn das Feature aktiviert ist; das Gesprochene werde nur zur Transkription in Echtzeit verwendet und nicht gespeichert.

Rambler erkenne zudem mehrere Sprachen gleichzeitig. Dies wird mithilfe des mehrsprachigen Modells von Gemini realisiert, sodass Rambler nahtlos zwischen Sprachen in einer einzigen Nachricht wechseln könne. „Ganz gleich, ob Sie Englisch mit Hindi oder einer anderen Kombination mischen – Rambler versteht den Kontext und die Nuancen und sorgt dafür, dass Ihre Nachricht genau so klingt wie Sie – nur noch ausgefeilter“, heißt es.

Neu oder verbessert ist die Funktion „Autofill with Google“: Mithilfe der vor einigen Monaten in einigen Ländern (nicht EU) eingeführten Gemini-Funktion „Personal Intelligence“ soll Android künftig noch mehr Textfelder in Apps und Chrome automatisch ausfüllen können. Erst im November letzten Jahres hatte Google eine Erweiterung der Autofill-Funktion für Chrome angekündigt.



Gemini Intelligence soll Autofill von Formularen verbessern.

(Bild: Google)

Laut Google sollen sich relevante Informationen aus verbundenen Apps nutzen lassen, um Nutzern das Ausfüllen von Formularen abzunehmen. Die Verbindung von Gemini mit „Autofill with Google“ ist rein freiwillig, das heißt, sie entscheiden, ob und wann sie die Verbindung zu Gemini herstellen möchten – und sie können diese Verbindung jederzeit in Ihren Einstellungen aktivieren oder deaktivieren.



Gemini Intelligence – Chrome wird smarter.

(Bild: Google)

In Chrome für Android ziehen zudem neue Gemini-Funktionen ein: Nutzer können damit etwa Inhalte im Internet recherchieren, zusammenfassen und vergleichen. Eine automatische Browsersuche in Chrome soll außerdem alltägliche Aufgaben übernehmen, „sei es die Terminvereinbarung oder die Reservierung eines Parkplatzes“, so das Unternehmen. Angesichts dessen, dass bisherige Gemini-Funktionen für Chrome hierzulande noch nicht angeboten werden, ist fraglich, ob es diese zeitnah nach Europa schaffen werden.

In einem weiteren Beitrag erklärt Google, dass man für Gemini Intelligence ein „Höchstmaß an Datenschutz“ gewährleiste, das auf drei Kernprinzipien basiere. So sollen Nutzer bei der Verwendung stets die volle Entscheidungsgewalt darüber behalten, wie und wann die KI agiert. Unter anderem seien Funktionen wie das automatisierte Ausfüllen von Formularen oder App-Automatisierungen strikt Opt-in. Nutzer können einzelne Komponenten jederzeit in den Einstellungen aktivieren oder deaktivieren. Ferner führt Gemini Aufgaben nur auf Anweisung bei freigegebenen Apps und erfordert eine Bestätigung vor Käufen. Ob Daten geteilt werden, entscheidet der Nutzer aktiv selbst.



Google verspricht für Gemini Intelligence Transparenz und Sicherheit.

(Bild: Google)

Zudem kommen Google zufolge Isolations-Technologien zum Einsatz: Für „proaktive“ Funktionen (wie das in Deutschland nicht verfügbare Magic Cue) kommen Technologien wie der „Private Compute Core, Private AI Compute und geschützte virtuelle Maschinen (KVM) zum Einsatz“, erklärt das Unternehmen. Ferner umfasse die Architektur Hardware-, Prozess- und Server-Isolation, um Datenlecks zu verhindern. Überdies werden Schutzmaßnahmen gegen moderne Angriffe wie Prompt Injection direkt in Android integriert, versichert Google.



Gemini Intelligence: Benachrichtigungen zu laufenden Automationen lassen sich nicht wegwischen.

(Bild: Google)

Weiter sollen Nutzer den Überblick behalten, während Gemini eine App-Schnittstelle automatisiert. Sie sollen mit der Funktion „View progress“ Aktionen live verfolgen können. Ein quittierbarer Benachrichtigungs-Verlauf zeigt an, wenn die KI im Hintergrund aktiv ist. Darüber hinaus zeigt das Android-Privacy-Dashboard künftig an, welche KI-Assistenten in den vergangenen 24 Stunden aktiv waren und welche Apps sie genutzt haben. Außerdem seien wichtige Teile der Sicherheitsarchitektur Open-Source und werden von Dritten auditiert, um die Sicherheitsversprechen unabhängig zu verifizieren.

Gemini Intelligence zieht mit Android 17 ein, das im Laufe des Juni freigegeben werden soll. Wann das große Update konkret erscheint, verrät Google noch nicht.

Lesen Sie auch


(afl)



Source link

Beliebt

Die mobile Version verlassen