Entwicklung & Code
Gemini für Android wird agentisch: KI bestellt Essen oder einen Fahrdienst
Gemini für Android wird agentisch: Zunächst sollen Nutzer eines Pixel 10 oder Galaxy S26 – in den USA und in Korea – den Chatbot zum Bestellen von Fahrdiensten, Lebensmitteln oder anderen Einkäufen nutzen können. Laut Android-Chef Sameer Samat ist das nur der Anfang: Mit Android 17 plant Google eine Erweiterung der agentischen Funktionen.
Weiterlesen nach der Anzeige
Vorschau
Samat schreibt auf Linkedin vollmundig: „Wir bewegen uns weg von einem Betriebssystem hin zu einem intelligenten System, einer Plattform, die Sie wirklich versteht und für Sie arbeitet.“ Mit der Präsentation der agentischen Fähigkeiten zur Ausführung mehrstufiger Aufgaben hat Google lediglich „eine erste Vorschau auf eine dieser Funktionen vorgestellt“. Dabei arbeite Android mit dem KI-Assistenten zusammen, um Apps zu navigieren und Aufgaben zu erledigen.
Als Beispiel nennt Samat die Möglichkeit, eine lange Liste von Zutaten aus einem Rezept zu nehmen und diese in den Warenkorb in der bevorzugten Lebensmittel-Liefer-App zu legen. „Gemini 3 nutzt seine Denkfähigkeiten, um einen Plan zu erstellen, und seine multimodalen Fähigkeiten, um mit Android zu arbeiten und die App zu bedienen, um die Aufgabe zu erledigen“, erklärt er weiter. Im Android-Developer-Blog liefert Google das Beispiel einer Pizzabestellung: Gemini erfasst die in einem Chat gesammelten Bestellwünsche und öffnet die App des Lieferdienstes, um die Bestellung auszuführen.
Gemini bestellt Pizza.
(Bild: Google)
Die App werde anschließend in einem abgesicherten virtuellen Fenster geöffnet und laufe im Hintergrund, erklärt Google in einem Blogbeitrag. Das bedeutet, dass Gemini nur auf bestimmte Apps zugreifen kann, nicht aber auf das komplette Gerät. Nutzerinnen und Nutzer können ihr Smartphone während der Ausführung der Aufgabe für andere Dinge weiterverwenden. Da die Funktion mit „Blick auf Transparenz und Kontrolle entwickelt“ wurde, können Nutzer Gemini bei jedem Schritt beobachten und jederzeit pausieren, stoppen oder die Aufgabe übernehmen. Die Anwendung sei außerdem so konzipiert, dass Nutzer benachrichtigt werden, wenn die Bestellung zur Überprüfung bereitstehe, um sie sich abschließend anzusehen und zu bezahlen. Die Bezahlung erfolgt also noch vom Nutzer und ist nicht automatisiert.
AppFunctions
Weiterlesen nach der Anzeige
Laut Google kann die App-Automatisierung über zwei Wege durchgeführt werden: Zum einen mit AppFunctions, die schon im vergangenen Jahr mit Android 16 angekündigt wurden, nun aber offenbar erst Einzug hält. Wie das Unternehmen erklärt, werden die AppFunctions von einer Jetpack-Bibliothek begleitet, mit der Apps bestimmte Funktionen für Anrufer wie Agent-Apps verfügbar machen können, damit diese auf dem Gerät darauf zugreifen und sie ausführen können.
Als Beispiel nennt Google die Integration der AppFunctions in die Samsung-Gallery-App im Galaxy S26: Anstatt manuell durch Fotoalben zu scrollen, können Nutzerinnen und Nutzer Gemini einfach bitten: „Zeig mir Bilder meiner Katze aus der Samsung Gallery.“ Gemini aktiviert die entsprechende Funktion und präsentiert die gewünschten Fotos aus der Samsung Gallery direkt in der Gemini-App, sodass Nutzer diese nie verlassen müssen. Ähnliches will auch Samsung mit seinem Assistenten Bixby in Partnerschaft mit Perplexity erreichen.
Gemini sucht Bilder aus der Samsung-Gallery-App und zeigt sie in der Gemini-App.
(Bild: Google)
Die Funktion ist Teil von One UI 8.5 und soll nach dem Galaxy S26 auch auf weitere Samsung-Geräte kommen. Über AppFunctions soll Gemini schon Aufgaben in verschiedenen App-Kategorien wie Kalender, Notizen und Aufgaben auf Geräten verschiedener Hersteller automatisieren, so Google.
Der zweite Weg der Automation ist noch in der Entwicklung: Dabei handelt es sich um ein UI-Automatisierungsframework für KI-Agenten und -Assistenten. Dieses soll „allgemeine Aufgaben in den installierten Apps der Benutzer intelligent ausführen“ können – und wird im Galaxy S26 beziehungsweise Pixel 10 als Beta getestet. „Diese Plattform übernimmt die Schwerarbeit, sodass Entwickler ohne Programmieraufwand eine große Reichweite erzielen können“, erklärt das Unternehmen. T
Mit Android 17 soll das UI-Automatisierungsframework erweitert werden, „um noch mehr Nutzer, Entwickler und Gerätehersteller zu erreichen“. Derzeit arbeite Google mit einer kleinen Gruppe von App-Entwicklern daran. Dabei konzentriere man sich auf hochwertige Benutzererfahrungen, während sich das Ökosystem weiterentwickelt. Google will im Laufe dieses Jahres weitere Details darüber veröffentlichen, wie Entwicklerinnen und Entwickler AppFunctions und UI-Automatisierung nutzen können.
Android 17 ist derzeit noch in der Betaphase, die finale Version wird im Juni dieses Jahres erwartet. Vorher dürfte Google die hauseigene Entwicklerkonferenz Google I/O am 19. und 20. Mai nutzen, um weitere Details der agentischen Fähigkeiten zu demonstrieren. Erst dann dürften wir erfahren, ob diese Funktion auch zeitnah in Deutschland bereitgestellt wird.
(afl)