Online Marketing & SEO
Apple öffnet Siri für mehrere KI-Modelle
Mit iOS 27 kann Siri künftig auf mehrere KI-Modelle zugreifen. Die Sprachassistenz entwickelt sich so zur zentralen Schnittstelle für unterschiedliche AI-Dienste. Die Öffnung dürfte sich für Apple auch wirtschaftlich auszahlen. Googles Gemini möchte derweil AI User mit der Memory-Übernahme locken.
Apple zieht die nächste Evolutionsstufe für Siri hoch und verlagert den AI-Wettbewerb direkt aufs Gerät. Statt sich weiter auf einzelne Partner:innen zu stützen, baut der Konzern die Sprachassistenz zur offenen Schnittstelle für verschiedene KI-Modelle um. Damit knüpft Apple an frühere Entwicklungen an, bei denen bereits eine stärkere Integration von Chatbot-Funktionen und Modellen wie Gemini diskutiert wurde.
Laut Bloomberg-Reporter Mark Gurman sollen User ab iOS 27 erstmals selbst entscheiden können, mit welchem Modell sie sprechen oder chatten. Der Publisher Bloomberg berichtete zuerst, dass Apple Siri für externe AI-Dienste öffnet und damit das Betriebssystem selbst zur zentralen Steuerungsebene für AI-Anwendungen macht. Die Vorstellung der neuen Siri-Architektur wird für die WWDC im Juni erwartet. Die Funktion soll mit iOS 27, iPadOS 27 und macOS umfassend eingeführt werden.
ChatGPT-Konkurrenz:
Apple macht Siri zum AI-Chatbot
Apple öffnet Siri und verdient an jedem KI-Modell mit
Mit dem Feature Extensions baut Apple Siri zur modularen AI-Schaltzentrale aus. User laden KI-Apps wie gewohnt herunter und schalten sie in den Einstellungen für Apple Intelligence frei. Siri wird damit zum Interface, das zwischen verschiedenen Modellen vermittelt und je nach Anfrage den passenden Dienst einbindet.
2024 setzte Apple noch auf einen pragmatischen Zwischenschritt und integrierte OpenAI und ChatGPT, um Siri schnell mit KI-Funktionen aufzurüsten. Laut Bloomberg floss dafür kein Geld, entscheidend war vor allem der Zeitgewinn im eigenen AI-Rennen. Inzwischen löst sich Apple vom One-Partner-Modell und öffnet die eigene Infrastruktur für mehrere Anbieter:innen. Statt einer festen Lösung entsteht ein System, in dem verschiedene KI-Modelle parallel verfügbar sind und über Siri gesteuert werden. Die Zusammenarbeit mit Google bleibt dabei bestehen und soll weiterhin eine Rolle spielen, etwa bei der Bereitstellung zusätzlicher KI-Funktionen für Siri.
Die Öffnung dürfte sich für Apple auch wirtschaftlich auszahlen. Mit jedem zusätzlichen Dienst, der über Apps eingebunden und monetarisiert wird, wächst nicht nur das Angebot auf dem Gerät, sondern auch die Zahl der Transaktionen, an denen Apple über den App Store beteiligt ist. Konkret kann der Konzern bei Abos für externe KI-Dienste weiterhin mitverdienen – historisch mit bis zu 30 Prozent Provision. Auf diesem Prinzip basieren große Teile der Service-Umsätze, von Apps über Games bis hin zu Subscriptions. Gleichzeitig steht das Modell unter starkem regulatorischem Druck und wurde infolge gesetzlicher Vorgaben bereits angepasst. Der Digital Markets Act verpflichtet Apple als Gatekeeper dazu, alternative App Stores und externe Zahlungswege zuzulassen sowie Entwickler:innen aktiv auf Kaufoptionen außerhalb hinzuweisen. Eine pauschale Beteiligung an allen Transaktionen lässt sich damit nicht mehr uneingeschränkt durchsetzen.
Apple macht Platz für KI-Modelle, die Konkurrenz bindet die User
Die Konkurrenz Apples setzt genau dort an, wo viele Wechsel scheitern – beim Verlust von Kontext. Google baut die Gemini App so aus, dass Erinnerungen, Präferenzen und sogar komplette Chat-Verläufe aus anderen AI Tools übernommen werden können. Die Funktion wird zunächst auf Desktop ausgerollt und kommt anschließend auch in die mobile App. Statt wieder bei null zu beginnen, lässt sich der eigene Nutzungskontext übertragen und direkt weiterführen. Gemini greift dabei nicht nur auf importierte Inhalte zurück, sondern kann – wenn freigegeben – ebenso Informationen aus Diensten wie Gmail, Google Fotos oder der Suche einbeziehen.
Auch Anthropic verfolgt einen vergleichbaren Ansatz, der auf die Übertragbarkeit von Nutzungskontexten abzielt. Mit Claude lassen sich inzwischen gespeicherte Informationen, Präferenzen und Interaktionsverläufe aus anderen AI-Diensten importieren und direkt weiterverwenden. Dadurch entfällt der erneute Aufbau von Kontext, und das System kann von Beginn an auf bestehende Arbeitsweisen und Inhalte zurückgreifen.