Online Marketing & SEO
Apple öffnet Siri für mehrere KI-Modelle
Mit iOS 27 kann Siri künftig auf mehrere KI-Modelle zugreifen. Die Sprachassistenz entwickelt sich so zur zentralen Schnittstelle für unterschiedliche AI-Dienste. Die Öffnung dürfte sich für Apple auch wirtschaftlich auszahlen. Googles Gemini möchte derweil AI User mit der Memory-Übernahme locken.
Apple zieht die nächste Evolutionsstufe für Siri hoch und verlagert den AI-Wettbewerb direkt aufs Gerät. Statt sich weiter auf einzelne Partner:innen zu stützen, baut der Konzern die Sprachassistenz zur offenen Schnittstelle für verschiedene KI-Modelle um. Damit knüpft Apple an frühere Entwicklungen an, bei denen bereits eine stärkere Integration von Chatbot-Funktionen und Modellen wie Gemini diskutiert wurde.
Laut Bloomberg-Reporter Mark Gurman sollen User ab iOS 27 erstmals selbst entscheiden können, mit welchem Modell sie sprechen oder chatten. Der Publisher Bloomberg berichtete zuerst, dass Apple Siri für externe AI-Dienste öffnet und damit das Betriebssystem selbst zur zentralen Steuerungsebene für AI-Anwendungen macht. Die Vorstellung der neuen Siri-Architektur wird für die WWDC im Juni erwartet. Die Funktion soll mit iOS 27, iPadOS 27 und macOS umfassend eingeführt werden.
ChatGPT-Konkurrenz:
Apple macht Siri zum AI-Chatbot
Apple öffnet Siri und verdient an jedem KI-Modell mit
Mit dem Feature Extensions baut Apple Siri zur modularen AI-Schaltzentrale aus. User laden KI-Apps wie gewohnt herunter und schalten sie in den Einstellungen für Apple Intelligence frei. Siri wird damit zum Interface, das zwischen verschiedenen Modellen vermittelt und je nach Anfrage den passenden Dienst einbindet.
2024 setzte Apple noch auf einen pragmatischen Zwischenschritt und integrierte OpenAI und ChatGPT, um Siri schnell mit KI-Funktionen aufzurüsten. Laut Bloomberg floss dafür kein Geld, entscheidend war vor allem der Zeitgewinn im eigenen AI-Rennen. Inzwischen löst sich Apple vom One-Partner-Modell und öffnet die eigene Infrastruktur für mehrere Anbieter:innen. Statt einer festen Lösung entsteht ein System, in dem verschiedene KI-Modelle parallel verfügbar sind und über Siri gesteuert werden. Die Zusammenarbeit mit Google bleibt dabei bestehen und soll weiterhin eine Rolle spielen, etwa bei der Bereitstellung zusätzlicher KI-Funktionen für Siri.
Die Öffnung dürfte sich für Apple auch wirtschaftlich auszahlen. Mit jedem zusätzlichen Dienst, der über Apps eingebunden und monetarisiert wird, wächst nicht nur das Angebot auf dem Gerät, sondern auch die Zahl der Transaktionen, an denen Apple über den App Store beteiligt ist. Konkret kann der Konzern bei Abos für externe KI-Dienste weiterhin mitverdienen – historisch mit bis zu 30 Prozent Provision. Auf diesem Prinzip basieren große Teile der Service-Umsätze, von Apps über Games bis hin zu Subscriptions. Gleichzeitig steht das Modell unter starkem regulatorischem Druck und wurde infolge gesetzlicher Vorgaben bereits angepasst. Der Digital Markets Act verpflichtet Apple als Gatekeeper dazu, alternative App Stores und externe Zahlungswege zuzulassen sowie Entwickler:innen aktiv auf Kaufoptionen außerhalb hinzuweisen. Eine pauschale Beteiligung an allen Transaktionen lässt sich damit nicht mehr uneingeschränkt durchsetzen.
Apple macht Platz für KI-Modelle, die Konkurrenz bindet die User
Die Konkurrenz Apples setzt genau dort an, wo viele Wechsel scheitern – beim Verlust von Kontext. Google baut die Gemini App so aus, dass Erinnerungen, Präferenzen und sogar komplette Chat-Verläufe aus anderen AI Tools übernommen werden können. Die Funktion wird zunächst auf Desktop ausgerollt und kommt anschließend auch in die mobile App. Statt wieder bei null zu beginnen, lässt sich der eigene Nutzungskontext übertragen und direkt weiterführen. Gemini greift dabei nicht nur auf importierte Inhalte zurück, sondern kann – wenn freigegeben – ebenso Informationen aus Diensten wie Gmail, Google Fotos oder der Suche einbeziehen.
Auch Anthropic verfolgt einen vergleichbaren Ansatz, der auf die Übertragbarkeit von Nutzungskontexten abzielt. Mit Claude lassen sich inzwischen gespeicherte Informationen, Präferenzen und Interaktionsverläufe aus anderen AI-Diensten importieren und direkt weiterverwenden. Dadurch entfällt der erneute Aufbau von Kontext, und das System kann von Beginn an auf bestehende Arbeitsweisen und Inhalte zurückgreifen.
Claude lässt dich ChatGPT Memory jetzt for free importieren
– Wechsel wird einfacher

Online Marketing & SEO
Reels Trending Ads: Meta verkauft virale Aufmerksamkeit
Meta baut Werbung im kulturellen Moment weiter aus: Ads erscheinen neben noch mehr viralen Reels rund um Groß-Events, Creator treiben Verkäufe und GenAI produziert Content in Serie. Marken können so direkt an Trends andocken, statt sie zeitverzögert zu bespielen.
Social Media und Kultur verschmelzen zunehmend. Auf TikTok entscheidet #BookTok inzwischen mit darüber, welche Bücher zu Bestsellern werden, und YouTube sicherte sich die Übertragung der Oscars ab 2029. Meta will diese Dynamik nicht nur orchestrieren, sondern sie auch monetarisieren und kulturelle Aufmerksamkeit zum buchbaren Inventar machen.
Auf den IAB Newfronts, einem Event für digitale Werbung, und der Shoptalk, einer Konferenz für E-Commerce und Retail, zeigte der Konzern, wie Marken in kulturelle Peak-Momente eingebettet werden. Reels Trending Ads werden ausgebaut und direkt mit viralen Momenten verknüpft, während neue Creator und GenAI Features Content, Commerce und Performance enger verzahnen. Laut Konzern bieten die Plattformen aktuell die beste Umgebung für Creator-Kooperationen, vor YouTube und TikTok. 2025 zahlte Meta fast drei Milliarden US-Dollar an Creator aus, ein Plus von 35 Prozent im Vergleich zum Vorjahr.
Der beste Werbeplatz ist jetzt der virale Kulturmoment
Meta erweitert Reels Trending Ads und macht daraus ein Premiuminventar für kulturelle Ereignisse. Ads lassen sich künftig rund um Events wie Fashion Week, Formel 1 oder Black Friday platzieren, ergänzt um neue Kategorien wie TV, Travel oder Finance. Wie Meta bestätigt, werden Ads direkt nach besonders relevanten Reels ausgespielt. Also genau dort, wo User ohnehin aufmerksam sind. Werbung orientiert sich damit weniger an klassischen Zielgruppen und stärker an Momenten mit hoher Aufmerksamkeit. Parallel testet Meta ein neues Buchungsmodell für solche Peak-Momente, etwa rund um große kulturelle Ereignisse, saisonale Hochphasen oder Produkt-Launches. Advertiser können sich Zeitfenster von bis zu 24 Stunden sichern, um in Phasen besonders hoher Aufmerksamkeit präsent zu sein.
Die Entwicklung rund um Reels Trending Ads wird auch durch Nutzungs- und Wirkungsdaten gestützt. Laut Meta ist die Video-Watchtime auf Instagram im Jahresvergleich um mehr als 30 Prozent gestiegen, was die wachsende Bedeutung von Video im Nutzungsmix unterstreicht. Gleichzeitig zeigen interne Analysen, dass Reels Trending Ads einen zusätzlichen Ad Recall Lift von 6,6 Prozentpunkten erzielen, also messbar stärker im Gedächtnis der Nutzer:innen bleiben als vergleichbare Kampagnen ohne diese Platzierung.

Der Konzern adressiert mit Reels Trending Ads auch ein zentrales operatives Problem vieler Marketing Teams. Trends entstehen und skalieren im Feed in Echtzeit, während Kampagnen oft noch Planung, Abstimmung und Freigaben durchlaufen. Bis Inhalte live gehen, hat sich die Aufmerksamkeit der Nutzer:innen häufig bereits verlagert. Von Erinnerungen an 2016 bis hin zu Memes – ein gutes Beispiel liefern die zuletzt verbreiteten Videos und Bilder rund um Jon Hamm – zeigt sich, wie schnell sich Themen auf Social Media entwickeln und verbreiten.
Das Kurzvideoformat Reels etabliert sich damit zunehmend als zentraler Treiber kultureller Trends und Dynamiken. Auf Facebook wuchs die Videonutzung im vierten Quartal im Jahresvergleich weiterhin im zweistelligen Prozentbereich, und auf Instagram entfallen laut Meta bereits rund 85 Prozent der in Direktnachrichten geteilten Inhalte auf Reels.
Creator Commerce wird messbar und skalierbar
Reels wird zur Bühne für Marken, die an kulturellen Momenten andocken wollen, und Meta baut gleichzeitig die Verbindung zwischen Content und Kauf aus. Product Tagging ermöglicht es, Produkte direkt in Posts, Reels und Stories zu markieren. So verkürzt sich der Weg von Inspiration zum Kauf deutlich. Laut Meta wird Influencer Marketing damit erstmals durchgängig messbar, weil Verkäufe konkreten Creator-Kooperationen zugeordnet werden können. Der Roll-out ist für 22 Märkte geplant, darunter Deutschland.

Parallel entwickelt Meta den Creator Marketplace weiter und integriert Targeting-Funktionen direkt in den Ads Manager. Unternehmen können Creator nicht mehr nur nach Reichweite auswählen, sondern auch nach Zielgruppen-Fit und Performance-Potenzial.
Auch der Partnership Ads Hub wird überarbeitet. Bestehende Creator-Inhalte lassen sich schneller in Kampagnen überführen und plattformübergreifend ausspielen, inklusive Facebook. Meta verweist darauf, dass die Kombination aus Creator Content und Paid Distribution zu niedrigeren Kosten pro Conversion und höheren Klickraten führt.
Ein Asset, viele Ads: Meta skaliert Creative mit GenAI
Meta baut zudem die Creative-Produktion innerhalb der Advantage+ Suite zur skalierbaren Infrastruktur aus. Neue GenAI Features ermöglichen es, aus einzelnen Bild-Assets automatisch Video-Ads zu generieren, ergänzt um UGC-Style-Varianten mit Avataren, KI-Voiceover, Übersetzungen sowie automatisch an Sprache und Markt angepasste Texte im Bild. Alle Anpassungen lassen sich gebündelt im Ads Manager steuern, sodass Inhalte schneller für unterschiedliche Märkte und Zielgruppen angepasst und in mehreren Varianten ausgespielt werden können, ohne zusätzliche Produktionsschritte. In ersten Tests zeigen Anzeigen, die überwiegend mit AI-gestützten Video-Tools erstellt wurden, höhere Klickraten und Conversion-Raten.

Meta testet außerdem Funktionen, die Kataloge automatisch in Videoformate übersetzen und dynamisch in Reels ausspielen. Statt statischer Listings entstehen visuelle Inhalte, die sich nahtlos in den Feed einfügen und laut Unternehmen höhere Conversions erzielen.

Online Marketing & SEO
Internationale Kampagne für neue Verpackung: Warum Chupa Chups künftig (endlich) leichter zu öffnen sind
Mit diesem Carbon-Lolli fordert Chupa Chups internationale Creators zu einer Challenge heraus
Lollis von Chupa Chups finden sich im Supermarkt, an der Tankstelle und an so ziemlich jeder Kasse im Späti um die Ecke. Doch trotz großer Fangemeinde gab es bislang ein Ärgernis, das den Lutschergenuss trübte: die teils kaum zu öffnende Verpackungsfolie. Das soll sich jetzt ändern.
Die bunten Chupa-Chups-Lollis in fruchtigen Geschmacksrichtungen erfreuen sich seit vielen Jahren großer Beliebtheit in allen Altersstufen. Bei
Jetzt Angebot wählen und weiterlesen!
HORIZONT Digital
- Vollzugriff auf HORIZONT Online mit allen Artikeln
- E-Paper der Zeitung und Magazine
- Online-Printarchiv
HORIZONT Digital-Mehrplatzlizenz für Ihr Team
Online Marketing & SEO
Google Search Live in Deutschland: Mit der Suche sprechen
Mit Search Live können User interaktiv und multimodal mit dem AI Mode interagieren, also die KI per Sprache und Video nach Informationen fragen. Der neuartige Suchmodus kommt jetzt mit neuem Gemini-Modell weltweit.
Frag einfach und Google kann dir helfen. Diese Prämisse für die Internetsuche erhält mit Google Search Live eine ganz neue Dimension. Denn der Modus erlaubt es Usern, per Stimme mit Googles KI zu sprechen und mit der Kamera die Dinge zu zeigen, über die man mehr erfahren möchte. Schon seit 2025 gibt es Search Live, seit Herbst vergangenen Jahres auch außerhalb der Google Labs. Seither konnten hunderte Millionen User Googles Live-Suche mit Kamera und Stimme nutzen, um beispielsweise Hilfe beim Kochen oder Reparieren, Infos beim Reisen oder Einkaufen zu erhalten. Wir haben bereits fünf konkrete Anwendungsoptionen dargestellt. Jetzt wird Search Live in alle Regionen gebracht, in denen der AI Mode schon vorhanden ist, also auch nach Deutschland.
Google Search Live:
5 Tipps zum Einsatz

Search Live mit neuem Gemini-Modell: Interaktive Suchhilfe mit noch schnelleren Antworten
Googles Search Live wird in über 200 Ländern und Regionen ausgerollt. Diese Suche soll dann auch in den jeweiligen Sprachen, auf denen der AI Mode verfügbar ist, zu nutzen sein.
Unterstützt wird die Sucherfahrung durch das neue Modell Gemini 3.1 Flash Live – nicht zu verwechseln mit dem kürzlich veröffentlichten Gemini 3.1 Flash-Lite. Flash Live bietet schnellere Antworten der KI, die besser auf den natürlichen Dialog eingehen können, der für die Live-Suche so wichtig ist. Außerdem wird die Länge der Konversationserinnerung für Search Live verdoppelt und das Modell stellt den multilingualen Support bereit, den diese Suche benötigt, um nicht nur auf Englisch Antworten auf verschiedene Problemstellungen bieten zu können. Das Modell wird in Search Live, in Gemini Live in der Gemini App, im AI Studio über die Gemini Live API und in der Google Cloud für Enterprises eingeführt.
So kannst du Search Live nutzen
Du kannst Search Live bereits in deiner Google App auf Android und iOS nutzen, indem du einfach das Live Icon – die drei Striche mit dem Stern, die an Sprache und AI erinnern sollen – antippst. Dann kannst du Fragen stellen, deine Kamera aktivieren oder auf vorgeschlagene Fragen an die KI eingehen. Die Antworten werden dir als Audio im Gespräch vermittelt, du kannst aber ebenso Transkripte einsehen.
Mit dieser Art der interaktiven Suchhilfe kannst du zum Beispiel Hilfe bei Handwerksarbeiten erhalten oder Informationen über die Umgebung um dich herum einholen. Über Google Lens kannst du Search Live als multimodale Suchassistenz ebenfalls starten.
Search Live kann eine drastische Veränderung im Suchverhalten der User ermöglichen, weg von der reinen Informationssuche, hin zu einer Kommunikation zu Live-Geschehnissen vor Ort. Während Google grundsätzlich mit den eigenen KI-Diensten die Art und Weise, wie wir das Internet nutzen, verändert, gibt es auch einen massiven Wandel in der Suchwelt. Google selbst schreibt bereits Artikel-Headlines per KI um und fasst zahlreiche Inhalte per AI Overview für die Suchergebnisse zusammen. Da wir schon in einem Agentic-AI-Zeitalter sind, browsen aber längst nicht mehr nur Menschen, sondern längst auch AI Agents; Google bietet mit Chrome bereits eine Funktion namens Auto Browse. Deshalb hat das Unternehmen kürzlich den Google-Agent eingeführt, um agentischer Suche gerecht zu werden und Seiten darauf vorzubereiten. Wie Semrush berichtet, ist dieser User Agent speziell für AI Agents gedacht, die das Web nach Informationen durchsuchen – wie es User bei verschiedenen Diensten einstellen können.
Google has introduced a new development: Google-Agent.
This is a user agent built specifically for AI agents that browse the web and perform tasks on behalf of users.
This represents a shift toward agent-driven search and introduces a new layer of optimization: Agent Search… pic.twitter.com/189lcfHCZN
— Semrush (@semrush) March 26, 2026
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 4 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 1 Monat
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
-
Künstliche Intelligenzvor 3 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
