Connect with us

Online Marketing & SEO

Apple öffnet Siri für mehrere KI-Modelle


Mit iOS 27 kann Siri künftig auf mehrere KI-Modelle zugreifen. Die Sprachassistenz entwickelt sich so zur zentralen Schnittstelle für unterschiedliche AI-Dienste. Die Öffnung dürfte sich für Apple auch wirtschaftlich auszahlen. Googles Gemini möchte derweil AI User mit der Memory-Übernahme locken.

Apple zieht die nächste Evolutionsstufe für Siri hoch und verlagert den AI-Wettbewerb direkt aufs Gerät. Statt sich weiter auf einzelne Partner:innen zu stützen, baut der Konzern die Sprachassistenz zur offenen Schnittstelle für verschiedene KI-Modelle um. Damit knüpft Apple an frühere Entwicklungen an, bei denen bereits eine stärkere Integration von Chatbot-Funktionen und Modellen wie Gemini diskutiert wurde.

Laut Bloomberg-Reporter Mark Gurman sollen User ab iOS 27 erstmals selbst entscheiden können, mit welchem Modell sie sprechen oder chatten. Der Publisher Bloomberg berichtete zuerst, dass Apple Siri für externe AI-Dienste öffnet und damit das Betriebssystem selbst zur zentralen Steuerungsebene für AI-Anwendungen macht. Die Vorstellung der neuen Siri-Architektur wird für die WWDC im Juni erwartet. Die Funktion soll mit iOS 27, iPadOS 27 und macOS umfassend eingeführt werden.


ChatGPT-Konkurrenz:
Apple macht Siri zum AI-Chatbot


Apple öffnet Siri und verdient an jedem KI-Modell mit

Mit dem Feature Extensions baut Apple Siri zur modularen AI-Schaltzentrale aus. User laden KI-Apps wie gewohnt herunter und schalten sie in den Einstellungen für Apple Intelligence frei. Siri wird damit zum Interface, das zwischen verschiedenen Modellen vermittelt und je nach Anfrage den passenden Dienst einbindet.

2024 setzte Apple noch auf einen pragmatischen Zwischenschritt und integrierte OpenAI und ChatGPT, um Siri schnell mit KI-Funktionen aufzurüsten. Laut Bloomberg floss dafür kein Geld, entscheidend war vor allem der Zeitgewinn im eigenen AI-Rennen. Inzwischen löst sich Apple vom One-Partner-Modell und öffnet die eigene Infrastruktur für mehrere Anbieter:innen. Statt einer festen Lösung entsteht ein System, in dem verschiedene KI-Modelle parallel verfügbar sind und über Siri gesteuert werden. Die Zusammenarbeit mit Google bleibt dabei bestehen und soll weiterhin eine Rolle spielen, etwa bei der Bereitstellung zusätzlicher KI-Funktionen für Siri.

Die Öffnung dürfte sich für Apple auch wirtschaftlich auszahlen. Mit jedem zusätzlichen Dienst, der über Apps eingebunden und monetarisiert wird, wächst nicht nur das Angebot auf dem Gerät, sondern auch die Zahl der Transaktionen, an denen Apple über den App Store beteiligt ist. Konkret kann der Konzern bei Abos für externe KI-Dienste weiterhin mitverdienen – historisch mit bis zu 30 Prozent Provision. Auf diesem Prinzip basieren große Teile der Service-Umsätze, von Apps über Games bis hin zu Subscriptions. Gleichzeitig steht das Modell unter starkem regulatorischem Druck und wurde infolge gesetzlicher Vorgaben bereits angepasst. Der Digital Markets Act verpflichtet Apple als Gatekeeper dazu, alternative App Stores und externe Zahlungswege zuzulassen sowie Entwickler:innen aktiv auf Kaufoptionen außerhalb hinzuweisen. Eine pauschale Beteiligung an allen Transaktionen lässt sich damit nicht mehr uneingeschränkt durchsetzen.

Apple macht Platz für KI-Modelle, die Konkurrenz bindet die User

Die Konkurrenz Apples setzt genau dort an, wo viele Wechsel scheitern – beim Verlust von Kontext. Google baut die Gemini App so aus, dass Erinnerungen, Präferenzen und sogar komplette Chat-Verläufe aus anderen AI Tools übernommen werden können. Die Funktion wird zunächst auf Desktop ausgerollt und kommt anschließend auch in die mobile App. Statt wieder bei null zu beginnen, lässt sich der eigene Nutzungskontext übertragen und direkt weiterführen. Gemini greift dabei nicht nur auf importierte Inhalte zurück, sondern kann – wenn freigegeben – ebenso Informationen aus Diensten wie Gmail, Google Fotos oder der Suche einbeziehen.

Auch Anthropic verfolgt einen vergleichbaren Ansatz, der auf die Übertragbarkeit von Nutzungskontexten abzielt. Mit Claude lassen sich inzwischen gespeicherte Informationen, Präferenzen und Interaktionsverläufe aus anderen AI-Diensten importieren und direkt weiterverwenden. Dadurch entfällt der erneute Aufbau von Kontext, und das System kann von Beginn an auf bestehende Arbeitsweisen und Inhalte zurückgreifen.


Claude lässt dich ChatGPT Memory jetzt for free importieren
– Wechsel wird einfacher

Textfeld zum Import von Memory bei Claude, schwarzweiß auf beigefarbenem Hintergrund
© Anthropic via Canva





Source link

Online Marketing & SEO

Reels Trending Ads: Meta verkauft virale Aufmerksamkeit


Meta baut Werbung im kulturellen Moment weiter aus: Ads erscheinen neben noch mehr viralen Reels rund um Groß-Events, Creator treiben Verkäufe und GenAI produziert Content in Serie. Marken können so direkt an Trends andocken, statt sie zeitverzögert zu bespielen.

Social Media und Kultur verschmelzen zunehmend. Auf TikTok entscheidet #BookTok inzwischen mit darüber, welche Bücher zu Bestsellern werden, und YouTube sicherte sich die Übertragung der Oscars ab 2029. Meta will diese Dynamik nicht nur orchestrieren, sondern sie auch monetarisieren und kulturelle Aufmerksamkeit zum buchbaren Inventar machen.

Auf den IAB Newfronts, einem Event für digitale Werbung, und der Shoptalk, einer Konferenz für E-Commerce und Retail, zeigte der Konzern, wie Marken in kulturelle Peak-Momente eingebettet werden. Reels Trending Ads werden ausgebaut und direkt mit viralen Momenten verknüpft, während neue Creator und GenAI Features Content, Commerce und Performance enger verzahnen. Laut Konzern bieten die Plattformen aktuell die beste Umgebung für Creator-Kooperationen, vor YouTube und TikTok. 2025 zahlte Meta fast drei Milliarden US-Dollar an Creator aus, ein Plus von 35 Prozent im Vergleich zum Vorjahr.

Der beste Werbeplatz ist jetzt der virale Kulturmoment

Meta erweitert Reels Trending Ads und macht daraus ein Premiuminventar für kulturelle Ereignisse. Ads lassen sich künftig rund um Events wie Fashion Week, Formel 1 oder Black Friday platzieren, ergänzt um neue Kategorien wie TV, Travel oder Finance. Wie Meta bestätigt, werden Ads direkt nach besonders relevanten Reels ausgespielt. Also genau dort, wo User ohnehin aufmerksam sind. Werbung orientiert sich damit weniger an klassischen Zielgruppen und stärker an Momenten mit hoher Aufmerksamkeit. Parallel testet Meta ein neues Buchungsmodell für solche Peak-Momente, etwa rund um große kulturelle Ereignisse, saisonale Hochphasen oder Produkt-Launches. Advertiser können sich Zeitfenster von bis zu 24 Stunden sichern, um in Phasen besonders hoher Aufmerksamkeit präsent zu sein.

Die Entwicklung rund um Reels Trending Ads wird auch durch Nutzungs- und Wirkungsdaten gestützt. Laut Meta ist die Video-Watchtime auf Instagram im Jahresvergleich um mehr als 30 Prozent gestiegen, was die wachsende Bedeutung von Video im Nutzungsmix unterstreicht. Gleichzeitig zeigen interne Analysen, dass Reels Trending Ads einen zusätzlichen Ad Recall Lift von 6,6 Prozentpunkten erzielen, also messbar stärker im Gedächtnis der Nutzer:innen bleiben als vergleichbare Kampagnen ohne diese Platzierung.

Darstellung von Instagram Reels Trending Ads zwischen zwei organischen Reels, die zeigen, wie Werbung direkt neben stark performenden Inhalten im Feed ausgespielt wird.
Reels Trending Ads platzieren Werbung direkt neben besonders populären und kulturell relevanten Inhalten im Feed, © Meta

Der Konzern adressiert mit Reels Trending Ads auch ein zentrales operatives Problem vieler Marketing Teams. Trends entstehen und skalieren im Feed in Echtzeit, während Kampagnen oft noch Planung, Abstimmung und Freigaben durchlaufen. Bis Inhalte live gehen, hat sich die Aufmerksamkeit der Nutzer:innen häufig bereits verlagert. Von Erinnerungen an 2016 bis hin zu Memes – ein gutes Beispiel liefern die zuletzt verbreiteten Videos und Bilder rund um Jon Hamm – zeigt sich, wie schnell sich Themen auf Social Media entwickeln und verbreiten.

Das Kurzvideoformat Reels etabliert sich damit zunehmend als zentraler Treiber kultureller Trends und Dynamiken. Auf Facebook wuchs die Videonutzung im vierten Quartal im Jahresvergleich weiterhin im zweistelligen Prozentbereich, und auf Instagram entfallen laut Meta bereits rund 85 Prozent der in Direktnachrichten geteilten Inhalte auf Reels.

Creator Commerce wird messbar und skalierbar

Reels wird zur Bühne für Marken, die an kulturellen Momenten andocken wollen, und Meta baut gleichzeitig die Verbindung zwischen Content und Kauf aus. Product Tagging ermöglicht es, Produkte direkt in Posts, Reels und Stories zu markieren. So verkürzt sich der Weg von Inspiration zum Kauf deutlich. Laut Meta wird Influencer Marketing damit erstmals durchgängig messbar, weil Verkäufe konkreten Creator-Kooperationen zugeordnet werden können. Der Roll-out ist für 22 Märkte geplant, darunter Deutschland.

Instagram Reel mit eingeblendeten Produkt-Tags für ein Serum sowie einer Produktübersicht, die User direkt aus dem Video heraus zum Kauf führt.
Product Tagging in Reels verbindet Content und Kauf, © Meta

Parallel entwickelt Meta den Creator Marketplace weiter und integriert Targeting-Funktionen direkt in den Ads Manager. Unternehmen können Creator nicht mehr nur nach Reichweite auswählen, sondern auch nach Zielgruppen-Fit und Performance-Potenzial.

Visualisierung eines KI-Tools von Meta, das aus einzelnen Bildern automatisch mehrere Videoanzeigen im UGC-Stil mit Voiceover und verschiedenen Varianten generiert.
GenAI-gestützte Videoerstellung wandelt statische Assets automatisch in skalierbare Video Ads im UGC-Stil um, © Meta

Auch der Partnership Ads Hub wird überarbeitet. Bestehende Creator-Inhalte lassen sich schneller in Kampagnen überführen und plattformübergreifend ausspielen, inklusive Facebook. Meta verweist darauf, dass die Kombination aus Creator Content und Paid Distribution zu niedrigeren Kosten pro Conversion und höheren Klickraten führt.

Ein Asset, viele Ads: Meta skaliert Creative mit GenAI

Meta baut zudem die Creative-Produktion innerhalb der Advantage+ Suite zur skalierbaren Infrastruktur aus. Neue GenAI Features ermöglichen es, aus einzelnen Bild-Assets automatisch Video-Ads zu generieren, ergänzt um UGC-Style-Varianten mit Avataren, KI-Voiceover, Übersetzungen sowie automatisch an Sprache und Markt angepasste Texte im Bild. Alle Anpassungen lassen sich gebündelt im Ads Manager steuern, sodass Inhalte schneller für unterschiedliche Märkte und Zielgruppen angepasst und in mehreren Varianten ausgespielt werden können, ohne zusätzliche Produktionsschritte. In ersten Tests zeigen Anzeigen, die überwiegend mit AI-gestützten Video-Tools erstellt wurden, höhere Klickraten und Conversion-Raten.

Darstellung eines Meta-Tools, das aus einzelnen Produktbildern automatisch verschiedene Videoanzeigen in Studio- und UGC-Stil generiert.
Aus wenigen Bild-Assets entstehen automatisch mehrere Video-Ads in unterschiedlichen Stilen, von Studio bis UGC, © Meta

Meta testet außerdem Funktionen, die Kataloge automatisch in Videoformate übersetzen und dynamisch in Reels ausspielen. Statt statischer Listings entstehen visuelle Inhalte, die sich nahtlos in den Feed einfügen und laut Unternehmen höhere Conversions erzielen.

Interface eines Video-Editors, der aus Produktkatalogen automatisch zahlreiche Videoanzeigen mit Intro, Produktdarstellung und Call-to-Action generiert.
Produktkataloge werden automatisch in skalierbare Videoanzeigen mit verschiedenen Varianten und Calls-to-Action übersetzt, © Meta





Source link

Weiterlesen

Online Marketing & SEO

Internationale Kampagne für neue Verpackung: Warum Chupa Chups künftig (endlich) leichter zu öffnen sind


Mit diesem Carbon-Lolli fordert Chupa Chups internationale Creators zu einer Challenge heraus

Lollis von Chupa Chups finden sich im Supermarkt, an der Tankstelle und an so ziemlich jeder Kasse im Späti um die Ecke. Doch trotz großer Fangemeinde gab es bislang ein Ärgernis, das den Lutschergenuss trübte: die teils kaum zu öffnende Verpackungsfolie. Das soll sich jetzt ändern.

Die bunten Chupa-Chups-Lollis in fruchtigen Geschmacksrichtungen erfreuen sich seit vielen Jahren großer Beliebtheit in allen Altersstufen. Bei

Jetzt Angebot wählen und weiterlesen!

1 Monat

29 €

  • zum Testen
  • danach 36,50 € mtl.

12 Monate

329 €

  • anstatt 439 €
  • 110€ sparen

24 Monate

529 €

  • anstatt 878 €
  • 349 € sparen

HORIZONT Digital

  • Vollzugriff auf HORIZONT Online mit allen Artikeln
  • E-Paper der Zeitung und Magazine
  • Online-Printarchiv

HORIZONT Digital-Mehrplatzlizenz für Ihr Team



Source link

Weiterlesen

Online Marketing & SEO

Google Search Live in Deutschland: Mit der Suche sprechen


Mit Search Live können User interaktiv und multimodal mit dem AI Mode interagieren, also die KI per Sprache und Video nach Informationen fragen. Der neuartige Suchmodus kommt jetzt mit neuem Gemini-Modell weltweit.

Frag einfach und Google kann dir helfen. Diese Prämisse für die Internetsuche erhält mit Google Search Live eine ganz neue Dimension. Denn der Modus erlaubt es Usern, per Stimme mit Googles KI zu sprechen und mit der Kamera die Dinge zu zeigen, über die man mehr erfahren möchte. Schon seit 2025 gibt es Search Live, seit Herbst vergangenen Jahres auch außerhalb der Google Labs. Seither konnten hunderte Millionen User Googles Live-Suche mit Kamera und Stimme nutzen, um beispielsweise Hilfe beim Kochen oder Reparieren, Infos beim Reisen oder Einkaufen zu erhalten. Wir haben bereits fünf konkrete Anwendungsoptionen dargestellt. Jetzt wird Search Live in alle Regionen gebracht, in denen der AI Mode schon vorhanden ist, also auch nach Deutschland.


Google Search Live:

5 Tipps zum Einsatz

Smartphone Mockup mit Google Search Live, daneben Live Icon von Google
© Google via Canva

Search Live mit neuem Gemini-Modell: Interaktive Suchhilfe mit noch schnelleren Antworten

Googles Search Live wird in über 200 Ländern und Regionen ausgerollt. Diese Suche soll dann auch in den jeweiligen Sprachen, auf denen der AI Mode verfügbar ist, zu nutzen sein.

Unterstützt wird die Sucherfahrung durch das neue Modell Gemini 3.1 Flash Live – nicht zu verwechseln mit dem kürzlich veröffentlichten Gemini 3.1 Flash-Lite. Flash Live bietet schnellere Antworten der KI, die besser auf den natürlichen Dialog eingehen können, der für die Live-Suche so wichtig ist. Außerdem wird die Länge der Konversationserinnerung für Search Live verdoppelt und das Modell stellt den multilingualen Support bereit, den diese Suche benötigt, um nicht nur auf Englisch Antworten auf verschiedene Problemstellungen bieten zu können. Das Modell wird in Search Live, in Gemini Live in der Gemini App, im AI Studio über die Gemini Live API und in der Google Cloud für Enterprises eingeführt.

So kannst du Search Live nutzen

Du kannst Search Live bereits in deiner Google App auf Android und iOS nutzen, indem du einfach das Live Icon – die drei Striche mit dem Stern, die an Sprache und AI erinnern sollen – antippst. Dann kannst du Fragen stellen, deine Kamera aktivieren oder auf vorgeschlagene Fragen an die KI eingehen. Die Antworten werden dir als Audio im Gespräch vermittelt, du kannst aber ebenso Transkripte einsehen.

Mit dieser Art der interaktiven Suchhilfe kannst du zum Beispiel Hilfe bei Handwerksarbeiten erhalten oder Informationen über die Umgebung um dich herum einholen. Über Google Lens kannst du Search Live als multimodale Suchassistenz ebenfalls starten.

Search Live kann eine drastische Veränderung im Suchverhalten der User ermöglichen, weg von der reinen Informationssuche, hin zu einer Kommunikation zu Live-Geschehnissen vor Ort. Während Google grundsätzlich mit den eigenen KI-Diensten die Art und Weise, wie wir das Internet nutzen, verändert, gibt es auch einen massiven Wandel in der Suchwelt. Google selbst schreibt bereits Artikel-Headlines per KI um und fasst zahlreiche Inhalte per AI Overview für die Suchergebnisse zusammen. Da wir schon in einem Agentic-AI-Zeitalter sind, browsen aber längst nicht mehr nur Menschen, sondern längst auch AI Agents; Google bietet mit Chrome bereits eine Funktion namens Auto Browse. Deshalb hat das Unternehmen kürzlich den Google-Agent eingeführt, um agentischer Suche gerecht zu werden und Seiten darauf vorzubereiten. Wie Semrush berichtet, ist dieser User Agent speziell für AI Agents gedacht, die das Web nach Informationen durchsuchen – wie es User bei verschiedenen Diensten einstellen können.





Source link

Weiterlesen

Beliebt