Connect with us

Online Marketing & SEO

AI Mode zeigt in Bildern, was du nicht in Worte fassen kannst


Vibe-Check mit Google: Im AI Mode können User jetzt konversationell Fragen stellen und reichhaltige visuelle Ergebnisse erhalten, auch für den Shopping-Kontext. Das Update folgt kurz nach dem Roll-out der Search Live-Option.

Du suchst nach einer Jacke im 80s Chic mit einem ganz bestimmten Schnitt, nach Inspiration für deine Inneneinrichtung im Japandi-Style oder Accessoires, die einen spezifischen Vibe mitbringen? Wenn dir dafür in der Google-Suche die präzisen Wörter oder Keywords fehlen, soll das künftig kein Problem mehr sein. Denn Google bringt eine neue Suchfunktion in den AI Mode, die visuelle Unterstützung auch bei eher vagen Fragen im konversationellen Modus bietet. Dank der multimodalen und hochleistungsfähigen Sprach- und Reasoning-Fähigkeiten von Gemini 2.5 kann der AI Mode bei Anfragen umfassende Inhalte und Bilder liefern. Diese können als Touchpoint zum Shopping oder für die weitere Recherche genutzt werden. Immerhin können User die Suche im Gespräch mit der KI verfeinern und sogar nach konkreten Details aus Bildergebnissen fragen.

So wird die Google-Suche im AI Mode nach dem Roll-out von Search Live immer mehr zu einer vielschichtigen KI-Assistenz – aber noch immer nicht für alle.


Gradient G:

Google mit neuem Logo für alle Bereiche

Zwei Google-Logos vor weißem Hintergrund, eines mit Farbverlauf
© Google via Canva

Visuelle und konversationelle Suchhilfe vom AI Mode oder der Style-Check mit Google

Das Suchen mit Google wird immer einfacher. Dafür sorgt insbesondere der noch junge AI Mode. Als konversationelle KI-Unterstützung mit multimodalen Fähigkeiten bietet er im Vergleich zu den AI Overviews deutlich ausführlichere Antworten, etwa auf Fragen, die mehr rationale Evaluierung, Vergleichsgrößen oder weiterführende Sondierungen benötigen. Der AI Mode soll Usern erlauben, nuancierte Fragen zu stellen und eine ausführliche Antwort zu erhalten, für die es ohne den Modus mehrere Anfragen gebraucht hätte. Dabei unterstützt eine maßgeschneiderte Version von Gemini 2.5 den Modus. Shopping-Daten, Echtzeitinformationen und die wichtigsten Quellen werden herangezogen, um verständliche und passende Antworten zu finden.

Dafür fasst Google diverse verwandte Suchkontexte zu Unterthemen parallel zusammen und kreiert eine auf die Suchintention zugeschnittene Antwort. Mit dem als Fan-out-Praktik für Suchanfragen bezeichneten Verfahren nutzt Google ein umfassendes Reasoning. Dabei werden die Suchanfragen in Unterkategorien aufgeteilt, zu denen die KI unterschiedliche Suchen unternimmt, um sowohl aus dem Web als auch von Google – etwa aus Knowledge Graphs – relevante Informationen zusammenzutragen. Diese Antworten spielt der AI Mode inzwischen auch bei multimodalen Suchen aus.

Und um diese geht es mit der neuen Visual Search. Robby Stein, VP of Product für die Google Search, stellt sie auf X vor. Er beschreibt die Option als Weg, um von einer Idee oder wenigen Worten schnell zu passenden Bildern oder gar Shopping-Optionen zu gelangen, die deiner Idee entsprechen. Für die Bereitstellung passender Ergebnisse auch im visuellen Kontext – also etwa Bilder zur vage erfragten Jacke im 80s Chic – setzt Google auf das neue Visual-search-fan-out-Verfahren.

Details zur Veränderung des AI Mode: US User im Vorteil

Das erklärt Stein gemeinsam mit Lilian Rincon, VP of Product für Consumer Shopping, auf dem Blog The Keyword. Dort schreiben sie darüber, wie Google die visuelle Entdeckung natürlicher machen möchte, also mit natürlicher Sprache und Konversation im AI Mode. Dabei betonen sie, dass das neue Feature vorerst nur auf Englisch und in den USA ausgerollt wird.

Die Verfügbarkeit der Funktion könnte bald für weitere Märkte folgen. Genau wie für die neue Suchoption Search Live, bei der User mit ihrer Stimme und Kamera live Fragen an den AI Mode stellen und passende Echtzeitantworten erhalten können. Auch diese Option verschiebt die Google-Suche weiter in den Bereich natürlicher Sprache, die Googles KI-Modell besser denn je versteht. Mit Gemini 3 könnten sich die Fähigkeiten sogar noch steigern, vor allem, wenn Milliarden User Daten und Kontexte für das Training bereitstellen, etwa durch Search Live oder die Visual Search.

Der AI Mode ist bereits in über 180 Ländern und auf verschiedenen Sprachen verfügbar, in der EU müssen die User aber noch auf ihn warten.


Mit Stimme und Kamera suchen:

Google Search Live endlich im Roll-out

Smartphone Mockup mit Google Search Live, daneben Live Icon von Google
© Google via Canva

So bringt Google jetzt Suchideen und visuelle Ergebnisse zusammen

Im Blog Post geben Rincon und Stein konkrete Beispiele für die neue Visual Search preis. Suchen User beispielsweise nach Inspiration für ein maximalistisch eingerichtetes Schlafzimmer, liefert Google passende Bilder. Diese ersten Ergebnisse können die User dann optimieren, etwa nach dunklen oder hellen Tönen suchen, auf passende Links klicken oder mit Follow-up-Fragen die Recherche ausweiten. Auch können die User ihre Inspirationssuche ausgehend von Bildern oder Videos starten, die sie hochladen, da der AI Mode multimodalen Input verarbeiten kann.

Wenn dich zudem einzelne Details aus Bildern interessieren, etwa ein Bett auf einem Bild in einem Schlafzimmer, das dir zusagt, kannst du den AI Mode direkt nach diesem Detail fragen. Du kannst Bildelemente einfach zur AI-Konversation hinzufügen, ein AI Mode Icon mit entsprechendem CTA erscheint dann im Visual.

Follow-up-Fragen zu Details im Bild sind ebenso möglich, © Google, Smartphone Mockup mit Bildern und AI Mode-Frageleiste auf Google
Follow-up-Fragen zu Details im Bild sind ebenso möglich, © Google

Statt auf zahlreiche Filter bei der Suche zu setzen, raten Rincon und Stein also zur verfeinerten Suche via AI Mode. So lässt sich beispielsweise die passende Jeans in einem ganz bestimmten Stil finden. Von der Startsuche mit „barrel jeans that aren’t too baggy“ bis hin zur angepassten Beinlänge geht es im konversationellen Modus schnell.

Shopping-Hilfe mit Hintergedanken in Googles AI Mode

Google kann bei der Auswahl auf über 50 Milliarden Produkt-Listings aus dem Shopping Graph zurückgreifen. Die Shopping-Beiträge zeigen Reviews, verschiedene Farboptionen und Verfügbarkeiten an. Jede Stunden werden über zwei Milliarden Listings aktualisiert, sodass Suchende immer passende Produkte finden können. Allerdings wird Google vorerst keinen Checkout direkt in der KI-Suche integrieren, wie es OpenAI jüngst mit dem Instant Checkout für ChatGPT und beispielsweise Shopify Seller ermöglicht hat. Das bestätigte Robby Stein gegenüber SEO-Experte Barry Schwartz.





Source link

Online Marketing & SEO

Schutz für Kinder: Britisches Werbeverbot für Junk-Food wird umgesetzt


In Großbritannien kommt ein Werbeverbot für ungesunde Lebensmittel

Weniger Werbung für Ungesundes: Vor allem Kinder sollen dadurch geschützt werden. Die britische Regierung erhofft sich langfristig Milliardeneinsparungen im Gesundheitssektor.

Chips, Pommes, Schokolade und Limonaden: Werbung für ungesunde Lebensmittel wird in Großbritannien von diesem Mittwoch an nur noch nach 21 Uhr im Fernsehen gesendet und im Internet gar nicht mehr. Damit kommt die Industrie einem Verbot zuvor, das Anfang des kommenden Jahres in Kraft treten und dabei helfen soll, Fettleibigkeit bei Kindern zurückzudrängen.

Die britische Labour-Regierung, die das Vorhaben bereits von der konservativen Vorgängerregierung übernommen hat, erhofft sich von der neuen Regelung, dass Lebensmittelproduzenten den Zucker- und Fettgehalt vieler Speisen verringern. Der Speiseplan von Kindern im Land werde um 7,2 Milliarden Kalorien reduziert, hieß es in einer Mitteilung des Gesundheitsministeriums in London.

Jedes zehnte vierjährige Kind leidet an Fettleibigkeit

Welche Lebensmittel von dem Werbeverbot betroffen sind, wird durch eine Beurteilung von deren Nährwert sowie dem Anteil an gesättigten Fettsäuren, Salz und Zucker bewertet. Langfristig sollen dadurch auch Milliarden Pfund an Behandlungskosten für den Gesundheitsdienst NHS entfallen.

In Großbritannien leidet Behördenangaben zufolge inzwischen jedes zehnte Kind im Alter von vier Jahren an Fettleibigkeit. Jedes Fünfte hat demnach im Alter von fünf Jahren Karies.

In Deutschland hatte der damalige Bundesernährungsminister Cem Özdemir (Grüne) 2023 versucht, Werbeverbote für ungesunde Produkte mit Blick auf Kinder auf den Weg zu bringen. Das scheiterte aber am Widerstand der damals mitregierenden FDP und wurde bis zum Bruch der Ampel-Koalition nicht umgesetzt. Die jetzige schwarz-rote Bundesregierung hat keine derartigen Pläne im Koalitionsvertrag vorgesehen.
Die Verbraucherorganisation Foodwatch rief die Bundesregierung auf, dem Beispiel aus Großbritannien zu folgen. „Fast 90 Prozent aller Menschen in Deutschland wünschen sich strenge Werbeschranken, um Kinder zu schützen“, sagte Anne Markwardt, die bei Foodwatch für Kampagnen und Recherche zuständig ist. Das sei ein klarer Arbeitsauftrag für Ernährungsminister Alois Rainer (CSU).



Source link

Weiterlesen

Online Marketing & SEO

Sora 2 ist da: OpenAIs „ChatGPT-Moment für Videos“


App und Modell greifen nahtlos ineinander: Während Nutzer:innen durch einen KI-Feed scrollen und Cameos erstellen können, liefert Sora 2 die technologische Basis. Das Modell arbeitet physikalisch präziser und realistischer und setzt Anweisungen genauer um – etwa zu Stil, Kamera, Dauer oder Bildausschnitt. Neu hinzu kommen erstmals synchronisierte Dialoge und Sound-Effekte. Die App ist darauf ausgelegt, zusammen mit Freund:innen genutzt zu werden. Testnutzer:innen betonen, dass gerade die Cameo-Funktion den besonderen Spaßfaktor ausmacht. Deshalb startet OpenAI die Anwendung zunächst als invite-only, damit User ihre Freund:innen direkt mitbringen können. Zum jetzigen Zeitpunkt gibt es die App außerdem nur für iOS.

Bei einem Pressegespräch am Montag sprachen OpenAI-Mitarbeiter:innen davon, so The Verge, die App könne zum „ChatGPT-Moment für Videos“ werden.


OpenAI will wie TikTok sein:
Sora 2 bringt KI-Videos in den Feed

OpenAI plant Social App wie TikTok mit AI-Videos
© OpenAI via Canva

Sora 2 liefert filmreife KI-Clips – Dialoge inklusive

Sora 2 ist OpenAIs neues Flaggschiff für Video und Audio. Schon das erste Sora-Modell aus dem Februar 2024 galt als eine Art „GPT-1-Moment“ für Videos. Zum ersten Mal funktionierte Videogenerierung sichtbar, und selbst einfache Prinzipien wie Objektbeständigkeit entstanden durch die höhere Rechenleistung beim Training.

Das neue Sora 2-Modell stellt Bewegungen, Kollisionen und Perspektivwechsel jetzt deutlich glaubwürdiger dar und bildet sogar Fehlschläge realistisch ab. Ein verfehlter Wurf prallt nun vom Brett ab, statt wie bei älteren Modellen einfach ins Ziel „zu springen“. Auch akrobatische Sprünge oder Skateboard-Tricks sehen natürlicher aus, weil das Modell physikalische Regeln besser beachtet.

Wichtig ist außerdem die Konsistenz in den Szenen. Sora 2 sorgt dafür, dass Details nicht plötzlich verschwinden oder sich zufällig verändern. Farben bleiben stabil, Objekte lösen sich nicht in Luft auf und Bewegungen laufen logisch weiter. Wenn ein Ball ins Bild rollt, ist er auch im nächsten Frame noch da – statt wie früher bei manchen Modellen einfach zu verschwinden.

Das Modell kann zudem unterschiedliche Stile umsetzen – ob realistisch, filmisch oder im Anime Look. Figuren und Objekte bleiben dabei erkennbar und wirken nicht verzerrt. So lassen sich ganze Szenen in einer klaren Ästhetik durchhalten, ohne dass Bildfehler auffallen.

Neu ist auch die Tonspur. Sora 2 erzeugt synchronisierte Dialoge, Hintergrundgeräusche und Sound-Effekte gleich mit. Dadurch fühlen sich Clips nicht nur echter an, sondern hören sich auch so an: Straßenlärm in einer Stadt, Stimmen in einem Gespräch oder atmosphärische Musik in einer Filmszene passen stimmig zusammen.

Zusätzlich kann Sora 2 Elemente aus der realen Welt in KI-Szenen einfügen. Menschen, Tiere oder Objekte werden mitsamt Aussehen und Stimme originalgetreu dargestellt. So lassen sich reale Personen direkt in generierte Clips einbinden – fast so, als wären sie selbst vor der Kamera gewesen. Ein Marketing Team könnte beispielsweise den:die Sprecher:in einer Marke einmal aufnehmen und dann für Produktvideos in verschiedenen Settings einsetzen – mal in einer animierten Stadt, mal auf einer virtuellen Bühne. So entsteht konsistenter Content mit Wiedererkennungswert, ohne dass die Person ständig vor der Kamera stehen muss.

Kurz gesagt: Mit Sora 2 geht es nicht mehr nur ums Experimentieren. Das Modell erstellt Videos, die wie selbstaufgenommene Aufnahmen wirken und sich kaum noch von gefilmtem Material unterscheiden lassen. Genau auf dieser Grundlage baut die neue Sora App auf: Nutzer:innen können kurze KI-Videos mit realitätsgetreuem Bild und Ton erstellen – ohne Kamera, aber mit einem Ergebnis, das fast so real wirkt wie ein Clip aus dem echten Leben.

Nach einer Einladung kannst du Sora 2 auch über sora.com nutzen. Zum Start ist das Modell kostenlos mit großzügigen Limits, bleibt aber an Rechenkapazitäten gebunden. ChatGPT Pro-Nutzer:innen haben zusätzlich Zugriff auf das experimentelle Sora 2 Pro – zunächst auf sora.com, bald auch in der App. Sora 2 wird außerdem in die API integriert, während Sora 1 Turbo und alle bisherigen Clips in deiner Bibliothek bestehen bleiben.

TikTok-Alternative? OpenAI startet Social App nur mit KI-Clips

Die Sora App baut direkt auf Sora 2 auf – im Look-and-Feel erinnert vieles an TikTok: vertikaler Feed, schnelle Loops, Trends. Der entscheidende Unterschied: Alles ist KI-generiert. Nutzer:innen scrollen durch einen personalisierten Stream, erstellen bis zu zehn Sekunden lange Clips oder remixen Szenen per Prompt. Uploads realer Videos entfallen; der gesamte Content entsteht innerhalb der App.

Nahtlos daran schließt das Kern-Feature Cameos an. Nach einmaliger Identitätsprüfung lässt sich das eigene Abbild inklusive Stimme in beliebige Szenen einfügen. Die Freigabe bleibt kontrollierbar – wer das Cameo nutzen darf, kann eingeschränkt oder jederzeit widerrufen werden. OpenAI beschreibt auf Threads sinngemäß, die App sei dafür gemacht, Inhalte zu erstellen, zu remixen und sich selbst oder Freund:innen per Cameo in Szenen zu bringen – in einem anpassbaren Feed nur für Sora-Videos.

Auf dieser Basis entfaltet Sora 2 das volle Potenzial: mehr Steuerbarkeit, konsistentere Physik und erstmals synchronisierte Dialoge sowie Sound-Effekte. Damit gewinnt der Remix eine zusätzliche Klangebene mit Stimmen, Geräuschkulissen und filmischen Soundscapes. In Zuge des Launches der Sora App ordnet der Social-Media-Experte Lindsey Gamble auf Threads ein, wir stünden am Beginn einer neuen Ära KI-generierter sozialer Medien. Der Doppel-Launch markiert den Wechsel: KI wandert vom Hilfsmittel zum Ausgangspunkt – und wird zur eigenen Bühne für KI Inhalte.

Während TikTok in den USA vor einer Amerikanisierung steht – inklusive möglichem Teilverkauf und einer eigenständigen US-App –, positioniert sich OpenAI parallel mit einem skalierbaren Gegenangebot. Der gleichzeitige Start von Modell und App wirkt wie ein Testballon für eine KI-getriebene Alternative. Für Marken bedeutet das eine mögliche Verschiebung hin zu prompt-basiertem, remixbarem Bewegtbild – mit neuen kreativen Möglichkeiten, aber auch neuen Spielregeln bei Rechte-, Transparenz- und Sicherheitsfragen.

Die App läuft zunächst invite-only in den USA und Kanada auf iOS. Wer Zugang erhält, bekommt vier Einladungen zum Weitergeben. Angaben zu einer Android-Version fehlen bislang.

Kurzüberblick – so funktioniert Sora wie TikTok, aber nur mit KI:

  • Feed: vertikal, personalisiert (For You Page-ähnlich), ausschließlich KI-Clips
  • Erstellung: Prompts statt Kamera; Clip-Länge bis zehn Sekunden
  • Remix: Szenen anderer per Prompt erweitern oder neu interpretieren
  • Cameos: einmalige Verifizierung; volle Kontrolle über Freigaben
  • Audio: synchronisierte Dialoge und Sound-Effekte direkt aus dem Modell
  • Uploads: nicht vorgesehen – Content entsteht vollständig in der App
  • Startphase: invite-only, zunächst nur für iOS

TikTok soll amerikanisiert werden
– ByteDance erhält 50 Prozent der Umsätze

TikTok Office in Los Angeles
© ByteDance

Sicherheit und Verantwortung: Schutz vor Missbrauch, klare Grenzen für Prominente

OpenAI betont, dass Sicherheit und Jugendschutz im Vordergrund stehen. Minderjährige können nur eine begrenzte Zahl an Clips pro Tag sehen, Moderations-Teams sollen Missbrauch schnell erkennen. Zudem gibt es Filter gegen nicht jugendfreie Inhalte, Urheber:innenrechtsverletzungen und Deepfakes. Nutzer:innen dürfen zwar Cameos mit ihrem eigenen Abbild erstellen, behalten dabei aber die Rechte und können die Clips jederzeit löschen oder die Freigabe widerrufen.

Prominente Personen erhalten dabei einen besonderen Schutz: Sie können nur dann in Sora-Videos auftauchen, wenn sie selbst ein Cameo hochgeladen und der Nutzung ausdrücklich zugestimmt haben. Laut einem Briefing mit Reporter:innen könnte diese Einschränkung jedoch nicht dauerhaft bestehen bleiben. Nach aktuellem Stand ist es außerdem nicht möglich, pornografische oder extreme Inhalte über die Plattform zu erstellen. Kritiker:innen warnen dennoch vor einer möglichen Flut generischer AI Slop-Inhalte, wie sie schon bei Metas KI-Feed Vibes diskutiert werden. Ob OpenAI die Balance zwischen kreativer Freiheit und wirksamen Schutzmechanismen halten kann, wird sich zeigen. Weitere Infos findest du im Sora 2-Sicherheitsdokument.

Wenn KI zur Bühne wird

Sora 2 zeigt, wie nah KI-Videos an gefilmte Aufnahmen heranrücken und die Sora App macht daraus ein Social-Format, das ohne Kamera auskommt. Dadurch entsteht ein neues Spielfeld für Reichweite, Kreativität und Identität.

Für Marken die mitmachen wollen, heißt das konkret: Inhalte entstehen per Prompt statt am Set. Die Zusammenarbeit mit Creatorn wird zum Remix-Prozess – mit vielen Varianten, kurzer Produktionszeit und Anpassung für verschiedene Zielgruppen. Wer früh testet, findet schneller heraus, welche Prompts funktionieren, wie Cameos ankommen und wo Kennzeichnung sowie Rechtefragen Grenzen setzen.

KI-Videos werden im Rahmen dieser Entwicklungen voraussichtlich breiter genutzt. Gleichzeitig müssen Unternehmen wie OpenAI klar für Urheber:innenschutz, Jugendschutz und den Schutz von Personen des öffentlichen Lebens gewährleisten. Technologische Weiterentwicklung ist ein zentraler Bestandteil unserer Gesellschaft – gleichzeitig dürfen wichtige Schutzmechanismen nie hintenangestellt werden. Schafft OpenAI diesen Ausgleich, kann Sora als KI-basierte TikTok-Alternative funktionieren. Klappt das nicht, bleibt Sora vorerst wahrscheinlich nur eine beeindruckende Demo.





Source link

Weiterlesen

Online Marketing & SEO

Discounter: Aldi Süd lässt seine Kunden von Eigenmarken träumen


Die Krisen der Einen sind die Chancen der Anderen. Aldi Süd nutzt die aktuelle Konjunktur der Handelsmarken und wirbt mit der Kampagne „Qualität, die dich nicht loslässt“ für Aldi-Eigenmarken wie Moser Roth, Myvay oder Bio. Dabei wird der Abstand zu klassischer Markenwerbung immer kürzer.

Es ist die klassische Beziehungsfrage: „Was denkst Du gerade?“. In der neuen Aldi-Süd-Kampagne fällt die Antwort darauf ganz einfach aus: Es

Diesen Artikel gratis weiterlesen!
Jetzt kostenfrei registrieren.

Die Registrierung beinhaltet
das HORIZONT Newsletterpaket.

Sie sind bereits registriert?

Der Nutzung Ihrer Daten können Sie jederzeit widersprechen. Weitere Hinweise finden Sie unter Datenschutz.



Source link

Weiterlesen

Beliebt