Connect with us

Online Marketing & SEO

Googles Update-Doppelschlag: Jetzt kommt das Core Update


Nur zwei Tage nach dem Spam Update lässt Google ein Core Update auf die SEO-Welt los. Es soll zwei Wochen im Roll-out sein und dürfte für viele Ranking-Schwankungen sorgen.

Pünktlich zum Quartalsende bringt Google die Digitalwelt nochmal in Aufruhr, allen voran SEOs und Publisher. Das Unternehmen rollte nicht nur den Suchmodus Search Live umfassend aus – endlich auch in Deutschland – und sorgte mit KI-generierten Headline-Anpassungen in der Suche für Unmut, sondern startete die nächsten großen Search Updates. Mitte der Woche erfolgte der Roll-out des March 2026 Spam Updates. Dieses wurde nach weniger als 24 Stunden abgeschlossen und dürfte nur bei Seiten mit Richtlinienverstößen für einige Ranking-Verluste gesorgt haben. Mehr Aufsehen erregt dagegen das March 2026 Core Update. Es ist das erste Core Update nach jenem im Dezember 2025 und soll innerhalb der nächsten zwei Wochen ausgerollt werden.


Googles March 2026 Spam Update schon fertig

Mann mit Smartphone steht vor Gebäude mit Glastür, darauf Google-Schriftzug
© Karollyne Videira Hubert – Unsplash via Canva

Core Update als reguläre Anpassung der Suche: SEOs sollten Ranking-Schwankungen beobachten

Der offizielle Google Search Central Account hat auf LinkedIn den Start des March 2026 Core Updates bekanntgegeben. Dieses Update soll bessere Inhalte für alle Arten von Suchenden bereitstellen, von allen Arten von Seiten. Das ist jedoch die Standardformulierung Googles zur Umschreibung dieser Art von Updates. Den Status des Updates können Seitenbetreiber:innen wie gewohnt im Google Search Status Dashboard einsehen.

Es ist das erste Core Update des Jahres, wenngleich Google bereits im Februar ein Discover Core Update ausrollte. Derweil können SEOs nicht akut auf die Entwicklungen reagieren. Google rät dazu, dauerhaft die eigenen Seiten, Inhalte und Strategien zu optimieren und an neue Gegebenheiten anzupassen, etwa die KI-Ergebnisse in AI Overviews oder an suchende AI Agents, für die Google jetzt den User Agent Google-Agent unter den Fetchern bereitstellt. Das korreliert mit dem Bekenntnis Googles, dass das Unternehmen ohnehin stetig kleine Core Updates ohne Ankündigung ausführt. Das ist im Grunde nichts Neues, doch vor einiger Zeit schrieb Google einen erklärenden Passus dazu in die Developer Documentation:

[…] Sie müssen jedoch nicht unbedingt auf ein grundlegendes Update warten, um die Auswirkungen Ihrer Verbesserungen zu sehen. Wir aktualisieren unsere Suchalgorithmen ständig und nehmen auch kleinere grundlegende Updates vor. Diese Updates werden nicht angekündigt, da sie nicht allgemein bemerkbar sind. Sie sind jedoch eine weitere Möglichkeit, die Position Ihrer Inhalte zu verbessern, wenn Sie Verbesserungen vorgenommen haben.

Informationen und Hilfestellung im Kontext großer Updates wiederum liefert Google im Rahmen einer neuen Dokumentation mit mehr Details. Im ausführlichen Guide von OnlineMarketing.de kannst du nachlesen, was Webmaster grundsätzlich im Vorwege von Core Updates beachten können. Solange Creator jedoch Inhalte erstellen, die hilfreich, einzigartig und für Menschen gemacht sind – dabei aber neue Suchmuster wie Longtail-Anfragen im KI-Kontext nicht vernachlässigen –, müssen sie sich nicht unbedingt zum akuten Handeln bewegt sehen. Vielmehr geht es um stetige Anpassungen für die Suche der Menschen, die sich selbst schneller denn je neu ausrichtet. Noch mehr Informationen finden Seitenbetreiber:innen und SEOs in der Google Search Central, die Basics zu Core Updates teilt.


Googles AI schreibt jetzt Headlines in Search um

– nicht immer richtig

Google Search-Seite, gespiegelt
© sarah b – Unsplash (Veränderungen vorgenommen)





Source link

Online Marketing & SEO

OMR Masterclass by HORIZONT: Wie KI Jobs im Marketing verändert: Die gesamte Masterclass im Video


Der Siegeszug generativer künstlicher Intelligenz mischt die Workforce in Marketing und Werbung massiv auf. Während einige Rollen an Bedeutung verlieren, fehlen für neue Aufgaben oft noch die passend ausgebildeten Fachkräfte. Welche Skills du in Zukunft wirklich brauchst und wie sich Jobprofile grundlegend wandeln, zeigt HORIZONT in seiner OMR Masterclass, die es hier komplett im Video gibt.

In der rund einstündigen Masterclass erfährst du, wie du dich und deine Mitarbeiter:innen optimal auf die Zusammenarbeit mit KI vorbereitest

Jetzt Angebot wählen und weiterlesen!

1 Monat

29 €

  • zum Testen
  • danach 36,50 € mtl.

12 Monate

329 €

  • anstatt 439 €
  • 110€ sparen

24 Monate

529 €

  • anstatt 878 €
  • 349 € sparen

HORIZONT Digital

  • Vollzugriff auf HORIZONT Online mit allen Artikeln
  • E-Paper der Zeitung und Magazine
  • Online-Printarchiv

HORIZONT Digital-Mehrplatzlizenz für Ihr Team



Source link

Weiterlesen

Online Marketing & SEO

Mit Clips erhält jetzt auch Prime Video einen Feed à la TikTok


Prime Video bekommt mit Clips einen neuen vertikalen Feed für Filme, Serien und Live Content. Damit ist Amazon der jüngste Streaming-Konzern, der die Macht kurzer Attention-Formate und algorithmischer Discovery nicht länger Social Media überlassen möchte.

Netflix hat erst vor wenigen Tagen bekanntgegeben, einen vertikalen Video-Feed namens Clips einzuführen. Unter demselben Namen führt jetzt auch Amazons Prime Video einen solchen Feed ein. Clips bei Prime Video soll, genau wie auf Netflix, Nutzer:innen Filme und Serien über einen vertikalen Social Feed à la TikTok, Instagram Reels oder YouTube Shorts entdecken lassen. Bei Prime Video können User im neuen Clips Tab sogar Live Content entdecken.

Der neue Tab startet zunächst für ausgewählte Nutzer:innen in den USA auf iOS, Android und Fire Tablets. Laut Amazon soll der Roll-out im Sommer ausgeweitet werden.


Netflix testet TikTok-ähnliche Discovery Experience für Streaming-Inhalte

Netflix zeigt vertikale Clips aus Serien, Reality-Formaten und Podcasts in einer TikTok-ähnlichen mobilen Ansicht.
© Netflix

So funktioniert der Clips Tab auf Prime Video

Der neue Clips Tab erscheint direkt auf der mobilen Startseite von Prime Video. Nutzer:innen können dort vertikale Kurzclips aus Filmen, Serien oder Sportformaten durchscrollen. Ursprünglich startete das Format laut Amazon nur mit NBA Highlights während der NBA-Saison 2025/26. Jetzt erweitert der Konzern Clips auf Inhalte aus dem gesamten Prime Video-Katalog.

Wer einen Clip antippt, landet in einem vertikalen Fullscreen Feed mit weiteren personalisierten Empfehlungen auf Basis des bisherigen Sehverhaltens. Direkt aus dem Feed heraus können Nutzer:innen Inhalte starten, kaufen, leihen, abonnieren, speichern, liken oder mit anderen teilen. Geteilte Clips führen per Link direkt zurück in die Prime Video App, wo anschließend weiter durch Clips gescrollt werden kann. Brian Griffin, Director of Global Application Experiences bei Prime Video, erklärt:

Clips gives customers a whole new way to browse with short, personalized snippets tailored to their interests […]. Whether they have a few minutes to scroll or are looking for something to watch when they have more time, entertainment is just a tap away.

Die Funktion reiht sich in mehrere größere Mobile Updates für Prime Video ein. Amazon verweist unter anderem auf automatisch abgespielte Trailer auf der Startseite, neue vertikale Vorschaubilder für Smartphones und einen überarbeiteten Player mit zusätzlichen Infos zu Cast, Trivia und weiteren Inhalten.

Der Kampf um Aufmerksamkeit macht Streaming social

Social-Dienste wie TikTok, Instagram oder YouTube haben zuerst verändert, wie Nutzer:innen Inhalte konsumieren und entdecken. Mit dem Aufstieg KI-gestützter Empfehlungssysteme übernehmen algorithmische Feeds inzwischen immer stärker die Auswahl passender Inhalte, statt dass User aktiv danach suchen. Gleichzeitig entwickeln sich TikTok, Instagram oder YouTube mit ihren Kurzvideo-Feeds immer stärker zu Entertainment-Plattformen, die klassischen Streaming-Diensten zunehmend Konkurrenz um Aufmerksamkeit und Nutzungszeit machen. Genau dadurch geraten klassische Streaming-Dienste immer stärker unter Druck.

Prime Video, Netflix und andere Plattformen wollen nicht länger nur Serien hosten, sondern die Aufmerksamkeit von TikTok und Co. wieder stärker in die eigenen Apps zurückholen. Die neuen vertikalen Feeds sollen deshalb nicht nur die Discovery verbessern, sondern vor allem Watchtime, Interaktion und In-App Engagement erhöhen. Denn je länger Nutzer:innen innerhalb des eigenen Plattformkosmos bleiben, desto stärker können Anbieter:innen Aufmerksamkeit, Empfehlungen und potenzielle Kaufentscheidungen kontrollieren. Neben Netflix und Prime Video testen auch Disney, Peacock oder Tubi bereits ähnliche vertikale Discovery Feeds oder haben sie schon eingeführt.

Für Marketer dürfte es angesichts des Trends hin zu kurzen Attention-Formaten immer wichtiger werden, aufmerksamkeitsstarke Snippets für algorithmische Feeds zu entwickeln. Filme und Serien werden schon heute häufig über kurze Clips auf TikTok, Instagram oder YouTube entdeckt. Dass die Oscars ab 2029 erstmals exklusiv auf YouTube übertragen werden und die traditionsreiche ABC-Ära nach der 100. Verleihung endet, ist eines der deutlichsten Zeichen dafür, wie stark sich Entertainment inzwischen Richtung Streaming und Social Discovery verschiebt.


Netflix-Werbung mit Amazon-Shopping-Daten:
Super Audience Match

Netflix Office mit Logo. Sesseln in einem langen Gang, Fenster an der Seite, bunt
© Netflix via Canva





Source link

Weiterlesen

Online Marketing & SEO

Google testet neues Videomodell Gemini Omni


Testoptionen für Googles Modell Gemini Omni sind aufgetaucht. Damit können User direkt im Gemini Chat Videos bearbeiten und remixen. Es könnte eine Weiterführung von Veo 3.1 und Nano Banana 2 sein.

Der Name Omni verspricht viel: Gemini Omni könnte Googles bisher leistungsfähigstes KI-Visual-Modell werden. Noch gibt es keine offizielle Bestätigung dazu, dass dieses überhaupt geplant ist, geschweige denn vor dem Roll-out steht. Doch die könnte im Rahmen der nahenden I/O am 19. und 20. Mai folgen. Dass kurz zuvor Hinweise auf den Test mit einem neuen Videomodell aufgetaucht sind, passt zum Timing. Der Reddit User Zacatac_391 informierte im Subreddit r/GeminiAI über seine Entdeckung. Dabei teilte er einen Screenshot, der ihm bei der Nutzung des Modells Gemini Flash in der Gemini App den Einsatz des Modells Gemini Omni vorschlug.

Gemini Omni: New video model?
by
u/Zacatac_391 in
GeminiAI

Mit dem Modell sollen mehrere Videobearbeitungsmöglichkeiten direkt im Gemini Chat ermöglicht werden, während die Kreation von Videos beispielsweise mithilfe von Templates stärker vereinfacht wird. Das erinnert an Fähigkeiten, die Googles Videomodell Veo 3.1 ebenso bietet, aber auch an Einsatzoptionen, die das KI-Bildgenerierungsmodell Nano Banana 2 inzwischen ermöglicht. Gemini Omni könnte sie verbinden. Und Zacatac_391 ist nicht der einzige User, der das Modell schon entdeckt hat.


Nach Sora-Aus:

Google pusht KI-Videogenerierung mit günstigem Veo 3.1 Lite

KI-Visuals nebeneinander vor dunklem Hintergrund, Schriftzug zu Veo 3.1 Lite
© Google via Canva

Gemini Omni taucht vereinzelt auf: Erster Test überzeugt Creator

Im Subreddit haben einige User ebenfalls berichtet, Gemini Omni beim Einsatz von Gemini schon gesehen zu haben. Wir selbst konnten im Test noch nicht darauf zugreifen. Doch auch der Publisher TestingCatalog berichtete jüngst von der Entdeckung des Modells im UI String für Gemini. In diesem Kontext tauchte Omni nahe dem Toucan genannten Videogenerierungsmodell auf Basis von Veo auf. Vorstellbar ist laut Autor Alexey Shabanov, dass Google mit Omni KI-Generierungsfähigkeiten der Veo- und Nano Banana-Modelle zusammenführt. Möglicherweise würde Omni dann eher ein Gemini-Modell darstellen und keine Nachfolgeversion von Veo 3.1.

Der Publisher konnte kurz darauf einen Test mit dem neuen Modell ausführen, der aber wie viele erste Tests von Usern im Subreddit schnell Nutzungs-Credits aufbrauchte. Im Test konnte das Modell die Prompt-Vorgaben größtenteils sehr genau umsetzen und sogar eine bessere Sound-Qualität als Veo 3.1 sowie passende Hintergrundmusik liefern.

Das leistungsstarke Modell Gemini Omni verspricht noch bessere KI-Videokreationen, die zahlreiche User – von Creatorn bis zu Brand Marketern – an Google und Gemini binden könnten. Allerdings steht die offizielle Ankündigung des Modells weiterhin aus. Wir blicken also gespannt auf die I/O kommende Woche und erwarten große Neuigkeiten, vielleicht auch zu Gemini Omni.


Nano Banana 2 ist da:

Googles schnellstes KI-Bildmodell mit Gemini-Weltwissen

Nano Banana 2-Schriftzug, einzelne KI-generierte Bilder
© Google via Canva

Stelle OnlineMarketing.de als bevorzugte Quelle auf Google ein

Wenn du OnlineMarketing.de auf Google als bevorzugte Quelle einstellen möchtest, um auch in den Schlagzeilen auf Google immer aktuelle News und Tipps aus der Welt des Marketing und der Tech-Entwicklungen zu finden, kannst du einfach die Google-Quelleneinstellungen aufrufen und die Seite anwählen. Über das Stern-Icon neben den Top Stories kannst du ebenfalls bevorzugte Quellen für die spätere Suche speichern.





Source link

Weiterlesen

Beliebt