Online Marketing & SEO
Weihnachtskampagne mit „Baumfluencer“: Burger King feiert den Weihnachts-Whopper mit Tannenbaum-Testimonial
Bisher profilierte sich Burger King vor allem als Pionier bei Veggie-Produkten. Jetzt schickt die Fastfood-Kette mit T.Annenbaum auch den ersten komplett pflanzlichen Werbebotschafter in den Werbeblock. Die Weihnachtskampagne ist auch in anderer Hinsicht ein Neustart.
Weihnachten war bisher ein Marketingthema, bei dem Burger King in den vergangenen Jahren die große Bühne dem Marktführer McDonald’s überließ. 2025 wechselt Burger King nun die Gangart und bringt eine Kampagne an den Start, bei der mit Burgerware, Charles&Charlotte, DentsuX, Enkime, Grabarz & Partner, Ketchum und Mediaplus gleich sieben Agenturen mitgewirkt haben.
Ob sie ihren Christmas Whopper allerdings auch mit T.Annenbaum und Gemahlin teilen würden, steht auf einem ganz anderem Blatt. Die gutgelaunten Nadelhölzer haben zwar sichtlich Spaß am Fastfood-Erlebnis, lieben aber leider auch eiskalte Flachwitze. Für Burger King sind die neuen Werbefiguren aber gerade aufgrund ihrer Massenkompatibilität eine gute strategische Investition. Denn die Annenbaums haben Potenzial, um als langfristige Werbefiguren für Burger King aufzutreten. Und mit dem Sammelcharakter der limitierten Weihnachtskugeln kann sich die Fastfood-Marke berechtigte Hoffnungen machen, einen langfristigen Platz in deutschen Haushalten zu den Feiertagen zu erobern.
Online Marketing & SEO
So reduzierst du AI Content in deinem TikTok Feed
Endlich kannst du selbst bestimmen, wie viel KI-generierter Content auf deiner For You Page erscheint. Denn TikTok testet ein neues Tool, mit dem du die Menge von AI-Inhalten im Feed per Schieberegler kontrollieren kannst.
Von AI Endings auf YouTube über Metas KI-Feed Vibes bis zu OpenAIs KI-only Social App: Immer mehr Plattformen setzen auf AI-generierten Content, um die User in der App zu halten. Es handelt sich um eine Entwicklung, die vielen Usern ein Dorn im Auge ist. Doch Unternehmen wie Meta bescheren die KI-Inhalte ein Millionenwachstum.
Vibes oder AI Slop?
Metas KI-Feed kommt nach Deutschland

Nutzer:innen, die lieber Content von echten Menschen anschauen wollen, dürfen sich jetzt freuen. Denn TikTok testet ein neues Tool, mit dem du die Menge an KI-generiertem Content (AI Generated Content, kurz AIGC) im Feed selbst steuern kannst. Mithilfe eines Schiebereglers kannst du wählen, weniger oder bei Bedarf auch mehr mit KI erstellte Inhalte auf deiner For You Page zu sehen. Die Funktion wird testweise im Laufe der kommenden Wochen ausgerollt. Navigiere über die Einstellungen zu den Inhaltspräferenzen und wähle „Themen verwalten“ aus, um die Menge an AI Content in deinem Feed zu kontrollieren.

Über die Themenverwaltung kannst du auch bestimmen, wie oft oder selten du Content aus über zehn beliebten Kategorien (wie Mode und Beauty, Essen und Trinken oder Gesundheit und Fitness) sehen möchtest. Mit der Ergänzung der AIGC-Option bietet TikTok den Usern nun eine weitere Möglichkeit, ihre Content-Präferenzen auf der Plattform zu steuern. Die KI-generierten Inhalte vollständig aus dem eigenen Feed zu verbannen, wird vermutlich jedoch nicht möglich sein.
Robuste KI-Label, Bildungsfond und
eigener Gen AI Push
Zusätzlich zum neuen Schieberegler führt TikTok unsichtbare Wasserzeichen für KI-Content ein. Zwar verfügt die Plattform bereits über Maßnahmen für die Kennzeichnung KI-generierter Inhalte, doch wenn Content per Reupload veröffentlicht oder extern bearbeitet wird, werden AI Label oftmals entfernt. Die unsichtbaren Wasserzeichen, welche nur von TikTok selbst erkannt werden, sollen dieses Problem umgehen. Darüber hinaus hat die Plattform Investitionen in Höhe von zwei Millionen US-Dollar für einen Bildungsfond im Bereich Künstliche Intelligenz angekündigt und launcht zudem eine neue Wellbeing-Seite.
3/ We’re launching a new Time & Well-being page and mindful tools designed to help our community pause, reset, and build positive digital habits on TikTok. #DigitalWellbeing pic.twitter.com/Q97xHPUysQ
— TikTokComms (@TikTokComms) November 19, 2025
Trotz der verkündeten Features und Initiativen betont TikTok den kreativen Wert KI-generierter Inhalte für Creator und User, insofern diese transparent und verantwortlich erstellt und konsumiert werden. Kein Wunder, schließlich profitiert TikTok von der Fülle an Content, die dank AI-gestützter Tools auf der Plattform landen. Auch TikTok selbst bietet mittlerweile diverse KI-basierte Features an, darunter Image-to-Video, Text-to-Video und AI Transitions.
Eine weitere Plattform, die ihren Usern neuerdings mehr Kontrolle über die Menge an AI Content im Feed bietet, ist Pinterest. Die User der Inspirations-App können nun selbst entscheiden, in welchen Bereichen sie KI-Inhalte sehen möchten. Wie das geht, liest du im Artikel.
Pinterest lässt dich kontrollieren, wie viel AI Content du siehst

Online Marketing & SEO
Verluste durch die Bank: So trostlos ist die Lage am deutschen Werbemarkt
Die Unternehmen sparen weiter im Marketing
Der Werbemarkt steuert auf ein Jahresminus zu. Nachdem die Bruttoausgaben bereits im August und September gesunken sind, gaben die deutschen Unternehmen auch im Oktober unter dem Strich weniger Geld für TV-Spots, Plakate und (Online)-Anzeigen aus. Nur zwei Gattungen können zulegen – und das auch nur auf dem Papier.
Satte 100 Millionen Euro haben deutsche Unternehmen im Oktober gegenüber Vorjahr bei den Werbeausgaben eingespart. Heißt konkret: Statt 3,6
Jetzt Angebot wählen und weiterlesen!
HORIZONT Digital
- Vollzugriff auf HORIZONT Online mit allen Artikeln
- E-Paper der Zeitung und Magazine
- Online-Printarchiv
HORIZONT Digital-Mehrplatzlizenz für Ihr Team
Online Marketing & SEO
SAM 3 von Meta revolutioniert Bild- und Videobearbeitung mit KI
Mit SAM 3 können User jetzt Objekte in Bildern und Videos noch zielsicherer in Echtzeit segmentieren. Das Modell kommt für Meta AI, Facebook Marketplace und auch in die Edits App.
UPDATE
Nachdem Meta im Juli 2024 das Segment Anything Model 2 (SAM 2) herausgebracht hat, launcht das Unternehmen nun die Nachfolgeversionen SAM 3 und SAM 3D. Die Segment Anything Models sind über einen Open-Source-Software-Lizenzvertrag für alle nutzbar und sollen laut Meta „die fortschrittlichste KI, um Bilder und Videos zu erkennen, zu bearbeiten und mit diesen zu experimentieren“ sein.
Mit SAM 3 kannst du unter anderem folgende Aktionen ausführen:
- Elemente aus Bildern oder Videos isolieren
- Ausgewählte Bereiche in flexibel bearbeitbare Elemente umwandeln
- Effekte wie Weichzeichnen oder Klonen nutzen
- Wiederverwendbare Vorlagen erstellen, speichern, herunterladen und teilen
Die Modelle sollen bald im Rahmen verschiedener Features im Facebook Marketplace, der Edits App sowie Meta AI verfügbar sein.
Dieser Beitrag erschien erstmals am 31. Juli 2024.
Nach dem erfolgreichen Launch des Segment Anything Models (SAM) im Jahr 2023 legt Meta mit SAM 2 nach. Das Modell ist über Apache 2.0 – einen Open-Source-Software-Lizenzvertrag – für alle nutzbar. SAM 2 erlaubt in Echtzeit die Objektsegmentierung in Bildern und auch in Videos und lässt sich auch mit Prompts steuern. Das Modell lässt sich für verschiedene Zwecke einsetzen, von der simplen Objektbearbeitung über die KI-gesteuerte Generierung neuer Bildeffekte bis hin zur Optimierung von Computer Vision dank vereinfachter Annotation.
Introducing Meta Segment Anything Model 2 (SAM 2) — the first unified model for real-time, promptable object segmentation in images & videos.
SAM 2 is available today under Apache 2.0 so that anyone can use it to build their own experiences
Details ➡️ pic.twitter.com/mOFiF1kZfE
— AI at Meta (@AIatMeta) July 29, 2024
SAM 2 und SA-V im Überblick: Meta vereinfacht Visual-Bearbeitung
Auf dem eigenen Blog erklärt Meta, was die neue Generation des Segement Anything Models zu bieten hat. Vor allem die erhöhte Präzision bei der Obejktmarkierung in Bildern sowie Videos sticht demnach heraus.

Insbesondere die Anwendungsmöglichkeiten im Bewegtbildbereich wollte Meta optimieren:
SAM was able to learn a general notion of what objects are in images. However, images are only a static snapshot of the dynamic real world in which visual segments can exhibit complex motion. Many important real-world use cases require accurate object segmentation in video data, for example in mixed reality, robotics, autonomous vehicles, and video editing. We believe that a universal segmentation model should be applicable to both images and video […].
Parallel zu SAM 2 hat Meta das Datenset SA-V mit über 51.000 Real-World-Videos gelauncht. Dieses ist über die CC BY 4.0-Lizenz verfügbar und bietet rund 53 Mal mehr Annotationen als das bisher größte Videodatenset für die Objektmarkierung.
-
UX/UI & Webdesignvor 3 MonatenAdobe Firefly Boards › PAGE online
-
UX/UI & Webdesignvor 1 MonatIllustrierte Reise nach New York City › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Datenschutz & Sicherheitvor 3 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
Datenschutz & Sicherheitvor 2 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Online Marketing & SEOvor 3 Monaten„Buongiorno Brad“: Warum Brad Pitt für seinen Werbejob bei De’Longhi Italienisch büffeln muss
-
Online Marketing & SEOvor 3 MonatenCreator und Communities: Das plant der neue Threads-Chef
-
Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
