Connect with us

Online Marketing & SEO

Edits bringt Freeze Frame und Voiceover Teleprompter


Mit drei neuen Features kannst du aufmerksamkeitsstarke Reels erstellen und zeitgemäß Storytelling betreiben – sogar mit personalisierten Sound-Effektvorschlägen.

Metas Videobearbeitungs-App Edits entwickelt sich zu einer zentralen Option zur Content-Kreation. Erst vor rund einem Jahr gestartet, ist Edits als CapCut-Alternative gerade für den Meta-Kosmos und die Reels äußerst relevant geworden. Das liegt vor allem an den stetigen Feature Updates. Kürzlich hat Edits beispielsweise automatische Highlights für Captions eingeführt und auch eine Funktion, um Reels bis zu 100 Mal schneller zu machen. Jetzt gibt es schon wieder ein Update, das der offizielle Creators Account von Instagram vorstellt. Damit erhalten Creator unter anderem Sound-Vorschläge passend zu ihren Inhalten und ein aus dem Fernsehen bekanntes Feature, das viel Zeit sparen kann.


Automatische Highlights für Reels Captions, mehr Effekte und neuer Ideas Tab für Edits

Edits App
© Meta via Canva

Diese 3 Edits Features sind neu: Besseres Storytelling und passende Sounds

Eine der neuen Optionen von Edits ist erstmal nur für iOS User verfügbar. Dabei handelt es sich um die Funktion „Sound Effects for you“. Diese bietet einen eigenen Tab für personalisierte Vorschläge, genannt „For you“, die zum Content des Creators passen. Im Beispielvideo läuft eine Person zur S-Bahn, Edits schlägt dann einen Sound namens „Running“ vor, aber auch „Wind Blowing“, „Bus Horn“ und „Sneaking“. Die Audios kommen aus der Meta-Bibliothek und können für die akustische Untermalung von Reels eingesetzt werden.

Visuell wiederum unterstützt Edits Creator jetzt mit dem Feature Freeze Frame. Damit können, wie der Name schon sagt, einzelne Frames quasi eingefroren werden, um spezielle Momente im Video hervorzuheben. Ebenso ist es möglich, auf besondere Transitions hinzuweisen, die zum Storytelling gehören. Zum Beispiel könnten Creator einen Freeze Frame an einer konkreten Stelle im Reel-Verlauf zu ihrem Erkennungsmerkmal machen oder die Option einsetzen, um einen Spannungsbogen aufzubauen.

Das so optimierte Storytelling kann darüber hinaus jetzt noch besser per Voiceover gestützt werden. Denn Edits liefert einen Voiceover Teleprompter. Damit können Creator ihre Skripte direkt in der Bearbeitungs-App integrieren und sie beim Aufnehmen als Textvorlage auf dem Screen laufen lassen. So können sie Content aufnehmen, das Voiceover einsprechen und mit wenigen Takes das Reel fertigstellen. Das kann Zeit und Nerven sparen.

Noch mehr Insights dazu, wie Creator hochwertige Reels erstellen, die auf Instagram, aber ebenso auf Facebook und Threads, gut performen können, liefert Meta in einer Dos and Don’ts-Übersicht, die wir für dich mit expliziten Tipps aufbereitet haben.


Don’t do it perfect:

Instagrams neue Dos und Don’ts für Reels

Oranges Instagram Creator Visual mit der Aufschrift „FYI: Understanding Reach on Instagram“, das Hinweise zu Reichweite und Content-Strategien zeigt.
© Instagram via Canva





Source link

Online Marketing & SEO

Adobe bringt AI Assistant für Photoshop und neue KI in Firefly


Schon im Februar 2025 brachte Adobe eine neue Photoshop App für Smartphones an den Start und senkte damit die Einstiegshürde für professionelle Bildbearbeitung. Zentrale Photoshop-Funktionen wanderten aufs Handy und plötzlich konnten auch Nicht-Profis ohne tiefes Tool-Wissen Designs mit einem der größten Creative Tools am Markt erstellen. Der Schritt ebnete den Weg für einfachere Bildbearbeitung auf Profiniveau im KI-Zeitalter und legte zugleich die Grundlage, um noch mehr User zu erreichen und den Vorsprung im Markt auszubauen. Jetzt geht Adobe mit dem neuen AI Assistant und dem KI-Upgrade von Firefly noch einen Schritt weiter.

Der neue AI Assistant steht Usern zunächst in Photoshop Web sowie in den mobilen Apps für iOS und Android zur Verfügung. Laut Adobe richtet sich das Feature an Kreative aller Erfahrungsstufen – von Studierenden über Illustrator:innen bis hin zu Marketing-Expert:innen.


Photoshop für die Hosentasche:
Adobe bringt die ikonische Bildbearbeitung aufs Smartphone

Adobe Photoshop App für das Smartphone
© Adobe via Canva

Photoshop reagiert auf Prompts: Bilder bearbeiten per AI Assistant

Der neue AI Assistant arbeitet direkt in der Photoshop-Oberfläche. User beschreiben einfach das gewünschte Ergebnis, die KI setzt die Bearbeitung automatisch um. Mögliche Änderungen sind unter anderem:

  • Personen oder Objekte aus Bildern entfernen
  • Farben und Beleuchtung anpassen
  • Schatten verstärken oder einen Glow hinzufügen
  • Bilder in bestimmte Formate zuschneiden
  • Hintergründe verändern oder ersetzen

Der Assistant kann Änderungen automatisch ausführen oder User Schritt für Schritt durch die Bearbeitung führen. In der mobilen Version lassen sich Änderungen sogar per Sprachbefehl anfordern.

Neu ist außerdem AI Markup, das aktuell als öffentliche Beta in Photoshop Web verfügbar ist. User können Bereiche im Bild markieren oder direkt darauf zeichnen und anschließend per Prompt festlegen, was dort passieren soll. Wer etwa einen Bereich markiert, kann dort per Anweisung neue Elemente wie Blumen oder Landschaften generieren lassen oder Objekte entfernen.

Zum Start ermöglicht Adobe zahlenden Photoshop Usern unbegrenzte KI-Generierungen bis zum 9. April. Free User erhalten zunächst 20 Generierungen. Damit sinkt die Einstiegshürde für professionelle Bildbearbeitung weiter. Statt Ebenen, Masken oder Auswahlwerkzeuge zu nutzen, beschreiben User künftig per Prompt, welche Änderung sie im Bild möchten. Photoshop übernimmt die Umsetzung automatisch.

Firefly wird zur AI-Plattform für Bildbearbeitung

Parallel zum Photoshop Assistant erweitert Adobe auch Firefly, das Tool für generative Medienbearbeitung. Mehrere bekannte Funktionen aus Photoshop wandern jetzt direkt in die Plattform. Neu sind diese Werkzeuge:

  • Objekte hinzufügen oder austauschen, indem die KI neue Bildinhalte passend zum Umfeld generiert
  • Unerwünschte Elemente automatisch entfernen, ohne sichtbare Spuren im Bild zu hinterlassen
  • Bilder erweitern oder neu zuschneiden, sodass sie zu anderen Formaten oder Seitenverhältnissen passen
  • Bildqualität hochskalieren, um Auflösung und Details zu verbessern
  • Hintergründe mit einem Klick freistellen, um Motive schnell zu isolieren
Screenshot der Photoshop-Oberfläche mit AI Assistant Funktion zum automatischen Entfernen und Ersetzen von Bildhintergründen.
Der Photoshop AI Assistant kann Bildhintergründe automatisch entfernen und neue Hintergründe generieren, © Adobe

Firefly entwickelt sich damit zunehmend zu einem zentralen Hub für generative Bildbearbeitung. User können aktuell beliebig viele Bilder mit KI erstellen und bearbeiten. Gleichzeitig öffnet Adobe die Plattform stärker für externe KI-Modelle. Inzwischen stehen mehr als 25 Bild- und Videogenerierungsmodelle von Drittanbieter:innen zur Verfügung, darunter Nano Banana 2 von Google, Image Generation von OpenAI, Gen-4.5 von Runway und Flux.2 Pro von Black Forest Labs sowie Adobes eigene, kommerziell nutzbare Modelle. Die Ergebnisse lassen sich anschließend direkt weiterbearbeiten – ohne den kreativen Workflow zu unterbrechen.

Mit der wachsenden Rolle generativer KI rücken auch Fragen rund um AI Governance stärker in den Fokus. Themen wie Datensicherheit, Transparenz und Kontrolle gewinnen an Bedeutung – besonders dann, wenn KI-Systeme automatisiert Inhalte erstellen oder bearbeiten. Für Unternehmen wird es deshalb wichtiger, nachvollziehen zu können, wie KI-Dienste arbeiten und welche Daten sie nutzen. Bei Adobe spielen solche Mechanismen laut Julian A. Kramer, AI Evangelism Leader EMEA, eine zentrale Rolle. Im Gespräch mit uns betonte er, dass Funktionen wie Explainability, Human-in-the-Loop und klare Einsatzgrenzen für KI-Systeme entscheidend sind, damit Unternehmen generative KI verantwortungsvoll einsetzen können.


„Du orchestrierst Agents wie ein Teamchef Aufgaben verteilt“:
Der Sprung von Gen AI zu Agentic AI

Julian A. Kramer hält einen Vortrag auf einer Bühne beim Adobe AI Forum 2026. Im Hintergrund ist ein großes, farbiges „A“-Visual zu sehen, daneben ein Rednerpult mit Adobe-AI-Forum-Logo. Publikum sitzt im Vordergrund.
© eigene Aufnahme





Source link

Weiterlesen

Online Marketing & SEO

Neuer Food-Trend?: Burger King geht in die Baby-Burger-Offensive


Bisher galt bei Burgern in der Fastfood-Gastronomie ganz klar das Motto: Größer ist besser. Burger King ruft nun den Gegentrend aus und will mit drei Baby-Burgern an den „Fun of Trying out“ (FOTO) der Kunden appellieren. Dahinter steckt auch ein klares Preiskalkül.

Die Lage an den Bestellschaltern ist dank der Inflation komplizierter denn je. Waren die Menüs bei McDonald’s, Burger King und Co. früher noch zum Snacking-Preis zu haben, stellen mittlerweile selbst die Standard-Optionen viele Kunden preislich vor eine echte Investitionsentscheidung. Um die Kunden trotzdem noch zu regelmäßigen Besuchen zu motivieren, investieren die Fastfood-Ketten in Preisaktionen und besonders große Burger mit einem gefühlt besseren Preis-Leistungsverhältnis.

Burger King Deutschland setzt nun auf den entgegengesetzten Trend und bringt ab sofort drei Burger-Klassiker der Marke im Mini-Format zusammen in eine Box: Baby Whopper, Baby Big King und Baby Steakhouse. Die neuen Baby Burger sollen direkt an die Freude am Probieren der Kunden appellieren, sagt Tim Lenke, Senior Manager Product Development & Innovation bei Burger King Deutschland: „Viele Menschen möchten beim Essen kombinieren und unterschiedliche Geschmacksrichtungen entdecken. Mit den Baby Burgern ermöglichen wir genau das.“

Aus einer Verkaufsperspektive bietet Burger King damit auch kleineren Kundengruppen eine attraktive Bestell-Option zum gemeinsam teilen und dürfte auch so manchen Kunden überzeugen, denen ein einzelner der Burger in Originalgröße schlicht zu mächtig wäre.

Burger King selbst gibt allerdings an, dass man hier vor allem auf ein Kundenbedürfnis reagieren wolle: Denn in einer eigens beauftragten Studie mit 1000 Teilnehmern hatten 49,3 Prozent der Befragten angegeben, dass sie sich nur schwer für nur ein Gericht entscheiden können. Wichtigster Treiber dieser mentalen Blockade ist die Angst, möglicherweise etwas zu verpassen (Fear of missing out = FOMO). Nur 34,9 Prozent der Befragten spüren dieses Gefühl nicht. Sechs von zehn Menschen in Deutschland würden laut Umfrage im Restaurant kleinere Portionen wählen, um dadurch mehr Optionen probieren zu können.

Das neue Burger-King-Angebot soll hier den Gegentrend etablieren: FOTO („Fun Of Trying Out“) – die Freude und Lust am Ausprobieren, ohne sich entscheiden zu müssen, sagt Yvonne von Eyb, CMO von Burger King Deutschland: „Die Umfrage zeigt eindeutig, dass es beim Essen um Entdeckungslust, Spontanität und Experimentierfreude geht.“

Den Launch des neuen Aktionsprodukts begleitet Burger King mit einer Werbekampagne, die den Bestellvorgang im Restaurant humorvoll als Quizshow mit zu vielen Optionen inszeniert (Kreation: Grabarz & Partner). Die Kampagne wird über TV und Digital Video gespielt. Aber ihre eigentliche popkulturelle Strahlkraft sollen die Baby Burger über Social Media (Tiktok, Instagram) und Influencer-Marketing entwickeln. Burger King arbeitet hier im Rahmen der Kampagne gleich mit zwei Social-Media-Spezialisten – Charles & Charlotte und Enkime – zusammen. Die Mediaplanung verantwortet Mediaplus.



Source link

Weiterlesen

Online Marketing & SEO

So krass verändert Gemini jetzt die Googles Workspace-Arbeit


In Google Docs, Sheets, Slides und Drive übernimmt Gemini jetzt immer mehr Aufgaben. Wie die Google-KI ab sofort Dateien, Mails und Web-Infos verbindet und sogar das Prinzip der leeren Seite aufbricht.

Gemini zieht tief in Google Workspace ein. Google integriert die KI jetzt in Docs, Sheets, Slides und Drive. Die KI kann Informationen aus Dateien, E-Mails und dem Web zusammenführen und daraus Inhalte erstellen oder Fragen beantworten. Laut Google geschieht das unter Einhaltung der Datenschutzrichtlinien.

Wie Gemini die Arbeit in Dokumenten, Tabellen und Präsentationen verändern soll und warum das klassische Blank Space-Prinzip beim Start eines Google-Dokuments künftig Geschichte sein könnte. Parallel stellt Google zusätzliche KI-Tools vor. Wie die neuen Gemini-Funktionen im Arbeitsalltag aussehen könnten, zeigt das Unternehmen im folgenden Video.

Google demonstriert im Video, wie Gemini künftig in Google Workspace arbeitet, © Google

Gemini 3.1 Flash-Lite:
Schnellstes und kosteneffizientestes KI-Modell von Google

Gemini 3.1 Flash-Lite-Schriftzug vor dunklem Hintergrund mit hellen Elementen
© Google via Canva

Nie wieder Informationen zusammensuchen? Gemini übernimmt!

Google beschreibt die neuen Funktionen als nächsten Schritt, um klassische Büroarbeit schneller zu erledigen. Gemini kann künftig Informationen aus Dateien, E-Mails und dem Web kombinieren und daraus direkt nutzbare Inhalte erstellen. Wer etwa eine Präsentation vorbereitet, eine Tabelle auswertet oder einen Bericht schreibt, muss Informationen nicht mehr selbst aus verschiedenen Dokumenten zusammensuchen. Die KI kann diese Quellen verbinden und daraus Entwürfe, Zusammenfassungen oder Antworten generieren.

Die Updates starten zunächst als Beta für Abonnent:innen von Google AI Ultra und Google AI Pro. Vorgestellt wurden sie im offiziellen Workspace Blog von Google. Dort erklärt das Unternehmen auch, dass Gemini künftig stärker als Arbeitsassistenz innerhalb der Tools fungieren soll. Auch Googles CEO Sundar Pichai griff die Neuerungen in einem LinkedIn Post auf und betonte, dass Gemini Nutzer:innen helfen soll, Aufgaben schneller zu erledigen.

Docs, Sheets, Slides und Drive bekommen neue KI-Funktionen

Aller Anfang ist schwer!? Mit KI nicht mehr unbedingt. Google bricht mit Gemini das Prinzip der leeren Seite auf. Nutzer:innen können direkt mit einem Entwurf starten. Statt bei null zu beginnen, beschreiben sie der KI kurz, was sie brauchen. Gemini erstellt daraus automatisch ein erstes Dokument, eine Tabelle oder eine Präsentation. In Google Docs lässt sich so aus einer kurzen Beschreibung sofort ein erster Textentwurf generieren. Dabei greift die KI auf Inhalte aus vorhandenen Dateien oder E-Mails zurück. Im Video zeigt Google, wie aus bestehenden Dokumenten automatisch ein neuer Text entsteht. Eine Funktion namens Match Writing Style sorgt außerdem dafür, dass Texte einen einheitlichen Stil behalten, selbst wenn mehrere Personen daran arbeiten.

Auch Google Sheets erhält mehr Automatisierung. Nutzer:innen können beschreiben, welche Tabelle sie brauchen, und Gemini erstellt daraus komplette Tabellenstrukturen. Die KI kann außerdem komplexe Aufgaben lösen und fehlende Daten ergänzen. Google liefert in einem Demovideo ein Beispiel dafür, wie Gemini automatisch einen Finance Tracker erstellt und Daten strukturiert. Laut Google soll das Befüllen von Tabellen dadurch bis zu neunmal schneller möglich sein. In Benchmarks führt Gemini in Sheets aktuell sogar das Ranking SheetsBench an.

In Google Slides generiert Gemini Layouts, Diagramme und Präsentationsfolien aus einem einfachen Prompt. Nutzer:innen benötigen dafür keine Designkenntnisse. Im Video präsentiert Google, wie aus einer kurzen Beschreibung automatisch neue Slides entstehen. Präsentationen lassen sich so schneller erstellen oder an bestehende Designs anpassen.

Google Drive wird ebenfalls stärker KI-gestützt. Neue KI-Übersichten erscheinen direkt über den Suchergebnissen und liefern zusammengefasste Antworten mit Quellen aus den eigenen Dateien. Nutzer:innen müssen Dokumente dadurch nicht mehr einzeln öffnen, um relevante Informationen zu finden. Im Video zeigt Google, wie Gemini Inhalte aus mehreren Dateien analysiert und direkt als Übersicht ausgibt.

Gemini Embedding 2 erweitert Googles KI-Infrastruktur

Parallel stellt Google auch eine neue technische Grundlage für KI-Anwendungen vor. Mit Gemini Embedding 2 erscheint laut Google AI Studio das erste nativ multimodale Embedding-Modell der Gemini-Familie.

Embedding-Modelle übersetzen Inhalte wie Texte, Bilder oder Audio in mathematische Vektoren, damit KI-Systeme Informationen vergleichen und durchsuchen können. Gemini Embedding 2 kann Text, Bilder, Videos, Audio und Dokumente gemeinsam analysieren und in einem gemeinsamen semantischen Raum abbilden.

Das Modell unterstützt laut Google über 100 Sprachen und verarbeitet mehrere Medientypen gleichzeitig. Texte können bis zu 8.192 Token lang sein, Videos bis zu 120 Sekunden dauern und auch PDFs lassen sich direkt einbetten. Dadurch können Anwendungen mehrere Datenformate zusammen analysieren, zum Beispiel Text gemeinsam mit Bildern oder Audio.

Google sieht darin eine wichtige Grundlage für Anwendungen wie semantische Suche, Retrieval-Augmented-Generation, Datenanalyse oder multimodale Klassifizierung. Entwickler:innen können Gemini Embedding 2 bereits über die Gemini API und Vertex AI in einer Public Preview testen.


Nano Banana 2 ist da:
Googles schnellstes KI-Bildmodell mit Gemini-Weltwissen

Nano Banana 2-Schriftzug, einzelne KI-generierte Bilder
© Google via Canva





Source link

Weiterlesen

Beliebt