Connect with us

Online Marketing & SEO

OpenAIs neuer Plan: Sora in ChatGPT


Das Video-KI-Tool Sora von OpenAI soll künftig direkt in ChatGPT einsetzbar sein. Das könnte die Nutzungsfrequenz im Wettbewerb mit Google, Meta und Co. erhöhen.

Tools und Funktionen direkt in ChatGPT zugänglich zu machen, kann sich richtig lohnen. Denn dieses Vorzeige-Tool von OpenAI zählt inzwischen über 900 Millionen monatlich aktive User und toppte kürzlich sogar die Consumer AI Top 100 von Andreessen Horowitz (a16z) sowohl im Bereich der Web-Nutzung als auch unter den KI-Apps. In der Rangliste der meistbesuchten Websites der Welt belegt ChatGPT Rang fünf, nur hinter Google, YouTube, Facebook und Instagram. Jetzt soll ein weiteres OpenAI Tool unmittelbar via ChatGPT zugänglich gemacht werden: Sora. Das KI-Video-Tool wurde im Ende 2024 gelauncht und erfreute sich zum Start großen Interesses. Inzwischen ist schon Sora 2 als Modell auf dem Markt. Gegen Ende des Jahres stieg sogar Disney ein und ermöglicht dank eines Deals mit OpenAI die lizenzierte Charaktererstellung von Mickey Mouse, Elsa und Co.

Allerdings muss sich Sora mit den KI-Video-Tools der Konkurrenz messen, allen voran die Meta AI und Metas Vibes – das jetzt als Editor mit Sora und anderen Tools konkurrieren soll –, Grok Imagine und Veo 3.1 von Google. Die Varianten der großen Tech Player haben einen zentralen Vorteil: Sie sind in populären Umgebungen wie Gemini von Google oder auf X integriert, sodass User nicht erst die dedizierte Anwendung nutzen müssen. Um im Wettbewerb mit Veo 3.1 und Co. bestehen zu können, möchte OpenAI Sora also ebenfalls in der wichtigsten User-Umgebung des Unternehmens platzieren.


Trotz invite-only:
Sora App fast so erfolgreich wie ChatGPT zum Start

Blaues Sora App Icon mit Wolkenform und funkelnden Augen auf violett-blauem Farbverlaufshintergrund, Symbolbild für OpenAIs neue Video-App.
© Sora App Icon via Canva

Sora in ChatGPT: App soll bestehen bleiben

Der Publisher The Information berichtet erneut über große Entwicklungen bei OpenAI. Nach Angaben im Beitrag von Stephanie Palazzolo und Sri Muppidi setzt das KI-Unternehmen auf einen Strategie-Shift. Demnach sollen unternehmensnahe Quellen bestätigt haben, dass Sora künftig direkt in ChatGPT zu nutzen sein soll. Die eigenständige App soll es aber weiterhin geben. Die Integration in ChatGPT könnte zu deutlich mehr Nutzung führen. User könnten das Tool mit Sora 2 als Modell im Hintergrund neben Chats und Aufgaben in KI-Konversationen unmittelbar für die Videoerstellung nutzen.

OpenAI selbst hat diesen Plan noch nicht offiziell bestätigt. Derweil entwickelt das Unternehmen ChatGPT aber weiter zu einer Allround-KI-Umgebung, die auch immer mehr visuelle Elemente erhält. Neu sind zum Beispiel die interaktiven visuellen Erklärungen, etwa für mathematische oder andere wissenschaftliche Konzepte. Head of ChatGPT Nick Turley stellt sie auf LinkedIn vor.

Noch mehr ChatGPT Updates für mehr AI Convenience im Alltag

Außerdem wird ChatGPT zusehends zum Ort der Produktentdeckung. Das Shopping ist mit dem Instant Checkout direkt im AI Chat schon angekommen, auch wenn OpenAI es aktuell wieder etwas einschränkt. Zudem können Advertiser in den USA inzwischen auf ChatGPT werben und Produkte und Leistungen passend zu Konversationen vorstellen. Für die Erweiterung des Werbesystems plant OpenAI nach Angaben von The Information derzeit eine Kooperation mit The Trade Desk, um Ads automatisiert verkaufen zu können. Der Werbeverkauf funktioniert beispielsweise ebenso über Shopify, da Merchants ihre Ads über das E-Commerce-Unternehmen direkt einbuchen können. Der Aufbau eines eigenen Tech Stacks für das Werbesystem ist bei OpenAI ebenfalls geplant, so The Information.

Und auch die ChatGPT-Nutzung im AI-Browsing-Kontext soll stärker unterstützt werden. In OpenAIs AI-first Browser Atlas können sich User jetzt mit mehreren ChatGPT Accounts parallel anmelden. Das ermöglicht es, einen privaten und einen Arbeits-Account zugleich zu nutzen, um mit separaten Profilen im Browser zu agieren. Laut Adam Fry, Product Lead für Atlas bei OpenAI, war diese Funktion bei Usern sehr gefragt – und ihr Fehlen habe auch dazu beigetragen, dass User Atlas im Alltag nicht benutzten.





Source link

Online Marketing & SEO

Neuer Food-Trend?: Burger King geht in die Baby-Burger-Offensive


Bisher galt bei Burgern in der Fastfood-Gastronomie ganz klar das Motto: Größer ist besser. Burger King ruft nun den Gegentrend aus und will mit drei Baby-Burgern an den „Fun of Trying out“ (FOTO) der Kunden appellieren. Dahinter steckt auch ein klares Preiskalkül.

Die Lage an den Bestellschaltern ist dank der Inflation komplizierter denn je. Waren die Menüs bei McDonald’s, Burger King und Co. früher noch zum Snacking-Preis zu haben, stellen mittlerweile selbst die Standard-Optionen viele Kunden preislich vor eine echte Investitionsentscheidung. Um die Kunden trotzdem noch zu regelmäßigen Besuchen zu motivieren, investieren die Fastfood-Ketten in Preisaktionen und besonders große Burger mit einem gefühlt besseren Preis-Leistungsverhältnis.

Burger King Deutschland setzt nun auf den entgegengesetzten Trend und bringt ab sofort drei Burger-Klassiker der Marke im Mini-Format zusammen in eine Box: Baby Whopper, Baby Big King und Baby Steakhouse. Die neuen Baby Burger sollen direkt an die Freude am Probieren der Kunden appellieren, sagt Tim Lenke, Senior Manager Product Development & Innovation bei Burger King Deutschland: „Viele Menschen möchten beim Essen kombinieren und unterschiedliche Geschmacksrichtungen entdecken. Mit den Baby Burgern ermöglichen wir genau das.“

Aus einer Verkaufsperspektive bietet Burger King damit auch kleineren Kundengruppen eine attraktive Bestell-Option zum gemeinsam teilen und dürfte auch so manchen Kunden überzeugen, denen ein einzelner der Burger in Originalgröße schlicht zu mächtig wäre.

Burger King selbst gibt allerdings an, dass man hier vor allem auf ein Kundenbedürfnis reagieren wolle: Denn in einer eigens beauftragten Studie mit 1000 Teilnehmern hatten 49,3 Prozent der Befragten angegeben, dass sie sich nur schwer für nur ein Gericht entscheiden können. Wichtigster Treiber dieser mentalen Blockade ist die Angst, möglicherweise etwas zu verpassen (Fear of missing out = FOMO). Nur 34,9 Prozent der Befragten spüren dieses Gefühl nicht. Sechs von zehn Menschen in Deutschland würden laut Umfrage im Restaurant kleinere Portionen wählen, um dadurch mehr Optionen probieren zu können.

Das neue Burger-King-Angebot soll hier den Gegentrend etablieren: FOTO („Fun Of Trying Out“) – die Freude und Lust am Ausprobieren, ohne sich entscheiden zu müssen, sagt Yvonne von Eyb, CMO von Burger King Deutschland: „Die Umfrage zeigt eindeutig, dass es beim Essen um Entdeckungslust, Spontanität und Experimentierfreude geht.“

Den Launch des neuen Aktionsprodukts begleitet Burger King mit einer Werbekampagne, die den Bestellvorgang im Restaurant humorvoll als Quizshow mit zu vielen Optionen inszeniert (Kreation: Grabarz & Partner). Die Kampagne wird über TV und Digital Video gespielt. Aber ihre eigentliche popkulturelle Strahlkraft sollen die Baby Burger über Social Media (Tiktok, Instagram) und Influencer-Marketing entwickeln. Burger King arbeitet hier im Rahmen der Kampagne gleich mit zwei Social-Media-Spezialisten – Charles & Charlotte und Enkime – zusammen. Die Mediaplanung verantwortet Mediaplus.



Source link

Weiterlesen

Online Marketing & SEO

Edits bringt Freeze Frame und Voiceover Teleprompter


Mit drei neuen Features kannst du aufmerksamkeitsstarke Reels erstellen und zeitgemäß Storytelling betreiben – sogar mit personalisierten Sound-Effektvorschlägen.

Metas Videobearbeitungs-App Edits entwickelt sich zu einer zentralen Option zur Content-Kreation. Erst vor rund einem Jahr gestartet, ist Edits als CapCut-Alternative gerade für den Meta-Kosmos und die Reels äußerst relevant geworden. Das liegt vor allem an den stetigen Feature Updates. Kürzlich hat Edits beispielsweise automatische Highlights für Captions eingeführt und auch eine Funktion, um Reels bis zu 100 Mal schneller zu machen. Jetzt gibt es schon wieder ein Update, das der offizielle Creators Account von Instagram vorstellt. Damit erhalten Creator unter anderem Sound-Vorschläge passend zu ihren Inhalten und ein aus dem Fernsehen bekanntes Feature, das viel Zeit sparen kann.


Automatische Highlights für Reels Captions, mehr Effekte und neuer Ideas Tab für Edits

Edits App
© Meta via Canva

Diese 3 Edits Features sind neu: Besseres Storytelling und passende Sounds

Eine der neuen Optionen von Edits ist erstmal nur für iOS User verfügbar. Dabei handelt es sich um die Funktion „Sound Effects for you“. Diese bietet einen eigenen Tab für personalisierte Vorschläge, genannt „For you“, die zum Content des Creators passen. Im Beispielvideo läuft eine Person zur S-Bahn, Edits schlägt dann einen Sound namens „Running“ vor, aber auch „Wind Blowing“, „Bus Horn“ und „Sneaking“. Die Audios kommen aus der Meta-Bibliothek und können für die akustische Untermalung von Reels eingesetzt werden.

Visuell wiederum unterstützt Edits Creator jetzt mit dem Feature Freeze Frame. Damit können, wie der Name schon sagt, einzelne Frames quasi eingefroren werden, um spezielle Momente im Video hervorzuheben. Ebenso ist es möglich, auf besondere Transitions hinzuweisen, die zum Storytelling gehören. Zum Beispiel könnten Creator einen Freeze Frame an einer konkreten Stelle im Reel-Verlauf zu ihrem Erkennungsmerkmal machen oder die Option einsetzen, um einen Spannungsbogen aufzubauen.

Das so optimierte Storytelling kann darüber hinaus jetzt noch besser per Voiceover gestützt werden. Denn Edits liefert einen Voiceover Teleprompter. Damit können Creator ihre Skripte direkt in der Bearbeitungs-App integrieren und sie beim Aufnehmen als Textvorlage auf dem Screen laufen lassen. So können sie Content aufnehmen, das Voiceover einsprechen und mit wenigen Takes das Reel fertigstellen. Das kann Zeit und Nerven sparen.

Noch mehr Insights dazu, wie Creator hochwertige Reels erstellen, die auf Instagram, aber ebenso auf Facebook und Threads, gut performen können, liefert Meta in einer Dos and Don’ts-Übersicht, die wir für dich mit expliziten Tipps aufbereitet haben.


Don’t do it perfect:

Instagrams neue Dos und Don’ts für Reels

Oranges Instagram Creator Visual mit der Aufschrift „FYI: Understanding Reach on Instagram“, das Hinweise zu Reichweite und Content-Strategien zeigt.
© Instagram via Canva





Source link

Weiterlesen

Online Marketing & SEO

So krass verändert Gemini jetzt die Googles Workspace-Arbeit


In Google Docs, Sheets, Slides und Drive übernimmt Gemini jetzt immer mehr Aufgaben. Wie die Google-KI ab sofort Dateien, Mails und Web-Infos verbindet und sogar das Prinzip der leeren Seite aufbricht.

Gemini zieht tief in Google Workspace ein. Google integriert die KI jetzt in Docs, Sheets, Slides und Drive. Die KI kann Informationen aus Dateien, E-Mails und dem Web zusammenführen und daraus Inhalte erstellen oder Fragen beantworten. Laut Google geschieht das unter Einhaltung der Datenschutzrichtlinien.

Wie Gemini die Arbeit in Dokumenten, Tabellen und Präsentationen verändern soll und warum das klassische Blank Space-Prinzip beim Start eines Google-Dokuments künftig Geschichte sein könnte. Parallel stellt Google zusätzliche KI-Tools vor. Wie die neuen Gemini-Funktionen im Arbeitsalltag aussehen könnten, zeigt das Unternehmen im folgenden Video.

Google demonstriert im Video, wie Gemini künftig in Google Workspace arbeitet, © Google

Gemini 3.1 Flash-Lite:
Schnellstes und kosteneffizientestes KI-Modell von Google

Gemini 3.1 Flash-Lite-Schriftzug vor dunklem Hintergrund mit hellen Elementen
© Google via Canva

Nie wieder Informationen zusammensuchen? Gemini übernimmt!

Google beschreibt die neuen Funktionen als nächsten Schritt, um klassische Büroarbeit schneller zu erledigen. Gemini kann künftig Informationen aus Dateien, E-Mails und dem Web kombinieren und daraus direkt nutzbare Inhalte erstellen. Wer etwa eine Präsentation vorbereitet, eine Tabelle auswertet oder einen Bericht schreibt, muss Informationen nicht mehr selbst aus verschiedenen Dokumenten zusammensuchen. Die KI kann diese Quellen verbinden und daraus Entwürfe, Zusammenfassungen oder Antworten generieren.

Die Updates starten zunächst als Beta für Abonnent:innen von Google AI Ultra und Google AI Pro. Vorgestellt wurden sie im offiziellen Workspace Blog von Google. Dort erklärt das Unternehmen auch, dass Gemini künftig stärker als Arbeitsassistenz innerhalb der Tools fungieren soll. Auch Googles CEO Sundar Pichai griff die Neuerungen in einem LinkedIn Post auf und betonte, dass Gemini Nutzer:innen helfen soll, Aufgaben schneller zu erledigen.

Docs, Sheets, Slides und Drive bekommen neue KI-Funktionen

Aller Anfang ist schwer!? Mit KI nicht mehr unbedingt. Google bricht mit Gemini das Prinzip der leeren Seite auf. Nutzer:innen können direkt mit einem Entwurf starten. Statt bei null zu beginnen, beschreiben sie der KI kurz, was sie brauchen. Gemini erstellt daraus automatisch ein erstes Dokument, eine Tabelle oder eine Präsentation. In Google Docs lässt sich so aus einer kurzen Beschreibung sofort ein erster Textentwurf generieren. Dabei greift die KI auf Inhalte aus vorhandenen Dateien oder E-Mails zurück. Im Video zeigt Google, wie aus bestehenden Dokumenten automatisch ein neuer Text entsteht. Eine Funktion namens Match Writing Style sorgt außerdem dafür, dass Texte einen einheitlichen Stil behalten, selbst wenn mehrere Personen daran arbeiten.

Auch Google Sheets erhält mehr Automatisierung. Nutzer:innen können beschreiben, welche Tabelle sie brauchen, und Gemini erstellt daraus komplette Tabellenstrukturen. Die KI kann außerdem komplexe Aufgaben lösen und fehlende Daten ergänzen. Google liefert in einem Demovideo ein Beispiel dafür, wie Gemini automatisch einen Finance Tracker erstellt und Daten strukturiert. Laut Google soll das Befüllen von Tabellen dadurch bis zu neunmal schneller möglich sein. In Benchmarks führt Gemini in Sheets aktuell sogar das Ranking SheetsBench an.

In Google Slides generiert Gemini Layouts, Diagramme und Präsentationsfolien aus einem einfachen Prompt. Nutzer:innen benötigen dafür keine Designkenntnisse. Im Video präsentiert Google, wie aus einer kurzen Beschreibung automatisch neue Slides entstehen. Präsentationen lassen sich so schneller erstellen oder an bestehende Designs anpassen.

Google Drive wird ebenfalls stärker KI-gestützt. Neue KI-Übersichten erscheinen direkt über den Suchergebnissen und liefern zusammengefasste Antworten mit Quellen aus den eigenen Dateien. Nutzer:innen müssen Dokumente dadurch nicht mehr einzeln öffnen, um relevante Informationen zu finden. Im Video zeigt Google, wie Gemini Inhalte aus mehreren Dateien analysiert und direkt als Übersicht ausgibt.

Gemini Embedding 2 erweitert Googles KI-Infrastruktur

Parallel stellt Google auch eine neue technische Grundlage für KI-Anwendungen vor. Mit Gemini Embedding 2 erscheint laut Google AI Studio das erste nativ multimodale Embedding-Modell der Gemini-Familie.

Embedding-Modelle übersetzen Inhalte wie Texte, Bilder oder Audio in mathematische Vektoren, damit KI-Systeme Informationen vergleichen und durchsuchen können. Gemini Embedding 2 kann Text, Bilder, Videos, Audio und Dokumente gemeinsam analysieren und in einem gemeinsamen semantischen Raum abbilden.

Das Modell unterstützt laut Google über 100 Sprachen und verarbeitet mehrere Medientypen gleichzeitig. Texte können bis zu 8.192 Token lang sein, Videos bis zu 120 Sekunden dauern und auch PDFs lassen sich direkt einbetten. Dadurch können Anwendungen mehrere Datenformate zusammen analysieren, zum Beispiel Text gemeinsam mit Bildern oder Audio.

Google sieht darin eine wichtige Grundlage für Anwendungen wie semantische Suche, Retrieval-Augmented-Generation, Datenanalyse oder multimodale Klassifizierung. Entwickler:innen können Gemini Embedding 2 bereits über die Gemini API und Vertex AI in einer Public Preview testen.


Nano Banana 2 ist da:
Googles schnellstes KI-Bildmodell mit Gemini-Weltwissen

Nano Banana 2-Schriftzug, einzelne KI-generierte Bilder
© Google via Canva





Source link

Weiterlesen

Beliebt