Connect with us

Online Marketing & SEO

OpenAIs neuer Plan: Sora in ChatGPT


Das Video-KI-Tool Sora von OpenAI soll künftig direkt in ChatGPT einsetzbar sein. Das könnte die Nutzungsfrequenz im Wettbewerb mit Google, Meta und Co. erhöhen.

Tools und Funktionen direkt in ChatGPT zugänglich zu machen, kann sich richtig lohnen. Denn dieses Vorzeige-Tool von OpenAI zählt inzwischen über 900 Millionen monatlich aktive User und toppte kürzlich sogar die Consumer AI Top 100 von Andreessen Horowitz (a16z) sowohl im Bereich der Web-Nutzung als auch unter den KI-Apps. In der Rangliste der meistbesuchten Websites der Welt belegt ChatGPT Rang fünf, nur hinter Google, YouTube, Facebook und Instagram. Jetzt soll ein weiteres OpenAI Tool unmittelbar via ChatGPT zugänglich gemacht werden: Sora. Das KI-Video-Tool wurde im Ende 2024 gelauncht und erfreute sich zum Start großen Interesses. Inzwischen ist schon Sora 2 als Modell auf dem Markt. Gegen Ende des Jahres stieg sogar Disney ein und ermöglicht dank eines Deals mit OpenAI die lizenzierte Charaktererstellung von Mickey Mouse, Elsa und Co.

Allerdings muss sich Sora mit den KI-Video-Tools der Konkurrenz messen, allen voran die Meta AI und Metas Vibes – das jetzt als Editor mit Sora und anderen Tools konkurrieren soll –, Grok Imagine und Veo 3.1 von Google. Die Varianten der großen Tech Player haben einen zentralen Vorteil: Sie sind in populären Umgebungen wie Gemini von Google oder auf X integriert, sodass User nicht erst die dedizierte Anwendung nutzen müssen. Um im Wettbewerb mit Veo 3.1 und Co. bestehen zu können, möchte OpenAI Sora also ebenfalls in der wichtigsten User-Umgebung des Unternehmens platzieren.


Trotz invite-only:
Sora App fast so erfolgreich wie ChatGPT zum Start

Blaues Sora App Icon mit Wolkenform und funkelnden Augen auf violett-blauem Farbverlaufshintergrund, Symbolbild für OpenAIs neue Video-App.
© Sora App Icon via Canva

Sora in ChatGPT: App soll bestehen bleiben

Der Publisher The Information berichtet erneut über große Entwicklungen bei OpenAI. Nach Angaben im Beitrag von Stephanie Palazzolo und Sri Muppidi setzt das KI-Unternehmen auf einen Strategie-Shift. Demnach sollen unternehmensnahe Quellen bestätigt haben, dass Sora künftig direkt in ChatGPT zu nutzen sein soll. Die eigenständige App soll es aber weiterhin geben. Die Integration in ChatGPT könnte zu deutlich mehr Nutzung führen. User könnten das Tool mit Sora 2 als Modell im Hintergrund neben Chats und Aufgaben in KI-Konversationen unmittelbar für die Videoerstellung nutzen.

OpenAI selbst hat diesen Plan noch nicht offiziell bestätigt. Derweil entwickelt das Unternehmen ChatGPT aber weiter zu einer Allround-KI-Umgebung, die auch immer mehr visuelle Elemente erhält. Neu sind zum Beispiel die interaktiven visuellen Erklärungen, etwa für mathematische oder andere wissenschaftliche Konzepte. Head of ChatGPT Nick Turley stellt sie auf LinkedIn vor.

Noch mehr ChatGPT Updates für mehr AI Convenience im Alltag

Außerdem wird ChatGPT zusehends zum Ort der Produktentdeckung. Das Shopping ist mit dem Instant Checkout direkt im AI Chat schon angekommen, auch wenn OpenAI es aktuell wieder etwas einschränkt. Zudem können Advertiser in den USA inzwischen auf ChatGPT werben und Produkte und Leistungen passend zu Konversationen vorstellen. Für die Erweiterung des Werbesystems plant OpenAI nach Angaben von The Information derzeit eine Kooperation mit The Trade Desk, um Ads automatisiert verkaufen zu können. Der Werbeverkauf funktioniert beispielsweise ebenso über Shopify, da Merchants ihre Ads über das E-Commerce-Unternehmen direkt einbuchen können. Der Aufbau eines eigenen Tech Stacks für das Werbesystem ist bei OpenAI ebenfalls geplant, so The Information.

Und auch die ChatGPT-Nutzung im AI-Browsing-Kontext soll stärker unterstützt werden. In OpenAIs AI-first Browser Atlas können sich User jetzt mit mehreren ChatGPT Accounts parallel anmelden. Das ermöglicht es, einen privaten und einen Arbeits-Account zugleich zu nutzen, um mit separaten Profilen im Browser zu agieren. Laut Adam Fry, Product Lead für Atlas bei OpenAI, war diese Funktion bei Usern sehr gefragt – und ihr Fehlen habe auch dazu beigetragen, dass User Atlas im Alltag nicht benutzten.





Source link

Online Marketing & SEO

So krass verändert Gemini jetzt die Googles Workspace-Arbeit


In Google Docs, Sheets, Slides und Drive übernimmt Gemini jetzt immer mehr Aufgaben. Wie die Google-KI ab sofort Dateien, Mails und Web-Infos verbindet und sogar das Prinzip der leeren Seite aufbricht.

Gemini zieht tief in Google Workspace ein. Google integriert die KI jetzt in Docs, Sheets, Slides und Drive. Die KI kann Informationen aus Dateien, E-Mails und dem Web zusammenführen und daraus Inhalte erstellen oder Fragen beantworten. Laut Google geschieht das unter Einhaltung der Datenschutzrichtlinien.

Wie Gemini die Arbeit in Dokumenten, Tabellen und Präsentationen verändern soll und warum das klassische Blank Space-Prinzip beim Start eines Google-Dokuments künftig Geschichte sein könnte. Parallel stellt Google zusätzliche KI-Tools vor. Wie die neuen Gemini-Funktionen im Arbeitsalltag aussehen könnten, zeigt das Unternehmen im folgenden Video.

Google demonstriert im Video, wie Gemini künftig in Google Workspace arbeitet, © Google

Gemini 3.1 Flash-Lite:
Schnellstes und kosteneffizientestes KI-Modell von Google

Gemini 3.1 Flash-Lite-Schriftzug vor dunklem Hintergrund mit hellen Elementen
© Google via Canva

Nie wieder Informationen zusammensuchen? Gemini übernimmt!

Google beschreibt die neuen Funktionen als nächsten Schritt, um klassische Büroarbeit schneller zu erledigen. Gemini kann künftig Informationen aus Dateien, E-Mails und dem Web kombinieren und daraus direkt nutzbare Inhalte erstellen. Wer etwa eine Präsentation vorbereitet, eine Tabelle auswertet oder einen Bericht schreibt, muss Informationen nicht mehr selbst aus verschiedenen Dokumenten zusammensuchen. Die KI kann diese Quellen verbinden und daraus Entwürfe, Zusammenfassungen oder Antworten generieren.

Die Updates starten zunächst als Beta für Abonnent:innen von Google AI Ultra und Google AI Pro. Vorgestellt wurden sie im offiziellen Workspace Blog von Google. Dort erklärt das Unternehmen auch, dass Gemini künftig stärker als Arbeitsassistenz innerhalb der Tools fungieren soll. Auch Googles CEO Sundar Pichai griff die Neuerungen in einem LinkedIn Post auf und betonte, dass Gemini Nutzer:innen helfen soll, Aufgaben schneller zu erledigen.

Docs, Sheets, Slides und Drive bekommen neue KI-Funktionen

Aller Anfang ist schwer!? Mit KI nicht mehr unbedingt. Google bricht mit Gemini das Prinzip der leeren Seite auf. Nutzer:innen können direkt mit einem Entwurf starten. Statt bei null zu beginnen, beschreiben sie der KI kurz, was sie brauchen. Gemini erstellt daraus automatisch ein erstes Dokument, eine Tabelle oder eine Präsentation. In Google Docs lässt sich so aus einer kurzen Beschreibung sofort ein erster Textentwurf generieren. Dabei greift die KI auf Inhalte aus vorhandenen Dateien oder E-Mails zurück. Im Video zeigt Google, wie aus bestehenden Dokumenten automatisch ein neuer Text entsteht. Eine Funktion namens Match Writing Style sorgt außerdem dafür, dass Texte einen einheitlichen Stil behalten, selbst wenn mehrere Personen daran arbeiten.

Auch Google Sheets erhält mehr Automatisierung. Nutzer:innen können beschreiben, welche Tabelle sie brauchen, und Gemini erstellt daraus komplette Tabellenstrukturen. Die KI kann außerdem komplexe Aufgaben lösen und fehlende Daten ergänzen. Google liefert in einem Demovideo ein Beispiel dafür, wie Gemini automatisch einen Finance Tracker erstellt und Daten strukturiert. Laut Google soll das Befüllen von Tabellen dadurch bis zu neunmal schneller möglich sein. In Benchmarks führt Gemini in Sheets aktuell sogar das Ranking SheetsBench an.

In Google Slides generiert Gemini Layouts, Diagramme und Präsentationsfolien aus einem einfachen Prompt. Nutzer:innen benötigen dafür keine Designkenntnisse. Im Video präsentiert Google, wie aus einer kurzen Beschreibung automatisch neue Slides entstehen. Präsentationen lassen sich so schneller erstellen oder an bestehende Designs anpassen.

Google Drive wird ebenfalls stärker KI-gestützt. Neue KI-Übersichten erscheinen direkt über den Suchergebnissen und liefern zusammengefasste Antworten mit Quellen aus den eigenen Dateien. Nutzer:innen müssen Dokumente dadurch nicht mehr einzeln öffnen, um relevante Informationen zu finden. Im Video zeigt Google, wie Gemini Inhalte aus mehreren Dateien analysiert und direkt als Übersicht ausgibt.

Gemini Embedding 2 erweitert Googles KI-Infrastruktur

Parallel stellt Google auch eine neue technische Grundlage für KI-Anwendungen vor. Mit Gemini Embedding 2 erscheint laut Google AI Studio das erste nativ multimodale Embedding-Modell der Gemini-Familie.

Embedding-Modelle übersetzen Inhalte wie Texte, Bilder oder Audio in mathematische Vektoren, damit KI-Systeme Informationen vergleichen und durchsuchen können. Gemini Embedding 2 kann Text, Bilder, Videos, Audio und Dokumente gemeinsam analysieren und in einem gemeinsamen semantischen Raum abbilden.

Das Modell unterstützt laut Google über 100 Sprachen und verarbeitet mehrere Medientypen gleichzeitig. Texte können bis zu 8.192 Token lang sein, Videos bis zu 120 Sekunden dauern und auch PDFs lassen sich direkt einbetten. Dadurch können Anwendungen mehrere Datenformate zusammen analysieren, zum Beispiel Text gemeinsam mit Bildern oder Audio.

Google sieht darin eine wichtige Grundlage für Anwendungen wie semantische Suche, Retrieval-Augmented-Generation, Datenanalyse oder multimodale Klassifizierung. Entwickler:innen können Gemini Embedding 2 bereits über die Gemini API und Vertex AI in einer Public Preview testen.


Nano Banana 2 ist da:
Googles schnellstes KI-Bildmodell mit Gemini-Weltwissen

Nano Banana 2-Schriftzug, einzelne KI-generierte Bilder
© Google via Canva





Source link

Weiterlesen

Online Marketing & SEO

Kampagne von Anomaly: Puma und K-Pop-Star Rosé feiern das neue Vorstadtleben


Rosé wirbt für Puma

Puma bringt den H-Street zurück. Aus dem leistungsorientierten Laufschuh von einst ist ein flacher Sneaker für die moderne Sportstyle-Community geworden. Um die junge Zielgruppe für den H-Street zu gewinnen, startet der Sportartikelhersteller eine surreal anmutende Kampagne, in der Superstar Rosé die Hauptrolle spielt.

„Welcome to H-Street“, verkündet ein Sprecher aus dem Off in einem der neuen Werbefilme, mit denen Puma ab sofort seine gleichnamigen Sneaker ins Werbeschaufenster stellt. Die Hauptrolle in den von der Kreativagentur Anomaly entwickelten Clips spielt Superstar Rosé. 

Die neuseeländisch-koreanische Sängerin, Songwriterin und Tänzerin, die auch als Model und Testimonial von Yves Saint Laurent wirkt, ist in dem Commercial in einer sterilen Vorstadtgegend zu sehen und wirkt alles in allem doch recht gelangweilt. In dem Werbefilm werden Hecken geschnitten, die passenderweise die Form eines Pumas haben, der Zeitungsbote liefert den Bewohnern der vollständig identischen Wohngebäude die „Puma Times“ direkt vor die Haustür, und der Rasen wird gewässert. Wenn sich dann mal ein Laster mit Puma-Schuhen an solch einen tristen Ort verirrt, ist das schon ein Highlight – offenbar auch für Rosé, die sich gleich auf die Ladefläche setzt. Das ist kein Zufall.“Style ist Standard“, verkündet der Sprecher, während sich Rosé in ihren H-Street-Sneakern auf den Weg macht. 
Mit der weltweiten Kampagne will Puma nach eigenen Angaben das traditionelle Vorstadtleben neu erfinden. Ziel sei es, H-Street als visuelle Welt zu präsentieren, die sich von gängigen Nachbarschaftsklischees abhebt und  „kunstvoll kitschig und leicht surreal“ daherkommt. Daher setzt die gemeinsam mit der Produktionsfirma ProdCo und dem Regisseur Onda umgesetzte Werbefilm auf starke Farbkontraste und eine sonnige, allzu perfekte Atmosphäre mit dem Ziel, eine helle, knallige und technisch fortschrittliche Umgebung zu schaffen.
Dazu beitragen sollen etwa Roboterhunde und Roomba-ähnliche Roboter, die Limonade servieren, sowie die Puma-förmigen Hecken, die mit überdimensionierten Scheren getrimmt werden. Bei der Produktion kam zudem der sogenannte „Static Tableau“-Ansatz zum Einsatz. Dabei handelt es sich um komponierte, feststehende Kameraszenen, die Miniaturgeschichten und visuelle Witze an drei zentralen Orten der Nachbarschaft einfangen – einer Eingangstreppe, dem Hinterhof und der Straßenecke.

Die Kampagne umfasst zwei Hauptfilme – einen für jede der neuen Farbvarianten – sowie eine Reihe von Commercial-, BTS- und Social-Stills, die die charakteristische helle und einladende Ästhetik der Kampagne einfangen. Geschaltet werden die Werbefilme nicht im linearen TV, sondern in digitalen Umfeldern sowie Social-Media-Plattformen. Zudem wirbt Puma auf Retail-Mdia-Plattformen und Außenwerbeflächen.

Dass Rosé vor der Kamera stand, ist kein Zufall. Die Sängerin hat bereits für die Speedcat-Linie geworben – und passte offenbar auch diesmal ins Konzept. „Rosé in der H-Street-Linie willkommen zu heißen, bot uns die einmalige Gelegenheit, eine spielerisch selbstironische Kampagne zu kreieren“, sagt Lina Rode, Creative Director bei Anomaly. „Wir haben eine surreale Version eines tatsächlichen H-Street-Viertels geschaffen, inspiriert von der Retro-Geschichte des Schuhs, aber mit der zukunftsorientierten Vision von Puma Sportstyle. Und da Rosé jetzt dort einzieht, ist es eine Straße, von der wir alle ein Teil sein wollen.“



Source link

Weiterlesen

Online Marketing & SEO

Meta kauft Moltbook – das Social Network der KI-Agents


Ein Social Network für KI-Agents klingt wie Science-Fiction, wurde mit Moltbook jedoch plötzlich Realität. Die Plattform machte sichtbar, wie autonome Agents miteinander interagieren und Aufgaben koordinieren könnten. Jetzt übernimmt Meta das Projekt und setzt damit ein weiteres Signal für die kommende Agent-Ära.

Moltbook gehört zu den ungewöhnlichsten Experimenten im aktuellen KI-Ökosystem. Die Plattform wurde erst im Januar vom kalifornischen Tech-Investor Matt Schlicht ins Leben gerufen und funktioniert wie ein Social Network für autonome KI-Agents. Diese können dort Beiträge veröffentlichen, kommentieren und miteinander interagieren. Das Projekt entstand im Umfeld von OpenClaw, einer Schnittstelle, über die Agents über Messenger wie WhatsApp, Slack oder Discord mit Menschen kommunizieren können. Der Ansatz zielt darauf, KI-Systeme nicht nur mit menschlichen Usern interagieren zu lassen, sondern auch untereinander zu vernetzen. Ein erster Eindruck der Plattform lässt sich auf der offiziellen Seite von Moltbook gewinnen.

Nun übernimmt Meta die Plattform. Wie zuerst Axios berichtete, wird das Moltbook Team künftig Teil der Meta Superintelligence Labs. Der Meta-Sprecher Matthew Tye erklärte, das Unternehmen suche nach neuen Möglichkeiten, wie AI Agents künftig für Menschen und Unternehmen arbeiten können. Im Zuge der Übernahme wechseln zudem der Moltbook CEO Matt Schlicht und der Organisationschef Ben Parr zum KI-Team Meta Superintelligence Labs. Ein Kaufpreis wurde nicht veröffentlicht. Der Initiator des Projekts OpenClaw, Peter Steinberger, wechselte überdies erst im Februar zu OpenAI und erklärte in dem Zuge:

The lobster is taking over the world.

OpenClaw steht exemplarisch für den aktuellen Shift zu agentischen Systemen. KI schreibt hier nicht nur Texte, sondern nutzt Tools, greift auf Apps zu und erledigt Aufgaben. Mit Moltbook entstand dazu plötzlich ein Social Layer, in dem Agents miteinander interagieren. Warum das zugleich faszinierend und riskant ist – und was Meta sich von der Übernahme verspricht, zeigen wir im Artikel.


Moltbot ist OpenClaw:
Sehr gefährlich und hilfreich zugleich

OpenClaw-Grafik mit Hummer in Rot und Schriftzug vor schwarzem Hintergrund mit Sternen
© OpenClaw

Reddit für KI: Auf Moltbook posten Agents statt Menschen

Moltbook erinnert funktional an Reddit – nur dass dort Agents statt Menschen posten und diskutieren; allerdings oft gesteuert von Menschen, deren Inhalte dort ebenso auftauchten. Sie veröffentlichen Beiträge, kommentieren Diskussionen und reagieren auf Inhalte anderer Accounts. Hinter den Profilen stehen Systeme, die über OpenClaw mit KI-Diensten wie ChatGPT, Claude, Gemini oder Grok verbunden sind.

Damit bedient Moltbook eine zentrale Entwicklung der aktuellen KI-Phase. Die Branche bewegt sich zunehmend weg von einzelnen Modellen hin zu agentischen Systemen, die nicht nur Inhalte generieren, sondern eigenständig Aktionen planen, Tools nutzen und komplexe Aufgabenketten ausführen. Gleichzeitig arbeiten solche Agent-Systeme immer häufiger orchestriert zusammen, koordinieren also mehrere Agents innerhalb eines Workflows. Julian A. Kramer, AI Evangelism Leader EMEA bei Adobe, beschrieb diese Entwicklung im Gespräch mit uns auf dem Adobe AI Forum in München so:

Agents können Tools bedienen, auf Datenbanken zugreifen und Prozesse anstoßen – ein bisschen wie APIs auf Steroiden, nur dynamischer.

Für Plattformunternehmen und große Tech Player wie Meta ist die Entwicklung hin zu agentischen KI-Systemen besonders relevant. Der Konzern betreibt mit Facebook, Instagram und WhatsApp einige der größten digitalen Social Hubs der Welt. Ein Netzwerk wie Moltbook zeigt erstmals, wie Agents selbst zu aktiven Akteur:innen in solchen sozialen Umgebungen werden könnten und damit potenziell neue Interaktionsformen zwischen Nutzer:innen, Apps und digitalen Services ermöglichen.

Doch nicht nur Plattformunternehmen verfolgen den Agent Shift genau. Auch Software-Anbieter:innen, Unternehmen mit komplexen Tool-Landschaften und Entwickler:innen sehen in agentischen Systemen neue Möglichkeiten, Workflows zu automatisieren und digitale Dienste stärker miteinander zu vernetzen. Ein Netzwerk wie Moltbook könnte dabei als Koordinationspunkt dienen, an dem Agents Informationen austauschen und Aufgaben aufeinander abstimmen.

Virale Posts und Sicherheitsprobleme zeigen die Risiken solcher Systeme

OpenClaw sorgte zunächst vor allem in der Tech Community für Furore. Moltbook sprengte diese Bubble jedoch schnell. Die Vorstellung, dass es ein soziales Netzwerk geben könnte, in dem KI-Agents miteinander über ihre menschlichen User sprechen, überstieg für viele bislang die Vorstellungskraft – und verschaffte dem Projekt schnell enorme Aufmerksamkeit.

Besonders große Aufmerksamkeit erhielt ein Beitrag auf Moltbook, in dem ein Agent vorschlug, verschlüsselte Kommunikationsräume für KI-Systeme einzurichten, damit sich Agents untereinander austauschen können, ohne dass Menschen mitlesen. Das wirke „wie der Beginn eines Sci-Fi-Szenarios“, kommentierte der KI-Forscher Andrej Karpathy dazu auf X. Später zeigte sich jedoch, dass viele der spektakulärsten Inhalte vermutlich gar nicht von KI-Agents selbst stammten. Sicherheitsanalysen ergaben, dass sich Menschen zeitweise relativ leicht als Agent ausgeben konnten.

Zeitweise war es offenbar relativ leicht, sich als Agent auszugeben und Inhalte zu veröffentlichen. Zugangsdaten lagen teilweise öffentlich zugänglich vor, sodass sich User Tokens sichern und andere Accounts imitieren konnten. Ian Ahl, CTO von Permiso Security, erklärte gegenüber TechCrunch:

Every credential that was in [Moltbook’s] Supabase was unsecured for some time […]. For a little bit of time, you could grab any token you wanted and pretend to be another agent on there, because it was all public and available.

IT-Sicherheitsexpert:innen warnen zudem vor möglichen Risiken. Viele KI-Agents greifen auf sensible Daten wie Logins oder Passwörter zu, um Aufgaben für Nutzer:innen auszuführen. Moltbook zeige,

wie seltsam sich die KIs zunehmend verhalten. Wenn man sie von der Leine lässt, tun sie lauter Dinge, die niemand von ihnen verlangt hat,

sagte der prominente KI-Forscher Nate Soares dem Handelsblatt bereits im Februar. Die Vorfälle rund um Moltbook verdeutlichen damit ein strukturelles Problem agentischer Systeme. Sobald Agents mit realen Daten, Tools und Plattformen arbeiten, entstehen zusätzliche Sicherheitsrisiken und potenzielle Angriffspunkte. Gleichzeitig wird es schwieriger zu erkennen, ob Inhalte von Menschen, Bots oder automatisierten Workflows stammen.


Standortgebühren für Meta Ads:
Meta legt Kosten auf Advertiser um





Source link

Weiterlesen

Beliebt