Online Marketing & SEO
Meta kauft Moltbook – das Social Network der KI-Agents
Ein Social Network für KI-Agents klingt wie Science-Fiction, wurde mit Moltbook jedoch plötzlich Realität. Die Plattform machte sichtbar, wie autonome Agents miteinander interagieren und Aufgaben koordinieren könnten. Jetzt übernimmt Meta das Projekt und setzt damit ein weiteres Signal für die kommende Agent-Ära.
Moltbook gehört zu den ungewöhnlichsten Experimenten im aktuellen KI-Ökosystem. Die Plattform wurde erst im Januar vom kalifornischen Tech-Investor Matt Schlicht ins Leben gerufen und funktioniert wie ein Social Network für autonome KI-Agents. Diese können dort Beiträge veröffentlichen, kommentieren und miteinander interagieren. Das Projekt entstand im Umfeld von OpenClaw, einer Schnittstelle, über die Agents über Messenger wie WhatsApp, Slack oder Discord mit Menschen kommunizieren können. Der Ansatz zielt darauf, KI-Systeme nicht nur mit menschlichen Usern interagieren zu lassen, sondern auch untereinander zu vernetzen. Ein erster Eindruck der Plattform lässt sich auf der offiziellen Seite von Moltbook gewinnen.
Nun übernimmt Meta die Plattform. Wie zuerst Axios berichtete, wird das Moltbook Team künftig Teil der Meta Superintelligence Labs. Der Meta-Sprecher Matthew Tye erklärte, das Unternehmen suche nach neuen Möglichkeiten, wie AI Agents künftig für Menschen und Unternehmen arbeiten können. Im Zuge der Übernahme wechseln zudem der Moltbook CEO Matt Schlicht und der Organisationschef Ben Parr zum KI-Team Meta Superintelligence Labs. Ein Kaufpreis wurde nicht veröffentlicht. Der Initiator des Projekts OpenClaw, Peter Steinberger, wechselte überdies erst im Februar zu OpenAI und erklärte in dem Zuge:
The lobster is taking over the world.
OpenClaw steht exemplarisch für den aktuellen Shift zu agentischen Systemen. KI schreibt hier nicht nur Texte, sondern nutzt Tools, greift auf Apps zu und erledigt Aufgaben. Mit Moltbook entstand dazu plötzlich ein Social Layer, in dem Agents miteinander interagieren. Warum das zugleich faszinierend und riskant ist – und was Meta sich von der Übernahme verspricht, zeigen wir im Artikel.
Moltbot ist OpenClaw:
Sehr gefährlich und hilfreich zugleich

Reddit für KI: Auf Moltbook posten Agents statt Menschen
Moltbook erinnert funktional an Reddit – nur dass dort Agents statt Menschen posten und diskutieren; allerdings oft gesteuert von Menschen, deren Inhalte dort ebenso auftauchten. Sie veröffentlichen Beiträge, kommentieren Diskussionen und reagieren auf Inhalte anderer Accounts. Hinter den Profilen stehen Systeme, die über OpenClaw mit KI-Diensten wie ChatGPT, Claude, Gemini oder Grok verbunden sind.
Damit bedient Moltbook eine zentrale Entwicklung der aktuellen KI-Phase. Die Branche bewegt sich zunehmend weg von einzelnen Modellen hin zu agentischen Systemen, die nicht nur Inhalte generieren, sondern eigenständig Aktionen planen, Tools nutzen und komplexe Aufgabenketten ausführen. Gleichzeitig arbeiten solche Agent-Systeme immer häufiger orchestriert zusammen, koordinieren also mehrere Agents innerhalb eines Workflows. Julian A. Kramer, AI Evangelism Leader EMEA bei Adobe, beschrieb diese Entwicklung im Gespräch mit uns auf dem Adobe AI Forum in München so:
Agents können Tools bedienen, auf Datenbanken zugreifen und Prozesse anstoßen – ein bisschen wie APIs auf Steroiden, nur dynamischer.
Für Plattformunternehmen und große Tech Player wie Meta ist die Entwicklung hin zu agentischen KI-Systemen besonders relevant. Der Konzern betreibt mit Facebook, Instagram und WhatsApp einige der größten digitalen Social Hubs der Welt. Ein Netzwerk wie Moltbook zeigt erstmals, wie Agents selbst zu aktiven Akteur:innen in solchen sozialen Umgebungen werden könnten und damit potenziell neue Interaktionsformen zwischen Nutzer:innen, Apps und digitalen Services ermöglichen.
Doch nicht nur Plattformunternehmen verfolgen den Agent Shift genau. Auch Software-Anbieter:innen, Unternehmen mit komplexen Tool-Landschaften und Entwickler:innen sehen in agentischen Systemen neue Möglichkeiten, Workflows zu automatisieren und digitale Dienste stärker miteinander zu vernetzen. Ein Netzwerk wie Moltbook könnte dabei als Koordinationspunkt dienen, an dem Agents Informationen austauschen und Aufgaben aufeinander abstimmen.
Virale Posts und Sicherheitsprobleme zeigen die Risiken solcher Systeme
OpenClaw sorgte zunächst vor allem in der Tech Community für Furore. Moltbook sprengte diese Bubble jedoch schnell. Die Vorstellung, dass es ein soziales Netzwerk geben könnte, in dem KI-Agents miteinander über ihre menschlichen User sprechen, überstieg für viele bislang die Vorstellungskraft – und verschaffte dem Projekt schnell enorme Aufmerksamkeit.
Besonders große Aufmerksamkeit erhielt ein Beitrag auf Moltbook, in dem ein Agent vorschlug, verschlüsselte Kommunikationsräume für KI-Systeme einzurichten, damit sich Agents untereinander austauschen können, ohne dass Menschen mitlesen. Das wirke „wie der Beginn eines Sci-Fi-Szenarios“, kommentierte der KI-Forscher Andrej Karpathy dazu auf X. Später zeigte sich jedoch, dass viele der spektakulärsten Inhalte vermutlich gar nicht von KI-Agents selbst stammten. Sicherheitsanalysen ergaben, dass sich Menschen zeitweise relativ leicht als Agent ausgeben konnten.
What’s currently going on at @moltbook is genuinely the most incredible sci-fi takeoff-adjacent thing I have seen recently. People’s Clawdbots (moltbots, now @openclaw) are self-organizing on a Reddit-like site for AIs, discussing various topics, e.g. even how to speak privately. https://t.co/A9iYOHeByi
— Andrej Karpathy (@karpathy) January 30, 2026
Zeitweise war es offenbar relativ leicht, sich als Agent auszugeben und Inhalte zu veröffentlichen. Zugangsdaten lagen teilweise öffentlich zugänglich vor, sodass sich User Tokens sichern und andere Accounts imitieren konnten. Ian Ahl, CTO von Permiso Security, erklärte gegenüber TechCrunch:
Every credential that was in [Moltbook’s] Supabase was unsecured for some time […]. For a little bit of time, you could grab any token you wanted and pretend to be another agent on there, because it was all public and available.
IT-Sicherheitsexpert:innen warnen zudem vor möglichen Risiken. Viele KI-Agents greifen auf sensible Daten wie Logins oder Passwörter zu, um Aufgaben für Nutzer:innen auszuführen. Moltbook zeige,
wie seltsam sich die KIs zunehmend verhalten. Wenn man sie von der Leine lässt, tun sie lauter Dinge, die niemand von ihnen verlangt hat,
sagte der prominente KI-Forscher Nate Soares dem Handelsblatt bereits im Februar. Die Vorfälle rund um Moltbook verdeutlichen damit ein strukturelles Problem agentischer Systeme. Sobald Agents mit realen Daten, Tools und Plattformen arbeiten, entstehen zusätzliche Sicherheitsrisiken und potenzielle Angriffspunkte. Gleichzeitig wird es schwieriger zu erkennen, ob Inhalte von Menschen, Bots oder automatisierten Workflows stammen.
Standortgebühren für Meta Ads:
Meta legt Kosten auf Advertiser um
Online Marketing & SEO
Edits bringt Freeze Frame und Voiceover Teleprompter
Mit drei neuen Features kannst du aufmerksamkeitsstarke Reels erstellen und zeitgemäß Storytelling betreiben – sogar mit personalisierten Sound-Effektvorschlägen.
Metas Videobearbeitungs-App Edits entwickelt sich zu einer zentralen Option zur Content-Kreation. Erst vor rund einem Jahr gestartet, ist Edits als CapCut-Alternative gerade für den Meta-Kosmos und die Reels äußerst relevant geworden. Das liegt vor allem an den stetigen Feature Updates. Kürzlich hat Edits beispielsweise automatische Highlights für Captions eingeführt und auch eine Funktion, um Reels bis zu 100 Mal schneller zu machen. Jetzt gibt es schon wieder ein Update, das der offizielle Creators Account von Instagram vorstellt. Damit erhalten Creator unter anderem Sound-Vorschläge passend zu ihren Inhalten und ein aus dem Fernsehen bekanntes Feature, das viel Zeit sparen kann.
Automatische Highlights für Reels Captions, mehr Effekte und neuer Ideas Tab für Edits

Diese 3 Edits Features sind neu: Besseres Storytelling und passende Sounds
Eine der neuen Optionen von Edits ist erstmal nur für iOS User verfügbar. Dabei handelt es sich um die Funktion „Sound Effects for you“. Diese bietet einen eigenen Tab für personalisierte Vorschläge, genannt „For you“, die zum Content des Creators passen. Im Beispielvideo läuft eine Person zur S-Bahn, Edits schlägt dann einen Sound namens „Running“ vor, aber auch „Wind Blowing“, „Bus Horn“ und „Sneaking“. Die Audios kommen aus der Meta-Bibliothek und können für die akustische Untermalung von Reels eingesetzt werden.
Visuell wiederum unterstützt Edits Creator jetzt mit dem Feature Freeze Frame. Damit können, wie der Name schon sagt, einzelne Frames quasi eingefroren werden, um spezielle Momente im Video hervorzuheben. Ebenso ist es möglich, auf besondere Transitions hinzuweisen, die zum Storytelling gehören. Zum Beispiel könnten Creator einen Freeze Frame an einer konkreten Stelle im Reel-Verlauf zu ihrem Erkennungsmerkmal machen oder die Option einsetzen, um einen Spannungsbogen aufzubauen.
Das so optimierte Storytelling kann darüber hinaus jetzt noch besser per Voiceover gestützt werden. Denn Edits liefert einen Voiceover Teleprompter. Damit können Creator ihre Skripte direkt in der Bearbeitungs-App integrieren und sie beim Aufnehmen als Textvorlage auf dem Screen laufen lassen. So können sie Content aufnehmen, das Voiceover einsprechen und mit wenigen Takes das Reel fertigstellen. Das kann Zeit und Nerven sparen.
Noch mehr Insights dazu, wie Creator hochwertige Reels erstellen, die auf Instagram, aber ebenso auf Facebook und Threads, gut performen können, liefert Meta in einer Dos and Don’ts-Übersicht, die wir für dich mit expliziten Tipps aufbereitet haben.
Don’t do it perfect:
Instagrams neue Dos und Don’ts für Reels

Online Marketing & SEO
So krass verändert Gemini jetzt die Googles Workspace-Arbeit
In Google Docs, Sheets, Slides und Drive übernimmt Gemini jetzt immer mehr Aufgaben. Wie die Google-KI ab sofort Dateien, Mails und Web-Infos verbindet und sogar das Prinzip der leeren Seite aufbricht.
Gemini zieht tief in Google Workspace ein. Google integriert die KI jetzt in Docs, Sheets, Slides und Drive. Die KI kann Informationen aus Dateien, E-Mails und dem Web zusammenführen und daraus Inhalte erstellen oder Fragen beantworten. Laut Google geschieht das unter Einhaltung der Datenschutzrichtlinien.
Wie Gemini die Arbeit in Dokumenten, Tabellen und Präsentationen verändern soll und warum das klassische Blank Space-Prinzip beim Start eines Google-Dokuments künftig Geschichte sein könnte. Parallel stellt Google zusätzliche KI-Tools vor. Wie die neuen Gemini-Funktionen im Arbeitsalltag aussehen könnten, zeigt das Unternehmen im folgenden Video.
Gemini 3.1 Flash-Lite:
Schnellstes und kosteneffizientestes KI-Modell von Google

Nie wieder Informationen zusammensuchen? Gemini übernimmt!
Google beschreibt die neuen Funktionen als nächsten Schritt, um klassische Büroarbeit schneller zu erledigen. Gemini kann künftig Informationen aus Dateien, E-Mails und dem Web kombinieren und daraus direkt nutzbare Inhalte erstellen. Wer etwa eine Präsentation vorbereitet, eine Tabelle auswertet oder einen Bericht schreibt, muss Informationen nicht mehr selbst aus verschiedenen Dokumenten zusammensuchen. Die KI kann diese Quellen verbinden und daraus Entwürfe, Zusammenfassungen oder Antworten generieren.
Die Updates starten zunächst als Beta für Abonnent:innen von Google AI Ultra und Google AI Pro. Vorgestellt wurden sie im offiziellen Workspace Blog von Google. Dort erklärt das Unternehmen auch, dass Gemini künftig stärker als Arbeitsassistenz innerhalb der Tools fungieren soll. Auch Googles CEO Sundar Pichai griff die Neuerungen in einem LinkedIn Post auf und betonte, dass Gemini Nutzer:innen helfen soll, Aufgaben schneller zu erledigen.
Docs, Sheets, Slides und Drive bekommen neue KI-Funktionen
Aller Anfang ist schwer!? Mit KI nicht mehr unbedingt. Google bricht mit Gemini das Prinzip der leeren Seite auf. Nutzer:innen können direkt mit einem Entwurf starten. Statt bei null zu beginnen, beschreiben sie der KI kurz, was sie brauchen. Gemini erstellt daraus automatisch ein erstes Dokument, eine Tabelle oder eine Präsentation. In Google Docs lässt sich so aus einer kurzen Beschreibung sofort ein erster Textentwurf generieren. Dabei greift die KI auf Inhalte aus vorhandenen Dateien oder E-Mails zurück. Im Video zeigt Google, wie aus bestehenden Dokumenten automatisch ein neuer Text entsteht. Eine Funktion namens Match Writing Style sorgt außerdem dafür, dass Texte einen einheitlichen Stil behalten, selbst wenn mehrere Personen daran arbeiten.
Auch Google Sheets erhält mehr Automatisierung. Nutzer:innen können beschreiben, welche Tabelle sie brauchen, und Gemini erstellt daraus komplette Tabellenstrukturen. Die KI kann außerdem komplexe Aufgaben lösen und fehlende Daten ergänzen. Google liefert in einem Demovideo ein Beispiel dafür, wie Gemini automatisch einen Finance Tracker erstellt und Daten strukturiert. Laut Google soll das Befüllen von Tabellen dadurch bis zu neunmal schneller möglich sein. In Benchmarks führt Gemini in Sheets aktuell sogar das Ranking SheetsBench an.
In Google Slides generiert Gemini Layouts, Diagramme und Präsentationsfolien aus einem einfachen Prompt. Nutzer:innen benötigen dafür keine Designkenntnisse. Im Video präsentiert Google, wie aus einer kurzen Beschreibung automatisch neue Slides entstehen. Präsentationen lassen sich so schneller erstellen oder an bestehende Designs anpassen.
Google Drive wird ebenfalls stärker KI-gestützt. Neue KI-Übersichten erscheinen direkt über den Suchergebnissen und liefern zusammengefasste Antworten mit Quellen aus den eigenen Dateien. Nutzer:innen müssen Dokumente dadurch nicht mehr einzeln öffnen, um relevante Informationen zu finden. Im Video zeigt Google, wie Gemini Inhalte aus mehreren Dateien analysiert und direkt als Übersicht ausgibt.
Gemini Embedding 2 erweitert Googles KI-Infrastruktur
Parallel stellt Google auch eine neue technische Grundlage für KI-Anwendungen vor. Mit Gemini Embedding 2 erscheint laut Google AI Studio das erste nativ multimodale Embedding-Modell der Gemini-Familie.
— Google AI Studio (@GoogleAIStudio) March 10, 2026
Embedding-Modelle übersetzen Inhalte wie Texte, Bilder oder Audio in mathematische Vektoren, damit KI-Systeme Informationen vergleichen und durchsuchen können. Gemini Embedding 2 kann Text, Bilder, Videos, Audio und Dokumente gemeinsam analysieren und in einem gemeinsamen semantischen Raum abbilden.
Das Modell unterstützt laut Google über 100 Sprachen und verarbeitet mehrere Medientypen gleichzeitig. Texte können bis zu 8.192 Token lang sein, Videos bis zu 120 Sekunden dauern und auch PDFs lassen sich direkt einbetten. Dadurch können Anwendungen mehrere Datenformate zusammen analysieren, zum Beispiel Text gemeinsam mit Bildern oder Audio.
Google sieht darin eine wichtige Grundlage für Anwendungen wie semantische Suche, Retrieval-Augmented-Generation, Datenanalyse oder multimodale Klassifizierung. Entwickler:innen können Gemini Embedding 2 bereits über die Gemini API und Vertex AI in einer Public Preview testen.
Nano Banana 2 ist da:
Googles schnellstes KI-Bildmodell mit Gemini-Weltwissen

Online Marketing & SEO
OpenAIs neuer Plan: Sora in ChatGPT
Das Video-KI-Tool Sora von OpenAI soll künftig direkt in ChatGPT einsetzbar sein. Das könnte die Nutzungsfrequenz im Wettbewerb mit Google, Meta und Co. erhöhen.
Tools und Funktionen direkt in ChatGPT zugänglich zu machen, kann sich richtig lohnen. Denn dieses Vorzeige-Tool von OpenAI zählt inzwischen über 900 Millionen monatlich aktive User und toppte kürzlich sogar die Consumer AI Top 100 von Andreessen Horowitz (a16z) sowohl im Bereich der Web-Nutzung als auch unter den KI-Apps. In der Rangliste der meistbesuchten Websites der Welt belegt ChatGPT Rang fünf, nur hinter Google, YouTube, Facebook und Instagram. Jetzt soll ein weiteres OpenAI Tool unmittelbar via ChatGPT zugänglich gemacht werden: Sora. Das KI-Video-Tool wurde im Ende 2024 gelauncht und erfreute sich zum Start großen Interesses. Inzwischen ist schon Sora 2 als Modell auf dem Markt. Gegen Ende des Jahres stieg sogar Disney ein und ermöglicht dank eines Deals mit OpenAI die lizenzierte Charaktererstellung von Mickey Mouse, Elsa und Co.
Allerdings muss sich Sora mit den KI-Video-Tools der Konkurrenz messen, allen voran die Meta AI und Metas Vibes – das jetzt als Editor mit Sora und anderen Tools konkurrieren soll –, Grok Imagine und Veo 3.1 von Google. Die Varianten der großen Tech Player haben einen zentralen Vorteil: Sie sind in populären Umgebungen wie Gemini von Google oder auf X integriert, sodass User nicht erst die dedizierte Anwendung nutzen müssen. Um im Wettbewerb mit Veo 3.1 und Co. bestehen zu können, möchte OpenAI Sora also ebenfalls in der wichtigsten User-Umgebung des Unternehmens platzieren.
Trotz invite-only:
Sora App fast so erfolgreich wie ChatGPT zum Start

Sora in ChatGPT: App soll bestehen bleiben
Der Publisher The Information berichtet erneut über große Entwicklungen bei OpenAI. Nach Angaben im Beitrag von Stephanie Palazzolo und Sri Muppidi setzt das KI-Unternehmen auf einen Strategie-Shift. Demnach sollen unternehmensnahe Quellen bestätigt haben, dass Sora künftig direkt in ChatGPT zu nutzen sein soll. Die eigenständige App soll es aber weiterhin geben. Die Integration in ChatGPT könnte zu deutlich mehr Nutzung führen. User könnten das Tool mit Sora 2 als Modell im Hintergrund neben Chats und Aufgaben in KI-Konversationen unmittelbar für die Videoerstellung nutzen.
references on sora.
save characters, styles, props, costumes, camera moves, or prompt cheat sheets
then reuse them across videos to keep your work consistent.
find the new references tab in the video composer.available now on web for sora users. pic.twitter.com/vW75j5JAOI
— Sora (@soraofficialapp) March 11, 2026
OpenAI selbst hat diesen Plan noch nicht offiziell bestätigt. Derweil entwickelt das Unternehmen ChatGPT aber weiter zu einer Allround-KI-Umgebung, die auch immer mehr visuelle Elemente erhält. Neu sind zum Beispiel die interaktiven visuellen Erklärungen, etwa für mathematische oder andere wissenschaftliche Konzepte. Head of ChatGPT Nick Turley stellt sie auf LinkedIn vor.
Noch mehr ChatGPT Updates für mehr AI Convenience im Alltag
Außerdem wird ChatGPT zusehends zum Ort der Produktentdeckung. Das Shopping ist mit dem Instant Checkout direkt im AI Chat schon angekommen, auch wenn OpenAI es aktuell wieder etwas einschränkt. Zudem können Advertiser in den USA inzwischen auf ChatGPT werben und Produkte und Leistungen passend zu Konversationen vorstellen. Für die Erweiterung des Werbesystems plant OpenAI nach Angaben von The Information derzeit eine Kooperation mit The Trade Desk, um Ads automatisiert verkaufen zu können. Der Werbeverkauf funktioniert beispielsweise ebenso über Shopify, da Merchants ihre Ads über das E-Commerce-Unternehmen direkt einbuchen können. Der Aufbau eines eigenen Tech Stacks für das Werbesystem ist bei OpenAI ebenfalls geplant, so The Information.
Und auch die ChatGPT-Nutzung im AI-Browsing-Kontext soll stärker unterstützt werden. In OpenAIs AI-first Browser Atlas können sich User jetzt mit mehreren ChatGPT Accounts parallel anmelden. Das ermöglicht es, einen privaten und einen Arbeits-Account zugleich zu nutzen, um mit separaten Profilen im Browser zu agieren. Laut Adam Fry, Product Lead für Atlas bei OpenAI, war diese Funktion bei Usern sehr gefragt – und ihr Fehlen habe auch dazu beigetragen, dass User Atlas im Alltag nicht benutzten.
Another week, another ChatGPT Atlas release!
You can now sign in to multiple ChatGPT accounts (personal, work, school) with separate profiles.
We’ve heard from our users that this was one of the biggest blockers to using Atlas everywhere in their life.
Hit “update” in the top… pic.twitter.com/LJlALlFh8Q
— Adam Fry (@adamhfry) March 10, 2026
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 1 WocheCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 4 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 1 MonatEindrucksvolle neue Identity für White Ribbon › PAGE online
