Online Marketing & SEO
Copilot Cowork: Diese Microsoft 365-Aufgaben erledigt jetzt KI
Statt nur einen Prompt zu beantworten, erstellt Copilot Cowork automatisch einen Arbeitsplan und setzt ihn direkt um. Die KI arbeitet dabei über E-Mails, Dateien, Meetings und Daten hinweg. Damit entwickelt sich Copilot weiter vom Chatbot zum digitalen Co-Worker.
„Du orchestrierst Agents wie ein Teamchef Aufgaben verteilt“:
Der Sprung von Gen AI zu Agentic AI

Copilot Cowork delegiert Aufgaben über Outlook, Teams und Excel hinweg
Microsoft beschreibt Copilot Cowork selbst als Tool, das „das Delegieren von Aufgaben kinderleicht“ machen soll. Nutzer:innen beschreiben einfach das gewünschte Ergebnis. Die KI erstellt daraus automatisch einen Arbeitsplan und führt die einzelnen Schritte in Microsoft 365 aus.
Dafür greift Cowork auf Daten aus Outlook, Teams, Excel und weiteren Tools zu. Microsoft nennt dieses System Work IQ. Die KI erkennt Zusammenhänge zwischen Dateien, Terminen, E-Mails und Dokumenten und organisiert daraus einen Workflow. Der Plan läuft im Hintergrund weiter. Cowork erstellt Meilensteine, meldet Fortschritte und fragt nach, wenn Entscheidungen nötig sind. Nutzer:innen behalten die Kontrolle und können jede Aktion prüfen, pausieren oder anpassen.
Microsoft zeigt mehrere typische Szenarien. Cowork kann zum Beispiel einen überfüllten Outlook-Kalender analysieren, Meetings verschieben und Fokuszeiten blocken. Für ein Kund:innengespräch erstellt die KI automatisch Briefings, Präsentationen und Zusammenfassungen aus bestehenden Dateien und E-Mails. Ein Beispiel dafür zeigt die folgende Abbildung.

Auch komplexere Aufgaben lassen sich delegieren. Cowork kann Unternehmensrecherche durchführen, Finanzberichte analysieren und daraus Management-Memos oder Excel-Analysen erstellen. Bei Produkt-Launches erstellt die KI eine Wettbewerbsanalyse, formuliert das zentrale Nutzenversprechen und bereitet daraus eine Präsentation für den Launch vor.
Copilot Cowork wird aktuell mit ausgewählten Kund:innen getestet. Eine breitere Verfügbarkeit soll ab Ende März 2026 im Frontier-Programm starten.
Copilot Cowork richtet sich an Unternehmen mit komplexen Workflows
Auch andere Anbieter:innen arbeiten an solchen KI-Agents. Ein Beispiel kommt von Anthropic. Das Entwickler:innen-Tool Claude Code kann jetzt Pull Requests automatisch prüfen. Öffnet sich ein solcher Pull Request, startet das System mehrere Agents, die gezielt nach Bugs suchen.
Introducing Code Review, a new feature for Claude Code.
When a PR opens, Claude dispatches a team of agents to hunt for bugs. pic.twitter.com/AL2J4efxPw
— Claude (@claudeai) March 9, 2026
Auch bei Microsoft spielt Claude eine Rolle. Der Konzern setzt bei Copilot seit bereits seit einiger Zeit auf ein Multi-Model-Setup. In Copilot Studio und im Researcher Agent können Unternehmen neben OpenAI-Modellen auch Anthropics Modelle Claude Sonnet 4 und Claude Opus 4.1 nutzen. Je nach Aufgabe kann Copilot unterschiedliche Modelle einsetzen. Copilot Cowork verfolgt dabei einen stärker plattformorientierten Ansatz. Während Anthropic mit Claude vor allem eigenständige Agents und Entwickler:innen-Tools aufbaut, integriert Microsoft die KI direkt in Arbeitsprozesse innerhalb von Microsoft 365. Copilot Cowork koordiniert Aufgaben über Outlook, Teams, Excel und weitere Anwendungen hinweg und verbindet dabei Daten, Dokumente, Meetings und Kommunikation.
Gerade für Unternehmen mit großen Mengen sensibler Daten ist dabei entscheidend, dass die KI innerhalb bestehender Sicherheitsstrukturen arbeitet. Copilot Cowork läuft deshalb direkt innerhalb der Sicherheits- und Governance-Strukturen von Microsoft 365. Identitäts-, Berechtigungs- und Vorschriften- sowie Richtlinienvorgaben gelten automatisch für alle Aktionen der KI. Aufgaben werden in einer geschützten Cloud-Umgebung ausgeführt und lassen sich über verschiedene Geräte hinweg weiterführen. Aktionen und Ergebnisse bleiben dabei nachvollziehbar und protokollierbar.
Zäsur fürs Agentic Web?
WebMCP soll Websites zur API für KI Agents machen
Online Marketing & SEO
Markenkommunikation im KI-Zeitalter: Warum Earned Media zum neuen Vertrauensanker wird
Die Mehrheit der Unternehmen in Deutschland sieht in Künstlicher Intelligenz zur Textgenerierung ein enormes Digitalpotenzial
Content wird durch KI billiger, Vertrauen dagegen immer knapper. Wie Earned Media zum entscheidenden Hebel für Sichtbarkeit und Glaubwürdigkeit wird, führt Heiko Geibig, Leitung Corporate Communications Practice bei MSL Germany, in seinem Gastbeitrag aus.
Generative KI senkt die Produktionskosten für Content auf nahezu null und löst eine Flut von Texten, Bildern und Videos aus, deren Qualit
Jetzt Angebot wählen und weiterlesen!
HORIZONT Digital
- Vollzugriff auf HORIZONT Online mit allen Artikeln
- E-Paper der Zeitung und Magazine
- Online-Printarchiv
HORIZONT Digital-Mehrplatzlizenz für Ihr Team
Online Marketing & SEO
WhatsApp Channels: So oft wird dein Content weitergeleitet
Die ersten User können mit dem neuen Feature einen wichtigen Performance-Wert für Channel-Inhalte auf WhatsApp sehen – nicht nur Admins.
Die WhatsApp Channels sind seit ihrem weltweiten Start 2023 zu einem zentralen Kommunikations- und Marketing-Kanal geworden. Über 1,5 Milliarden Personen besuchen laut Meta täglich den Aktuelles-Tab WhatsApps, über den auch die Channels abgerufen werden können. Die Kanäle erinnern dabei an Instagrams Broadcast Channels. Sie bieten als One-to-many-Kommunikationsebene ein passendes Umfeld für Marken und Creator, um Fans und Interessierte über Neuigkeiten, Termine, neue Produkte zu informieren und Einblicke in ihren Alltag zu liefern. Während WhatsApp diesen besonderen Bereich jetzt auch weltweit mit Werbung monetarisiert und gesponserte Channels anzeigt, möchte die Plattform den Kanalbetreiber:innen mehr Performance Features an die Hand geben. Eines davon ist die Anzeige zur Zahl der Weiterleitungen, die im großen Stil eingeführt werden soll.
Du siehst bald Ads im WhatsApp Updates Tab:
Globaler Roll-out für Status Ads und Promoted Channels

Alle sollen es sehen können: So oft werden Inhalte im WhatsApp Channel weitergeleitet
Der auf WhatsApp spezialisierte Publisher WABetaInfo berichtet von einem neuen Test mit einer Anzeige zur Weiterleitung von Content im WhatsApp Channel. Dabei gab es bei einer Betaversion der Android App zuvor schon eine entsprechende Option, dank der Channel Admins aus einer Testgruppe die Zahl der Weiterleitungen einzelner Channel Updates einsehen konnten. Jetzt aber soll diese Anzeige für alle im Channel kommen, auch für die Abonnent:innen.
In der App-Version Android 2.26.10.3, die im Play Store verfügbar ist, können erste Betatester:innen direkt in WhatsApp Channels nicht nur die Zahl der Reactions unter einem Update sehen, sondern auch die Zahl der Weiterleitungen. Diese wird neben einem Icon mit einem nach rechts gebogenen Doppelpfeil abgebildet. Parallel zum Engagement wird damit eine relevante Metrik zur Distribution angezeigt, die mehr über die Performance einzelner Updates verrät. Dabei kann die Ansicht für alle im Channel dazu beitragen, dass User auf Inhalte mit einer hohen Anzahl an Weiterleitungen positiv reagieren und diese noch aufmerksamer beachten. Sie erfahren damit also, welche Updates aus dem Channel heraus besonders oft verbreitet werden. So können sie zudem selbst ermitteln, welche Inhalte aktuell für eine große Gruppe relevant sind. Das kann zum Beispiel bei der Trendrecherche oder Konkurrenzanalyse helfen. Für die Channel-Betreiber:innen hingegen ist diese Ansicht eine wichtige Kennzahl, die den Erfolg der Updates widerspiegelt.
Shares als Erfolgsfaktor in sozialen Medien
Weiterleitungen gehören im Raum sozialer Medien längst zum Kern der Erfolgsmessung. LinkedIn hat beispielsweise Saves und Sends als Metriken eingeführt, um Creatorn zu zeigen, wie oft ihre Posts gespeichert und geteilt wurden. Und auf WhatsApps Schwesterplattform Instagram sind Shares schon lange äußerst relevant. Plattformchef Adam Mosseri sprach 2024 sogar davon, dass sie wichtiger als Likes und Kommentare geworden seien. Dabei erklärte er aber ebenso, dass die Send Rate noch einmal mehr Gewicht habe als der Send Count allein. In den Broadcast Channels auf Instagram werden derzeit die Reactions und die Antworten mit Zahlen unter den Updates dokumentiert. In den WhatsApp Channels sollen die Weiterleitungen zum zentralen Faktor werden. Das Icon für die Weiterleitungen ist für alle User schon zu sehen, die Anzeige der Zahl für diese bleibt zunächst den Test-Usern vorbehalten.
Möglicherweise rollt WhatsApp das neue Feature aber schon bald in einem weiteren App Update aus. Auf einen Roll-out hoffen die User ebenfalls in Bezug auf ein nützliches Feature, das sich aktuell im Test befindet: Planbare Nachrichten in der populären Messaging App.
Zur richtigen Zeit senden – ohne Stress:
WhatsApp testet Scheduled Messages

Online Marketing & SEO
Millionen sexualisierte Bilder: X reagiert mit Grok-Foto-Schalter
Nach dem Deepfake-Skandal um Grok reagiert X mit einem neuen Foto-Schalter: „Block modifications by Grok“. Nutzer:innen können KI-Bearbeitungen ihrer Bilder blockieren. Kritiker:innen halten die Maßnahme jedoch für unzureichend, da weiterhin Deepfakes ohne Einwilligung entstehen können.
X hat stillschweigend eine neue Option für den KI-Chatbot Grok eingeführt. Nutzer:innen können jetzt festlegen, dass ihre hochgeladenen Bilder nicht automatisch von der KI verändert werden. Der entsprechende Schalter erscheint im Upload-Menü der iOS App. Dort lässt sich einstellen, ob Grok Bilder lediglich analysieren oder daraus neue Versionen generieren darf.
Dass X eine solche Funktion einführt, steht im Zusammenhang mit dem Nacktbild-Skandal rund um Grok und mehreren laufenden Untersuchungen. Mit dem Bildgenerator Grok Imagine und dessen sogenanntem Spicy Mode konnten Nutzer:innen nicht einvernehmliche sexualisierte Bilder und Videos generieren. Nach massiver Kritik schränkte X die Funktion Anfang 2026 ein. Analysen zeigen jedoch, dass trotz neuer Schutzmechanismen weiterhin Deepfakes ohne Einwilligung generiert werden können.
Die Dimension des Problems ist enorm. Laut einer Analyse des Center for Countering Digital Hate, über die unter anderem Engadget berichtet, erzeugte Grok zwischen dem 29. Dezember und dem 9. Januar schätzungsweise rund drei Millionen sexualisierte Bilder. Darunter befanden sich etwa 23.000 Darstellungen von Minderjährigen.
Inzwischen beschäftigen sich mehrere Behörden mit dem Fall. Beispielsweise prüfen Aufsichtsstellen in der EU, in Großbritannien und in Australien mögliche Verstöße gegen Plattformregeln, Deepfake-Gesetze und Vorgaben für illegale Inhalte. Darüber berichtet neben Engadget beispielsweise auch The Guardian. Im Zuge der Verfahren werden hohe Bußgelder gegen X diskutiert.
Inzwischen beschäftigen sich mehrere Behörden weltweit mit dem Fall. Die Europäische Kommission untersucht, ob X mit dem Einsatz von Grok gegen Vorgaben des Digital Services Act verstoßen hat. Parallel prüft die irische Datenschutzbehörde mögliche Verstöße gegen die Datenschutz-Grundverordnung. Auch Aufsichtsbehörden im Vereinigten Königreich und in Australien haben Untersuchungen eingeleitet. In den USA hat zudem der Generalstaatsanwalt von Kalifornien xAI aufgefordert, Maßnahmen gegen sexualisierte Deepfakes zu ergreifen. Neben The Guardian und Engadget berichtete auch Reuters darüber. Im Zuge der Verfahren stehen für X potenziell hohe Bußgelder im Raum.
Grok:
Nacktbild-Skandal und Top-Platzierung im App Store

Neuer Schalter gegen Grok-Manipulation – aber nur mit begrenzter Wirkung
Die Option zur Einschränkung von Groks Zugriff wurde nicht offiziell angekündigt, weder von X noch xAI, beide Teil des Firmenimperiums von Elon Musk. Stattdessen entdeckten User sie in den vergangenen Tagen in der iOS App im Upload-Menü für Bilder und Videos. Dort lässt sich über einen Schalter mit dem Namen „Block modifications by Grok“ festlegen, ob Grok auf hochgeladene Inhalte zugreifen und daraus neue Bildversionen generieren darf.

Mit der neuen Einstellung können Nutzer:innen verhindern, dass ihre hochgeladenen Bilder direkt mit Grok verändert werden können. Aktiviert man den Schalter, kann der Chatbot nicht mehr einfach in einer Antwort markiert werden, um ein Bild zu bearbeiten oder neu zu interpretieren.
Der Schritt wirkt auf den ersten Blick wie eine sinnvolle Sicherheitsmaßnahme. Die Option ist leicht zugänglich und nicht tief in den Einstellungen versteckt. Allerdings löst der Schalter nur einen kleinen Teil des Problems. Denn die Funktion verhindert lediglich die direkte Bearbeitung eines hochgeladenen Bildes durch Grok User im Post-Kontext. Wer Deepfake-Bilder generieren will, kann das weiterhin über andere Wege tun.
Kritiker:innen sprechen deshalb von einer symbolischen Maßnahme. Solange die KI weiterhin neue Bilder auf Basis anderer Quellen generieren kann, bleiben viele der ursprünglichen Risiken bestehen. Viele Expert:innen fordern daher deutlich strengere Schutzmechanismen – oder sogar eine temporäre Abschaltung der Bildgenerierung, bis die Sicherheitsprobleme gelöst sind.
ChatGPT zitiert Grokipedia:
Vertrauensbruch im Wissens-Stack
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 4 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Social Mediavor 1 WocheCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 3 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 1 MonatEindrucksvolle neue Identity für White Ribbon › PAGE online
