Online Marketing & SEO
10 GEO-Kernfragen beantwortet: Digital Bash Update 2026 %
Die Echtzeitinhalte werden laufend aktualisiert, während die Modelltrainings dazu beitragen, dass die LLMs im Hintergrund in Abständen von einigen Monaten optimiert und mit neuen Modellversionen versehen werden. Der Hinweis auf die Dynamik von Ergebnissen in der KI-Suche wird auch in einer Ahrefs-Analyse deutlich, nach der sich AI Overviews von Google im Schnitt alle 2,15 Tage verändern (bei 43.000 untersuchten Beispielen).

5. Ich arbeite für ein Fachmagazin. Sollten wir es zulassen, dass KI die Nachrichten auslesen kann? Die Tagesschau hat darauf verzichtet, weil sie ihren Traffic auf der Website behalten wollen.
Die Frage, ob man Inhalte für die Indexierung bei Google und Co. oder Übernahme durch KI-Dienste bereitstellen möchte, ist nicht neu. Sie erfährt aber in Zeiten der KI-Suche eine neue Brisanz, da ChatGPTs Zusammenfassungen, AI Overviews, der AI Mode und Co. nachweislich den Traffic zu Zielseiten minimieren. Viele User erfahren direkt aus dem Suchkontext heraus, was sie wissen möchten und besuchen weniger Publisher-Seiten, sodass diese Traffic verlieren, der als Faktor für das Geschäftsmodell oft essentiell ist. So nimmt es kaum wunder, dass einige Verlage bereits gegen Google geklagt haben, weil sie eine „illegale Journalismusausbeutung“ etwa in den AI Overviews sehen, die sich ihrer Inhalte bedienen.
So krass senken AI Overviews die Klickrate

Einige Medienhäuser werfen Google vor, Inhalte zu missbrauchen, um das Geschäft der Publisher zu bedrohen. Moniert wird auch der Umstand, Inhalte nicht für AI Overviews ausschließen zu können, ohne eine gesamte Deindexierung in Kauf zu nehmen. Das Blockieren von AI Crawlern ist bei Cloudflare schon zum Standard geworden; Pay-per-Crawl soll eine Alternative bieten. Außerdem möchte das Internet- und Cybersicherheitsunternehmen, über dessen Netzwerk 20 Prozent aller Websites laufen, mit der neuen Content Signals Policy Publishern ermöglichen, ihre Inhalte KI-Diensten wie AI Overviews in der Suche vorzuenthalten, ohne die Indexierung zu gefährden. Damit das klappt, müsste Google aber mitspielen.
Einen AI Overview Opt-out diskutiert das Vereinigte Königreich bereits seit einiger Zeit im Rahmen einer Prädikatszuschreibung, die Googles massive Marktmacht anerkennt und zu regulieren sucht. Das ist auch der Grund, aus dem Google jetzt selbst reagiert. Die Competition and Markets Authority (CMA) möchte Publishern mehr Kontrolle ermöglichen und die Verwendung von Content in AI Overviews fakultativ machen. Bisher haben die Publisher zwar die Option, Websites als noindex von der Indexierung durch Google auszuschließen, was für die Reichweite wenig förderlich ist, oder mithilfe von Google-Extended zu entscheiden zu, ob ihre Inhalte Gemini und Vertex AI unterstützen sollen oder nicht.
Auch Kontrollen für Featured Snippets und Image Previews (die sogar für AI Overviews gelten) gibt es bereits. Allerdings können Website-Betreiber:innen nicht direkt steuern, ob und wie Google Inhalte für AI Overviews und den AI Mode heranzieht. Tauchen sie in diesen KI-Übersichten oder im AI Mode auf, werden sie zwar als Quellen genannt, doch die Click-Through-Wahrscheinlichkeit könnte geringer ausfallen, während Google ohnehin aus diesen Übersichten oft zunächst auf eigene Properties wie weiterführende Informationen aus der Suche verlinkt. Zudem befürchten manche Publisher, dass Google und andere KI-Dienste ihre Inhalte als Zusammenfassung übernehmen, ohne die Quelle in gebührendem Maße zu wertschätzen. Daher gibt Google in einem neuen Blog Post mit Verweis auf die CMA-Bestrebungen im UK an, eine Opt-out-Option zu evaluieren.
Google beschwichtigt Publisher grundsätzlich mit dem Hinweis darauf, dass Engaged Clicks nachhaltigeren Traffic liefern könnten, wenn User durch KI-Ergebnisse bereits vorinformiert sind. Der SEO Traffic sinkt jedoch für viele, die sich zugleich fragen, ob sie für die Content-Aufnahme und -Verarbeitung durch Google und andere Dienste nicht entlohnt werden sollten. Deals mit Medienhäusern, wie sie etwa Meta für die Meta AI zum Beispiel mit der Süddeutschen Zeitung abgeschlossen haben, bieten eine Art Kompromiss. Erste Initiativen gibt es bereits, etwa Microsofts Publisher Content Marketplace, der zum Beispiel von der neuen KI-Suche Yahoo Scout unterstützt wird. Doch das Ungleichgewicht zwischen riesigen Tech-Konzernen und ihrer immensen Marktmacht, die sie für die Content-Distribution nutzen, um damit über Werbung, Shopping-Integrationen und andere Touchpoints Gewinn zu machen, wächst weiter. Und Publisher müssen abwägen, wie sie ihre Content-Erstellung und -Verbreitung im Jahr 2026 und darüber hinaus strategisch planen möchten.
Wenn nun der Inhalt der eigenen Seite gesichert über diverse Kanäle ausgespielt und dort gefunden werden kann und man nicht von der Sichtbarkeit in der Suche abhängt, ist es eine Option, Crawlern keinen Zugriff zu gewähren und etwaige Opt-outs zu nutzen. Allerdings sind Publisher auf diversen Plattformen Dritter deren Regeln ausgesetzt.
6. Wie schätzt ihr das WebMCP in der early Preview von Google ein?
KI-Agents könnten Websites bald nicht mehr wie Menschen bedienen müssen. Mit WebMCP stellen Google und Microsoft einen Ansatz vor, der das Surfen im Hintergrund grundlegend verändern könnte. Statt sich durch Menüs zu klicken oder Inhalte visuell zu interpretieren, greifen KI-Systeme direkt auf Funktionen einer Website zu. Websites wären dann nicht mehr nur Orte zum Lesen oder Shoppen, sondern technische Schnittstellen für automatisierte Aktionen. Website-Betreiber:innen sollten sich auf jeden Fall mit dieser Option zur Anbindung beschäftigen, um sich für das Agentic Web zu wappnen. Es kann ein Baustein sein, um Sichtbarkeit und Relevanz für verschiedene Akteur:innen sicherzustellen. In unserem Beitrag findest du mehr Informationen zum WebMCP.
Zäsur fürs Agentic Web?
WebMCP soll Websites zur API für KI Agents machen

7. Wie gestalte ich eine optimale GEO Landingpage von Seitenstruktur über Aufbau bis Content, so dass sie optimal zitiert und als Quelle genutzt werden kann?
Auf diese Frage gibt es enorm viele Antworten. Zwar gibt es keine Musterlösung, denn grundsätzlich gilt, dass die Inhalte in erster Linie aktuell und relevant, aber auch maschinenlesbar sein müssen. Es gibt GEO-Checklisten und konkrete Tipps von Expert:innen, die du beherzigen kannst. Eine Erläuterung liefert zum Beispiel GEO-Expertin Katrink Winkler. Sie zeigt, welche Bausteine eine Seite benötigen, um im Zeitalter der KI-Suche gefunden zu werden.

Auf der Seite Wortverkauf.de findest du die Zusammenfassung ihres Digital Bash-Vortrags zum Thema, der sehr beliebt war. Du kannst dir diesen Vortrag auch ansehen; melde dich einfach für das vergangene Event an.
Bei der Aufzeichnung des Digital Bash – Content Marketing findest du Katrins Vortrag: „Wie entwickelt man ein GEO-optimiertes Content-Design für die Website?“.
8. Reicht ein einzelner guter Inhalt für GEO überhaupt aus, oder entsteht zitierfähige Autorität erst durch Referenzen, externe Erwähnungen und eine konsistente Themenabdeckung über Zeit?
Wer nur auf einen guten Inhalt baut, braucht womöglich für diesen eine Sonderstellung, um darüber langfristig als Go-to-Quelle genutzt zu werden. Denn gerade im Zeitalter der KI-Suche zeigt sich, dass Erwähnungen auf Seiten Dritter, Aktualität und Brand-Autorität für die Zitierfähigkeit von Vorteil sind – vor allem, wenn sich Ergebnisse dynamisch entwickeln.
Die Discoverability auf einen guten Inhalt zu beschränken, wenn die Möglichkeit zur Diversifizierung besteht, würde verschenktes Potential bedeuten. Zumindest aber sollte für diesen hypothetischen starken Inhalt jedwede Analyse und Anpassung für zeitgemäße Suchentwicklungen angewendet werden, um sie als relevante Quelle bei verschiedenen Playern genutzt zu wissen. Zudem unterliegt das Prädikat „gut“ oft einer subjektiven Einordnung. Ist der Content gut, weil er in der Suche performt, performt er dort nicht, obwohl er als qualitativ gut eingestuft wird oder gibt es eine quantitative Bestätigung wie eine hohe Anzahl an Visits, Downloads (bei Dokumenten) oder Ähnlichem?
Wie es Google vor ein paar Monaten schon gesagt hat, entsteht gute GEO auf der Basis guter SEO. Danny Sullivan von der Search Liaison hat schon 2010 klargestellt:
SEO doesn’t mean you get into blue links on Google, SEO means you understand how people search for content […].
Bei der GEO sollten Webmaster ebenfalls auf die neuen Suchmuster achten und ausgehend davon Informationen und Inhalte bereitstellen, möglichst unikal, möglichst vielfältig aufbereitet; man denke auch an die multimodalen Fähigkeiten von Lösungen wie dem AI Mode und ChatGPT.

9 Wie kann man den Bruch auflösen, der dadurch entsteht, dass man aus dem Dialog im Sprachmodell in den Monolog auf der Website zurückfällt? Der schönste Traffic durch SEO und GEO hilft ja nicht, wenn die UX dann abbricht, oder?
Das kommt sicherlich ganz auf die Intention der User an. Wenn diese über die Ergebnisse aus der Suche auf Seiten kommen, auf denen sie beispielsweise direkt etwas kaufen, nachlesen oder auch nur nachgucken wollen – wie ein Datum oder einen Preis –, dann braucht es womöglich keine Dialogstruktur für die User. Möchten diese aber auf der Seite navigieren, über Angebote und Content-Bereiche informiert werden, kann es sich anbieten. Zunächst einmal können User selbst in der aus dem KI-Chat bekannten Struktur arbeiten, indem sie beispielsweise KI-Zusammenfassungen über Browser erstellen lassen oder in den AI Browsern direkt mit ChatGPT (bei Atlas) oder Gemini (bei Chrome) chatten, um die Chatbots etwas über die Seiten zu fragen.
Website-Betreiber:innen können aber ebenso selbst eine Anschlussoption bieten. So können sie eigene AI Agents anbinden, die einen KI-Dialog auf der Website bieten und beispielsweise Chatbots verwalten. In diesem Kontext ist nochmals bemerkenswert, dass es gilt, sich auf die Nutzungsrealitäten in der Suche einzustellen. Die Entwicklung eigener Agents und Subagents, idealerweise gefüttert mit Nutzungsdaten der eigenen Seite, ist dank Google, Adobe, Salesforce, Anthropic, OpenAI und Co. einfacher denn je.
10. Welche Tools nutzt ihr, um die Sichtbarkeit eurer Marke im Netz zu messen und Brand-Erwähnungen zu monitoren?
Eico Schweins nennt PeecAI, Otterly, Rankscale, und das Prompt Tracking von SISTRIX. SISTRIX liefert umfassende Möglichkeiten, um beispielsweise LLM-Erwähnungen zu tracken.
Das funktioniert auch bei Similarweb und anderen Anbieter:innen. Adobe bietet zum Beispiel einen LLM Optimizer und die kostenlose Chrome-Erweiterung „Is Your Webpage Citable?“. Und über die Semrush App in ChatGPT können User mit Prompts in natürlicher Sprache SEO Insights aufrufen und ganze Reports erstellen lassen.

Google liefert neuerdings zum Thema Brand-Sichtbarkeit einen Filter zur Unterscheidung zwischen markenbezogenen und nicht markenbezogenen Suchanfragen im Leistungsbericht in der Search Console. Die Zahl der Tools und Tracking-Optionen ist groß. Für Marketer bietet es sich an, verschiedene Optionen zu testen, gerade solche, die in Diensten integriert sind, die das eigene Unternehmen ohnehin nutzt. Ein Tipp: Lass dir von verschiedenen KI-Tools Übersichten zu relevanten Tools geben oder frage auf LinkedIn, Reddit und Co. nach, was deine Peers nutzen.
Du kannst dir einen Ausschnitt aus dem Talk von Eico Schweins in diesem YouTube-Video ansehen. Die gesamte Aufzeichnung des Events mit weiteren aufschlussreichen Talks zum Thema von Sebastian Grundt, Katrin Winkler und Kathrin Häußler kannst du dir über die nachträgliche Anmeldung zum Event sichern.
Digital Bash – AI Search & GEO
Online Marketing & SEO
WhatsApp Status soll direkt über die Chats kommen
WhatsApp bedient sich erneut bei Instagram und möchte Statusmeldungen horizontal über den Chats aufreihen. Das soll die Reichweite für Creator steigern.
Über drei Milliarden User nutzen WhatsApp weltweit pro Monat. Die Messaging App ist längst Teil unterschiedlichster Kommunikationswege geworden und liefert nicht zuletzt wegen ihrer Alltagsrelevanz jetzt kontroverse Konten für Kinder. Zugleich entwickelt sich die App immer weiter in Richtung Social Media und bietet Creatorn Raum zur Entfaltung. Vor allem das Feature der Statusmeldungen bedient sich in seiner Ausprägung stets einiger Elemente der Schwesterplattform Instagram und wird so zum Story-Pendant. Neuerdings sollen die Statusmeldungen auf WhatsApp prominenter angezeigt werden – und in einer horizontal angeordneten Reihe, wie auf Instagram. Außerdem sollen sie direkt im Chat Tab abrufbar sein.
WhatsApp bringt Konten für Kinder:
Eltern verwalten

So soll der Status auf WhatsApp prominenter werden: Anzeige à la Instagram
Auf Instagram werden Stories in einer horizontalen Anzeige präsentiert. Dabei sehen User die Profilbilder der Accounts, denen sie folgen oder die im For You-Bereich für sie aufgelistet sind, samt einem Kreis mit Farbverlauf drumherum, der neue Story-Inhalte anzeigt. Diese horizontale Reihung ist zum Beispiel auf der Startseite über dem Feed zu sehen.
Eine solche Anordnung plant jetzt auch WhatsApp. Bisher finden User die story-ähnlichen Statusmeldungen im Updates Tab und dort vertikal untereinander sortiert. Auch können sie aus Chats zwar auf Stories einzelner Kontakte zugreifen, wenn sie aufs Profilbild klicken. Aber eine gesammelte Ansicht im Chat-Bereich ist bis dato nicht vorhanden. Das soll sich ebenfalls ändern.
Der auf WhatsApp spezialisierte Publisher WABetaInfo berichtet von einem Test in einer aktuellen Betaversion für Android. Dabei werden Status Updates direkt im Chat Tab über den Chats und der Frageleiste aufgeführt. Dort erscheinen wie gewohnt die Profilbilder mit einem farbigen Kreis drumherum, wenn es neue Statusmeldungen gibt. Sie werden horizontal nebeneinander aufgeführt. Das soll den Zugriff auf die Status Updates erleichtern und so den Creatorn mehr Reichweite verschaffen. Allerdings werden bisher an der Stelle nur bis zu drei Story-Hinweise integriert. Künftig soll aber das Herunterscrollen dazu führen, dass den Usern eine Liste mit allen neuen Status Updates horizontal angezeigt wird. Ob und wann das Feature für alle Nutzer:innen ausgerollt wird, ist aber noch offen.
Orientierung an Instagram und Push für Ads?
Der Social-Media-Experte Matt Navarra sieht in dieser Entwicklung auf WhatsApp sogar eine Kopie vom besten Story Feature Instagrams.
Er verweist auch auf einen wichtigen Faktor, der WhatsApps Bestreben, die Statusmeldungen prominenter zu machen, unterstützen könnte. Denn erst kürzlich hat die App die Werbeanzeigen im Updates Tab für den globalen Roll-out angekündigt. Dabei werden unter anderem Status Ads zwischen Statusmeldungen von Usern platziert. Selbst wenn die Ads vorerst nur für den Updates Tab vorgesehen sind, könnte ein verstärkter Fokus auf die Status Updates mehr Sichtbarkeit einzelner Meldungen und schließlich ebenso der Ads bedeuten. Schon jetzt besuchen laut Meta über 1,5 Milliarden Personen täglich den Aktuelles-Tab WhatsApps, um auf dem Laufenden zu bleiben.
Du siehst bald Ads im WhatsApp Updates Tab:
Globaler Roll-out für Status Ads und Promoted Channels

Online Marketing & SEO
Strategische Kooperation: Warum die Schwarz Gruppe mit Lidl und PreZero zum Uefa-Partner wird
Nach der Vertragsunterzeichnung: Michele Uva (Uefa), Jens Thiemer (Lidl International), Marcus Sagitz, (PerZero International) und Guy-Laurent Epstein (Uefa; v.l.)
Es ist ein Novum: Der europäische Fußballverband Uefa geht erstmals eine strategische Partnerschaft ein. Gefunden wurde der Partner in der Schwarz Gruppe. Die Marken Lidl und PreZero sollen dabei künftig weit mehr als nur Turniere unterstützen. Es geht um zentrale Zukunftsthemen.
Die Schwarz Gruppe und die Uefa haben eine langfristige strategische Partnerschaft geschlossen. Für den europäischen Fußballverband is
Jetzt Angebot wählen und weiterlesen!
HORIZONT Digital
- Vollzugriff auf HORIZONT Online mit allen Artikeln
- E-Paper der Zeitung und Magazine
- Online-Printarchiv
HORIZONT Digital-Mehrplatzlizenz für Ihr Team
Online Marketing & SEO
NemoClaw: NVIDIA baut OpenClaw in sicher
Der OpenClaw Hype zeigte das Potenzial von KI-Agents – mit NemoClaw rückt NVIDIA jetzt Sicherheit und Governance in den Fokus. Damit adressiert das Unternehmen die größten Hürden beim Einsatz autonomer Systeme in Unternehmensprozessen.
KI-Agents gelten als nächster Entwicklungsschritt nach Chatbots und Copilots. In der Praxis scheitert ihr Einsatz aber oft an fehlender Kontrolle über Daten, Entscheidungen und Prozesse. NVIDIA positioniert sich genau an dieser Stelle und bringt mit NemoClaw eine Plattform, die diese Lücke schließen soll.
Auf der GTC beschreibt der NVIDIA CEO Jensen Huang nicht einfach ein neues Produkt, sondern einen Machtanspruch: Jedes sollte Unternehmen eine
OpenClaw-Strategie haben.
Mit NemoClaw bringt das US-amerikanische Tech-Unternehmen eine Open-Source-Plattform für KI-Agents an den Start, die die Lücken schließen soll, die der OpenClaw Hype offengelegt hat: Sicherheit, Datenschutz und Kontrolle im Unternehmenseinsatz.
Moltbot ist OpenClaw:
Sehr gefährlich und hilfreich zugleich

NVIDIA positioniert NemoClaw als Infrastruktur für sichere und steuerbare Agents
Mit OpenClaw entstand Anfang 2026 ein stark wachsendes Interesse an lokal ausgeführten Agent-Systemen. Innerhalb von drei Wochen, so das Unternehmen, erreichte OpenClaw mehr Nutzer:innen als Linux in den Anfangsjahren. Vor allem Developer, tech-affine Nutzer:innen und erste Unternehmen testeten, wie sich Agents direkt auf eigener Hardware einsetzen lassen – ohne externe Cloud-Dienste. Aufgaben wie Schreiben, Coden oder das Organisieren von Dateien ließen sich so automatisieren, ohne externe Dienste einbinden zu müssen. Für Unternehmen wurde dabei schnell ein zentrales Problem deutlich: Es fehlten Governance-Strukturen, Sicherheitsmechanismen und Kontrolle über Daten und Prozesse.
Im Februar schloss OpenAI die Übernahme von OpenClaw ab, im September 2025 stand diese Übernahme bereits im Raum. Gleichzeitig wechselte vor Kurzem der OpenClaw-Entwickler Peter Steinberger zum ChatGPT-Unternehmen. OpenClaw selbst soll künftig als Open-Source-Projekt über eine Stiftung weitergeführt werden, während OpenAI weiterhin unterstützend eingebunden bleibt. Damit verschiebt sich die Wahrnehmung im Markt: Aus einem zuvor unabhängig wahrgenommenen Projekt wird ein System mit enger Anbindung an einen der zentralen Player im KI-Markt. Entsprechend steigt die Nachfrage nach Lösungen, die eine unabhängige, sicherheitsorientierte und eigenständig kontrollierbare Nutzung von KI-Agents ermöglichen.
Genau hier setzt NVIDIA mit NemoClaw an und adressiert die wachsenden Anforderungen von Unternehmen an Kontrolle, Sicherheit und Anpassbarkeit von KI-Agents. Die Plattform baut auf OpenClaw auf und ergänzt das Framework um Sicherheits- und Datenschutzfunktionen auf Enterprise-Niveau. Unternehmen können damit steuern, wie Agents arbeiten und wie Daten verarbeitet werden, während der offene Quell-Code weiterhin Anpassungen an spezifische Anforderungen ermöglicht, etwa für Compliance-Vorgaben oder interne Workflows. Technisch integriert NVIDIA NemoClaw direkt in den eigenen KI-Stack mit NeMo, Nemotron und NIM, sodass Agents nicht nur entwickelt, sondern auch effizient betrieben und skaliert werden können. Gleichzeitig bleibt die Plattform hardware-unabhängig und läuft neben NVIDIA-Systemen auch auf Infrastruktur von AMD, Intel und anderen – ein Ansatz, mit dem NVIDIA die eigene Rolle über die Hardware hinaus erweitert und stärker im gesamten KI-Software-Stack verankert.
NVIDIA beschreibt NemoClaw aktuell selbst als frühe Alphaversion, die noch nicht für produktive Umgebungen ausgelegt ist. Parallel baut das Unternehmen Kooperationen mit Akteur:innen wie Salesforce, Cisco, Google, CrowdStrike und jetzt auch Adobe auf, um die Plattform perspektivisch in reale Unternehmensprozesse zu überführen und produktiv nutzbar zu machen.
Adobe und NVIDIA verknüpfen Infrastruktur und Kreativ-Workflows
Während NVIDIA mit NemoClaw die Infrastruktur für KI-Agents aufbaut, verschiebt sich die Dynamik auf der Anwendungsebene. Ein Treiber ist die neue Zusammenarbeit mit Adobe. Gemeinsam verzahnen beide kreative Prozesse und Marketing Workflows direkt mit NVIDIAs Modellen, Bibliotheken und Computing-Infrastruktur.
Ziel ist es, die nächste Generation von Firefly-Modellen zu entwickeln und agentische Workflows in Content-, Kampagnen- und Produktionsprozesse zu integrieren. Laut LinkedIn-Ankündigung und Pressemitteilung kommen dabei unter anderem CUDA-X-Technologie, NeMo-Bibliotheken, Nemotron-Modelle und das Agent Toolkit zum Einsatz. NemoClaw bildet dabei die Grundlage für sichere und skalierbare Agent-Systeme.
Die neuen Firefly-Modelle sollen mehr Präzision und Kontrolle in Kreativ- und Marketing-Prozesse bringen. Ergänzt wird das durch eine cloudnative 3D-Digital-Twin-Lösung für automatisierte Content-Produktion. Auch Firefly Foundry wird weiter ausgebaut und auf markensichere AI im großen Maßstab ausgerichtet. Parallel prüft Adobe den Einsatz von Nvidias Agent Toolkit, Nemotron-Modellen und NemoClaw. So entstehen agentische Workflows entlang der gesamten Customer Experience.
Parallel treibt Apple die eigene Strategie weiter voran und setzt dabei auf die Integration externer Technologien. Mit MotionVFX zieht ein umfangreiches Toolset für Video-Editing, Effekte und AI Features direkt in Final Cut Pro ein. Der Ansatz bündelt Workflows, reduziert Tool-Wechsel und stärkt die Bindung an die eigene Software- und Abo-Umgebung.
Standardisierung im Agent-Zeitalter: Wie NVIDIA die Hauptrolle besetzen will
Mit der zunehmenden Verbreitung von KI-Agents verschiebt sich die strategische Entscheidungs- und Steuerungsebene in Unternehmen weg von einzelnen Tools hin zur Frage, auf welcher Plattform diese Agents überhaupt laufen. Es geht also weniger darum, welches Tool genutzt wird, sondern darum, welches System im Hintergrund alles steuert. Entscheidend ist, wer die Kontrolle über Daten, Abläufe und Entscheidungen behält.
NVIDIA positioniert sich hier früh als zentrale Infrastruktur, also als technisches Fundament, auf dem solche Agent-Systeme aufgebaut und betrieben werden. Gleichzeitig verfolgen andere Akteur:innen eigene Strategien. Google, Microsoft und Amazon integrieren Agent-Funktionen direkt in ihre Cloud-Angebote. OpenAI setzt stärker auf geschlossene, eng verzahnte Systeme. Und Open-Source-Projekte versuchen, mehr Transparenz und Anpassbarkeit zu bieten.
Mit dieser Entwicklung entstehen jedoch auch neue Risiken. Unternehmen begeben sich stärker in Abhängigkeit von Plattformen, deren Regeln, Schnittstellen und technische Standards sie nur begrenzt beeinflussen können. Selbst bei offenen Lösungen bleibt oft unklar, wie unabhängig sie wirklich sind, wenn zentrale Bausteine an bestimmte Infrastruktur gebunden sind. Dazu kommen regulatorische Fragen, etwa beim Datenschutz oder bei der Nachvollziehbarkeit von Entscheidungen, wenn Agents eigenständig handeln.
In diesem Spannungsfeld entscheidet sich, wer künftig den Standard setzt und NVIDIA arbeitet darauf hin, diese Rolle im Hintergrund der Agent-Systeme einzunehmen.
Telekom und NVIDIA investieren 1 Milliarde Euro in Europas größte KI-Fabrik

-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 4 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer


