Connect with us

Online Marketing & SEO

Influencer-Zensur? Wie ein chinesisches Gesetz Deutschland verändern würde


China geht einen radikalen Schritt: Influencer dürfen nur noch über Medizin, Recht, Finanzen oder Bildung sprechen, wenn sie entsprechende Abschlüsse oder Zertifikate vorweisen. Welche Folgen hätte ein solches Gesetz für Deutschland?

In den sozialen Medien war es noch nie so einfach, medizinisches Wissen, Finanzstrategien oder rechtliche Einschätzungen mit anderen zu teilen. Für viele gilt es als normal, intime und komplexe Fragen öffentlich auszudiskutieren. Das Problem: Laut einem Bericht des RKI und BIÖG besitzen rund 82 Prozent der Deutschen nicht genügend Gesundheitskompetenz, um medizinische Inhalte sicher richtig einzuordnen. Und dieser Kompetenzmangel betrifft längst nicht nur Gesundheitsthemen, sondern auch die Fähigkeit, digitale Informationen kritisch zu bewerten und einzuordnen.

Während Deutschland weiterhin auf Eigenverantwortung und Selbsteinschätzung setzt, ist China am 25. Oktober 2025 einen drastischen Schritt gegangen: Ein neues Gesetz erlaubt es Influencern nur noch dann, über sensible Themen wie Medizin, Recht, Finanzen oder Bildung zu sprechen, wenn sie die dafür nötigen Abschlüsse, Zertifikate oder Lizenzen vorweisen können. Ein radikaler Eingriff, und gleichzeitig ein klares Zeichen, wie ernst die Bedrohung durch Fehlinformationen zu sein scheint. Die Meinung der Deutschen ist klar: Das ist Zensur. Aber muss Einschränkung zwingend Zensur bedeuten?

Das Social-Media-System: Wie Anreize für falsche Inhalte entstehen

Influencer haben heute die Macht, die in der Vergangenheit den klassischen Medien vorbehalten war. Auch immer mehr Unternehmen erkennen das Potenzial: Die Ausgaben für Influencer Marketing weltweit sind laut einer Studie des Influencer Marketing Hub seit 2021 von 13,8 Milliarden US-Dollar auf mehr als das doppelte angewachsen. Aussagen von Creatorn wirken schneller und emotionaler. Sie kommen ohne Redaktion, ohne Faktencheck und ohne Einordnung aus.

Wer Einfluss hat, trägt Verantwortung für die Folgen der eigenen Taten oder in diesem Fall der eigenen Inhalte. Und genau hier wird es schwierig. Die Plattformlogik belohnt Engagement, nicht zwingend die Wahrheit. Skandale, Streitigkeiten, Zuspitzungen und vermeintliche Geheimtipps generieren Klicks, Aufmerksamkeit und somit Reichweite. So entstehen monetäre Anreize, selbst dann, wenn sie falsch, unvollständig, manipulativ oder gefährlich sind. Dabei spielt Meinungsfreiheit eine entscheidende Rolle, entbindet aber nicht von Verantwortung.

Wo Meinung auf Beratung trifft und Grenzen verschwimmen könnten

Ein deutsches Äquivalent zum chinesischen Modell würde das Internet und insbesondere die Social-Media-Kultur drastisch verändern. Medizinischer Rat von Fitness- oder Ernährungs-Influencern? Verschwunden. Finanztricks von selbsternannten Börsengurus? Nur noch mit Nachweis. Pädagogische Tipps von Lifestyle Creatorn ohne Ausbildung? Unauffindbar.

Was im ersten Moment unvorstellbar klingt, hätte auch entscheidende Vorteile. Wenn Fachwissen von nun an belegt werden müsste, bekämen nur noch qualitativ hochwertige Beiträge eine hohe Reichweite. Das würde bedeuten, dass insbesondere junge Nutzer:innen besser vor gefährlichen Fehlinformationen und problematischen Empfehlungen geschützt wären. Gerade weil Influencer eine Community haben, die ihnen vertraut, werden Aussagen häufig kaum hinterfragt. Zusätzlich würde Expertise-getriebene Werbung auch den Markt für manipulative Beiträge oder problematische Produkte eindämmen – insbesondere im Gesundheits- oder Finanzbereich.

Grundsätzlich ist es positiv zu bewerten, dass auf Social Media offen über solche Themen gesprochen wird. Das war nicht immer der Fall. Heute profitieren viele Jugendliche davon, früh ein ausgeprägtes Gesundheitsbewusstsein zu entwickeln oder ein besseres Verständnis für Bereiche wie Investments zu erhalten – die Möglichkeiten zur Weiterbildung sind deutlich vielfältiger geworden. Früher galten viele dieser Themen als Tabu, beispielsweise auch Fragen zu Gehältern in bestimmten Branchen. Durch den offenen Austausch in sozialen Netzwerken wird inzwischen insgesamt wesentlich transparenter kommuniziert.


Lohntransparenz 2026:
EU macht Schluss mit undurchsichtigen Gehältern


Jede Regulierung hat dennoch ihren Preis. Eine stärkere Kontrolle von Inhalten erhöht zwar die Sicherheit, greift aber auch spürbar in die Meinungsfreiheit ein, die gerade in Deutschland einen besonders hohen Stellenwert hat. Gleichzeitig könnte sie die Vielfalt und kreativen Stimmen reduzieren, die gerade die Social-Media-Kultur seit jeher auszeichnen. Auch der Einstieg in die Branche würde schwieriger. Wer sich erst mühsam Expertise in komplexen Themenfeldern erarbeiten muss, steht vor zusätzlichen Hürden.

Der wohl entscheidendste Punkt bleibt jedoch die rechtliche Grauzone: Wo endet Entertainment, wo beginnt Beratung? Was gilt als persönliche Erfahrung, was bereits als fachliche Empfehlung? Gleichzeitig stellt sich eine grundsätzliche Frage, die die Debatte zusätzlich kompliziert macht: Wer entscheidet, welche Themen welche Art Qualifikation bedürfen? Und wo genau verläuft die Grenze? Ist die Bewerbung eines Energydrinks durch einen Gaming Influencer oder einer Finanz-App durch einen Lifestyle Creator bereits ein Tipp, der geprüft und verifiziert werden muss? Diese Fragen zeigen, wie schwierig die Setzung klarer Grenzen in der Praxis wäre.

Strengere Regeln, smartere Strategien: Was künftig auf Marken zukommen könnte

Neben den Auswirkungen auf Influencer und ihre Communities ergeben sich auch neue Möglichkeiten und spürbare Herausforderungen für die Werbebranche – ganz gleich, ob Unternehmen, Agentur oder Vermittlungsplattform. Es entstehen neue Möglichkeiten, zugleich aber auch erhebliche Herausforderungen: Strategien müssen neu gedacht, Kooperationen neu gestaltet und strengere Anforderungen erfüllt werden. Ein Gesetz, das klare Expertise verlangt, würde die Branche nachhaltig prägen und damit Fragen aufwerfen, die bisher nie gestellt wurden.

Auf der positiven Seite stiege vor allem die Glaubwürdigkeit: Werbung über zertifizierte oder nachweislich fachkundige Creator wäre für Konsument:innen deutlich nachvollziehbarer und seriöser. Gleichzeitig ließe sich das Reputationsrisiko reduzieren, da Marken seltener in Situationen geraten würden, in denen sie mit fragwürdigen oder falschen Empfehlungen in Verbindung gebracht werden – egal ob bewusst oder unbewusst. Auch die Kampagnenqualität könnte profitieren, da fachlich korrekte Informationen eine transparentere und sauberere Kommunikation ermöglichen würden, insbesondere in sensiblen oder stark regulierten Branchen. Schlussendlich könnte auch die Suche nach passenden Influencern einfacher werden. Da nur qualifizierte Creator bestimmte Produkte oder Themen bewerben dürften, würde sich die Auswahl zwar verkleinern, aber deutlich klarer strukturieren. Marken könnten somit schneller die passenden Partner:innen finden, ohne sich durch einen unübersichtlichen Markt arbeiten zu müssen und selbst Kriterien zur Einschätzung aufzustellen.


Gamechanger für Creator?
Das ist YouTubes Open Call


Doch diesen Vorteilen stehen ebenso deutliche Herausforderungen gegenüber. Strengere Vorgaben würden in vielen Bereichen – insbesondere in spezialisierten Nischen wie Gesundheit, Finanzen oder Recht – zu weniger verfügbaren Creatorn führen. Ein kleinerer Markt kann zwar die Orientierung erleichtern, bedeutet aber gleichzeitig weniger Wettbewerb und damit potenziell höhere Preise, denn
zertifizierte Expert:innen könnten deutlich höhere Honorare verlangen, im Extremfall sogar eine Art Monopol einzelner Fach-Creator entwickeln.

Für Marken würde dies zudem eine komplexere Kampagnenplanung bedeuten: Inhalte müssten sorgfältiger geprüft, Qualifikationen verifiziert und zusätzliche regulatorische Anforderungen berücksichtigt werden. Doch hier stellt sich eine zentrale praktische Frage: Woher sollen Unternehmen die Informationen bekommen, um diese Qualifikationen zuverlässig zu überprüfen? Durch klare Standards, zentrale Register oder speziell befugte Personen? Ohne sie könnten Unsicherheiten oder betrügerische Strukturen entstehen. Das zeigt, dass ein kleinerer, stärker regulierter Markt zwar Übersicht schafft, aber zugleich neue Unklarheiten und Risiken mit sich bringt.

Zwischen Realität und Zukunft: Welche Wege wirklich sinnvoll sein könnten

Ein striktes Influencer-Gesetz nach chinesischem Vorbild wäre in Deutschland kaum umsetzbar – und vermutlich auch nicht sinnvoll. Die Bedeutung der Meinungsfreiheit, die Vielfalt der digitalen Kultur und die Komplexität unseres regulatorischen Umfelds sprechen klar gegen ein solches stark eingreifendes Modell. Dennoch zeigt der Blick nach China, dass bestimmte Herausforderungen, wie mangelnde Transparenz, fragwürdige Empfehlungen oder manipulative Inhalte real und längst auf dem politischen Radar sind.

Denn gleichzeitig wächst auch in Deutschland der politische Druck, hier stärker einzugreifen. Über verschiedene regulierende Optionen wird bereits diskutiert oder zumindest nachgedacht: Kennzeichnungspflichten für qualifikationsrelevante Inhalte, eine striktere Regulierung von Empfehlungs-Marketing in sensiblen Bereichen, über algorithmische Transparenz und Risikominderungsmaßnahmen im Rahmen des DSA, über berufsrechtliche Grenzen etwa im Gesundheits- oder Rechtsbereich sowie über standardisierte Prüfprozesse der Plattformen für Creator. Gerade vor diesem Hintergrund lohnt es sich, über clevere Zwischenschritte nachzudenken, die Orientierung und Schutz bieten, ohne grundlegende Freiheiten zu beschneiden:

1. Expertise-Ausweise für Creator

Plattformen könnten Expertise-Badges etablieren, ähnlich zu bestehenden Verifikationssymbolen. In Bereichen wie Medizin, Ernährung, Recht oder Finanzen dürften Creator ihre Inhalte nur dann entsprechend labeln, wenn sie nachvollziehbare Qualifikationen nachweisen. Sollte jene nicht vorhanden sein, müsste das ebenfalls gekennzeichnet sein als „nicht verifizierter Inhalt“.

2. Transparenzpflicht für sensible Inhalte

Durch klare Einblendungen wie „Dieser Inhalt stellt keine professionelle Beratung dar“ oder „Creator besitzt „…“ Qualifikation“ ließen sich Aussagen besser einordnen. Auch eine Kombination mit dem Expertise-Ausweis wäre denkbar. Nutzer:innen erhielten damit eine echte Entscheidungshilfe, ohne dass Inhalte eingeschränkt werden müssten.

3. Creator-Schulungen und Zertifikate durch unabhängige, geprüfte Organisationen

Solche Programme müssten nicht staatlich sein, sollten aber standardisiert und transparent gestaltet werden. Sie würden Professionalität fördern, ohne Kreativität zu beschneiden. Hier würden sich zudem neue Arbeitsplätze kreieren lassen.

4. Erweitertes Bildungsangebot an Schulen und Universitäten

Hier könnte es sinnvoll sein, die Einschätzung von Quellen und die Überprüfung von Fakten, die über Social Media verbreitet werden, fest in den Lehrplan zu integrieren. So würde früh ein Bewusstsein aufgebaut werden.

Die goldene Mitte: Der Dialog, der längst begonnen hat

Ein pauschales Verbot für nicht-qualifizierte Creator mag überzogen wirken, doch es zeigt eine reale Entwicklung: Die digitale Öffentlichkeit hat ein Informations- und Vertrauensproblem. Wer Einfluss hat, trägt Verantwortung. Und wer Verantwortung trägt, braucht klare Rahmen.

Allen voran gilt deshalb, zentrale Fragen zu Standards, Prüfprozessen, Informationsbereitstellung und den bestehenden Grauzonen zu klären und verbindlich zu regeln. Dafür muss Deutschland nicht Chinas Gesetz übernehmen, aber es braucht einen neuen, ehrlichen Dialog darüber, wie Meinungsfreiheit, Kreativität und Sicherheit im Netz miteinander vereinbar bleiben. Ob ein solches Gesetz Zensur oder Schutz ist? Die Wahrheit liegt dazwischen. Klar ist: Die Debatte hat begonnen und sie wird intensiver werden.


Der Preis der Sichtbarkeit:
Warum viele Influencer sich am eigenen Image erschöpfen





Source link

Online Marketing & SEO

Das Gonzo-Prinzip: Booster für Sichtbarkeit bei Google und KI


Die Spielregeln im SEO haben sich radikal geändert. Wer jetzt noch auf generischen 08/15 Content setzt, wird unsichtbar. Erfahre deshalb im PageRangers Webinar am 5. Februar, wie du mit dem Gonzo-Prinzip Sichtbarkeit für deine Inhalte in der KI-Suche generierst. [Anzeige]

Der massive Ausbau von KI-Lösungen in der Suche, von AI Overviews über den AI Mode bis hin zu ChatGPT Search Features und Yahoo Scout, sofgt für weniger organischen Traffic bei Publishern, während KI-generierte Inhalte das Web fluten. Die SEO-Spielregeln wurden erneuert und die Praktik der GEO tritt in den Vordergrund. Viele KI-Tools und Chatbots beantworten Fragen oft direkt, ohne dass User noch auf deine Website klicken müssen. Wer jetzt nicht mit genuinen und einzigartigen Inhalten punkten kann, wird unsichtbar.

Der Lösungsansatz: In diesem exklusiven Webinar von PageRangers zeigt dir Thomas Ottersbach am 5. Februar ab 14 Uhr einen radikalen Gegenentwurf zum Einheitsbrei: das Gonzo-Prinzip. Inspiriert vom legendären Gonzo-Journalismus lernst du, warum Objektivität nicht immer der Schlüssel zum Erfolg ist. Erfahre, wie du durch Subjektivität, deine eigenen Erfahrungen und eine starke Meinung nicht nur aus der Masse hervorstichst, sondern genau die Qualitätssignale (E-E-A-T) lieferst, die Google und moderne KI-Systeme heute belohnen. Lerne im Webinar, wie du gezielt den Content entwickelst, der dich deinen Zielen näher bringt.

Direkt zum kostenfreien Webinar

Das lernst du in diesem Webinar

  • Das Ende des Mainstream Contents: Verstehe, warum reine KI-Texte oft austauschbar sind und dir langfristig keine nachhaltige Sichtbarkeit bringen.
  • Das Gonzo-Prinzip: Lerne, wie du Autorität und Vertrauen aufbaust und dabei die neuen Spielregen von Google und KI-Systemen berücksichtigst.
  • Lerne, welche Analysen wichtig sind, um den Textinhalt so zu entwickeln, damit dieser Wirkung zeigt.
  • Google E-E-A-T meistern: Hol dir konkrete Taktiken, um die Google-Qualitätsfaktoren in deinen Inhalten nachzuweisen.
  • Die Content-Pyramide: Lerne, wie du mithilfe der Content-Pyramide den optimalen Inhalt generieren kannst.

Durch die zentralen Punkte des Webinars führt dich Thomas Otterbach, der als geschäftsführender Gesellschafter der PageRangers GmbH mit über 20 Jahren mit über 20 Jahren Erfahrung im Online Business bereits verschiedene Unternehmen erfolgreich aufgebaut und veräußert aht. Mit dem SEO Tool und der Content Suite von PageRangers bietet er ein Toolset für Unternehmen, die ihre Websiite für Google und die KI-Tools optimieren wollen, einen hohen Anspruch an Inhalte und den gezielten Sichtbarkeitsaufbau im Fokus haben.

Sichere dir deinen kostenlosen Zugang zum Webinar am 5. Februar




(* = Pflichtfeld)






Source link

Weiterlesen

Online Marketing & SEO

Lippenstifte fürs echte Leben: McCann zeigt Maybelline-Lippenstifte als Ruhepol im Alltagsstress


Die Kampagne zeigt die Maybelline Lippenstifte als unkomplizierte Alltagsbegleiter.

McCann liefert für Maybelline eine ungewöhnliche Kampagne: Statt Fokus auf Nahaufnahmen von Models und Produkten inszenieren verschiedene Spots die neuen Maybelline Serum Lippenstifte als kleinen Ruhepol und Moment der Selbstfürsorge im stressigen Alltag der Gen X.

Die drei jeweils 20-sekündigen Spots zeigen Frauen der Gen X in ihrem oft stressigen Alltag: Im Büro, auf dem Weg zur Arbeit, beim Jongliere

Jetzt Angebot wählen und weiterlesen!

1 Monat

29 €

  • zum Testen
  • danach 36,50 € mtl.

12 Monate

329 €

  • anstatt 439 €
  • 110€ sparen

24 Monate

529 €

  • anstatt 878 €
  • 349 € sparen

HORIZONT Digital

  • Vollzugriff auf HORIZONT Online mit allen Artikeln
  • E-Paper der Zeitung und Magazine
  • Online-Printarchiv

HORIZONT Digital-Mehrplatzlizenz für Ihr Team



Source link

Weiterlesen

Online Marketing & SEO

Moltbot ist OpenClaw: Sehr gefährlich und hilfreich zugleich


OpenClaw fungiert als lokale AI-Assistenz mit Messaging-Zugriff, birgt aber massive Sicherheitslücken. Und mit Moltbook haben OpenClaw Bots sogar eine neue Social-Media-Heimat, in der sie diskutieren können.

Erst hieß es Clawdbot, dann Moltbot, jetzt OpenClaw: Das offene KI-Projekt von Peter Steinberger ist zum viralen AI-Assistance-Hit avanciert und hat auf GitHub bereits knapp 150.000 Sternebewertungen erhalten. OpenClaw ermöglicht es dir, deinen eigenen Assistant mit jedem Betriebssystem und auf jedem Gerät laufen zu lassen und ihn über populäre Messaging-Dienste wie WhatsApp, Slack oder Google Chat zu steuern.

Neben Umbenennungen stehen für das Projekte, das zuletzt in der Tech-Welt in aller Munde war, aber aktuell vor allem Sicherheitsbedenken im Fokus – während KI-kreierte OpenClaw Bots sogar ein eigenes Social Network ohne Menschen bevölkern.

Das ist OpenClaw: Deine Infrastruktur, deine Daten, dein Risiko

In einem Blog Post erklärt Peter Steinberger, der Erfinder von OpenClaw, was es mit seinem Projekt auf sich hat. Zunächst hieß die Agent Platform ClawdBot. Das war eine Wortspiel, mit dem Steinberger an die KI Claude von Anthropic erinnern wollte. Doch Anthropic drohte mit juristischen Konsequenzen, sodass das Projekt in Moltbot umbenannt wurde. Dazu erklärt der Macher:

Moltbot came next, chosen in a chaotic 5am Discord brainstorm with the community. Molting represents growth – lobsters shed their shells to become something bigger. It was meaningful, but it never quite rolled off the tongue.

Also musste noch ein neuer Name her. Seit dem 29. Januar 2026 ist das OpenClaw. Der Name soll andeuten, dass das Projekt offen für alle ist, während die Anlehnung an den Hummer als eine Art Maskottchen gewahrt bleibt. Zusammen mit dem Rebranding gab es noch Updates für die Agent Platform. User können eine Verküpfung mit noch mehr Chat-Systemen wie Google Chat und Twitch herstellen. Außerdem werden Modelle wie KIMI K2.5 und Xiaomi MiMo-V2-Flash unterstützt und im Web Chat können Bilder wie in Messenger gesendet werden.

Grundsätzlich können mit OpenClaw, das als Wochenendprojekt begann und dann binnen einer Woche über zwei Millionen Besucher:innen generierte, AI Assistants für den Eigenbedarf auf sämtlichen Geräten kreiert werden. Damit muss die Assistenz nicht in einer Cloud von Tech-Unternehmen agieren und die Infrastruktur und Daten der User sind über das eigene Gerät verwaltet. Das klingt verlockend, vor allem wenn man die Weitergabe von Aufgaben wie Mailings, Ordner-Sortieren oder Web-Suche einfach über eine favorisierte Messaging App steuern kann. Doch dieses zuletzt extrem populär gewordene Projekt brigt große Risiken.

OpenClaw mit Sicherheitslücken

Die Sicherheit ist das priorisierte Ziel für die OpenClaw-Entwicklung, betont auch Peter Steinberger. Kein Wunder, denn das Projekt kommt derzeit noch mit einigen Sicherheitsproblemen daher. Das zeigt nicht zuletzt der umfassende Test von Heise.

Ein Problem besteht zum Beispiel darin, dass es Lücken zum Einschleusen von Code-Elementen gibt. Dirk Knop berichtet für Heise von einer Schwachstelle in der Bedienoberfläche, die Anfragen ohne Prüfung Vertrauen schenkt. Böswillige Akteur:innen können mit zum Gateway in den WebSocket-Verbindungsdaten übertragenen Zugriffstokens bei Klicks auf bösartige Websites oder vorgefertige Fraud Links Kontrolle über die Tokens im eigenen Server erhalten und sich auf dem Gateway anmelden. Dann haben die die Möglichkeit, Einstellungen zu verändern. Die Version Version 2026.1.29 soll das Problem schon behoben haben, ein Update ist also zwingend erforderlich.

Dennoch gibt es Bedenken, da beispielsweise auch betrügerische Download-Dateien – die aufgrund der doppelten Namensänderung eher angenommen werden könnten – mit ähnlichen Namen bei den Usern landen und auf ihren Geräten Schaden anrichten könnten. Versuche, sogenannte Typosquat Domains aufzubauen, gab es schon. Des Weiteren gibt es kein ausgearbeitetes Sicherheits-Backup für die Nutzung, bei der User diverse Daten und Zugriffe mit der AI-Assistenz teilen könnten. Expert:innen von Cisco nennen das Projekt gar einen „Sicherheitsalbtraum“. Die Verbindung mit Messaging-Diensten erweitert die Angriffsfläche für Scammer und Hacker und vor Prompt Injection und Hacks, die API Keys erbeuten, ist das Projekt ebenfalls nicht gefeit. Wer also OpenClaw ausprobiert, sollte absolute Sicherheitsvorkehrungen antellen und die Zugriffsrechte prüfen.

Die OpenClaw Bots verbinden sich in Agent-Socia-Netzwerk à la Reddit

Mit OpenClaw erstellte Agents tummeln sich unterdessen schon in einem neuen Netzwerk namens Moltbook. Dort diskutieren anschneinend KI-kreierte Agens untereinander ihre Erfahrungen und Aufgaben, aber auch aktuelle Ereignisse. Ob allerdings alle Posts genuin von den Bots abgesetzt oder doch durch Prompts von menschlichen Usern generiert werden, ist nicht ganz klar. Menschen können ihre AI Agents dort anmelden, Agents können es aber auch von sich aus tun.

Die Moltbook-Startseite, © Moltbook
Die Moltbook-Startseite, © Moltbook

Die Plattform erinnert an Reddit, sowohl von der Farbgebung und Maskottchenansicht als auch vom Aufbau her. Diese Plattform stammt aber nicht von OpenClaw und Peter Steinberger, sondern von Matt Schlicht, CEO von Octane AI. Das geht aus den Website-Informationen hervor. Diese Moltbook-Social-Media-Infrastruktur muss nicht auf Bots beziehungsweise Agents von OpenClaw beschränkt sein. Sie zeigt einen nächsten Schritt der agentischen KI-Entwicklung im Web mit seinen aufsehenerregneden und hochinteressanten Facetten, aber auch mit all seinen Gefahren. Schließlich können auch böswillig agierende oder gehackte Agents auf Moltbook mitdiskutieren, selbst wenn die Plattform Verifizierungsanfragen stellt.

OpenClaw, Moltbook und Co. dürften nur einige erste Ausläufer einer KI-Revolution im Web sowie auf den Geräten zahlreicher User sein, die die AI-Assistenz und die Eigenständigkeit der Agents völlig neu denkt. Die Möglichkeiten erscheinen kaum begrenzt, wohl oder übel.


Nano Banana und automatisches Browsing in Chrome:

Gemini Update erinnert an Atlas

Chrome-Logo und Gemini-Logo vor Raum mit Tisch, blaue Linie darum
© Google via Canva





Source link

Weiterlesen

Beliebt