Connect with us

Online Marketing & SEO

KI enttarnt anonyme Accounts: Diese Spuren verraten dich


Anonym im Netz? Eine aktuelle Studie zeigt, dass große Sprachmodelle (LLMs) Accounts unter Pseudonym immer häufiger den dahinterstehenden Personen zuordnen können. Schon Schreibstil, Interessen oder kleine Details können Profile enttarnen – mit Risiken für Privatsphäre und Whistleblower.

Ein Reddit-Alt, ein anonymer LinkedIn-Kommentar oder ein pseudonymer Thread auf Hacker News galten lange als vergleichsweise sichere Wege, unerkannt im Netz zu agieren. Doch die Studie Large-scale online deanonymization with LLM agents, an der unter anderem Forschende der ETH Zürich und der University of Washington beteiligt waren, zeigt, wie leistungsfähig große Sprachmodelle inzwischen bei der Zuordnung pseudonymer Accounts werden.

Wer also noch glaubt, dank eines Nicknames wirklich anonym zu bleiben, könnte sich täuschen. Denn was Menschen beim Lesen oft übersehen, kann KI inzwischen systematisch erkennen: Muster in Sprache, Interessen oder biografischen Details lassen sich automatisiert analysieren und über Plattformen hinweg miteinander verknüpfen. Über die Analyse berichten unter anderem The Verge und The Guardian. In der Studie untersuchten die Forschenden, wie LLM-Agents öffentlich verfügbare Informationen auswerten und Profile plattformübergreifend miteinander abgleichen können. Die Forschung wurde von der ETH Zürich geleitet, wo auch die zentralen Experimente durchgeführt wurden. Der KI-Sicherheitsforscher Nicholas Carlini von Anthropic unterstützte das Team zusätzlich als wissenschaftlicher Berater.


OpenAI erreicht neues User- und Abo-Hoch:
Stoppt CancelChatGPT den Höhenflug?

Sam Altman, CEO von OpenAI, vor blau-grünem Hintergrund.
© Steve Jurvetson, Wikimedia Commons, CC BY 2.0 und OpenAI via Canva

Dein Schreibstil ist dein digitaler Fingerabdruck

Die Untersuchung zeigt, dass zur Identifizierung weder Hacks noch Datenlecks nötig sind. Oft reichen bereits Informationen, die Nutzer:innen selbst veröffentlichen. Die in der Studie eingesetzten LLMs analysieren Texte aus anonymen Accounts und suchen im Netz nach wiederkehrenden Mustern. Dabei erkennen sie typische Signale, die Rückschlüsse auf eine Person zulassen können, etwa:

  • Schreibstil
  • Wortwahl und Satzstruktur
  • Interessen und Fachbegriffe
  • biografische Hinweise aus Posts

Diese Informationen werden anschließend mit Profilen auf anderen Plattformen abgeglichen. Ziel ist es, mögliche Identitäten hinter pseudonymen Accounts zu identifizieren. Die Ergebnisse sind bemerkenswert. In Tests konnte das System Accounts mit einer Trefferquote von 68 Prozent bei 90 Prozent Präzision den dahinterstehenden Personen zuordnen. Grundlage waren Datensätze aus Plattformen wie Reddit, Hacker News und LinkedIn sowie Interview-Transkripte.

Ein Beispiel aus der Studie zeigt, wie die Methode funktioniert. Ein anonymes Konto berichtet etwa über schulische Schwierigkeiten und erwähnt Spaziergänge mit seinem Hund Biscuit im Dolores Park. Die KI durchsucht anschließend andere Plattformen nach Profilen mit ähnlichen Details und konnte so den anonymen Account @anon_user42 zuordnen. Voraussetzung dafür ist jedoch, dass irgendwo im Netz öffentliche Informationen existieren, etwa ein Profil mit Klarnamen, persönliche Posts oder andere Hinweise, die eine Verbindung ermöglichen. Erst durch solche übereinstimmenden Details kann die KI mehrere Profile derselben Person miteinander verknüpfen. Je mehr Inhalte ein anonymer Account veröffentlicht, desto leichter lässt er sich enttarnen.

Diagramm aus einer Studie zeigt, wie LLM-Agents biografische Hinweise aus anonymen Posts extrahieren, im Internet nach passenden Profilen suchen und mögliche Identitäten miteinander abgleichen.
Grafik aus der Studie: So verknüpfen LLMs anonyme Accounts mit realen Profilen, © ETH Zürich

Wer heute im Netz anonym bleiben möchte, müsste seine Accounts deshalb deutlich stärker voneinander trennen. Mögliche Gegenmaßnahmen wären etwa:

  • bewusst unterschiedliche Schreibstile verwenden
  • unterschiedliche Accounts konsequent voneinander trennen
  • keine biografischen Details teilen
  • wiederkehrende Interessen oder Themen nicht plattformübergreifend posten
  • keine spezifischen Ortsangaben oder persönlichen Routinen erwähnen
  • unterschiedliche Nutzungszeiten oder Aktivitätsmuster verwenden
  • keine identischen Emojis, Formulierungen oder Redewendungen nutzen

Große Sprachmodelle können solche Analysen erstmals kostengünstig skalieren. Was früher Stunden oder sogar Tage manueller Recherche erforderte, lässt sich heute automatisiert durchführen. Gleichzeitig bleiben die Kosten niedrig. Laut der Studie kann eine Analyse lediglich ein bis vier US-Dollar pro Profil kosten. Die KI-Forscher Simon Lermen und Daniel Paleka erklärten, dass LLMs damit „eine grundlegende Neubewertung dessen erzwingen könnten, was im Internet noch als privat gilt“.

Die Risiken der KI-Deanonymisierung: Betrug, Fehlzuordnungen und Druck auf Whistleblower

Die KI-gestützte Überwachung entwickelt sich zu einem schnell wachsenden Forschungsfeld, das bei Informatiker:innen und Datenschutzexpert:innen zunehmend Besorgnis auslöst. Große Sprachmodelle können enorme Mengen öffentlich zugänglicher Informationen über Personen sammeln und miteinander verknüpfen. Für Menschen wäre eine solche Analyse kaum zu bewältigen, für KI lässt sie sich dagegen automatisieren und in großem Maßstab durchführen. Noch handelt es sich allerdings nicht um ein perfektes Überwachungssystem. Die Experimente wurden mit kuratierten Datensätzen durchgeführt, das zugrunde liegende Paper ist bislang nicht peer-reviewed und die Methode wurde nicht mit realen anonymen Accounts im offenen Internet getestet.

Potenzielle Vorteile solcher Technologien liegen vor allem im Bereich der Analyse und Moderation digitaler Kommunikation. KI-Systeme könnten etwa helfen, koordinierte Desinformationskampagnen aufzudecken, Bot-Netzwerke zu identifizieren oder orchestrierte Einflussversuche schneller zu erkennen. Gerade für Plattformen, die mit Manipulation, Fake Accounts oder organisierten Kampagnen kämpfen, könnte eine solche Analyse ein nützliches Werkzeug sein.

Der KI-Forscher Simon Lermen weist jedoch darauf hin, dass öffentlich zugängliche Informationen über Bürger:innen bereits heute „direkt für Betrug missbraucht werden“ könnten. Ein Beispiel ist Spear Phishing. Dabei sammeln Angreifer:innen gezielt Informationen über eine Person – etwa aus Social-Media-Profilen, Kommentaren oder Forenbeiträgen – und nutzen diese, um besonders glaubwürdige Betrugsnachrichten zu erstellen. Die Nachricht wirkt dann so, als käme sie von einer vertrauten Person oder einem bekannten Unternehmen und enthält häufig einen Link oder eine Bitte um persönliche Daten. Durch KI wird dieser Betrugsprozess deutlich einfacher. Große Sprachmodelle können Informationen über eine Person automatisch zusammentragen und daraus personalisierte Nachrichten formulieren.

Ein weiteres Risiko sind mögliche Fehlzuordnungen. Der Informatikprofessor Peter Bentley vom University College London warnt, dass KI-Systeme Accounts auch falsch miteinander verknüpfen könnten. Im schlimmsten Fall könnten Menschen dadurch für Aussagen verantwortlich gemacht werden, die sie nie getätigt haben.

Besonders kritisch ist die Entwicklung zudem für Menschen, die bewusst unter Pseudonym kommunizieren. Dazu zählen etwa Aktivist:innen, Journalist:innen oder Mitarbeitende, die Missstände anonym öffentlich machen wollen. Wenn sich solche Accounts durch KI leichter einer realen Person zuordnen lassen, könnten Betroffene schneller identifiziert und unter Druck gesetzt werden, etwa durch Belästigung im Netz, berufliche Konsequenzen oder rechtliche Schritte.



Wie sieht die Zukunft der Online-Anonymität im KI-Zeitalter aus?

Online-Anonymität verschwindet durch solche Technologien nicht sofort. Sie wird jedoch deutlich fragiler. Wer über verschiedene Plattformen hinweg ähnliche Interessen, Geschichten oder Schreibweisen teilt, hinterlässt einen digitalen Fingerabdruck. Genau diese digitalen Spuren können große Sprachmodelle heute schneller erkennen, analysieren und miteinander verknüpfen als Menschen.

Das hat zwei Seiten. Einerseits könnten solche Systeme Plattformen dabei helfen, Manipulation im Netz besser zu erkennen. Probleme wie Hate Speech, Bot-Netzwerke oder koordinierte Desinformation beschäftigen Social-Media-Dienste seit Jahren. Besonders schwer zu kontrollieren sind sogenannte Sockpuppet Accounts, also mehrere Profile, die von einer Person gesteuert werden, um Diskussionen gezielt zu beeinflussen oder künstlich Reichweite zu erzeugen. Wenn Systeme Schreibmuster, Inhalte und biografische Hinweise analysieren, lassen sich möglicherweise orchestrierte Debatten, Astroturfing-Kampagnen oder koordinierte Einflussversuche schneller identifizieren. Gerade für Community-Plattformen und Diskussionsnetzwerke wie Reddit, X, Threads oder Discord wäre das relevant.

Gleichzeitig zeigt die Forschung, wie leicht sich digitale Spuren im Netz zusammenführen lassen – und wie schnell sie für Betrug missbraucht oder für Datenschutzangriffe eingesetzt werden könnten. Mit immer leistungsfähigeren KI-Systemen wird Online-Anonymität zunehmend brüchiger. In Zukunft dürfte sie weniger eine Frage des Nicknames sein, sondern vielmehr davon abhängen, wie konsequent digitale Spuren getrennt werden.





Source link

Online Marketing & SEO

Neuer Food-Trend?: Burger King geht in die Baby-Burger-Offensive


Bisher galt bei Burgern in der Fastfood-Gastronomie ganz klar das Motto: Größer ist besser. Burger King ruft nun den Gegentrend aus und will mit drei Baby-Burgern an den „Fun of Trying out“ (FOTO) der Kunden appellieren. Dahinter steckt auch ein klares Preiskalkül.

Die Lage an den Bestellschaltern ist dank der Inflation komplizierter denn je. Waren die Menüs bei McDonald’s, Burger King und Co. früher noch zum Snacking-Preis zu haben, stellen mittlerweile selbst die Standard-Optionen viele Kunden preislich vor eine echte Investitionsentscheidung. Um die Kunden trotzdem noch zu regelmäßigen Besuchen zu motivieren, investieren die Fastfood-Ketten in Preisaktionen und besonders große Burger mit einem gefühlt besseren Preis-Leistungsverhältnis.

Burger King Deutschland setzt nun auf den entgegengesetzten Trend und bringt ab sofort drei Burger-Klassiker der Marke im Mini-Format zusammen in eine Box: Baby Whopper, Baby Big King und Baby Steakhouse. Die neuen Baby Burger sollen direkt an die Freude am Probieren der Kunden appellieren, sagt Tim Lenke, Senior Manager Product Development & Innovation bei Burger King Deutschland: „Viele Menschen möchten beim Essen kombinieren und unterschiedliche Geschmacksrichtungen entdecken. Mit den Baby Burgern ermöglichen wir genau das.“

Aus einer Verkaufsperspektive bietet Burger King damit auch kleineren Kundengruppen eine attraktive Bestell-Option zum gemeinsam teilen und dürfte auch so manchen Kunden überzeugen, denen ein einzelner der Burger in Originalgröße schlicht zu mächtig wäre.

Burger King selbst gibt allerdings an, dass man hier vor allem auf ein Kundenbedürfnis reagieren wolle: Denn in einer eigens beauftragten Studie mit 1000 Teilnehmern hatten 49,3 Prozent der Befragten angegeben, dass sie sich nur schwer für nur ein Gericht entscheiden können. Wichtigster Treiber dieser mentalen Blockade ist die Angst, möglicherweise etwas zu verpassen (Fear of missing out = FOMO). Nur 34,9 Prozent der Befragten spüren dieses Gefühl nicht. Sechs von zehn Menschen in Deutschland würden laut Umfrage im Restaurant kleinere Portionen wählen, um dadurch mehr Optionen probieren zu können.

Das neue Burger-King-Angebot soll hier den Gegentrend etablieren: FOTO („Fun Of Trying Out“) – die Freude und Lust am Ausprobieren, ohne sich entscheiden zu müssen, sagt Yvonne von Eyb, CMO von Burger King Deutschland: „Die Umfrage zeigt eindeutig, dass es beim Essen um Entdeckungslust, Spontanität und Experimentierfreude geht.“

Den Launch des neuen Aktionsprodukts begleitet Burger King mit einer Werbekampagne, die den Bestellvorgang im Restaurant humorvoll als Quizshow mit zu vielen Optionen inszeniert (Kreation: Grabarz & Partner). Die Kampagne wird über TV und Digital Video gespielt. Aber ihre eigentliche popkulturelle Strahlkraft sollen die Baby Burger über Social Media (Tiktok, Instagram) und Influencer-Marketing entwickeln. Burger King arbeitet hier im Rahmen der Kampagne gleich mit zwei Social-Media-Spezialisten – Charles & Charlotte und Enkime – zusammen. Die Mediaplanung verantwortet Mediaplus.



Source link

Weiterlesen

Online Marketing & SEO

Edits bringt Freeze Frame und Voiceover Teleprompter


Mit drei neuen Features kannst du aufmerksamkeitsstarke Reels erstellen und zeitgemäß Storytelling betreiben – sogar mit personalisierten Sound-Effektvorschlägen.

Metas Videobearbeitungs-App Edits entwickelt sich zu einer zentralen Option zur Content-Kreation. Erst vor rund einem Jahr gestartet, ist Edits als CapCut-Alternative gerade für den Meta-Kosmos und die Reels äußerst relevant geworden. Das liegt vor allem an den stetigen Feature Updates. Kürzlich hat Edits beispielsweise automatische Highlights für Captions eingeführt und auch eine Funktion, um Reels bis zu 100 Mal schneller zu machen. Jetzt gibt es schon wieder ein Update, das der offizielle Creators Account von Instagram vorstellt. Damit erhalten Creator unter anderem Sound-Vorschläge passend zu ihren Inhalten und ein aus dem Fernsehen bekanntes Feature, das viel Zeit sparen kann.


Automatische Highlights für Reels Captions, mehr Effekte und neuer Ideas Tab für Edits

Edits App
© Meta via Canva

Diese 3 Edits Features sind neu: Besseres Storytelling und passende Sounds

Eine der neuen Optionen von Edits ist erstmal nur für iOS User verfügbar. Dabei handelt es sich um die Funktion „Sound Effects for you“. Diese bietet einen eigenen Tab für personalisierte Vorschläge, genannt „For you“, die zum Content des Creators passen. Im Beispielvideo läuft eine Person zur S-Bahn, Edits schlägt dann einen Sound namens „Running“ vor, aber auch „Wind Blowing“, „Bus Horn“ und „Sneaking“. Die Audios kommen aus der Meta-Bibliothek und können für die akustische Untermalung von Reels eingesetzt werden.

Visuell wiederum unterstützt Edits Creator jetzt mit dem Feature Freeze Frame. Damit können, wie der Name schon sagt, einzelne Frames quasi eingefroren werden, um spezielle Momente im Video hervorzuheben. Ebenso ist es möglich, auf besondere Transitions hinzuweisen, die zum Storytelling gehören. Zum Beispiel könnten Creator einen Freeze Frame an einer konkreten Stelle im Reel-Verlauf zu ihrem Erkennungsmerkmal machen oder die Option einsetzen, um einen Spannungsbogen aufzubauen.

Das so optimierte Storytelling kann darüber hinaus jetzt noch besser per Voiceover gestützt werden. Denn Edits liefert einen Voiceover Teleprompter. Damit können Creator ihre Skripte direkt in der Bearbeitungs-App integrieren und sie beim Aufnehmen als Textvorlage auf dem Screen laufen lassen. So können sie Content aufnehmen, das Voiceover einsprechen und mit wenigen Takes das Reel fertigstellen. Das kann Zeit und Nerven sparen.

Noch mehr Insights dazu, wie Creator hochwertige Reels erstellen, die auf Instagram, aber ebenso auf Facebook und Threads, gut performen können, liefert Meta in einer Dos and Don’ts-Übersicht, die wir für dich mit expliziten Tipps aufbereitet haben.


Don’t do it perfect:

Instagrams neue Dos und Don’ts für Reels

Oranges Instagram Creator Visual mit der Aufschrift „FYI: Understanding Reach on Instagram“, das Hinweise zu Reichweite und Content-Strategien zeigt.
© Instagram via Canva





Source link

Weiterlesen

Online Marketing & SEO

So krass verändert Gemini jetzt die Googles Workspace-Arbeit


In Google Docs, Sheets, Slides und Drive übernimmt Gemini jetzt immer mehr Aufgaben. Wie die Google-KI ab sofort Dateien, Mails und Web-Infos verbindet und sogar das Prinzip der leeren Seite aufbricht.

Gemini zieht tief in Google Workspace ein. Google integriert die KI jetzt in Docs, Sheets, Slides und Drive. Die KI kann Informationen aus Dateien, E-Mails und dem Web zusammenführen und daraus Inhalte erstellen oder Fragen beantworten. Laut Google geschieht das unter Einhaltung der Datenschutzrichtlinien.

Wie Gemini die Arbeit in Dokumenten, Tabellen und Präsentationen verändern soll und warum das klassische Blank Space-Prinzip beim Start eines Google-Dokuments künftig Geschichte sein könnte. Parallel stellt Google zusätzliche KI-Tools vor. Wie die neuen Gemini-Funktionen im Arbeitsalltag aussehen könnten, zeigt das Unternehmen im folgenden Video.

Google demonstriert im Video, wie Gemini künftig in Google Workspace arbeitet, © Google

Gemini 3.1 Flash-Lite:
Schnellstes und kosteneffizientestes KI-Modell von Google

Gemini 3.1 Flash-Lite-Schriftzug vor dunklem Hintergrund mit hellen Elementen
© Google via Canva

Nie wieder Informationen zusammensuchen? Gemini übernimmt!

Google beschreibt die neuen Funktionen als nächsten Schritt, um klassische Büroarbeit schneller zu erledigen. Gemini kann künftig Informationen aus Dateien, E-Mails und dem Web kombinieren und daraus direkt nutzbare Inhalte erstellen. Wer etwa eine Präsentation vorbereitet, eine Tabelle auswertet oder einen Bericht schreibt, muss Informationen nicht mehr selbst aus verschiedenen Dokumenten zusammensuchen. Die KI kann diese Quellen verbinden und daraus Entwürfe, Zusammenfassungen oder Antworten generieren.

Die Updates starten zunächst als Beta für Abonnent:innen von Google AI Ultra und Google AI Pro. Vorgestellt wurden sie im offiziellen Workspace Blog von Google. Dort erklärt das Unternehmen auch, dass Gemini künftig stärker als Arbeitsassistenz innerhalb der Tools fungieren soll. Auch Googles CEO Sundar Pichai griff die Neuerungen in einem LinkedIn Post auf und betonte, dass Gemini Nutzer:innen helfen soll, Aufgaben schneller zu erledigen.

Docs, Sheets, Slides und Drive bekommen neue KI-Funktionen

Aller Anfang ist schwer!? Mit KI nicht mehr unbedingt. Google bricht mit Gemini das Prinzip der leeren Seite auf. Nutzer:innen können direkt mit einem Entwurf starten. Statt bei null zu beginnen, beschreiben sie der KI kurz, was sie brauchen. Gemini erstellt daraus automatisch ein erstes Dokument, eine Tabelle oder eine Präsentation. In Google Docs lässt sich so aus einer kurzen Beschreibung sofort ein erster Textentwurf generieren. Dabei greift die KI auf Inhalte aus vorhandenen Dateien oder E-Mails zurück. Im Video zeigt Google, wie aus bestehenden Dokumenten automatisch ein neuer Text entsteht. Eine Funktion namens Match Writing Style sorgt außerdem dafür, dass Texte einen einheitlichen Stil behalten, selbst wenn mehrere Personen daran arbeiten.

Auch Google Sheets erhält mehr Automatisierung. Nutzer:innen können beschreiben, welche Tabelle sie brauchen, und Gemini erstellt daraus komplette Tabellenstrukturen. Die KI kann außerdem komplexe Aufgaben lösen und fehlende Daten ergänzen. Google liefert in einem Demovideo ein Beispiel dafür, wie Gemini automatisch einen Finance Tracker erstellt und Daten strukturiert. Laut Google soll das Befüllen von Tabellen dadurch bis zu neunmal schneller möglich sein. In Benchmarks führt Gemini in Sheets aktuell sogar das Ranking SheetsBench an.

In Google Slides generiert Gemini Layouts, Diagramme und Präsentationsfolien aus einem einfachen Prompt. Nutzer:innen benötigen dafür keine Designkenntnisse. Im Video präsentiert Google, wie aus einer kurzen Beschreibung automatisch neue Slides entstehen. Präsentationen lassen sich so schneller erstellen oder an bestehende Designs anpassen.

Google Drive wird ebenfalls stärker KI-gestützt. Neue KI-Übersichten erscheinen direkt über den Suchergebnissen und liefern zusammengefasste Antworten mit Quellen aus den eigenen Dateien. Nutzer:innen müssen Dokumente dadurch nicht mehr einzeln öffnen, um relevante Informationen zu finden. Im Video zeigt Google, wie Gemini Inhalte aus mehreren Dateien analysiert und direkt als Übersicht ausgibt.

Gemini Embedding 2 erweitert Googles KI-Infrastruktur

Parallel stellt Google auch eine neue technische Grundlage für KI-Anwendungen vor. Mit Gemini Embedding 2 erscheint laut Google AI Studio das erste nativ multimodale Embedding-Modell der Gemini-Familie.

Embedding-Modelle übersetzen Inhalte wie Texte, Bilder oder Audio in mathematische Vektoren, damit KI-Systeme Informationen vergleichen und durchsuchen können. Gemini Embedding 2 kann Text, Bilder, Videos, Audio und Dokumente gemeinsam analysieren und in einem gemeinsamen semantischen Raum abbilden.

Das Modell unterstützt laut Google über 100 Sprachen und verarbeitet mehrere Medientypen gleichzeitig. Texte können bis zu 8.192 Token lang sein, Videos bis zu 120 Sekunden dauern und auch PDFs lassen sich direkt einbetten. Dadurch können Anwendungen mehrere Datenformate zusammen analysieren, zum Beispiel Text gemeinsam mit Bildern oder Audio.

Google sieht darin eine wichtige Grundlage für Anwendungen wie semantische Suche, Retrieval-Augmented-Generation, Datenanalyse oder multimodale Klassifizierung. Entwickler:innen können Gemini Embedding 2 bereits über die Gemini API und Vertex AI in einer Public Preview testen.


Nano Banana 2 ist da:
Googles schnellstes KI-Bildmodell mit Gemini-Weltwissen

Nano Banana 2-Schriftzug, einzelne KI-generierte Bilder
© Google via Canva





Source link

Weiterlesen

Beliebt