Online Marketing & SEO
KI enttarnt anonyme Accounts: Diese Spuren verraten dich
Anonym im Netz? Eine aktuelle Studie zeigt, dass große Sprachmodelle (LLMs) Accounts unter Pseudonym immer häufiger den dahinterstehenden Personen zuordnen können. Schon Schreibstil, Interessen oder kleine Details können Profile enttarnen – mit Risiken für Privatsphäre und Whistleblower.
Ein Reddit-Alt, ein anonymer LinkedIn-Kommentar oder ein pseudonymer Thread auf Hacker News galten lange als vergleichsweise sichere Wege, unerkannt im Netz zu agieren. Doch die Studie Large-scale online deanonymization with LLM agents, an der unter anderem Forschende der ETH Zürich und der University of Washington beteiligt waren, zeigt, wie leistungsfähig große Sprachmodelle inzwischen bei der Zuordnung pseudonymer Accounts werden.
Wer also noch glaubt, dank eines Nicknames wirklich anonym zu bleiben, könnte sich täuschen. Denn was Menschen beim Lesen oft übersehen, kann KI inzwischen systematisch erkennen: Muster in Sprache, Interessen oder biografischen Details lassen sich automatisiert analysieren und über Plattformen hinweg miteinander verknüpfen. Über die Analyse berichten unter anderem The Verge und The Guardian. In der Studie untersuchten die Forschenden, wie LLM-Agents öffentlich verfügbare Informationen auswerten und Profile plattformübergreifend miteinander abgleichen können. Die Forschung wurde von der ETH Zürich geleitet, wo auch die zentralen Experimente durchgeführt wurden. Der KI-Sicherheitsforscher Nicholas Carlini von Anthropic unterstützte das Team zusätzlich als wissenschaftlicher Berater.
OpenAI erreicht neues User- und Abo-Hoch:
Stoppt CancelChatGPT den Höhenflug?

Dein Schreibstil ist dein digitaler Fingerabdruck
Die Untersuchung zeigt, dass zur Identifizierung weder Hacks noch Datenlecks nötig sind. Oft reichen bereits Informationen, die Nutzer:innen selbst veröffentlichen. Die in der Studie eingesetzten LLMs analysieren Texte aus anonymen Accounts und suchen im Netz nach wiederkehrenden Mustern. Dabei erkennen sie typische Signale, die Rückschlüsse auf eine Person zulassen können, etwa:
- Schreibstil
- Wortwahl und Satzstruktur
- Interessen und Fachbegriffe
- biografische Hinweise aus Posts
Diese Informationen werden anschließend mit Profilen auf anderen Plattformen abgeglichen. Ziel ist es, mögliche Identitäten hinter pseudonymen Accounts zu identifizieren. Die Ergebnisse sind bemerkenswert. In Tests konnte das System Accounts mit einer Trefferquote von 68 Prozent bei 90 Prozent Präzision den dahinterstehenden Personen zuordnen. Grundlage waren Datensätze aus Plattformen wie Reddit, Hacker News und LinkedIn sowie Interview-Transkripte.
Ein Beispiel aus der Studie zeigt, wie die Methode funktioniert. Ein anonymes Konto berichtet etwa über schulische Schwierigkeiten und erwähnt Spaziergänge mit seinem Hund Biscuit im Dolores Park. Die KI durchsucht anschließend andere Plattformen nach Profilen mit ähnlichen Details und konnte so den anonymen Account @anon_user42 zuordnen. Voraussetzung dafür ist jedoch, dass irgendwo im Netz öffentliche Informationen existieren, etwa ein Profil mit Klarnamen, persönliche Posts oder andere Hinweise, die eine Verbindung ermöglichen. Erst durch solche übereinstimmenden Details kann die KI mehrere Profile derselben Person miteinander verknüpfen. Je mehr Inhalte ein anonymer Account veröffentlicht, desto leichter lässt er sich enttarnen.

Wer heute im Netz anonym bleiben möchte, müsste seine Accounts deshalb deutlich stärker voneinander trennen. Mögliche Gegenmaßnahmen wären etwa:
- bewusst unterschiedliche Schreibstile verwenden
- unterschiedliche Accounts konsequent voneinander trennen
- keine biografischen Details teilen
- wiederkehrende Interessen oder Themen nicht plattformübergreifend posten
- keine spezifischen Ortsangaben oder persönlichen Routinen erwähnen
- unterschiedliche Nutzungszeiten oder Aktivitätsmuster verwenden
- keine identischen Emojis, Formulierungen oder Redewendungen nutzen
Große Sprachmodelle können solche Analysen erstmals kostengünstig skalieren. Was früher Stunden oder sogar Tage manueller Recherche erforderte, lässt sich heute automatisiert durchführen. Gleichzeitig bleiben die Kosten niedrig. Laut der Studie kann eine Analyse lediglich ein bis vier US-Dollar pro Profil kosten. Die KI-Forscher Simon Lermen und Daniel Paleka erklärten, dass LLMs damit „eine grundlegende Neubewertung dessen erzwingen könnten, was im Internet noch als privat gilt“.
Die Risiken der KI-Deanonymisierung: Betrug, Fehlzuordnungen und Druck auf Whistleblower
Die KI-gestützte Überwachung entwickelt sich zu einem schnell wachsenden Forschungsfeld, das bei Informatiker:innen und Datenschutzexpert:innen zunehmend Besorgnis auslöst. Große Sprachmodelle können enorme Mengen öffentlich zugänglicher Informationen über Personen sammeln und miteinander verknüpfen. Für Menschen wäre eine solche Analyse kaum zu bewältigen, für KI lässt sie sich dagegen automatisieren und in großem Maßstab durchführen. Noch handelt es sich allerdings nicht um ein perfektes Überwachungssystem. Die Experimente wurden mit kuratierten Datensätzen durchgeführt, das zugrunde liegende Paper ist bislang nicht peer-reviewed und die Methode wurde nicht mit realen anonymen Accounts im offenen Internet getestet.
Potenzielle Vorteile solcher Technologien liegen vor allem im Bereich der Analyse und Moderation digitaler Kommunikation. KI-Systeme könnten etwa helfen, koordinierte Desinformationskampagnen aufzudecken, Bot-Netzwerke zu identifizieren oder orchestrierte Einflussversuche schneller zu erkennen. Gerade für Plattformen, die mit Manipulation, Fake Accounts oder organisierten Kampagnen kämpfen, könnte eine solche Analyse ein nützliches Werkzeug sein.
Der KI-Forscher Simon Lermen weist jedoch darauf hin, dass öffentlich zugängliche Informationen über Bürger:innen bereits heute „direkt für Betrug missbraucht werden“ könnten. Ein Beispiel ist Spear Phishing. Dabei sammeln Angreifer:innen gezielt Informationen über eine Person – etwa aus Social-Media-Profilen, Kommentaren oder Forenbeiträgen – und nutzen diese, um besonders glaubwürdige Betrugsnachrichten zu erstellen. Die Nachricht wirkt dann so, als käme sie von einer vertrauten Person oder einem bekannten Unternehmen und enthält häufig einen Link oder eine Bitte um persönliche Daten. Durch KI wird dieser Betrugsprozess deutlich einfacher. Große Sprachmodelle können Informationen über eine Person automatisch zusammentragen und daraus personalisierte Nachrichten formulieren.
Ein weiteres Risiko sind mögliche Fehlzuordnungen. Der Informatikprofessor Peter Bentley vom University College London warnt, dass KI-Systeme Accounts auch falsch miteinander verknüpfen könnten. Im schlimmsten Fall könnten Menschen dadurch für Aussagen verantwortlich gemacht werden, die sie nie getätigt haben.
Besonders kritisch ist die Entwicklung zudem für Menschen, die bewusst unter Pseudonym kommunizieren. Dazu zählen etwa Aktivist:innen, Journalist:innen oder Mitarbeitende, die Missstände anonym öffentlich machen wollen. Wenn sich solche Accounts durch KI leichter einer realen Person zuordnen lassen, könnten Betroffene schneller identifiziert und unter Druck gesetzt werden, etwa durch Belästigung im Netz, berufliche Konsequenzen oder rechtliche Schritte.
Wie sieht die Zukunft der Online-Anonymität im KI-Zeitalter aus?
Online-Anonymität verschwindet durch solche Technologien nicht sofort. Sie wird jedoch deutlich fragiler. Wer über verschiedene Plattformen hinweg ähnliche Interessen, Geschichten oder Schreibweisen teilt, hinterlässt einen digitalen Fingerabdruck. Genau diese digitalen Spuren können große Sprachmodelle heute schneller erkennen, analysieren und miteinander verknüpfen als Menschen.
Das hat zwei Seiten. Einerseits könnten solche Systeme Plattformen dabei helfen, Manipulation im Netz besser zu erkennen. Probleme wie Hate Speech, Bot-Netzwerke oder koordinierte Desinformation beschäftigen Social-Media-Dienste seit Jahren. Besonders schwer zu kontrollieren sind sogenannte Sockpuppet Accounts, also mehrere Profile, die von einer Person gesteuert werden, um Diskussionen gezielt zu beeinflussen oder künstlich Reichweite zu erzeugen. Wenn Systeme Schreibmuster, Inhalte und biografische Hinweise analysieren, lassen sich möglicherweise orchestrierte Debatten, Astroturfing-Kampagnen oder koordinierte Einflussversuche schneller identifizieren. Gerade für Community-Plattformen und Diskussionsnetzwerke wie Reddit, X, Threads oder Discord wäre das relevant.
Gleichzeitig zeigt die Forschung, wie leicht sich digitale Spuren im Netz zusammenführen lassen – und wie schnell sie für Betrug missbraucht oder für Datenschutzangriffe eingesetzt werden könnten. Mit immer leistungsfähigeren KI-Systemen wird Online-Anonymität zunehmend brüchiger. In Zukunft dürfte sie weniger eine Frage des Nicknames sein, sondern vielmehr davon abhängen, wie konsequent digitale Spuren getrennt werden.
Online Marketing & SEO
Formel-1-Partnerschaft: Indeed wird Recruitment Partner von Oracle Red Bull Racing
Ab dem zweiten Formel-1-Rennen 2026 ist Indeed Recruiting-Partner von Oracle Red Bull
Fachkräftemangel auch in der Formel 1? Zumindest ist die Rennserie an Nachwuchs interessiert. Ein Grund, warum die Jobplattform Indeed und Oracle Red Bull Racing ab sofort eine mehrjährige Partnerschaft eingehen, die auch das F1 Academy Team des Unternehmens einschließt.
Mit dem Start des zweiten Rennens der diesjährigen Formel-1-Weltmeisterschaft, das am kommenden Wochenende in Shanghai stattfindet, wird Indeed zum offiziellen Recruitment Partner des Rennstalls. Mit gutem Grund: Laut Unternehmensdaten des Jobprofis hat das berufliche Interesse an der Motorsportbranche n den vergangenen Jahren deutlich zugenommen: Zwischen 2021 und 2026 stieg die Zahl der US Stellenanzeigen, die „Racing“ oder „Motorsport“ enthalten, um rund 88 Prozent. Die Kooperation soll dieses Interesse nutzen und die Arbeitgebermarke von Indeed im internationalen Motorsportumfeld weiter stärken.
Neben dem Sponsoring übernimmt Indeed auch die Rolle des Presenting Partners des Talent-Academy-Programms von Oracle Red Bull Racing. Dieses Programm bietet Einblicke in die Arbeitswelt der Formel 1 und richtet sich an Menschen, die eine Karriere in der Branche anstreben. Es umfasst Praxisprojekte, Praktika, Ausbildungsprogramme und weitere Maßnahmen zur Personalentwicklung.
Online Marketing & SEO
Markenkommunikation im KI-Zeitalter: Warum Earned Media zum neuen Vertrauensanker wird
Die Mehrheit der Unternehmen in Deutschland sieht in Künstlicher Intelligenz zur Textgenerierung ein enormes Digitalpotenzial
Content wird durch KI billiger, Vertrauen dagegen immer knapper. Wie Earned Media zum entscheidenden Hebel für Sichtbarkeit und Glaubwürdigkeit wird, führt Heiko Geibig, Leitung Corporate Communications Practice bei MSL Germany, in seinem Gastbeitrag aus.
Generative KI senkt die Produktionskosten für Content auf nahezu null und löst eine Flut von Texten, Bildern und Videos aus, deren Qualit
Jetzt Angebot wählen und weiterlesen!
HORIZONT Digital
- Vollzugriff auf HORIZONT Online mit allen Artikeln
- E-Paper der Zeitung und Magazine
- Online-Printarchiv
HORIZONT Digital-Mehrplatzlizenz für Ihr Team
Online Marketing & SEO
WhatsApp Channels: So oft wird dein Content weitergeleitet
Die ersten User können mit dem neuen Feature einen wichtigen Performance-Wert für Channel-Inhalte auf WhatsApp sehen – nicht nur Admins.
Die WhatsApp Channels sind seit ihrem weltweiten Start 2023 zu einem zentralen Kommunikations- und Marketing-Kanal geworden. Über 1,5 Milliarden Personen besuchen laut Meta täglich den Aktuelles-Tab WhatsApps, über den auch die Channels abgerufen werden können. Die Kanäle erinnern dabei an Instagrams Broadcast Channels. Sie bieten als One-to-many-Kommunikationsebene ein passendes Umfeld für Marken und Creator, um Fans und Interessierte über Neuigkeiten, Termine, neue Produkte zu informieren und Einblicke in ihren Alltag zu liefern. Während WhatsApp diesen besonderen Bereich jetzt auch weltweit mit Werbung monetarisiert und gesponserte Channels anzeigt, möchte die Plattform den Kanalbetreiber:innen mehr Performance Features an die Hand geben. Eines davon ist die Anzeige zur Zahl der Weiterleitungen, die im großen Stil eingeführt werden soll.
Du siehst bald Ads im WhatsApp Updates Tab:
Globaler Roll-out für Status Ads und Promoted Channels

Alle sollen es sehen können: So oft werden Inhalte im WhatsApp Channel weitergeleitet
Der auf WhatsApp spezialisierte Publisher WABetaInfo berichtet von einem neuen Test mit einer Anzeige zur Weiterleitung von Content im WhatsApp Channel. Dabei gab es bei einer Betaversion der Android App zuvor schon eine entsprechende Option, dank der Channel Admins aus einer Testgruppe die Zahl der Weiterleitungen einzelner Channel Updates einsehen konnten. Jetzt aber soll diese Anzeige für alle im Channel kommen, auch für die Abonnent:innen.
In der App-Version Android 2.26.10.3, die im Play Store verfügbar ist, können erste Betatester:innen direkt in WhatsApp Channels nicht nur die Zahl der Reactions unter einem Update sehen, sondern auch die Zahl der Weiterleitungen. Diese wird neben einem Icon mit einem nach rechts gebogenen Doppelpfeil abgebildet. Parallel zum Engagement wird damit eine relevante Metrik zur Distribution angezeigt, die mehr über die Performance einzelner Updates verrät. Dabei kann die Ansicht für alle im Channel dazu beitragen, dass User auf Inhalte mit einer hohen Anzahl an Weiterleitungen positiv reagieren und diese noch aufmerksamer beachten. Sie erfahren damit also, welche Updates aus dem Channel heraus besonders oft verbreitet werden. So können sie zudem selbst ermitteln, welche Inhalte aktuell für eine große Gruppe relevant sind. Das kann zum Beispiel bei der Trendrecherche oder Konkurrenzanalyse helfen. Für die Channel-Betreiber:innen hingegen ist diese Ansicht eine wichtige Kennzahl, die den Erfolg der Updates widerspiegelt.
Shares als Erfolgsfaktor in sozialen Medien
Weiterleitungen gehören im Raum sozialer Medien längst zum Kern der Erfolgsmessung. LinkedIn hat beispielsweise Saves und Sends als Metriken eingeführt, um Creatorn zu zeigen, wie oft ihre Posts gespeichert und geteilt wurden. Und auf WhatsApps Schwesterplattform Instagram sind Shares schon lange äußerst relevant. Plattformchef Adam Mosseri sprach 2024 sogar davon, dass sie wichtiger als Likes und Kommentare geworden seien. Dabei erklärte er aber ebenso, dass die Send Rate noch einmal mehr Gewicht habe als der Send Count allein. In den Broadcast Channels auf Instagram werden derzeit die Reactions und die Antworten mit Zahlen unter den Updates dokumentiert. In den WhatsApp Channels sollen die Weiterleitungen zum zentralen Faktor werden. Das Icon für die Weiterleitungen ist für alle User schon zu sehen, die Anzeige der Zahl für diese bleibt zunächst den Test-Usern vorbehalten.
Möglicherweise rollt WhatsApp das neue Feature aber schon bald in einem weiteren App Update aus. Auf einen Roll-out hoffen die User ebenfalls in Bezug auf ein nützliches Feature, das sich aktuell im Test befindet: Planbare Nachrichten in der populären Messaging App.
Zur richtigen Zeit senden – ohne Stress:
WhatsApp testet Scheduled Messages

-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 4 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Social Mediavor 1 WocheCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 3 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 1 MonatEindrucksvolle neue Identity für White Ribbon › PAGE online
