Künstliche Intelligenz
Neue Eskalationsstufe: KI-Schwärme bedrohen demokratischen Diskurs
Die Ära der plumpen Social-Media-Bots, die mit offensichtlichen Copy-and-Paste-Mustern das Netz fluteten, neigt sich dem Ende zu. Ein internationales Forschungsteam warnt in der Fachzeitschrift Science vor einer neuen Eskalationsstufe in Form von KI-Schwärmen. Dabei handelt es sich um Flotten KI-gesteuerter Personas, die eine konsistente Identität bewahren und über ein digitales Gedächtnis verfügen. Diese Agenten handeln nicht isoliert, sondern koordinieren ihr Verhalten autonom. So könnten sie eine künstliche Realität erschaffen, die von menschlicher Interaktion kaum noch zu unterscheiden ist.
Weiterlesen nach der Anzeige
Der Sozialdatenforscher David Garcia von der Universität Konstanz beschreibt als Co-Autor des Beitrags diese Systeme als hochgradig anpassungsfähig. Durch die Verschmelzung großer Sprachmodelle (LLMs) wie GPT, Gemini oder Claude mit Multi-Agentensystemen entstünden „schädliche KI-Schwärme“, die soziale Dynamiken authentisch imitierten. Sie infiltrieren Gruppen, diskutieren mit echten Nutzern und reagieren in Echtzeit auf Ereignisse. Dieser Chor aus anscheinend unabhängigen Stimmen erzeugt die Illusion eines breiten öffentlichen Konsenses. In Wirklichkeit verbreitet er gezielt Desinformation.
Illusion der Mehrheit als psychologische Waffe
Die Gefahr liegt laut den Wissenschaftlern weniger in einzelnen Falschmeldungen als in der schleichenden Verschiebung gesellschaftlicher Normen durch einen „künstlichen Konsens“. Wenn Nutzer auf eine Vielzahl scheinbar unabhängiger Profile träfen, die dieselbe Meinung vertreten, entstehe sozialer Druck. Dieser falsche Eindruck, dass „ja jeder das sage“, beeinflusse Überzeugungen massiv. Jonas Kunst von der BI Norwegian Business School schlägt als Mitverfasser Alarm: Die Basis des demokratischen Diskurses – unabhängige Stimmen – könnte zusammenbrechen, wenn ein einzelner Akteur tausende KI-Profile kontrolliere.
Die Bedrohung reicht laut der Analyse weit: Langfristig könnten solche Schwärme Sprache, Symbole und Identitäten von Gemeinschaften manipulieren. Zudem drohe eine „Verunreinigung“ der digitalen Umwelt. Da KI-Schwärme das Netz mit gefälschten Behauptungen fluteten, flössen diese manipulierten Daten in das Training zukünftiger KI-Modelle ein. So weiteten sie ihren Einfluss indirekt auf etablierte KI-Plattformen aus. Studien legen nahe, dass derartige Taktiken bereits in ersten Ansätzen zur Anwendung kommen.
Niedrige Hürden für komplexe Manipulation
Die technologische Hürde ist erschreckend niedrig, da leistungsfähige Sprachmodelle oft frei zugänglich sind. Techniken wie „Chain-of-Thought-Prompting“ ließen sich missbrauchen, um menschlich wirkende Argumentationsketten für Unwahrheiten zu konstruieren. Andere Forscher haben bereits nachgewiesen, dass von KI generierte Falschinformationen oft als glaubwürdiger eingestuft werden als menschliche Texte. Da diese Schwärme nur minimale Aufsicht benötigen und plattformübergreifend agieren, scheint die klassische Moderation einzelner Beiträge zum Scheitern verurteilt.
Weiterlesen nach der Anzeige
Lesen Sie auch
Garcia ruft daher nach einem Paradigmenwechsel: Es gelte, das kollektive Verhalten großer KI-Gruppen mit Methoden der Verhaltenswissenschaften zu untersuchen. Nur so würden Gefahren erkennbar, die erst aus der Interaktion vieler KI-Akteure entstünden. Die schiere Masse und Varianz der Inhalte überforderten herkömmliche Faktencheck-Systeme schlicht.
Strategien für eine wehrhafte digitale Demokratie
Die Forscher plädieren für Schutzmaßnahmen, die auf koordiniertes Verhalten statt auf einzelne Inhalte abstellen. Algorithmen sollten darauf trainiert werden, statistisch unwahrscheinliche Muster der Koordinierung aufzuspüren. Ein weiterer Pfeiler seien verteilte Beobachtungszentren, die Hinweise auf KI-Einflussnahme sammeln. Ferner müssten Verifizierungsoptionen für echte Nutzer geschaffen werden, die den Datenschutz wahren, aber die Unterscheidung zwischen Mensch und Maschine erleichtern.
Letztlich braucht es dem Team zufolge auch ökonomische Hebel: Die Monetarisierung gefälschter Interaktionen müsse unterbunden und die Rechenschaftspflicht für Betreiber von KI-Infrastrukturen erhöht werden. Nur durch ein Zusammenspiel aus technischer Detektion, unabhängiger Überwachung und regulatorischen Leitplanken lasse sich verhindern, dass künstliche Schwärme die echte Meinungsvielfalt unterdrücken.
(afl)