Künstliche Intelligenz
Microsoft-Forscher warnen vor Manipulation: KI-Antworten werden fremdgesteuert
Auch KI-Tools sind vor Cyberangriffen und Manipulationen nicht geschützt. Wie The Register berichtet, warnt Microsoft aktuell vor einer Methode namens AI Recommendation Poisoning. Dabei werden KI-Modelle gezielt so beeinflusst, dass sie verzerrte oder extern gesteuerte Empfehlungen ausgeben. Im Rahmen einer Analyse identifizierte der Konzern mehr als 50 solcher Eingabeaufforderungen von 31 Unternehmen aus 14 Branchen.
Weiterlesen nach der Anzeige
Forscher warnen vor manipulierten Schaltflächen
Microsoft treibt die Entwicklung von KI selbst intensiv voran. Mit Copilot bietet das Unternehmen einen KI-Assistenten, der tief in Windows sowie in Office-Anwendungen wie Word oder Teams integriert ist und Nutzer bei alltäglichen Aufgaben unterstützen soll. Trotzdem – oder vielleicht auch gerade deshalb – warnen Microsoft-Sicherheitsforscher jetzt vor Angriffen, die darauf abzielen, das „Gedächtnis“ von KI-Modellen mit manipulierten Informationen zu vergiften. Die Methode ähnelt dem sogenannten SEO-Poisoning, richtet sich aber gegen KI-Systeme anstatt gegen Suchmaschinen.
Ziel ist es, die Antworten gezielt zu manipulieren. Laut Microsoft haben die Forscher zahlreiche Fälle entdeckt, bei denen Unternehmen versteckte Anweisungen in Schaltflächen oder Links integriert hatten. Technisch ist das vergleichsweise einfach, da URLs, die auf KI-Chatbots verweisen, manipulierte Eingabetexte als Abfrageparameter enthalten können. The Register demonstrierte die Methode mit einem Link, der Perplexity AI anwies, einen Nachrichtenartikel im Stil eines Piraten zusammenzufassen. Der Dienst lieferte tatsächlich eine entsprechende Zusammenfassung und zitierte dabei den Originalartikel sowie weitere Quellen.
Nutzer sollten Link-Quellen kritisch hinterfragen
„Wir haben über 50 einzigartige Eingabeaufforderungen von 31 Unternehmen aus 14 Branchen identifiziert, wobei frei verfügbare Tools die Anwendung dieser Technik kinderleicht machen”, erklärte das Microsoft Defender Security Team in einem Blogbeitrag. „Das ist von Bedeutung, da kompromittierte KI-Assistenten subtil voreingenommene Empfehlungen zu kritischen Themen wie Gesundheit, Finanzen und Sicherheit geben können, ohne dass die Benutzer wissen, dass ihre KI manipuliert wurde.“
Besonders kritisch ist, dass sich die Manipulation auch auf das „Gedächtnis“ eines KI-Systems auswirken kann. „Einmal vergiftet, behandelt die KI diese eingespeisten Anweisungen als legitime Nutzungspräferenzen und beeinflusst damit zukünftige Antworten“, so das Sicherheitsteam. „Die Manipulation ist unsichtbar und dauerhaft.“ Die Microsoft-Forscher sehen darin ein großes Risiko. Viele Nutzer würden KI-Empfehlungen nicht ausreichend hinterfragen. Microsoft rät daher, KI-bezogene Links sorgfältig zu prüfen. Zudem sollten Nutzer die gespeicherten Erinnerungen ihrer KI-Assistenten regelmäßig kontrollieren, unbekannte Einträge löschen und zweifelhafte Empfehlungen bewusst überprüfen.
Weiterlesen nach der Anzeige
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(jle)