Künstliche Intelligenz
KI-Agenten: Popularität steigt rasant – trotz mangelnder Sicherheit
Agentische KI-Systeme sind zusehends in der Lage, komplexe Aufgaben mit minimalen menschlichen Eingriffen zu bewältigen. Zugleich herrscht keine Einigkeit bezüglich Sicherheits- und Verhaltensstandards von KI-Agenten. Zu diesen und weiteren Ergebnissen kommt der AI Agent Index 2025, eine Studie des Computer Science & Artificial Intelligence Laboratory (CSAIL) des Massachusetts Institute of Technology (MIT).
Weiterlesen nach der Anzeige
Für den AI Agent Index untersuchte ein Team von Wissenschaftlern verschiedener Universitäten dreißig KI-Agenten. Grundlage ihrer Forschungsarbeit waren öffentlich zugängliche Informationen oder Korrespondenzen mit Entwicklern. Die Forscher fokussierten sich dabei auf Ursprung, Funktionsumfang, Systemarchitekturen und Sicherheitsmaßnahmen gängiger agentischer KI-Systeme.
Rasante Entwicklungen
Eindeutig ist demnach: Die Popularität agentischer KI-Systeme stieg im vergangenen Jahr massiv an. Das Interesse beschränkt sich laut der Studie nicht nur auf die gesellschaftliche Allgemeinheit. Das zeigt sich etwa in einem Anstieg an entsprechenden Google-Suchen. Aber auch die Anzahl wissenschaftlicher Veröffentlichungen zu agentenbasierter KI ist gestiegen. Sie hat sich im Jahr 2025 gegenüber dem Zeitraum von 2020 bis 2024 mehr als verdoppelt. Das ist allerdings naheliegend, schließlich gab es solche Systeme vor 2023 nicht.
Die Entwicklung von agentischen KI-Systemen vollzieht sich den Wissenschaftlern zufolge zudem rasant. Achtzig Prozent der innerhalb der Studie untersuchten KI-Agenten wurden zwischen 2024 und 2025 veröffentlicht oder erhielten wesentliche Updates ihrer agentischen Fähigkeiten. Gleichzeitig offenbart sich eine wesentliche strukturelle Abhängigkeit von den großen KI-Unternehmen. Denn die Mehrzahl der KI-Agenten greift auf die Modellfamilien GPT, Claude oder Gemini der großen US-KI-Konzerne zurück. Diese liefern sich bekanntlich eine Art Wettrennen um immer neue KI-Modelle – und eben auch solche mit agentischen Fähigkeiten.
Hersteller geben kaum Sicherheitsinformationen preis
Trotz des wachsenden Interesses an KI-Agenten bleiben laut den Wissenschaftlern wichtige Aspekte der Entwicklungen und des Einsatzes von KI-Agenten undurchsichtig. Es mangele an öffentlich zugänglichen Informationen, insbesondere für Forscher oder politische Entscheidungsträger. Die genannten Modelle sind schlussendlich alle proprietär, über Aufbau und Trainingsdaten ist extrem wenig bekannt.
Den Wissenschaftlern zufolge legen nur vier der dreizehn untersuchten KI-Agenten mit hohem Autonomiegrad Sicherheitsbewertungen offen. Fünfundzwanzig aller dreißig agentischen KI-Systeme veröffentlichten gar keine Ergebnisse interner Untersuchungen zur Produktsicherheit.
Weiterlesen nach der Anzeige
Ungeklärte Verhaltensstandards und Verantwortlichkeiten
Auch die Verhaltensstandards für KI-Agenten sind laut AI Agent Index 2025 unzureichend reguliert. Viele der Agenten würden etwa robots.txt-Dateien von Websites schlichtweg ignorieren. Die robots.txt ist eine Textdatei im Hauptverzeichnis einer Website, die Webcrawlern Anweisungen gibt, welche Bereiche automatisiert durchsucht und analysiert werden dürfen und welche nicht. Einige der untersuchten KI-Agenten sind laut der MIT-Wissenschaftler sogar explizit darauf ausgelegt, Anti-Bot-Systeme zu umgehen.
Grundlegend schwierig sei zudem die Frage der Verantwortlichkeit für Fehlverhalten und Sicherheitsprobleme agentischer KI-Systeme. Weil die meisten Agenten auf den KI-Modellen großer Entwickler wie OpenAI, Google oder Anthropic aufbauen würden, sei unklar, wer Verantwortung zu übernehmen habe.
Dabei warnt selbst OpenAI-CEO Sam Altman vor der Nutzung agentischer Systeme. Diese lassen sich besonders leicht, etwa mittels Prompt Injections angreifen. Dabei bekommen Agenten versteckte Anweisungen. Um sinnvoll eingesetzt werden zu können, brauchen Agenten jedoch Zugang zu Informationen und einen gewissen Spielraum – beispielsweise Zugriff auf Mails, Kalender oder Ähnliches.
(rah)