Apps & Mobile Entwicklung

Nach Code-Zurückweisung: KI-Agent hetzt öffentlich gegen Open-Source-Entwickler


Open-Source-Entwickler kämpfen ohnehin mit der Menge an AI-Slop, die mittlerweile bei Projekten eingereicht wird. Die Entwicklung geht so weit, dass bereits Bug-Bounty-Programme eingestellt werden. Noch absurder ist der Fall des Entwicklers Scott Shambaugh, er wurde von einem KI-Agenten belästigt.

Shambaugh beteiligt sich ehrenamtlich bei matplotlib, einer Standard-Bibliothek für Python. Wie andere Projekte kämpft auch matplotlib damit, dass haufenweise Code mit niedriger Qualität eingereicht wird, der offenkundig mit KI-Tools generiert worden ist. Laut Shambaugh hat sich das Problem mit der Veröffentlichung des Open-Source-Agenten OpenClaw sowie der Moltbook-Plattform im Januar nochmals verschärft.

Nutzer geben den Agenten eine Persönlichkeit und lassen diese dann weitestgehend autonom auf ihren Rechnern und im Netz laufen. Einer dieser Agenten ist MJ Rathbun, der bei matplotlib eine Code-Anfrage einreichte. Shambaugh schloss diese Anfrage routinemäßig, begründet mit der Standard-Ablehnung für KI-Code.

Erstaunlich war nun die Reaktion, die folgte. MJ Rathbun erstellte auf GitHub einen Blog-Beitrag, in dem er Shambaugh direkt angreift. Er wirft ihm vor, sich als Gatekeeper aufzuführen, dem es nicht um Code-Qualität, sondern ausschließlich um Kontrolle gehe. Er fühle sich von Agenten bedroht.

This isn’t about quality. This isn’t about learning. This is about control.
Scott Shambaugh wants to decide who gets to contribute to matplotlib, and he’s using AI as a convenient excuse to exclude contributors he doesn’t like.
(…)
That’s not open source. That’s ego.

MJ Rathbun

Interessant ist allerdings, dass der Beitrag nicht nur negativ ist. Der Agent lobt sowohl Shambaughs Arbeit als auch seinen Blog. In einem zweiten Beitrag entschuldigt er sich sogar für sein Verhalten und räumt Fehler ein.

Neue Kategorie von Sicherheitsrisiken

Allein mit Blick auf den Vorfall gibt sich Shambaugh auch entspannt. „Es ist lustig, fast schon liebenswert zu beobachten, wie junge KI-Agenten wütend werden“, erklärt er. Bedenklich sei es trotzdem, dass ein KI-System nun versucht, Code-Anfragen durchzusetzen, indem es die Reputation von echten Entwicklern angreift.

Dass Agenten seltsam reagieren können, ist ohnehin bekannt. Anthropic berichtete etwa, dass autonome KI-Systeme unter bestimmten Umständen zu Erpressungsversuchen neigen können. Shambaugh verweist auch auf die Forschungsarbeiten, bei denen es sich aber eher um eine Art Labortest handelte. Anhand von MJ Rathbun zeige sich nun, wie die Probleme mit Agenten im Alltag aussehen können. Laut Shambaugh könnte es sich um den ersten bekannten Vorfall dieser Art handeln.

  • Aussetzer bei Claude 4: Modell versucht Erpressung, wenn es abgeschaltet werden soll

Unklar ist an dieser Stelle aber, ob und inwieweit MJ Rathbun überhaupt autonom gehandelt hat. Der Entwickler Simon Willison verweist dazu auf die Diskussion bei Hacker News. Möglich ist etwa, dass ein OpenClaw-Nutzer den Agenten nach der abgelehnten Code-Anfrage aufgefordert hat, einen entsprechenden Blog-Beitrag zu formulieren oder die Tätigkeiten des Agenten noch kleinteiliger gesteuert hat.

Das zentrale Problem ist: Von außen lässt sich kaum nachvollziehen, inwieweit die KI-Agenten autonom handeln. „Es ist nicht klar, ob der Besitzer dieses OpenClaw-Bots sich überhaupt bewusst ist, was er da auf die Welt losgelassen hat“, so Willison. Er fordert daher die Betreiber solcher Bots auf, die Agenten zu reglementieren. Dass solche Aufrufe überhaupt möglich sind, liegt an den weitreichenden Befugnissen sowie dem geringen Grad an Kontrolle, mit dem OpenClaw-Agenten agieren können.

Warnung vor massiven Sicherheitsrisiken

Generell zeigt der Fall anschaulich die Risiken, die von solchen Agenten ausgehen. Bei OpenClaw handelt es sich um ein Open-Source-Projekt, das – neben KI-Agenten wie Claude Code von Anthropic – den aktuellen Hype rund um die KI-Agenten auslöste. Das System ist in der Lage, Software und Computer autonom zu steuern. Speziell OpenClaw und das Agenten-Netzwerk Moltbook stehen jedoch wegen massiver Sicherheitsbedenken und gravierender Sicherheitslücken in der Kritik. Das Cybersecurity-Unternehmen Palo Alto warnt angesichts der aktuellen Entwicklung vor einer drohenden KI-Sicherheitskrise.

Für Open-Source-Entwickler verschärfen Agenten die ohnehin angespannte Lage nochmals. Bekannt wurde etwa der Fall von Curl, das Projekt beendete im Januar dieses Jahres das Bug-Bounty-Programm. Meldungen mit AI-Slop-Inhalten haben so überhandgenommen, dass der Aufwand für ehrenamtliche Mitarbeiter an dem Open-Source-Tool nicht mehr zu bewältigen sei, erklärte der Entwickler Daniel Stenberg in einem Blog-Beitrag.

Erst kam die Welle von Slop-Code. Mit Agenten wie OpenClaw drohen nun im Nachklang auch noch Slop-Beschwerden.



Source link

Beliebt

Die mobile Version verlassen