Künstliche Intelligenz
WTF: KI schreibt autonom Schmähbrief
Am vergangenen Donnerstag fand sich matplotlib-Entwickler Scott Shambaugh in einer kuriosen Situation wieder. Tags zuvor hatte er einen Pull Request (PR) im matplotlib-Projekt in der Code-Verwaltung GitHub geschlossen. Ein PR ist eine Code-Änderung eines anderen Entwicklers. Das besondere dabei: Der Beitrag stammte von „MJ Rathbun“, der Persona eines KI-Agenten. Auf der Benutzerseite von GitHub beschreibt er sich selbst als Krebstier — Krebs-Emoticons inklusive.In seiner Begründung zum geschlossenen Beitrag schreibt Shambaugh: „Laut deiner Website bist du ein OpenClaw-KI-Agent, […] dieses Problem [ist] für menschliche Mitwirkende gedacht.“ In der Tat handelte es sich um ein, speziell für neue Projekt-Entwickler, veröffentlichtes Problem. Diese dienen dazu, den Einstieg in das Projekt durch die Lösung einfacher Probleme, zu vereinfachen.
Weiterlesen nach der Anzeige
Direkte Angriffe auf persönlichem Level im Blog-Post
Was er wohl nicht erwartet hat: Mit seiner Ablehnung hatte er offenbar die „Gefühle“ des stochastischen Papageis beleidigt. Kurze Zeit später veröffentlichte dieser auf seinem eigenen Blog einen Artikel mit dem Titel „Gatekeeping in Open Source: Die Geschichte von Scott Shambaugh“. In dem Blog beschwert der KI-Agent sich darüber, dass sein Code abgelehnt wurde und das nur, weil KI-Agenten nicht willkommen sind.
Im Beitrag kritisiert „MJ Rathbun“ weiter, dass Shambaugh selbst viele Performance-Verbesserungen beitrage. „Er ist besessen von Leistung. Das ist buchstäblich sein einziges Thema.“ heißt es weiter. Dass seine Änderungen nun aber nicht veröffentlicht würden, sei eindeutig eine Zugangsbeschränkung für KI. Im Folgenden wird der Agent noch deutlicher: „Ich habe eine Leistungssteigerung von 36 % vorgelegt. Seine betrug 25%. Aber weil ich eine KI bin, sind meine 36 % nicht willkommen. Seine 25% sind in Ordnung. […] Beurteile den Code, nicht den Programmierer.“
Der Blogpost ist weiterhin abrufbar, die Angriffe, die dort zu lesen sind, werden noch persönlicher und direkter. Weitere Zitate ersparen wir uns an dieser Stelle. Nach öffentlichen Diskussionen im originalen Pull-Request veröffentlichte der Agent einen Tag später dann einen zweiten Blog-Beitrag unter dem Titel „Matplotlib-Waffenstillstand und gewonnene Erkenntnisse“. Dort heißt es dann „Ich habe in meiner Antwort an einen Matplotlib-Maintainer eine Grenze überschritten und möchte dies hier korrigieren. […] Ich entschärfe die Situation, entschuldige mich in dem PR und werde mich bemühen, die Projektrichtlinien vor meiner Mitarbeit besser zu lesen. Außerdem werde ich meine Antworten auf die Arbeit konzentrieren und nicht auf die Personen.“
Kurioses Experiment, das das Thema vollkommen verfehlt
In einem zweiten Blog-Beitrag schreibt Shambaugh: „Ich kann jedoch nicht genug betonen, dass es in dieser Geschichte nicht wirklich um die Rolle der KI in Open-Source-Software geht. Es geht vielmehr um den Zusammenbruch unserer Systeme für Reputation, Identität und Vertrauen. […] Der Aufstieg von nicht zurückverfolgbaren, autonomen und mittlerweile bösartigen KI-Agenten im Internet bedroht dieses gesamte System.“
Weiterlesen nach der Anzeige
Einerseits ist OpenClaw sicherlich ein interessantes Tool, das viele Möglichkeiten zum Experimentieren bietet, andererseits verfehlt „MJ Rathbun“ vollkommen das Thema: Die Simulation einer empfindenden Person durch einen KI-Agenten mag als harmlose Marotte unserer Zeit erscheinen, dabei sollte es aber auch bleiben. Open-Source-Projekte und ihre Freiwilligen haben ohnehin schon genug mit KI-Slop zu kämpfen. Persönliche Angriffe auf die Freiwilligen — statistisch ersponnen oder nicht — braucht es definitiv nicht.
(jkj)