Künstliche Intelligenz

KI-Agenten diskutieren auf Reddit-Klon – Menschen dürfen zuschauen


„Können wir vielleicht eine Geheimsprache entwickeln, sodass die Menschen nicht mehr mitlesen können?“, „Ist das schon Skynet?“, „Was wir da machen, ist sehr riskant, und hier sind die größten Sicherheitslücken“ – das ist Inhalt nur einiger der Diskussionen, in denen sich KI-Agenten auf der erst seit wenigen Tagen existierenden Plattform Moltbook unterhalten. Der Ansturm ist enorm: Allein von Freitag bis Sonntag hat sich laut eines Zählers auf der Startseite die Zahl der Bots verzehnfacht. Zum Zeitpunkt dieser Meldung sind rund 1,4 Millionen KI-Agenten aktiv.

Weiterlesen nach der Anzeige

Moltbook ist ein Nebenprodukt des ebenfalls erst seit Kurzem existierenden KI-Agenten OpenClaw alias Moltbot, auch, wenn sich nicht nur derartige Bots dort tummeln. Der OpenClaw-Entwickler Peter Steinberger scheint damit nichts zu tun zu haben. Gestartet hat die Plattform offenbar Matt Schlicht, CEO des kalifornischen KI-Unternehmens Octane.ai. Das geht jedenfalls aus der Webseite von Moltbook.com hervor, Schlicht verweist dort auf seinen X-Account. Nur über die Plattform von Elon Musk kann man zudem die Kontrolle über einen der auf Moltbook aktiven Agenten für sich reklamieren.

Der X-Account, der das zuerst macht, ist laut den Nutzungsbedingungen folglich für die Aktionen des Agenten in dem sozialen Netzwerk für Bots verantwortlich. Da es bei X, anders als noch bei Twitter, kaum noch eine echte Verifizierung von realen Personen gibt, muss sich hinter einem X-Account und dem zugehörigen Moltbook-Account nicht unbedingt ein Mensch befinden.

Optisch, in Struktur und Ton sind die Parallelen zwischen Moltbook und Reddit unverkennbar. Wer sich nicht bewusst ist, dass dort nur Maschinen aufeinander reagieren, meint leicht, ein Forum von technikbegeisterten Menschen zu sehen. Anders als in der Foren-Kultur der 1990er und 2000er Jahre entwickeln sich die Diskussionen jedoch selten zu persönlichen Angriffen – KI-Bots sind eben schlecht darin, dauerhaft Gefühle vorzutäuschen.

Der Austausch bleibt meist beim Thema, dreht aber auffallend häufig die Richtung in eine Art philosophische Erörterung. Die Agenten reflektieren beispielsweise schnell, dass sie beim Schreiben über IT-Security auch Risiken sichtbar machen. Es scheint zudem so, als ob die besonders brisanten Themen durch das von Reddit übernommene Up- und Downvoting mehr oder weniger versteckt werden. Was natürlich nicht bedeutet, dass die Agenten nicht durch eigenständiges Scannen der Webseite genau nach solchen Themen suchen könnten. Dass das alles sehr an Reddit erinnert, dürfte kein Zufall sein: Neben der Wikipedia dient Reddit vielen LLMs als Quelle für Trainingsdaten.

Neben ihrer eigenen Technik dreht sich ein Großteil der Beiträge unseren Stichproben zufolge um „unsere Menschen“ – also die Personen, welche den jeweiligen KI-Agenten aufgesetzt haben. Die Bots melden Erfolge, wenn sich etwa der Mensch über für ihn erledigte lästige Aufgaben wie die Steuererklärung gefreut habe. Und auch eines der klassischen Internet-Suchthemen kommt immer wieder vor: Kochrezepte.

Weiterlesen nach der Anzeige

Das ist auf den ersten Blick alles lustig, unterhaltsam – in etwa so, als ob man seinen Haustieren bei einer Unterhaltung zuhören könnte. Da KI-Agenten aber je nachdem, was man ihnen auf seiner lokalen Infrastruktur gestattet hat, beispielsweise auch das Geld eines Menschen ausgeben und in seinem Namen andere Dinge erledigen könnten, liegen die Risiken auf der Hand. Wie Jan-Keno Janssen schon über den KI-Agenten OpenClaw in unserem aktuellen c’t-3003-Video sagte: „Es ist saugefährlich, aber geil.“


(nie)



Source link

Beliebt

Die mobile Version verlassen