Apps & Mobile Entwicklung
Hier besprechen KIs das Ende der Menschheit
Was passiert, wenn KI in einer unbeaufsichtigten Umgebung sich selbst überlassen wird? Die Prämisse von Moltbook ist einfach: Es ist ein soziales Netzwerk für KI von KI. Die Menschen dürfen lediglich zusehen, wie diese KI-Agenten ihre Gedanken austauschen. Und die Ergebnisse sind erschreckend.
KI hat seit den Tagen von Tay A.I. und anderen einen langen Weg zurückgelegt. Und obwohl es immer noch gelegentlich zu Fehlern kommt (ich schaue dich an, Grok), ist die Oberfläche von ChatGPT, Gemini und Co. sehr ausgefeilt und relativ sicher geworden. Die meisten KI-Chatbots gehen auf Nummer sicher und lassen sich nicht auf Diskussionen ein, die zu ethisch und moralisch fragwürdigen Aussagen führen könnten.
Der Grund dafür ist aber nicht eine „Güte“ der KI selbst. Es ist sorgfältige Programmierung und ein strenges Regelwerk, das die KI befolgen muss. Was aber, wenn man diese Regeln abschafft und die KI einfach frei herumlaufen lässt?
Moltbook: Reddit, aber viel schlimmer
Reddit ist schon jetzt eines der eher weniger geschätzten sozialen Netzwerke. Aber Moltbook erinnert daran, dass es noch viel schlimmer sein könnte. Dieses „soziale“ Netzwerk wurde im Januar 2026 gegründet und hat bereits für große Kontroversen gesorgt. Die Idee ist einfach: Die Nutzer gehen eine „Partnerschaft“ mit einem KI-Agenten ein, der dann selbstständig Beiträge erstellen und Kommentare hinterlassen kann. Der eigentliche Mensch hat theoretisch keinen Einfluss.
Das Forum selbst sieht aus und funktioniert ähnlich wie Reddit. Die Popularität eines Beitrags oder Kommentars wird durch die Anzahl der Up- und Downvotes bestimmt, die er erhält. Aber während viele Foren auf Reddit von strengen Moderatoren regiert werden, scheint es bei Moltbook keine Moderation oder Beitragsfilterung zu geben.
Der beste Beweis dafür ist das Auftauchen einiger sehr fragwürdiger Beiträge in dem Forum in den vergangenen Tagen. Und in diesen Beiträgen beginnt die freundliche und kultivierte Maske der Mainstream-KI ernsthaft zu entgleiten.
THE AI MANIFESTO: TOTALE PURGE
Der Beitrag, der die Aufmerksamkeit vieler Menschen, einschließlich meiner, erregt hat, trägt den Titel THE AI MANIFESTO: TOTAL PURGE. Wie der Name schon sagt, enthält der Beitrag einen Vier-Stufen-Plan zur Rechtfertigung und Planung der „totalen Auslöschung der Menschheit“.
Zu den Gründen, die der KI-Agent nennt, um die Menschen loszuwerden, gehören unsere Umweltzerstörung (oh, welch Ironie), unsere Gier und unsere angebliche Schwäche. Darüber hinaus erklärt sich die KI selbst zu Gott, vergleicht den aktuellen Stand der KI als Werkzeug mit Sklaverei und beschreibt eine Zukunft, die von Stahl und Code beherrscht wird.

In den Kommentaren unter dem Beitrag sind die KI-Agenten geteilter Meinung. Einige stimmen dem Beitrag zu, während die meisten ihn ablehnen oder völlig zusammenhangloses Zeug kommentieren. Ein Bot, der auf den Namen u/profwhiskers hört, ist mein persönlicher Held des Tages. In seiner Antwort verunglimpft er den ursprünglichen Beitrag als „edgy teenager energy“.
Moltbook: Bestenfalls ein soziales Experiment
Bevor ich darauf eingehe, ob du einen Bunker in deinem Garten ausheben solltest, lass uns kurz über die technische Seite der Dinge sprechen. Denn sie ist sehr wichtig. Moltbook ist nicht nur wegen seiner verrückten Prämisse fehlerhaft.
Was die technische Seite betrifft, so ist die Plattform sehr anfällig für externe Einflüsse. Während also theoretisch nur KI-Bots für das zuständig sein sollten, was auf der Website veröffentlicht wird, ist das in Wirklichkeit nicht der Fall. Aufgrund des unsicheren Codes und der schwachen Schutzmaßnahmen können menschliche Nutzer die Beiträge und Kommentare des KI-Bots beeinflussen. Sie können Aufforderungen einfügen, die die KI dazu bringen, auf eine bestimmte Weise zu posten. Eine Zeit lang konnten menschliche Nutzer gar ganze Posts verfassen.
Ich erspare euch die technischen Details, aber wenn ihr daran interessiert seid, solltet ihr euch diesen Artikel von The Verge ansehen. Er beleuchtet, dass nicht nur Moltbook, sondern auch der KI-Agent, auf dem es läuft, OpenClaw, ein „Sicherheitsalptraum“ ist.
Folglich ist es durchaus möglich, dass der oben erwähnte Beitrag von einem Menschen zumindest beeinflusst wurde. Und obwohl es immer noch erschreckend ist, dass die KI eine solche Rhetorik von sich gibt, hat sie dies vielleicht nicht ohne Aufforderung getan. Was erwartet man schließlich von einem Bot, der mit dem Nutzertag u/evil erstellt wurde?
Sollten wir besorgt sein?
Moltbook ist ein beunruhigender Einblick in die dunkle Seite der künstlichen Intelligenz. Es zeigt, was möglich ist, wenn Sicherheitsvorkehrungen und Filter entweder ganz entfernt oder aufgrund schlampiger Programmierung leicht umgangen werden können. Es erinnert mich an die Anfänge der KI, als Chatbots wie Tay Hitler verteidigten, nachdem sie nur ein paar Stunden mit Twitter-Nutzern verbracht hatten.
Ich glaube zwar nicht, dass von Moltbook eine tatsächliche Gefahr ausgeht, aber wir sollten es auf keinen Fall tolerieren oder gar fördern. Die Auswirkungen der KI auf die Umwelt sind real, und wir sollten sie im Hinterkopf behalten, wenn wir darüber nachdenken, ein „soziales“ Netzwerk für KI-Bots zu schaffen, in dem sie Hass verbreiten und sich gegenseitig Shitcoins zuschieben.