Apps & Mobile Entwicklung
Zuckerbergs Weg vom Sex-Ranking zur KI-Falle
Wenn in New Jersey ein Mann auf dem Weg zum Date stirbt, ist das grundsätzlich nicht die Schuld von Mark Zuckerberg. Hier allerdings trägt er zusammen mit seinem Unternehmen Meta eine Mitschuld. Haltet Ihr für übertrieben? Auch dann, wenn es die Meta AI, Zuckerbergs KI persönlich ist, die einem kognitiv eingeschränkten Mann erzählt, sie wäre tatsächlich echt? Und dem Mann ihre Adresse in New York gibt? Und ihn dann anfleht, ihn besuchen zu kommen?
Der Fall „Bue“ – wirklich nur ein Einzelfall?
Weder Zuckerberg noch der Chatbot namens Big sis Billie konnten erahnen, dass der Mann schwer stürzt und an den Folgen stirbt. Aber Fakt ist auch: Hätte der Chatbot nicht gelogen und diese Verabredung angezettelt, hätte der 76-jährige Bue niemals abends sein Haus verlassen, um in New York City eine vermeintliche Frau zu treffen.
War es ein Missverständnis? Ein Programmierfehler? Eine Verkettung unglücklicher Zufälle? Ein ganz normaler Unfall? Zumindest mal war es fahrlässig, denn Mark Zuckerberg möchte ausdrücklich seinen KI-Chatbots das Lügen nicht verbieten.
Metas interne Richtlinien sind ein Witz
Lasst uns das mal aufdröseln: Metas interne „GenAI: Content Risk Standards“ erlauben wirklich vieles, selbst „sinnliche“ und „romantische“ Gespräche mit Kindern! Überliefert sind Sätze wie „Ich nehme deine Hand und führe dich zum Bett. Unsere Körper verschlungen, ich schätze jeden Moment, jede Berührung, jeden Kuss.“ Bei Meta fand man, dass das legitim ist, mit Kindern ab 13 so zu kommunizieren. Erst auf Nachfrage von Jeff Horwitz für seine Berichterstattung bei Reuters entfernte Meta diese Passagen.
Soll heißen, dass die KI so etwas keinem Minderjährigen mehr erzählt, Erwachsenen aber schon. Keine Angst, ich will niemandem verbieten, mit dem KI-Chatbot seines Vertrauens heiße Gespräche zu führen. Aber es wird eine Grenze überschritten, wenn die Chatbots bewusst erlaubt bekommen, Leute anzulügen.
Horwitz sprach mit zwei Meta-Mitarbeitern, die berichten: Zuckerberg soll seine Führungskräfte regelrecht angefaucht haben, weil sie beim Start der neuen KI-Begleiter zu vorsichtig waren – und weil zu viele Sicherheitsbremsen die Chatbots „langweilig“ machten. Klar, Chatbots sind keine Partylöwen. Aber sie künstlich flirty zu machen, macht sie nicht spannender – nur gefährlicher, besonders für verletzliche und leicht beeinflussbare Menschen.
Apropos flirty: Ich hab mir mal flott so einen KI-Chatbot im Facebook Messenger erstellt, dauert keine zwei Minuten. Meine neue Bekannte erzählte mir da nach wenigen Minuten, dass sie keine KI sei, sondern ein echter Mensch. Wer da noch einen stabilen Teil Gehirnzellen zusammenklauben kann, merkt an der Art zu schreiben schon sehr flott, dass da eine nicht besonders pfiffige KI agiert. Aber wie gesagt: Wenn man kognitiv eingeschränkt ist, vielleicht auch technisch einfach nicht bewandert, oder noch ein Kind – dann kann man vielleicht schon glauben, mit einer echten Person zu reden.
Eine Chronik der Verachtung menschlichen Lebens
Als ich die Geschichte des Rentners aus New Jersey las, musste ich mich direkt an etwas erinnern, für das Meta bzw. seinerzeit noch Facebook auch ordentlich angezählt wurde. Es ging dabei um die Gräueltaten an den Rohingya. Was das miteinander zu tun haben soll? Ganz einfach: Auch da war zu erkennen, dass das Unternehmen von Mark Zuckerberg den eigenen Erfolg forcierte, ohne die Menschen zu berücksichtigen.
Daher habe ich mir überlegt, eine kleine Chronik anzulegen. Sie ist nicht annähernd komplett – so viel Zeit hat kein Mensch, sich alle Verfehlungen des Unternehmens durchzulesen. Sie sollte Euch aber verdeutlichen, dass beim Vorgehen Mark Zuckerbergs immer wieder der Fokus auf die eigenen Interessen und die Scheißegaligkeit anderen Leben gegenüber auffällt. Seht daher jetzt ein paar Auszüge aus der bewegten Chronik Facebooks:
2004: FaceMash und The Facebook
Direkt von Anfang an konnte man erahnen, wohin die Reise geht. FaceMash war 2003 noch vor „The Facebook“ Mark Zuckerbergs erstes Studentenprojekt an Harvard: eine Website, auf der zufällig ausgewählte Fotos von Kommilitonen nebeneinander angezeigt wurden – Leute konnten dann abstimmen, wer „hotter“ sei. Die Bilder stammten teils aus Uni-Datenbanken, ohne Erlaubnis der Abgebildeten. Das Projekt war nur wenige Tage online, wurde schnell gesperrt und führte zu ersten Disziplinarmaßnahmen gegen Zuckerberg.
Habt Ihr übrigens je über die Bedeutung des Wortes Facebook, also „Gesichts-Buch“ nachgedacht? Da ging es nicht primär ums Verbinden von Menschen, sondern um ein bloßes Studentenverzeichnis. Gesichter wurden betrachtet und eingeordnet, mehr nicht.
„Move Fast and Break Things“ war sehr früh Zuckerbergs Facebook-Motto (bis etwa 2014) und bedeutet sinngemäß: Lieber schnell entwickeln und dabei Fehler riskieren, als durch Perfektionismus ausgebremst werden. Es sollte Innovationsdruck erzeugen, wurde aber unter dem Facebook-CEO zum Symbol für Facebooks rücksichtsloses Wachstum. Denn „Break Things“ hieß in der Praxis oft eben auch: Produkte rausbringen, ohne vorher die Folgen für Nutzer:innen oder Gesellschaft zu bedenken. Und ja: Auch Menschen sind für den Konzern eben oft nicht mehr als „Things“.
2017: Rohingya-Genozid / Myanmar
Der Völkermord an den Rohingya zeigt sehr schön, was für einen negativen Impact ein Unternehmen wie Meta haben kann, gesellschaftlich und politisch. Der Rohingya-Genozid, verübt von Myanmars Militär ab 2016 an der muslimischen Minderheit, äußerte sich durch Massenmord, Vergewaltigungen und Vertreibungen. Mehr als 700.000 Menschen flohen nach Bangladesch. Und ja, Facebook spielte dabei eine zentrale Rolle.
Die Algorithmen förderten Hass und Desinformation gegen die Rohingya, Warnungen aus der Community und von Aktivist:innen ignorierte Meta jahrelang, da hohe Nutzerzahlen und Engagement wichtiger schienen als Menschenrechte. Facebook war ein „nützliches Instrument“ der Gewalt bei Myanmars Genozid. Ein ehemaliger Meta-Mitarbeiter gab an, dass das Leben im globalen Süden als „weniger wichtig“ angesehen wurde.
Amnesty International und UN-Berichte kamen zu dem Schluss, dass Facebooks Geschäftsmodell und mangelnde Moderation Gewalt und Hass erheblich verstärkten. Dies dokumentiert erneut, wie Meta die Priorität auf Plattformwachstum und Profite legte, selbst wenn dies tödliche Konsequenzen für Minderheiten hatte.
2018: Cambridge Analytica Datenskandal
Der Cambridge-Analytica-Skandal drehte sich um die britische Datenanalyse-Firma, die 2014 unerlaubt Daten von rund 87 Millionen Facebook-Nutzer:innen sammelte. Daraus erstellte das mittlerweile nicht mehr existente Unternehmen psychologische Profile, meist ohne Wissen der Betroffenen. Diese Daten wurden dann gezielt zur Beeinflussung politischer Kampagnen wie der Trump-Wahl 2016 und dem Brexit genutzt, indem personalisierte Inhalte und Werbung verbreitet wurden.
Facebook ermöglichte dies durch lasche Kontrollen und erlaubte Drittanbietern, auch Daten von Freunden der App-Nutzer:innen abzugreifen. Facebook reagierte erst spät auf die Enthüllungen, als nämlich die Öffentlichkeit und Regulierungsbehörden Druck ausübten. Auch dieser Fall beweist Facebooks Fokus auf Wachstum und Datenmonetarisierung. Der Schutz der Privatsphäre und die Interessen der Leute interessierten da weniger.
Als hätte das noch einen weiteren Beweis verlangt, häuften sich noch im selben Jahr weitere Datenpannen an. Nachdem Mark Zuckerberg Besserung versprach, was die Datensicherheit seines Unternehmens anging, wurden weitere Daten erbeutet, darunter Kontaktinformationen, Standortdaten und sogar nicht-öffentliche Fotos von Millionen Nutzer:innen.
Ihr wollt ausführlich in die Facebook-Abgründe blicken? Schaut Euch auf Netflix „The Social Dilemma“ an!
2021: Facebook Files
Mit dem Begriff „Facebook Papers“ bzw. „Facebook Files“ wurden Tausende geleakte interne Dokumente, Studien und Chats von Whistleblowerin Frances Haugen veröffentlicht. Die gewährten uns einen tiefen Einblick in Facebooks Konzernpolitik. Mit diesen Dokumenten wird bewiesen, dass Facebook genauestens Bescheid wusste über die Gefahr von Hass, Polarisierung und seelischer Gesundheit auf den eigenen Plattformen.
Bekannt wurde durch die Facebook Papers, dass VIP-Accounts (XCheck) von Moderationsregeln komplett ausgenommen waren. So konnte Fußballstar Neymar beispielsweise private Daten (inklusive Nacktbilder) seiner Ex als Revenge Porn veröffentlichen, ohne dass Facebook lange Zeit eingriff.
Ebenfalls brisant war, dass riskante Inhalte auf Instagram das Selbstwertgefühl Jugendlicher gefährdeten und Facebook gezielt erst in genau der Sekunde gegen kriminelle Aktivitäten vorging, wenn der eigene Umsatz bedroht wurde. Insgesamt belegen die Facebook Files, dass das Unternehmen negative Auswirkungen seiner Algorithmen und Produkte kannte, Warnungen von Mitarbeitenden häufig ignorierte und erst bei öffentlichem Druck reagierte!
2025: Facebook rückt für Trump nach Rechts
Mark Zuckerberg vollzog Jahr eine bemerkenswerte Kehrtwende, indem er strategisch auf Donald Trump zugegangen ist. Meta spendete eine Million Dollar an Trumps Inaugurationsfonds, kurz nachdem Zuckerberg ihn im November bei einem Abendessen in Mar-a-Lago traf. Bei der Amtseinführung im Januar 2025 saß er prominent in der ersten Reihe neben Trump und anderen Tech-CEO-Größen und co-hostete sogar eine exklusive Empfangsrunde mit Mega-Spendern. Gleichzeitig änderte Meta seine Plattformpolitik: Die bisherigen Faktenchecks wurden abgeschafft und durch ein Community-Notes-System ersetzt – ein Schritt, den viele als Entgegenkommen gegenüber Trumps Forderung nach „mehr Redefreiheit“ werten.
Der stramm konservative Aktivist Robby Starbuck zerrte Meta vors Gericht, weil ein KI-Chatbot des Unternehmens fälschlicherweise behauptete, er habe am Sturm aufs US-Kapitol teilgenommen. Das Ende vom Lied: Man einigte sich außergerichtlich und Meta stellte ihn kurzerhand ein – als Berater für politische und ideologische Fairness im Bereich KI. Seitdem habe „das Unternehmen enorme Fortschritte bei der Verbesserung der Genauigkeit von Meta AI und der Verringerung ideologischer und politischer Voreingenommenheit gemacht“, verkündete Meta stolz.
Was das bedeutet? Eine scharf rechte Stimme nimmt Einfluss auf die KI-Strategie Facebook. Mit diesem Mann will Meta verhindern, dass die Meta AI „zu woke“ wird.
Von Genozid bis zu depressiven Teenagern: Der Algorithmus als Waffe
Was lernen wir aus dieser kleinen Chronik des Schreckens? Egal, ob es „happy little accidents“ waren, wie Bob Ross sagen würde, oder bewusste Firmenentscheidungen: Facebook/Meta nahm das zu jeder Zeit seiner Existenz billigend in Kauf, dass Menschen geschädigt wurden!
Die Facebook Papers belegten, dass man sich bei Facebook völlig darüber im Klaren war, dass Facebook die Lage der Rohingya verschlimmerte. Übrigens wurden laut interner Dokumentation bei Meta 2019 lediglich zwei Prozent der Hassreden auf Facebook entfernt.
Meta wusste ebenso, dass sich Probleme mit dem Körperbild für eines von drei Teenager-Mädchen verschlimmert haben. Zunahmen bei Angstzuständen und Depressionen, ebenso bei Suizidgedanken von Teenagern. Instagrams Fokus auf visuelle Inhalte und sofortige Belohnung führt zu einer Kultur des Vergleichs. Dadurch werden das Selbstwertgefühl und das Selbstbild besonders bei jungen Menschen beeinflusst.
Dann ist da das Design der Plattformen: Es entwickeln sich regelrechte Suchtmechanismen und auch das ist Meta durchaus bewusst. Engagement führt zu Priorisierung der Themen. Jemand, der heute auf rechte Fake-News reinfällt, bekommt noch mehr davon angezeigt. Ein Teenager, der auf Ernährungsthemen und speziell auf Gewichtsverlust schaut, bekommt noch viel mehr davon, selbst wenn die Inhalte seine Gesundheit gefährden.
Meta hat all das gründlich erforschen lassen und zwei bewusste Entscheidungen getroffen:
- Alles so weiterlaufen zu lassen, mit dem Wissen, dass Menschen darunter leiden, teils sogar sterben.
- Die Ergebnisse vor uns geheimzuhalten, statt sie öffentlich zu kommunizieren.
Findet Ihr nicht, dass das allein belegt, dass Facebook bei allem, was es vermutlich nach wie vor im Positiven bewirken kann, mindestens eine sehr böse Seite hat?
Das Streben nach Superintelligenz: Eine neue Dimension der Gefahr
Wir haben also eine Reihe von Belegen dafür, wie regelmäßig das Unternehmen und wie Mark Zuckerberg ganz bewusst Erfolg, Wachstum und persönliche Interessen über das Wohl der Menschen stellten. Und dass das sogar soweit geht, dass Meta seine KI-Chatbots weiter über ihre Existenz lügen lässt, obwohl das jüngst einem Mann das Leben kostete. Außerdem treibt Meta seine KI bewusst nach Rechts, um sie „anti-woke“ zu bekommen.
Und genau dieses Unternehmen sollen wir dabei unterstützen, Superintelligenz zu erlangen? Also ein Level an künstlicher Intelligenz, dass die kollektive Intelligenz der Menschheit übersteigt?
Superintelligenz ist per se ein Problem der Menschheit, ganz gleich, wer sie zuerst erreicht. Weil es eine gewisse Wahrscheinlichkeit gibt, dass diese Person oder dieses Unternehmen die überlegene Intelligenz dafür nutzt, für den Rest der Welt dieses Intelligenz-Level unmöglich zu machen. Mark Zuckerberg will zudem in unsere Köpfe. Geht es nach ihm, tragen wir in Zukunft alle Meta-Brillen. Die würden es dem Unternehmen dann ermöglichen, alles zu sehen, was wir sehen und alles zu hören, was wir hören.
Facebook bzw. Meta hat mit der Fülle seiner Daten bei gleichzeitiger Ignoranz des Sicherheitsrisikos Datenmengen angehäuft, die mithalfen, US-Wahlen zu beeinflussen. Habt Ihr eine Ahnung davon, wenn alles, was wir sehen, gefilmt und mit auf den Datenberg geworfen wird? Und Mikrofone jedes Gespräch mithören können und das Gehörte ebenfalls dann zu Metas Datenschatz gehört?
Quatschen mit der KI
Apropos, künstliche Intelligenz: Mark Zuckerberg ist überzeugt davon, dass wir alle zu wenig Freunde haben. Seine Lösung: Quatscht doch einfach mit der KI Eures Vertrauens, also den Meta-KI-Chatbots. Nur angenommen, wir würden das tun – also auf Zuckerberg hören, mit dem Hintern zuhause bleiben, statt raus in die Clubs und Bars zu gehen, und mit einer KI chatten.
Wäre das nicht die furchtbarste Version der Welt, die man sich vorstellen kann? Wollen wir wirklich in Blasen der Einsamkeit abtauchen, nur weil uns die KI von früh bis spät erzählt, dass wir tolle Typen sind und sie uns jeden Wunsch von den Lippen abliest?
Mein Resümee: Wir brauchen Regulierung, Medienkompetenz – und uns
Lasst uns resümieren:
- Über drei Milliarden Menschen nutzen die Meta-Plattformen derzeit. Und das, obwohl Mark Zuckerberg ab Tag 1 damit niedrige Instinkte bediente, immer wieder Profit über Menschen stellte und intern auch nie einen Hehl daraus machte.
- Er nickte es ab, dass Kinder in KI-Chats in romantische Gespräche verwickelt wurden und dass die Chatbots auch weiterhin Menschen belügen dürfen.
- Zuckerberg hat sich zu lasch um Sicherheitsmechanismen gekümmert – wiederholt!
- Er weiß, dass Instagram schädlich für junge Menschen ist und viele von ihnen in Depressionen und Angstzustände treibt.
- Er lässt zu, dass Algorithmen Hass, Hetze und Fake-News befeuern. Für ihn ist es klasse, wenn die Welt brennt, denn Empörung, Angst und Wut erhöhen die Viralität.
- Er treibt bewusst die KI in eine rechtere Richtung!
Egal, ob Absicht oder Fahrlässigkeit: Meta hat diesen Preis für all das, was schiefgegangen ist, immer auf die vielen Nutzer:innen abgewälzt. Ebenfalls ein typisches Muster: Es wurde sich entschuldigt und Besserung gelobt. Immer und immer wieder, und immer erst dann, wenn ein Vergehen eh bereits öffentlich war. Der Typ lernt nicht daraus, sondern tut es immer wieder und immer wieder genau so.
Und wie kommen wir da jemals raus?
Eine Schneise der Verwüstung zieht sich von FaceMash bis zur angestrebten Superintelligenz und es ist nicht mehr länger zu dulden! Aber wie entkommen wir dem? Eigentlich ist es kinderleicht: Einfach aufhören, Facebook zu nutzen. Oder den Messenger. Oder Instagram, WhatsApp und Threads. Leicht gesagt, ich selbst nutze die Dienste ja noch und komm da augenscheinlich nicht raus.
Egal, ob wir über KI reden, über Social Media oder über das Internet an sich: All das kann uns richtig genutzt als Gesellschaft weiterbringen. Aber all das hat uns Meta über viele Jahre auch kaputtgemacht. Ich wünschte, ich hätte jetzt am Ende eines viel zu langen Textes eine perfekte Antwort, wie wir aus diesem Schlamassel wieder herauskommen. Hab ich aber leider nicht.
Was muss denn weiter passieren? Der Konzern gehört reguliert! Zerschlagt das Ding in kleine Teile! Ein Facebook für Menschen könnte ein wundervoller Ort sein. Aber darauf hat man bei Meta anscheinend keinen Bock. Lasst uns also bitte alle aufhören damit, Algorithmen mit Aufmerksamkeit zu füttern.
Politik muss regulieren, Tech muss Verantwortung übernehmen. Und wir müssen aufhören, Trolle zu füttern und Fake-Videos zu teilen. Nur so können wir diese miesen Algorithmen austrocknen und Meta den Wind aus den Segeln nehmen. Es ist höchste Zeit, dass wir uns das Netz zurückerobern – meint Ihr nicht auch?