Datenschutz & Sicherheit
Wie digitaler Faschismus in den Mainstream vordringt
Gedankenkontrolle, Transhumanismus, Superintelligenzen: Das ist eigentlich der Stoff aus Science-Fiction-Romanen und Verschwörungserzählungen. Und doch haben diese Zukunftsvorstellungen mehr mit unserer gegenwärtigen Welt gemein, als wir ahnen. Denn einflussreiche Unternehmer aus der Tech-Branche arbeiten daran, die damit verbundenen Ideologien zum Mainstream zu machen.
Auf der re:publica 25 schlugen Aline Blankertz und Rainer Mühlhoff in ihrem Vortrag „Digitaler Faschismus: Wie KI-Ideologie die Demokratie untergräbt und wie wir sie verteidigen können“ den großen Bogen von Tech-Ideologien über akademische KI-Philosophie bis zum faschistoiden Potenzial der Alt-Right-Bewegung, die Donald Trumps Politik bestimmt.
Ihr Fazit: Faschistische KI-Ideologien schleichen sich zunehmend in den Mainstream ein. Deswegen sollten wir wachsam verfolgen, wo sie bereits wirksam werden und welches Ziel sie verfolgen. Und wir sollten die Tech-Konzerne, insbesondere die KI-Branche, weitaus strenger regulieren und so ihren Einfluss auf Politik und Gesellschaft begrenzen.
Wie lässt sich Faschismus frühzeitig erkennen?
Aline Blankertz ist Tech Economy Lead beim Verein Rebalance Now, Rainer Mühlhoff lehrt als Professor für Ethik und Kritische Theorien der KI an der Universität Osnabrück. Beide verstehen Faschismus als „Lust an Gewalt als politischem Mittel“, um Rechtsstaat und Demokratie zu zerstören. Dabei spiele KI eine zentrale Rolle, denn sie bestimme die öffentliche Debatte um technologischen Fortschritt. Und die Branche verstehe es, KI als Lösung für gesamtgesellschaftliche Probleme zu vermarkten.
KI-Technologie führe nicht zwangsläufig zu digitalem Faschismus, so Blankertz und Mühlhoff. Doch die Logik, die KI als „Menschensortier-Technologie“ zugrundeliegt, sei mit menschenverachtenden, antidemokratischen und faschistischen Haltungen kompatibel. Schon heute entscheiden KI-Systeme etwa an den EU-Außengrenzen über das Schicksal von Migrant*innen. Wer KI also unkritisch als Meilenstein des technologischen Fortschritts verkaufe, spiele damit jenen in die Hände, die diese Technologie als politisches Machtinstrument betrachten.
Der CEO-Staat
Die radikalste Form der Alt-Right-Bewegung sehen Blankertz und Mühlhoff im politischen Spektrum des Dark Enlightenment, zu Deutsch: die dunkle Aufklärung. Ihre Anhänger*innen wollen Errungenschaften der politischen Moderne rückgängig machen. Das bedeutet etwa, Rechtsstaat, Demokratie und die Gleichheit vor dem Gesetz abzuschaffen.
Der Informatiker Curtis Yarvin und der Philosoph Nick Land würden darin einen Ausweg aus ihrem „Frust mit der Demokratie“ sehen, die ins „Menschheitsverderbnis“ führe. Ihr Ziel sei die Rückkehr zur Monarchie, an deren Spitze aber kein*e Erbkönig*in, sondern ein CEO stehen soll, der den Staat wie ein privatwirtschaftliches Unternehmen führt. In dieser Staatsform soll es dann keinen demokratischen Souverän mehr geben, sondern nur noch Kunden. Ihr Recht besteht dann nurmehr darin, das Land zu verlassen, wenn sie mit der Staatsführung durch den CEO unzufrieden sind. Die Vision: Staaten sollen global wie Wirtschaftsunternehmen miteinander konkurrieren.
Einfluss gewinne die Ideologie des Dark Enlightenment auch durch Prominente aus dem Silicon Valley, so Blankertz und Mühlhoff. Unter ihnen ist der Tech-Milliardär und Palantir-Mitgründer Peter Thiel. Yarvins Philosophie stützten Thiels libertäre Ansichten und dessen Kampf gegen die Demokratie. Bereits in einem 2009 veröffentlichten Essay hält Thiel Freiheit und Demokratie für „nicht miteinander kompatibel“. Der Unternehmer gilt als Förderer von US-Vizepräsident J. D. Vance und verfügt so mutmaßlich über eine direkte Verbindung ins Weiße Haus.
Die Wurzeln des digitalen Faschismus
Die rechte Alt-Right-Bewegung in den USA verschmelze mit der Ideologie des Dark Enlightment und verwandten Philosophien mit faschistoiden Wurzeln. Dazu würden laut Blankertz und Mühlhoff unter anderem der Transhumanismus zählen. Der Ideologie zufolge sollten Menschen danach streben, ihre Schwächen mittels Technologie zu überwinden. Die Theorie stammt vom Evolutionsbiologen Julian Huxley aus den 1950er Jahren. Huxley gilt als einer der prominentesten Vertreter der Eugenik des vergangenen Jahrhunderts. Der Philosoph Nick Bostrom habe den Transhumanismus wieder populär gemacht, so Blankertz und Mühlhoff in ihrem Vortrag.
Darüber hinaus übe die Strömung des Effektiven Altruismus (EA) aus Oxford großen Einfluss in der Tech-Welt aus. Sie beschreibt eine Ethik, wonach Menschen nicht nur Gutes tun sollen, sondern ihre Mittel dazu möglichst effektiv und effizient einsetzen sollten. So müssten sie etwa nicht automatisch Menschen in akuter Not helfen, sondern könnten stattdessen gezielt begabte Menschen fördern, die dann später im Leben Großes bewirken.
Eine Weiterentwicklung des Effektiven Altruismus besteht laut Blankertz und Mühlhoff im sogenannten Longtermismus. Der Begriff steht für eine philosophische Theorie, die das Leben der Menschen in einer weit entfernten Zukunft ethisch als ebenso bedeutsam einschätzt wie das der derzeit lebenden Generationen.
Die Ideen des Longterminismus würden sich auch in den Debatten um sogenannte Künstliche Intelligenz wiederfinden. Ihre Vertreter*innen gehen davon aus, dass es in Zukunft eine Superintelligenz geben kann. Sie könnte die Menschheit dann entweder existenziell bedrohen oder ihr das Paradies auf Erden bescheren. Weil nur das Letztere anzustreben sei, sollten wir Systeme Künstlicher Intelligenz schon heute in Entscheidungsprozesse über den Fortlauf unserer Gesellschaft einbeziehen, so die Forderung der Longtermisten.
In Europa angekommen
Solche Debatten finden längst nicht nur in den Vereinigten Staaten, sondern mehr und mehr auch in Europa statt, wie Aline Blankertz und Rainer Mühlhoff auf der re:publica zeigten. So hat die EA-Bewegung einen eigenen gemeinnützigen Verein in Deutschland, der sich klar zum Longtermismus bekennt.
Außerdem seien sie unter anderem an den Universitäten Osnabrück, Mannheim oder Aachen mit eigenen Angeboten für Studierende vertreten. An mindestens zwei Unis könnten Studierende sich den Besuch entsprechender Veranstaltungen als Leistung für ihr Studium anrechnen lassen.
Auch sei das Future of Life Institute in Europa aktiv. Die Einrichtung steht der EA-Bewegung nahe und setzt sich laut Website für eine Technologie ein, die allen Menschen nutzt und existenzielle Risiken minimiert. Das Institut lädt regelmäßig Mitglieder der EU-Kommission oder des EU-Parlaments ein. Es werde unter anderem vom Unternehmer Elon Musk gefördert, so Blankertz und Mühlhoff. Und auch Vitalik Buterin, Softwareentwickler und Erfinder der Kryptowährung Ether, zähle zu den Unterstützer*innen.
Zwar halten KI-Forscher*innen wie Timnit Gebru eine Super-KI für ausgeschlossen. Doch einflussreiche Tech-Unternehmer wie Sam Altman vermarkten das KI-Narrativ von der Artificial General Intelligence (AGI) mit Erfolg, also eine allgemeine KI, deren kognitive Fähigkeiten dem menschlichen Gehirn entsprechen. In der longtermistischen Philosophie ist die AGI eine Stufe vor der Superintelligenz.
Für mehr KI-Regulierung
Das Rennen um die AGI lässt auch in Europa die Sorge anwachsen, nicht mit der technologischen Entwicklung mithalten zu können. So führte etwa der EU-Politiker Axel Voss (CDU) auf der re:publica ein Streitgespräch mit dem ehemaligen Bundesdatenschutzbeauftragten Ulrich Kelber über Regulierung im KI-Zeitalter. Voss äußerte die Sorge vor Überregulierung: „Wollen wir den digitalen Fortschritt oder wollen wir ihn nicht?“ Dabei sagt Voss auch, dass KI nicht Entscheidungen über Menschen fällen darf.
Blankertz und Mühlhoff plädierten in ihrem Vortrag für eine strenge KI-Regulierung. Außerdem müssten wir dem Glauben widerstehen, dass wir der Technologie ausgeliefert seien. KI mit dem Ziel zu entwickeln um damit gesellschaftliche Disruption zu verfolgen – wie es Altman, Musk oder Thiel tun -, nütze am ehesten den mächtigen Unternehmern und letztlich auch den Faschist*innen. Als Gesellschaft sollten wir uns stattdessen die Frage stellen, welche Form der KI wir wollen. Keinesfalls aber dürften wir diese Entscheidung den KI-Unternehmen überlassen.