Datenschutz & Sicherheit

„Es liegt an uns, ob wir KI Macht über uns geben“


Big-Tech-Hersteller bekannter KI-Produkte vermarkten Werkzeuge wie Gemini, DeepSeek, ChatGPT und Co. als Alltagstechnologie. Private Nutzer*innen sollen sie überall und für alle möglichen Zwecke einsetzen können, als Web-Suchmaschine, als Korrekturleserin, als Autorin oder Lern-Assistenz. Ein solches Marketing definiert Menschen als defizitäre Lebewesen, die sich stets optimieren müssen.

Wir haben uns mit Maren Behrensen darüber unterhalten, wie die Werbestrategie der KI-Giganten versucht, unser Menschenbild zu prägen. Behrensen sagt: Wir müssen dem nicht auf den Leim gehen, sondern können als kritisch denkende Personen einen selbstbestimmten, kreativen Umgang mit der Technologie finden. Behrensen lehrt Philosophie an der niederländischen Universität Twente in Enschede und forscht zur technologischen Vermittlung sozialer Realitäten sowie zu Identitätskategorien, Antigenderismus und Populismus.

Maren Behrensen lehrt Philosophie an der Universität Twente – Alle Rechte vorbehalten Privat

KI für alle Zwecke

netzpolitik.org: KI ist überall. Was für einen Nutzen verspricht uns die KI-Industrie?

Maren Behrensen: Sie verspricht, dass KI uns im Alltag hilft, uns produktiver macht und wir effizienter arbeiten – oder sie uns sogar heilen kann.

Ein Beispiel sind Therapie-Bots. Die werden auf teils skrupellose Weise vermarktet und geben vor, eine Therapie ersetzen zu können. Realistisch betrachtet sind die meisten dieser Bots nicht nur nutzlos, sondern teils brandgefährlich.

KI soll auch unsere Arbeitswelt revolutionieren, wissenschaftliches Arbeiten unterstützen, menschliche Kommunikation optimieren. Dabei machen sich die Hersteller kaum die Mühe zu zeigen, wie genau sie diese Versprechen einlösen wollen.

Unausweichliche KI

netzpolitik.org: Was hat dieses Marketing für Folgen?

Maren Behrensen: Diese Versprechen rufen eine gesellschaftliche Erwartungshaltung hervor. Das wiederum baut sozialen Druck auf, KI-Produkte zu nutzen und zu kaufen. Denn man will ja nichts versäumen. Dabei geht der Blick dafür verloren, welchen Zweck die Technologie eigentlich erfüllen soll.

Diese Unausweichlichkeitslogik, nach der es alle irgendwie nutzen und sich damit auseinandersetzen müssen, erweitert die Nutzerbasis.

Ein gutes Beispiel sind Universitäten: Dort heißt es, wir könnten gar nicht darum herumkommen, KI in die Lehre oder Forschung zu integrieren. Also werden Taskforces eingerichtet, Fortbildungen angekündigt, Lehrpläne angepasst – obwohl noch gar nicht klar ist, wo und wie genau KI einen echten Nutzen bringt. Das ist weniger eine sachliche Entscheidung als eine durch Marketing erzeugte Dynamik.

netzpolitik.org: Es ist interessant, dass Unternehmer wie OpenAI-Chef Sam Altman es geschafft haben, dass alle über ihr Produkt sprechen, und davon ausgehen, dass Menschen es wie selbstverständlich nutzen. Wissen KI-Unternehmer, wofür Universitäten oder Privatpersonen ihr Produkt einsetzen sollten?

KI für ganz spezifische Zwecke

Maren Behrensen: Ich glaube, das wissen sie häufig nicht. Es gibt natürlich Bereiche, in denen KI einen klaren Nutzen hat – aber das sind meist sehr eng umrissene Felder. Ein Beispiel ist die Astrophysik: Dort gibt es gewaltige Datenmengen – zum Beispiel Millionen Aufnahmen von anderen Galaxien –, die von Menschen unmöglich alle gesichtet werden können. KI kann Muster darin erkennen und Vergleichsarbeit leisten, die Forschung in diesem Umfang überhaupt erst möglich macht.

Ein anderes Beispiel ist die Proteinforschung in der Biologie. KI kann dort Simulationen durchführen, Vorschläge machen und so Prozesse beschleunigen, die sonst Jahre dauern würden. Das ersetzt nicht die Arbeit im Labor, aber es eröffnet neue Kapazitäten.

Muster in großen Datenmengen zu erkennen, das ist ein Anwendungsbereich, in dem KIs dem Menschen klar überlegen sind und für den sie projektspezifisch trainiert werden. Diese Nutzung unterscheidet sich allerdings sehr deutlich davon, wie KI für Privatnutzer vermarktet wird, nämlich als Alltagstechnologie oder Allzwecklösung.

Menschen mit Optimierungsbedarf

netzpolitik.org: Welche Rolle spielt das Nützlichkeitsprinzip in der Vermarktung von KI?

Maren Behrensen: Das Nützlichkeitsprinzip steht im Zentrum der meisten Vermarktungsstrategien. Ein Beispiel ist die Grammarly-Werbung. Sie verspricht: „Wir schreiben dir deine Hausarbeit“ oder „Wir machen deine E-Mails verständlich“. Die Unterstellung ist hier: Der Mensch an sich kann wenig und dann kommt die KI, die aus dem unfähigen Menschen ein optimiertes Wesen macht.

In dieser Logik wird der Mensch wie eine kleine Maschine gesehen, die sich ständig selbst verbessern soll. Sein Wert bemisst sich daran, wie nützlich, effizient oder produktiv er ist.

Das zeigt sich auch besonders bei Tools wie Kalender- oder Gesundheits-Apps, wo es heißt: „Mit KI bringst du endlich Ordnung in dein Leben.“

netzpolitik.org: Was genau ist daran problematisch?

Die Mensch-Maschine

Maren Behrensen: Das ist ein sehr reduziertes Menschenbild. Es blendet vieles aus, was menschliches Leben eigentlich ausmacht – Beziehungen, Kreativität, auch einfach das Recht, einmal nicht effizient zu sein.

Das KI-Marketing versteht Menschen als Maschinen unter anderen Maschinen.

netzpolitik.org: Menschen als Maschinen zu verstehen – gibt es dafür Vorläufer in der Philosophiegeschichte?

Maren Behrensen: Es erinnert an René Descartes, ein französischer Philosoph der frühen Neuzeit, wobei er nicht den Menschen, sondern lediglich Tiere als Maschinen betrachtet hat. Daneben gibt es materialistische Philosophien. Sie brechen den Menschen auf seine Existenz als Körper herunter, der bestimmte Dinge braucht: Nahrungsmittel, Schlaf und so weiter. In der Regel versuchen sie, auch das Gefühlsleben des Menschen – oder das, was man vielleicht theologisch verbrämt Seelenleben nennen würde – auf rein materielle Fragen zu reduzieren.

Dem etwas überspitzten Ausdruck Mensch-Maschine-Denken kommt aber wohl der Behaviorismus in der Psychologie am nächsten. Da gibt es auch unterschiedliche Denkschulen, aber der Grundgedanke ist: Menschliches Verhalten ist auf Input und Output ausgerichtet. Menschliches Verhalten wird durch äußere Reize bestimmt. Die Idee dahinter ist, dass man Menschen quasi programmieren kann, wenn man die richtigen Inputs kennt. Dieses Denken wurde unter anderem auf Kindererziehung angewendet.

Nützlichkeitsprinzip auf die Spitze getrieben

netzpolitik.org: Eine Facette des Nützlichkeitsprinzips im KI-Marketing sind Philosophien, denen bekannte KI-Player anhängen, ein Beispiel ist der Longtermismus. Er steht in der Tradition des Utilitarismus, einer Art Nützlichkeitsethik. Was besagt er?

Maren Behrensen: Der Longtermismus argumentiert in etwa so: Menschliches Leben oder auch positive Erfahrungen, die Menschen im Laufe eines Lebens machen können, haben einen bestimmten intrinsischen Wert. Daher steigert sich dieser Wert umso mehr, je mehr Menschen es gibt.

Hinzu kommt die Vorstellung, dass wir es durch eine technologisch vermittelte Zukunft schaffen, uns über die Galaxie auszubreiten. Damit würden irgendwann die natürlichen Grenzen dafür wegfallen, wie viele menschliche Leben zeitgleich existieren können. Im Moment müssen wir davon ausgehen, dass es eine solche Grenze auf der Erde gibt, dass also nicht beliebig viele Menschen auf der Erde leben können.

Daneben müssen wir dafür sorgen, dass nicht irgendein katastrophales Ereignis uns alle gleichzeitig auslöscht.

netzpolitik.org: Menschliches Leben in der Zukunft schützen zu wollen, klingt doch eigentlich ganz gut.

Maren Behrensen: Mein größtes Problem mit der Argumentation des Longtermismus ist, dass es menschliche Bedürfnisse hier und jetzt vollkommen vernachlässigt, auf eine meines Erachtens völlig fahrlässige Weise. Longtermisten formulieren Zukunftsversprechen, von denen völlig unklar ist, ob sie jemals so eintreten.

Moralische Katastrophen kann der Longtermismus nicht einordnen. Ein Genozid oder eine schwere Epidemie, die viele Menschen tötet, wäre im Longtermismus nicht weiter erwähnenswert, solange die Menschheit als solche weiter besteht. Er abstrahiert völlig von den Bedürfnissen und der Not der jetzt lebenden Menschen.

netzpolitik.org: Wie kommen Menschen als Maschinenwesen ins Spiel?

Maren Behrensen: Manche Longtermisten träumen davon, dass wir irgendwann gar nicht mehr als körperliche Wesen existieren, sondern einfach als virtuelle Wesen in einer Cloud. Wenn es so käme, dann würden damit viele Bedürfnisse wegfallen, die Menschen als körperliche Wesen haben. Schlaf oder Essen wären wahrscheinlich obsolet.

netzpolitik.org: Ist das für uns als Nutzer*innen der Technologie ein Problem, dass viele KI-Hersteller uns als potenzielle Maschinenwesen verstehen?

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Maren Behrensen: Zum einen zeigt sich in der longtermistischen Ideologie ein entwürdigender, oft rassistischer, sexistischer und ableistischer Blick auf Menschen. Wenn Menschen, die einer solchen Ideologie anhängen, uns nicht nur ihre Produkte verkaufen, sondern ihren Reichtum auch dazu nutzen, direkten politischen Einfluss auszuüben, wie das etwa Peter Thiel und Elon Musk in der USA tun – dann droht gleichzeitig ein faschistoider Umbau der politischen Verhältnisse.

Die Angst des Philosophen

netzpolitik.org: Wie wirkt sich das aus, wenn Nutzer*innen dem Marketing von der KI als Alleskönner auf den Leim gehen?

Maren Behrensen: Es schürt falsche Erwartungen. Menschen missverstehen ChatGPT zum Beispiel als ein Programm, das direkt Informationen liefern kann. Das ist eine falsche Annahme.

Wenn man das Missverständnis von KI als Suchmaschine ins Gesellschaftliche weiterdenkt, dann landet man bei dem, was man als die Angst des Philosophen beschreiben könnte: Menschen lassen ChatGPT für sich denken. Aber ChatGPT macht kritisches Denken nicht automatisch obsolet.

Das Ganze erinnert an das Taschenrechner-Problem: Als der Taschenrechner in die Klassenzimmer kam, gab es auch diese Sorge, dass man den jungen Menschen Mathematik nicht mehr vermitteln kann. Doch einen Taschenrechner kann ich erst dann sinnvoll und effizient nutzen, wenn ich schon Ahnung von Mathe habe, und wenn ich weiß, welche Probleme ich mit ihm lösen soll. ChatGPT und andere KI-Tools kann ich auch dann gewinnbringender nutzen, wenn ich eine klare Vorstellung davon habe, was ich erfragen oder erreichen will.

netzpolitik.org: Das heißt, die Sorge ist unbegründet?

Maren Behrensen: Ich halte die Sorge für übertrieben. Sie sagt mehr über die Menschen aus, die KI als alternativlose Allzwecklösung anpreisen und gleichzeitig von einem radikalen Umbau der Gesellschaft fantasieren. Faschisten käme es sehr gelegen, wenn KI das kritische Denken ersetzen würde – aber das heißt nicht, dass jegliche Nutzung von KI einer Aufgabe des Denkens gleichkommt.

Nutzer*innen widersetzen sich Marketing

Umso interessanter ist es, dass viele Menschen KI-Systeme auf eine Weise nutzen, die sich dem Nützlichkeitsprinzip widersetzt. Ich denke hier insbesondere an eine Form der Nutzung, die KI als eine Art Dialogpartnerin begreift – als interaktives Tagebuch oder Hilfe beim Sortieren von Gedanken oder Routinen.

Natürlich kann auch das gefährlich sein: wenn jemand sich durch den Umgang mit KI weiter in Wahnvorstellungen hineinsteigert. Aber wenn Menschen KIs als Dialogpartnerin behandeln, wählen sie eine andere Herangehensweise als die der reinen Selbstoptimierung durch den Umgang mit einem Werkzeug.

Und das finde ich spannend: Was kann eigentlich menschliche Kreativität aus und mit diesem Ding machen? Das meine ich wertneutral, aber es zeigt meines Erachtens, dass Menschen einen kreativen Zugang zu KI haben, der über die Marketingnarrative „kann alles“, „weiß alles“, „ist eh unausweichlich“ oder „kann alles besser als du“ hinausgeht.

Wenn nur noch der Chatbot zuhört

netzpolitik.org: Was sind die Risiken, wenn Menschen KI-Tools unreflektiert nutzen?

Maren Behrensen: Wenn sie beispielsweise ChatGPT als Gesprächspartner*innen und als echte Person wahrnehmen oder den Output des Programms unhinterfragt glauben, birgt das die Gefahr, Illusionen zu verstärken. Es zeigt aber auch: Es gibt viele Menschen, die sich sonst nicht gehört fühlen – und die dieses Zuhören nun in der Maschine finden.

Das kann wie gesagt gefährlich sein: In den USA beginnt gerade ein Rechtsstreit gegen OpenAI, in dem es darum gehen wird, ob ChatGPT einen jungen Menschen in den Suizid getrieben hat.

Chatbots imitieren Sprachhandeln

netzpolitik.org: Wie kommt es zu dieser Dynamik?

Maren Behrensen: Chatbots sind nicht auf Wahrheitssuche ausgelegt, sondern darauf, menschliches Sprachhandeln zu imitieren. Das hat oft wenig damit zu tun, Argumente oder Evidenz auszutauschen und kritisch zu hinterfragen. Vielmehr geht es darum, einen Konsens herzustellen, einen gemeinsamen Entschluss zu fassen oder gemeinsame Glaubenssätze zu formulieren.

Je besser Chatbots darin werden, menschliches Sprachhandeln zu imitieren, desto größer wird auch die Gefahr, dass sie als Autorität wahrgenommen werden. Und Autoritäten können toxisch sein, sie können ihre Macht ausnutzen. Dabei unterstelle ich natürlich nicht, dass KI eine Intelligenz wäre, die dies bewusst tut. Aber wie bei toxischen menschlichen Autoritäten gilt: Es liegt an uns, ob wir ihnen diese Macht über uns geben oder nicht.

KI-Programme haben ja keinen Personenstatus, geschweige denn Bewusstsein. Sie fungieren häufig wie Echokammern, ähnlich Social Media, aber eben nicht nur.



Source link

Beliebt

Die mobile Version verlassen