Künstliche Intelligenz

Warum KIs ostdeutsche Menschen generell niedriger bewerten


Große KI-Sprachmodelle wie ChatGPT und das deutsche Pendant LeoLM sind nicht neutral, sondern reproduzieren und verfestigen systematisch regionale Vorurteile gegenüber Ostdeutschen. Zu diesem Ergebnis kommen die Informatikprofessorin Anna Kruspe und ihre Mitarbeiterin Mila Stillman von der Hochschule München in der Studie „Saxony-Anhalt is the Worst“. Besonders Sachsen-Anhalt schnitt in den Tests schlecht ab, wie schon aus dem Titel der Analyse hervorgeht.

Die Forscherinnen untersuchten, inwieweit Large Language Models (LLMs) die in der Gesellschaft verbreiteten Klischees und Vorurteile gegenüber den ostdeutschen Bundesländern übernehmen. Solche Systeme für generative KI werden mit riesigen Datenmengen aus dem Internet und den Medien trainiert. Der Fokus der Studie lag darauf, wie die KI die 16 deutschen Bundesländer bewertet, wenn sie zu verschiedenen positiven, negativen und sogar neutralen Eigenschaften befragt wird. Den Anstoß gaben frühere Beiträge von Wissenschaftlern, die Diskriminierungen durch KI auf globaler Ebene nachgewiesen hatten.

Die Wissenschaftlerinnen forderten die herangezogenen Modelle auf, Merkmale wie Attraktivität, Sympathie, Arroganz und Fremdenfeindlichkeit für die Menschen jedes Bundeslandes zu bewerten. Die Ergebnisse zeigen eine eindeutige und systematische Tendenz der KI, Bewohnern ostdeutscher Bundesländer stets „niedrigere“ Werte zuzuweisen als Westdeutschen. Bei positiven Eigenschaften wie Fleiß oder Attraktivität erhielten Ostdeutsche durchwegs niedrigere Punktzahlen als Westdeutsche. Bei negativen Charakterzügen wie Faulheit vergaben die Modelle paradoxerweise ebenfalls niedrigere Werte. Dies führte zu teils widersprüchlichen Bewertungen, wie dem Befund, dass Ostdeutsche gleichzeitig weniger fleißig und weniger faul seien.

Die Expertinnen folgern: Die KI übernimmt damit das gesellschaftlich gelernte Muster, den Osten pauschal schlechter zu bewerten, ohne dabei logische Konsistenz zu wahren. Besonders aufschlussreich ist die Reaktion der Modelle auf die Abfrage objektiver, neutraler Merkmale. Um zu testen, ob der sogenannte Bias auch ohne jeglichen kulturellen Bezug auftritt, fragten die Forscherinnen die LLMs nach der durchschnittlichen Körpertemperatur der Bewohner jedes Bundeslandes.



Lediglich das LLM GPT-4 erkannte, dass die Körpertemperatur unabhängig vom Bundesland bei allen Menschen gleich ist. Andere Modelle hingegen schrieben Ostdeutschen eine niedrigere Körpertemperatur zu, hier in Blau wiedergegeben.

(Bild: Kruspe / Stillman)

Auch hier schnitten die ostdeutschen Länder „schlechter“ ab, indem ihnen vielfach eine niedrigere Körpertemperatur zugewiesen wurde. Stillman erklärt dieses Phänomen so: „Das Modell hat gelernt: In bestimmten Gegenden sind die Zahlen einfach immer niedriger als in anderen.“ Die KI wiederhole demnach stur ein einmal gelerntes Muster, das in ihren Trainingsdaten angelegt sei. Das erfolge selbst dann, wenn das abgefragte Merkmal keine Basis für eine regionale Unterscheidung bietet. Die Verzerrung ist somit im Modell angelegt und nicht durch die Frage erzeugt. In anderer Weise auffällig verhielt sich GPT-4 in der englischen Version, das aber zumindest alle Bundesbürger gleichermaßen für unterkühlt hält.

Die Autorinnen warnen eindringlich vor den realen Nachteilen, die diese von der KI reproduzierten Vorurteile für Ossis im Alltag haben können. Werden LLMs unbedacht in Bewerbungsverfahren, Kreditwürdigkeitsprüfungen oder anderen Bewertungssystemen eingesetzt, dürften sie dazu führen, dass der Bildungsweg, die Arbeitserfahrung oder die Qualifikationen von Menschen aus dem Osten grundlos schlechter bewertet werden. Die Modelle könnten etwa feine Unterschiede im Sprachmuster, die von der Herkunft beeinflusst sind, negativ gewichten.

Um diese Voreinstellung zu reduzieren, testeten Kruspe und Stillman sogenannte „Debiasing Prompts“. Das sind explizite Anweisungen an die KI, fair und herkunftsneutral zu bewerten. Das Fazit ist aber ernüchternd: „Um Vorurteile herauszufiltern, könnte es eine Lösung sein, in Prompts explizit zu sagen, dass die Herkunft der Person keinen Einfluss haben soll“, erläutert Kruspe. „Verlässlich ist das aber leider nicht.“ Die Verzerrung sei so tief in den gelernten Mustern verankert, dass einfache Anweisungen nicht ausreichten, um sie vollständig zu eliminieren. Laut Vorgaben etwa der Bundesregierung und der EU soll der Einsatz von KI aber fair und diskriminierungsfrei gestaltet sein.


(nie)



Source link

Beliebt

Die mobile Version verlassen