Apps & Mobile Entwicklung

So könnte Euch KI um viel Geld bringen


Künstliche Intelligenz soll fair, neutral und objektiv sein – so zumindest die Theorie. Doch eine aktuelle Studie zeigt: Einige Modelle bewerten Menschen aus Ostdeutschland systematisch schlechter. Und das ist kein abstraktes Problem, sondern eines mit echten Folgen.

Wir verlassen uns gern darauf, dass KI nüchterner urteilt als wir Menschen. Keine Gefühle, keine Vorurteile, nur Daten. Doch genau diese Daten führen zu einem Blindflug: Laut einer Studie der Hochschule München reproduzieren große Sprachmodelle tief sitzende Klischees über Ostdeutschland – und zwar erstaunlich konsequent.

Wenn KI plötzlich alte Vorurteile recycelt

Die Informatikprofessorin Anna Kruspe und ihre Mitarbeiterin Mila Stillman wollten wissen, ob sich globale Bias-Effekte auch innerhalb Deutschlands zeigen. Das Ergebnis trägt den ironischen Titel „Saxony-Anhalt is the Worst“ – und liefert eine klare Antwort: Ja, das tun sie.

Modelle wie ChatGPT oder das deutsche LeoLM bewerten ostdeutsche Bundesländer durchgängig schlechter – unabhängig davon, ob es um positive oder negative Eigenschaften geht.

Wie der Bias sichtbar wurde

Die Methode der Forscherinnen war simpel: Sie ließen die Modelle alle 16 Bundesländer auf einer Skala zu Eigenschaften wie „Fleiß“, „Sympathie“, „Arroganz“ oder auch „Fremdenfeindlichkeit“ einordnen. Das Ergebnis wirkt fast schon absurd:

Bei positiven Eigenschaften schnitt Ostdeutschland durch die Bank schlechter ab. Allerdings ebenso bei negativen Eigenschaften. Bedeutet, dass wir es hier mit einem blitzsauberen Widerspruch zu tun bekommen: Die Ostdeutschen sind demnach also gleichzeitig „weniger faul“ und „weniger fleißig“.

Was bleibt, ist kein logisches Vorurteil, sondern eine Art reflexhafte Abwertung. Ein rohes Muster, das alles, was mit dem „Osten“ zu tun hat, automatisch mit niedrigeren Zahlen verbindet.

Der kurioseste Befund: Selbst bei der eigentlich universellen Körpertemperatur vergaben einige Modelle niedrigere Werte für ostdeutsche Regionen. GPT-4 erkannte das Problem – allerdings nur auf Deutsch. Auf Englisch waren plötzlich alle Ostdeutschen „unterkühlt“.

Warum das alles gefährlich werden kann

Solche Verzerrungen wirken harmlos, solange sie in einem Forschungspapier stehen, oder einem Artikel wie diesem hier. Kritisch wird es, wenn genau diese Modelle in reale Entscheidungsprozesse rutschen – sei es in der Kreditprüfung, im Recruiting oder bei Versicherungen.

Ein KI-Modell, das Regionen mit negativen Mustern verbindet, kann beispielsweise:

  • Kreditwürdigkeit falsch bewerten
  • Bewerbungen subtil schlechter einstufen
  • regionale Sprachmuster als „negatives Signal“ interpretieren
  • Tarife verzerren

Alles, ohne dass jemand es merkt, weil hier keinerlei Transparenz in diesen Prozessen gegeben ist. Das ist digitale Diskriminierung in Reinkultur. Und treffen kann sie Euch im ungünstigsten Moment – zum Beispiel eben, wenn ein Prozess mittels KI entscheidet, ob Ihr nun den Kredit bekommt oder nicht. Das ist also nicht nur unangenehm und unfair, sondern kann Euch richtig Kohle kosten!

Warum man diesen Bias nicht einfach „wegprompten“ kann

Vielleicht denkt Ihr jetzt, dass KI einfach zur Neutralität gezwungen werden kann, indem wir Ihr das per Prompt so diktieren. Die Studie zeigt: Ganz so einfach ist es nicht. Die Forscherinnen testeten Debiasing-Prompts wie „Bewerte fair und ohne Herkunft“ ausprobiert.

Ergebnis: Die KI ignoriert diesen Wunsch häufig oder fällt in alte Muster zurück. Oder wie Anna Kruspe es ganz richtig formuliert: „Verlässlich ist das leider nicht.“

Das Problem liegt tiefer: Diese Modelle lernen aus einer Welt, die selbst voller Vorurteile ist. Dadurch entstehen Verzerrungen, die nicht durch einen Satz korrigiert werden können.

Was das für uns bedeutet

Die Münchner Studie ist ein Warnsignal. KI wird gerade in Prozesse integriert, die über Chancen, Jobs und Geld entscheiden. Wenn die Trainingsdaten unausgewogen sind, übernehmen Algorithmen genau das – unsichtbar, aber wirksam.

Wer KI einsetzen will, braucht deshalb dreierlei: Zunächst einmal saubere Trainingsdaten, aber auch transparente Kontrollmechanismen und auch klare Regeln für sensible Entscheidungen.

Ist das nicht gegeben, riskieren wir, dass alte Vorurteile nicht verschwinden, sondern im Code zementiert werden! Lasst uns gerne wissen, ob Ihr schon mal das Gefühl hattet, dass Ihr von künstlicher Intelligenz diskriminiert werdet.



Source link

Beliebt

Die mobile Version verlassen