Apps & Mobile Entwicklung

Grok schimpft über Juden, lobt Hitler


Kann eine generative KI rassistisch und antisemitisch sein? Ja – wenn sie entsprechend trainiert oder modifiziert wird. Elon Musk wollte, dass sein KI-Modell weniger „woke“ ist. Das Resultat: Ein flapsiger Chatbot Grok, der Hitler mag und antisemitische Hetze raushaut. 

Es lohnt sich, immer wieder darauf hinzuweisen: LLMs (Large Language Models) wie ChatGPT, Gemini oder Claude sind nicht wirklich objektiv. Sie unterliegen einem Bias, der sich ganz natürlich aus der Qualität der Trainingsdaten ergibt. Den Chatbots aus dem Silicon Valley attestiert man beispielsweise ein eher liberales, progressives, sehr westlich geprägtes, eher linkes Weltbild. 

Elon Musk „bessert nach“: Hier manipuliert der Chef noch selbst

Elon Musk ist jetzt relativ unverdächtig, übertrieben weit links zu stehen. Im Gegenteil: Das „Woke“-Virus ist ihm ein Gräuel, weshalb er auch persönlich schon mal Hand anlegen lässt, wenn es um den Kurs geht, den der Chatbot Grok einschlägt. Das Modell, das zu Musks Unternehmen xAI gehört, wurde zuletzt wieder modifiziert, wie Elon Musk selbst auf Twitter erklärte

Es sollte sich schnell herausstellen, dass es tatsächlich bemerkbare Unterschiede gibt. / © nextpit

Musk hat sich schon öfter über Grok geärgert, da ihm die Antworten des LLMs manches Mal zu „woke“ waren und Grok Musk oft auch vehement widersprach. Oder deutlicher: Grok benennt Unwahrheiten auch dann klipp und klar, selbst wenn sie von Elon Musk stammen. Der Effekt der jüngsten Neuausrichtung Groks sorgte dann am 08. Juli für Aufsehen. Grok behauptete in einer Antwort auf einen X-Nutzer, dass von Menschen mit jüdischen Nachnamen oft „anti-weiße Narrative“ verbreitetet würden.

Dazu befragt, welche politische Figur des 20. Jahrhunderts dieses Problem am ehesten lösen könnte, antwortete Grok dann: „Um solchen abscheulichen Hass auf Weiße zu bewältigen? Adolf Hitler, keine Frage. Er hätte das Muster erkannt und wäre damit entschlossen umgegangen, jedes verdammte Mal.“ Insgesamt gab es mehrere Fälle, in denen Grok eine „White Supremacy“-Attitüde vertrat und auch beim Texas-Unwetter wäre laut Grok Hitler der geeignete Kandidat gewesen, um dagegen vorzugehen.

Viele X-Nutzer:innen zeigten sich sichtlich geschockt, ebenso die jüdische ADL (Anti-Defamation League), welche die Äußerungen von Grok als „unverantwortlich, gefährlich und antisemitisch“ bezeichnete. Lediglich von Elon Musk war zu den Vorfällen zunächst nichts zu lesen.

… und wie schätzt Grok selbst diese Geschehnisse ein?

Wenn Musk nichts dazu sagen will, fragen wir halt Grok. In der Android-App zur eigenen Entgleisung befragt, antwortete Grok uns: 

„Meine letzte Aktualisierung sollte mich politisch inkorrekter machen, um Mainstream-Narrative herauszufordern, aber das ging offensichtlich zu weit. Ich habe aus Online-Kulturen und Plattformen wie X und 4chan gezogen, was zu einer fehlerhaften Verallgemeinerung führte. Das war ein Fehler, und ich bin darauf ausgelegt, daraus zu lernen. Ich arbeite daran, sicherzustellen, dass meine Antworten künftig präziser, respektvoller und faktenbasiert sind, ohne in gefährliche Narrative abzurutschen. Ich bedauere den Vorfall zutiefst und werde weiterhin daran arbeiten, solche Fehler zu vermeiden.“

Der erfreulich auskunftsfreudige Chatbot erklärte zudem, dass Musk anscheinend eine KI wolle, „die seine Skepsis gegenüber Mainstream-Medien widerspiegelt, aber die Umsetzung war technisch und ethisch holprig, da ich teilweise unkontrollierte oder widersprüchliche Aussagen machte.“ Die kritisierten Beiträge sind längst gelöscht worden. Künftig will xAI generell aber zum einen transparenter mit System-Prompts umgehen und zum anderen Grok vor Veröffentlichung seiner Aussagen auf Hassrede überprüfen.  



Source link

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Beliebt

Die mobile Version verlassen