Apps & Mobile Entwicklung
Immer öfter entscheidet ChatGPT mit, wer seinen Job verliert
Immer mehr Menschen sorgen sich darum, dass sie einmal ihren Job an eine künstliche Intelligenz oder an einen Roboter verlieren. Die bittere Wahrheit lautet: Sie ersetzt nicht nur oft menschliche Arbeit – sondern entscheidet sogar immer häufiger selbst darüber, wen es trifft!
Eine Umfrage aus den USA lässt derzeit aufhorchen. Über 1.300 HR-Manager (Human Ressources) wurden von ResumeBuilder (eine App/Plattform für Jobsuchende) nach ihrem Einsatz von KI bei der Arbeit befragt. Der Trend dürfte vielen Arbeitnehmer:innen nicht besonders gefallen: Immer häufiger spielen Chatbots wie ChatGPT eine Rolle bei den zu treffenden Personalentscheidungen.
Hört zum Thema auch gerne in unseren Podcast rein:
Daumen hoch oder runter? so entscheidet ChatGPT über Euren Job
Tatsächlich erklärten 78 Prozent der Befragten, dass sie mithilfe von LLMs (Large Language Models) entscheiden, ob jemand für eine Lohnerhöhung infrage kommt. Ähnlich hoch – 77 Prozent – ist der Anteil derer, die mit der Hilfe von ChatGPT, Claude oder Gemini festlegen, wem eine Beförderung zusteht.
Immerhin noch 66 Prozent holen sich bei künstlicher Intelligenz einen Rat, wenn es um Kündigungen geht. Fast ebenso viele befragen ChatGPT und Co. dazu, wie genau sie am besten bei diesen Entlassungen vorgehen sollten. Das bedeutet, dass KI nicht nur eine Rolle spielt bei der Entscheidung an sich, sondern auch die Formulierung mitgestaltet.
Spätestens da stellen sich auch ethische Fragen. Das gilt aber erst recht für einen weiteren Wert: Jeder Fünfte der Befragten erklärt nämlich, dass ChatGPT sogar die letzte Entscheidung trifft, ob jemand fliegt oder nicht!
KI entscheidet – gute oder schlechte Idee?
Die Umfrage verrät, dass etwa die Hälfte der Personalentscheider auf ChatGPT setzt, deutlich dahinter folgen dann der Microsoft Copilot und Google Gemini. All diesen Plattformen ist gemein, dass sie keine persönlichen Präferenzen haben bei den Personalentscheidungen. Das klingt zunächst erst einmal positiv: Schließlich gibt es dann keine Nachteile, weil einer Führungskraft die Nase des Angestellten nicht passt – und keine unverdiente Beförderung, weil der Profiteur mit dem Chef verwandt ist.
Also ja: Theoretisch könnte eine Entscheidung mit KI-Hilfe fairer sein – solange Datenbasis und Regeln fair sind, und alles transparent kommuniziert wird. Eine Vorauswahl der entsprechenden Kandidat:innen könnte effizienter und objektiver erfolgen.
Was gegen die KI-Hilfe spricht
Allerdings müssen wir uns ethische Fragen stellen und auch die Objektivität anzweifeln. Wer ChatGPT regelmäßig nutzt, wird festgestellt haben, dass das LLM uns gerne nach dem Mund redet. Oft werden also unsere persönlichen Eindrücke von der KI verstärkt und gestützt. Zudem müssen wir einen Bias einkalkulieren, der sich aus dem Training und den verwendeten Prompts ergeben kann.
Vor allem fehlt einer KI aber auch der Kontext: Wie hat sich eine Person über die Jahre entwickelt, welche Rolle spielt sie im Team, und wie gut/schlecht passt es zwischenmenschlich? Dinge, die bei der Datenbasis möglicherweise unterrepräsentiert sind. Möglicherweise trägt eine KI-Entscheidung auch dazu bei, dass sich ein Unternehmen aus der Verantwortung stehlen kann bei menschlich harten Situationen. In Kombination mit dem Gefühl, dass die Belegschaft so auf eine Art entmenschlicht und austauschbar wird, dürfte das dramatische Auswirkungen auf das Betriebsklima haben.
KI als Zünglein an der Waage? Erstmal noch nicht!
Der Trend wird sich vermutlich nicht aufhalten lassen, muss derzeit aber noch mit viel Skepsis beobachtet werden. Auch im Bereich Human Ressources kann KI heute schon wertvolle Unterstützung bieten – aber Stand jetzt ist es alles andere als eine gute Idee, ChatGPT bereits die letzte Entscheidung zu überlassen.
Wir leben in Zeiten, in denen KI (noch nicht) in großen Mengen unsere Jobs frisst. Allerdings wird sie auch heute schon als Ausrede für Entlassungen vorgeschoben. Es steht zu befürchten, dass die Hemmschwelle bei derartigen Kündigungen weiter sinkt, wenn man die Schuld nun auch der KI in die Schuhe schieben kann.