Künstliche Intelligenz

KI mit Schuldgefühlen kooperativer machen?


Schuld und Scham erweisen sich in Gesellschaften als wirksames Mittel, um dafür zu sorgen, dass Individuen Teamplayer bleiben. Diese emotionalen Fähigkeiten lassen Menschen Handlungen bereuen und machen sie kooperativer. In einer im Journal of the Royal Society Interface veröffentlichten Studie haben Forschende jetzt getestet, ob sich derselbe Ansatz auch auf Künstliche Intelligenz (KI) übertragen ließe. Dabei haben sie festgestellt, dass dies unter den richtigen Umständen möglich sein könnte.

KI wird zunehmend leistungsfähiger – gleichzeitig ist deren Verwendung aus dem Leben vieler Menschen nicht mehr wegzudenken. Eine Kernherausforderung liegt dabei darin, KI-Systeme dazu zu bringen, sich gemäß menschlicher Präferenzen und ethischer Normen zu verhalten. Dass sich auch Menschen untereinander nicht unbedingt einig über diese Dinge sind, macht es nicht leichter.

Es gibt bereits erste Forschungsgruppen, die sich der Maschinen-Psychologie widmen und die Fähigkeiten und das Verhalten von Algorithmen untersuchen. Jetzt deuten neue Ergebnisse aus der Spieltheorie darauf hin, dass Modelle kooperativer werden, wenn man ihnen Schuldgefühle vermittelt.

Die Tests wurden mit einfachen Software-Agenten (ohne KI) durchgeführt, die eine Version eines klassischen spieltheoretischen Tests namens „Gefangenendilemma“ spielen mussten: ein Szenario, in dem Zusammenarbeit für alle Beteiligten den größten Vorteil bringt, während individuelles „Verraten“ kurzfristig lohnender erscheint.

In jeder Runde müssen die Spieler entscheiden, ob sie zusammenarbeiten oder den anderen verraten. Kooperieren beide, bekommen sie jeweils eine Belohnung. Entscheiden sich jedoch beide dagegen, also handeln egoistisch, erhalten sie beide eine Strafe. Wenn aber nur einer kooperiert und der andere egoistisch handelt, profitiert Letzterer besonders stark. Der kooperative Spieler erhält hingegen die größte Strafe.

Außerdem modellierten die Forschenden zwei Arten von Schuld: soziale und nicht-soziale Schuld. Im ersten Fall fühlten sich die Agenten dann schuldig, wenn sie wussten, dass sich ihr Gegner ebenfalls schuldig fühlen würde. Im zweiten Fall fühlten sie sich unabhängig vom Gegner schuldig.

Um den Agenten ein Schuldgefühl zu vermitteln, haben die Forschenden sie mit einem Zähler für unkooperative Handlungen ausgestattet. Überschritt der Zähler den definierten Schwellenwert, reagierten die Agenten, indem sie einen Teil ihrer Punkte aufgaben. Das führte letztlich wieder zu mehr Kooperation.

Während des Spiels sind Gruppen von Agenten mit leicht unterschiedlich programmierten Schuld-Strategien wiederholt gegeneinander angetreten. Das Ergebnis: Empfundene soziale Schuld erwies sich als besonders wirksam, um die Kooperation der Agenten zu fördern.

„Der Bau ethischer Maschinen könnte ihnen die emotionale Fähigkeit verleihen, sich selbst zu bewerten und ihre Handlungen zu bereuen“, schreiben die Autorinnen und Autoren des Papers. Wenn KI-Agenten also mit der Fähigkeit, Schuld zu fühlen, ausgestattet werden, könnten sie sich Fehlverhalten eingestehen und sogar Maßnahmen zur „Wiedergutmachung“ ergreifen – so zumindest wird das im Paper nahegelegt.

Es ist jedoch fraglich, inwiefern sich diese vereinfachten Simulationen mit Software-Agenten auf die deutlich komplexeren, auf großen Sprachmodellen basierenden KI-Agenten übertragen lassen. Demnach ist unklar, ob sich das Verhalten von KI-Systemen auf ähnliche Weise beeinflussen ließe. Dennoch liefern die Ergebnisse spannende Hinweise darauf, wie die Ausstattung von KI-Agenten mit Emotionen dazu beitragen könnte, ihre Entscheidungsfindung zu moderieren und zu lenken.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Beliebt

Die mobile Version verlassen