Tetris enthüllt, wie Menschen auf unfaire KI reagieren – ScienceDaily


Ein von der Cornell University durchgeführtes Experiment, bei dem zwei Personen eine modifizierte Version von Tetris spielten, ergab, dass Spieler, die weniger Züge bekamen, den anderen Spieler als weniger sympathisch empfanden, unabhängig davon, ob eine Person oder ein Algorithmus die Züge zugewiesen hatte.

Die meisten Studien zur algorithmischen Fairness konzentrieren sich auf den Algorithmus oder die Entscheidung selbst, die Forscher versuchten jedoch, die Beziehungen zwischen den von den Entscheidungen betroffenen Personen zu untersuchen.

„Wir beginnen, viele Situationen zu sehen, in denen KI Entscheidungen darüber trifft, wie Ressourcen unter Menschen verteilt werden sollen“, sagte Malte Jung, außerordentlicher Professor für Informationswissenschaft, dessen Gruppe die Studie durchgeführt hat. „Wir wollen verstehen, wie das die Art und Weise beeinflusst, wie Menschen einander wahrnehmen und sich zueinander verhalten. Wir sehen immer mehr Beweise dafür, dass Maschinen die Art und Weise, wie wir miteinander interagieren, durcheinander bringen.“

In einer früheren Studie wählte ein Roboter aus, welcher Person er einen Block geben wollte, und untersuchte die Reaktionen jedes Einzelnen auf die Zuweisungsentscheidungen der Maschine.

„Wir bemerkten, dass jedes Mal, wenn der Roboter eine Person zu bevorzugen schien, die andere verärgert war“, sagte Jung. „Wir wollten das weiter untersuchen, weil wir dachten, wie fühlt sich ein Mensch, wenn Maschinen, die Entscheidungen treffen, immer mehr Teil der Welt werden – sei es ein Roboter oder ein Algorithmus?“

Mithilfe von Open-Source-Software entwickelte Houston Claure – der Erstautor der Studie und Postdoktorand an der Yale University – eine Zwei-Spieler-Version von Tetris, bei der Spieler fallende geometrische Blöcke manipulieren, um sie zu stapeln, ohne Lücken zu hinterlassen, bevor sich die Blöcke stapeln an den oberen Bildschirmrand. Claures Version, Co-Tetris, ermöglicht es zwei Personen (einer nach der anderen), zusammenzuarbeiten, um jede Runde abzuschließen.

Ein „Zuteiler“ – entweder ein Mensch oder eine KI, der den Spielern übermittelt wurde – bestimmt, welcher Spieler welche Runde macht. Jung und Claure haben ihr Experiment so konzipiert, dass die Spieler entweder 90 % der Runden (die „mehr“-Bedingung), 10 % („weniger“) oder 50 % („gleich“) haben.

Die Forscher stellten vorhersehbar fest, dass diejenigen, die weniger Wendungen erhielten, sich sehr bewusst waren, dass ihr Partner deutlich mehr bekam. Sie waren jedoch überrascht, als sie feststellten, dass die Gefühle dabei weitgehend die gleichen waren, unabhängig davon, ob ein Mensch oder eine KI die Zuweisung vornahm.

Die Auswirkung dieser Entscheidungen bezeichnen die Forscher als „Maschinenallokationsverhalten“ – ähnlich dem etablierten Phänomen des „Ressourcenallokationsverhaltens“, dem beobachtbaren Verhalten, das Menschen aufgrund von Allokationsentscheidungen an den Tag legen. Jung sagte, dass das Maschinenzuweisungsverhalten „das Konzept ist, dass es dieses einzigartige Verhalten gibt, das daraus resultiert, dass eine Maschine eine Entscheidung darüber trifft, wie etwas zugewiesen wird.“

Die Forscher fanden auch heraus, dass Fairness nicht automatisch zu einem besseren Spielablauf und einer besseren Leistung führte. Tatsächlich führte eine gleiche Verteilung der Runden im Durchschnitt zu einem schlechteren Ergebnis als eine ungleiche Verteilung.

„Wenn ein starker Spieler die meisten Blöcke erhält“, sagte Claure, „wird das Team besser abschneiden. Und wenn eine Person 90 % erhält, wird sie irgendwann besser darin sein, als wenn zwei durchschnittliche Spieler die Blöcke aufteilen würden.“

Weitere Artikel