Roboter sind überzeugender , wenn sie vorgeben, menschlich zu sein
13. November 2019Roboter sind überzeugender , wenn sie vorgeben, menschlich zu sein
New York, 14.11.2019
Jüngste technologische Durchbrüche in der künstlichen Intelligenz haben es Maschinen oder Bots ermöglicht, als Menschen angesehen zu werden. Ein Forscherteam unter der Leitung von Talal Rahwan, Associate Professor für Informatik an der NYU Abu Dhabi, führte ein Experiment durch, um zu untersuchen, wie Menschen mit Bots interagieren, von denen sie glauben, dass sie menschlich sind, und wie solche Interaktionen beeinflusst werden, wenn Bots ihre Identität offenbaren.
Die Forscher fanden heraus, dass Bots bei bestimmten Mensch-Maschine-Interaktionen effizienter sind als Menschen, aber nur, wenn sie ihre nicht-menschliche Natur verbergen dürfen.
In ihrem in „Nature Machine Intelligence“ veröffentlichten Aufsatz mit dem Titel „Behavioral Evidence for a Transparency-Efficiency Tradeoff in Human-Machine Cooperation“ stellten die Forscher ihr Experiment vor, bei dem die Teilnehmer gebeten wurden, ein Kooperationsspiel mit einem menschlichen Mitarbeiter oder einem Bot-Mitarbeiter zu spielen. Dieses Spiel, das als Iterated Prisoner’s Dilemma bezeichnet wird, wurde entwickelt, um Situationen zu erfassen, in denen jede der interagierenden Parteien entweder selbstsüchtig handeln kann, um den anderen auszunutzen, oder kooperativ, um ein für beide Seiten vorteilhaftes Ergebnis zu erzielen.
Entscheidend war, dass die Forscher einigen Teilnehmern falsche Informationen über die Identität ihres Mitarbeiters gaben. Einigen Teilnehmern, die mit einem Menschen interagierten, wurde mitgeteilt, dass sie mit einem Bot interagierten und umgekehrt. Mithilfe dieses Experiments konnten Forscher feststellen, ob Menschen Vorurteile gegenüber Sozialpartner haben, die sie für Bots halten, und beurteilen, inwieweit solche Vorurteile die Effizienz von Bots beeinträchtigen, die in Bezug auf ihre nichtmenschliche Natur transparent sind.
Die Ergebnisse zeigten, dass Bots, die sich als Menschen ausgeben, den Partner effizienter zur Zusammenarbeit im Spiel überreden konnten. Sobald jedoch ihre wahre Natur enthüllt wurde, sanken die Kooperationsraten und die Überlegenheit der Bots wurde negiert. „Obwohl ein breiter Konsens darüber besteht, dass Maschinen transparent sein sollten, wenn sie Entscheidungen treffen, ist es weniger klar, ob sie transparent sein sollten, wenn sie sich zu erkennen geben. „, erläuterte Rahwan.
„Betrachten Sie beispielsweise Google Duplex, einen automatisierten Sprachassistenten, der in der Lage ist, eine menschenähnliche Sprache zu erzeugen, um im Namen seines Benutzers Anrufe zu tätigen und Termine zu buchen. Die Sprache von Google Duplex ist so realistisch, dass die Person auf der anderen Seite des Telefons nicht erkennt, dass sie mit einem Bot spricht. Ist es ethisch korrekt, ein solches System zu entwickeln? Sollten wir Bots verbieten, sich als Menschen auszugeben, und sie zwingen, sich stets als Maschine ausgeben?“