Was hilft den Menschen , mit künstlicher Intelligenz zurechtzukommen?
1. April 2020Was hilft den Menschen , mit künstlicher Intelligenz zurechtzukommen?
New York, 1.4.2020
Zu lernen, wie Menschen mit KI- Maschinen interagieren – und dieses Wissen zu nutzen, um das Vertrauen der Menschen in die KI zu verbessern kann uns helfen, in Harmonie mit der ständig wachsenden Zahl von Robotern, Chatrobotern und anderen intelligenten Maschinen in unserer Mitte zu leben, so ein Forscher der Penn State University.
In einem Beitrag, der in der aktuellen Ausgabe des Journal of Computer-Mediated Communication veröffentlicht wurde, hat S. Shyam Sundar, James P. Jimirro Professor für Medieneffekte am Donald P. Bellisario College of Communications und Co-Direktor des Media Effects Research Laboratory, einen Weg oder Rahmen zur Untersuchung der künstlichen Intelligenz vorgeschlagen, der Forschern helfen könnte, besser zu untersuchen, wie Menschen mit künstlicher Intelligenz oder Human-KI-Interaktion (HAII) interagieren.
„Dies ist ein Versuch, systematisch alle Möglichkeiten zu untersuchen, wie künstliche Intelligenz die Nutzer psychologisch beeinflussen könnte, insbesondere im Hinblick auf das Vertrauen“, sagte Sundar, der auch ein Mitglied des Penn State’s Institute for Computational and Data Sciences (ICDS) ist. „Hoffentlich gibt das in diesem Papier vorgestellte theoretische Modell den Forschern einen Rahmen sowie ein Vokabular für die Untersuchung der sozialpsychologischen Auswirkungen der KI an die Hand“.
Der Rahmen identifiziert zwei Wege – Hinweise und Aktionen -, auf die sich KI-Entwickler konzentrieren können, um Vertrauen zu gewinnen und die Benutzererfahrung zu verbessern. Unter Cues versteht er Signale, die eine Reihe von mentalen und emotionalen Reaktionen bei Menschen auslösen können.“Die Cue-Route basiert auf oberflächlichen Indikatoren dafür, wie die KI aussieht oder was sie anscheinend tut“, erklärte er.
So gibt sie mehrere Hinweise , die beeinflussen, ob die Benutzer der KI vertrauen. Diese Hinweise sind menschenähnliche Merkmale, wie z.B. ein menschliches Gesicht, das einige Roboter haben, oder eine menschenähnliche Stimme, die virtuelle Assistenten wie Siri und Alexa verwenden.
Andere Hinweise können subtiler sein, wie z.B. eine Erklärung wie das Gerät funktioniert, oder wie Netflix erklärt, warum es den Zuschauern einen bestimmten Film empfiehlt. Jeder dieser Hinweise könne verschiedene mentale Abkürzungen oder Heuristiken auslösen, so Sundar.
„Wenn eine KI für den Benutzer als Maschine und nicht als Mensch identifiziert wird, wie es bei modernen Chatbots oft der Fall ist, löst sie die ‚Maschinenheuristik‘ aus, oder eine mentale Abkürzung, die uns dazu bringt, automatisch alle Stereotypen, die wir über Maschinen haben, anzuwenden“, sagte Sundar. „Wir mögen denken, dass Maschinen genau und präzise sind, aber wir könnten uns Computer und Maschinen auch als kalt und unnachgiebig vorstellen“. Diese Stereotypen wiederum bestimmen, wie sehr wir dem KI-System vertrauen.
Sundar schlug vor, dass Autopilotsysteme in Flugzeugen ein Beispiel dafür sind, wie übermäßiges Vertrauen in die KI zu negativen Auswirkungen führen kann. Piloten können dem Autopilotsystem so implizit vertrauen, dass sie ihre Wachsamkeit lockern und nicht auf plötzliche Leistungsänderungen oder Fehlfunktionen des Flugzeugs vorbereitet sind, die ihr Eingreifen erfordern würden.
Es gebe auch Menschen mit einer Algorithmus-Aversion, so Sundar. Die Betroffenen seien durch ‚Deepfakes‘ getäuscht worden, oder sie bekamen die falsche Produktempfehlung von einer E-Commerce-Site oder fühlten sich durch das Schnüffeln der KI in ihren Einkäufen in ihrer Privatsphäre verletzt.
Sundar riet den Entwicklern, besonders auf die Hinweise zu achten, die sie den Benutzern möglicherweise anbieten. Die Beeinflussung der Benutzererfahrung nennt er den „Aktionsweg“.
„Beim Aktionsweg geht es wirklich um Zusammenarbeit“, sagte Sundar. „KIs sollten sich tatsächlich mit uns beschäftigen und mit uns zusammenarbeiten. Die meisten der neuen KI-Tools – die intelligenten Sprecher, Roboter und Chat-Bots – sind hochgradig interaktiv. In diesem Fall geht es nicht nur um sichtbare Hinweise darauf, wie sie aussehen und was sie sagen, sondern auch darum, wie sie mit Ihnen interagieren“.
„Wenn Ihr kluger Redner Ihnen zu viele Fragen stellt oder zu viel mit Ihnen interagiert, könnte auch das ein Problem sein“, sagte Sundar. „Die Leute wollen Zusammenarbeit. Aber sie wollen auch ihre Kosten minimieren. Wenn die KI Ihnen ständig Fragen stellt, dann ist der ganze Sinn der KI, nämlich die Bequemlichkeit, dahin“.
Sundar sagte, er erwarte, dass der Rahmen von Hinweisen und Aktionen die Forscher bei der Prüfung dieser beiden Wege zum Vertrauen in die KI leiten wird. Dies wird Beweise dafür liefern, wie Entwickler und Designer KI-gestützte Werkzeuge und Technologien für Menschen schaffen.
Die KI-Technologie entwickelt sich so schnell, dass viele Kritiker darauf drängen, bestimmte Anwendungen ganz zu verbieten. Sundar sagte, dass es ein notwendiger Schritt ist, Forschern die Zeit zu geben, gründlich zu untersuchen und zu verstehen, wie Menschen mit der Technologie interagieren, um der Gesellschaft zu helfen, die Vorteile der Geräte zu nutzen und gleichzeitig die möglichen negativen Auswirkungen zu minimieren.
„Wir werden Fehler machen“, sagte Sundar. „Von der Druckmaschine bis zum Internet haben die neuen Medientechnologien zu negativen Folgen geführt, aber sie haben auch zu viel mehr Vorteilen geführt. Es steht außer Frage, dass bestimmte Erscheinungsformen der KI uns frustrieren werden, aber irgendwann werden wir mit der KI koexistieren und sie in unser Leben bringen müssen“.