Kann KI – Technologie menschliche Emotionen richtig interpretieren?

Kann KI – Technologie menschliche Emotionen richtig interpretieren?

16. Juni 2021 0 Von Horst Buchwald

Kann KI – Technologie menschliche Emotionen richtig interpretieren?

Berlin, 16.6.2021

Kein Zweifel: Gesichtserkennung durch den Einsatz von KI wird von immer mehr Menschen abgelehnt. Der Grund: Der angebliche Zweck ist nur Schein, das eigentliche Einsatzziel ein völlig anderes. Ein heiß diskutiertes Thema sind die menschlichen Emotionen. Schon von Mensch zu Mensch ist es häufig unmöglich bis schwierig, die Emotionen unserer Mitmenschen richtig zu interpretieren. Warum soll es eine Software dann besser machen? Schaut man hinter die Fassade, kommt man häufig ins Grübeln.

Hier sind einige Beispiele, die zum Nach – und Weiterdenken anregen sollen:

Drei italienische Kunstmuseen nutzen nun KI-gestützte Kamerasysteme, um die Mimik ihrer Besucher zu „lesen“ und zu bestimmen, welche Kunstwerke am beliebtesten sind. Kritiker weisen auf die Probleme mit dem Datenschutz und die nicht verifizierten und zweifelhaften Behauptungen hin, dass die KI-Technologie in der Lage ist, menschliche Emotionen zu interpretieren.

Die Gesichtserkennungstechnologie, die als an Wänden angebrachte Kameras zusammen mit einem Haftungsausschluss sichtbar ist, wird in Museen in Rom, Bologna und Parma eingesetzt.

Die Technologie ist angeblich in der Lage, fünf Gesichtsausdrücke zu lesen – glücklich, traurig, neutral, überrascht und wütend – sowie das Geschlecht, das Alter und die Augenbewegungen einer Person. Laut Riccardo Scipinotti, dem Mitentwickler der Technologie, sind die meisten der bisher interpretierten Gesichtsausdrücke neutral. Das System ist datenschutzfreundlich, denn es speichert keine der Bilder. Stattdessen werden nur Zahlen für die weitere Analyse ausgegeben.

Anfang des Jahres startete eine neue Website, Emojify, um die Aufmerksamkeit auf die Fehler der KI-Emotionserkennung zu lenken, die Algorithmen verwendet, um das Gesicht einer Person zu scannen und Emotionen zu „finden“. Kritiker argumentieren, dass dies ungenau, voreingenommen und begrenzt ist. Gesichtsausdrücke seien viel nuancierter, sagen sie. Eine Grimasse oder ein Lächeln könne zum Beispiel für verschiedene Menschen (und Kulturen) unterschiedliche Bedeutungen haben.

Dennoch wird es in China bereits eingesetzt, um das Verhalten in Schulen zu überwachen und Verdächtige zu verhören. Einige Unternehmen nutzen es auch zur Beurteilung von Bewerbern und lesen die Gesichter von Kunden, um deren Vorlieben und Abneigungen zu erkennen.