Pepper hat visuelle Verständnisfähigkeiten

Pepper hat visuelle Verständnisfähigkeiten

11. April 2019 0 Von Horst Buchwald

11.4.2019

Er heißt Pepper und kann nonverbale Hinweise verstehen. Doch dann ist noch nicht Schluss, denn er ist auch in der Lage, mit Menschen nonverbal – also durch Körpergesten, Gesichtsausdrücke und Körperhaltung – zu interagieren. Pepper „lebt“ im Intelligent Systems Lab am Rensselaer Polytechnic Institute in Troy, New York.

Diese erstaunlichen Fähigkeiten Pepper‘s sind das Ergebnis der verbesserten „Vision“, die die Forscher des Labors entwickeln. Mit fortschrittlichem Computer-Vision und künstlicher Intelligenz-Technologie verbessert das Team die Fähigkeit von Robotern wie diesem, auf natürliche Weise mit Menschen zu interagieren.

„Was wir bisher getan haben, ist, dem Roboter visuelle Verständnisfähigkeiten hinzuzufügen, damit er menschliche Handlungen wahrnehmen und mit dem Menschen durch diese nonverbalen Verhaltensweisen natürlich interagieren kann“, erklärte Qiang Ji, Professor für Elektro-, Computer- und Systemtechnik und Direktor des Intelligent Systems Lab.

Mit Unterstützung staatlicher Fördermittel haben die Forscher von Rensselaer im Laufe der Jahre das menschliche Gesicht und den menschlichen Körper so kartiert, dass Computer mit Hilfe von in die Roboter eingebauten Kameras und maschinellen Lerntechnologien nonverbale Hinweise wahrnehmen und menschliche Handlungen und Emotionen identifizieren können.

Pepper hat außer den bereits genannten noch weitere Fähigkeiten: er kann zählen, wie viele Personen sich in einem Raum befinden, einen Bereich scannen, um nach einer bestimmten Person zu suchen, das Alter einer Person schätzen, Gesichtsausdrücke erkennen und während einer Interaktion Augenkontakt halten.

Ein weiterer Roboter namens Zeno sieht eher wie eine Person aus. Hinter der Gesichtsoberfläche sind Micro- Motoren installiert, die ihn in die Lage versetzen, den menschlichen Ausdruck zu beinahe 100 % und in Echtzeit wiederzuspiegeln und zwar bis hin zur Bewegung der Augenbrauen und sogar des Augapfels.

Ji sieht die Computervision als den nächsten Schritt bei der Entwicklung von Technologien, mit denen Menschen täglich zu Hause interagieren. Derzeit verlassen sich die meisten populären KI-fähigen virtuellen Assistenten fast ausschließlich auf stimmliche Interaktionen.

Das Team arbeitet an weiteren visionszentrierten Entwicklungen, wie z.B. an Technologien, die in der Lage sind, Augenbewegungen zu verfolgen.

Ji sagte, dass die Forschung, die in seinem Labor durchgeführt wird, derzeit von der National Science Foundation und der Defense Advanced Research Projects Agency unterstützt wird. Darüber hinaus hat das Intelligent Systems Lab im Laufe der Jahre Mittel aus öffentlichen und privaten Quellen erhalten, darunter das U.S. Department of Defense, das U.S. Department of Transportation und Honda.

„Wir werden diese Technologie nutzen können, um zu erkennen, ob ein Autofahrer müde oder ob er abgelenkt ist“, sagte er. „Die Forschung, die wir betreiben, ist eine menschlich orientierte KI. Wir wollen die KI, die Technologie des maschinellen Lernens, entwickeln, um nicht nur die physischen, sondern auch die kognitiven Fähigkeiten des Menschen zu erweitern.“

Da kommen Pepper und Zeno ins Spiel. Ji stellt sich eine Zeit vor, in der Roboter den Menschen Gesellschaft leisten und ihr Leben verbessern können. Er sagte, das sei das ultimative Ziel. Er zeigt auf Pepper und betont: „Dieser Roboter könnte in Zukunft ein Begleiter für den Menschen sein“, denn er „ könnte auf Menschen hören, menschliche Emotionen verstehen und durch verbales und nonverbales Verhalten reagieren, um den Bedürfnissen der Menschen gerecht zu werden.“