Categories: InnovationWorkspace

Roboter lernen Gesten und Gesichtsausdrücke verstehen

Forscher des Bristol Robotics Lab (BRL) der University of Bristol und der University of West England haben mit „Cooperative Human Robot Interaction Systems“ (Chris) ein Projekt gestartet, um Robotern neue Einsatzmöglichkeiten zu eröffnen. Dazu sollen die Maschinen lernen, Gesten, Blicke und andere Formen der menschlichen Rückmeldung zu interpretieren.

„Der wesentliche Aspekt des Projekts sind die Grundlagen der Anwendung mit menschlicher Interaktion“, erklärt BRL-Direktor Chris Melhuish. Ziel sei es, die kognitiven Fähigkeiten der Roboter zu verbessern.

Automatisierte, autonome Roboter haben sich den Wissenschaftlern zufolge in Produktionsanlagen bereits in der Praxis bewährt. Problematischer sei der Einsatz in Bereichen, die eine Interaktion und Zusammenarbeit mit Menschen erfordern, beispielsweise in der Küche oder im Pflegebereich, so Melhuish. „Ein Roboter, der stark genug ist, um nützlich zu sein, ist auch stark genug, um gefährlich zu sein.“

Daher wollen die Forscher im Rahmen des Chris-Projekts Robotern beibringen, ähnlich wie Menschen Gesichtsausdrücke, Körperhaltung, Gesten und Augenkontakte zu interpretieren. Zusammen mit einem Verständnis der Aufgabenstellung könne so gewährleistet werden, dass Roboter ihre Arbeit tun, ohne Menschen zu gefährden.

Als ein Beispiel nennt Melhuish das gemeinsame Kochen einer Suppe: „Der Roboter muss nicht nur das Ziel „Suppe machen“ verstehen, sondern auch, wie stark er umrühren soll.“ Es sei auch nötig, dass der Roboter den Ausdruck von Schmerz auf dem Gesicht des Menschen erkennt, falls dieser mit heißer Suppe bespritzt werde. Zudem müsse der Roboter die gehobene Hand als Zeichen interpretieren, dass etwas genug ist, beispielsweise wenn er durch ein einfaches Kommando aufgefordert wird, mit dem Rühren aufzuhören.

„Ziel des Projekts ist es, ausgereifte Regeln für Service-Roboter zu erreichen, die eng mit Menschen zusammenarbeiten“, erklärt Melhuis. Der Fokus werde dabei auf nichtsprachlicher Kommunikation liegen, doch rudimentäre Kommandos wie „Stopp“ oder „Hier“ würden ebenfalls berücksichtigt.

ZDNet.de Redaktion

Recent Posts

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

14 Stunden ago

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

1 Tag ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

1 Tag ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

1 Tag ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

2 Tagen ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

2 Tagen ago