So kann der Roboter vom Menschen lernen

Back to Beiträge

Mit Gehirndaten vom Menschen lernen: Das DFKI forscht im Rahmen des Projekts „Expect“ an einer adaptiven, selbstlernenden Plattform für die Robotik.

Ein Roboter, der vom Menschen lernt und kontextsensitiv interagiert? Früher noch Sci-Fi, heute schon möglich. Genau daran forscht man gerade am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Das DFKI gehört zu den Pionieren, wenn es darum geht, EEG-Daten mobil und multimodal für das Interagieren mit robotischen Systemen zu nutzen. Sogenannte Brain-Machine-Interfaces messen die Signale des Gehirns und leiten daraus Steuerbefehle für Computer, Maschinen oder Roboter ab. Im Forschungsprojekt Expect (Exploring the Potential of Pervasive Embedded Brain Reading in Human Robot Collaborations) untersucht man nun, wie stark das EEG zu einer flexiblen kontextsensitiven Mensch-Maschine-Interaktion beiträgt.

Hin zu einer adaptiven, selbstlernenden Plattform

Im neu gestarteten Projekt entwickeln das Robotics Innovation Center und der Bereich Kognitive Assistenzsysteme eine adaptive, selbstlernende Plattform. Sie soll in Zukunft verschiedenste Arten der aktiven Interaktion ermöglichen und in der Lage sein, aus Gestik, Sprache, Augenbewegungen und aus der Gehirnaktivität die Intention des Menschen abzuleiten. Kick-off des Projekts war am 20. Juli 2020 als virtuelle Veranstaltung.

DFKI-CEO Prof. Dr. Antonio Krüger, Leiter Forschungsbereich Kognitive Assistenzsysteme und Projektleiter: „In Expect bündelt das DFKI Kompetenzen und Expertise aus den Bereichen Kognitive Assistenzsysteme und Robotik an den Standorten Saarbrücken und Bremen. Damit schaffen wir einen Grundpfeiler für weitere anwendungsorientierte Projekte auf der Basis von Forschungsarbeiten zur Einbindung von EEG-Daten in hybriden Brain-Computer-Interfaces.“

„In der Zukunft werden KI-Systeme den Menschen nicht nur in eingeschränkten Bereichen unterstützen. Sie werden vielmehr wie persönliche Assistenten agieren“, ist Dr. Elsa Kirchner, Projektleiterin für den Forschungsbereich Robotics Innovation Center überzeugt. „Um dieser Aufgabe gerecht zu werden, ist es zwingend notwendig, dass sie den Menschen verstehen, seine Intentionen ableiten und kontextsensitiv unterstützen. Gehirndaten eröffnen die Möglichkeit, dem Roboter einen besseren direkten Einblick in die Intentionen des Menschen zu gewähren. Ein wichtiges Anwendungsgebiet ist z.B. die Rehabilitation nach Schlaganfall“.

Wenn Roboter vom Menschen lernen

Im Rahmen des Projekts Expect forscht das DFKI an Systemen, die dem Menschen wie persönliche Assistenten zur Verfügung stehen, etwa bei der Teleoperation. Foto: DFKI

In der Mensch-Roboter-Kollaboration (MRK) gehört das natürliche Interagieren noch immer zu den herausforderndsten Bereichen. Im Bereich der Mensch-Computer-Interaktion (MCI) beschreibt das Wort „natürlich“ dabei nicht die Schnittstelle zur Interaktion selbst, sondern vielmehr den Prozess des Nutzers, die verschiedenen Interaktionsprinzipien der Schnittstelle zu erlernen. Dieser Lernprozess sollte dabei für den Nutzer so einfach wie möglich erfolgen, basierend auf bekannten (natürlichen) Interaktionsprinzipien, wie Sprachbefehlen, Gesten und ähnliches.

Diese Art des Interagierens ist im Bereich der Mensch-Roboter-Kollaboration von großer Bedeutung. Sie ermöglicht es, die Zusammenarbeit so effizient wie möglich zu gestalten und trägt dazu bei, Berührungsängste und generelles Misstrauen des menschlichen Kollaborationspartners gegenüber Robotersystemen im Arbeitsalltag abzubauen. Damit hat Expect einen direkten positiven Einfluss auf die verstärkt auftretende Kollaboration von Mensch und Roboter in der Arbeitswelt.

Multimodale Konzepte erleichtern das Interagieren

Damit das gelingt, werden im Forschungsprojekt Methoden zur automatisierten Kennzeichnung und gemeinsamen Auswertung der multimodalen Daten des Menschen entwickelt und in Testszenarien evaluiert. Mit den systematischen Experimenten gehen die Forscher auch der Frage nach, wie grundlegend bedeutsam Gehirndaten zur Intentionsvorhersage beim Menschen sind.

„Im Projekt Expect untersuchen wir, inwieweit wir in der Gehirnaktivität Korrelationen zwischen unterschiedlichen Modalitäten finden können und damit die Mensch-Roboter-Interaktion intuitiver und natürlicher gestalten können. Zum einen möchten wir rein Brain-Computer-Interface-basierte Interaktionskonzepte gestalten, zum anderen aber auch multimodale Konzepte, um in jeder Situation die bestmögliche Interaktionsmöglichkeit bereitstellen zu können“, sagt Maurice Rekrut, Projektleiter für den Forschungsbereich Kognitive Assistenzsysteme.

Das Projekt wird vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des Programms IKT-Forschung unter dem Förderkennzeichen 01IW20003 mit einem Volumen von 1,6 Mio. EUR gefördert - über eine Laufzeit von vier Jahren.

db

Share this post

Back to Beiträge