Direkt zum Inhalt
Automation 13. März 2017

Roboter-Kollaboration aus der Ferne gesteuert

Forscher des Deutschen Forschungszentrums für Künstliche Intelligenz werden auf der Cebit neue, ortsübergreifende Formen der Mensch-Roboter-Kollaboration vorstellen. Mit Hilfe von Mixed Reality- und Virtual Reality-Technologien lösen Mitarbeiter an einem Ort zusammen mit Robotern und Kollegen an einem anderen Ort gemeinsam und flexibel die Aufgabe, Güter sicher zu handhaben.
Der Operator steuert die Abläufe in einer Mixed-Reality Umgebung mit Gesten. Die Roboter führen die Befehle aus und greifen und bewegen die Objekte.
Der Operator steuert die Abläufe in einer Mixed-Reality Umgebung mit Gesten. Die Roboter führen die Befehle aus und greifen und bewegen die Objekte.

Forscher des Deutschen Forschungszentrums für Künstliche Intelligenz werden auf der Cebit neue, ortsübergreifende Formen der Mensch-Roboter-Kollaboration vorstellen. Mit Hilfe von Mixed Reality- und Virtual Reality-Technologien lösen Mitarbeiter an einem Ort zusammen mit Robotern und Kollegen an einem anderen Ort gemeinsam und flexibel die Aufgabe, Güter sicher zu handhaben.

Besucherinnen und Besucher können auf der Cebit erleben, wie Handlungen eines Menschen an einem Ort zu einer direkten robotischen Aktion an anderer Stelle führen. Ergänzt wird die Präsentation des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) durch Displays, auf denen die Mixed Reality-Egoperspektive des Hololens-Trägers dargestellt wird.

Gezeigt wird wie drei baugleiche Roboter auf dem DFKI-Stand durch einen Operator auf einer Exponatsinsel auf dem benachbarten BMBF-Stand über eine Hololens-Brille telemanipuliert werden. Ergänzt wird die Präsentation durch die Telemanipulation von zwei Robotern via Live-Schaltung in das MRK4.0-Innovationslabor des DFKI am Standort Saarbrücken.

Mit Hilfe des Mixed-Reality-Systems ist es möglich, Objekte in einer dreidimensionalen virtuellen Repräsentation des Kollaborationsszenarios in Echtzeit zu manipulieren. Der Benutzer kann dabei mit dem Roboter interagieren, indem er auf die virtuelle Repräsentation des Zielobjekts blickt und durch eine Geste die gewünschte Aktion auslöst.

Zusätzlich demonstriert wird die Telemanipulation in der unmittelbaren Umgebung. Auf der Exponatsinsel am BMBF-Stand werden drei Roboter zusammen mit dem Operator gemeinsam Aktionen ausführen. Der Operator steuert die Abläufe in einer Mixed-Reality Umgebung (Hololens) mit Gesten. Die Roboter führen die Befehle aus, greifen und bewegen Objekte auf einem Tisch bzw. einer Ablage, die auf dem Mobilitätsroboter montiert ist. Das Objekt wird so sicher zwischen den Leichtbaurobotern transportiert. Ziel ist die Einübung des fehlerfreien Handlings der Roboter in der Remote-"Gefahrgut"-Situation.

Ad

gk

Passend zu diesem Artikel