Draw Your Task: Roboterprogrammierung durch Vorzeigen
Ziel des Projekts ist die Entwicklung eines Prototyps für die einfache, intuitive und schnelle Programmierung oder Umprogrammierung von Robotern mittels manuellen Vorzeigens sowie die Evaluation des Potenzials für die Schweizer Industrie.
Steckbrief
- Lead-Departement Technik und Informatik
- Institut(e) Institute for Human Centered Engineering (HuCE)
- Forschungseinheit(en) HuCE / Labor für Computerwahrnehmung und virtuelle Realität
- Förderorganisation Andere
- Laufzeit (geplant) 01.08.2021 - 31.01.2022
- Projektverantwortung Prof. Dr. Sarah Dégallier Rochat
- Projektleitung Prof. Dr. Sarah Dégallier Rochat
-
Projektmitarbeitende
Sylvain Barthe
Marino von Wattenwyl
Christian Wyss
Charly Charles Eric Blanc
Lucas Manuel Renfer - Partner microtech booster
- Schlüsselwörter HMI, greifbare Programmierung, No-Code-Programmierung, Lernen durch Vorzeigen, Augmented Reality, kollaborativer Roboter
Ausgangslage
Bestimmte manuelle Tätigkeiten sind besonders schwer zu automatisieren, da sie ein hohes Mass an Geschicklichkeit und Aufgabenwissen erfordern, das sich oft nur schwer mit mathematischen Mitteln in Roboterbewegungen umwandeln lässt. Besonders problematisch ist das bei Anwendungen mit grosser Vielfalt und kleiner Stückzahl, da eine Automatisierung dafür aufgrund des hohen Programmieraufwands nicht rentabel umsetzbar ist. Der neue Ansatz der «greifbaren Programmierung» soll den Prozess der Roboterprogrammierung vereinfachen, indem er die Definierung der Bewegungsabläufe durch manuelles Vorzeigen im Arbeitsbereich ermöglicht. Zu diesem Zweck werden die Bewegungen mit einem Handgerät dreidimensional erfasst und die daraus resultierenden Wege mit Hilfe von Augmented Reality dargestellt.
Vorgehen
Im Rahmen dieses Projekts soll ein System entwickelt werden, das die Programmierung eines Roboters oder einer Maschine durch die direkte Interaktion im und mit dem Arbeitsbereich ermöglicht (greifbare Programmierung). Im Detail kann ein Bewegungsablauf durch einfaches «Zeichnen» auf der Arbeitsfläche und durch eine direkte Interaktion mit den Objekten definiert werden. Ziel ist es, ein System zu entwickeln, das mit jeder vorhandenen Maschine verbunden werden kann. Das Equipment besteht aus einem Handgerät mit dreidimensionaler Bewegungserfassung, einem Augmented-Reality-System (z. B. einer Brille) und einem Tablet. Damit können die Bewegungen durch einfaches Vorzeigen programmiert werden und müssen nicht erst in einen Programmiercode übersetzt werden, was Zeit spart und den Prozess vereinfacht. Typische industrielle Anwendungen sind schweissen, kleben, schneiden, schrauben, gravieren, prüfen oder palettieren.
Ergebnisse
Für ein besseres Verständnis der Machbarkeit, des Nutzens und der Rentabilität der vorgeschlagenen Lösung wurde ein Prototyp entwickelt. Dafür wurden drei verschiedene Erfassungsgeräte getestet. Aufgrund der hohen Anforderungen bezüglich Präzision wurde schliesslich eine Lösung auf Basis des Trackingsystems von Attracsys gewählt. Der gezeichnete Bewegungsablauf kann mit Hilfe von Augmented Reality auf zwei verschiedenen Gerätetypen visualisiert und bearbeitet werden: einem Android-Tablet und der HoloLens-Brille. Die Bewegung kann dann mit einem virtuellen Roboter (FANUC CRX10iA oder UR5) ausgeführt werden. Die Ausführung mit einem realen Roboter ist in Arbeit.
Ausblick
Im Lauf des Projekts fanden drei Design-Thinking-Sessions statt, um die Relevanz des Ansatzes für die Industrie zu diskutieren und die vielversprechendsten Anwendungen zu eruieren. Es wurden mehrere Anwendungsfälle definiert, so etwa das Löten oder Kleben komplexer Oberflächen, die Bestückung von Uhren oder auch einfach Nähen oder präzises Positionieren. Es sind verschiedene Folgeprojekte geplant, um die vorgeschlagene Lösung weiterzuentwickeln.