FH Bielefeld
University of
Applied Sciences
18.01.2023

DFG-Forschungsprojekt am Campus Minden: Wie können Roboter autonom, aber sicher im Raum agieren?

Ein Student schaut sich die 3D Karte eines Raumes auf einem Bildschirm an
Am Computer erstellte Umgebungskarten helfen Robotern bei der Orientierung im dreidimensionalen Raum. © S. Jonek/FH Bielefeld
Die wissenschaftlichen Mitarbeiter Malte Riechmann und André Kirsch besprechen sich mit Professor Matthias König zu einer 3D Karte eines Raumes
Prof. Dr. Matthias König, André Kirsch und Malte Riechmann erarbeiten interaktive Methoden, um Robotern Grenzen aufzuzeigen. © S. Jonek/FH Bielefeld
Malte Riechmann trägt eine AR Brille
Per AR-Brille lassen sich Drohen und andere Roboter steuern. © S. Jonek/FH Bielefeld

Wo Roboter und Menschen zusammenarbeiten, sollten sie sich nicht in die Quere kommen. Deshalb müssen Roboter Grenzen erkennen und einhalten. Und das nicht nur auf dem Boden, sondern auch im dreidimensionalen Raum: Ein DFG-Forschungsprojekt der FH Bielefeld am Campus Minden erarbeitet interaktive Methoden, damit auch Laien den Arbeitsbereich eines Roboters kinderleicht begrenzen können.

Minden (fhb). Industrieroboter schweißen Pkw-Karosserien zusammen. 3D-Bilder entstehen, indem Drohnen Veranstaltungshallen abfliegen. Autonome Staubsauger ziehen in den Kampf gegen Flusen und Staub, wenn niemand zu Hause ist. Das sind Anwendungen, die heute zwar schon zum Alltag gehören, aber sie sind immer noch ziemlich limitiert. Denn: Wenn sich Roboter und Mensch in die Quere kommen, kann es schlimmstenfalls zu Verletzungen kommen. Oder es entstehen ärgerliche und manchmal teure Schäden, weil der Roboter seine „No-go area“ nicht ganz genau kennt. Und so agieren die Schweißroboter in der Industrie stets hinter Gittern, strikt getrennt von ihrer menschlichen Kollegenschaft. Drohnen dürfen nur in abgesperrten Bereichen von geschulten Piloten geflogen werden. Und der autonome Staubsauger stößt ziemlich schnell an seine Grenzen, wenn ein Gegenstand in seine Bahn ragt.

Einfache Techniken entwickeln, um Roboterarbeitsbereiche zu begrenzen

„Unser Ansatz wurde als äußerst vielversprechend bewertet, weil wir bereits unter Beweis gestellt haben, dass wir nachhaltige Fortschritte für eine bessere Mensch-Technik-Interaktion erzielen können.“

Prof. Dr. Matthias König

Wie Zusammenarbeit und Kommunikation zwischen Menschen und Robotern sicherer und einfacher zugleich gestaltet werden kann, damit beschäftigt sich ein Forschungsteam am Campus Minden der Fachhochschule (FH) Bielefeld. Der Name des Projekts ist etwas sperrig: „Augmented-Reality-Interaktion zur dreidimensionalen Roboter-Arbeitsbereich-Beschränkung unter Berücksichtigung semantischer Informationen“. Dahinter steckt aber eine einfache Idee von Prof. Dr. Dr.-Ing. Matthias König und seinen wissenschaftlichen Mitarbeitern Malte Riechmann und André Kirsch, die im Zuge dessen auch gleich ihre Doktorarbeiten am Promotionskolleg NRW schreiben: Gemeinsam will das Trio Techniken entwickeln, die es jeder Nutzerin und jedem Nutzer auf einfache Weise erlauben, den Aktionsbereich eines Roboters im dreidimensionalen Raum zu begrenzen.

Das Vorhaben ließ die Deutsche Forschungsgemeinschaft (DFG) aufhorchen, und sie förderte das Projekt für drei Jahre. „Es ist eine Seltenheit, dass die DFG ein Forschungsprojekt der FH Bielefeld fördert“, stellt König fest. „Normalerweise steht die Grundlagenforschung von Universitäten im Fokus der DFG. Aber unser Ansatz wurde als äußerst vielversprechend bewertet, weil wir bereits unter Beweis gestellt haben, dass wir nachhaltige Fortschritte für eine bessere Mensch-Technik-Interaktion erzielen können.“

Ziel des Projekts: Steigerung von 2D- auf 3D-Begrenzung

Tatsächlich beschäftigte sich das Team des Informatikprofessors bereits in der Vergangenheit mit der Eingrenzung des Bereiches, in dem ein Roboter arbeiten soll: Erarbeitet wurde eine Technik, im Zuge derer ein Laser-Pointer eine Linie so auf eine Fläche im Raum zeichnet, dass diese in die Umgebungskarte eines Roboters übertragen wird und der Roboter folglich „weiß“, welche Grenzen er nicht überfahren darf. Auf diese Weise können nun zum Beispiel Flächen einer Wohnung markiert werden, die einen Roboterstaubsauger aussparen sollte – zum Beispiel ein aus Spielzeugfiguren aufgebauter Zoo, der über die Weihnachtstage unbedingt noch stehenbleiben soll.

Dieses Konzept hat die Forschungsgruppe bereits 2020 zum Patent angemeldet. Mit dem aktuellen Vorhaben wollen die Wissenschaftler jedoch noch einen Schritt weitergehen: „Wir waren top, was die 2D-Begrenzung angeht, also wollen wir unsere bisherige Arbeit um eine weitere Dimension ergänzen“, so König. „Roboter sollen die Grenzlinien künftig nicht mehr nur auf dem Boden, sondern auch im dreidimensionalen Raum erkennen können.“ Das Team testet dafür nun verschiedene Interaktionsmöglichkeiten. Danach wollen die Wissenschaftler die Lösungen, die technologisch am vielversprechendsten sind, evaluieren, indem sie verschiedene Nutzergruppen alles ausprobieren lassen.

Kinderleicht anzuwendende Begrenzung durch Joysticks oder Gesten

Die Grenzen des Arbeitsbereichs eines Roboters könnten zum Beispiel vom User spontan per „Pen Mouse“ in ein Kamerabild gezeichnet werden, das wiederum mit der dreidimensionalen Karte eines Roboters korrespondiert. Dann könnten die Roboter mit ihrer zuvor erstellten Karte die Grenze erkennen und akzeptieren. Doch es gibt noch weitere Möglichkeiten: Bewährt, wenngleich nicht für alle Anwendungen denkbar, hat sich zum Beispiel das Prinzip „Durchführen und Lernen“: Wie Schulkinder, die den Schulweg erst einmal in Begleitung eines Erwachsenen ablaufen, kann eine Route auch mit einem Roboter zunächst gemeinsam abgefahren werden. Danach speichert der Roboter den Weg und kann die Bewegung allein vollziehen.

Malte Riechmann trägt eine Augmented Reality Brille und zeigt wie Roboter mit Gestik gesteuert werden können
Doktorand Malte Riechmann demonstriert, wie Gesten einen Roboter aufhalten könnten.

Das Team sucht aber nach noch einfacheren, noch anwendungsfreundlicheren Lösungen. Dazu gehört zum Beispiel die „Programmierung“ eines dreidimensionalen Roboterarbeitsbereichs via Augmented-Reality-Brille und Tablet – Tools, die es in immer mehr Haushalten gibt und deren Bedienung jungen Leuten keine Schwierigkeit bereiten. Gestenerkennung ist ein weiteres Feld, mit dem sich die Forscher befassen: Mit Gesten könnten einerseits „No-go-areas“ eingegeben werden. Andererseits könnte daraus aber auch eine simplere Bedienung von Robotern möglich werden: Eine Drohne beispielsweise ließe sich mit einem Winken herbeirufen. Oder ein Roboterarm ließe sich zum Greifen animieren, indem der User eine Faust mit der eigenen Hand vormacht.

Zahlreiche Anwendungsgebiete im Haushalt und in der Industrie

Projektleiter König ist sich sicher, dass das Projekt großes Potential hat: „Noch betreiben wir hier Grundlagenforschung. In Zukunft jedoch wird sich ein gigantisches Erweiterungspotenzial auftun für die Robotik. Wir müssen es nur schaffen, die Zusammenarbeit von Mensch und Roboter harmonisch und sicher zu gestalten. Dann wird es zahlreiche neue Handlungsfelder von Robotern geben.“ Ein Haushaltsroboter beispielsweise könnte – animiert nur von Gesten – ein Glas auf den Tisch stellen und kurz darauf unter dem Tisch fegen. Er würde die Tischplatte als Grenze erkennen, die auf einer bestimmten Höhe liegt. Auch in der Industrie finden sich Anwendungsbeispiele: In einer großen Werkhalle können Transportdrohnen ihre Lieferungen sicher an den dort arbeitenden Menschen vorbeifliegen. Irgendwann könnten Kobots, also kooperativ arbeitende Roboter, raus aus ihren Käfigen: Ein starker Roboterarm kann dann durch die Grenzziehung erkennen, wo er sich bewegen darf und keinen neben ihm arbeitenden Menschen gefährden würde. Vorher hätte der jeweilige menschliche Kollege dem Roboter mit wenigen Gesten angezeigt, wie er zu agieren hat, damit die Arbeitsabläufe ergonomisch optimal und sicher vonstattengehen.

Porträt von Malte Riechman, Matthias König und Andre Kirsch mit einer Drohne und einer Augmented Reality Brille
Malte Riechmann, Prof. Dr. Matthias König und André Kirsch forschen gemeinsam am Projekt, das von der Deutschen Forschungsgemeinschaft (DFG) gefördert wird.

„Wir arbeiten an der Roboter-Mensch-Schnittstelle“, sagt König. „Der Roboter soll wissen, was der Mensch will, und der Mensch soll wissen, wie der Roboter arbeitet und wie er ihn steuern kann.“ Das Projekt läuft noch bis Februar 2025. „In den kommenden Monaten geht es uns darum, die einzelnen Komponenten zu einem Gesamtsystem zusammenzuführen und Studien durchzuführen“, sagt König. Die Studien werden unter anderem Akzeptanztests mit Probanden umfassen: Wie viel Zeit haben die Probanden für die Bedienung benötigt? Wie lange hat es gedauert, einen konkreten Befehl vom Roboter bearbeiten zu lassen? In die Auswertung wird auch das technische Vorwissen der Testpersonen einbezogen. Dann kann nachgebessert werden, wenn die Kommunikation zwischen Mensch und Roboter mal nicht so reibungslos funktionieren sollte. König: „Es gibt ja immer Luft nach oben!“ – Da ist sie wieder, die dritte Dimension. (cwi/lk)

 Für weiteres Bildmaterial können Sie sich gerne an presse@fh-bielefeld.de wenden.