Roboterschwarm für die Produktionslogistik

Roboterschwarm-gr


Projektübersicht

Anzahl Studierende 1
Art Projekt mit externem Partner
Projektverantwortung Prof. Dr. Christian Schwede
Projektkontext Projekt in Zusammenarbeit mit dem Fraunhofer-Institut für Software- und Systemtechnik (ISST) in Dortmund; Abteilung Logistik; Anstellung als Hiwi bei Fraunhofer ist möglich
Projektdurchführung Adrian Freiter, Jannik Hartog, Roman Sliwinski

 

Video: Roboterschwarm für die Produktionslogistik

 

Kurzbeschreibung

Digitalisierung ist das bestimmende Thema in Produktion und Logistik. Unternehmen wollen mittels unterschiedlichster Sensorik, Daten über ihre operativen Prozesse in den Fabriken gewinnen und diese nutzen, um effizienter und/ oder flexibler zu werden. Diese Sensoren werden entweder nachträglich an ältere Maschinen angebracht (sogenanntes Retrofitting) oder sind zahlreich beim Kauf von neuen Maschinen, wie z.B. autonomen Fahrerlosentransportfahrzeugen (FTS) vorhanden. Speziell in der Steuerung von Materialflüssen in Fabriken oder Logistikzentren werden die Daten der Sensoren genutzt, um über den aktuellen Fortschritt von Prozessen (z.B. Transport-, Produktions-, Lagerprozessen) informiert zu sein und daraus in Echtzeit Schlüsse über die Effizienz der Gesamtanlage und mögliche notwendige Eingriffe zu ziehen. Informationen, die aus den Daten generiert werden, sind z.B. Positionsinformationen (Ortung), Tätigkeitsinformationen („Lagert ein“), oder diskrete Ereignisse, die Prozessbeginn und -ende markieren (z.B. „Produktionsauftrag begonnen“). Die spannende Frage ist nun, wie man aus den einfachen und zahlreichen Sensordaten (z.B. eines Beschleunigungssensors) die gewollten Informationen generiert.

Das Fraunhofer ISST hat hierzu mit RIOTANA® (Realtime Internet-Of-Things ANAlytics) eine Analyse- Plattform geschaffen, die es erlaubt diese Daten in Echtzeit zu erfassen und zu verarbeiten. Ziel der Plattform ist es die Rohdaten der Sensoren zu erfassen und über Mustererkennung (z.B. durch Maschinelles Lernen) in Echtzeit höherwertige Informationen über den Zustand der Prozesse und Ressourcen in der Fabrik zu erhalten. Um die Fähigkeiten dieser Plattform zu veranschaulichen, soll ein Demonstrator aufgebaut werden, der ein produktionslogistisches Szenario abbildet.

In diesem Forschungsprojekt soll ein solcher Demonstrator aufgebaut werden. Zur Verfügung stehen 20 Vector-Roboter der Firma Anki, die mit zahlreichen Sensoren (u.a. Kameras, Mikrophone, Laserscanner) ausgestattet sind und die Fähigkeit besitzen mitgelieferte Boxen zu transportieren. Die Roboter sollen dazu genutzt werden, ein Industrie 4.0 Produktionslogistikszenario umzusetzen, wobei die einzelnen Roboter autonom als intelligente Agenten in einem Multiagentensystem agieren. Die Daten, die das System generiert, können dann mit RIOTANA analysiert und zur Steuerung der Roboter genutzt werden.

Aufgabenstellung

Der/ die Studierende soll in diesem Projekt die Rohdaten der Sensoren der Roboter nutzen um aus innen mithilfe von Verfahren der Mustererkennung und des maschinellen Lernens Informationen über den aktuellen Zustand und die Tätigkeit des Roboters abzuleiten. Zum Beispiel ist von Interesse wann der Roboter steht, wann er fährt, wo er gerade ist, was er gerade tut, wann er eine neue Tätigkeit beginnt und eine Tätigkeit abschließt. Neben den im Roboter integrierten Sensoren können auch Sensoren des Fraunhofer ISST eingesetzt werden, mit denen die Roboter ausgerüstet werden. Zur Analyse soll die RIOTANA® Plattform des Fraunhofer ISST genutzt werden, an die die Sensoren des Roboters ihre Daten liefern müssen.

Die Plattform wird zur Generierung von KPIs in industriellen Anwendungen (insb. in der Logistik) auf Basis von einer skalierbaren Big-Data-Architektur und einem semantischen Layer genutzt. Als eine Echtzeitdatenflussverarbeitungsplattform ermöglicht RIOTANA® vielfältige Einsatzmöglichkeiten in industriellen IOT-Anwendungen, z.B. Stoßerkennung in Echtzeit, Lokalisierung, Berechnung der Auslastung, Predictive Maintenance usw. Die Analyseengine von RIOTANA® baut auf Apache Spark auf. Datenflüsse werden durch Apache Kafka zwischen Logikunits weitergeleitet und in der NoSQL- Datenbank Cassandra gespeichert. Analysen und Vorhersagen von den Sensordaten finden in Echtzeit statt. Dazu werden Maschinelles Lernen- und Deep Learning-Modelle eingesetzt. Für ein spezifisches Anwendungsgebiet wird eine Ontologie als semantisches Layer aufgebaut, d.h. für jedes physische Objekt gibt es eine digitale semantische Beschreibung (Digitaler Zwilling), damit die IOT-Daten strukturiert sowie die Analyseprozesse vereinfacht werden können. Auf Basis des semantischen Layers sind die Sensoren und Analysefunktionen sehr gut erweiterbar. Weitere Datenflussverarbeitungsanwendungen für Forschungsthemen und industrielle Use-Cases mit dem Hintergrund der industriellen Digitalisierung können so nach und nach entwickelt werden.

 

Bezug zum Thema Data Science
Die Entwicklung von Algorithmen zur Mustererkennung insbesondere durch Maschinelles Lernen und die Verarbeitung von Sensormassendaten sind Kernthemen der Data Science und werden teilweise in Veranstaltungen des Forschungsmasters behandelt.

Verfügbare Ressourcen

  • Informationen zum Fachgebiet der Produktionslogistik wie relevante Zustandsinformationen und relevante Use Cases werden vom Fraunhofer ISST bereitgestellt
  • der Ansprechpartner am Fraunhofer ISST wird über die Projektlaufzeit zur Verfügung stehen
  • die Roboter (Anki Vector), die Boxen sowie sonstiges benötigtes Material wird im Kontext des AI-Labs der HSBI bereitgestellt
  • die zusätzlichen Sensoren werden vom Fraunhofer ISST bereitgestellt
  • die RIOTANA-Plattform wird vom Fraunhofer ISST bereitgestellt
  • Hardware für das komplexere Maschine Learning ist über das Data Science Lab oder das CfADS der HSBI verfügbar

 

Projektplan
Erstes Semester:
 Formulierung des Forschungsexposees, Einarbeitung in die API von Anki Vector und die RIOTANA-Plattform, Definition eines Szenarios

Zweites Semester: Verknüpfung von RIOTANA mit den Sensoren des Roboters, Recherche zu relevanten Arbeiten in Themenfeld der Mustererkennung und Sensordatenverarbeitung

Drittes Semester: Erfassung von Daten, Aufbau einer Pipeline der Sensordatenverarbeitung, Entwicklung eines ersten Algorithmus zur Zustandserkennung (Durchstich), Auswertung erster Ergebnisse

Viertes Semester: Entwicklung weiterer Algorithmen und Optimierung des Gesamtverfahrens, Auswertung der Güte und Evaluierung der Ergebnisse

 

Eignungskriterien
Zwingend: 

  • Programmierkenntnisse 

Optional: 

  • Erfahrung mit der Programmierung von Robotern/ Sensordatenverarbeitung

 

Erwerbbare Kompetenzen

  • Einsatz von Verfahren des Maschinellen Lernens
  • Sensordatenverarbeitung
  • SMACK-Architekturen
  • Planung von Produktions- und Logistiksystemen