Uncertainty Quantification in der Mass Customization

Platzhalter-gr


Projektübersicht

Anzahl Studierende 1
Art Studienprojekt
Projektverantwortung Prof. Dr. Stefan Berlik
Projektkontext Projekt in Zusammenarbeit mit der GRAUTHOFF Türengruppe GmbH und dem Center for Applied Data Science (CfADS)
Projektdurchführung Jannick Stranghöner

 

Kurzbeschreibung

Mass Customization als neues Produktionskonzept verbindet die Individualität der Einzelfertigung mit der Effizienz der Massenfertigung. Kundenindividuelle Anforderungen können mit maßgeschneiderten Produkten erfüllt werden, ohne dabei auf die hohe Präzision und die niedrigen Kosten der Massenfertigung verzichten zu müssen. Die Vorteile des Ansatzes liegen klar auf der Hand: neue Kunden können gewonnen und höhere Margen erzielt werden.

Variantenvielfalt und Individualisierung haben aber auch ihren Preis und gehen mit hoher Komplexität einher, erfordern ein modularisiertes Produktportfolio und neu gestaltete Geschäftsprozesse. Ins Zentrum des Interesses rückt dabei der Konfigurationsprozess mit seiner Kernkomponente, dem Konfigurator. Basierend auf einer Produkt-Wissensbasis ermöglicht er es, interaktiv das gewünschte Produkt zu entwerfen. Technisches Spezialwissen ist dafür nicht nötig. So gelangen Vertriebsmitarbeiter und sogar Kunden auch ohne die Hilfe von Produktingenieuren schnell zu ‚ihrem‘ Produkt. Der Konfigurator stellt dabei zunächst sicher, dass valide Spezifikationen erstellt werden, kann darüber hinaus aber auch weitere, im Verlauf des Produktionsprozesses benötigte Dokumente erzeugen und so die Fehlerquote senken und die Lead Time reduzieren. Die notwendigen Schritte im Rahmen des Einführungsprozesses sind jedoch komplex und aufwändig. Sie umfassen die Analyse und Modellierung der Produktpalette des Unternehmens in Form einer Wissensbasis, die Auswahl der Konfigurationssoftware, die Programmierung der Software sowie die Implementierung und Weiterentwicklung des Konfigurationssystems. Der Einsatz von Methoden der künstlichen Intelligenz kann dabei ein entscheidender Schlüssel zum Erfolg werden und Teile der Wissensbasis automatisiert generieren.

Aktuell verfügbare Konfigurationssysteme nutzen diese Möglichkeiten jedoch weitgehend nicht. Das Konfigurationswissen über die Produkte wird zumeist manuell vom Produktmanager und den Produktentwicklern in Besprechungen in Form eines Product Variant Masters erfasst. In eine Menge von Regeln (Constraints) transformiert ergibt sich daraus die Basis eines Expertensystems.

Unabhängig vom beschriebenen Anwendungskontext ist zu beobachten, dass es Anzeichen für eine Abkehr vom bisher alles beherrschenden Ziel gibt, allein die Leistung der Modelle zu verbessern. Rahmenkonzepte wie die Vertrauenswürdige KI (Engl. Trustworthy AI) rücken verstärkt in den Vordergrund und postulieren Eigenschaften wie Fairness, Interpretierbarkeit, Datenschutz und Sicherheit von KI-Anwendungen. Interpretierbarkeit, als eine wesentliche Voraussetzung für Vertrauen, erfordert ihrerseits eine Ausweitung des Betrachtungsraumes auf die dem Modellierungsprozess innewohnenden Unsicherheiten, also beispielsweise die Quantifizierung von Unsicherheit (Engl. Uncertainty Quantification).

Aufgabenstellung

Anwendungskontext dieses wie auch weiterer Projekte im Forschungsmaster ist der Konfigurationsprozess und die Frage, inwieweit er von Methoden der künstlichen Intelligenz (KI) profitieren kann. Generischer Kern der Projekte ist die Idee, Produktkonfigurationen bereits hergestellter Produkte zu analysieren. Mit Methoden des maschinellen Lernens (ML) könnte das darin implizite vorhandene Konfigurationswissen in expliziter Form beispielsweise als Knowledge Graphs extrahiert werden. Sie wären eine ideale Basis mit vielfältigen Nutzungsmöglichkeiten. So könnten sie genutzt werden um das Produktdesign zu verbessern indem optimale Entkopplungspunkte bestimmt werden. Mittels Bayes-Klassifikatoren könnte die Wissensbasis aber ebenso genutzt werden, um Nutzer im Konfigurationsprozess mit Hinweisen und Konfigurationsvorschlägen zu unterstützen.

Der spezielle Fokus dieses Forschungsprojekts ist auf in der Untersuchung der Voraussagegenauigkeit des Modells gerichtet und die Analyse von Fehler- und Unsicherheitsquellen. Im Kontext von Konfigurationssystemen können unzulässige Produktvarianten zu weitreichenden Komplikationen führen, die es zu vermeiden gilt. Aus diesem Grund soll das entwickelte Verfahren auf systematische und stochastische Fehler, Unsicherheit und Zuverlässigkeit hin untersucht werden.

 

Bezug zum Thema Data Science
Die erste Projektphase ist schwerpunktmäßig dem Bereich Data-Engineering zuzuordnen, die zweite Phase, der Proof-of-Concept der KI basierten Applikation im Mass Customization Umfeld, dem Bereich Data Science.

Verfügbare Ressourcen
Für die Bearbeitung des Projekts kann die Infrastruktur des Digitallabors genutzt werden, die aus folgenden Komponenten besteht:

  • Data-Analytics-Cluster aus mehreren Hochleistungsrechnern mit GPU Unterstützung für Deep- Learning-Anwendungen und installiertem Hadoop Big-Data-Framework
  • mehreren Virtual Reality Arbeitsplätzen.
Die Datengrundlage ist durch öffentlich verfügbare Referenzdatensätze gegeben. Bei Bedarf könnten zusätzlich Real-World-Daten von Industriepartnern genutzt werden.

 

Projektplan
Erstes Semester:
 Das Ziel des ersten Semesters ist es, sich mit den benötigten Technologien vertraut zu machen. Dazu erfolgt die Einarbeitung in die Themengebiete Big Data, maschinelles Lernen, Trustworthy AI, Uncertainty Quantification, Explainable AI, Produktmanagement, Produktentwicklung, Produktionsplanung sowie Produktions- und Logistiksysteme. Die Prüfungsleistung ist das Erstellen eines Forschungsexposés auf Englisch und ein dazugehöriges Kolloquium.

Zweites Semester: Im zweiten Semester soll durch eine Literaturrecherche der aktuelle Stand zu relevanten Arbeiten im Themenfeld ermittelt werden. Im Rahmen einer Anforderungsanalyse sind die durch die KI unterstützte Mass Customization Applikation zu erbringenden Leistungen in Form von Use-Cases zu erfassen. Ziel ist es, diese mit Hilfe der im ersten Semester erworbenen Fähigkeiten und der Erkenntnisse aus der Literaturrecherche in einen Systementwurf münden zu lassen. Dieser soll in Form eines Papers als Prüfungsleistung gewertet und idealerweise im Rahmen einer Konferenz präsentiert werden.

Drittes Semester: Im dritten Semester soll der Systementwurf erstellt werden. Seine Eignung wird gegen den zuvor spezifizierten Anwendungsfall evaluiert. Es findet ein Vergleich mit der Differentiable Nerual Computer basierten Lösung statt. Auch hier ist das Veröffentlichen der Ergebnisse als Paper und eine Präsentation im Rahmen einer Konferenz erwünscht.

Viertes Semester: Inhalt der Masterarbeit ist das Erstellen einer funktionsfähigen KI unterstützten Applikation im Mass Customization Kontext unter spezieller Berücksichtigung der Uncertainty Quantification. Dabei sollen die Ergebnisse aus dem zweiten und dritten Semester zusammengeführt werden. Die Ergebnisse werden in der Masterarbeit dargestellt. Ergänzend ist das Schreiben eines Journal-Papers möglich. In jedem Fall wird die Masterarbeit mit einem Kolloquium abgeschlossen.

 

Eignungskriterien
Zwingend: 

  • Bachelorabschluss in einer einschlägigen Fachrichtung (Informatik, Wirtschaftsinformatik, angewandte Mathematik, Kognitionswissenschaft o.ä.)
  • Fortgeschrittene Programmierkenntnisse in mindestens einer objektorientierten Programmiersprache, möglichst in Python

Optional: 

  • Erfahrungen mit relationalen und nicht-relationalen Datenbanken
  • Grundlegende Kenntnisse im maschinellen Lernen
  • Kenntnisse aus dem Bereich Produktmanagement, Produktentwicklung und Produktionsplanung
  • Erfahrung mit MES, BDE, Produktions- und Logistiksystemen

 

Erwerbbare Kompetenzen durch das Projekt
Die/der Studierende wird mit Abschluss des Studiums über fundierte theoretische und praktische Erfahrungen im Bereich Data Science verfügen.

Sie/er ist nach Abschluss des Projekts in der Lage:

  • heterogene Daten zu erfassen, speichern und verarbeiten,
  • verschiedene Verfahren des maschinellen Lernens praktisch einzusetzen, speziell aus dem Bereich der Klassifikation und Regression,
  • eigene Forschungsergebnisse vor einem Fachpublikum zu präsentieren,
  • wissenschaftliche Texte zu verfassen.