Multidimensionale Datenmodellierung und Analyse zur Qualitätssicherung in der Fertigungsautomatisierung
, , und .
Automation 2018 03.-04.07.2018 Baden-Baden, (Juli 2018)

Unerwartete Ausfälle von Anlagenkomponenten sowie unvorhersehbare Prozessereignisse und Anomalien sind Treiber erhöhter Ineffizienzen in Form von Stillstandzeiten und schwankender Produktqualität. Produzierende Unternehmen stehen vor der Herausforderung, trotz entlang der gesamten Wertschöpfungskette auftretender Dissonanzen, ein hochwertiges und reproduzierbares Qualitätsergebnis zu gewährleisten. Dazu werden Lösungen benötigt, die die zunehmende Komplexität entlang vernetzter und hochgradig dynamischer Prozessketten beherrschbar machen. Intelligente Sensor-Netzwerke erlauben den Aufbau umfangreicher Infrastrukturen zur Datenerfassung und sind Wegbereiter für den Einzug datenanalytischer Konzepte und Lösungen in die Fertigungsautomatisierung (‘Big Data Analytics’). In diesem Beitrag wird ein datengetriebener Ansatz zur Qualitätsoptimierung vorgestellt, auf dessen Basis Interdependenzen entlang von Prozessketten erfasst und mit Hilfe von multidimensionalen Datenmodellen abgebildet werden können. Aufgrund der Tatsache, dass aktuelle ‘Self-Learning’-Ansätze potenzielle Interdependenzen zwischen Prozessen nicht adäquat modellieren, mangelt es diesen aufgrund der isolierten Optimierung von Einzelprozessen an Skalierbarkeit. Systeme und Prozessketten mit hochdimensionalen Datenräumen können dadurch nicht oder nur unzureichend abgebildet werden. Durch eine verteilte, multidimensionale Modellierung ist dagegen die Integration multipler Prozessschritte in die analytische Betrachtung möglich. Das in dieser Arbeit beschriebene Konzept stellt darüber hinaus einen „Grey-Box-Ansatz“ dar, indem es vorsieht, bestehendes Wissen aus dem Engineering um aus Daten extrahierte Modellstrukturen zu erweitern und zu einem ganzheitlichen Modell zusammenzuführen. Darauf aufbauend wird das in der vorliegenden Arbeit propagierte Gesamtsystem durch zwei zusammenwirkende Rückkopplungsschleifen realisiert. Bestehendes Wissen wird in einer direkt steuernd auf die Prozesskette einwirkenden Schleife mit Hilfe von Regelstrukturen abgebildet, die die verteilten, multidimensionalen Datenmodelle semantisch verknüpfen. Diese wird um eine vollständig datengetriebene Schleife ergänzt, die die Dimension des erfassten Datenraumes reduziert, Merkmale auf Basis maschinellen Lernens extrahiert und die Wissensbasis kontinuierlich erweitert. Dadurch wird eine ganzheitliche und datenbasierte Qualitätsoptimierung realisiert. Der Ansatz wird momentan prototypisch für eine Modell-Prozesskette der Massivumformung unter Laborbedingungen sowie für zwei Pilotanlagen im realen industriellen Umfeld der Unternehmen Otto Fuchs KG und Hirschvogel Automotive Group umgesetzt. In diesem Beitrag wird die Datenextraktion und -aufbereitung, die prototypisch umgesetzte Datenmodellierung, der Ansatz zur Datenanalyse sowie das Gesamtkonzept vorgestellt.
  • @sekretariatias
  • @taylansngerli
Diese Publikation wurde noch nicht bewertet.

Bewertungsverteilung
Durchschnittliche Benutzerbewertung0,0 von 5.0 auf Grundlage von 0 Rezensionen
    Bitte melden Sie sich an um selbst Rezensionen oder Kommentare zu erstellen.