Zum Archiv
Mehrschichtige Vernetzung von Prozess- und Qualitätsdaten 28.05.2025, 15:30 Uhr

Selbstlernende Verhaltensmodelle für Lackiertechnik

Ein neuartiges Verhaltensmodell wird auf den Lackierprozess angewandt, um die komplexen Zusammenhänge zwischen Materialdaten, Prozessparametern und den Qualitätsdaten zu beschreiben. Dazu werden die benötigten Sensoren, Datenquellen in den Prozesssteuerungen und die Qualitätsbewertungen vernetzt und in einem Verhaltensmodell abstrahiert und korreliert. Es wird gezeigt, dass sowohl Ursachen für Prozessabweichungen als auch die Auswirkungen bestimmt werden können.

Bild 1. Das „SpraySpy“ System überwacht den Prozess am Hochrotationszerstäuber. Foto: Fraunhofer IPA

Bild 1. Das „SpraySpy“ System überwacht den Prozess am Hochrotationszerstäuber.

Foto: Fraunhofer IPA

Multi-layered linking of process and quality data: Self-learning behavior models for painting technology

Abstract: A new type of behavior model is applied to the painting process in order to describe the complex relationships between material data, process parameters and quality data. For this purpose, the required sensors, data sources in the process controls and the quality assessments are linked and abstracted and correlated in a behavioral model. It is shown that both the causes of process deviations and the effects can be determined.

Das vom BMBF geförderte Forschungsprojekt „pAInt-Behaviour“ (Kooperationsprojekt von Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, b+m surface systems GmbH, Helmut Fischer GmbH und AOM-Systems GmbH) hat zum Ziel, den Produktionsprozess „Beschichten“ deutlich prozess­stabiler und fehlertoleranter zu gestalten. Dazu werden Inline-Spray-Messtechnik und die Überwachung zentraler Spray-Parameter zur Echtzeitdetektion von Prozessfehlern in industriellen Lackieranlagen genutzt. Die in der Anlagensteuerung generierten Prozessdaten, die End-of-Line-Qualitätsdaten sowie die mittels Spray-Messtechnik erfassten Daten des Sprühstrahls werden vernetzt und mithilfe maschineller Lernverfahren analysiert. Das Verfahren erlaubt nicht nur die zuverlässige Identifikation von Prozessfehlern, sondern auch die Bestimmung der zugrunde liegenden Fehlerursachen (zum Beispiel Düsenschäden). Dadurch erhalten die Bediener automatisierte Handlungsempfehlungen, die eine gezielte Fehlerbehebung und damit eine Reduktion der herkömmlichen trial-and-error-basierten Fehlersuche erlauben.

Die Lackierung gilt bis heute als eine nicht durchgängig beherrschbare Prozessabfolge. Dies kann mit Anlagenausfällen, Ausschussteilen und mit Nacharbeit verbunden sein, weil zum Beispiel die vorgegebene Lackschichtdicke nicht überall eingehalten werden kann. Durch komplexe Wechselwirkungen zwischen Lackmaterial, Applikation und Verfahrenstechnik sind die umfangreichen Prozessdaten häufig unvollständig vernetzt und unzureichend für die Erfassung seltener Fehler­ereignisse. Ziel des Projekts ist es daher, durch die Entwicklung eines datenbasierten Verhaltensmodells eine kontinuierliche Überwachung und Optimierung der Lackierprozesse zu ermöglichen.

1 Datenerfassung

Ein zentraler Aspekt der Arbeit ist die Erweiterung der bestehenden Erfassungsmethoden durch neu entwickelte Sensorik. Neben klassischen Prozessparametern wie Materialdruck und Sprühvariablen wird der Sprühstrahl über spezialisierte Sensorik, Bild 1, quantitativ erfasst. Ergänzend misst ein Terahertz-System kontinuierlich die Lackschichtdicke und liefert so objektive Qualitätsinformationen. Die Datenstrategie umfasst:

  • Ergänzung der fehlenden Spray-Sensorik: Präzise Vermessung des Lacksprays zur Erfassung bisher unberücksichtigter Qualitätsaspekte.
  • Automatisierung der Schichtdickenmessung: Einsatz der Terahertz-Technologie zur Ermittlung der Lackschichtdicke.
  • Vernetzung der Datenquellen: Integration von Prozess-, Qualitäts- und Sprühstrahldaten in einer einheitlichen Dateninfrastruktur.
  • Generierung fehlender Datensätze: Simulation von Fehlerereignissen im Technikum zur Erweiterung der Datengrundlage.

2 Korrelationsanalyse mittels Maschinellen Lernen

Die parallele Erfassung von Prozess- und Qualitätsdaten ermöglicht eine umfassende Korrelationsanalyse, die den Zusammenhang zwischen den erfassten Messwerten und der finalen Produktqualität beleuchtet [1]. Neben klassischen Prozessparametern wie der Spannung und Luftmengen fließen auch visuelle Qualitätsmerkmale (zum Beispiel Schicht­dicke, Farbton) in die Analyse ein.

Verschiedene maschinelle Lernverfahren, darunter Stochastic Gradient Descent, K-Nearest Neighbor und insbesondere Random Forest wurden zur Auswertung herangezogen. Zur Bewertung dienten etwa Precision und Recall, wobei bei kritischen Fehlerquellen Recall-Werte von über 90 % erreicht wurden, Bild 2.

Bild 2. Darstellung der Güte des Random Forest Algorithmus für verschiedene Prozessabweichungen. Grafik: Fraunhofer IPA

Die Ergebnisse belegen das Potenzial einer datenbasierten Prozessüberwachung: Sie ermöglicht eine Vorhersage wesentlicher Fehlerereignisse und liefert damit Handlungsempfehlungen für eine gezielte Prozessoptimierung.

3 Anomalie-Detektion mittels Verhaltensmodell

Trotz umfassender Sensorik und hoher Automatisierung ist eine rein regelbasierte Prozessüberwachung in der industriellen Lackierung nur mit erheblichem Expertenaufwand realisierbar [2]. Die stark vernetzten Wechselwirkungen zwischen Lackmaterial, Applikation, Umgebungsbedingungen und Messsystemen erfordern einen flexiblen Ansatz, der ohne explizite Fehlerlabels auskommt [3].

3.1 Datenbasis und Vorgehen

Basierend auf der Korrelationsanalyse (Kapitel 2) und Expertenwissen werden alle relevanten Prozess- und Qualitätsvariablen in einem hochdimensionalen Zeitreihendatensatz zusammengeführt. Diese Daten, unterteilt in „Skids“ (Gebinde aus mehreren Bauteilen), enthalten sowohl kontinuierliche Messsensoren (zum Beispiel Pumpendruck, Volumenstrom) als auch binäre Zustände (Start/Stop einzelner Teilschritte). Um zeitliche Korrelationen zu erfassen, kommt ein Sliding-Window-Verfahren zum Einsatz, das Sequenzen in kleine, überlappende Abschnitte gliedert und so lokal auftretende Anomalien erkennt [4].

3.2 Modellarchitektur

Zur Anomalie-Erkennung werden verschiedene neuronale Netze in einem Autoencoder-Verbund getestet [5, 6]. Im Kern steht ein Autoencoder (AE), der durch Rekonstruktion des Normalverhaltens die Abweichung bei ungewöhnlichen Prozessmustern quantifiziert. Autoencoder sind neuronale Netzwerke, die darauf trainiert werden, Daten in eine niedrigdimensionale Form zu komprimieren und diese anschließend wieder zu rekonstruieren. Durch das Training auf Prozessdaten lernen Autoencoder typische Muster zu repräsentieren. Wenn sie auf Anomalien angewendet werden, erzeugen diese größere Rekonstruktionsfehler, da sie von den gelernten normalen Mustern abweichen [5]. Diese Eigenschaft macht Autoencoder besonders geeignet für die Anomalie-Erkennung. Als Erweiterungen werden Graph Attention Networks (GAT) für stark interkorrelierte Parameter [7] und Transformer für komplexe Sequenzdaten [8] evaluiert.

3.3 Transfer Learning

Da die ideale Netzarchitektur und Hyperparameter in unüberwachten Szenarien schwer bestimmbar sind, wird Transfer Learning eingesetzt [9]. Hierbei wird ein Pool ähnlicher Datensätze (zum Beispiel andere Produktionsanlagen, Laboraufbauten, open-source-Datensätzen) herangezogen, um das Modell vorzutrainieren und initiale Parameter realitätsnah zu wählen. Anschließendes Fine-Tuning mit den reellen Lackieranlagendaten erhöht sowohl die Robustheit als auch die Anpassungsfähigkeit an die konkreten Prozessbedingungen.

3.4 Online-Einsatz und historische Analysen

Das final parametrierte Modell läuft in Echtzeit an der Anlage und meldet Abweichungen, sobald die berechneten Rekonstruktionsfehler einen voreingestellten Schwellenwert übersteigen. Zusätzlich wird eine retrospektive Fehlerursachenanalyse durchgeführt, bei der auffällige Sensor- oder Prozessverläufe im Zeitablauf identifiziert werden.

Das Vorgehen ist in der Prinzipskizze, Bild 3, grafisch zusammengefasst.

Bild 3. Prinzipskizze des Projekts, von den Daten der Lackieranlage bis zu den Ergebnissen der Modellierung. Grafik: Fraunhofer IPA

Zunächst wird das Set der Modelle in PyTorch implementiert [10]. Mittels der Python-Bibliothek Optuna [11], wird die ideale Modellarchitektur basierend auf ähnlichen Anwendungsfällen ermittelt. Hier sind einige der wichtigsten Hyperparameter, die optimiert werden:

  • Lernrate: Bestimmt die Schrittweite beim Aktualisieren der Modellparameter.
  • Batch Size: Anzahl der Zeitwerte, die in einem Durchgang durch das Modell verarbeitet werden.
  • Anzahl der Modell-Schichten: Einstellbarkeit der Komplexität des Modells durch die Vervielfältigung oder Reduzierung der Rechenoperationen.
  • Anzahl der Neuronen pro Schicht: Parametrierung der Datendimensionalität während der Verarbeitung.
  • Latente Dimension der Autoencoder: Dimension auf welche die Daten komprimiert werden.

Nach der Auswahl der geeigneten Modellarchitektur und der Einstellung der Hyperparameter wird das Modell zunächst basierend auf den ähnlichen, bereits vorhandenen Daten vortrainiert. Dies hilft, eine initiale Parameterkonfiguration der Modellgewichte zu erhalten, welche ähnliche Probleme lösen kann und nicht zufällig initialisiert ist. So kann eine Konsistenz der Problemlösung zu gewährleisten.

Jetzt werden die ausgewählten Daten aus der Datenvorverarbeitung genutzt, um das Modell korrekt auf den Prozess der beobachteten Lackieranlage einzustellen und somit die Verhaltensmodellierung aufzubauen. Unter Annahme des Prozesswissens, dass die überwiegende Anzahl an Bauteilen fehlerfrei lackiert wird, kann das Modell das Normalverhalten des Lackierprozess in das Verhaltensmodell einarbeiten. Bei der späteren Anomalie-Detektion werden Diskrepanzen gegenüber diesem erlernten Verhaltensmodell als Anomalien gekennzeichnet, die zu fehlerbehafteten Bauteilen führen können. Daten aus der Qualitätskontrolle, ebenso wie zusätzliche Daten von Qualitäts-Überwachungssensoren des Prozesses ermöglichen es dem Modell, eine direkte Beziehung zwischen Prozessdaten und der Qualität zu erlernen.

3.5 Anomalie-Detektion

Das final parametrierte Modell läuft nun in Echtzeit an der Anlage und meldet Abweichungen, sobald die berechneten Rekonstruktionsfehler einen voreingestellten Schwellenwert übersteigen. Zusätzlich wird eine retrospektive Fehlerursachenanalyse durchgeführt, bei der auffällige Sensor- oder Prozessverläufe im Zeitablauf identifiziert werden. Aufgrund des Aufbaus der Datenstrukturen und des Modells kann ein Anomalie-Wert für jeden Zeitstempel und jedes Signal, und somit auch für jeden Skid von Produkten, zugewiesen werden. Basierend auf Qualitätsmetriken wie dem durchschnittlichen Ausschuss, Defects per Million Opportunities (DPMO) oder dem Process Capability Index (CPK) erfolgt eine Zuweisung, welche Anomalie-Werte kritisch sind und somit auf Prozessfehler hinweisen. Der durchschnittliche Ausschuss gibt an, wie viele fehlerhafte Produkte im Durchschnitt produziert werden [12]. DPMO misst die Anzahl der Fehler pro eine Million Gelegenheiten, wobei jede Gelegenheit eine Möglichkeit für einen Fehler darstellt. Der CPK zeigt, wie fähig ein Prozess ist, Produkte innerhalb der Spezifikationsgrenzen zu produzieren. Anhand dieser Metriken kann festgelegt werden, bei welchen Anomalie-Werten ein Eingreifen notwendig ist, um die Qualität der Lackierung sicherzustellen [13].

4 Ergebnisse

Die Wirksamkeit des Autoencoder-basierten Verhaltensmodells zeigt sich deutlich in den rekonstruierten Zeitreihen und den ermittelten Rekonstruktionsfehlern:

Bild 4 illustriert den Rekonstruktionsfehler im Zeitverlauf. Auf der y-Achse ist die Abweichung dargestellt. Der größte Teil der Daten liegt im Bereich von etwa 0,01 bis 0,02. Zeitpunkte mit höheren Ausschlägen (> 0,025) korrespondieren mit Prozessanomalien (zum Beispiel Schwankungen des Pumpendrucks oder der Stromstärke).

Bild 4. Die Abweichung bei der Daten-Rekonstruktion durch das Verhaltensmodell wird im Verlauf über eine Million gemessene Zeitstempel wird beobachtet. Grafik: Fraunhofer IPA

Bild 5 zeigt ein Beispiel für ein rekonstruiertes Zeitfenster (Batch 1), in dem Original- (blau) und rekonstruierte Werte (orange) gegenübergestellt sind. Man erkennt eine weitgehende Deckungsgleichheit der beiden Kurven, wobei kleinere Abweichungen auf bereits beginnende Prozessvariationen hinweisen können. Zu erkennen ist ebenso der mangelnde vollständige Detailgrad des Verhaltensmodell, da die rekonstruierten Daten nicht vollständig die maximalen und minimalen Werteverläufe modellieren. Aufgrund der Komplexität des Lackierprozesses und der vielen Wechselwirkungen ist mit diesem Unschärfegrad zu rechnen.

Bild 5. Rekonstruktion eines Datenabschnitts. Für die klarere Visualisierung wurden hier alle Parameterwerte summiert. Grafik: Fraunhofer IPA

5 Zusammenfassung

Das hier vorgestellte Verfahren zur Anomalie-Detektion in der industriellen Lackiertechnik kombiniert eine breit angelegte Datenerfassung (Prozess-, Spray- und Qualitätsdaten) mit einem Autoencoder-basierten Verhaltensmodell. Durch das unüberwachte Training können seltene Fehlerereignisse erkannt werden, ohne dass diese zuvor explizit markiert werden müssen.

Die Ergebnisse zeigen, dass das datenbasierte Modell sowohl das Normalverhalten des Prozesses rekonstruiert als auch Abweichungen verlässlich anzeigt. Kritische Anomalien werden dabei häufig früh detektiert und lassen sich so mit geeigneten Gegenmaßnahmen wie Düsenwechsel oder Justierung des Materialdrucks beheben.

Künftig soll das System mittels spezialisierter Sensorik und weiterer anwendungsorientierter Tests optimiert und um integrierte Handlungsempfehlungen ergänzt werden. Zudem ist eine Ausweitung auf unterschiedliche Lacksysteme und weitere Produktionstechnologien angedacht, um die Übertragbarkeit der Methodik zu testen.

Das Forschungs- und Entwicklungsprojekt „pAInt-Behaviour“ wird durch das Bundesministerium für Bildung und Forschung (BMBF) im Programm „Zukunft der Wertschöpfung – Forschung zu Produktion, Dienstleistung und Arbeit“ (Förderkennzeichen 02P20A130 bis 02P20A133) gefördert und vom Projektträger Karlsruhe (PTKA) betreut. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt bei den Autoren.

Die Autoren bedanken sich bei den Mitarbeitenden der Helmut Fischer GmbH Institut für Elektronik und Messtechnik, die diese Arbeit maßgeblich unterstützt haben, sowie bei der SMP Automotive Exterior GmbH.

Literatur

  1. Tiedje, O.; Paustian, S.; Rosenkranz, S.; Hecker, M.; Tropea, C.: Detection of production relevant deviations in paint sprays, J Coat Technol Res, 2024. DOI: https://doi.org/10.1007/s11998-024-01015-1
  2. Niggemann, O.; Maier, A.; Vodencarevic, A.; Jantscher, B.: Fighting the Modeling Bottleneck – Learning Models for Production Plants, 2011
  3. Hinton, G.; Sejnowski, T.J.: Unsupervised Learning. The MIT Press, 1999
  4. Braverman, V.: Sliding Window Algorithms, in: Kao, M.-Y. (Ed.), Encyclopedia of Algorithms. Springer New York, New York, NY, pp. 2006–2011, 2016
  5. Rumelhart, D.E.; McClelland, J.L.: Learning Internal Representations by Error Propagation.In: Parallel Distributed Processing: Explorations in the Microstructure of Cognition: Foundations, pp. 318–362
  6. Sakurada, M.; Yairi, T.: Anomaly Detection Using Autoencoders with Nonlinear Dimensionality Reduction, in: Proceedings of the MLSDA 2014 2nd Workshop on Machine Learning for Sensory Data Analysis. MLSDA‘14: Machine Learning for Sensory Data Analysis, Gold Coast Australia QLD Australia. 02 12 2014 02 12 2014. ACM, New York, NY, USA, pp. 4–11 2014
  7. Shaked Brody; Uri Alon; Eran Yahav: How Attentive are Graph Attention Networks?, In: The Tenth International ICLR Conference 2022.
  8. Tuli, S.; Casale, G.; Jennings, N.R.: TranAD. Proc. VLDB Endow. 15 (6), 1201–1214, 2022
  9. Zhuang, F.; Qi, Z.; Duan, K.; Xi, D.; Zhu, Y.; Zhu, H.; Xiong, H.; He, Q.: A Comprehensive Survey on Transfer Learning. Proc. IEEE 109 (1), 43–76, 2021
  10. Paszke, A.; Gross, S.; Chintala, S.; Chanan, G.; Yang, E.; DeVito, Z.; Lin, Z.; Desmaison, A.; Antiga, L.; Lerer, A.: Automatic differentiation in PyTorch. The Thirty-first Annual Conference on Neural Information Processing Systems (NIPS) (31), 2017
  11. Akiba, T.; Sano, S.; Yanase, T.; Ohta, T.,; Koyama, M.: Optuna: A Next-generation Hyperparameter Optimization Framework, 10 pp, 2019. Internet: http://arxiv.org/pdf/1907.10902v1
  12. Montgomery, D.C.: Introduction to statistical quality control, Eighth edition ed. Wiley, Hoboken, NJ, 2019
  13. Zimmer, L.; Kotz, S.; Lovelace, C.R.: Process Capability Indices in Theory and Practice. Technometrics 42 (2) 206, 2000
Von Jonas Gram, Meiko Hecker, Jochen Rieser, Oliver Tiedje

Jonas Gram
Dr. Oliver Tiedje
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Nobelstr. 12, 70569 Stuttgart
jonas.gram@ipa.fraunhofer.de

Dr. Meiko Hecker
AOM-Systems GmbH
Benzstr., 64646 Heppenheim

Jochen Rieser
b+m surface systems GmbH
Meininger Weg 10, 36132 Eiterfeld