Noch keinen Zugang? Dann testen Sie unser Angebot jetzt 3 Monate kostenfrei. Einfach anmelden und los geht‘s!
Angemeldet bleiben
Ausgewählte Ausgabe: 04-2017 Ansicht: Modernes Layout
| Artikelseite 1 von 2

Big Data in der industriellen Fertigung

Durch die intelligente Vernetzung von Maschinen entlang der gesamten Produktionskette entstehen in der Fertigungsindustrie zunehmend größere Datenmengen. Für Unternehmen birgt „Big Data“ einerseits ein immenses Potential zur Optimierung der eigenen Produktionsprozesse. Anderseits ist der Umgang damit oft eine Herausforderung. Um das Beste aus den Daten herauszuholen und dadurch wertvolle „Smart Data“ zu erhalten, sind fachkundige Dienstleister häufig die richtigen Wegbegleiter. Daten gehören zu den wertvollen „Rohstoffen“ des 21. Jahrhunderts. Wie jeder Rohstoff entfalten sie ihren vollen Wert allerdings erst, wenn sie fachmännisch verarbeitet werden. Das gilt auch für die Produktionsindustrie: Zahlreiche Maschinen sind bereits mit „intelligenten“ Sensoren und IT (Informationstechnologie)-Komponenten ausgestattet und liefern kontinuierlich präzise telemetrische Daten – aber nur wenige Unternehmen wissen bislang mit diesem Rohstoff etwas anzufangen.


Die Datenmengen sind inzwischen oft nicht nur unüberschaubar groß, sondern auch völlig heterogen. So werden in der industriellen Fertigung zum Beispiel Stromverbrauch und Druck gemessen oder Leistungsdaten von Motoren und Dicken von Lackschichten erfasst. Hinzu kommen die Log-Dateien der jeweiligen Fertigungskomponenten zu anderen Maschinen in der Prozesskette sowie Umgebungsdaten wie Luftfeuchtigkeit und Raumtemperatur.

Big Data als Entscheidungsgrundlage zur Prozessoptimierung

ZB 262 Canco m Bild 1 Fotolia_114827631_M.jpg BU

Bild 1.
Die Nutzung von „Big Data“ in der Industrie wird immer mehr zum entscheidenden Wettbewerbsfaktor.

Unternehmen, die diese Daten systematisch auszulesen wissen, verschaffen sich wesentliche Marktvorteile, Bild 1. Sie erhalten valide Entscheidungsgrundlagen zur Optimierung der Fertigungsprozesse und können die Produktivität in ihren Werken immens steigern – zum Beispiel, indem sie ihre Arbeitsprozesse an die Umgebungstemperatur anpassen, da durch eine Analyse der Daten ein Effekt auf das Produkt festgestellt wurde. Oder indem sie die optimale Lackdicke von Karosserieteilen berechnen, die eine möglichst niedrige Fehleranfälligkeit und zugleich einen geringen Lackverbrauch bietet. Mitunter entstehen für Unternehmen aus dem systematischen Auslesen von Daten sogar neue Geschäftsmodelle. Allerdings liegt das große Potential der fast beiläufig erhobenen Messwerte in vielen Industrieunternehmen bislang einfach brach: Sie sammeln alle anfallenden Daten gleich welchen Typs in einem zentralen Speicher, ohne sie sinnvoll aufzubereiten – doch erst mithilfe entsprechender Datenanalyse-Methoden entsteht aus Big Data ein wirklicher Mehrwert.
Der Reifegrad der „Data Analytics“-Technologie ist in den letzten Jahren sprunghaft gestiegen, Bild 2.
Bild 2.  Mit einer geeigneten Analyse der gesammelten Daten lassen sich wertvolle Erkenntnisse erzielen.

Bild 2.
Mit einer geeigneten Analyse der gesammelten Daten lassen sich wertvolle Erkenntnisse erzielen.

Noch vor wenigen Jahren konnten Verantwortliche die Messdaten in der Fertigung allenfalls im Nachhinein betrachten und rückblickend beschreiben, dass ein Fehler passiert oder eine Maschine ausgefallen war („Descriptive Analytics“). Durch die Kombination verschiedener Messwerte ließ sich schließlich auch eruieren, warum eine Maschine ausgefallen war, zum Beispiel weil der Schwellenwert für die Temperatur überschritten wurde („Diagnostic Analytics“).
Inzwischen sind auch vorhersagende Analysen möglich: Die anfallenden Daten werden nicht mehr rückblickend betrachtet, sondern bereits zum Zeitpunkt ihrer Erhebung („Predictive Analytics“). Damit lassen sich Vorhersagen für die Zukunft treffen, beispielsweise: Wann wird diese Maschine ausfallen? Wann muss eine Wartung vorgenommen werden, damit das nicht passiert? Die „Königsklasse“ schließlich sind „Prescriptive Analytics“: Dabei wird nicht nur analysiert, was künftig voraussichtlich passiert, sondern der Maschine werden auch direkt konkrete Lösungsvorschläge gegeben, sodass sie autonom entscheidet, was als nächstes passieren soll.

Seite des Artikels
Autoren

 Oliver Bischoff

arbeitet als Business IT Consultant im Competence Team Industrial Solutions in München.

Unternehmensinfrastruktur...

... berücksichtigen
Bei der Wahl des passenden Auswertungssystems darf die Infrastruktur im  Unternehmen  nicht  vergessen  werden: Viele Analyse-Tools wie „Microsoft Azure“ oder „IBM Watson Analytics“ sind Cloud-Lösungen – und gerade in der Automobilindustrie, aber auch in anderen Branchen sind  nicht  in  allen  Werken  die  entsprechenden  Voraussetzungen  für einen reibungslosen Cloud-Betrieb gegeben, sondern die Daten müssen „vor Ort“ ausgelesen werden. Die richtige Software zu finden, erfordert also eine gute Marktkenntnis.

Verwandte Artikel

Muster in der Datenmasse erkennen

Flexible und transparente Fertigung dank durchgängiger Digitalisierung

Welcher Kommunikationsstandard für künftige Industrie 4.0-Fabriken?

Datentechnischen Angriffen gezielt begegnen

Maschinenmodule mit Simulatoren prüfen