top of page

Verbesserte Produktionsabläufe durch IIoT-Daten und Predictive Analytics

Aktualisiert: 25. Apr.

In Kooperation mit der TRIPS GmbH haben wir schon bei mehreren Kunden das Sammeln und Aufbereiten von IIoT-Daten, wie z. B. Anlagen oder Energiedaten, ermöglicht. Dabei wird dies für immer mehr Unternehmen zu einem wichtigen Punkt im Rahmen ihrer Digitalisierung. In diesem Artikel gehen wir darauf ein, welche Vorteile eine zentrale Datenplattform liefert und wie Data Science Ihnen in Ihrer Produktion helfen kann.



Operational Data Platform – Ausgangspunkt für Data Science und Analysen


Nachdem die IIoT-Daten erhoben wurden, ist es im nächsten Schritt wichtig, diese zu konsolidieren, anzureichern und für weitere Analysen verfügbar zu machen. Dies geschieht im Rahmen einer Daten-Plattform. An diese werden die verschiedenen Datenquellen ob API-Daten, BDE/MES Daten oder Informationen aus dem ERP angebunden. Dabei kann eine Anbindung je nach Use Case durch Batch-Processing oder Stream-Processing erfolgen.


Im ersten Schritt werden in einer Datenplattform die Daten konsolidiert. Das bedeutet, sie werden aus den verschiedenen Quellen in einen zentralen Datenspeicher überführt und dort als Rohdaten abgelegt. Dies sorgt dafür, dass Daten aus verschiedenen Systemen für die Analysen genutzt werden können. So können z. B. Auftragsdaten bzw. Materialdaten aus einem ERP mit Energieverbräuchen und den Erträgen der Anlagen verbunden werden, um eine Wertstromanalyse zu ermöglichen.


Diese Daten werden für weitere Analysen transformiert bzw. modelliert, um sie dann für weitere Anwendungen z. B. für die Visualisierung in Power BI bereitzustellen. Sowohl Rohdaten als auch transformierte Daten können nun aber auch im nächsten Schritt für Machine Learning bzw. Data Science eingesetzt werden, um z. B. die Qualität zu verbessern oder den Ausschuss zu verringern. Auf diese Anwendungsfälle gehen wir im Verlauf des Artikels genauer ein.


Die Datenplattform beinhaltet auch die Orchestration. Hierunter versteht man das Steuern bzw. Ausführen von Daten bzw. Modelpipelines. Durch den zentralen Ort ist es somit leichter, nicht den Überblick zu verlieren und Anwendungen aktuell zu halten. Data Governance ist ein weiterer wichtiger Teil der Plattform, welcher allerdings nicht im Fokus dieses Artikels steht.


Operational BI und Data Science Platform Infrastructure

Erkennung von Anomalien – Kritische Werte Veränderungen rechtzeitig erkennen


Der erste und einfachste Anwendungsfall ist die Erkennung irregulärer Werten der Sensoren. Hierbei geht es darum zu erkennen, wenn ein einzelner Sensor oder eine Kombination von Sensoren irreguläre bzw. unwahrscheinliche Werte liefert. Dies nennt sich „Anomalie-Erkennung“.


Ziel dabei ist es, aus den Sensorwerten der Vergangenheit bzw. dem aktuellen Sensorwert, obere und untere Grenzwerte zu errechnen. Sollten diese überschritten werden, deutet der Wert eine Anomalie hin und kann damit z. B. einen Alarm bei einer zuständigen Person auslösen. In der unteren Abbildung zeigen wir anhand von dem blauen Sensorwert und den beiden roten Linien, wie ein solcher Bereich visuell aussehen kann. Jeder Wert, der den roten Bereich verlässt, ist hier eine Anomalie. Die Breite des Bereiches kann damit je nach Anforderung gesteuert werden. Je größer die Toleranz, desto größer ist der Bereich.


Parameterabweichungen von Sensorwerten

Eine Anomalie Erkennung hilft dabei defekte Sensoren, defekte Anlagenteile oder Fehler im Produktionsumfeld zu erkennen oder auch unregelmäßige Energieverbräuche zu erfassen. Durch die Erkennung kann eine rechtzeitige Handlung ermöglicht werden bzw. kann daran gearbeitet werden den Prozess stabiler zu gestalten.


Sensordaten und Predictive Analytics zur Qualitätskontrolle


Viele Unternehmen greifen bei der Einstellung bzw. Konfiguration ihrer Anlagen auf das Wissen von erfahrenen Mitarbeitern zurück. Dieses ist meistens an einen Ort gebunden und kann im Fall eines Mitarbeiterwechsels oder -ausfalls erhebliche Lücken hinterlassen.


Hinzu kommen für die Unternehmen oftmals noch manuelle Prüfungen, welche regelmäßig durchgeführt werden müssen. Nicht selten ist diese Prüfung dabei eine Zerstörprüfung. Dies erzeugt Kosten durch Mitarbeiter und Materialaufwand.


Schema: Trainingsdaten und Algorithmus

Predictive Analytics bzw. Predictive Quality hilft dabei dieses Problem anzugehen. Anhand der Produktionsparameter bzw. Sensordaten werden Analysen erstellt. Dabei wird herausgefunden, welche Parameterwerte zu schlechter Qualität führen. Im nächsten Schritt wird ein Modell trainiert, das aus den Parametern, Materialinformationen und Umgebungsdaten lernt und eine Vorhersage für die Produktqualität liefert. Somit können schlechte Teile aussortiert bzw. die Erkenntnisse genutzt werden, um mit besserer Qualität zu produzieren.


Wichtige Einflüsse auf die benötigten Parameter können dabei die Position der Anlage in der Produktion, die Außentemperatur, Luftfeuchtigkeit oder aber Materialeigenschaften sein.


Dabei sollten folgende Daten für den Use Case gesammelt werden und bereitstehen:

  • Materialdaten

  • Sensor/Maschinendaten

  • Umgebungsdaten

  • Qualitätsdaten aus der Vergangenheit zuordenbar zu Sensor/Maschinendaten

Sind die Parameter stark wetterabhängig sollte außerdem ein Jahr an Trainingsdaten zur Verfügung stehen.


Von der Qualitätsvorhersage zur Optimierung der Produktion:


Nachdem im ersten Schritt Indikatoren für die Qualität gefunden wurden, kann nun Simulation bzw. Optimierung genutzt werden, um ein Set an Maschineneinstellungen zu generieren, das Produkte in guter Qualität nutzt. Dabei unterscheiden wir zwischen zwei Einflusstypen: Der eine kann zum Zeitpunkt der Maschineneinstellung z.B. die Bandgeschwindigkeit in der Produktion kontrollieren. Der andere wiederum nicht (z. B. Außentemperatur). Ziel dabei ist es, eine Konfiguration zu finden, die die bestmöglichste Qualität liefert.


Damit können die Einstellzeiten reduziert und somit die Verfügbarkeit der Maschine erhöht werden. Das könnte nun in ein Optimierungsproblem überführt werden, mit dem Ziel, eine möglichst hohe Produktionsmenge zu erzeugen und der Bedingung, dass eine gewisse Sicherheit für Qualität nicht unterschritten werden darf.


Predictive Maintenance – Ideen und Schwierigkeiten bei der Umsetzung


Ausfälle in der Produktion können für ein Unternehmen kostspielig sein. Das Planen von Wartungsaufwänden ist oftmals schwer und hängt von erfahrenen Mitarbeitern ab. Für eine Reparatur bzw. Wartung müssen ausreichend Personal und Ressourcen vorhanden sein. Ist dies nicht der Fall, erhöht sich die Ausfallzeit der Maschinen weiter. Die Idee von Predictive Maintenance ist es, den Wartungsbedarf rechtzeitig vorherzusagen und so einen Ausfall der Maschine zu verringern.


Oftmals ist das Potential jedoch kleiner als gedacht - es lohnt sich nur im 3-Schichtbetrieb bzw. bei einer hohen Auslastung der Maschinen. Das Personal muss zum Zeitpunkt der Vorhersage verfügbar sein und aushelfen können und zuletzt ist die Verfügbarkeit der Daten ein Problem. Um die Ausfälle vorhersagen zu können, müssen vergangene Ausfälle dokumentiert werden. Diese sind oft nur in kleiner Anzahl vorhanden bzw. unvollständig, da nur Szenarien vorhergesagt werden können, die bereits aufgetreten sind. Eine Generierung der Daten ist dabei kostspielig, da Daten von Stillständen bzw. Maschinenschäden nötig sind.


Zusammenfassung


In einer Datenplattform lassen sich Daten aus verschiedenen Quellen konsolidieren und zugänglich machen. Die Datenplattform bildet eine Grundlage für eine einheitliche Datenbasis und erleichtert somit die Durchführung von BI bzw. Data Science Projekten. Als einen ersten Anwendungsfall zur Verbesserung der Sensordaten bietet sich eine Anomalie-Erkennung an. Das größte Potential sehen wir allerdings bei Predictive Quality bzw. das Optimieren der Produktion, basierend auf den Einstellparametern der Maschinen.

Aktuelle Beiträge

Alle ansehen
bottom of page