Datenanalyse erfolgreich in der Fertigung einsetzen – wie gelingt der Start?

1. Auf welcher organisatorischen Ebene sollte das Data Analytics Projekt beginnen?

Die organisatorische Ebene spielt für den Start eines Analytics-Projekts eine untergeordnete Rolle. Interessanter ist es sich folgende Fragen zu stellen:

Ist das Unternehmen mit den Data Analytics-Ansätzen bereits gut vertraut?

Falls nicht, ist der beste Einstieg ein Workshop zum Thema Datenanalyse, an dem sowohl Experten als auch das Management teilnehmen. Ziel dieses Workshops ist es, ein Grundverständnis von den Möglichkeiten der Datenanalyse zu erhalten und mögliche Anwendungsfälle zu identifizieren.

Hat das Management ein (tiefes) Verständnis vom technischen Prozess?

Falls nicht, lohnt sich ein Workshop zu den Anforderungen, an dem die Fachleute des Produktionsstandorts teilnehmen. Hierbei wird üblicherweise ein Ursache-Wirkungs-Diagramm (siehe unten) erstellt. Das beauftragte Data Analytics-Team (das sich aus Daten-, Fertigungs- und IT-Experten zusammensetzt) stellt dabei meist tiefer gehende Fragen wie: „Möchten Sie zwischen Nacharbeit und Ausschuss differenzieren?“ Die Beteiligung des Managements führt im Idealfall zu einer höheren Akzeptanz und Motivation für das geplante Projekt.

Ist das Problem, das mit Data Analytics gelöst werden soll, konkret definiert?

Ist dies der Fall, sollten zunächst Standardtools geprüft werden, um nicht das Rad neu zu erfinden. Das Problem kann ganz konkret sein wie: „Der EoL-Prüfaufwand ist zu hoch und muss reduziert werden.“ Ein Data Analytics Team kann dann sofort gemeinsam mit den Fertigungsexperten prüfen, ob ein vorhandenes Tool zur Reduzierung des Prüfaufwands eingesetzt werden kann und wie es angepasst oder erweitert werden muss.

2. Welche Perspektiven müssen in einem Data Analytics Projekt berücksichtigt werden?

Laut einer von Bosch durchgeführten UX-Studie gibt es drei Typen von Anlagenexperten, mit denen auf unterschiedliche Weise interagiert werden muss – bei einigen mehr auf der geschäftlichen Ebene, bei einigen auf der technischen Ebene und bei wiederum anderen auf der Datenebene

Der skeptische Typ erwartet einen Nachweis für die Vorteile von Data Analytics. Um den Skeptiker zu überzeugen, ist ein ausgezeichnetes Verständnis der Amortisierungsfaktoren erforderlich und diese Faktoren müssen schnell und mit greifbaren Ergebnissen validiert werden können, wobei der Fokus auf Qualität, Kosten und Lieferperformance liegt.

Der aufgeschlossene Typ interessiert sich für neue Wege zur Optimierung. Hier sollte vorrangig erklärt werden, welche Methoden angewendet werden, warum bestimmte Algorithmen gewählt wurden und warum das resultierende Vorhersagemodell für die Anwendung mit beispielsweise Live-Daten bereit ist.

Der Überzeugte ist in der Regel bereits mit Data Analytics in Berührung gekommen und davon überzeugt, dass dies für das Unternehmen von Nutzen sein wird. Hier ist ein optimaler Einstieg möglich, indem sofort gemeinsam mit dem Überzeugten und dem Data Analytics-Team der CRISP-DM (Cross-Industry Standard Process for Data Mining, siehe Diagramm unten) gestartet wird.

Die Erfahrung zeigt, dass Orientierungsworkshops meist sehr nützlich sind, um alle Interessenvertreter auf den Weg mitzunehmen. In der Regel wird mit geschäftlichen Fragen begonnen, um dann den technischen Prozess und die damit verbundenen Einschränkungen zu beleuchten. Oftmals kann der Kunde davon überzeugt werden, dass sich auch komplexe Regressionsanalysen ganz einfach als Gewinn kommunizieren lassen.

3. Welches Wissen benötigen wir für ein Data Analytics Projekt?

Das Data Analytics Team muss in den folgenden drei Bereichen ein gewisses Grundverständnis erlangen:

Geschäftliche Fragen: Zunächst muss das Team über die Ziele des Projekts und die geschäftlichen Anforderungen informiert werden, damit es dieses Wissen für die Setzung der Rahmenbedingungen und die Definition des Datenanalyseproblems verwenden kann.

Daten: Vorverarbeitung, Modellierung, Evaluierung und Nutzung der Daten – alles von einfacher Berichterstellung bis zur Live-Nutzung prädiktiver Modelle. Ein klares Verständnis der Daten ist ein solides Fundament, das sich in vielen Industriezweigen als hilfreich erwiesen hat, auch ohne besonderen Schwerpunkt auf die Fertigung.

Technischer Prozess: Je mehr technische Informationen zu der Wertschöpfungskette der Produktion vorliegen, desto effizienter können Datenanalysen durchgeführt werden. Grundlegende Erklärungen sollten in jedem Fall vorhanden sein, sodass schnell aus den Daten von den trivialen Zusammenhängen („Nachts ist es draußen dunkel“) auf die wertvollen neuen Erkenntnisse geschlossen werden kann.

4. Welche Vorarbeit muss die Fertigungsabteilung leisten, bevor mit der Analyse begonnen wird?

Vielen Fertigungsexperten erscheint die Erfassung und Vorbereitung von Daten auf den ersten Blick als große Herausforderung. Die wichtigste Vorarbeit, die sie leisten können, besteht darin, alle benötigten Daten verfügbar zu machen. „Auf diese Daten haben wir kein Zugriff“ ist keine gute Ausgangsbasis. Weiterhin empfiehlt sich eine Datenqualitätsrichtlinie, die den Kunden durch den Prozess der Datenvorverarbeitung im Hinblick auf die Menge, Qualität und Gültigkeit führt.

5. Welche Datenmenge wird mindestens für eine Analyse benötigt?

Zunächst geht es eher um Qualität als um Quantität. Zusammenhängende, gut strukturierte und einheitliche Datensätze sind wichtiger als die reine Menge. Es ist gut investierte Zeit über die Struktur und Möglichkeiten von Datensätzen nachzudenken, bevor Terabytes an Daten gespeichert werden, ohne zu wissen, was man eigentlich damit anfangen kann. Die Erfahrung zeigt, dass ein Großteil der gespeicherten Daten nie mehr angesehen wird. Darüber hinaus funktionieren Massenspeichersysteme anders als herkömmliche Systeme. Man kann viel Zeit und Geld sparen, indem man sich Gedanken über das Format und die Struktur der Daten macht, bevor unnötig viel Geld in Infrastruktur investiert wird.

6. Kann auch dann eine Analyse durchgeführt werden, wenn das Unternehmen nicht über Datenexperten oder ein großes IT-Team verfügt?

Für diesen Fall stehen professionelle Analysepartner zur Verfügung, die dem Kunden bei der Umsetzung des Projekts und der Lösung zur Seite stehen. Ein kompetentes Team besteht aus einem Mix aus Datenexperten, Fertigungsingenieuren und IT-Fachleuten. Eine solche Kombination ist von entscheidender Bedeutung für die effiziente Umsetzung des Analyseproblems, da die Entwicklung einer datenbasierten Lösung ein Verständnis der geschäftlichen, Daten- und technischen Aspekte voraussetzt. Professionelle Partner bieten während des Projektverlaufs Grundlagenworkshops zur Datenanalyse an, in denen Kenntnisse zur Identifizierung möglicher Anwendungsfälle und zur Validierung der entwickelten Modelle vermittelt werden. Dieses Wissen kann in Projektmeetings zur Besprechung der Ergebnisse angewendet werden. Darüber hinaus ist es entscheidend die Analyse zwischen - sowie Endergebnisse in einer transparenten, übersichtlichen und leicht verständlichen Art zu präsentieren und zur Verfügung zu stellen.

Der Autor

Dr. Maximilian Schlupp ist seit 2016 als Data Scientist bei Bosch Connected Industry in der Planung und Umsetzung von intelligenten Industrie 4.0 Lösungen tätig. Der Schwerpunkt der Lösungen liegt im Umfeld der Produktion und Logistik, um beispielweise prädiktive Algorithmen zur Optimierung von Instandhaltungsintervallen zu nutzen. Davor hat er insgesamt sechs Jahre Erfahrung in der wissenschaftlichen Simulation, Erfassung, Verarbeitung und Analyse größter Datenmengen an der Großforschungseinrichtung CERN gesammelt. (Bild: Bosch)

Diese Veranstaltungen könnten Sie auch interessieren

Tagung
20. VDI-Kongress AUTOMATION 2019

02.07. - 03.07.2019
Baden-Baden

Die "Automation 2018" ist der Branchetreff für die Mess- und Automatisierungstechnik. Erfahren Sie alles zu neuen Trends und erweitern Sie Ihr berufliches Netzwerk.

Informieren & Buchen

Der für Sie ausgewählte Bereich

  • Automation