Der Digitale Zwilling in der Realität bei ams OSRAM

Die Qualitätsanforderungen der Kunden steigen stetig: Fehlerraten wurden zunächst in Prozent, später in PPM ermittelt und heute gilt es, Einzelausfälle zu vermeiden. Die gängigen statistischen Methoden kommen bei diesem hohen Anspruch an ihre Grenzen. Neue Herangehensweisen wurden daher notwendig, um für die für viele OSRAM-Produkte notwendige hohe Fertigungstiefe von über 120 Prozessschritten, Lösungen zu finden. Der digitale Zwilling des Prozesses ermöglicht durch die Erfassung von Prozess- und Qualitätsdaten Analysemethoden, die den Fertigungsprozess optimieren lassen. Dabei werden Datenströme sowohl zum als auch vom Kunden zur Analyse herangezogen und fortlaufend zur Prozessoptimierung verwendet.

  1. Voraussetzung ist die Befähigung und Entwicklung der Mitarbeiter:innen
    Grundvoraussetzung der Digitalisierung und Implementierung eines digitalen Zwillings, ist die Befähigung der Mitarbeiter:innen innerhalb der Organisation zum Verständnis der Notwendigkeit des Vorgehens und, darüber hinaus, zur aktiven Unterstützung bei der Einhaltung von Prozessvorgaben und Nutzung der neuen Daten.
  2. Befähigung der Maschinen (Vernetzung)
    Die Anlagen sind über den Fertigungsprozess zu vernetzen, so dass eine zentrale Ablage der Prozess- und Qualitätsdaten ermöglicht wird. Hohen Anforderungen an Datenrate, Aufzeichnungsqualität und Besonderheiten bei den Schnittstellen zu den Messgeräten, musste dabei Rechnung getragen werden. Ein Datenerfassungssystem (IOT-Gateway) mit Echtzeitbetriebssystem wurde eigens entwickelt, um die hohe Abtastrate, Erfassungsqualität, Konnektivität und Verfügbarkeit garantieren zu können.
  3. Einzelproduktrückverfolgung über den gesamten Wertstrom ist das Schlüsselelement für den digitalen Zwilling
    Essenzielles Element für den digitalen Zwilling ist die Einzelproduktrückverfolgung innerhalb der gesamten Wertschöpfungskette. Dabei wird sichergestellt, dass Prozessparameter und Qualitätsdaten eineindeutig jedem einzelnen Produkt zu jedem Prozessschritt über den gesamten Wertstrom lückenlos zugeordnet werden (zeitliche und örtliche Synchronisation). Auf der Anlage erfolgt vor jeder Produktionsfreigabe eine chronologische Abfolge von Einzelschritten. Zu Beginn wird das Vorprodukt anhand einer eindeutigen Material-ID bzgl. der Zuordnung zur richtigen Produktionsanlage überprüft. Anschließend erfolgt die Übertragung der Prozessparameter auf die Anlage. Nachdem der Parametersatz korrekt eingestellt und der Betriebszustand der Anlage erreicht wurde, wird der Produktionsprozess frei gegeben und die kontinuierliche Erfassung der Qualitäts- und Prozessdaten gestartet. Da durch den Umformprozess i.d.R. der ursprüngliche Identifizierungscode zerstört wird. wird das Endprodukt neu markiert.
  4. Die Nutzung der Daten 
    Wesentlich für die Qualitätssteigerung, ist die breite Verfügbarkeit der Daten, die selbstverständlich durch ein gutes Datenmanagement einer Konsistenzprüfung unterzogen werden sollten. Dies ermöglicht einerseits die klassische Echtzeitbetrachtung vor Ort und unterstützt andererseits das tägliche Shopfloor-Management. Um Zusammenhänge besser und schneller herauszuarbeiten, werden die Daten auf unterschiedlichste Art und Weise visualisiert und in einer breiten Expertengruppe diskutiert. Das digitale Abbild der Daten ermöglicht zudem die Erstellung von aussagekräftigen Prozessmodellen. Eine hohe Datenqualität, gepaart mit einer großen Anzahl an historischen Prozessdaten, erlauben ein präzises Abbild der Realität zu schaffen, um dadurch die Prozessoptimierung auf neuem, höchstem Niveau zu ermöglichen. Hierbei kommen unterschiedliche Methoden und Algorithmen zum Einsatz. Diese werden in interdisziplinären Teams mit Hochschulen, Universitäten und anderen Partnern erarbeitet. Die Komplexität und Vielfalt der Themen, macht für ein zielgerichtetes Vorgehen, eine breite Kooperation notwendig. Komplexe Algorithmen erfordern i.d.R. entsprechend bereitgestellte, evtl. angemietete Rechnerressourcen. Wichtig ist die Schaffung einer kollaborativen Arbeitsweise im Team bestehend aus Datenanalyst und klassischem Prozessingenieur, um die mathematischen Resultate in reale Prozessverbesserungen überführen zu können. Je nach Reifegrad der Auswertung, kann das System von der manuellen Analyse auf ticketbasierte Meldesysteme, bis hin zu geschlossenen Regelkreisen ausgebaut werden.
  5. Ergebnis
    Der Digitale Zwilling ist ein entscheidendes Element, höchste Kundenanforderungen zu erfüllen. Er spielt eine zentrale Rolle in der Fehlervorhersage und -vermeidung, in der Echtzeitüberwachung und Optimierung der Produktionsprozesse. Nebenbei fördert der Digitalen Zwilling durch die schiere Masse an generierten Informationen und sich daraus ergebende Diskussionskultur, die kollegiale und fachliche Zusammenarbeit entlang der vollständigen Wertschöpfungskette. Eine iterative Weiterentwicklung der gesamten Organisation ist direkte Folge. Summarisch stellt sich der Digitale Zwilling als ein Instrument zur Steigerung der Leistungs- und Wettbewerbsfähigkeit dar.

Zum Autor

Ingo Hild, ist Dipl.-Ing. für Elektrotechnik, Studienrichtung Automatisierungstechnik. Nach seiner Ausbildung als Industrieelektroniker bei der Firma Siemens Matsushita und der Weiterqualifikation zum Diplom-Ingenieur an der Universität Ulm arbeitete er für Procter & Gamble und Bosch. 2002 wechselte er zur Firma OSRAM in das Lampenwerk Herbrechtingen und entwickelte dort vollautomatische Maschinen für die Produktion von Automobilscheinwerferlampen. Ein anschließender Wechsel in das Vorerzeugnis-Werk Schwabmünchen erweiterte seinen Verantwortungsbereich bis zur Position als Werkleiter. Derzeit leitet er das Werk in einem disruptiven Wandel von einem traditionellen zu einem Hightech-Werk unter Einsatz von Digitalisierungs- und Lean-Prinzipien. Mehrere Jahre verantwortete er auch zusätzlich das Werk in der Tschechischen Republik. Als Werkleiter setzt er seine langjährige Berufserfahrung insbesondere dafür ein, die Organisation und deren Mitarbeiter für zukünftige Herausforderungen vorzubereiten.