INDUSTRIELLE QUALITÄT REVOLUTIONIEREN
Im Zeitalter der Digitalisierung sind die Daten, die im Rahmen des Qualitätskonzepts eines Unternehmens generiert werden, zahlreich und vielfältig. Diese Daten werden in der Praxis zunehmend automatisiert, über das IdD (Internet der Dinge, d. h. die Fähigkeit, Maschinen, Software und Technologien zu vernetzen, um sie zu nutzen) gesammelt und helfen bei der Erkennung von Problemen sowie bei der Lösungsfindung. Die Menge der erzeugten Daten erfordert daher spezifische Technologien und Analysemethoden, um einen hohen Mehrwert zu erzielen. Ziel dieses Artikels ist es, im Rahmen eines unternehmensweiten Qualitätskonzepts zu zeigen, wie die Anwendung neuer Technologien einen Mehrwert bei der Identifizierung und Lösung von Nichtkonformitäten schaffen kann.
Datenerfassung
Im Rahmen eines Qualitätsmanagementsystems erleichtert die Erfassung von Qualitätsdaten im Betrieb (Abweichungen zwischen Soll- und Ist-Zustand) die Erkennung von Problemen, indem schwache Signale, Trends oder Muster identifiziert werden.
Diese Daten stammen aus mehr oder weniger strukturierten Quellen:
Die Herausforderung bei der Erhebung von Qualitätsdaten liegt in der „Big Data“. Es geht darum, heterogene Informationen aus verschiedenen Quellen (Produktion, Marketing, Wirtschaft, Kunden, Lieferanten usw.) zu kombinieren, um daraus Nutzen zu ziehen. „Big Data“ ist eine Datenmenge, die durch die 3 Dimensionen gekennzeichnet ist:
Zur Vervollständigung der Theorie können weitere 2 Dimensionen hinzugefügt werden :
Anhand der gesammelten Daten können die Ursachen der festgestellten Probleme analysiert werden. Die Verarbeitungsmethoden können je nach Kontext unterschiedlich sein. Hier sind einige Qualitätsansätze und „Good Practices“, die durch innovative Technologien verbessert werden können:
Es ist auch möglich, ein mehrstufiges Prozessaudit durchzuführen, nachdem das Problem gelöst wurde. Das Prinzip dieses Instruments besteht darin, eine Stichprobe des gewünschten Umfangs (der gefährdeten Bereiche) zu ziehen, Erhebungen durchzuführen und diese statistisch zu analysieren, um Trends zu ermitteln. Der Ansatz des Layered Process Audit kann durch maschinelles Lernen erweitert werden.
Maschinelles Lernen ist eine Form der künstlichen Intelligenz, das Vorhersagen anhand von Daten trifft. Es ist vor allem bei der Überwachung komplexer Prozesse nützlich. Die Fähigkeit der Software, automatisch aus den in der Vergangenheit verarbeiteten Daten zu lernen, ermöglicht es, den Algorithmus mit der Zeit weiterzuentwickeln. Bis zu einem bestimmten Punkt kann sich der Algorithmus nicht mehr zurückentwickeln. Maschinelles Lernen lässt sich in 2 Gruppen einteilen:
Um qualitativ hochwertige Daten sprechen zu lassen, werden natürlich Daten benötigt. Die Leistung fortschrittlicher Algorithmen hängt von der Menge und Qualität der zugänglichen Daten ab. Der erste Schritt bei jeder intelligenten Datenverarbeitung ist daher die Erfassung und Aufbereitung der Daten für die Analyse. Der Zugang zu den Daten ist von entscheidender Bedeutung. Je strukturierter die Daten von Anfang an sind, desto leichter lassen sie sich in den Algorithmus integrieren. Die Daten müssen so aufbereitet werden, dass sie von den analytischen Algorithmen, die sehr genauen mathematischen Spezifikationen unterliegen, verarbeitet werden können. Dies wird als Normalisierung oder Eliminierung von Ausreißern bezeichnet.
Sobald der Datensatz bereit ist, dem Algorithmus vorgelegt zu werden, muss die Lernstrategie festgelegt werden. Die so genannten intelligenten Algorithmen müssen nämlich eine große Anzahl von Parametern einstellen oder sogar selbst die Faktoren bestimmen um relevante Schlussfolgerungen zu ziehen. Dazu muss ihnen gezeigt werden, in welche Richtung der Nutzer die Algorithmusmaschine lenken möchte; also welche Lösung erwartet wird. Dieser Lernteil wird einen großen Teil der verfügbaren Daten (Lerndaten) in Anspruch nehmen, aber es müssen auch einige übrig bleiben, um das Ergebnis zu validieren und seinen Wert zu quantifizieren (Testdaten).
Dann kommt der Moment, in dem neue Daten dem trainierten Algorithmus vorgelegt werden müssen und die Relevanz seiner Ergebnisse bewertet werden muss. In einer Überwachungsphase im Betriebsmodus können die Feineinstellungen vorgenommen werden, um die Ergebnisse so genau wie möglich zu machen und die wenigen Prozent Zuverlässigkeit zu erreichen, die ein ausreichendes Vertrauen in die Verarbeitung ermöglichen.
Die Stärke fortschrittlicher Algorithmen liegt in ihrer Fähigkeit, sich selbst nach ihrer Einführung zu verbessern. Die Stärkung der Parameter und ihre Reaktionsfähigkeit auf neue Trends in den Daten sind Qualitäten, die sich aus dem Einsatz von Algorithmen ergeben können, die richtig in die Datenverarbeitung integriert sind.
Der Einsatz neuer Technologien im Zeitalter der Industrie 4.0 und der zunehmenden Digitalisierung führen zu einer verstärkten Kontrolle und Nutzung von Qualitätsdaten. Diese Kontrolle ermöglicht es, die Qualitätskontrolle von Produkten und Prozessen über ein optimiertes Informationssystem zu gewährleisten und so die Übereinstimmung von Kundenerwartungen und der Gesamtorganisation des Unternehmens zu erleichtern.
Viele Technologien können heutzutage zur Unterstützung eines Qualitätsmanagementsystems eingesetzt werden. Setzen SIe sich für weitere Informationen zu diesem Thema mit uns in Verbindung. Unsere Experten für Datenverwertung und Qualität können Sie bei Ihrem Projekt begleiten.