WIE ZUKUNFTSTECHNOLOGIEN DIE

INDUSTRIELLE QUALITÄT REVOLUTIONIEREN

Production Wokshop interior. Metalworking machines in operation. Modern industrial enterprise. Control panel or console. Side View.

DIE HERAUSFORDERUNGEN BEI DER VERARBEITUNG VON QUALITÄTSDATEN

Im Zeitalter der Digitalisierung sind die Daten, die im Rahmen des Qualitätskonzepts eines Unternehmens generiert werden, zahlreich und vielfältig. Diese Daten werden in der Praxis zunehmend automatisiert, über das IdD (Internet der Dinge, d. h. die Fähigkeit, Maschinen, Software und Technologien zu vernetzen, um sie zu nutzen) gesammelt und helfen bei der Erkennung von Problemen sowie bei der Lösungsfindung. Die Menge der erzeugten Daten erfordert daher spezifische Technologien und Analysemethoden, um einen hohen Mehrwert zu erzielen. Ziel dieses Artikels ist es, im Rahmen eines unternehmensweiten Qualitätskonzepts zu zeigen, wie die Anwendung neuer Technologien einen Mehrwert bei der Identifizierung und Lösung von Nichtkonformitäten schaffen kann.

DATENMANAGEMENT MITHILFE EINES QUALITÄTSANSATZ

Datenerfassung

Im Rahmen eines Qualitätsmanagementsystems erleichtert die Erfassung von Qualitätsdaten im Betrieb (Abweichungen zwischen Soll- und Ist-Zustand) die Erkennung von Problemen, indem schwache Signale, Trends oder Muster identifiziert werden.

Diese Daten stammen aus mehr oder weniger strukturierten Quellen:

  • Strukturierte Quellen: Daten werden direkt von Feldmaschinen in einer Internet der Dinge (IdD)-Logik oder durch statistische Prozesslenkung (SPC) gesammelt.
  • Weniger strukturierte Quellen: Die unstrukturierteste Quelle ist der Text, denn er erfordert Verständnis und ist interpretationsbedürftig, so dass es schwierig ist,  Daten mit innovativen Technologien zu sammeln. Dennoch kann dieser Text mit Hilfe von linguistischer Datenverarbeitung (LDV) verarbeitet werden, was es Maschinen ermöglicht, Zusammenhänge in einer Menge unstrukturierter Daten zu erkennen. Im Allgemeinen sind alle schriftlichen Quellen oder sogar Abschriften mündlicher Quellen (Zeugenaussagen) in der Regel unstrukturiert, enthalten aber Informationen mit hohem Mehrwert.

Die Herausforderung bei der Erhebung von Qualitätsdaten liegt in der „Big Data“. Es geht darum, heterogene Informationen aus verschiedenen Quellen (Produktion, Marketing, Wirtschaft, Kunden, Lieferanten usw.) zu kombinieren, um daraus Nutzen zu ziehen. „Big Data“ ist eine Datenmenge, die durch die 3 Dimensionen gekennzeichnet ist:

  • Volume (Umfang): Daten sind in großen Mengen vorhanden
  • Velocity (Geschwindigkeit): Die Daten kommen schnell
  • Variety (Bandbreite der Daten): Die Art der Daten ist heterogen

Zur Vervollständigung der Theorie können weitere 2 Dimensionen hinzugefügt werden :

  • Veracity(Echtheit der Daten): Die Daten müssen genau und verifiziert sein
  • Value(Mehrwert): Der Ansatz hinter „Big Data“ schafft Wert

Automatisieren Sie die Problemlösung

Anhand der gesammelten Daten können die Ursachen der festgestellten Probleme analysiert werden. Die Verarbeitungsmethoden können je nach Kontext unterschiedlich sein. Hier sind einige Qualitätsansätze und Good Practices“, die durch innovative Technologien verbessert werden können:

  • Das Ursache-Wirkungs-Diagramm oder Ishikawa-Diagramm kann durch iterative algorithmische Modellierung verstärkt und teilweise automatisiert werden, um die logischsten Ursachen zu finden.
  • Bei der Fehlersuche werden Entscheidungsbäume aus mehreren potenziell durchführbaren Aufgaben erstellt, um die besten Lösungen zu ermitteln. Das Prinzip der Bayes’schen Netze kann dann verwendet werden, um die besten Aufgaben zu bestimmen, indem man ihnen eine Punktzahl zuordnet.

Es ist auch möglich, ein mehrstufiges Prozessaudit durchzuführen, nachdem das Problem gelöst wurde. Das Prinzip dieses Instruments besteht darin, eine Stichprobe des gewünschten Umfangs (der gefährdeten Bereiche) zu ziehen, Erhebungen durchzuführen und diese statistisch zu analysieren, um Trends zu ermitteln. Der Ansatz des Layered Process Audit kann durch maschinelles Lernen erweitert werden.

Maschinelles Lernen ist eine Form der künstlichen Intelligenz, das Vorhersagen anhand von Daten trifft. Es ist vor allem bei der Überwachung komplexer Prozesse nützlich. Die Fähigkeit der Software, automatisch aus den in der Vergangenheit verarbeiteten Daten zu lernen, ermöglicht es, den Algorithmus mit der Zeit weiterzuentwickeln. Bis zu einem bestimmten Punkt kann sich der Algorithmus nicht mehr zurückentwickeln. Maschinelles Lernen lässt sich in 2 Gruppen einteilen: 

  • Überwacht: Hierbei wird ein Datensatz, bei dem die Zielvariable bereits bekannt ist, vorgelegt.
  • Verstärkung: Beim unüberwachten Lernen werden keine Zielwerte sowie ohne Belohnung durch die Umwelt vorgegeben. Das Verstärkungslernen ist autonomer.Diese Art des Lernens wurde zum wettbewerbsbasierten Lernen erweitert, bei dem zwei Algorithmen gegeneinander antreten. Der eine versucht, Optimierungsprobleme zu lösen, während der andere versucht, diese Optimierung rückgängig zu machen. Das Ergebnis ist ein lohnenderes gegenseitiges Lernen.

KONKRETE ANWENDUNG IM RAHMEN EINES QUALITÄTSKONZEPTS

Um qualitativ hochwertige Daten sprechen zu lassen, werden natürlich Daten benötigt. Die Leistung fortschrittlicher Algorithmen hängt von der Menge und Qualität der zugänglichen Daten ab. Der erste Schritt bei jeder intelligenten Datenverarbeitung ist daher die Erfassung und Aufbereitung der Daten für die Analyse. Der Zugang zu den Daten ist von entscheidender Bedeutung. Je strukturierter die Daten von Anfang an sind, desto leichter lassen sie sich in den Algorithmus integrieren. Die Daten müssen so aufbereitet werden, dass sie von den analytischen Algorithmen, die sehr genauen mathematischen Spezifikationen unterliegen, verarbeitet werden können. Dies wird als Normalisierung oder Eliminierung von Ausreißern bezeichnet.

Sobald der Datensatz bereit ist, dem Algorithmus vorgelegt zu werden, muss die Lernstrategie festgelegt werden. Die so genannten intelligenten Algorithmen müssen nämlich eine große Anzahl von Parametern einstellen oder sogar selbst die Faktoren bestimmen um relevante Schlussfolgerungen zu ziehen. Dazu muss ihnen gezeigt werden, in welche Richtung der Nutzer die Algorithmusmaschine lenken möchte; also welche Lösung erwartet wird. Dieser Lernteil wird einen großen Teil der verfügbaren Daten (Lerndaten) in Anspruch nehmen, aber es müssen auch einige übrig bleiben, um das Ergebnis zu validieren und seinen Wert zu quantifizieren (Testdaten).

Dann kommt der Moment, in dem neue Daten dem trainierten Algorithmus vorgelegt werden müssen und die Relevanz seiner Ergebnisse bewertet werden muss. In einer Überwachungsphase im Betriebsmodus können die Feineinstellungen vorgenommen werden, um die Ergebnisse so genau wie möglich zu machen und die wenigen Prozent Zuverlässigkeit zu erreichen, die ein ausreichendes Vertrauen in die Verarbeitung ermöglichen.

Die Stärke fortschrittlicher Algorithmen liegt in ihrer Fähigkeit, sich selbst nach ihrer Einführung zu verbessern. Die Stärkung der Parameter und ihre Reaktionsfähigkeit auf neue Trends in den Daten sind Qualitäten, die sich aus dem Einsatz von Algorithmen ergeben können, die richtig in die Datenverarbeitung integriert sind.

DIE VORTEILE DES EINSATZES VON ZUKUNFTSTECHNOLOGIEN IM RAHMEN EINES QUALITÄTSANSATZES

Der Einsatz neuer Technologien im Zeitalter der Industrie 4.0 und der zunehmenden Digitalisierung führen zu einer verstärkten Kontrolle und Nutzung von Qualitätsdaten. Diese Kontrolle ermöglicht es, die Qualitätskontrolle von Produkten und Prozessen über ein optimiertes Informationssystem zu gewährleisten und so die Übereinstimmung von Kundenerwartungen und der Gesamtorganisation des Unternehmens zu erleichtern.

Viele Technologien können heutzutage zur Unterstützung eines Qualitätsmanagementsystems eingesetzt werden. Setzen SIe sich  für weitere Informationen zu diesem Thema mit uns in Verbindung. Unsere Experten für Datenverwertung und Qualität können Sie bei Ihrem Projekt begleiten.