COMMENT les technologies du futur peuvent révolutionner la qualité industrielle

Production Wokshop interior. Metalworking machines in operation. Modern industrial enterprise. Control panel or console. Side View.

LEs enjeux du traitement dEs données qualité ?

A l’ère de la digitalisation, les données générées dans le cadre d’une démarche qualité en entreprise sont nombreuses et diverses. Celles-ci sont récoltées sur le terrain de manière de plus en plus automatisée via des démarches d’IoT (Internet of Things, autrement dit la capacité à relier en réseau machines, softwares et technologies afin de les exploiter), et aident dans la détection de problèmes ainsi que dans la prise de décision pour leur résolution. La quantité de données produites nécessite ainsi des technologies et des méthodes analytiques particulières afin de générer une forte valeur ajoutée. L’objectif de cet article est de démontrer, au sein d’une démarche qualité en entreprise, comment l’application de nouvelles technologies peut générer de la valeur ajoutée dans l’identification et la résolution de non-conformités

La gestion des données dans une Démarche qualité

L’acquisition des données

Au sein d’un système de management de la qualité, la récolte des données qualité sur le terrain (des écarts entre une situation souhaitée et la situation réelle) facilite la détection de problèmes en permettant d’identifier des signaux faibles, des tendances ou des patterns.

Ces données sont issues de sources plus ou moins structurées :

  • Sources structurées : Les données sont récoltées directement des machines terrain dans une logique d’Internet of Things (IoT) ou par de la maîtrise statistique des procédés (SPC), autrement dit le contrôle statistique des processus.
  • Sources moins structurées : La source la moins structurée est le texte, car celui-ci nécessite de fait une compréhension et est soumis à l’interprétation, rendant délicat la récolte de données par des technologies innovantes. Néanmoins, ce texte peut-être traité par le Natural Language Processing (Traitement Automatique du Langage Naturel ou TALN), permettant aux machines d’identifier par l’apprentissage des corrélations dans un volume de données non structurées impossible à traiter par une intelligence humaine. De manière générale, toutes les sources écrites ou mêmes des retranscriptions de sources orales (témoignages) sont généralement peu structurées mais porteuses d’informations à forte valeur ajoutée.

L’enjeu derrière la collecte de données qualité réside dans le big data. Il s’agit de croiser des informations hétérogènes et de différentes sources (production, marketing, économie, clients, fournisseurs…) afin d’en tirer parti. Le big data représente un ensemble de données qui se caractérisent par les 3V :

  • Volume : Les données sont présentes en grande quantité
  • Vélocité : Les données arrivent vite 
  • Variété : Les données sont de natures hétérogènes. 

Afin de compléter le concept, il est possible d’ajouter 2V :

  • Véracité : Les données doivent être exactes et vérifiées
  • Valeur : La démarche derrière le big data est créatrice de valeur

Automatiser la résolution des problèmes

Toutes ces données récoltées permettent d’analyser les causes des problèmes identifiés. Les méthodes de traitement peuvent être diverses en fonction du contexte. Voici des démarches et bonnes pratiques qualité qui peuvent être améliorées par des technologies innovantes : 

  • Le diagramme de causes et effets, ou diagramme d’Ishikawa, peut être renforcé et en partie automatisé par une modélisation algorithmique itérative afin de trouver les causes les plus logiques.
  • Le Troubleshooting consiste à organiser les arbres de décision à partir de multiples tâches potentiellement faisables, afin de déterminer les meilleures solutions à appliquer. On peut alors utiliser le principe des réseaux bayésiens pour déterminer les meilleures tâches à appliquer, en leur associant un score.

Il est également possible de mettre une démarche de Layered Process Audit (ou audit par couche) après la résolution du problème. Le principe de l’outil est d’échantillonner le scope souhaité (les sujets à risques), de mener des enquêtes et de les analyser de manière statistique afin d’en identifier des tendances. Il est possible d’améliorer la démarche de Layered Process Audit par du machine learning.

  • Le machine learning : l’apprentissage automatique, un domaine appartenant à l’ingénierie sur l’intelligence artificielle, est utile notamment dans le suivi de processus complexes. En effet, la capacité logicielle à apprendre automatiquement à partir des données traitées par le passé permet de faire évoluer l’algorithme avec le temps. Celui-ci, jusqu’à un certain point, ne peut ainsi plus régresser. Le machine learning est basé sur 2 types d’apprentissages : 
    • Supervisé : Le jeu de données est supervisé par un binôme humain / machine, déterminant ce qui est bien ou non, l’objectif vers lequel il faut tendre ou encore aidant dans la reconnaissance d’images par exemple.
    • Par renforcement : L’apprentissage par renforcement est plus autonome. En effet, nécessitant une présence humaine bien moins importante, l’apprentissage se fait sur la base d’expériences, de manière à optimiser le résultat par itération. Ce type d’apprentissage a été prolongé en un apprentissage par concurrence, dans lequel 2 algorithmes s’opposent. L’un va essayer de résoudre des problèmes d’optimisation, tandis que l’autre va essayer de défaire cette optimisation. Le résultat est un apprentissage mutuel plus valorisant.

Mise en application concrète au sein d'une démarche qualité

Pour faire parler les données qualité, il faut bien évidemment des données. Les performances des algorithmes avancés sont liées à la quantité et la qualité des données accessibles. Aussi la première étape de tout traitement de données intelligent est de rassembler et préparer les données pour l’analyse. L’accès aux données est essentiel et plus elles sont structurées à l’origine et plus elles seront aisées à intégrer au moteur de l’algorithme. Les données doivent être conditionnées pour pouvoir être manipulées par les algorithmes analytiques qui sont soumis à des spécifications mathématiques très précises. On parle ici de normalisation ou d’élimination des données aberrantes.

Dès lors que le jeu de données est près à être soumis à l’algorithme il faut décider de la stratégie d’apprentissage. En effet, les algorithmes dits intelligents vont devoir ajuster un grand nombre de paramètres, voir déterminer par eux-même les facteurs qui vont leur permettre de réaliser des inférences pertinentes. Pour celà il faut leur montrer dans quel sens l’utilisateur souhaite diriger l’intelligence du moteur de l’algorithme : quelle solution est attendue. Cette partie d’apprentissage va monopoliser une partie importante des données (données d’apprentissage) disponibles, mais il faut en garder pour pouvoir valider le résultat et quantifier sa valeur (données de test). 

Puis vient le moment où il faut soumettre des données nouvelles à l’algorithme entraîné et évaluer la pertinence de ses résultats. Une phase de surveillance en mode run permet de terminer les ajustements les plus fins pour rendre les résultats les plus précis possible et gagner les quelques pourcents de fiabilité qui vont permettre d’accorder une confiance suffisante au traitement. 

Mais la force des algorithmes avancés est aussi leur capacité à s’améliorer même une fois déployés. Le renforcement des paramètres, leur réactivité par rapport à de nouvelles tendances qui apparaissent dans les données sont autant de qualités qui peuvent ressortir de l’usage des algorithmes convenablement intégrés aux procédés de traitement de données.

LES BÉNÉFICES DE L'UTILISATION DES TECHNOLOGIES DU FUTUR DANS UNE DÉMARCHE QUALITÉ

L’utilisation de nouvelles technologies, à l’ère de l’industrie 4.0 et de l’essor de la digitalisation, permet de renforcer la maîtrise et l’exploitation des données qualité. Cette maîtrise permet ainsi de garantir le contrôle de la qualité sur les produits et processus via un système d’information optimisé, facilitant de fait l’adéquation avec les attentes du client et l’organisation globale de l’entreprise.

De nombreuses technologies peuvent de nos jours servir un système de management de la qualité. Pour plus d’informations sur le sujet, nous vous invitons à nous contacter, nos experts de l’exploitation de la data et de la qualité sauront vous accompagner dans votre projet.