A l’ère de la digitalisation, les données générées dans le cadre d’une démarche qualité en entreprise sont nombreuses et diverses. Celles-ci sont récoltées sur le terrain de manière de plus en plus automatisée via des démarches d’IoT (Internet of Things, autrement dit la capacité à relier en réseau machines, softwares et technologies afin de les exploiter), et aident dans la détection de problèmes ainsi que dans la prise de décision pour leur résolution. La quantité de données produites nécessite ainsi des technologies et des méthodes analytiques particulières afin de générer une forte valeur ajoutée. L’objectif de cet article est de démontrer, au sein d’une démarche qualité en entreprise, comment l’application de nouvelles technologies peut générer de la valeur ajoutée dans l’identification et la résolution de non-conformités.
Au sein d’un système de management de la qualité, la récolte des données qualité sur le terrain (des écarts entre une situation souhaitée et la situation réelle) facilite la détection de problèmes en permettant d’identifier des signaux faibles, des tendances ou des patterns.
Ces données sont issues de sources plus ou moins structurées :
L’enjeu derrière la collecte de données qualité réside dans le big data. Il s’agit de croiser des informations hétérogènes et de différentes sources (production, marketing, économie, clients, fournisseurs…) afin d’en tirer parti. Le big data représente un ensemble de données qui se caractérisent par les 3V :
Afin de compléter le concept, il est possible d’ajouter 2V :
Toutes ces données récoltées permettent d’analyser les causes des problèmes identifiés. Les méthodes de traitement peuvent être diverses en fonction du contexte. Voici des démarches et bonnes pratiques qualité qui peuvent être améliorées par des technologies innovantes :
Il est également possible de mettre une démarche de Layered Process Audit (ou audit par couche) après la résolution du problème. Le principe de l’outil est d’échantillonner le scope souhaité (les sujets à risques), de mener des enquêtes et de les analyser de manière statistique afin d’en identifier des tendances. Il est possible d’améliorer la démarche de Layered Process Audit par du machine learning.
Pour faire parler les données qualité, il faut bien évidemment des données. Les performances des algorithmes avancés sont liées à la quantité et la qualité des données accessibles. Aussi la première étape de tout traitement de données intelligent est de rassembler et préparer les données pour l’analyse. L’accès aux données est essentiel et plus elles sont structurées à l’origine et plus elles seront aisées à intégrer au moteur de l’algorithme. Les données doivent être conditionnées pour pouvoir être manipulées par les algorithmes analytiques qui sont soumis à des spécifications mathématiques très précises. On parle ici de normalisation ou d’élimination des données aberrantes.
Dès lors que le jeu de données est près à être soumis à l’algorithme il faut décider de la stratégie d’apprentissage. En effet, les algorithmes dits intelligents vont devoir ajuster un grand nombre de paramètres, voir déterminer par eux-même les facteurs qui vont leur permettre de réaliser des inférences pertinentes. Pour celà il faut leur montrer dans quel sens l’utilisateur souhaite diriger l’intelligence du moteur de l’algorithme : quelle solution est attendue. Cette partie d’apprentissage va monopoliser une partie importante des données (données d’apprentissage) disponibles, mais il faut en garder pour pouvoir valider le résultat et quantifier sa valeur (données de test).
Puis vient le moment où il faut soumettre des données nouvelles à l’algorithme entraîné et évaluer la pertinence de ses résultats. Une phase de surveillance en mode run permet de terminer les ajustements les plus fins pour rendre les résultats les plus précis possible et gagner les quelques pourcents de fiabilité qui vont permettre d’accorder une confiance suffisante au traitement.
Mais la force des algorithmes avancés est aussi leur capacité à s’améliorer même une fois déployés. Le renforcement des paramètres, leur réactivité par rapport à de nouvelles tendances qui apparaissent dans les données sont autant de qualités qui peuvent ressortir de l’usage des algorithmes convenablement intégrés aux procédés de traitement de données.
L’utilisation de nouvelles technologies, à l’ère de l’industrie 4.0 et de l’essor de la digitalisation, permet de renforcer la maîtrise et l’exploitation des données qualité. Cette maîtrise permet ainsi de garantir le contrôle de la qualité sur les produits et processus via un système d’information optimisé, facilitant de fait l’adéquation avec les attentes du client et l’organisation globale de l’entreprise.
De nombreuses technologies peuvent de nos jours servir un système de management de la qualité. Pour plus d’informations sur le sujet, nous vous invitons à nous contacter, nos experts de l’exploitation de la data et de la qualité sauront vous accompagner dans votre projet.