• Aucun résultat trouvé

THESE. présentée à L ECOLE SUPERIEURE D INGENIEURS D ANNECY (ESIA) UNIVERSITE DE SAVOIE. par. Emmanuel DUCLOS. pour obtenir le

N/A
N/A
Protected

Academic year: 2022

Partager "THESE. présentée à L ECOLE SUPERIEURE D INGENIEURS D ANNECY (ESIA) UNIVERSITE DE SAVOIE. par. Emmanuel DUCLOS. pour obtenir le"

Copied!
210
0
0

Texte intégral

(1)

THESE

présentée à

L’ECOLE SUPERIEURE D’INGENIEURS D’ANNECY (ESIA) UNIVERSITE DE SAVOIE

par

Emmanuel DUCLOS

pour obtenir le

DIPLÔME DE DOCTEUR DE L’UNIVERSITE DE SAVOIE

spécialité :

Electronique - Electrotechnique - Automatique

Contribution à la Maîtrise Statistique des Procédés

Cas des procédés non normaux

Le 27 Novembre 1997 devant le Jury composé de :

Mr A. BARREAU Rapporteur Professeur à l’Université de Angers Mr G. COLLIARD Examinateur Directeur de la société ODS Europe Mr A. COURTOIS Directeur de Thèse Professeur à l’Université de Savoie Mr G. MOREL Examinateur Professeur à l’Université de Nancy I Mr M. PILLET Co-directeur de Thèse Docteur-Agrégé de l’Université de Savoie Mr G. SAPORTA Rapporteur Professeur au C.N.A.M. de Paris

(2)

A Joss et mes amis des Aravis

(3)

Remerciements

Le travail présenté dans ce mémoire a été réalisé au Laboratoire de Logiciels pour la Productique d’Annecy (LLP/CESALP) dirigé par Monsieur Alain HAURAT. Je tiens à lui adresser mes remerciements pour m’avoir accueilli au sein de son laboratoire. Je remercie particulièrement Maurice PILLET pour le travail qu’il a effectué a mes côté ainsi que pour les rapports chaleureux qu’il a su entretenir.

Je tiens à remercier Alain COURTOIS Professeur à l’Université de Savoie pour les précieux conseils qu’il m’a donné au cours de ce travail.

Je remercie vivement Monsieur Alain BARREAU, Professeur à l’Institut des Sciences et

Techniques de l’Ingénieur d’Angers, pour avoir accepté de rapporter sur ce travail et de participer au jury. Sa notoriété dans le domaine de la Qualité m’honore particulièrement.

Je suis très reconnaissant à Monsieur Gilbert SAPORTA, Professeur au Conservatoire National des Arts et Métiers de Paris, d’avoir accepté d’être rapporteur de ce travail.

Je remercie Monsieur Gérard MOREL, Professeur à l’Université de Nancy I, de me faire l’honneur de participer au Jury.

Je remercie vivement Monsieur Guy COLLIARD, directeur d’ODS Europe, dont la motivation a été déterminante pour l’élaboration de cette convention CIFRE.

Je remercie également les entreprises qui m’ont permis de mettre en œuvre et de tester les méthodes présentées dans ce mémoire : DAPTA, ID, SALOMON, ...

Je remercie Mohammed TABIZA, doctorant au LAMII, pour le temps qu’il m’a consacré lors de longues séances d’initiation à la statistique, ainsi que Pascal ZAVAGNO pour son dévouement et ses nombreux coups de main en informatique.

Je remercie enfin, tous les membres du LLP pour l’ambiance chaleureuse à laquelle ils contribuent, avec une mention particulière pour Régis, Olivier, Isabelle et Gulçin qui ont partagé mon bureau.

(4)

Table des matières

Chapitre 1

Concepts et outils statistiques de la M.S.P.

Chapitre 2

La non normalité abordée par la Maîtrise Statistique des Procédés

Chapitre 3

Mise en place d’une carte de contrôle pour les procédés non normaux

Chapitre 4

Application industrielle de la carte L

Chapitre 5

Conclusion et Perspectives

(5)

Chapitre 1

Concepts et outils statistiques de la M.S.P.

1. La MSP, une nécessité économique____________________________________________1 1.1 L’avènement de la M.S.P._______________________________________________________1 1.2 Classification des outils de la qualité______________________________________________2 2. Concepts de la M.S.P_______________________________________________________4 2.1 Notion de capabilité____________________________________________________________4 2.1.1 Introduction______________________________________________________________________4 2.1.2 Les indicateurs - Cp et Cpk__________________________________________________________5 2.1.3 Vers un indicateur plus synthétique - Le Cpm____________________________________________6 Notion de rendement_________________________________________________________________7 Le cas unilatéral_____________________________________________________________________7 Les pertes non symétriques_____________________________________________________________9 2.2 Les cartes de contrôle__________________________________________________________10 2.2.1 Les principes de base______________________________________________________________10 Dispersion instantanée et dispersion globale______________________________________________10 Maintenir le procédé sous contrôle______________________________________________________11 2.2.2 Carte de type Shewhart____________________________________________________________11 Estimation par intervalle de confiance___________________________________________________12 Carte position______________________________________________________________________12 Carte de dispersion__________________________________________________________________14 2.2.3 Autres cartes de contrôle___________________________________________________________ 15 Les cartes CUSUM & EWMA_________________________________________________________15 Cartes de contrôle multidimensionnelles_________________________________________________16 Cartes petite série___________________________________________________________________17 Cartes de pré-contrôle________________________________________________________________21 2.2.4 Etude de performance des cartes de contrôle____________________________________________22

3. Le choix d’une méthode statistique___________________________________________24 3.1 Problématique de la modélisation_______________________________________________24 3.1.1 Les modèles paramétriques_________________________________________________________25 3.1.2 Modèles non paramétriques_________________________________________________________25 Modèle de localisation pour une observation______________________________________________25 Modèle d’échelle pour une observation__________________________________________________26 Modèle de localisation échelle pour une observation________________________________________26 Modèle de localisation échelle pour un échantillon_________________________________________26 3.1.3 Méthodes non paramétriques________________________________________________________26 3.1.4 Qualité des méthodes non paramétriques_______________________________________________27

(6)

3.2 Performances d’un estimateur__________________________________________________27 3.2.1 Efficacité d’un estimateur___________________________________________________________27 Estimation ponctuelle________________________________________________________________27 L’erreur quadratique moyenne_________________________________________________________28 L’efficacité relative__________________________________________________________________28 La borne de Frechet_________________________________________________________________29 L’optimalité_______________________________________________________________________29 3.2.2 Robustesse d’un estimateur____________________________ _____________________________ 30

4. Orientation des travaux____________________________________________________31 4.1 Les principes de base de la M.S.P. et leurs limites__________________________________31 4.2 Orientation de nos travaux_____________________________________________________31

(7)

Chapitre 2

La non normalité abordée par la Maîtrise Statistique des Procédés

1. Le mythe de la loi normale___________________________________________________1 1.1 Justification de la normalité_____________________________________________________1 1.2 Procédés non normaux__________________________________________________________2 1.2.1 Introduction______________________________________________________________________2 1.2.2 Les procédés multigénérateurs________________________________________________________3 1.2.3 Les défauts de forme_______________________________________________________________5 1.2.4 Critères de position_________________________________________________________________6 1.3 Répercussions de la non normalité sur les méthodes de la M.S.P.______________________8 1.3.1 Incidence sur les indicateurs de capabilité_______________________________________________8 1.3.2 Déterminer les limites des cartes de contrôle_____________________________________________9 1.3.3 Incidence sur le choix de l’estimateur_________________________________________________11

2. La capabilité des procédés non Normaux______________________________________13 2.1 Les indicateurs fondés sur des distributions théoriques_____________________________14 2.1.1 Les critères de forme______________________________________________________________14 2.1.2 La loi de Rayleigh________________________________ ________________________________ 15 2.1.3 La loi Log-normale________________________________________________________________16 2.1.4 Limite de ces méthodes____________________________________________________________16 2.2 Indicateurs de capabilité fondés sur des familles de distributions_____________________17 2.2.1 La famille des lois de Burr__________________________________________________________17 Identification de la loi________________________________________________________________18 Construction des indicateurs de capabilité________________________________________________18 Conclusion________________________________________________________________________19 2.2.2 La famille des lois de Pearson_______________________________________________________20 2.2.3 La famille des lois de Johnson_______________________________________________________21 Présentation des courbes de Johnson____________________________________________________22 Choix de la famille de courbes_________________________________________________________22 Calcul de la dispersion et des indicateurs de capabilité.______________________________________23 2.2.4 Critique des méthodes_____________________________________________________________23 2.3 Approches non paramétriques__________________________________________________24 2.3.1 Méthodes bootstrap_______________________________ ________________________________ 24 La méthode de calcul________________________________________________________________25 Le Bootstrap standard ou Naïf_________________________________________________________25 Bootstrap par les p-quantiles___________________________________________________________26 Bootstrap à biais corrigé par les p-quantiles.______________________________________________26 Résultats__________________________________________________________________________27

(8)

3. Les cartes de contrôle______________________________________________________28 3.1 Méthodes fondées sur une famille de lois__________________________________________28 3.1.1 Construction d’une carte à partir des lois de Burr________________________________________28 La distribution de BURR_____________________________________________________________29 Détermination des paramètres de la loi de Burr____________________________________________30 Développement de la carte de contrôle non symétrique______________________________________30 Conclusion________________________________________________________________________31 3.2 Cas des populations stratifiées__________________________________________________32 3.2.1 Méthodes d'échantillonnage_________________________________________________________32 Définition des strates________________________________________________________________32 Répartition optimum de l’échantillon entre les strates_______________________________________33 Estimation de la moyenne de la population_______________________________________________34 Variance de l’estimateur de la moyenne__________________________________________________34 Exemple d’application à un procédé mutigénérateur________________________________________35 Aspect pratiques____________________________________________________________________36 3.2.2 Cartes de contrôle pour les populations stratifiées________________________________________36 Conclusion________________________________________________________________________38 3.3 Une approche non paramétrique________________________________________________39 3.3.1 L’estimateur de Hodges Lehmann____________________________________________________39 Présentation de l’estimateur de Hodges-Lehmann__________________________________________39 Les limites de contrôle_______________________________________________________________40 Les performances de la carte de contrôle de Hodges-Lehmann________________________________40 Comparaison entre la carte de Shewhart et la carte de Hodges-Lehmann________________________41 Critique des résultats_________________________________________________________________42 3.3.2 Calcul des limites à partir des p-quantiles empiriques d’un échantillon ordonné_________________43 Analyse de la période opérationnelle____________________________________________________44 Quelques restrictions sur la méthode :___________________________________________________45

4. Synthèse_________________________________________________________________46 4.1 Les indicateurs de capabilité____________________________________________________46 4.1.1 Indicateurs de capabilité pour les procédés non normaux__________________________________46 4.1.2 Réflexion sur les indicateurs_________________________________________________________46 Dispersion à 6s_____________________________________________________________________46 Dispersion sur 99,73% de la population__________________________________________________47 Conclusion________________________________________________________________________48 4.2 Les cartes de contrôle__________________________________________________________50 4.3 Conclusion___________________________________________________________________51

(9)

Chapitre 3

Mise en place d’une carte de contrôle pour les procédés non normaux

1. Introduction______________________________________________________________1 2. Statistiques d’ordre et L-estimateurs___________________________________________3 2.1 Introduction aux statistiques d’ordre_____________________________________________3 2.1.1 Les statistiques d’ordre______________________________________________________________3 2.1.2 Lois de probabilité associées à une statistique d’ordre______________________________________4 2.1.3 Moments des statistiques d’ordre______________________________________________________4 2.2 Les L-statistiques______________________________________________________________5 2.2.1 Loi asymptotique des L-statistiques____________________________________________________5 2.2.2 Robustesse des L-statistiques_________________________________________________________7

3. Proposition d’un autre estimateur pour les cartes de contrôle_______________________8 3.1 Choix de l’estimateur___________________________________________________________8 3.2 Le L-estimateur des moindres carrés______________________________________________9 3.2.1 Présentation______________________________________________________________________9 3.2.2 Estimation par les moindres carrés_____________________________________________________9 3.3 Cas particulier des distributions symétriques______________________________________11 3.3.1 Etude qualitative du L-estimateur_____________________________________________________12 Calcul du L-estimateur par la méthode de Lloyd___________________________________________12 Calcul du L-estimateur par la méthode de Bovik___________________________________________14 Variance asymptotique du milieu_______________________________________________________14 3.3.2 Etude de la P.OM.________________________________________________________________16 3.4 Généralisation au cas non symétrique____________________________________________18 3.4.1 Choix du paramètre de localisation___________________________________________________18 Cas d’une fonction perte symétrique____________________________________________________18 Cas d’une fonction perte non symétrique_________________________________________________19 3.4.2 Choix du paramètre de dispersion____________________________________________________21 3.4.3 Exemple d’application d’un L-estimateur à une loi non normale.____________________________21 Caractéristiques de la population_______________________________________________________21 Etude de variance___________________________________________________________________22 Distribution des estimateurs___________________________________________________________23

4. Mise en oeuvre de la carte L________________________________________________24 4.1 Construction du L-estimateur___________________________________________________24 4.2 Démarrage d’une carte L_______________________________________________________25 4.2.1 Les procédés à évolution lente_______________________________________________________25 4.2.2 Les procédés à évolution rapide et les petites séries.______________________________________28 Les méthodes bootstrap______________________________________________________________28 Application à un échantillon ordonné____________________________________________________28 Pré-requis à l’utilisation de la méthode bootstrap___________________________________________30 Exemple d’application_______________________________________________________________30

(10)

4.3 Calcul des limites de contrôle___________________________________________________32 4.3.1 Problématique____________________________________________________________________32 4.3.2 Intervalle de confiance pour un paramètre de localisation__________________________________32 Intervalle de confiance pour un p-quantile________________________________________________33 Intervalle de confiance « universel »____________________________________________________33 Limites traditionnelles des cartes de contrôle______________________________________________34 4.3.3 Choix des limites de contrôle________________________________________________________34 Tolérance aux valeurs extrêmes________________________________________________________34 4.3.4 Intervalle de confiance pour le paramètre d’échelle_______________________________________35 4.4 Incidence sur les règles de pilotage_______________________________________________36 4.4.1 Procédé sous contrôle______________________________________________________________36 4.4.2 Procédé hors contrôle______________________________________________________________37 4.4.3 Tendance Supérieure ou Inférieure à la cible____________________________________________37 4.4.4 Tendance Croissante ou Décroissante_________________________________________________38 4.4.5 Point proche d’une limite de contrôle__________________________________________________39 4.4.6 Synthèse des règles de pilotage______________________________________________________39 4.5 Sensibilité de la carte L________________________________________________________40 4.5.1 Sensibilité à un décentrage__________________________________________________________40 Cas d’une non normalité très marquée___________________________________________________40 Cas d’une faible non normalité_________________________________________________________43 Remarque_________________________________________________________________________44 4.5.2 Sensibilité à une déformation de la population___________________________________________44 Cadre de notre étude_________________________________________________________________44 Résultats__________________________________________________________________________47 Conclusion________________________________________________________________________48 4.5.3 Le cas particulier des défauts de forme_________________________________________________50 Choix des paramètres à estimer________________________________________________________ 50 Variance du L-estimateur dans le cas des défauts de forme___________________________________51 Conclusion________________________________________________________________________52 4.6 Extensions de la carte L________________________________________________________53 4.6.1 La carte CUSUM L________________________________________________________________53 Principe de la carte CUSUM-L_________________________________________________________53 Exemple d’application_______________________________________________________________54 P.O.M. de la carte CUSUM-L_________________________________________________________55 Conclusion________________________________________________________________________56

5. Conclusions et perspectives_________________________________________________57

Une approche généraliste_____________________________________________________________57 Avantages de la carte L______________________________________________________________57 Mise en œuvre_____________________________________________________________________58 Les limites de la carte L______________________________________________________________58 Perspectives____________________________________ ___________________________________ 58

(11)

Chapitre 4

Application industrielle de la carte L

1. Pré-requis à l’application d’une carte L________________________________________2 1.1 Les procédés étudiés____________________________________________________________2 1.2 La méthode d’échantillonnage___________________________________________________3 1.2.1 Exemple_________________________________________________________________________4 1.3 Les besoins informatiques_______________________________________________________5 1.3.1 Nécessité d’un outil informatisé_______________________________________________________5 1.3.2 Présentation de la maquette informatique________________________________________________6

2. Exemples d’application______________________________________________________8 2.1 La plasturgie__________________________________________________________________8 2.1.1 Etude d’une presse à injecter 8 empreintes_______________________________________________9 2.1.2 Etude d’une presse à injecter 4 empreintes______________________________________________14 2.2 L’industrie du décolletage______________________________________________________19 2.2.1 Etude d’un tour multibroches 6 broches________________________________________________19

3. Conclusion______________________________________________________________23

(12)

Introduction

La mondialisation de l'économie suscite aujourd'hui une concurrence importante entre les entreprises. La recherche de la qualité est devenue un point-clé de la compétition du fait de l'importance de l'offre par rapport à la demande. Ainsi, l'obtention de la qualité des services et des produits passe le plus souvent par la mise en place d’un système d’assurance qualité et par

l'utilisation des outils de la qualité tant au niveau de la conception que de la réalisation des produits.

La Maîtrise Statistique des Procédés, qui s'inscrit dans une stratégie de prévention et dont l’objectif est d'améliorer la qualité d'une production, a donc connu un fort développement dans l'industrie européenne ces dix dernières années.

Cette utilisation intensive et la diversité des applications ont contribué à mettre en évidence des cas où les hypothèses statistiques sur lesquelles reposent les outils de la M.S.P. ne sont pas valables.

Parmi ces cas, la non normalité de la distribution des observations est fréquemment rencontrée par les industriels. L’objectif de notre travail a été dans un premier temps d’étudier l’incidence de la non normalité sur les performances des outils de la M.S.P. et la validité des solutions proposées.

Nous avons ensuite présenté une nouvelle approche pour la construction de cartes de contrôle dans le cas d’une population non normale. La non normalité de la distribution des observations est selon Shewhart significative d'un processus qui n'est pas "sous contrôle". Cette non normalité peut néanmoins être acceptable pour un industriel et nous montrerons dans notre exposé qu'il est

possible de tirer parti de la composante déterministe du signal pour améliorer l'efficacité des cartes de contrôle.

Après avoir présenté les concepts de la M.S.P, et certains de leurs développements récents, nous rappellerons quelques notions importantes de la théorie de l’estimation. Nous aborderons en effet dans notre exposé le problème des estimations s'appuyant sur un modèle statistique non

paramétrique.

Nous étudierons ensuite les différents cas de non normalité rencontrés dans le cadre d’applications industrielles et certaines des méthodes proposées pour estimer les indicateurs de capabilité. Nous discuterons également des performances de cartes de contrôle dédiées aux procédés non normaux et de l’intérêt pratique des méthodes employées.

Pour améliorer les performances des cartes de contrôle dans le cas de procédés non normaux, nous proposerons l’utilisation d’un estimateur non paramétrique qui a des propriétés intéressantes en terme de variance pour un large ensemble de lois. Nous mettrons en évidence les performances de ces nouvelles cartes de contrôle (la carte L) et présenterons plusieurs méthodes pour sa mise en œuvre dans un contexte industriel. Ces études seront validées par des exemples d’application en milieu industriel.

(13)

Chapitre I

Chapitre I

Concepts et outils statistiques de la MSP

La MSP, une nécessité économique

C’est en 1929 que Shewhart a présenté sa célèbre « Control Chart », ouvrant ainsi la voie à une nouvelle discipline qu’est la M.S.P. Tout d’abord oubliée, ce n’est que dans les années 60 que Deming a su insuffler un regain d’intérêt à cette technique.

En effet, les japonais avaient déjà compris l’enjeu que représentait la qualité au lendemain de la deuxième guerre mondiale. Le passage d’une économie de production, durant les 30 glorieuses, à une économie de marché après la crise de 73 poussa l’industrie européenne à subir de fortes mutations et c’est seulement dans les années 80 que la qualité s’imposa comme une évidence en Europe.

La M.S.P. sous ses différentes formes constitue aujourd’hui le fer de lance d’une stratégie de prévention. La M.S.P. n’est pas à elle seule synonyme de qualité, on la conjugue avec d’autres outils tels que l’AMDEC, les plans d’expérience, les techniques de régression, le QFD ainsi que les 7 outils de la qualité pour obtenir un ensemble cohérent, capable de soutenir le système qualité.

(14)

L’avènement de la M.S.P.

L’industrie japonaise utilise de façon intensive les outils statistiques depuis plus d’une quarantaine d’années. L’évolution des méthodes de production et du niveau de qualité souhaité est à l’origine de la prise de conscience des bénéfices importants qu’il était possible de réaliser grâce aux statistiques.

(15)

Au cours de l’histoire, le contrôle qualité s’est d’abord orienté sur le produit fini. Ce contrôle était réalisé soit par un contrôle à 100% soit par un contrôle statistique alors qu’aucune de ces deux méthodes ne permet d’obtenir 100% de produits bons. Les plans de contrôle nécessitent, en effet, des prélèvements importants pour ne garantir qu’un niveau assez médiocre de produits non conformes, alors que les niveaux de qualité requis sont souvent de l’ordre de quelques pièces par millions (ppm).

D’autre part, les cadences de production ayant considérablement augmentées, il devient impossible de procéder à du contrôle 100%. Ce type de contrôle ne donne d’ailleurs que des résultats

médiocres lorsqu’il est réalisé par l’homme, du fait de son caractère répétitif.

Enfin, le contrôle final, qu’il soit statistique ou à 100%, est très critiquable puisqu’il mobilise du personnel qui n’apporte aucune valeur ajoutée au produit. Il garantit plus ou moins un niveau de qualité pour le client mais n’empêche pas la fabrication de produits non conformes qui finissent par s’avérer très coûteux pour les entreprises.

Ces constats ont donc motivé les entreprises à évoluer vers un contrôle, plus réactif, en amont du produit fini. Il s’agit de l’auto-contrôle.

Classification des outils de la qualité

Pour aborder la démarche de la qualité totale, celle-ci doit s’appliquer au niveau le plus élevé de l’entreprise. C’est par l’application simultanée des outils et méthodes de la qualité que les industriels performants arrivent à placer rapidement sur le marché des produits compétitifs.

La M.S.P. que nous aborderons en détail dans ce mémoire n’est qu’un maillon de la chaîne de la qualité, que l’on applique tout au long du processus de création et de fabrication d’un produit.

Le tableau (Figure 1 ) présente le degré d’utilité de chacun de ces outils pour les différentes étapes de définition du processus de fabrication et de conception du produit. On remarque en particulier que la M.S.P. est l’élément terminal de cette longue chaîne de spécifications et qu’elle est le seul outil capable d’assurer la qualité du produit au niveau de l’outil de production.

(16)

Phases de développement

PLAN

D’EXPERIENCES QFD AMDEC

PRODUIT AMDEC

PROCEDE MSP

Définition

du produit

L J

Définition des

caractéristiques

J J

Validation

du produit

J J

Définition du

processus

J L

Validation du

processus

J J K

Définition des

spécifications

J J K

Suivi et pilotage en

production

J

J Utilisation Majeure L Utilisation Mineure (d’après Pil 931)

Figure 1

1 PILLET M. Contribution à la Maîtrise Statistique des Procédés - Cas particulier des petites séries - Thèse en Sciences de L’ingénieur - Univ. Savoie -1993

(17)

Concepts de la M.S.P

La naissance de la M.S.P. remonte à la fin des années 20 par les célèbres travaux de Shewhart [She 32]2 où ce dernier propose de déceler les causes de non qualité d’un produit à partir de tests statistiques sous forme graphique ; la carte de contrôle est née. Dans les décennies qui ont suivi, la M.S.P. s’est enrichie d’outils modernes répondant à de nouvelles attentes des industriels. Parmi les applications de la M.S.P, nous nous limiterons à l’étude des outils dédiés aux critères mesurables.

Ces outils, aussi différents soient ils, s’appuient sur deux concepts essentiels de la M.S.P :

· L’analyse de capabilité

· Le pilotage par carte de contrôle

Bien que les concepts de capabilité et de carte de contrôle n’aient pas été introduits en même temps, ils sont très étroitement liés.

Une étude de capabilité permet de définir si le procédé de fabrication est apte à fournir un produit avec le niveau de qualité requis. Les indices de capabilité consistent en effet à comparer la qualité d’une production sur une période donnée, par rapport à un objectif donné.

Tandis que les cartes de contrôle permettent de piloter un procédé, afin de maintenir et d’améliorer sa capabilité.

Notion de capabilité

Introduction

On définit la capabilité d’un moyen de production comme étant une quantification de la performance réelle du procédé par rapport à la

performance souhaitée. La traduction en langage mathématique de cette définition donne lieu, encore à l’heure actuelle, à beaucoup de

discussions. Deux questions se posent en effet, à savoir :

· Quelle est la traduction de la performance souhaitée ?

· Comment mesurer la performance réelle ? Si tout le monde est à peu près d’accord pour prendre l’intervalle de tolérance comme référentiel de la performance, le calcul de la performance réelle suscite encore quelques interrogations lorsque l’on s’intéresse aux procédés non normaux.

2 SHEWHART Economic Control of Quality of Manufactured Products -Van Nostrand Co. Inc Princeton - 1932 Notion de capabilité selon Serre.

(18)

Ce problème sera largement abordé dans le chapitre suivant, c’est pourquoi nous ne nous y attarderons pas plus longtemps.

Deux générations d’indicateurs de capabilité ont ainsi vu le jour :

· Les indicateurs de première génération qui s’appuient sur un calcul de la dispersion des mesures.

· Les indicateurs de deuxième génération, qui se basent sur la fonction perte introduite par Taguchi.

Les indicateurs - Cp et Cpk

Il n’est plus besoin de vanter les mérites des indicateurs de capabilité Cp et Cpk. Ils sont déjà largement utilisés dans l’industrie pour définir la qualité d’un produit livré au client.

Rappelons les formules de ces indicateurs (Eq 0). On note m et s la moyenne et la dispersion de la population, IT est l’intervalle de tolérance, TS et TI sont respectivement les Tolérances Supérieure et Inférieure.

Cp=IT

6sCpk=Min

TS−m , m−TI3s

Eq 0

Ces indicateurs de capabilité sont indissociables si l’on souhaite formaliser correctement le niveau de qualité d’une production. Cependant de nombreuses relations client fournisseur s’appuient uniquement sur le Cpk, pour la simple raison que cet indicateur intègre à la fois une notion de centrage et de dispersion.

On peut montrer au travers d’un exemple qu’un Cpk seul, ne permet pas de rendre compte de la qualité d’un produit livré (Figure 2).

8 s

6 s

16 s

6 s 4 s

TS

TS TI

TI

Figure 2

On constate dans ces deux cas que le Cpk est de 1,33 alors que la qualité de ces produits est

fondamentalement différente. Dans le 1er cas le Cp est de 1,33 alors qu’il est de 2,67 dans le second cas, ce qui peut conduire à la conclusion que la production 2 est de meilleure qualité. Or nous verrons dans le paragraphe suivant que c’est exactement l’inverse.

(19)

L’utilisation du Cp et du Cpk ne permet donc pas une interprétation aisée de la qualité d’une production. Il est encore plus difficile de comparer deux productions lorsque leurs Cp et Cpk sont différents.

Le besoin d’un indicateur de capabilité plus synthétique se fait donc ressentir.

Vers un indicateur plus synthétique - Le Cpm

Le Cpm a été introduit par Hsiang T.C. et Taguchi G. [Hsi 85]3 bien après le Cp et le Cpk.

Cet indicateur a la particularité de prendre en compte à la fois la dispersion et le centrage de la production. Son avantage est donc de fournir une indication précise sur la qualité de la production au travers d’une seule valeur.

Le principe du Cpm repose sur la considération suivante :

Le principal critère utilisé pour juger si un produit est de qualité ou ne l’est pas, est de vérifier si les critères qui le caractérisent sont conformes aux spécifications. En tout état de cause, un produit qui est juste à l’extérieur des tolérances sera rejeté alors qu’un produit qui est juste à l’intérieur de ces tolérances est jugé satisfaisant alors que la qualité intrinsèque de ces deux produits est peu

différente (Figure 3).

IT

Produit 1 Produit 2

Cible

Figure 3

Taguchi considère au contraire que tout écart d’un critère par rapport à la valeur cible est dommageable pour la qualité du produit. Il propose donc d’évaluer la « non qualité » d’une

production en calculant un écart quadratique moyen par rapport à la cible, cette procédure est plus connue sous le nom de « fonction perte de Taguchi ».

La perte engendrée par une valeur individuelle est donc évaluée par L=KX−Cible2 .

Dans le cas d’un échantillon de moyenne m et d’écart type s la perte moyenne par pièce est donnée par la relation (Eq 0) :

L=K

s2m−Cible2

Eq 0

3 HSIANG T. C. TAGUCHI G. A tutorial on Quality Control and assurance - The Taguchi Methods ASA - Annual Meeting Las Vegas - 1985

(20)

Le Cpm est alors défini par (Eq 0) :

Cpm= IT

6

s2mCible2

Eq 0

Si on se reporte à l’exemple énoncé au §, on constate que le Cpm pénalise énormément le décentrage d’un procédé puisque dans le premier cas Cpm= 1,33 alors que dans le second cas, Cpm= 0,64. Cette différence s’explique par un mauvais rendement de réglage dans le cas N°2 ou le Cp est très bon mais le centrage du procédé laisse à désirer.

Notion de rendement

Une particularité intéressante du Cpm est d’intégrer une notion de rendement de réglage du

procédé. En effet, on constate que le Cpm est égal au Cp lorsque le procédé est parfaitement réglé : c’est-à-dire lorsque Cp = Cpk. Plus le réglage se détériore (le Cpk s’écarte du Cp), plus le Cpm tend vers 0.

0 0.5 1 1.5 2 2.5

0 1 2 3 4 5 6

k Cp Cpk Cpm

Ainsi le Cpm s’avère beaucoup plus sensible au décentrage que le Cpk. On trouve par exemple un Cpm de 1.33 pour un décentrage de k=1.11s alors que Cpk=1.33 pour un décentrage de k=2s.

Le cas unilatéral

Du fait de sa limitation aux critères bilatéraux le Cpm était encore considéré par certains

utilisateurs comme un outil mineur de la M.S.P. Une extension au cas unilatéral proposée par M.

Pillet [Pil 96b]4 [Pil 97b]5 élargit le cadre d’application du Cpm et le rend, ainsi, au moins aussi attrayant que le Cp et le Cpk.

4 PILLET M. DUCLOS E. COURTOIS A. Généralisation de l’indicateur de capabilité Cpm - Cas des tolérances unilatérales - Contrôle Industriel et Qualité - N°196 - Février 96

5 PILLET M. ROCHON S. DUCLOS E. Generalization of capability index Cpm. Case of unilateral tolerances Quality engineering, accepté, USA

(21)

Nous avons vu précédemment que le Cpm intégrait une notion de rendement par rapport à une situation où le procédé est parfaitement centré. Dans le cas unilatéral, il n’est pas possible de centrer le procédé, c’est pourquoi nous allons définir une situation de référence (Figure 4) telle que :

· la moyenne soit située à ls de 0 ;

· La moyenne soit située à 4s de la limite supérieure ;

· Le Cpm de référence soit de 1,33.

IT 4 s l s

X

Perte

Figure 4

La valeur l détermine le niveau de qualité souhaité, c’est pourquoi il doit être le fruit d’un consensus entre le client et le fournisseur. Elle sera fixée entre 3 et 5.

Voyons comment réécrire l’équation du Cpm (Eq 0) :

Cpm= IT

A

s2m2=

4λ⋅s

A

s2λ⋅s2=1, 33d 'o A=

4λ 1,33

1λ2

Eq 0

Ainsi on peut donner les différentes valeurs de A en fonction de l (Figure 5) :

l 3 4 5

A 1.66 1.46 1.33

Figure 5

La formule du Cpm est indépendante de la distribution de la population, ainsi son application est particulièrement aisée dans le cas des défauts de forme.

(22)

Les pertes non symétriques

La philosophie du Cpm est très différente de celle des indicateurs Cp et Cpk. Alors que le Cp et le Cpk sont très liés à la notion de pourcentages hors tolérance, le Cpm traduit plus la qualité globale des produits.

Une des subtilités du Cpm est d’ailleurs de pouvoir considérer qu’un écart positif par rapport à la cible peut engendrer des pertes différentes d’un écart négatif [Tag 89]6. Ce cas de figure est rencontré fréquemment dans l’industrie lorsque le dépassement d’une tolérance provoque dans un cas une opération de retouche sur le produit (faible coût), et dans l’autre cas un rebut (coût élevé).

TS TI

K 2 K 1

x2 x1

Cible

Figure 6

Dans ce cas, on définit la perte moyenne par la relation (Eq 0) :

L= 1

N

[

K1

'xCible2K2

''xCible2

]

Eq 0

avec : K1 le coefficient de la fonction perte pour tout x<Cible K2 le coefficient de la fonction perte pour tout x>Cible

Dans ce cas, l’intuition nous dit que la meilleure politique n’est pas forcément de centrer la production sur la cible pour minimiser la perte (Figure 6). Nous aborderons ce sujet plus en détail dans le chapitre 3.

Rappelons enfin que les indicateurs de capabilités sont estimés en remplaçant m et s par des estimations ( X et S), d’où une incertitudes qui se traduit par un intervalle de confiance, trop peu souvent utilisé. Nous verrons au chapitre 2 §2.3 une utilisation des intervalles de confiance sur les indicateurs de capabilité.

6 TAGUCHI G. ELSAYED A. HSIANG T. C. Quality engineering in production systems - Mc Graw-Hill 1989

(23)

Les cartes de contrôle

Les principes de base

Les cartes de contrôle sont des outils indispensables pour réaliser un pilotage rationnel du procédé de fabrication. Une application rigoureuse de cette méthode permet d’améliorer de manière significative la capabilité du procédé pour deux raisons :

· L’emploi de critères de décisions statistiques permet de réduire les erreurs liées à un réglage inopportun ou à une absence de réglage. Il en résulte une augmentation du rendement de stabilité.

· De plus, l’application d’une politique consistant à viser une valeur cible permet d’augmenter le rendement de réglage

Dispersion instantanée et dispersion globale

Lorsque nous avons abordé la notion de capabilité, nous avons bien sûr parlé de la dispersion du procédé. Cette variabilité provient de l’ensemble du procédé de production que l’on décompose généralement en cinq sources élémentaires de dispersion (les 5M) et, par conséquent, cinq causes fondamentales de la non qualité : Machine, Main d’œuvre, Matière, Méthodes et Milieu.

L’objectif de la qualité étant de réduire l’influence des causes de dispersion, on ciblera tout

naturellement notre action sur les 5M du procédé. Or, il est souvent difficile d’agir sur la dispersion de la machine, à moins d’investissements importants. Cette dispersion résiduelle, que l’on qualifie aussi de « dispersion naturelle », détermine donc la capabilité maximale que l’on puisse atteindre : c’est la capabilité machine.

On distinguera donc deux types de dispersion : la dispersion instantanée causée par la machine et dans une moindre mesure les « autres M », et la dispersion globale qui est une résultante des variations causées par les 5M sur la période de production.

Dispersion instantanée

Temps

Dispersion

globale Dispersion

instantanée

Temps

Dispersion globale

Cote Cote

Figure 7

Pour réduire la dispersion globale du procédé et, donc, pour que la capabilité procédé tende vers la capabilité machine, il est nécessaire de limiter les variations de consigne de la machine en la pilotant. Le problème qui se pose alors est de distinguer les écarts du procédé qui sont naturels, de ceux qui doivent entraîner un réglage.

(24)

Maintenir le procédé sous contrôle

En analysant finement la dispersion d’un procédé, on peut extraire deux causes essentielles de dispersion. Il s’agit des causes communes, qui sont liées à des phénomènes aléatoires, et des causes spéciales qui sont des causes de dispersion identifiables.

Contrairement aux causes communes, les causes spéciales nécessitent une intervention sur le procédé.

Causes Spéciales

Réglage 1 Réglage 2

Causes Communes

Les cartes de contrôle ont été développées dans le but de détecter l’apparition de causes spéciales et de les dissocier des causes communes qui ne nécessitent pas d’intervention sur le procédé. Pour cela on réalise deux tests statistiques :

· Le premier pour s’assurer que la machine n’est pas déréglée,

· Le second pour vérifier que la dispersion naturelle n’a pas changé.

Carte de type Shewhart

La carte de contrôle proposée par Shewhart est constituées d’un test par intervalle de confiance, pour vérifier la conformité d’un paramètre du procédé à une valeur théorique et une estimation ponctuelle qui permet de déterminer le réglage à effectuer si la valeur du paramètre estimé a évolué.

La carte de Shewhart, se compose de deux graphiques : une carte de position et une carte de

dispersion permettant respectivement de représenter l’évolution de la position et de la dispersion de la machine (Figure 8).

(25)

Date Heure X1 X2X3 X4X5 Moyenne Ecart-type

X

S

Figure 8

Intervalle de confiance

On note m une estimation ponctuelle d’un paramètre m0 d’une loi Fm(X).

Pour réaliser un test par intervalle de confiance ou test d’hypothèse sur un paramètre d’un procédé on considère deux cas :

· On suppose que l’estimation du paramètre du procédé est égale à une valeur théorique que l’on spécifie (la cible pour une carte de contrôle). Cette hypothèse est appelée hypothèse nulle H0.

m=m0

· L’autre alternative notée H1 est valide lorsque l’estimation m est différente de la valeur théorique.

m¹m0

Deux types d’erreurs peuvent être commises lors d’un test d’hypothèse :

· On peut tout d’abord rejeter l’hypothèse nulle H0 alors qu’elle est vraie. La probabilité de faire cette erreur (type I) est aussi appelée risque a ou risque fournisseur.

· On peut également accepter l’hypothèse nulle H0 alors qu’elle est fausse. La probabilité de faire cette erreur (type II) est aussi appelée risque b ou risque client.

Carte position

Pour construire la carte de position, on suppose qu’en l’absence de causes spéciales, la population suit une loi normale.

Dans le cas de la carte de Shewhart, nous considérons que l’écart type s de la population est connu.

On en déduit que l’écart type de la moyenne d’un échantillon de n observations est : s/

n .

Ayant calculé la moyenne d’un échantillon de n observations, nous cherchons à déterminer si l’écart de cette moyenne par rapport à la cible n’est pas supérieur à la dispersion naturelle de la moyenne. Si l’écart est supérieur à un écart maximal admis pour un niveau de confiance donné (dispersion naturelle de la moyenne), on conclut que la population n’est pas centrée sur la cible.

(26)

Dispersion naturelle de la moyenne

s

s n

Population

Cible

Risque a/2

LIC LSC

Figure 9

Pour déterminer les limites de contrôle de la carte qui, comme on peut le constater sur la Figure 9, correspondent à la dispersion naturelle de la moyenne, on se fixe un risque a.

On note u une variable aléatoire distribuée selon une loi normale réduite : u=∣Moyenne−Cible∣

s/

n

La table de la loi normale réduite fournit la probabilité que les réalisations d’une variable aléatoire X distribuée selon la loi normale réduite soit supérieure à la valeur u.

En consultant cette table, on note que pour u=3, le risque a=0,0027. Si ce risque nous apparaît satisfaisant, on place les limites de contrôle selon la relation (Eq 0).

LSC=Cible3 s

n

LIC=Cible−3 s

n

Eq 0

Calcul de la dispersion

Le calcul des limites de contrôle de la carte de position suppose que l’écart type des observations soit connu. Cela n’est généralement pas le cas, c’est pourquoi il est nécessaire de l’estimer.

Pendant la période de référence, où le procédé est supposé réglé, on procède à un échantillonnage à intervalle régulier de k sous-groupes, dont l’effectif n’est pas forcément constant.

(27)

L’estimation S de l’écart-type s est alors donnée par la relation (Eq 0) :

S=

i=k

i=11kνiνSii2 avec ni=ni-1 et S

i2=

j=1

n

xij− xi

2

n−1

Eq 0

Carte de dispersion

Une carte de dispersion est également utilisée pour détecter l’occurrence de causes spéciales dont les effets se traduiraient par une modification de la dispersion instantanée du procédé.

De plus, le test précédent de comparaison des moyennes, n’est valide que dans l’hypothèse où l’écart-type s de la population est connu et constant. Il suffit donc que la carte de dispersion soit sous contrôle pour valider cette hypothèse.

La carte de dispersion se base sur un test de comparaison de la variance de l’échantillon par rapport à la variance de la population. Pour cela on calcule l’étendue ou l’écart type de l’échantillon que l’on compare à des limites de contrôle.

Considérons la variable V=n−1 S2

s2 distribuée selon une loi du c2 .

Nous voulons savoir, en admettant un risque a, si l’écart type de l’échantillon appartient à la population d’écart-type s. Les limites du test sont alors déterminées en fonction du risque a choisi par l’inégalité :

cα2/2Vc12α/2 d’où

n−1 cα2/2 sS

cn−1 12α/2s Eq 0

Une autre approche, beaucoup plus largement appliquée, consiste à prendre les limites à ± 3 écart- types de S, de manière analogue à la moyenne.

L’écart type de S est donné par la relation s

1−c42 où c4 est un coefficient correcteur du biais de l’écart-type empirique moyen par rapport à l’écart-type. En effet, le rapport S/c4 donne un estimation sans biais de s.

Dans ce cas on obtient les limites de contrôle (Eq 0) :

(28)

LSC=c4s3s

1c42

LIC=c4s−3s

1−c42

Eq 0

Autres cartes de contrôle

La carte de Shewhart est un outil incontournable de la M.S.P, mais il existe bien évidemment d’autres cartes de contrôle. Nous présenterons succinctement les principes de celles qui, selon nous, ont contribué le plus à l’évolution de la M.S.P.

Les cartes CUSUM & EWMA

Un des principaux inconvénients des cartes de type Shewhart est de ne baser son test que sur les dernières informations recueillies. Elle ignore ainsi les informations relatives aux tendances du procédé contenues dans les dernières estimations. La carte de Shewhart s’avère donc peu performante pour la détection de faibles décentrages.

Les cartes CUSUM (Cumulative Sum) et EWMA (Exponentially Weighted Moving Averages) constituent une alternative intéressante à la carte Shewhart puisqu’elles ont la particularité de détecter les très faibles dérives du procédé.

Le principe de la carte CUSUM est de sommer les écarts entre les estimations de la position du procédé et la cible. Lorsque le cumul des écarts positifs ou le cumul des écarts négatifs dépasse une certaine valeur, on conclut à un décentrage du procédé (Eq 0). Selon la sensibilité de la carte

souhaitée, les limites de contrôle H varient entre 4 et 5.

Afin d’éliminer les variations résiduelles imputables aux causes communes, qui peuvent être à l’origine de fausses alarmes, on applique un « filtre » K dont la valeur est souvent d’un demi écart type.

SH

i=Max

[

0, Xi−CibleK−SHi−1

]

SL

i=Max

[

0, CibleK− XiSLi−1

]

Eq 0

Au même titre que la carte CUSUM, la carte EWMA est particulièrement adaptée à la détection de faibles dérives.

La statistique M reportée sur la carte de contrôle se calcule par la relation (Eq 0).

Mi=λXi1λMi−1λÎ \]0;1\[} {}

¿

Eq 0

(29)

La constante l détermine le poids que l’on souhaite affecter aux dernières mesures. Plus cette valeur est grande, plus la carte est sensible aux dérives subites. En contrepartie, elle détecte moins bien les petits écarts par rapport à la cible.

Les limites de contrôle de la carte EWMA se construisent à ±3 écart-types de la variable M.

sM=s

λ

[

1n2−1λλ2i

]

d’ou les limites LSCM

i=Cible3s

nλ

[

2−1−λ1− λ2i

]

LICM

i=Cible−3s

nλ

[

21λ1λ2i

]

Cartes de contrôle multidimensionnelles

Ces cartes de contrôle s’adressent aux procédés multivariés dont plusieurs caractéristiques sont interdépendantes [Hot 47]7[Jau 97]8. Dans ce cadre, si plusieurs paramètres doivent être contrôlés simultanément, une pratique élémentaire veut que l’on construise une carte de contrôle pour chacun des critères étudiés. Ce faisant, on écarte toute éventualité de corrélation entre les variables.

Supposons que l’on suive indépendamment deux caractéristiques X1 et X2. L’utilisation simultanée de deux cartes de Shewhart conduit à une région de contrôle rectangulaire (Figure 10).

La probabilité que l’une ou l’autre des caractéristiques sorte des limites de contrôle est p= 0.27%.

En revanche, la probabilité jointe que les deux caractéristiques soient hors contrôle est p=0.00272, ce qui est excessivement faible. La représentation sous forme d’une carte de contrôle

bidimentionnelle est une zone « sous contrôle » rectangulaire.

Posons maintenant le problème sous forme vectorielle en considérant la variable X distribuée selon une loi normale bidimensionnelle N(m0,S0) (Eq 0).

X=

[

XX12

]

m0=

[

mm0102

]

S0=

[

ss012012 ss012022

]

Eq 0

D’un point de vue statistique, la construction d’une carte de contrôle pour deux variables se rapporte à un test bivarié avec les hypothèses H0 : m=m0 et H1 : m¹m0

Pour un échantillon Xn le test n

Xm0

tS0

Xm0

c2,α2 conduit à une région critique en forme d’ellipse. La région de validité du test est alors représenté par la surface de l’ellipse tandis que la zone de rejet est à l’extérieur.

7 HOTELLING H. « Multivariable Quality Control » - Techniques of statistical analysis Mc Graw-Hill - New York - 1947

8 JAUPI L. SAPORTA G. Cartes de contrôle pour la variabilité des procédés multidimensionnels Congrès Qualité et Sûreté de fonctionnement - Mars 97 - Angers

(30)

Zone de rejet du test

X2 X1

LSC X 1

LIC X 1

LSC X2

LIC X2

Les variables sont corrélées d'acceptationZone

du test

A

B

d'acceptationZone du test Zone de rejet du test

X2 X1

LSC X 1

LIC X 1

LSC X2

LIC X2

Les variables sont indépendantes

Figure 10

Si l’on compare les zones d’acceptation pour le contrôle univarié (rectangle) et multivarié (ellipse), on voit apparaître deux zones A et B où les conclusions des tests sont différentes.

· La Zone A correspond à la non détection d’un état hors contrôle par la méthode univariée alors que le test multivarié conclue que le procédé est hors contrôle.

· La Zone B correspond à une fausse alerte de la part de la méthode univariée puisque le test multivarié considère que le procédé est sous contrôle.

La taille des Zones A et B dépend essentiellement de la corrélation entre les variables X1 et X2. Néanmoins, ces zones existent toujours, ce qui justifie l’emploi d’une méthode multivariée.

Cartes petite série

Les apports de la MSP dans le domaine de la production en grandes séries ne sont plus à démontrer.

Le formalisme et l’efficacité de la démarche MSP ont été largement plébiscités par les industriels qui ont su l’appliquer avec rigueur. Ces méthodes semblent cependant limitées aux productions de type grandes et moyennes séries, alors qu’une grande partie de la production industrielle repose aujourd’hui sur une organisation de type « petites séries ». La mise en place des concepts de Juste- à-Temps, va d’ailleurs dans le sens d’une diminution de la taille des lots, de même que la

diversification des produits qui oblige les industriels à réduire la taille de leur cycle de production.

Cette évolution, semble irréversible, c’est pourquoi de nouveaux concepts ont été développés pour appliquer la M.S.P. aux productions en petites séries

La principale difficulté rencontrée lorsqu’on étudie des productions en petite série est de les classer par catégories. Les petites séries connaissent en effet une grande diversité, de sorte que chacune d’elles semble un cas particulier. « Nos procédés sont trop particuliers pour appliquer la M.S.P. » entend-on souvent dans les ateliers ! Ce raisonnement conduit le plus souvent à une approche artisanale, très subjective, qui nécessite une expérience importante de la part des opérateurs pour mener à bien le pilotage du procédé.

(31)

Nous retiendrons deux approches fondamentalement différentes pour le traitement des petites séries.

· La première d’entre elles, consiste à rechercher un effet de série dans des productions répétitives de courte durée. Les observations recueillies pour des critères différents ou des opérations différentes peuvent être regroupées sur une même carte de contrôle de type grande série.

· Une autre philosophie est d’anticiper au maximum les prises de décision, même pour des séries très courtes. Il s’agit donc d’exploiter au maximum les données récoltées pour piloter le procédé L’objectif d’une carte de type effet de série est de pouvoir suivre l’évolution d’un procédé qui réalise un travail répétitif en petites séries. Dans le cas de grandes séries, on utilise autant de cartes de contrôle que de produits ou de séries lancées. Ceci est bien évidemment inapplicable dans le cas de petites séries puisque les cartes de contrôle obtenues ne comporteraient pas plus de deux ou trois points chacune. L’originalité de cette carte réside donc dans l’application d’un changement de variable, de manière à pouvoir reporter sur la même carte (Figure 11) les points issus d’opérations affectant des produits différents (cibles et dispersions différentes).

Si on considère des opérations A, B et C avec des cibles et des dispersions différentes, on reportera sur la carte, non pas les mesures X mais une variable réduite du type (Eq 0). [Hil 69]9 [Koo 91]10 [Whe 91]11

XCibleA sA/

n

Eq 0

9 HILLER F. S. Xb and R chart Control Limits based on a small number of subgroups - Journal of Quality Technology - pp17-26 - 1969

10 KOONS G. F. SPC : Use in low volume manufacturing environment - Statistical Process Control in Manufacturing - Quality and reliability - ASQC Quality Press - 1991

11 WHEELER D. J. Short Run S.P.C. - SPC Press - 1991

Références

Documents relatifs

En fait, pour occuper une place bien déterminée dans la structure mentale du public cible toute organisation doit adapter une stratégie marketing bien étudiée pour

20 Durant cette réaction, six liaisons C-C sont formées (dont deux migrations de groupements méthyle) ainsi que six centres stéréogéniques totalement contrôlés.

Dans le cadre de la recherche de nouvelles familles de molécules pour la coextraction de l’U(VI) et du Pu(IV), l’incorporation de cycles aliphatiques dans la structure des

DIPLÔME VISÉ PAR LE MINISTERE DE L'ÉDUCATION NATIONALE / GRADE MASTER. CONCOURS D’ENTREE EN 1 ère ANNEE DE L’ESG

Meine Großeltern schenkten mir Geld, damit ich mir Bücher kaufe. a/ Meine Großeltern schenkten mir Geld, mir Bücher

Des modèles microscopiques 3D visant à décrire de façon la plus réaliste possible la formation de la microstructure au cours du temps ont été développés. Parmi les plus

JP TAGUTCHOU (2008) / Thèse / Gazéification du charbon de plaquettes forestières : particule isolée et lit fixe continu 176 Nous constatons donc que les résultats que nous

Dans un premier temps, il était plus aisé de mesurer par scintillation liquide la phase contenant le complexe d'iode, mais dès que l'étude a porté sur l'analyse de l'iode dans