R EVUE DE STATISTIQUE APPLIQUÉE
C. C ONSTANT
La méthodologie Taguchi : introduction à la recherche technologique - gestion fonctionnelle de la qualité ou gestion « off-line »
Revue de statistique appliquée, tome 37, n
o2 (1989), p. 47-77
<http://www.numdam.org/item?id=RSA_1989__37_2_47_0>
© Société française de statistique, 1989, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les condi- tions générales d’utilisation (http://www.numdam.org/conditions). Toute uti- lisation commerciale ou impression systématique est constitutive d’une in- fraction pénale. Toute copie ou impression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
LA MÉTHODOLOGIE TAGUCHI
INTRODUCTION A LA RECHERCHE TECHNOLOGIQUE
GESTION FONCTIONNELLE DE LA QUALITÉ
OU GESTION "OFF-LINE"
C. CONSTANT
Ingénieur Qualité méthodologies
dans le groupe PSAProfesseur
associé à l’Université deTechnologie
deCompiègne Professeur
au CERESTARESUME
La
méthodologie Taguchi
permet degarantir
la robustesse des fonctions d’unproduit
en
agissant
sur lesparamètres
influents de son processus d’élaboration compte-tenu de ses conditions d’utilisation.Cet article
développe
cetteméthodologie
en insistant sur lesétapes
essentielles de laquête
de la robustesse assurant le meilleurcompromis performance/coût
d’utilisation donc, la meilleurecompétitivité
duproduit.
Une étude de cas relative à la fabrication du caoutchouc est détaillée à la fin de l’article.
Mots clés : Robustesse, Fonction Perte, Cible, Tables
Orthogonales,
Coût d’utilisation.Plan 1. Etude des
paramètres.
1.1 L’état
d’esprit.
1.2 La formalisation de
l’objectif.
1.3 La recherche des
paramètres.
1.4 L’utilisation des tables
orthogonales
et desgraphes
linéaires.1.5 Les
analyses statistiques
de laperformance
et de la robustesse.1.6
L’analyse graphique,
la décision et la validation.2. Etude des tolérances.
2.1 Sur les
caractéristiques
fonctionnelles duproduit.
2.2 Sur les
caractéristiques
du processus.2.3 La
gestion opérationnelle
de laqualité.
3. Conclusions.
4. Etude de cas dans l’industrie automobile.
Les méthodes de
plans d’expériences
ont été mises aupoint
à des fins de recherchescientifique
ettechnologique.
Leconcept
utilisé dans cetteméthodologie peut
être défini comme la détermination de relations de cause à effet.Dans le domaine
scientifique
on essaie de trouver la loiunique, l’équation
décrivantles relations des causes
expliquant
lesphénomènes
que l’on étudie. L’utilisation des modèlesmathématiques
estimportante.
Dans le domaine
technologique
il existe de nombreusesfaçons
d’aborder la fonction d’unproduit.
Bien souvent, les causes assurant la fonction recherchée sont tropcoûteuses,
ou bien les causes intervenant dans le processus de fabrication sont sinombreuses,
siparticulières, qu’il
estimpossible
d’enimaginer
lesrelations,
doncune
équation.
Toute modélisation seraitétrangement
farfelue.Exemple
Un processus de
moulage
depièces
enfonderie,
oul’optimisation
des milieux de culture en fermentation sont des cas de mise enéquation impossibles. Donc,
au niveau de la
conception
et de l’industrialisation d’unproduit
nous sommescondamnés à trouver la combinaison du processus
qui
nous assure laplus grande ROBUSTESSE,
c’est à dire leproduit
leplus
fiable enperformance
et endispersion,
au coût de fabrication le moins élevé. Et cela sans se soucier des relations entre les causes, mais
uniquement
enanalysant
leurseffets. (N’oublions
pas que pour lapensée japonaise,
la vérité est "vide" et que seuls leseffets,
suivant leprincipe bouddhique
ducause-effet,
nous sontaccessibles).
C’est
l’adoption
de cetteoptique
de robustesse dans lestechniques
degestion
fonctionnelle de la
qualité qui
assurera lacompétitivité
desentreprises.
1. Etude des
paramètres
1.1. L’état
d’esprit "Taguchi"
La
gestion
de laqualité
doit être abordée dansl’esprit
d’une réduction auminimum du coût de la
qualité
enclientèle,
la notion de clients’impliquant
à toutesles
étapes
d’élaboration duproduit,
de laconception
duprototype
au serviceaprès-
vente.
(Etapes
hautementorganisées
auJapon.).
Enfait,
rien n’estplus
condamnable que de gagner 1F,
si cette somme faitperdre
100 F auclient,
carglobalement
ily aurait
perte !
Pour cela deux attitudes :
a) Privilégier
lasatisfaction
du clientCette satisfaction doit être
assurée, absolument,
avec le maximum de ro-bustesse,
et au moindre coût pour le fournisseur. La réduction des coûts ne s’entend quelorsque
la satisfaction du client est assurée.b) Privilégier
lepréventif
Ne commençons pas à réfléchir
quand
tout va mal! Les américains ontdéveloppé
de nombreusesméthodologies
de "résolution deproblèmes"
dans lesannées
1970, pendant
queles japonais
n’avaient de cessed’appliquer
des outilstrès en-amont dans la vie du
produit,
telle laméthodologie Taguchi,
des outilsd’aide à la
conception,
pour réduire les coûtsengagés.
Valorisons celui
qui
faitqu’une
panne ne seproduit
pas, et pas seulement celuiqui répare
en untemps
record !1.2. La
formalisation
del’objectif a)
Ladéfinition
Définir les fonctions du
produit,
que l’étude desparamètres
doit nouspermettre
d’assurer.Cela suppose :
- Une
analyse
des besoins du client.- Une traduction
adéquate
de ces besoins en terme de fonctions.La méthode
Q.F.D (Déploiement
des FonctionsQualité)
nous y aide et facilite l’élaboration du cahier descharges
fonctionnel(AFNOR
X50 -151) prélude obligatoire
d’une démarcheTaguchi.
- Une "solution"
technique
duproduit
et du processus que l’on va tester.b)
La mesureChacune des fonctions
principales,
ou decontraintes,
serareprésentée
parune mesure que l’on
jugera statistiquement
laplus représentative.
-
grandeur physique
continue ou discontinue.-
pourcentage.
-
absence/présence.
- classement.
-
codage
... etc ...La
précision
sur la mesure doit être connue pour éviter touteinterprétation
spécieuse
des effets dansl’étape d’analyse. Après
ladétermination,
cetteétape
représente
la caractérisation desfonctions.
c)
La cibleNous
préciserons, enfin,
la cible visée pourchaque
fonction :Soit : .
- un nominal
- un maximum
- un minimum
Exemple
a’)
Unpare-chocs
pour un véhicule assureprincipalement
la fonction "sécurité"pour le client.
b’)
Cette fonction est caractérisée par les mesures suivantes :. résistance au choc à - 30°c et 23°c
(en Newton).
.
énergie
à larupture
à - 30° c et 23°c(en Joules).
.
énergie
à la force maximum à - 30° c et + 23°c(en Joules).
. résistance à la traction
(en Mpa).
c’)
Toutes ces mesures sont visées au maximum.1.3. La recherche des
paramètres a)
Le travail en groupeLes
représentants
de tous les servicesimpliqués
par l’étude devrontrépondre
à la
question
suivante :"Quels
sont lesparamètres pouvant
avoir une influence sur les fonctions à assurer?". Le savoir faire et leséchanges
constructifs desparticipants
faciliteront cette recherche étant entendu
qu’un
groupe au travail est une mise en commund’énergies
différentes pour que l’étude aboutisse et non pas un "tir à bouletsrouges"
pour "démontrer" que cela ne marcherapas !
Le choix de l’animateur sera déterminant sur la
qualité
de motivation du groupe, donc sur laqualité
de l’étude.b)
La liste desparamètres
Trois sortes
principales
deparamètres peuvent
être retenues :- des
paramètres
de formulation ou de matière(ex : Stamylan
P83 MF 94 -polypropylène)
- des
paramètres
du processus(ex :
vitessed’injection
de la matière dans lemoule)
- des
paramètres
debruit, d’utilisation,
subis par leproduit
au cours de sonutilisation
(facteurs
externes ou facteursinternes) (ex : température
ambiante(externe))
[les
facteurs "blocs" seront traités comme desparamètres
duprocessus]
(ex :
deuxlignes
defabrication).
Remarque
Le
diagramme cause-effet d’Ishikawa,
ou "arête depoisson"
est utile danscette
phase
de réflexion ouverte.(CREATIVITE)
enrichissante pour l’animateur du groupe.Les nouveaux outils de
gestion
de laQualité (les diagrammes
paraffinités, relationnel,
del’arbre, matriciel,
àflèches),
facilitent cetteétape
dans les cascomplexes.
c)
Le choix desparamètres
de l’étudeLes
paramètres dépendants
seront, enpremier lieu, regroupés.
Seuls lesparamètres contrôlés, jugés
lesplus
intéressants seront retenus dans les limites de l’étude.Remarques
Pour cela une note
d"’intérêt",
de 1 à 5 parexemple,
dechacun
des membres du groupe surchaque paramètre
de laliste, peut permettre
desélectionner,
enaccord,
lesparamètres
de l’étude. Lesparamètres
non retenus seront mentionnés et maintenus constants au cours des essais.Une
analyse
multidimensionnelle des données seraitégalement
un outilpréalable
de choix pour cette sélection.d)
Le choix des niveaux ou modalités desparamètres
retenus- Le savoir faire
- Les normes à
respecter
- La durée des essais
- La faisabilité
- Le coût des essais
- La mise en oeuvre des niveaux
-
L’appréhension
d’effets non linéaires .- La curiosité
technologique
... etcconditionnent le choix et les nombres des niveaux.
Les études les
plus fréquentes portent
sur2, 3,
et 4 niveaux parparamètre.
Ce choix est extrêmement
important
car il fixe les limites de l’étude.e)
Laquestion
des interactionsIl est utile pour réduire le nombre d’essais à
réaliser,
derépondre
à laquestion
suivante :
"quelles
sont les interactions àprendre
encompte prioritairement ?
". Cesont souvent les interactions entre
paramètres
de formulations et de processus.Remarque
Si toutes les interactions sont
potentiellement intéressantes,
il faudra faire unplan d’expérience complet.
f)
Le nombre d’essaisA ce
stade,
le nombre d’essaisobligatoires
àréaliser,
avec ou sansrépétitions
doit être défini.
g)
Le coût des essaisLe
chiffrage
du côut desessais,
l’investissementreprésenté
par leplan d’expérience
est une base d’accord pour menerjusqu’au
bout l’étude etpouvoir
enattendre toute son efficacité.
h)
La liste desparamètres
non retenusLes
paramètres
non retenus seront listés pours’assurer,
au cours desessais, qu’ils
seront bien maintenus constants.1.4. L’utilisation des tables
orthogonales
et desgraphes
linéairesAvec l’utilisation des tables
orthogonales
et desgraphes
linéaires pourplanifier
les essais nous entrons dans unephase plus technique qui
nouspermettra
de concevoir des essaisstatistiquement analysables
et nonplus
des’interroger après
coup, donc
vainement,
sur des résultats.a)
Le choix de la tableTaguchi
propose des tablesorthogonales
oùchaque
colonnereprésente
lesniveaux des effets que l’on désire
analyser.
Les
plus
utilisées sont les tables :ou les tables mixtes à 2 et 4 niveaux facilement batissables.
(Voir
étude de cas,§4).
b) L’affectation
des colonnesChaque paramètre
retenu sera affecté dans une colonne. Les deux seules contraintes dans cette affectation sont : ..- les interactions choisies a
priori
dans la recherche desparamètres.
- la difficulté
(opératoire
oufinancière)
de modifier les niveaux d’unparamètre.
- Les
graphes linéaires,
résumant les relations combinatoires entre les colonnesnous aident
pédagogiquement
àrepérer
les interactions et à affecter lesparamètres.
(Deux points symbolisent
deuxparamètres,
le trait lesjoignant symbolise
l’interac-tion entre ces deux
paramètres).
Si un
paramètre
est difficilement modifiableje l’affecterais,
sipossible,
dansle groupe 1
qui
ne variequ’une
fois de niveau. Les groupes étant classés par ordre croissant dechangements
de niveaux si l’onrespecte
l’ordre établi des essais.Exemple
On désire tester 4
paramètres
à 2 niveauxA, B, C, D
et les interactions AB et BC : A est difficilement modifiable et D est un facteur "bloc". L’étude demande 6degrés
deliberté;
on choisit la tableL8
et legraphe
linéaire donné surla
figure
1.FIGURE 1
c)
Laprise
en compte desfacteurs
de bruit externesL’originalité
deTaguchi préconise
de ne pas faire derépétitions
defaçon aléatoire,
mais deplanifier
cesrépétitions
en fonction deparamètres
subis par leproduit
au cours de son utilisation ou facteurs nes. Cetteplanification
est astucieuseà deux titres :
1. Elle nous
permettra
de testerégalement
l’influence des facteurs externes ainsi que des éventuelles interactions facteurs externes etparamètres
du processus.2. Elle nous
permettra
de tester lesparamètres
du processus dans laplus large plage
d’utilisation duproduit
illustrée par les niveaux des facteurs externes, donc de mieux assurer la satisfaction du client.* La
planification
des facteurs de bruit externesIl suffit à
partir
duplan orthogonal choisi, comportant
desparamètres
duprocessus ou de formulation du
produit,
de croiser un autreplan orthogonal,
comportant des facteurs externes suivant
l’exemple ci-dessus,
et comme nous leverrons dans l’étude de cas n° 2.
Exemple
deplan
croiséBien entendu ce
plan
croisémultiplie,
par 4 le nombred’essai,
mais laprise
en
compte
dansl’analyse
des facteurs d’utilisation(profil
de mission ouplage
d’utilisation)
ne vaut-elle pas cela?Exemple
defacteurs
externesLa
température ambiante,
lapropreté,
le taux depoussières,... l’hygrométrie,
les contraintes
subies,
lespréchauffages,
...l’hétérogénéité
des lots de matièrespremières
avant leslancements,...
etc* La
planification
des facteurs de bruit internesElle est
également possible
etidentique
à celle des facteurs externes. C’est lanature des facteurs subis
qui diffère,
commel’usure,
lacorrosion,
l’encrassement ...La
prise
encompte
de telsparamètres
vaut pour assurer lafiabilité
des fonctions étudiées.d) Les alias
Les
plans fractionnaires orthogonaux
utilisés parTaguchi,
s’ilspermettent d’analyser
unplus grand
nombre deparamètres
que lesplans complets, requièrent
toutefois certaines
précautions
dansl’analyse.
Chaque effet, principal
ouinteraction,
sera confondu avec un ouplusieurs
effets alias cumulés. De
même,
une colonne laisséelibre,
ne le seraqu’en
apparence,car des effets alias non choisis a
priori s’y
manifestentobligatoirement.
Il seraitdonc aventureux,
lorsque l’expérimentation
estcomplexe,
de fixer par avance dansquelle
colonne se manifestera le résidu.Le résidu
perturbant également chaque colonne,
mon attitude consiste à estimersagement
et aposteriori,
la variance résiduellegrâce
aux colonnes à faibles inerties(somme
decarrés).
1.5. Les
analyses statistiques a)
Larigueur
des essaisLe
plan
choisi doit êtrerespecté
absolument en nombre d’essais et en choix desniveaux,
et nesupporterait
pas des modifications de dernière minute. Lesparamètres
nonpris
encompte
seront maintenusconstants.L’analyse statistique
ne sera
possible qu’une
fois tous les essais réalisés.(N’arrêtons
pas au deuxième essai sousprétexte qu’il
estsatisfaisant,
nousperdrions
tout le bénéfice duplan ).
b) L’analyse
de variancerégulière
La méthode de
l’analyse
de variance suppose, pour un maximum d’efficacité deuxhypothèses :
- La Normalité de la variable
étudiée,
- L’Homoscédasticité ou
égalité
des variances résiduelles.Le test de Fisher-Snédécor utilisé
porte
sur desdispersions
de valeurs moyennes et nouspermet
de mettre en évidence essentiellement deuxtypes
d’effets.1.
Effet principal
d’unparamètre
Un tel facteur
qui agit
sur la tendance nouspermettra d’agir
sur laperfor-
mance de la
fonction,
il sera dit :facteur signal.
2.
Effet
d’une interactionSeule une
analyse globale,
comme celle desplans d’expérience,
où l’on fait varierplusieurs
facteurs en mêmetemps permet
de mettre en évidence des effets d’interaction.La méthode du "un facteur à la fois" est
dépassée
pour un tel effet.Les interactions nous
permettront
aussid’agir
sur laperformance
de la fonction .Remarque
Certaines variables étudiées
(proportions, classements, notations..)
nécessitent desprécautions
de transformation pour stabiliser la variance et doncpouvoir
être
analysées
par le test de Fisher-Snédécor.(Cf :
"Aide-mémoirepratique
destechniaues
statistiaues" -
CERESTA) :pour une variable de
type
binomial pour une variable detype
"Poisson"pour une variable de
type
"échelle de notation"c)
Le ratiosignal
sur bruit1. But
-
Analyser
ladispersion
autour de la cible visée.-
Agir
sur lesparamètres qui
nousgarantissent
unedispersion
minimale autourde cette cible pour assurer la ROBUSTESSE de la fonction.
2.
Pourquoi ?
La
performance
moyenne d’une fonction n’est pas suffisante si l’on n’assure pas aussi la variabilité minimalequelle
que soit laplage
d’utilisation duproduit.
3. Comment ?
Par
l’analyse
de variance d’une variable transforméeprenant
encompte
la variance autour de la cible visée. Cette nouvelle variable estissue,
paranalogie,
du ratio
signal
sur bruitexprimé
en décibelsqui traduit,en acoustique,
l’effet del’intensité d’un
signal compte
tenu du bruit.Taguchi
identifie le bruit à la variance résiduelle de la variable étudiée(Y) quelle
que soit sa nature et nomme ratiosignal
sur bruit les transformées suivantes :- Si l’on vise la fixation d’un nominal
(avec S2
estimation de la variance résiduelle pourchaque essai)
- Si l’on vise un minimum
(y
~0) (cible théorique zéro)
(n
= nombre derépétitions)
- Si l’on vise un maximum
(1 y
~0) (cible théorique zéro)
Choisir dans tous les cas le ratio
signal
sur bruit maximum c’est rendre la variance minimale autour de la cible visée et assurer la robustesse de la fonction.Remarque
Le
logarithme
est là pouramplifier
les écarts serapprochant
de la ciblethéorique
visée.d) L’analyse
de variance du ratiosignal
sur bruitCette deuxième
analyse
met en évidence les effetssignificatifs
sur la varia-bilité par
rapport
à la cible visée. Unparamètre
nonsignificatif
surl’analyse
devariance
régulière
et devenantsignificatif
surl’analyse
de variance du ratioSIB
sera dit : facteur contrôle.
Exemple
Un tel facteur
(V)
sensible au bruit nouspermettra d’agir
sur la robustesse de la fonction.Remarque
L’analyse
de variance du ratioS/B
s’effectue enregroupant
les variances résiduelles duplan principal (pooled error)
car lesrépétitions participent
à latransformation du ratio
S/B.
Résumé sur les
analyses
de variance duplan d’expérience
Avant
l’expérimention
étaitanalytique (on essayait
de voir si un facteurA influait sur
Y).
Maintenant elle estsynthétique;
on ne voit pas leseffets,
cesont les calculs ou les
graphiques qui
vont nous montrerglobalement
s’il y a effet ou pas. Déterminer lesparamètres significatifs,
c’est la seulefaçon
degérer
la
complexité
desphénomènes,
de la rendreplus intelligible
et de"gagner"
surl’aléatoire,
l’essentiel étant de réduire lesdispersions
autour de la cible visée.1.6.
L’analyse graphique,
la décision et la validationa)
Lesgraphiques
- Pour
l’interprétation
des effetsLes
graphiques
de tous les effetssignificatifs
sont l’outilindispensable
pour faciliterl’interprétation
duplan,
surtout si l’on aplusieurs
fonctions ouplusieurs réponses
àanalyser
sur un mêmeproduit.
- Pour les Cercles de
Qualité
L’analyse graphique
directe àpartir
duplan orthogonal
standardL8
est unesimplification
de la démarcheTaguchi
utilisable dans les cercles deQualité,
commeun huitième outil de la
Qualité.
Cette
simplification
dans la forme est pour nous,entreprises,
unenjeu
considérable à ne pas manquer, pour "industrialiser" la méthode et gagner.
b)
La décisionCompte
tenu desanalyses,
desobjectifs
deperformance,
de larobustesse,
descoûts,
de la faisabilité... nous décidons d’une combinaisonoptimale
desparamètres
du processus, valable pour toutes les fonctions.
Remarque
Les facteurs externes n’entrent pas dans cette combinaison sauf cas
particulier
de détermination d’une
procédure
d’essais accélérés.c)
La validationUn échantillon
d’essais,
tiré auvoisinage
des conditionsoptimales, permettra
par un test de Student sur les valeurs moyennes de valider la décision. La confirmations’opérant
évidemment enphase
de fabrication où laméthodologie Taguchi
aidera àajuster
laproduction
et améliorer laproductivité. (Les applications
sur le terrain font
toujours autorité).
Résumé de l’étude des
paramètres
Pour avoir un
produit
robuste etcompétitif :
1. Nous
agissons
sur les facteurs"signal"
pour assurer laperformance
moyenne visée dechaque
fonction.2. Nous
agisssons
sur les facteurs "contrôle" pour maintenir les variations dechaque
fonction au minimum vis à vis des facteurs externes ou facteurs d’erreur.2. Etude des tolérances
"La
qualité
est la perteinfligée
à la société àpartir
du moment où leproduit quitte
l’usine" - GenichiTaguchi.
Le but de cette étude très
importante
est de réduire le coût total de fabrication et d’utilisation duproduit
en assurant la variation descaractéristiques
fonctionnelles à l’intérieur desspécifications.
La robustesse de la fonction seraimpérative.
2.1. Sur les
caractéristiques fonctionnelles
duproduit a)
Ladéfinition
d’unefonction "Perte"
Partant de
l’hypothèse
non réfutable que la satisfaction du client est totale pour la valeur nominale et que le coût denon-qualité
est dans ce casnul, Taguchi développe
une fonction Perte(approximation
de série deTaylor),
traduisant par un coût denon-qualité
tout écart au nominal.* Cible nominale
avec : N = valeur nominale
y - N = écart par
rapport
à la satisfaction du clientL(y)
=perte engendrée
parl’écart (y - N)
Remarque
Le coefficient K est fixé par les conditions aux limites suivantes :soit 6 l’écart-limite
qui
entraîne le rebut duproduit,
soit R le coûtengendré
par ce rebut chez leclient,
on a :Ce coefficient K
dépend
desconséquences
financières d’un écart à la valeur nominale entraînant le rebut. Il est fondamental pourappliquer
leconcept
de la fonction "Perte".* Cible y minimum
* Cible y maximum
Remarque importante
La fonction
"Perte",
liée aubruit, dépend
de la robustesse de la combinaison choisie.b)
Lafixation
des limites de tolérance sur lescaractéristiques fonctionnelles
A
partir
de laconception
continue de lanon-qualité
illustrée par la fonction"Perte", Taguchi
fixe les limites de tolérance telles que le coût denon-qualité engendré
chez le client soitégal
augain supposé
ou effectif du fournisseur.Exemple
On
aura donc :G =
gain
du fabricantcorrespondant
àl’écart 6
Si un fournisseur nous livre une
qualité
centrée en moyenne m, le coût de fabrication pour le fournisseur est diminué deX,
et laperte
subie par le client est Y.(Si y
> Xglobalement
il y aperte !).
Remarque
Cette étude
oblige
les bureaux d’étude à fixer les tolérances par le coût denon-qualité qu’elles
entraînent chez le client et non pas "apriori"
ou de manièrestandard.
2.2. Sur les niveaux des
paramètres
du processus, Les niveaux des
paramètres
du processus choisisaprès
l’étude desparamètres
sont considérés comme valeurs nominales.
Utilisation de la non-linéarité pour déterminer les limites de tolérance des
paramètres
du processusLes
spécifications
déterminées sur lesparamètres
du processus seront telles que lescaractéristiques
fonctionnelles soientrespectées
dans tous les cas et que leurs variabilités soient minimales.Observons ces deux
graphiques :
facteur A facteur B
Les niveaux
A1
etB3
sont les valeurs nominales. Les fluctuations deAl
etB3
entraînent des fluctuations très différentes sur la
caractéristique
Y. Lesspécifications
sur
A1 et B3
seront déterminés en fonctions de ces fluctuations. Demême,
nousfixerons les
spécifications
sur tous lesparamètres
du processus, de manière à minimiser la variabilité sur y, ensoulignant
tout le bénéfice que l’onpeut
tirer d’un effet non linéaire. Lajustification
d’investissements(en KF) judicieux
en serafacilitée.
Avec la détermination rationnelle des tolérances pour réduire le coût de la
non
qualité
chez leclient,
s’achève lagestion
fonctionnelle de laQualité.
2.3. Sensibilisation à la
gestion opérationnelle
de laqualité a) L’importance
du nominalL’intervalle de tolérance a souvent été considéré en
Occident,
de manière uniforme rendant les limitessupérieures
et inférieuresplus importantes
que la valeur nominale.Les résultats de cette
conception "pass
and fail" ont été :- Un nombre de rebuts
trop important
pour la marche vers le zéro défaut.-
Beaucoup
deproduits
loin du nominal !Comparaison
des méthodes de contrôle de fabrication en Occident et auJapon
- Moins de rebuts au
Japon.
- Plus de
produits proches
du nominal auJapon.
Cela est
dû,
côtéoccidental,
à l’utilisation des coefficients Cam etCap, (1) cal-
culés sur l’intervalle de tolérance et
négligeant
la valeur nominale de lafonction,
pour
analyser
les"capacités"
des moyens et desprocédés
de fabrication.b)
Utilisation ducoefficient Cpk
Le
Cpk (sur
unecaractéristique dimensionnelle) prenant
encompte
la distanceau nominal est nécessaire pour la
gestion opérationnelle
de laqualité.
Il est définipar sa distance aux limites de tolérance :
Ts
etTi
= Tolérancessupérieure
et inférieure.0’ = écart
type
calculé du processus deproduction.
Le
graphique
de la fonctionperte
est donnée à la page suivante.3. Conclusions
a)
Domainesd’application
La
méthodologie Taguchi
estvalorisante,
elle demande desidées,
deséchanges,
du savoir-faire ets’applique prioritairement
à laconception
et audéveloppement
desproduits.
En fabrication elle doit être utilisée comme outil de résolution deproblèmes
associant lepersonnel
de fabrication auximpératifs
(1) Cam et
Cap désigent respectivement
le coefficientd’aptitude
machine et lecoefficient
d’aptitude procédé
définis par FORD(cf
normesAFNOR).
Graphique
de la fonctionperte
d’amélioration de la rentabilité. La preuve de son
efficacité,
par lesfaits, plutôt
que par des
théories,
convainc le monde de laproduction.
Elle nouspermet
donc de réduire les coûtsengagés
dans toutes lesphases
d’élaboration duproduit
et deréduire le Prix de Revient Fabrication.
b)
Les moyensd’application
Les
entreprises
doivent se donnerl’organisation
et les moyens suffisants pourmultiplier
cet outilindispensable.
Des structures-relais :
1. En nommant des
spécialistes
sachant conseiller etdévelopper
laméthodologie.
2. En formant des animateurs
compétents
sachant activer et utiliserl’énergie
des groupes de travail pour donner toute son efficacité à la
méthodologie.
3. En initiant tous les membres des groupes
de
travail auxobjectifs
et conditionsde mise en
place
de laméthodologie.
4. En évitant des
applications isolées,
des "feux depaille"
sanslendemains,
en dehors de toutestratégie
de Maîtrise Totale de laQualité.
c)
Leplaisir d’appliquer
ou la motivationBeaucoup
de groupes de travail ont été motivés par le fait de rendreplus
clairun processus
complexe,
de le rendreprévisible,
d’avoir la sensation de "déchiffrer les secrets sombres des choses" sansmathématique,
seulement par l’observation desexpériences.
Cetteapproche
nouséloigne
à coup sûr duTaylorisme.
d)
Lesdéveloppements futurs
Nous pouvons
imaginer
la création desystèmes experts
pour une utilisationplus large
de laméthodologie
parsimulation, toujours
dans le but de réduire la variabilité des fonctions et de réduire les coûts. Les méthodesd’analyse
etd’expression
fonctionnelle des besoins sont condamnées à sedévelopper
en amontcar un
produit techniquement
aupoint
doit aussi pour êtrecompétitif répondre parfaitement
au besoin du client. -Le Japon ne nous-a-t-il pas, tout simplement, fait découvrir que le client existait ? 4. Etude de cas : Mise au
point
du processus de fabrication du caoutchoucpour des
garnitures
deportes
chez Automobiles Citroëna) L’objectif
Garantir sur le modèle les fonctions caractérisées par :
- la fermeture de
porte
- l’étanchéité
-
l’aspect
Les
conséquences négatives
sur ces 3points
sont :- difficultés pour fermer la
porte
- infiltration de l’eau de
pluie
-
aspect "peau
decrapaud"
desgarnitures
résultat : l’insatisfaction du client
b)
La mesure del’objectif
Les critères fonctionnels utilisés sont :
1. la mesure
physique
de la densité(cible : 0,4 - 0,6)
,2. le
pourcentage
de perte de portance(cible :
50% )
3. une note
d’aspect
de 1 à 5(cible :
1 ou2) c)
La recherche desparamètres
1.
Description
del’opération
de fabrication(diagramme cause-effet)
2. Paramètres retenus
A =
agent gonflant (4 niveaux)
12 3 4 B = gommes 1
2
C = noir 1 D = craie 1
2 2
(quantités)
E =
température
1 F =puissance
1extrudeuse 2
magnétron
2Cette recherche des
paramètres
est lapartie
essentielle del’expérimentation.
Nous l’avons effectuée en groupe de dix personnes, de tous les services
impliqués
dans le processus de fabrication.
d) L’ expérimentation
Nous avons utilisé une table
orthogonale
detype L16
nouspermettant
de tester les 6paramètres
retenus ainsi que les interactions suivantes :F/B, C/F, F/E, B/E, F/D.
Deux colonnes restent pour l’estimation de la variance résiduelle.L’affectation
des
paramètres
dans les colonnes de la table se fait à l’aide desgraphes linéaires,
ainsi que la création d’une colonne à 4 modalités pour le
paramètre
A . Les 4niveaux de la colonne du facteur
A, correspondent
aux 4 combinaisons des colonnes5,11,14.
Nous remarquons
(cf.
tableau duhaut,
p.68) beaucoup
de "mauvais" résultats.Il est
parfois
difficile de convaincre certaines personnes que l’on va forcément faire de la mauvaisequalité
dans le cadre duplan d’expériences.
Analyse
du ratioSignal/Bruit
Les facteurs
significatifs
sur lerapport S/B
sont :A,F/D,C,E.
Le facteur E
apparaît
naturellement comme un facteur contrôle !TABLEL16
GRAPHIQUE
LINEAIRE DU TABLEAULie
Nombres d’essais réalisés
les essais les résultats
ANALYSE DE LA DENSITE
a) Analyse
de la varianceAnalyse régulière
avec regroupement du résidu(pooled error)(1)
Les facteurs
significatifs
sur laperformance
sont :A,C,F/D,F.
(1) i.e.
analyse
en laissant tomber les facteurs ou les interactions nonsignificatifs
dans le modèle initialement
prévu,
cequi
revient àrajouter
les sommes de carrés associés à celles des erreurs.b) Analyse graphique
Ce
complément
nécessaire àl’analyse
de variance nouspermet
de vérifier et de visualiser les différents effetssignificatifs,
notamment les interactions..
Exemple
Les
graphiques
suivants montrent l’interactionF/ D quel
que soitl’agent gonflant A, puis
l’influence duparamètre
E(température)
et celle de C(noir)
surle
rapport Signal/Bruit.
AGENT GONFLANT 1
AGM GONFLANT 2 AGENT ca.FLANT 1
AGENT GONFLANT 2
AGENT GONFLANT 3
AGENT GONFLANT 4
TEMPERATURE Extrudeuse
NOIRNoir
ANALYSE DE LA PERTE DE PORTANCE
a) Analyse
de la varianceAnalyse régulière
avecregroupement
du résiduLes facteurs
significatifs
sont :A, D, E, F, B/E Analyse
du ratiosignal/bruit
Les facteurs
significatifs
sont :A,D,F,B/E.
(1) Le résidu
regroupé
est estimé ici avec 5d.d.l..
Dans letableau,
seulsapparaissent (à part E
dans le secondtableau), les
effetssignificatifs.
ANALYSE DE L’ASPECT
a) Analyse graphique
Sans passer par un
changement
de variable pour normaliser la notation visuelleutilisée, l’analyse
desgraphiques
suffit. Nous remarquons immédiatement l’influence desagents gonflants
3 et 4 et uneanalogie
entre les effets sur laperte
deportance
et surl’aspect.
ASPECT
(note visuelle)
4 AGENTS GONFLANTS
Première
synthèse
OPTIMISATION OPTIMISATION
DE LA DENSITE DE LA PERTE DE PORTANCE ET DE L’ASPECT
Al A3
C2 D2
FI FI
E2 E2
FI et E2 sont choisis le facteur B
(gommes)
pour leur robustesse n’intervient que sur
l’aspect
Conclusion :
Nous avons "co-incidence" des modalités :
C2, D2, FI,
E2 sur les troisréponses.
Etincompatibilité
sur les niveauxd’agent gonflant ! !
En effet la modalité Al donnant satisfaction sur la densité estinacceptable
sur laperte
deportance,
et vice-versa pour A3. Deplus l’agent gonflant
est leparamètre
leplus important
surles trois
réponses.
Réflexion
au laboratoire :Quel
agentpeut-il garantir
laqualité
totale de notre caoutchouc ?Le savoir-faire des
"gens
du labo" apermis
de tester les combinaisonsd’agents gonflants disponibles,
pour trouverdeux "coupages"
satisfaisants(en
maintenant les autres
paramètres
aux modalitésC2, D2, Fl, E2,
bienentendu...).
Nous allons les
expérimenter, toujours
par uneplanification
detype Taguchi,
dans une deuxième série d’essais...-
OPTIMISATION DE L’INFLUENCE DE L’AGENT GONFLANT ET ROBUSTESSE DU PROCESSUS DE FABRICATION
a) L’objectif
La
densité,
laperte
deportance
etl’aspect.
Une
quatrième réponse
pour la facilité de mise en oeuvre duprocédé
dansl’atelier est
relevée,
elle est à caractèremécanique,
mesurée par un module(Mega Pa),
la tenue à cru !b)
Lesparamètres
Deux coupages
d’agents gonflants :
12
.
Quatre
gommes : 1 2 3 4Les gommes comme nous l’avons vu, n’ont pas d’influence sur la densité et la
perte
deportance,
mais il est intéressant de voir leur effet sur la mise en oeuvredans l’atelier.
. Deux
systèmes
de"mélangeage" :
1 Ancien2 Nouveau
Deux blocs d’essais seront
réalisés, puisque
nousdisposons
de deuxlignes de fabrication :
UHFLCM
L’expérimentation
seracomplète
à l’intérieur dechaque
bloc.c)
Leplan
des essaisNous avons utilisé une table
orthogonale L8,
en créant une colonne à 4 modalités pour le facteur Gomme enregroupant
les colonnes2,6,4.
Le facteurAgent gonflant
est affecté en colonne 1. LesSystèmes
en colonne 7 et les colonnes 3 et 6 pour l’estimation de la variance résiduelle. Nous avons randomisé l’ordre des essais : huit essais ont donc été réalisés parligne
de fabrication en maintenant constants les autresparamètres.
TABLEL8
d) Analyse
des résultatsBloc LCM 1. Densité
-
Analyse
de variancerégulière
Aucun facteur
significatif
L’essentiel est, avant tout, de constater que toutes les
réponses
de densité sont trèssatisfaisantes.
Seules des "mousses"apparaissent,
et nonplus
du"compact"
comme lors de la
première expérimentation. L’analyse
du ratioS/B
ne laisseapparaître
aucun facteur contrôle sur la densité.2. Perte de
portance
-
Analyse
de variancerégulière
Agents
etSystèmes
SIGNIFICATIFS sur laperformance
moyenne-
Analyse
de variance du ratioS/B
Pas de facteurs contrôle
Bloc UHF
Sur les 8
essais,
une donnée estmanquante.
Nous avons donc réalisé uneanalyse graphique
de ladensité,
et de laperte
deportance.
Etude
supplémentaire
de mise en oeuvre dans l’atelierL’étude
graphique
nous apermis
de mesurer l’influence des 4types
de gommes sur la résistance à larupture
de bande pour desproblèmes
évidents de fabrication.(Les
gommesn’ayant
d’influence que sur la mise enoeuvre).
Deuxième synthèse
1.
Ligne
LCM- Densité
L’objectif (0,4-0,6)
est atteintquel
que soit le niveau desfacteurs ! !
- Perte de
portance
L’objectif «
50% )
est atteint pour laconfiguration : Agent gonflant
2 -Système
N2- Mise en oeuvre
Pour éviter des coupures de bande nous choisirons les Gommes 1 ou 2.
2.
Ligne
UHF- Densité
Idem que sur la
ligne
LCM- Perte de
portance
Seul le
système
A avecl’agent gonflant
1 nousgarantissent l’objectif «
50 %).
- Mise en oeuvre
Idem que sur la
ligne
LCM.3. Conclusion
Deux formules de fabrication seront donc retenues
Ligne
LCM :agent 2,
gomme2, système
2.1Ligne
UHF :agent 1,
gomme2, système
1.Avec évidemment : noir
2, magnétron 1,
craie D2(craie minimale)
ettempérature
extrudeuse 2 pour les 2
lignes (résultats
de notrepremière expérimentation).
4. Vérification
Les formules
optimisées
ont donné sur la filière série les résultats suivants :LIGNE LCM LIGNE UHF
DENSITE MOYENNE DENSITE MOYENNE