R EVUE DE STATISTIQUE APPLIQUÉE
F. B ERGERET
Y. C HANDON
Recherche d’une séquence de tests optimale en contrôle de fabrication
Revue de statistique appliquée, tome 43, n
o3 (1995), p. 21-33
<http://www.numdam.org/item?id=RSA_1995__43_3_21_0>
© Société française de statistique, 1995, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les condi- tions générales d’utilisation (http://www.numdam.org/conditions). Toute uti- lisation commerciale ou impression systématique est constitutive d’une in- fraction pénale. Toute copie ou impression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
RECHERCHE D’UNE SÉQUENCE DE TESTS
OPTIMALE EN CONTRÔLE DE FAFRICATION
F.
Bergeret*,
Y. ChandonMotorola Semiconducteurs S.A.
avenue Eisenhower 31023 Toulouse Cedex Laboratoire de
Statistique
et Probabilités URA CNRS 745 Université Paul Sabatier 118 route de Narbonne 31062 Toulouse CedexRÉSUMÉ
Dans le cadre du contrôle de fabrication d’un
produit,
différentes méthodes de réduction des temps de test existent. Deux nouvellesapproches
sontproposées
etcomparées.
Ellesconsistent à sélectionner pas à pas un sous-ensemble de tests permettant de détecter les
rejets,
avec pour critère le coût total de fabrication du
produit.
Uneapplication
sur deuxproduits
estprésentée.
Mots-clés : Arbres de
Classification,
Choix de Variables, Contrôle deQualité, Bootstrap.
SUMMARY
In the fabrication control of a
product,
several methods have been used to reduce test time. Two new methods areproposed
andcompared. They
select stepby
step a subset oftests that detects the bad parts and minimizes total
manufacturing
cost. Anapplication
for twoproducts
is thenpresented.
Keywords : Classification
Trees, Choiceof variables, Quality
Control,Bootstrap.
1. Introduction
Le contrôle de fabrication sert à s’assurer de la
qualité
d’unproduit
avantde le livrer au client. Il
peut
dans certains casprendre
la forme demultiples
tests.Dans cette
optique,
nous cherchons à éliminer des tests redondants et à trouver le meilleurcompromis
entre letemps
de test et le coût despièces
défectueuses nondétectées par le test. Les différentes
approches
existantes pour diminuer letemps
detest sont
présentées
dans la section2,
nous verronsqu’elles
sont efficaces seulement pour une gamme limitée deproduits.
Pour cette raison nousdévelopperons
notreapproche qui
consiste à sélectionner un sous ensemble de testsqui
détectent une forteproportion
derejets.
Deux méthodes sont alorsproposées,
lapremière, présentée
dans* Ce travail a été réalisé avec une convention CIFRE entre le laboratoire de Statistique et Probabilités de l’Université Paul Sabatier et Motorola Semiconducteurs au Centre Electronique de Toulouse.
la section
3,
estadaptée
auxproduits simples
surlesquels
peu de tests sont effectués et dont le rendement(la proportion
depièces bonnes)
est élevé. La deuxièmeméthode, présentée
en section4, s’applique
auxproduits plus complexes
pourlesquels
unplus grand
nombre de tests sont effectués et dont le rendement estplus
faible.2.
Quelques approches
Nous
présentons
dans cette section différentes méthodesdéjà
utilisées pour réduire lestemps
de test.2.1
Sondage
Il
s’agit
de tester npièces
choisies aléatoirementparmi
les Npièces
du lot.A
partir
de ces npièces
un test est effectué pour vérifier si le rendement du lot est suffisamment élevé. Dans ce cas toutes lespièces
sont assemblées. Sil’hypothèse
d’unrendement correct est
rejetée
le lot est alors entièrement testé et lespièces
défectueusesne sont pas assemblées. Une des
règles
dequalité
envigueur
dans l’industrie consisteparfois
à déclasser un lot dont le rendement esttrop bas,
ceci pour éliminer despièces qui risquent
d’avoir un défaut non détectable par le test. Sur la base de cetterègle
il estpossible
de déterminer la taille n de l’échantillon pour s’assurer de détecter avec uneprobabilité
donnée un lot àdéclasser,
cequi
est une méthodeclassique
en contrôle deréception
par attribut.Notons :
- y le rendement du
lot,
- yo le rendement en dessous
duquel
le lot est entièrement testé. Enpratique
cerendement
peut
être choisi comme étant la limite au dessous delaquelle
il estplus économique
de tester le lot entièrement que de laisser passer lesrejets
àl’assemblage,
- y1 le rendement seuil de déclassement du
lot,
- x le nombre de
pièces
bonnes pourl’échantillon,
1 le seuil de déclenchement du test
complet,
à déterminer.Le test est le suivant :
-
H0 : y y0,
-
HA : y y0.
La
règle
de décision est la suivante : onaccepte Ho si x >,
l.Pour un
risque
de1ère espèce
a fixé et en se donnant une certaineprobabilité
1 -
3
de détecter un lot à déclasser on obtient les deux relations suivantes :En utilisant une
approximation
Normale de la loiBinomiale, justifiée
enpratique
si la taille de l’échantillon
dépasse 100,
on en déduit deux relations entre n et lqui
donnent la taille de l’échantillon et le seuil de déclenchement du test
complet.
Nous avons étudié
l’impact
d’un test parsondage
sur unproduit
à rendement élevé : lerisque
de1 ère espèce
est fixé à0,5
% et laprobabilité
de détecter un lot à déclasser est fixée à99,5
%. Connaissant la taille N du lot etaprès
les calculsqui
donnent la taille n de
l’échantillon,
on détermine le taux desondage n/N.
Il est de1/38ème
dans notreexemple
avec uneaugmentation
du taux derejets
nondétectés,
estimée sur
plusieurs
lots deproduction,
inférieure à 2 %. Le bilan financier estglobalement
trèspositif
mais l’utilisation de cette méthode n’estenvisageable
que pour une gamme deproduits
à rendement trèsélevé,
ceci afin de limiter lesrejets
nondétectés. D’autres solutions devront donc être
proposées
pourpouvoir analyser
unegamme de
produits
laplus large possible.
2.2 Prévision du résultat du test
Une autre
approche
consiste à tester un certain nombre depièces
et à utiliser les résultats pourprédire
la valeur du test sur lespièces
suivantes. Kim et Nanthakumar( 1991 ) proposent
la méthode suivante :m
pièces
sont testées et on note pb laproportion
depièces
bonnes. Si cetteproportion dépasse
un seuil donné po lapièce
suivante n’est pas testée et le résultat du test pour cettepièce
estprévu
par un modèle derégression
estimé à
partir
des mpièces précédentes.
A l’inverse si laproportion
pb est inférieure au seuil po la
pièce
suivante est testée. Cetteprocédure
est
répétée
sur kpièces supplémentaires jusqu’au point
où la décisiond’accepter
ou derejeter
le lot entier estprise.
Le lot estaccepté
si laproportion
depièces
bonnes calculée sur m+ k pièces
estsupérieure à po
et entièrement
rejeté
sinon. Le choix de m résulte d’un calcul et minimise letemps
total de test. Le choix de k résulte d’un calcul semblable à celui effectué pour lesondage
et minimise lerisque
d’erreur.Cette
méthode,
comme lesondage,
n’est valable que pour desproduits
à hautrendement et pour des tests relativement
longs.
En effet elle n’est efficace que si letemps
calcul utilisé pour laprévision
et la mise àjour
est inférieur autemps
de test réel.2.3 Test
adaptatif
Marshall
(1987)
propose unestratégie
de testadaptée
à laqualité
du lot. Ondistingue
deux groupes de tests : les tests ditsfonctionnels, qui captent
unemajorité
de
rejets,
sontsystématiquement
effectués. Les tests ditsparamétriques,
pourlesquels
le taux de
rejet
estfaible,
sont effectués sur une fraction despièces.
La méthode estadaptative :
on commence à tester lespièces entièrement,
si ipièces
consécutivessont bonnes les tests
paramétriques
ne sont effectués que sur unepièce
sur deux(taux f
=1/2). À
nouveau si ipièces
consécutives sont bonnes le taux passe à1/4 puis
à
1/8 qui
est le taux limite. Sipendant
le processus desrejets paramétriques
sonttrouvés on teste k
pièces
à 100%,
si elles sont toutes bonnes le taux reste le même sinon on passe à un tauxplus
élevé.L’application
de cette méthode sur une certainegamme de
produits permet
d’obtenir ungain
detemps
de l’ordre de 30 % avec unevariation non
significative
du nombre derejets
non détectés.3. Sélection
hiérarchique
des testsDans cette section nous proposons une méthode pour sélectionner un sous- ensemble de tests
qui,
effectués sur toutes lespièces, permet
decapter
unemajorité
de
rejets.
Cette méthode est basée sur leprincipe
des arbres de classification introduits par Breiman et al.(1984).
Nousprésentons
d’abord le cadre danslequel
nous avonsconstruit cette
méthode, puis
la méthode elle-même.3.1 Un
problème
concretd’optimisation
de testLes circuits
intégrés
sontfabriqués
sur des groupes deplaquettes
desilicium, chaque plaquette
étant constituée deplusieurs
centaines de puces.Après
uncycle
de fabrication de
plusieurs semaines,
unepremière
série de tests esteffectuée,
le test souspointe
ouprobe.
Un ensemble de mesuresélectriques,
dont le nombrepeut
atteindremille,
est réalisé surchaque
puce dechaque plaquette.
Toute pucequi
n’estpas conforme aux
spécifications
est identifiéepuis rejetée.
Les pucesayant passé
leprobe
sont assemblées dans un boîtierpuis
testées une seconde fois lors du test final.Le
circuit,
s’il passe ce test, est alors livré au client.Le
probe
sert essentiellement à détecter les mauvaises puces avantl’assemblage
car le coût d’un
rejet
détecté au testfinal,
incluant leprix
duboîtier,
estplus
élevé. Dans toute la suite de l’étude nous aurons donc une visionéconomique
duprobe
et nouschercherons à
optimiser
son coûtcompte
tenu des économiesqu’il permet
de réaliserau test final. Pour cela nous définissons tout d’abord un coût du
probe proportionnel
au
temps
de test parplaquette.
Cettehypothèse
est réaliste si lacapacité
libérée sertà tester
«gratuitement»
d’autresproduits,
cequi
est le casquand
laproduction
est enaugmentation
constante. Nous verrons dans la suite que toute diminution du nombre de tests souspointe peut
entraîner uneaugmentation
desrejets
détectés au test final.Le coût induit se compose de deux
parties,
le coûtd’assemblage
et le coût du test final. Nous définissons finalement l’économie ougain
parplaquette
comme étant ladifférence entre l’économie sur le coût du
probe
et le coût despertes
additionnellesau test final. Maximiser l’économie par
plaquette
est le butrecherché,
cequi équivaut
à minimiser le coût total de fabrication et constitue donc un
enjeu
financierimportant
car la
part
du test dans le coût total devient deplus
enplus
élevée.f Wl, ... , W,, 1
constitue un échantillonstatistique
deplaquettes. Chaque plaquette Wi
est constituée d’un ensemble de pucesqui
nepeuvent
êtresupposées indépendantes
en raison de fortes liaisons dues à la fabrication alors que lesplaquettes
sont tirées
indépendamment
dans différents lots de fabrication. Nousadoptons
alorsla méthode suivante :
- construction d’une
séquence
réduiteSi optimale
pour laplaquette Wi,
- évaluation de
chaque séquence Si
sur les(n -1 )
autresplaquettes,
cequi
donnen
gains
moyensGi ,1
i n,- choix de la
séquence
S*qui
maximise legain
moyen.Cette méthode a deux
avantages :
ellepermet
d’avoir un estimateur non biaisé dugain
moyen induit parchaque séquence
de test réduitepuisque calculé,
commeen validation
croisée,
sur lesplaquettes qui
n’ont pas servi à la construction de laséquence.
D’autrepart
le coût du test est défini defaçon
naturelle parplaquette.
3.2 Arbres de
Classification
L’origine
de ces méthodes remonte auxtechniques
desegmentation
dont ontrouvera une
approche synthétique
dans Baccini et Pousse(1975).
Breiman et al.( 1984) ont jeté
les bases des arbres de décision binaire dont on trouvera uneapplication
détaillée dans
Gueguen
et Nakache(1988).
La méthode nécessite des calculs intensifssur ordinateur et de nombreuses
adaptations
ont étéproposées,
parexemple
dansLoh et Vanichsetakul
(1983) qui
utilisent defaçon
récursivel’analyse
discriminante linéaire pour construire trèsrapidement
un arbre derégression.
Unegénéralisation
est
proposée
parCiampi ( 1991 )
avec deshypothèses
sur la distribution de la variable àexpliquer
et des tests pour construire etélaguer
l’arbre. Unexemple
d’arbre derégression
basé sur le modèle linéairegénéralisé
estprésenté
dansCiampi et
al.(1990).
Cetteapproche
ne sera toutefois pasdéveloppée
dans la suite carplus éloignée
de notre
problème.
Dupoint
de vue du vocabulaire onparle
d’arbre derégression quand
la variable àexpliquer
estquantitative
et d’arbre de classificationquand
elleest discrète. Nous étudierons ce deuxième cas. Le but d’un arbre de classification est double : Il
s’agit
d’unepart
de sélectionner lesexplicatives
lesplus
informatives et d’autrepart
deprédire
la variable àexpliquer.
Lesexplicatives peuvent
être soit continues soit discrètes soit les deux. L’échantillon initial est divisé successivemmenten deux sous-ensembles
appelés noeuds, chaque
noeud étant défini par laréponse
à unequestion
concernant une des variablesexplicatrices.
Les divisions s’achèventquand
on atteint un noeud dit
terminal,
à ce niveau onassigne
ce noeud à une classe. Achaque subdivision,
laquestion
retenue est cellequi
minimise un critèreappelé impureté
del’arbre. On
peut
donc voir un arbre de classification comme unalgorithme ayant
pour butd’optimiser
un certain critère et fonctionnant defaçon itérative,
c’estl’approche
que nous utiliserons dans la suite de
l’exposé.
Notons enfinqu’après
la construction d’ungrand arbre,
celui ci estélagué
afin obtenir des estimateurs non-biaisés du taux d’erreur.3.3 Les critères
Toute
procédure
de discrimination est basée surl’optimisation
d’un critère.Dans cette section nous
présentons
les deux critères utilisés pour sélectionner les tests.3.3.1 Critère
simple
Le critère retenu ici est le nombre de puces non détectées au
probe.
Au niveaude la
plaquette Wi
onadopte
la méthode suivante :- sélection du test
(de
lamesure) qui capte
leplus
derejets,
- pour les puces
qui
ontpassé
ce test sélection du testqui capte
leplus
derejets,
- ainsi de suite
jusqu’à
détection de tous lesrejets
de laplaquette.
Il en résulte une
séquence
de test réduite parrapport
à laséquence
de testinitiale. Notons que pour des raisons liées à
l’électronique
il estparfois
nécessaired’effectuer un ou
plusieurs
tests avant depouvoir
effectuer un ouplusieurs
autrestests.
L’algorithme
tientcompte
de ces contraintes de lafaçon
suivante : si le testt 1
doit être effectué avant le testt2
alors l’introduction du test t2 estéquivalente
àl’introduction du test
t2
et du testtl.
Ce
problème correspond
à un casparticulier
d’arbre de classification danslequel
la variable à
expliquer
est binaire(la
puce est bonne ounon)
et les variablesexplicatives
sont
également
binaires(le
test est bon ounon).
Leproblème
de la reconnaissance d’un chiffre traité dans Breiman et al(1984)
estproche
de ce cas mais avec unevariable à
expliquer
à 10 modalités.L’application
de cette méthodepermet
de réduire defaçon significative
le nombre de tests mais neprend
pas encompte
lestemps
detest dans la construction de la
séquence réduite,
pour cette raison nous utilisons dans la section suivante un critère de coût.3.3.2 Critère de coût
Le coût
Co
d’unrejet
non détecté auprobe
est connu, il se compose de deuxparties :
- la valeur
ajoutée
auproduit
parl’assemblage, Ca
- le coût du test
final, Ct f
Par définition
Co
=Ca
+Ct f.
Nous faisons icil’hypothèse
que toutrejet
nondétecté au
probe
sera détecté au test final. Définissons :- une
séquence
de test t est un vecteur de dimensionégale
au nombretotal q
detests, de
coordonnées ti
= 0 si le test i est absentet ti
= 1sinon,
-
ND(t)
est le nombre derejets
parplaquette
non détectés par laséquence
detest t,
-
CP(t)
est le coût duprobe
parplaquette
pour laséquence
t,- T est la
séquence
de testcomplète : Ti = 1,1
i q,- le
gain
parplaquette
avec laséquence t :
L’objectif
est de trouver laséquence
t*qui
maximise legain
parplaquette.
L’algorithme opère séquentiellement
en sélectionnant àchaque étape
le test leplus économique
dans la détection desrejets
et s’arrêtequand
l’addition d’un test n’amélioreplus
l’économie réalisée.3.4 La contrainte de rendement au
test final
L’algorithme précédent
recherche la combinaison de testsqui
offre le meilleurcompromis
entre coût duprobe
et coût desrejets
non-détectés.Ainsi,
pour desproduits
dont le coût du
probe
est trèsélevé,
laséquence
retenuerisque
d’être très réduite avec une baisse de rendement au test final nonnégligeable.
En outre, pour des raisons destratégie industrielle,
le test final s’effectue souvent dans une usine différente de celle où a été effectué le test souspointe.
Le coût despertes
au test final est doncsupporté
par une usine
qui
n’a aucunecontrepartie,
si ce n’est lapossibilité
d’être livréeplus
vite. D’autre
part,
en cas de dérive du rendement au testfinal,
l’information n’arrive queplusieurs
semainesaprès,
cequi risque
de provoquer desproblèmes
de livraison.Pour minimiser le coût total en limitant les
pertes
au test final uneadaptation
del’algorithme
est doncproposée.
Ils’agit d’augmenter
artificiellement le coût durejet
non détecté. Formellement on cherche la
séquence
t*qui
vérifie :À étant une
pénalité positive
à fixer par l’utilisateur. Cettepénalité
est introduite paranalogie
avec un programmed’optimisation
sous contrainte pourlequel
letemps
detest noté t serait une variable continue :
Max
{CP(T)-CP(t)-ND(t)Co}
sous
la contrainteND(t)
seuilLe
Lagrangien
de ceproblème
s’écrit :et ne diffère de notre
expression
que par une constanteindépendante
de t.En
pratique
À estprogressivement augmenté
de 0 à une valeur maximaleÀmax
fixée de
façon
à ce que le coûtcorrigé
d’un oublidépasse
le coût total de test de laplaquette, CP(T).
Pour cette valeur de À le test sélectionné àchaque étape
sera celuiqui
détecte leplus
derejets, indépendamment
dutemps
de ce test. On retombe sur le critèresimple
et touteaugmentation
de À au delà deÀmax ne changera
pas laséquence optimale
obtenue.3.5 Intervalle de
confiance
de l’économie moyenneAvoir un intervalle de confiance de l’économie réalisée
plutôt qu’une
estimationponctuelle
est d’ungrand
intérêt pourpouvoir
mettre en oeuvre les résultatsproposés.
Sans
hypothèse
sur la distribution desgains,
il faut utiliser destechniques
derééchantillonnage
dont on trouvera une revue dans Efron(1982).
Notre estimation dugain
est G* =Max(G1, .., Gn)
et l’utilisation dubootstrap
estjustifiée
car G*est invariante par
rapport
à l’ordre de(Wl,
..,Wn ) . L’algorithme
d’estimation de la distributionbootstrap
est décrit ci-dessous :-
tirage
avec remise d’un échantillonbootstrap
de nplaquettes parmi
les nplaquettes
de l’échantilloninitial,
- recalcul des n
gains
moyens pour les nséquences optimales,
- choix du
gain
maximalGb .
Ce calcul est
répété
un nombre B de fois. Enpratique B
est leplus grand possible compte
tenu dutemps
calculdisponible.
L’intervalle de confiance à un niveau a est obtenu defaçon classique :
uneproportion a/2
desgains Gb
sont inférieurs à la borne inférieureGl.
La bornesupérieure Gu
est calculée defaçon symétrique.
Le
bootstrap permet également
d’estimer le biais de G* :Une
application
dubootstrap
estproposée
dans la section suivante.3.6
Application
Le
produit analysé
par cette méthode a lescaractéristiques
suivantes :- 19 tests, 1.6 seconde de test par puce,
- 1790 puces par
plaquette,
soit 55 mn de test en tenantcompte
dutemps
de passage d’une puce à l’autre et dutemps
d’attente en début deplaquette,
- les
temps
de test varient dans desproportions
de 1 à 10.L’échantillon contient 30
plaquettes
collectées au hasard de laproduction pendant
deux mois. Un programme écrit en Pascal calcule laséquence optimale :
- 1 test sur 19 est retenu,
- la
plaquette
serait testée 4 foisplus vite,
- la
perte
de rendement moyenne au test final est estimée à 2%,
- l’économie moyenne est estimée à 8 % du coût total de fabrication.
L’intervalle de confiance de l’économie
réalisée,
enpourcentage
du coûttotal,
est
(7, 85% - 8,15%)
pour un coefficient de sécurité de 95 % et l’estimation du biais de notre estimateur estlégèrement positive.
Notonsqu’on
ne recalcule pas une combinaison de tests àchaque étape
et les calculs effectués pour B = 10000 sont donc trèsrapides.
La solution
proposée implique
une baisse de rendement au test finaljugée trop
élevée.L’adaptation
de la section 3.4permet
de choisir une combinaison entraînantune baisse de rendement au test final moins
importante,
estimée à0,5
%(figure 1).
Chaque point
de la courbecorrespond
à une combinaisonoptimale
de tests pour une valeur donnée de lapénalité
A. Lepoint
leplus
à droite de la courbecorrespond
àÀ = 0 pour
lequel
l’économie parplaquette
est maximale. Lepoint
leplus
àgauche
est celui pour
lequel
le programme cherche à détecter tous lesrejets indépendamment
des coûts. Entre les deux l’utilisateur choisit un
point correspondant
à une baisse derendement au test final
supportable
pour ungain légèrement
moindrequ’à l’optimum.
Une
séquence
réduite à trois tests entraînant une baisse de rendement au test final estimée à0,5
% est actuellement enproduction.
Ellepermet
de tester uneplaquette
trois fois
plus
vite.4. Sélection Pas à Pas
La méthode
présentée
dans la sectionprécédente
est efficace pour desproduits
relativement
simples,
c’est-à-dire pourlesquels
le nombre de tests par puce n’est pastrop important.
Pour des circuitsplus complexes
laséquence optimale
esttrop
variable d’uneplaquette
à l’autre et la meilleureséquence
sur l’ensemble de l’échantillon n’est pas satisfaisante. Deuxchangements
sont doncproposés
pourpouvoir analyser
cescircuits :
- la
séquence optimale
est directement calculée sur l’ensemble desplaquettes
defaçon
àprendre
encompte
tout l’échantillon dans le calcul de la combinaison de tests laplus économique,
- une
procédure permet
àchaque étape
d’éliminer des tests.FIGURE 1
Economie nette
(en
% du coût totalde fabrication)
en
fonction
de la baisse de rendement autest final.
4.1 Méthode pas à pas
Le critère reste le même que celui
présenté
en 3.3.2 mais une amélioration del’algorithme
a été mise enplace.
Laséquence
est construite commeprécédemment
avec, à
chaque étape,
lapossibilité
d’enlever un des testsdéjà
sélectionnés. Celapermet
d’éliminer des tests redondantsqui
ne l’étaient pas lors de leur introduction.L’algorithme
est donné ci-dessous :- soit t une
séquence
de test,- soit
St
l’ensemble desséquences
voisines de t. Uneséquence t’ est
dite voisine de t si elle est obtenue àpartir
de t enajoutant
ou ensupprimant
un test(ou plusieurs
s’il y a des contraintes sur le test enquestion),
- soit
to
laséquence
de test initiale. Enpratique to
est laséquence qui
necomporte
aucun test.
FIGURE 2
Nombres de puces
défaillantes
détectées enfonction
du nombres de tests.Procédure
pas-à-pas;
Début t :=
to ; Répète
Génère ( t’ ex);
Si
Eco(t’) > Eco(t)
alors t :=t’ ;
Jusqu’à (Eco(t’) Eco(t)
pourtout t’
eSt);
Fin.
4.2 Estimation du biais
La
séquence optimale
étant obtenueglobalement
àpartir
des nplaquettes
del’échantillon,
l’estimation de la baisse de rendement au test final induite va êtretrop optimiste.
Lafigure 2,
construite àpartir
d’un desproduits étudiés,
montre en fonctiondu nombre de tests sélectionnés le nombre moyen de mauvaises puces détectées sur l’échantillon. Il est raisonnable de penser que les
premiers
tests doivent être retenusquelque
soit l’échantillon. En revanche le choix des autres testspermettant
de limiter la baisse de rendement au test final sur l’échantillonrisque
d’introduire un biais et une varianceimportante
dans l’estimation de l’économie moyenne. Celeux et Turlot(1989) passent
en revue les différentes méthodes pour estimer le taux d’erreur d’unerègle
de décision en discrimination :échantillon-test, bootstrap, jackknife,
validationcroisée. Les
techniques
derééchantillonnage permettent
une utilisation maximale des données mais sont très coûteuses entemps
calcul. Dans notre cas il faudrait recalculer uneséquence optimale
ungrand
nombre defois,
cequi
est enpratique beaucoup trop long.
Pour cette raison l’estimation du taux derejet
au test final se faità l’aide d’un échantillon-test ce
qui
nécessite la collecte d’un nombreplus important
de
plaquettes.
Uneproportion
desplaquettes,
l’échantillond’apprentissage,
sert àconstruire la combinaison de test
optimale
et lesplaquettes
restantesqui
constituent l’échantillon-test servent à estimer le taux derejet.
Soit :- r l’ estimation de la baisse de rendement test final sur l’échantillon
d’apprentis-
sage,
- r* l’estimation sur
l’échantillon-test,
l’estimation du biais de r est :On en déduit immédiatemment une estimation du biais de l’estimateur de l’économie moyenne par
plaquette.
Notonsqu’une optimisation
del’algorithme
derecherche de la combinaison
optimale
et l’utilisation d’estimationsbootstrap plus
efficaces
préconisées
par Efron(1990)
sont à l’étude et devraientpermettre
d’estimer le biais sans échantillon-test. Il ne sera toutefois paspossible
d’obtenir un intervallede confiance.
4.3
Application
Le
produit analysé
dans cette section estplus complexe
que celuiprésenté
dansla section
3.6,
enparticulier
son rendement estplus
faible. Sescaractéristiques
sont :- 94 tests, 2.1 seconde de test par puce,
- 1107 puces par
plaquette,
soit 44 minutes de test par le même calcul que pour leproduit précédent,
- les
temps
de test varient dans desproportions
de 1 à 15.L’échantillon contient 42
plaquettes
collectées au hasard de laproduction
pendant
deux mois. Laséquence optimale
en terme de coûtcomporte
16 tests, elle estFIGURE 3
Economie nette
(en
% du coût totalde fabrication) en fonction
de la baisse de rendement autest final,
sur l’échantillond’apprentissage.
construite sur 30
plaquettes
mais entraîne une baisse de rendement au test final estimée à1.4%.
Cetteperte
étantjugée trop importante,
une autre solution est retenue àpartir
de la
figure
3 :- 24 tests sur
94,
- la
plaquette
est testée2,5
foisplus vite,
- la baisse de rendement test final est estimée à
0, 3%
sur l’échantillond’appren- tissage
et à0, 5%
sur l’échantillon-test de 12plaquettes,
- l’économie moyenne,
corrigée
dubiais,
est estimée à5,3%
du coût total de fabrication.5. Conclusion
Pour les
produits
surlesquels
elle a étéappliquée,
la méthode pas à pas fonctionne biencompte
tenu des économiespotentielles qu’elle permet
de réaliser.Elle est
également applicable
pour des pucesplus simples
mais les résultats sont sensiblementidentiques
à ceux obtenus par la sélectionhiérarchique,
vu le faiblenombre de test à effectuer. En
revanche,
pour des puces trèscomplexes
avec untrès
grand
nombre de tests,l’algorithme présenté
en 4.1risque
de converger vers unoptimum
local. Unalgorithme d’optimisation
de laséquence
de test par recuit simulé est àl’étude,
il devraitpermettre d’approcher l’optimum global
pour desproduits ayant jusqu’à 10150
combinaisons de testspossibles.
Références
BACCINI A. et POUSSE A.
(1975), Segmentation
aux moindres carrés : unaspect synthétique,
Revue deStatistique Appliquée,
XXIII(3),
17-35.BREIMAN
L.,
FRIEDMANJ.H.,
OLSHEN R.A. and STONE C.J.(1984), Classifi-
cation And
Regression Trees, Waldsworth,
Belmont CA.CELEUX G. et TURLOT J.C.
(1989),
Estimation de laqualité
d’unerègle
discrimi-nante, La revue de
MOD ULAD, 4,
37-44.CIAMPI A.
(1991),
GeneralizedRegression Trees, Computational Statistics and Data Analysis, 12,
57-78.CIAMPI
A.,
LINQ.
and YOUSIF G.(1990),
GLIMTREE : RECPAM tree with the GeneralizedLinear Model,
inCompstat’90, Proceeding
inComp. Stat., Physica- Verlag, 21-26.
EFRON B.
(1982),
TheJackknife,
theBootstrap
andOther Resampling Plans, Society
for Industrial and
Applied
Mathematics.EFRON B.
(1990),
More efficientBootstrap calculations,
Journalof
the American StatisticalAssociation, 85,
79-89.GUEGUEN A. et NAKACHE J.P.
(1988),
Méthode de discrimination basée sur la construction d’un arbre de décisionbinaire,
Revue deStatistique Appliquée,
XXXVI
(1),
19-38.KIM H. et NANTHAKUMAR A.
(1991), Dynamic
PredictiveTesting
Based onRegression Analysis
inManufacturing Process,
First InternationalWorkshop
on The Economics
of Design
andTest, MCC, Austin,
Texas.LOH W. and VANICHSETAKUL N.
(1983),
Tree Structured Classification via Gene- ralized DiscriminantAnalysis,
Journalof the
American StatisticalAssociation, 83, 715-728.
MARSHALL N.