R EVUE DE STATISTIQUE APPLIQUÉE
J. R INGLER
Une modélisation bayesienne du taux de défaillance en fiabilité
Revue de statistique appliquée, tome 29, n
o1 (1981), p. 43-56
<http://www.numdam.org/item?id=RSA_1981__29_1_43_0>
© Société française de statistique, 1981, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.
sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les conditions générales d’uti- lisation (http://www.numdam.org/conditions). Toute utilisation commerciale ou im- pression systématique est constitutive d’une infraction pénale. Toute copie ou im- pression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
43
UNE MODELISATION BAYESIENNE DU TAUX DE DEFAILLANCE EN FIABILITE
J. RINGLER
MATRA 37, av. Louis Bréguet - 78140 Vélizy
RESUME
L’approche classique en
fiabilité,
dans laquelle il n’est pas fait de "détail" entre les taux de défaillance des divers composantsélectroniques
constituant un lotréputé homogène,
conduit à un certain nombre de difficultés formelles qui seront mises en évidence. Il est
alors
proposé
une nouvelle approche, dans laquelle chaque composant du lot est carac- térisé par sa"capacité
propre de résistance à la contrainte". Cette approche conduit à pos- tuler l’existence d’un "lambda" individuel attaché à chaque composant, et donc celle d’une distribution statistique des "lambda" au niveau du lot.Prenant cette distribution pour loi "a priori", un traitement bayesien est alors mis en
0153uvre. Il en résulte la formalisation d’un taux de panne inconditionnel reflétant le taux de panne moyen du lot considéré. En choisissant pour distribution a priori une loi de type gamma,
justifiée
par des raisons d’ordre pratique etthéorique,
il sera montré que le taux de panne inconditionnel décroit hyperboliquement avec le temps. Il s’en suit unnouveau profil de la "courbe en baignoire", dans lequel le palier horizontal devient
légè-
rement incliné. Enfin, le modèle
proposé
permet de trouver une relation simple entre le temps dedéverminage
réalisé sur un lot de composants et le taux de panne inconditionnel de ce lot en fin dedéverminage.
1.
QUELQUES
CONSIDERATIONS GENERALESIl est fort peu douteux que, dans le domaine de la
fiabilité,
aucunconcept
n’ait eu, à cejour,
une faveuréquivalente
à celle du très - etpeut-être trop -
célèbre "taux de défaillance"désigné
communément par la lettre grecque"lambda".
Sur un
plan purement formel,
le "lambda" des fiabilistes doit être étroi- tement associé auproblème
de la survivance d’un mécanismepris
au senslarge : composants - mécaniques
ouélectriques -
chaînescinématiques, dispositifs électroniques complexes, systèmes pyrotechniques,
etc. Plusprécisément,
sil’on
désigne
parR(t)
la fiabilité -ouprobabilité
de survie - d’un mécanismeLe
présent
article a étéprésenté
par l’auteur au Second Colloque International surla Fiabilité et le Maintenabilité (Perros-Guirec -
Trégastel,
Sept. 1980).Revue de Statistique Appliquée, 1981, vol. XXIX, n° 1
Mots-clés :
Techniques bayésiennes,
Taux dedéfaillance, Déverminage.
44
déterminé à l’instant t, et par dR la
probabilité
élémentaire d’avarie de ce mécanisme entre les instants t et t +dt,
le taux de défaillancepeut
être consi- déré comme une fonction dutemps À(t) ayant
pourexpression :
Dans un domaine confiné au
champ
del’électronique,
ilsemblerait,
demanière
empirique,
que, dans le cas d’un lot suffisammentimportant
de com-posants homogènes,
c’est-à-dire du mêmetype
et d’un niveau dequalité
ana-logue,
les instantsd’apparitions
de pannes franches de cescomposants
soientrégis
par un processus de mortalité sensiblementpoissonnien,
cequi
conduit à admettre une valeur à peuprès
constante - doncindépendante
dutemps -
dutaux de défaillance associé aux
composants
du lot considéré. Bienentendu,
ce taux constant
dépend
à la fois dutype
decomposant,
de son niveau de qua-lité,
et de sonprofil
d’utilisation.L’admission
quasi
unanime d’un taux de panne constant des compo- santsélectroniques
conduit ainsi à unegrande simplification
des calculs defiabilité,
pour ne citer que l’addition des "lambda"lorsque
l’on a affaire à descomposants
ensérie,
etpermet
par ailleurs l’élaboration debanques
de donnéesde "lambda". Ce sont
probablement
ces deux raisonsqui,
à ellesseules,
ex-pliquent
ce succès incontesté du "lambda" dans lechamp
d’activités de la fiabilité. Si l’on veut bien seremémorer, enfin,
que l’éclosion de la fiabilité en tant quetechnique spécifique
de laprévision
s’est faite enphase
avec l’avène-ment de
l’électronique,
iln’y
a dès lorsplus
lieu de s’étonner de cet engouement desspécialistes
en fiabilité à raisonner en terme de"lambda", quitte même, parfois,
à étendre ceconcept,
non sans certainsrisques,
à des domaines autres quel’électronique,
pour ne citer que celui de lamécanique.
Ces
quelques rappels
étantfaits,
si l’on se propose d’aller un peuplus
loin au fond des
choses,
onpeut cependant
se rendrecompte,
auprix
dequelques
réflexions
élémentaires,
que lasignification profonde
du "lambda" n’est pas aussisimple qu’il n’y paraît.
Par
exemple, lorsque
l’on considère un ensemble decomposants
électro-niques,
doit-on attribuer àchaque composant
la même valeur de"lambda", quand
bien même cet ensemble constituerait un lot assezhomogène ?
A lalimite,
cettequestion
a-t-elle même un sens, et, dans lanégative,
seule la notion de "lambda" attaché à uncomposant
abstraitqui représenterait
enquelque
sorte le
composant
leplus
banalisé du lot considéré ne devrait-elle pas êtresusceptible
d’êtreprise
encompte ?
La célèbre "courbe enbaignoire" -
oubathtub - curve -
(Fig. 1),
elle aussilargement
reconnue commedigne
de foipar la
majorité
desspécialistes
enfiabilité,
invite d’ailleurs à aller dans ce sens, car, si l’on raisonnait en terme de "lambda"individuel,
on voit malpourquoi,
durant les
premiers temps
de fonctionnement d’uncomposant donné,
le tauxde panne de ce
composant
diminuerait ou, autrementdit,
parquel
facteur mi-raculeux la
capacité
à survivre de cecomposant
s’améliorerait au cours dutemps.
Il s’en suit que
l’image
de la courbe enbaignoire
est bienplutôt représentative
d’un taux de panne
correspondant
à celui d’uncomposant
moyen d’un lotdonné,
lot dont le niveau dequalité
s’améliore au fur et à mesure que lescomposants qui
étaientpotentiellement
lesplus
faibles se voientprogressive-
ment éliminés.
Revue de Statistique Appliquée, 1981, vol XXIX, n° 1
45
Figure 1. - La courbe en baignoire classique ou "bathtub - curve"
Ainsi,
sur la vue de laclassique "bath-curve", passé
lapériode
dite "infan- tile" -partie
AB sur lafigure
1 -, le taux de panne ducomposant représentant
le mieux le
composant
moyen du lot à un moment donné de l’existence decelui-ci, apparaît
se stabiliser autour d’une valeur bien déterminée. Lecomposant
est àce moment considéré comme étant dans sa
période
de "vie utile" dont l’abou- tissementconduit, beaucoup plus tard,
à un état où lesphénomènes
d’usurefont que le "lambda" se remet à croître. En suivant cette
approche classique,
c’est durant la
période
de "vie utile" que se manifesterait un processus de mor- talité detype poissonien
dans la mesure où c’est dans cettepériode
que le taux de panne,qui
est celui fourni par les tables dedonnées,
semble être constant.Toutefois,
un nouveauproblème
se pose relativement à cettepériode
de "vie utile" des
composants.
Une difficultéapparaît
en effet à la lecture des tables de données elles-mêmes. Ces tablesindiquent
en effet diverses valeurs de "lambda" pour untype
decomposant
déterminé travaillant dans des condi- tions de contraintes et d’environnement bienspécifiées,
en fonction de cer-tains niveaux de
qualité
attribués à cecomposant.
Par niveau dequalité,
nousentendons l’ensemble
plus
ou moinsimportant
des tests et contrôlesqui
ontété mis en oeuvre pour éliminer la
plus grande proportion
decomposants
po- tentiellement viciés. D’un bout à l’autre del’échelle,
parexemple,
nous trou-vons le
composant
leplus
standard d’unepart,
et lecomposant "spatial"
d’autre
part,
dont les "lambda" associés peuvent être entre eux dans un rap-port supérieur
à cent. Unetechnique parmi
celles visant à éliminer les compo- sants lesplus
faibles -techniques
dites de"screening" -
consiste à laisser vieillirun certain
temps, parfois
sous contraintesaccélérées,
un lot decomposants.
On admet alors
qu’au
terme de ce vieillissement artificiel ou"déverminage",
on est
passé
dupoint
A aupoint
B de la courbe enbaignoire,
et que lapériode
de vie utile à "lambda" constant
peut
être considérée comme abordée.Dans ces
conditions,
commentexpliquer qu’un "déverminage" plus
pro-longé
parexemple
que leprécédent
etcorrespondant
de la sorte à un niveaude
qualité supérieur
du lot decomposants considéré,
auraitconduit, après
consultation des tables de
données,
à un taux de pannemeilleur,
c’est-à-direplus
faible en valeur absolue ? Car ils’agit bien,
à ceniveau,
de taux de panne constants, dans un cas comme dans l’autre. Faut-ilalors,
comme le font cer-tains auteurs, admettre l’existence de
paliers
horizontaux différents de la courbeen
baignoire -
enpointillés
sur lafigure
1 -paliers
d’autantplus
bas que ledéverminage
a étédavantage prolongé ?
Dans cette vision deschoses,
onpeut
toutefois se demanderpourquoi,
une fois amorcé lepalier
nominal en traitplein,
le taux de panne ne continue pas à
décroître,
par raison de similitude avec uncomplément
dedéverminage.
Revue de Statistique Appliquée, 1981, vol XXIX, n° 1
46
Dans
l’optique inverse,
où l’on considère que le fait de passer d’un dé-verminage
de durée t à undéverminage
de durée t +t 1
conduit à passer dupoint
B aupoint BI
sur lapartie
descendante de la courbe enbaignoire,
onne
peut plus,
en touterigueur,
raisonner en terme de taux de panne constant dans unepériode
d’utilisation ducomposant compris
entre t et t +tl ,
cequi
va à l’encontre duprincipe
des tables de donnéesqui,
pour un niveau dequalité
de cecomposant correspondant
à undéverminage
de durée t, lui assi-gneraient
un "lambda" bien déterminé etparfaitement
constant.En
résumé,
si l’onpostule
l’existence despaliers
horizontaux des courbesen
baignoire,
on est amené à caractériser un niveau dedéverminage
donné-
hypothèse
demulti-paliers
pour la même courbe enbaignoire -,
oubien,
dans
l’hypothèse
d’unpalier unique,
par uneposition plus
ou moins basse surla
partie gauche
de la courbe.Ces deux
approches conduisant,
comme on l’a vu, à des contradictions deprincipe
avec les tables dedonnées,
ilapparaît légitime d’envisager
une nou-velle
approche susceptible
de déboucher sur unprofil quelque
peu différent de laclassique
"bath-curve". Pourcela, quelques compléments
de réflexion surla nature
profonde
du lambda vont êtreapportés
dans le cadre duchapitre
suivant.
2. UN POINT DE VUE SUR LA SIGNIFICATION DU LAMBDA
De manière
sous-jacente
à sa formulationmathématique,
le "lambda"traduit,
sur unplan plus physique,
lacapacité plus
ou moinsgrande
d’uncomposant -
ou d’untype
déterminé decomposant -
à résister avec succèsaux différentes contraintes d’environnement
auxquelles il
estsusceptible
d’être soumis.
Or,
comme nous pensons l’avoir démontré au cours de nos réflexionsprécédentes,
ilapparaît
que le "détail" n’est pas faitparmi
lescomposants
issus d’un même lot defabrication, ayant
le même niveau dequalité
et unprofil
d’utilisationidentique.
La fiabilité de tous lescomposants
du lot est ainsi renduebanalisée,
cequi
revient à affecter le même "lambda" à chacun de cescomposants.
Plusprécisément,
la succession des défaillances survenant au cours dutemps
n’estenvisagée
ainsi que sous lesauspices
d’un processus de mortalitépoissonien
affectant l’ensemble dulot,
sanspréjugé
du fait que telcomposant ayant
été trouvé défaillant avant tel autrepouvait
être"poten-
tiellement" moins résistant que ce dernier.
Dans ces
conditions,
unephilosophie
différente consiste à neplus
ad-mettre cette identité de "résistances
potentielles"
pour chacun descomposants
d’un même lot. Nousallons,
aucontraire,
caractériser uncomposant
donné par un certaindegré
de résistance à une contrainte de nature déterminée(élec- trique, thermique... )
Ondésignera
ainsi parri
la résistancepotentielle
du
ième composant
à la contrainte denature j. En première approximation,
il suffira d’admettre que la
quantité ri,j représente
le niveau maximum de contrainte denature j
quepeut supporter
sans détérioration notable leième
composant
considéré. Le processus est, enréalité, plus complexe,
en raison desRevue de Statistique Appliquée, 1981, vol. XXIX, n’ 1
47
effets cumulatifs des contraintes
répétées
et, afortiori,
de contraintes combinées de natures différentes.La
présente philosophie
n’en serait pour autant pasinvalidée,
car il suffi-rait,
pour êtreplus précis,
de considérer de manièreplus
extensive une fonctionglobale ri,j>
danslaquelle
lesymbole (j)
traduit laprise
encompte
de contraintes simultanées1, 2 , ... , j , ....
En suivant cette
philosophie,
nous nous trouvons ainsi fondés à admettreque le
phénomène
"défaillance" d’uncomposant
"i"est,
enréalité,
la résul-tante de deux facteurs tout à fait
indépendants
l’un de l’autre :- d’une
part
la résistanceri,j
ducomposant
à toutecontrainte j
- d’autre
part
lespectre
véritable de chacune des contraintesauxquelles
ce
composant
est soumis.De manière
plus imagée,
on areprésenté,
sur lafigure 2,
un mêmespectre
de contrainte denature j appliquée
à deuxcomposants
i etk,
d’un mêmetype,
maisprésentant
des niveaux différents de résistance à lacontrainte j , soit respectivement rij
etrk,j.
Si l’onadmet,
enpremière approxima- tion,
que ces niveaux restent à peuprès
constants dans lapériode
de "vie utile" descomposants
considérés - autrement-dit avant lespremiers symptômes
de l’usure - onvoit,
sur lafigure 2,
que lescomposants
i et k seraient res-pectivement
défaillants aux instantsti
ettk
avectk > ti
’Figure 2
En
réalité,
deuxcomposants
différents ne sontjamais
soumis à desspectres
decontraintes j rigoureusement identiques.
C’estpourquoi,
enpratique,
deuxcomposants qui présenteraient,
dans un cas limitethéorique,
des niveauxéqui-
valents de résistance à l’ensemble des contraintes
(j ),
ont peu de chance de tomber défaillants simultanément. Plusprécisément,
celàsignifie
que, si le taux de défaillance d’uncomposant
donnéest,
pour un environnementdéterminé,
directement corrélé à sa résistance aux contraintes
(j ) auxquelles
il est soumisc’est,
enrevanche,
lespectre
exact des contraintes(j) qui
est la cause d’unprocessus de mortalité
apparemment poissonien.
La connaissanceparfaite
d’untel
spectre
multidimensionnel étantpratiquement inaccessible,
onconçoit
bienque le
phénomène
de défaillancecatalectique puisse
être considéré comme étantdavantage
de nature aléatoire que de nature déterministe.Cette
philosophie
étantacceptée,
ilapparaît
àprésent
intéressant d’enexplorer
lesconséquences
au niveau d’un lot entier decomposants.
Revue de Statistique Appliquée, 1981, vol. XXIX, n° 1
48
Dans cet
objectif,
laprise
encompte
de l’existence d’unéventail, plus
ou moins
étendu,
des résistances à la contraW te des différentscomposants
du lotconduit,
defaçon naturelle,
à l’utilisation d’uneapproche bayesienne.
3. UNE MODELISATION BAYESIENNE DU TAUX DE DEFAILLANCE
Considérons un lot de
composants
d’untype
déterminé et issu d’une mêmeligne
de fabrication.Si l’on
admet,
pourchaque composant
individualisé "i" de celot,
une résistanceri,j>
auspectre
de contraintesj>,
on est conduit à admettrel’existence
d’une
distributionstatistique g(ri,j>)
desquantités ri,j>. Or,
on l’a vu
précédemment,
le taux dedéfaillance
Xi ducomposant i
est unequantité mathématique
directement corrélée à la résistance auspectre
de contraintesri,
j> de cecomposant,
cequi signifie qu’à
une fonctionri,j>
donnée
correspond univoquement
une valeur Ai déterminée.. Par
conséquent,
l’existence de la distributiong(ri,j>)
entraînecelle,
de manière aussi
univoque,
de la même distributiong(Ài)
sur les taux de dé-faillance des
composants
du lot considéré.Notons bien que, contrairement à
l’approche bayesienne classique
danslaquelle
laquantité
Xiapparaîtrait
comme une variable aléatoire censée re-présenter
un taux de défaillanceunique
maisinconnu, chaque
Ài est ici par- faitement déterminé par univocité avec la fonctionri,j>
et a, par consé-quent
une valeur"objective".
La distributiong(03BBi) -que
nousdésignerons dorénavant,
poursimplifier
l’écriture parg(X)- représente
ainsi la distribution dequantités physiques parfaitement
déterminées -celle des taux de défail- lance descomposants
d’unlot -,
et non celle d’une variable aléatoire.Cepen- dant,
àpartir
du moment où le nombre decomposants
du lot est suffisamentimportant,
ce que nous supposerons, nous sommes fondés à admettre une va-riation sensiblement continue sur l’ensemble des "lambda" du lot
considéré,
et donc à traiter la distribution
g(X)
comme celle d’une variable aléatoire pourlaquelle
laquantité
différentielle dXreprésenterait,
enréalité,
la diffé-rance élémentaire des taux de défaillance entre deux
composants
de résis-tances à la contrainte infiniment voisines.
Ces remarques étant
faites,
revenons sur la fonctiong(X).
Celle-ci reflète la distributionstatistique
des "lambda" descomposants
survivants du lot àun moment défini de l’existence - ou de l’utilisation - de ce dernier. En
effet,
il a été vu
précédemment -
surl’exemple
de lafigure
2 - que lescomposants ayant
les "lambda" lesplus
élevés sont ceuxqui,
apriori,
ont tendance à tomber défaillants leplus rapidement.
Celàsignifie qu’au
fur et à mesure de l’évolu-tion de la vie
opérationnelle
descomposants
du lotconsidéré,
la moyenne de la distributiong(03BB)
va sedéplacer
vers lagauche,
comme leprécise
lafigure
3.Nous allons à
présent préciser
ces réflexions de manièreplus analytique,
en
désignant
par :-
f(t/03BB)
la densité deprobabilité
de l’instant de panne d’uncomposant ayant
un taux de défaillance
égal
à ÀRevue de Statistique Appliquée, 1981, vol. XXIX, n° 1
49
-
f(t)
la distribution inconditionnelle de l’instant d’une panneportant
sur l’ensemble descomposants
du lot considéré.Figure 3
Sur la base de ces
définitions, l’expression
de la distribution incondition- nellef(t) peut
êtreétablie,
en suivant la méthodebayesienne,
comme étant uneprobabilité marginale
de l’instant de panneportant
sur l’ensemble des valeurs des"lambda", c’est-à-dire,
apriori,
entre zéro et l’infini.Il s’en suit que :
v
La difficulté
majeure
réside enfait,
comme dans touteapproche
de naturebayesienne,
dans le "bon choix" de la distribution apriori - c’est-à-dire
à l’ins-tant "zéro" -
g0(03BB).
Il va de soi que cette distribution doit refléter au mieux la véritabledispersion
des "lambda" descomposants
du lot en début de vieopérationnelle
de ce dernier.Or,
cettedispersion
est, dans lapratique, plus
ou moins mal connue. Onpourrait,
parexemple, imaginer
une distribution uniforme dans le cas de l’in- certitudemaximum,
ou, dansl’hypothèse
de meilleures connaissances surcette
dispersion,
des distributions detype
Weibull oulog-normales.
Dans le cas
présent,
nouspréfèrerons partir
d’une distribution detype
gamma à deuxparamètres,
a et(3 ,
et celà pour les deux raisons suivantes :- la
conjuguée
naturellebayesienne
de la loi deprobabilité exponentielle, correspondant
ici à la fonctionf(t/À),
n’est autre que la loi gamma- de par l’existence de deux
paramètres
et desaspects
très différentssusceptibles
d’être
pris
par la loi gamma suivant les valeurs attribuées à cesparamètres,
cette loi
s’adapte
bien à destypes
de distribution très variés etprésente
dela sorte une
grande souplesse
d’utilisation.Nous considérons donc comme distribution initiale des "lambda" du lot de la fonction :
où
r(a + 1) représente
la fonction gammaincomplète
pour la valeur a + 1 de la variable.De
plus,
nous admettrons que cette distribution gamma initiale est celle des "lambda" d’un lot dont lescomposants
"franchement défectueux" - c’est-Revue de Statistique Appliquée, 1981, vol XXIX, n° 1
50
à-dire
qui
ne fonctionneraientdéjà
pas à l’instant zéro - ontpréalablement
été éliminés par un certain nombre de contrôles
préliminaires (contrôles visuels, tests électriques, etc.).
La notion de "lambda" liée ultérieurement à un processus de mortalité
exponentiel
nesemble,
eneffet,
devoirprésenter
aucunesignification
pour descomposants déjà
défectueux en débutd’utilisation,
autrement ditpréalable-
ment à l’instant zéro.
En tenant
compte
del’hypothèse
de mortalitéexponentielle pouvant
s’appliquer
à uncomposant
biendéfini,
onpeut
écrire :expression
danslaquelle
Àreprésente
le taux de défaillance propre au compo- sant considéré.La distribution inconditionnelle de l’instant de panne au niveau de l’ensemble des
composants
du lotpeut
doncs’écrire, d’après (1) :
Après intégrations
parpartie successives,
il vient :En
désignant
parR(t)
la fiabilité inconditionnelle sur le lot à l’instant t, onpeut
encore écrire :Enfin,
si l’ondésigne
parh(t)
le taux de défaillance inconditionnel surle lot à l’instant t, on a :
soit, d’après (4)
et(5) :
Ce dernier résultat est très
important.
Il montre en effet que, sousl’angle bayesien
et dansl’hypothèse
d’une distribution apriori
detype
gamma, le tauxde défaillance inconditionnel décroît
hyperboliquement
avec letemps
de fonc- tionnement.Nous admettrons toutefois une telle
représentation
comme valide dans la limite depériode
dite de "vie utile" caractérisant letype
decomposant
consi- déré. Eneffet,
le modèle(6)
ne traduit pas l’effet de vieillissementqui,
commel’on
sait, apparaît
au bout d’unepériode généralement
assezlongue.
Pluspré- cisément,
si l’on revient aux considérationsthéoriques exposées
auparagraphe 2,
on devra relier le
phénomène
de vieillissement à unedécroissance,
àpartir
d’unRevue de Statistique Appliquée, 1981, vol. XXIX, n° 1
51
temps
de fonctionnementplus
ou moinslong,
de la fonction "résistance à la contrainte"ri,j qui
avait étésupposée
constante pour uncomposant
donné(Fig.2).
La
prise
encompte
duphénomène
de vieillissementpourrait
conduireà un modèle
général, quel
que soit t, du taux de défaillance inconditionnelle facteur
exponentiel,
danslequel
la constante y est nettement inférieure à10-4
pour lamajorité
destypes
decomposants,
étant reconnu comme re-présentant
assez bien l’effet du vieillissement sur le taux de défaillance.Il est aisé de
démontrer, enfin,
que la décroissance du taux de défail- lance inconditionnelh(t)
traduit bien ledéplacement
vers lagauche
de la dis- tribution apriori g0(03BB). Soit,
eneffet, g(À/t)
la distribution des taux de défaillance descomposants
encore en vie à l’instant t.Cette distribution a pour
expression,
en vertu du théorème deBayes :
Il
apparaît
donc que la distributiong(X/t)
est une distribution detype
gamma dont lesparamètres ci’
et(3’
sont tels que :La valeur moyenne
n/(À)
de cette nouvelle distribution n’est autre que le taux de défaillance inconditionnel à l’instant t.On
peut
en effet vérifier que :en
désignant
parmo(À)
la valeur moyenne de la distribution initialeg0(03BB).
Le
déplacement
dans letemps
vers lagauche
de la distributiong(X/t)
peut
donc être mesuré par laquantité
1 +ot : rapport
entre les moyennes des distributionsg(X/t)
etgo(X).
On
peut
enfin noter le resserrement de la distributiong(X/t)
au coursdu
temps.
Eneffet,
si l’ondésigne
par(/(À) l’écart-type
de cette distribu-tion à l’instant t , on a :
où
a(X) représente
l’écarttype
de la distribution initialego(A) .
Le resserrement au cours du
temps
de la distributiong(03BB/t) peut
donc êtreégalement
caractérisé par laquantité
1 +j3t : rapport
entre lesécart-types
des distributionsg(X/t)
etgo(X).
Revue de Statistique Appliquée, 1981, vol XXIX, n° 1
52
4. CONCLUSION ET PERSPECTIVES D’APPLICATION
L’approche bayesienne qui
vient d’être menée sur le taux de défaillance descomposants électroniques
débouche naturellement sur un nouveauprofil
de la
"classique"
courbe enbaignoire.
Enréalité,
le terme de"baignoire"
appliqué
à ce nouveauprofil
devient mêmeincorrect,
dans la mesure où lepalier
horizontal n’existeplus.
Si l’on sebase,
eneffet,
sur le modèlegéné-
ralisé
(7)
du taux de défaillanceinconditionnel,
on voit en effetapparaître,
sur la courbe en trait
plan
tracée dans leplan (t , X)
dudiagramme
tri-dimensionnel de la
figure
4 :- une
période
de décroissancehyperbolique qui
caractérise la vie utile du lot decomposants
- une remontée
exponentielle qui
caractérise le vieillissement descomposants
àpartir
d’untemps
de fonctionnement élevé :Figure 4
Dans cette
optique,
la mise en fonctionnement d’un lot donné decomposants peut apparaître
comme undéverminage qui
sepoursuit
dans letemps,
dans lamesure
où,
avant usure, le taux de panne inconditionnel au niveau descomposants
survivants continue à décroître. Le
déverminage
"effectif" reste,toutefois,
uneopération
de vieillissementparticulière qui
consiste à amener dans un minimumde
temps,
le taux de panne inconditionneldepuis
l’extrémitégauche Mo
dela courbe
h(t) jusqu’à
unpoint
M suffisamment à droite sur cettecourbe,
lamise en oeuvre de contraintes accélérées
(Ex : température
de125° C,
tensionde
blocage
maximum pour lessemi-conducteurs, etc.) permettant
de réduire artificiellement la durée nécessaire à cetteopération.
Par voie de
fait,
ledéverminage
"effectif"peut
être perçu comme un essai de vieillissement artificiel d’une durée tellequ’au
bout del’opération,
lescomposants
survivants aient atteint un niveau de fiabilitécompatible
avec unobjectif requis.
Eneffet,
soit :- X*
l’objectif requis
sur le taux de défaillance dans des conditions déterminées de fonctionnement ducomposant
- K le coefficient d’accélération de pannes dû aux contraintes en
déverminage
par
rapport
aux contraintesopérationnelles.
Revue de Statistique Appliquée, 1981, vol. XXIX, n° 1
53
La durée t* du
déverminage
nécessaire pour atteindrel’objectif
visé esttelle que :
h(Kt*)
=À*, soit,
dansl’hypothèse
d’une distribution apriori
de
type
gamma sur les taux de défaillance descomposants
du lot :Cette relation ne
prend
un sens quelorsque l’objectif
visé n’est pasdéjà
atteint à l’instant
zéro,
cequi impose : (a
+1) j8
>À*.
Dans cette
hypothèse,
la durée cherchée a pourexpression :
La formule
(9)
estsusceptible
deprésenter
un intérêtpratique lorsqu’on
est en mesure de connaître les
paramètres
a etj3
de la distribution gammaa
priori.
Cesparamètres dépendent
enparticulier
dutype
decomposant
consi-déré,
du niveau dequalité correspondant
et du fournisseur. Une méthode pos- sible pour déterminer aet (3
consiste àanalyser
lecomportement,
en vieil- lissementcontrôlé,
d’un ou deplusieurs
lots decomposants
dutype
considéréet issus de
lignes
de fabricationhomogènes
chez le même fournisseur. Cetteméthode,
illustrée en annexe sur un casd’espèce
traité parl’auteur, permet
d’unepart
de tester la validité du modèle"gamma"
apriori,
et, d’autrepart,
cette validité étant
supposée acquise,
de déterminer les meilleurs estimations de aet 13
en fonction de la distribution des pannes observées sur l’essai de vieillissement.En
définitive,
ilapparaît
quel’hypothèse
d’une distribution apriori
surles taux de défaillance des
composants
d’un même lotprésente
un intérêttant sur un
plan pratique
que sur unplan
formel. Pour sapart,
l’auteur a puéprouver
la validité d’un modèle detype
gamma lors del’exploitation
d’uncertain nombre de résultats d’essais de vieillissement relatifs à des résistances et à des semi-conducteurs discrets. Il est
probable, toutefois,
que le modèle"gamma"
ne sauraitprétendre
à l’exhaustivité en vue d’uneapplication
à descomposants
issus de certaineslignes
de fabrication et, afortiori,
à la totalitédes
types
decomposants
existants. C’est la raison pourlaquelle
ilapparaît indispensable,
aux yeux del’auteur,
depoursuivre
lesinvestigations
dans unchamp d’application plus
vaste - circuitsintégrés logiques
ouanalogiques, mémoires,
etc. - afin de connaître les limites de la loi gamma dans cetype
d’utilisation et, hors de ceslimites,
de déterminer d’autres natures des lois"a
priori" susceptibles
deprésenter
une meilleurecompatibilité
avec les ré-sultats
expérimentaux.
ANNEXE
Une illustration
numérique
del’approche
menée dans leprésent
articleest
présentée
ici surl’exemple
d’un essai de vieillissementportant
sur des tran- sistors non fiabilisés dutype
2N 1565.Revue de Statistique Appliquée, 1981, vol. XXIX, n° 1
54
Les conditions de l’essai ont été les suivantes :
- durée totale de l’essai : 5000 heures
- fonctionnement continu : 600
mW; Vce
= 40 V-
température
ambiante :25°C
- nombre d’éléments conformes à t = 0 : 893
- définition des défauts : selon critères CCTU.
Le tableau 1
présente
les résultats de l’essai de vieillissement. On y faitapparaître
les informations suivantes :- les
cinq
tranches detemps
successives(t 1, t2 ) comprises
entre lespoints
de relevés- les
temps
milieux :tm = t1 + t2 2
- le nombre de
composants
trouvés défectueux danschaque
tranche(t 1 t2
C- le nombre de
composants
survivants en début dechaque
tranche(t1, t2) :
n- l’inverse de l’estimateur du taux de panne instantané aux
temps tm :
Les résultats de cet essai
peuvent
se corréler avecl’approche théorique
menée dans cet article de la
façon
suivante. Il a été vu que,lorsqu’on prend
pour distribution a
priori
des taux depanne
une loi gamma, le taux de panne inconditionnel au niveau du lot est une fonctionhyperbolique
dutemps.
Si l’on
reprend l’expression (6),
on voit que l’inverse du taux de panne inconditionnel s’écrit :Autrement
dit, h-1 (t)
est une fonction linéairement croissante avecle
temps.
Dans lesystème
d’axe(t , h-1 ),
la droiteh-1 (t) peut
être définiepar les deux
caractéristiques
suivantes :- ordonnée à
l’origine :
Si donc l’on
parvient
à évaluerexpérimentalement
les deux caractéris-tiques
a et b dans un essai de vieillissement d’un lot decomposants déterminé,
on voit que les estimateurs des
paramètres
aet 03B2
de la distribution gammaa
priori peuvent
être obtenus par les relations :Cette méthode de calcul
ayant
été choisie dans notreexemple,
on atracé,
sur la
figure 5,
la droite(D) s’ajustant
le mieux avec lescinq points expéri-
mentaux
(méthode
des moindrescarrés).
Revue de Statistique Appliquée, 1981, vol XXIX, n° 1
55 TABLEAU 1
Résultat d’un essai de vieillissement
portant
sur 893 transistors 2N 1565Figure 5. - Evolution
de -1
avec le tempsLes résultats obtenus sont les suivants :
- coefficient de corrélation : r =
0,971
- ordonnée de
(D)
àl’origine :
a = 26.933(heures)
-
pente
de(D) :
b =16,682.
On constate donc une excellente corrélation entre la droite
théorique
et les résultats
expérimentaux,
cequi démontre,
sur cetexemple,
le bien-fondéde la loi gamma comme distribution a
priori.
Les estimateurs de a etde (3
ontici pour valeurs :
Revue de Statistique Appliquée, 1981, vol. XXIX, n° 1
56
Le taux de panne instantané a alors pour
expression :
A titre
d’exemple,
on obtiendrait parextrapolation,
dans les limites devalidité de ce modèle :
- à 10000 heures :
h(10000)
=5,16.10-6/h
- à 50000 heures :
h(50000)
=1,16.10-6/h
- à 100000 heures :
h(100000)
=5,9.10-7/h
BIBLIOGRAPHIE
[1]
I. BAZOVSKY. - Fiabilité - Théorie etpratique
de la sureté defonction-
nement
(Dunod).
[2]
IEEE Transactions ofReliability. - Special
issue onBayesian techniques (August 1972).
[3]
J. RINGLER. - Réduction des coûts d’essais defiabilité
par lapratique
destechniques bayesiennes. (Colloque
International sur la Fiabilité et la Main-tenabilité,
Parisjuin 1978).
[4]
R. STEWART. - A causalredefinition of failure
rate.Theorems,
stress de-pendence,
andapplication
to devices and distributions(IEEE
Transaction ofreliability -
December1966).
[5]
C. HARRIS and N. SINGPURWALLA. -Life
distributions derivedfrom
stochastie hazard
functions (IEEE
transaction ofreliability,
June1968).
[6]
M. SHOOMAN. -Reliability physic
models(IEEE
transaction ofreliability,
March
1968).
[7]
T. CALVIN. -Modeling
the bathtub curve(1974,
AnnualReliability
andMaintenability Symposium).
Revue de Statistique Appliquée, 1981, vol. XXIX, n° 1