• Aucun résultat trouvé

Une modélisation bayesienne du taux de défaillance en fiabilité

N/A
N/A
Protected

Academic year: 2022

Partager "Une modélisation bayesienne du taux de défaillance en fiabilité"

Copied!
15
0
0

Texte intégral

(1)

R EVUE DE STATISTIQUE APPLIQUÉE

J. R INGLER

Une modélisation bayesienne du taux de défaillance en fiabilité

Revue de statistique appliquée, tome 29, n

o

1 (1981), p. 43-56

<http://www.numdam.org/item?id=RSA_1981__29_1_43_0>

© Société française de statistique, 1981, tous droits réservés.

L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.

sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les conditions générales d’uti- lisation (http://www.numdam.org/conditions). Toute utilisation commerciale ou im- pression systématique est constitutive d’une infraction pénale. Toute copie ou im- pression de ce fichier doit contenir la présente mention de copyright.

Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques

http://www.numdam.org/

(2)

43

UNE MODELISATION BAYESIENNE DU TAUX DE DEFAILLANCE EN FIABILITE

J. RINGLER

MATRA 37, av. Louis Bréguet - 78140 Vélizy

RESUME

L’approche classique en

fiabilité,

dans laquelle il n’est pas fait de "détail" entre les taux de défaillance des divers composants

électroniques

constituant un lot

réputé homogène,

conduit à un certain nombre de difficultés formelles qui seront mises en évidence. Il est

alors

proposé

une nouvelle approche, dans laquelle chaque composant du lot est carac- térisé par sa

"capacité

propre de résistance à la contrainte". Cette approche conduit à pos- tuler l’existence d’un "lambda" individuel attaché à chaque composant, et donc celle d’une distribution statistique des "lambda" au niveau du lot.

Prenant cette distribution pour loi "a priori", un traitement bayesien est alors mis en

0153uvre. Il en résulte la formalisation d’un taux de panne inconditionnel reflétant le taux de panne moyen du lot considéré. En choisissant pour distribution a priori une loi de type gamma,

justifiée

par des raisons d’ordre pratique et

théorique,

il sera montré que le taux de panne inconditionnel décroit hyperboliquement avec le temps. Il s’en suit un

nouveau profil de la "courbe en baignoire", dans lequel le palier horizontal devient

légè-

rement incliné. Enfin, le modèle

proposé

permet de trouver une relation simple entre le temps de

déverminage

réalisé sur un lot de composants et le taux de panne inconditionnel de ce lot en fin de

déverminage.

1.

QUELQUES

CONSIDERATIONS GENERALES

Il est fort peu douteux que, dans le domaine de la

fiabilité,

aucun

concept

n’ait eu, à ce

jour,

une faveur

équivalente

à celle du très - et

peut-être trop -

célèbre "taux de défaillance"

désigné

communément par la lettre grecque

"lambda".

Sur un

plan purement formel,

le "lambda" des fiabilistes doit être étroi- tement associé au

problème

de la survivance d’un mécanisme

pris

au sens

large : composants - mécaniques

ou

électriques -

chaînes

cinématiques, dispositifs électroniques complexes, systèmes pyrotechniques,

etc. Plus

précisément,

si

l’on

désigne

par

R(t)

la fiabilité -ou

probabilité

de survie - d’un mécanisme

Le

présent

article a été

présenté

par l’auteur au Second Colloque International sur

la Fiabilité et le Maintenabilité (Perros-Guirec -

Trégastel,

Sept. 1980).

Revue de Statistique Appliquée, 1981, vol. XXIX, 1

Mots-clés :

Techniques bayésiennes,

Taux de

défaillance, Déverminage.

(3)

44

déterminé à l’instant t, et par dR la

probabilité

élémentaire d’avarie de ce mécanisme entre les instants t et t +

dt,

le taux de défaillance

peut

être consi- déré comme une fonction du

temps À(t) ayant

pour

expression :

Dans un domaine confiné au

champ

de

l’électronique,

il

semblerait,

de

manière

empirique,

que, dans le cas d’un lot suffisamment

important

de com-

posants homogènes,

c’est-à-dire du même

type

et d’un niveau de

qualité

ana-

logue,

les instants

d’apparitions

de pannes franches de ces

composants

soient

régis

par un processus de mortalité sensiblement

poissonnien,

ce

qui

conduit à admettre une valeur à peu

près

constante - donc

indépendante

du

temps -

du

taux de défaillance associé aux

composants

du lot considéré. Bien

entendu,

ce taux constant

dépend

à la fois du

type

de

composant,

de son niveau de qua-

lité,

et de son

profil

d’utilisation.

L’admission

quasi

unanime d’un taux de panne constant des compo- sants

électroniques

conduit ainsi à une

grande simplification

des calculs de

fiabilité,

pour ne citer que l’addition des "lambda"

lorsque

l’on a affaire à des

composants

en

série,

et

permet

par ailleurs l’élaboration de

banques

de données

de "lambda". Ce sont

probablement

ces deux raisons

qui,

à elles

seules,

ex-

pliquent

ce succès incontesté du "lambda" dans le

champ

d’activités de la fiabilité. Si l’on veut bien se

remémorer, enfin,

que l’éclosion de la fiabilité en tant que

technique spécifique

de la

prévision

s’est faite en

phase

avec l’avène-

ment de

l’électronique,

il

n’y

a dès lors

plus

lieu de s’étonner de cet engouement des

spécialistes

en fiabilité à raisonner en terme de

"lambda", quitte même, parfois,

à étendre ce

concept,

non sans certains

risques,

à des domaines autres que

l’électronique,

pour ne citer que celui de la

mécanique.

Ces

quelques rappels

étant

faits,

si l’on se propose d’aller un peu

plus

loin au fond des

choses,

on

peut cependant

se rendre

compte,

au

prix

de

quelques

réflexions

élémentaires,

que la

signification profonde

du "lambda" n’est pas aussi

simple qu’il n’y paraît.

Par

exemple, lorsque

l’on considère un ensemble de

composants

électro-

niques,

doit-on attribuer à

chaque composant

la même valeur de

"lambda", quand

bien même cet ensemble constituerait un lot assez

homogène ?

A la

limite,

cette

question

a-t-elle même un sens, et, dans la

négative,

seule la notion de "lambda" attaché à un

composant

abstrait

qui représenterait

en

quelque

sorte le

composant

le

plus

banalisé du lot considéré ne devrait-elle pas être

susceptible

d’être

prise

en

compte ?

La célèbre "courbe en

baignoire" -

ou

bathtub - curve -

(Fig. 1),

elle aussi

largement

reconnue comme

digne

de foi

par la

majorité

des

spécialistes

en

fiabilité,

invite d’ailleurs à aller dans ce sens, car, si l’on raisonnait en terme de "lambda"

individuel,

on voit mal

pourquoi,

durant les

premiers temps

de fonctionnement d’un

composant donné,

le taux

de panne de ce

composant

diminuerait ou, autrement

dit,

par

quel

facteur mi-

raculeux la

capacité

à survivre de ce

composant

s’améliorerait au cours du

temps.

Il s’en suit que

l’image

de la courbe en

baignoire

est bien

plutôt représentative

d’un taux de panne

correspondant

à celui d’un

composant

moyen d’un lot

donné,

lot dont le niveau de

qualité

s’améliore au fur et à mesure que les

composants qui

étaient

potentiellement

les

plus

faibles se voient

progressive-

ment éliminés.

Revue de Statistique Appliquée, 1981, vol XXIX, n° 1

(4)

45

Figure 1. - La courbe en baignoire classique ou "bathtub - curve"

Ainsi,

sur la vue de la

classique "bath-curve", passé

la

période

dite "infan- tile" -

partie

AB sur la

figure

1 -, le taux de panne du

composant représentant

le mieux le

composant

moyen du lot à un moment donné de l’existence de

celui-ci, apparaît

se stabiliser autour d’une valeur bien déterminée. Le

composant

est à

ce moment considéré comme étant dans sa

période

de "vie utile" dont l’abou- tissement

conduit, beaucoup plus tard,

à un état les

phénomènes

d’usure

font que le "lambda" se remet à croître. En suivant cette

approche classique,

c’est durant la

période

de "vie utile" que se manifesterait un processus de mor- talité de

type poissonien

dans la mesure où c’est dans cette

période

que le taux de panne,

qui

est celui fourni par les tables de

données,

semble être constant.

Toutefois,

un nouveau

problème

se pose relativement à cette

période

de "vie utile" des

composants.

Une difficulté

apparaît

en effet à la lecture des tables de données elles-mêmes. Ces tables

indiquent

en effet diverses valeurs de "lambda" pour un

type

de

composant

déterminé travaillant dans des condi- tions de contraintes et d’environnement bien

spécifiées,

en fonction de cer-

tains niveaux de

qualité

attribués à ce

composant.

Par niveau de

qualité,

nous

entendons l’ensemble

plus

ou moins

important

des tests et contrôles

qui

ont

été mis en oeuvre pour éliminer la

plus grande proportion

de

composants

po- tentiellement viciés. D’un bout à l’autre de

l’échelle,

par

exemple,

nous trou-

vons le

composant

le

plus

standard d’une

part,

et le

composant "spatial"

d’autre

part,

dont les "lambda" associés peuvent être entre eux dans un rap-

port supérieur

à cent. Une

technique parmi

celles visant à éliminer les compo- sants les

plus

faibles -

techniques

dites de

"screening" -

consiste à laisser vieillir

un certain

temps, parfois

sous contraintes

accélérées,

un lot de

composants.

On admet alors

qu’au

terme de ce vieillissement artificiel ou

"déverminage",

on est

passé

du

point

A au

point

B de la courbe en

baignoire,

et que la

période

de vie utile à "lambda" constant

peut

être considérée comme abordée.

Dans ces

conditions,

comment

expliquer qu’un "déverminage" plus

pro-

longé

par

exemple

que le

précédent

et

correspondant

de la sorte à un niveau

de

qualité supérieur

du lot de

composants considéré,

aurait

conduit, après

consultation des tables de

données,

à un taux de panne

meilleur,

c’est-à-dire

plus

faible en valeur absolue ? Car il

s’agit bien,

à ce

niveau,

de taux de panne constants, dans un cas comme dans l’autre. Faut-il

alors,

comme le font cer-

tains auteurs, admettre l’existence de

paliers

horizontaux différents de la courbe

en

baignoire -

en

pointillés

sur la

figure

1 -

paliers

d’autant

plus

bas que le

déverminage

a été

davantage prolongé ?

Dans cette vision des

choses,

on

peut

toutefois se demander

pourquoi,

une fois amorcé le

palier

nominal en trait

plein,

le taux de panne ne continue pas à

décroître,

par raison de similitude avec un

complément

de

déverminage.

Revue de Statistique Appliquée, 1981, vol XXIX, n° 1

(5)

46

Dans

l’optique inverse,

l’on considère que le fait de passer d’un dé-

verminage

de durée t à un

déverminage

de durée t +

t 1

conduit à passer du

point

B au

point BI

sur la

partie

descendante de la courbe en

baignoire,

on

ne

peut plus,

en toute

rigueur,

raisonner en terme de taux de panne constant dans une

période

d’utilisation du

composant compris

entre t et t +

tl ,

ce

qui

va à l’encontre du

principe

des tables de données

qui,

pour un niveau de

qualité

de ce

composant correspondant

à un

déverminage

de durée t, lui assi-

gneraient

un "lambda" bien déterminé et

parfaitement

constant.

En

résumé,

si l’on

postule

l’existence des

paliers

horizontaux des courbes

en

baignoire,

on est amené à caractériser un niveau de

déverminage

donné

-

hypothèse

de

multi-paliers

pour la même courbe en

baignoire -,

ou

bien,

dans

l’hypothèse

d’un

palier unique,

par une

position plus

ou moins basse sur

la

partie gauche

de la courbe.

Ces deux

approches conduisant,

comme on l’a vu, à des contradictions de

principe

avec les tables de

données,

il

apparaît légitime d’envisager

une nou-

velle

approche susceptible

de déboucher sur un

profil quelque

peu différent de la

classique

"bath-curve". Pour

cela, quelques compléments

de réflexion sur

la nature

profonde

du lambda vont être

apportés

dans le cadre du

chapitre

suivant.

2. UN POINT DE VUE SUR LA SIGNIFICATION DU LAMBDA

De manière

sous-jacente

à sa formulation

mathématique,

le "lambda"

traduit,

sur un

plan plus physique,

la

capacité plus

ou moins

grande

d’un

composant -

ou d’un

type

déterminé de

composant -

à résister avec succès

aux différentes contraintes d’environnement

auxquelles il

est

susceptible

d’être soumis.

Or,

comme nous pensons l’avoir démontré au cours de nos réflexions

précédentes,

il

apparaît

que le "détail" n’est pas fait

parmi

les

composants

issus d’un même lot de

fabrication, ayant

le même niveau de

qualité

et un

profil

d’utilisation

identique.

La fiabilité de tous les

composants

du lot est ainsi rendue

banalisée,

ce

qui

revient à affecter le même "lambda" à chacun de ces

composants.

Plus

précisément,

la succession des défaillances survenant au cours du

temps

n’est

envisagée

ainsi que sous les

auspices

d’un processus de mortalité

poissonien

affectant l’ensemble du

lot,

sans

préjugé

du fait que tel

composant ayant

été trouvé défaillant avant tel autre

pouvait

être

"poten-

tiellement" moins résistant que ce dernier.

Dans ces

conditions,

une

philosophie

différente consiste à ne

plus

ad-

mettre cette identité de "résistances

potentielles"

pour chacun des

composants

d’un même lot. Nous

allons,

au

contraire,

caractériser un

composant

donné par un certain

degré

de résistance à une contrainte de nature déterminée

(élec- trique, thermique... )

On

désignera

ainsi par

ri

la résistance

potentielle

du

ième composant

à la contrainte de

nature j. En première approximation,

il suffira d’admettre que la

quantité ri,j représente

le niveau maximum de contrainte de

nature j

que

peut supporter

sans détérioration notable le

ième

composant

considéré. Le processus est, en

réalité, plus complexe,

en raison des

Revue de Statistique Appliquée, 1981, vol. XXIX, n’ 1

(6)

47

effets cumulatifs des contraintes

répétées

et, a

fortiori,

de contraintes combinées de natures différentes.

La

présente philosophie

n’en serait pour autant pas

invalidée,

car il suffi-

rait,

pour être

plus précis,

de considérer de manière

plus

extensive une fonction

globale ri,j&#x3E;

dans

laquelle

le

symbole (j)

traduit la

prise

en

compte

de contraintes simultanées

1, 2 , ... , j , ....

En suivant cette

philosophie,

nous nous trouvons ainsi fondés à admettre

que le

phénomène

"défaillance" d’un

composant

"i"

est,

en

réalité,

la résul-

tante de deux facteurs tout à fait

indépendants

l’un de l’autre :

- d’une

part

la résistance

ri,j

du

composant

à toute

contrainte j

- d’autre

part

le

spectre

véritable de chacune des contraintes

auxquelles

ce

composant

est soumis.

De manière

plus imagée,

on a

représenté,

sur la

figure 2,

un même

spectre

de contrainte de

nature j appliquée

à deux

composants

i et

k,

d’un même

type,

mais

présentant

des niveaux différents de résistance à la

contrainte j , soit respectivement rij

et

rk,j.

Si l’on

admet,

en

première approxima- tion,

que ces niveaux restent à peu

près

constants dans la

période

de "vie utile" des

composants

considérés - autrement-dit avant les

premiers symptômes

de l’usure - on

voit,

sur la

figure 2,

que les

composants

i et k seraient res-

pectivement

défaillants aux instants

ti

et

tk

avec

tk &#x3E; ti

Figure 2

En

réalité,

deux

composants

différents ne sont

jamais

soumis à des

spectres

de

contraintes j rigoureusement identiques.

C’est

pourquoi,

en

pratique,

deux

composants qui présenteraient,

dans un cas limite

théorique,

des niveaux

équi-

valents de résistance à l’ensemble des contraintes

(j ),

ont peu de chance de tomber défaillants simultanément. Plus

précisément,

celà

signifie

que, si le taux de défaillance d’un

composant

donné

est,

pour un environnement

déterminé,

directement corrélé à sa résistance aux contraintes

(j ) auxquelles

il est soumis

c’est,

en

revanche,

le

spectre

exact des contraintes

(j) qui

est la cause d’un

processus de mortalité

apparemment poissonien.

La connaissance

parfaite

d’un

tel

spectre

multidimensionnel étant

pratiquement inaccessible,

on

conçoit

bien

que le

phénomène

de défaillance

catalectique puisse

être considéré comme étant

davantage

de nature aléatoire que de nature déterministe.

Cette

philosophie

étant

acceptée,

il

apparaît

à

présent

intéressant d’en

explorer

les

conséquences

au niveau d’un lot entier de

composants.

Revue de Statistique Appliquée, 1981, vol. XXIX, n° 1

(7)

48

Dans cet

objectif,

la

prise

en

compte

de l’existence d’un

éventail, plus

ou moins

étendu,

des résistances à la contraW te des différents

composants

du lot

conduit,

de

façon naturelle,

à l’utilisation d’une

approche bayesienne.

3. UNE MODELISATION BAYESIENNE DU TAUX DE DEFAILLANCE

Considérons un lot de

composants

d’un

type

déterminé et issu d’une même

ligne

de fabrication.

Si l’on

admet,

pour

chaque composant

individualisé "i" de ce

lot,

une résistance

ri,j&#x3E;

au

spectre

de contraintes

j&#x3E;,

on est conduit à admettre

l’existence

d’une

distribution

statistique g(ri,j&#x3E;)

des

quantités ri,j&#x3E;. Or,

on l’a vu

précédemment,

le taux de

défaillance

Xi du

composant i

est une

quantité mathématique

directement corrélée à la résistance au

spectre

de contraintes

ri,

j&#x3E; de ce

composant,

ce

qui signifie qu’à

une fonction

ri,j&#x3E;

donnée

correspond univoquement

une valeur Ai déterminée.

. Par

conséquent,

l’existence de la distribution

g(ri,j&#x3E;)

entraîne

celle,

de manière aussi

univoque,

de la même distribution

g(Ài)

sur les taux de dé-

faillance des

composants

du lot considéré.

Notons bien que, contrairement à

l’approche bayesienne classique

dans

laquelle

la

quantité

Xi

apparaîtrait

comme une variable aléatoire censée re-

présenter

un taux de défaillance

unique

mais

inconnu, chaque

Ài est ici par- faitement déterminé par univocité avec la fonction

ri,j&#x3E;

et a, par consé-

quent

une valeur

"objective".

La distribution

g(03BBi) -que

nous

désignerons dorénavant,

pour

simplifier

l’écriture par

g(X)- représente

ainsi la distribution de

quantités physiques parfaitement

déterminées -celle des taux de défail- lance des

composants

d’un

lot -,

et non celle d’une variable aléatoire.

Cepen- dant,

à

partir

du moment où le nombre de

composants

du lot est suffisament

important,

ce que nous supposerons, nous sommes fondés à admettre une va-

riation sensiblement continue sur l’ensemble des "lambda" du lot

considéré,

et donc à traiter la distribution

g(X)

comme celle d’une variable aléatoire pour

laquelle

la

quantité

différentielle dX

représenterait,

en

réalité,

la diffé-

rance élémentaire des taux de défaillance entre deux

composants

de résis-

tances à la contrainte infiniment voisines.

Ces remarques étant

faites,

revenons sur la fonction

g(X).

Celle-ci reflète la distribution

statistique

des "lambda" des

composants

survivants du lot à

un moment défini de l’existence - ou de l’utilisation - de ce dernier. En

effet,

il a été vu

précédemment -

sur

l’exemple

de la

figure

2 - que les

composants ayant

les "lambda" les

plus

élevés sont ceux

qui,

a

priori,

ont tendance à tomber défaillants le

plus rapidement.

Celà

signifie qu’au

fur et à mesure de l’évolu-

tion de la vie

opérationnelle

des

composants

du lot

considéré,

la moyenne de la distribution

g(03BB)

va se

déplacer

vers la

gauche,

comme le

précise

la

figure

3.

Nous allons à

présent préciser

ces réflexions de manière

plus analytique,

en

désignant

par :

-

f(t/03BB)

la densité de

probabilité

de l’instant de panne d’un

composant ayant

un taux de défaillance

égal

à À

Revue de Statistique Appliquée, 1981, vol. XXIX, 1

(8)

49

-

f(t)

la distribution inconditionnelle de l’instant d’une panne

portant

sur l’ensemble des

composants

du lot considéré.

Figure 3

Sur la base de ces

définitions, l’expression

de la distribution incondition- nelle

f(t) peut

être

établie,

en suivant la méthode

bayesienne,

comme étant une

probabilité marginale

de l’instant de panne

portant

sur l’ensemble des valeurs des

"lambda", c’est-à-dire,

a

priori,

entre zéro et l’infini.

Il s’en suit que :

v

La difficulté

majeure

réside en

fait,

comme dans toute

approche

de nature

bayesienne,

dans le "bon choix" de la distribution a

priori - c’est-à-dire

à l’ins-

tant "zéro" -

g0(03BB).

Il va de soi que cette distribution doit refléter au mieux la véritable

dispersion

des "lambda" des

composants

du lot en début de vie

opérationnelle

de ce dernier.

Or,

cette

dispersion

est, dans la

pratique, plus

ou moins mal connue. On

pourrait,

par

exemple, imaginer

une distribution uniforme dans le cas de l’in- certitude

maximum,

ou, dans

l’hypothèse

de meilleures connaissances sur

cette

dispersion,

des distributions de

type

Weibull ou

log-normales.

Dans le cas

présent,

nous

préfèrerons partir

d’une distribution de

type

gamma à deux

paramètres,

a et

(3 ,

et celà pour les deux raisons suivantes :

- la

conjuguée

naturelle

bayesienne

de la loi de

probabilité exponentielle, correspondant

ici à la fonction

f(t/À),

n’est autre que la loi gamma

- de par l’existence de deux

paramètres

et des

aspects

très différents

susceptibles

d’être

pris

par la loi gamma suivant les valeurs attribuées à ces

paramètres,

cette loi

s’adapte

bien à des

types

de distribution très variés et

présente

de

la sorte une

grande souplesse

d’utilisation.

Nous considérons donc comme distribution initiale des "lambda" du lot de la fonction :

r(a + 1) représente

la fonction gamma

incomplète

pour la valeur a + 1 de la variable.

De

plus,

nous admettrons que cette distribution gamma initiale est celle des "lambda" d’un lot dont les

composants

"franchement défectueux" - c’est-

Revue de Statistique Appliquée, 1981, vol XXIX, 1

(9)

50

à-dire

qui

ne fonctionneraient

déjà

pas à l’instant zéro - ont

préalablement

été éliminés par un certain nombre de contrôles

préliminaires (contrôles visuels, tests électriques, etc.).

La notion de "lambda" liée ultérieurement à un processus de mortalité

exponentiel

ne

semble,

en

effet,

devoir

présenter

aucune

signification

pour des

composants déjà

défectueux en début

d’utilisation,

autrement dit

préalable-

ment à l’instant zéro.

En tenant

compte

de

l’hypothèse

de mortalité

exponentielle pouvant

s’appliquer

à un

composant

bien

défini,

on

peut

écrire :

expression

dans

laquelle

À

représente

le taux de défaillance propre au compo- sant considéré.

La distribution inconditionnelle de l’instant de panne au niveau de l’ensemble des

composants

du lot

peut

donc

s’écrire, d’après (1) :

Après intégrations

par

partie successives,

il vient :

En

désignant

par

R(t)

la fiabilité inconditionnelle sur le lot à l’instant t, on

peut

encore écrire :

Enfin,

si l’on

désigne

par

h(t)

le taux de défaillance inconditionnel sur

le lot à l’instant t, on a :

soit, d’après (4)

et

(5) :

Ce dernier résultat est très

important.

Il montre en effet que, sous

l’angle bayesien

et dans

l’hypothèse

d’une distribution a

priori

de

type

gamma, le taux

de défaillance inconditionnel décroît

hyperboliquement

avec le

temps

de fonc- tionnement.

Nous admettrons toutefois une telle

représentation

comme valide dans la limite de

période

dite de "vie utile" caractérisant le

type

de

composant

consi- déré. En

effet,

le modèle

(6)

ne traduit pas l’effet de vieillissement

qui,

comme

l’on

sait, apparaît

au bout d’une

période généralement

assez

longue.

Plus

pré- cisément,

si l’on revient aux considérations

théoriques exposées

au

paragraphe 2,

on devra relier le

phénomène

de vieillissement à une

décroissance,

à

partir

d’un

Revue de Statistique Appliquée, 1981, vol. XXIX, n° 1

(10)

51

temps

de fonctionnement

plus

ou moins

long,

de la fonction "résistance à la contrainte"

ri,j qui

avait été

supposée

constante pour un

composant

donné

(Fig.2).

La

prise

en

compte

du

phénomène

de vieillissement

pourrait

conduire

à un modèle

général, quel

que soit t, du taux de défaillance inconditionnel

le facteur

exponentiel,

dans

lequel

la constante y est nettement inférieure à

10-4

pour la

majorité

des

types

de

composants,

étant reconnu comme re-

présentant

assez bien l’effet du vieillissement sur le taux de défaillance.

Il est aisé de

démontrer, enfin,

que la décroissance du taux de défail- lance inconditionnel

h(t)

traduit bien le

déplacement

vers la

gauche

de la dis- tribution a

priori g0(03BB). Soit,

en

effet, g(À/t)

la distribution des taux de défaillance des

composants

encore en vie à l’instant t.

Cette distribution a pour

expression,

en vertu du théorème de

Bayes :

Il

apparaît

donc que la distribution

g(X/t)

est une distribution de

type

gamma dont les

paramètres ci’

et

(3’

sont tels que :

La valeur moyenne

n/(À)

de cette nouvelle distribution n’est autre que le taux de défaillance inconditionnel à l’instant t.

On

peut

en effet vérifier que :

en

désignant

par

mo(À)

la valeur moyenne de la distribution initiale

g0(03BB).

Le

déplacement

dans le

temps

vers la

gauche

de la distribution

g(X/t)

peut

donc être mesuré par la

quantité

1 +

ot : rapport

entre les moyennes des distributions

g(X/t)

et

go(X).

On

peut

enfin noter le resserrement de la distribution

g(X/t)

au cours

du

temps.

En

effet,

si l’on

désigne

par

(/(À) l’écart-type

de cette distribu-

tion à l’instant t , on a :

a(X) représente

l’écart

type

de la distribution initiale

go(A) .

Le resserrement au cours du

temps

de la distribution

g(03BB/t) peut

donc être

également

caractérisé par la

quantité

1 +

j3t : rapport

entre les

écart-types

des distributions

g(X/t)

et

go(X).

Revue de Statistique Appliquée, 1981, vol XXIX, 1

(11)

52

4. CONCLUSION ET PERSPECTIVES D’APPLICATION

L’approche bayesienne qui

vient d’être menée sur le taux de défaillance des

composants électroniques

débouche naturellement sur un nouveau

profil

de la

"classique"

courbe en

baignoire.

En

réalité,

le terme de

"baignoire"

appliqué

à ce nouveau

profil

devient même

incorrect,

dans la mesure où le

palier

horizontal n’existe

plus.

Si l’on se

base,

en

effet,

sur le modèle

géné-

ralisé

(7)

du taux de défaillance

inconditionnel,

on voit en effet

apparaître,

sur la courbe en trait

plan

tracée dans le

plan (t , X)

du

diagramme

tri-

dimensionnel de la

figure

4 :

- une

période

de décroissance

hyperbolique qui

caractérise la vie utile du lot de

composants

- une remontée

exponentielle qui

caractérise le vieillissement des

composants

à

partir

d’un

temps

de fonctionnement élevé :

Figure 4

Dans cette

optique,

la mise en fonctionnement d’un lot donné de

composants peut apparaître

comme un

déverminage qui

se

poursuit

dans le

temps,

dans la

mesure

où,

avant usure, le taux de panne inconditionnel au niveau des

composants

survivants continue à décroître. Le

déverminage

"effectif" reste,

toutefois,

une

opération

de vieillissement

particulière qui

consiste à amener dans un minimum

de

temps,

le taux de panne inconditionnel

depuis

l’extrémité

gauche Mo

de

la courbe

h(t) jusqu’à

un

point

M suffisamment à droite sur cette

courbe,

la

mise en oeuvre de contraintes accélérées

(Ex : température

de

125° C,

tension

de

blocage

maximum pour les

semi-conducteurs, etc.) permettant

de réduire artificiellement la durée nécessaire à cette

opération.

Par voie de

fait,

le

déverminage

"effectif"

peut

être perçu comme un essai de vieillissement artificiel d’une durée telle

qu’au

bout de

l’opération,

les

composants

survivants aient atteint un niveau de fiabilité

compatible

avec un

objectif requis.

En

effet,

soit :

- X*

l’objectif requis

sur le taux de défaillance dans des conditions déterminées de fonctionnement du

composant

- K le coefficient d’accélération de pannes aux contraintes en

déverminage

par

rapport

aux contraintes

opérationnelles.

Revue de Statistique Appliquée, 1981, vol. XXIX, n° 1

(12)

53

La durée t* du

déverminage

nécessaire pour atteindre

l’objectif

visé est

telle que :

h(Kt*)

=

À*, soit,

dans

l’hypothèse

d’une distribution a

priori

de

type

gamma sur les taux de défaillance des

composants

du lot :

Cette relation ne

prend

un sens que

lorsque l’objectif

visé n’est pas

déjà

atteint à l’instant

zéro,

ce

qui impose : (a

+

1) j8

&#x3E;

À*.

Dans cette

hypothèse,

la durée cherchée a pour

expression :

La formule

(9)

est

susceptible

de

présenter

un intérêt

pratique lorsqu’on

est en mesure de connaître les

paramètres

a et

j3

de la distribution gamma

a

priori.

Ces

paramètres dépendent

en

particulier

du

type

de

composant

consi-

déré,

du niveau de

qualité correspondant

et du fournisseur. Une méthode pos- sible pour déterminer a

et (3

consiste à

analyser

le

comportement,

en vieil- lissement

contrôlé,

d’un ou de

plusieurs

lots de

composants

du

type

considéré

et issus de

lignes

de fabrication

homogènes

chez le même fournisseur. Cette

méthode,

illustrée en annexe sur un cas

d’espèce

traité par

l’auteur, permet

d’une

part

de tester la validité du modèle

"gamma"

a

priori,

et, d’autre

part,

cette validité étant

supposée acquise,

de déterminer les meilleurs estimations de a

et 13

en fonction de la distribution des pannes observées sur l’essai de vieillissement.

En

définitive,

il

apparaît

que

l’hypothèse

d’une distribution a

priori

sur

les taux de défaillance des

composants

d’un même lot

présente

un intérêt

tant sur un

plan pratique

que sur un

plan

formel. Pour sa

part,

l’auteur a pu

éprouver

la validité d’un modèle de

type

gamma lors de

l’exploitation

d’un

certain nombre de résultats d’essais de vieillissement relatifs à des résistances et à des semi-conducteurs discrets. Il est

probable, toutefois,

que le modèle

"gamma"

ne saurait

prétendre

à l’exhaustivité en vue d’une

application

à des

composants

issus de certaines

lignes

de fabrication et, a

fortiori,

à la totalité

des

types

de

composants

existants. C’est la raison pour

laquelle

il

apparaît indispensable,

aux yeux de

l’auteur,

de

poursuivre

les

investigations

dans un

champ d’application plus

vaste - circuits

intégrés logiques

ou

analogiques, mémoires,

etc. - afin de connaître les limites de la loi gamma dans ce

type

d’utilisation et, hors de ces

limites,

de déterminer d’autres natures des lois

"a

priori" susceptibles

de

présenter

une meilleure

compatibilité

avec les ré-

sultats

expérimentaux.

ANNEXE

Une illustration

numérique

de

l’approche

menée dans le

présent

article

est

présentée

ici sur

l’exemple

d’un essai de vieillissement

portant

sur des tran- sistors non fiabilisés du

type

2N 1565.

Revue de Statistique Appliquée, 1981, vol. XXIX, n° 1

(13)

54

Les conditions de l’essai ont été les suivantes :

- durée totale de l’essai : 5000 heures

- fonctionnement continu : 600

mW; Vce

= 40 V

-

température

ambiante :

25°C

- nombre d’éléments conformes à t = 0 : 893

- définition des défauts : selon critères CCTU.

Le tableau 1

présente

les résultats de l’essai de vieillissement. On y fait

apparaître

les informations suivantes :

- les

cinq

tranches de

temps

successives

(t 1, t2 ) comprises

entre les

points

de relevés

- les

temps

milieux :

tm = t1 + t2 2

- le nombre de

composants

trouvés défectueux dans

chaque

tranche

(t 1 t2

C

- le nombre de

composants

survivants en début de

chaque

tranche

(t1, t2) :

n

- l’inverse de l’estimateur du taux de panne instantané aux

temps tm :

Les résultats de cet essai

peuvent

se corréler avec

l’approche théorique

menée dans cet article de la

façon

suivante. Il a été vu que,

lorsqu’on prend

pour distribution a

priori

des taux de

panne

une loi gamma, le taux de panne inconditionnel au niveau du lot est une fonction

hyperbolique

du

temps.

Si l’on

reprend l’expression (6),

on voit que l’inverse du taux de panne inconditionnel s’écrit :

Autrement

dit, h-1 (t)

est une fonction linéairement croissante avec

le

temps.

Dans le

système

d’axe

(t , h-1 ),

la droite

h-1 (t) peut

être définie

par les deux

caractéristiques

suivantes :

- ordonnée à

l’origine :

Si donc l’on

parvient

à évaluer

expérimentalement

les deux caractéris-

tiques

a et b dans un essai de vieillissement d’un lot de

composants déterminé,

on voit que les estimateurs des

paramètres

a

et 03B2

de la distribution gamma

a

priori peuvent

être obtenus par les relations :

Cette méthode de calcul

ayant

été choisie dans notre

exemple,

on a

tracé,

sur la

figure 5,

la droite

(D) s’ajustant

le mieux avec les

cinq points expéri-

mentaux

(méthode

des moindres

carrés).

Revue de Statistique Appliquée, 1981, vol XXIX, n° 1

(14)

55 TABLEAU 1

Résultat d’un essai de vieillissement

portant

sur 893 transistors 2N 1565

Figure 5. - Evolution

de -1

avec le temps

Les résultats obtenus sont les suivants :

- coefficient de corrélation : r =

0,971

- ordonnée de

(D)

à

l’origine :

a = 26.933

(heures)

-

pente

de

(D) :

b =

16,682.

On constate donc une excellente corrélation entre la droite

théorique

et les résultats

expérimentaux,

ce

qui démontre,

sur cet

exemple,

le bien-fondé

de la loi gamma comme distribution a

priori.

Les estimateurs de a et

de (3

ont

ici pour valeurs :

Revue de Statistique Appliquée, 1981, vol. XXIX, n° 1

(15)

56

Le taux de panne instantané a alors pour

expression :

A titre

d’exemple,

on obtiendrait par

extrapolation,

dans les limites de

validité de ce modèle :

- à 10000 heures :

h(10000)

=

5,16.10-6/h

- à 50000 heures :

h(50000)

=

1,16.10-6/h

- à 100000 heures :

h(100000)

=

5,9.10-7/h

BIBLIOGRAPHIE

[1]

I. BAZOVSKY. - Fiabilité - Théorie et

pratique

de la sureté de

fonction-

nement

(Dunod).

[2]

IEEE Transactions of

Reliability. - Special

issue on

Bayesian techniques (August 1972).

[3]

J. RINGLER. - Réduction des coûts d’essais de

fiabilité

par la

pratique

des

techniques bayesiennes. (Colloque

International sur la Fiabilité et la Main-

tenabilité,

Paris

juin 1978).

[4]

R. STEWART. - A causal

redefinition of failure

rate.

Theorems,

stress de-

pendence,

and

application

to devices and distributions

(IEEE

Transaction of

reliability -

December

1966).

[5]

C. HARRIS and N. SINGPURWALLA. -

Life

distributions derived

from

stochastie hazard

functions (IEEE

transaction of

reliability,

June

1968).

[6]

M. SHOOMAN. -

Reliability physic

models

(IEEE

transaction of

reliability,

March

1968).

[7]

T. CALVIN. -

Modeling

the bathtub curve

(1974,

Annual

Reliability

and

Maintenability Symposium).

Revue de Statistique Appliquée, 1981, vol. XXIX, n° 1

Références

Documents relatifs

Compte tenu de l’expression (3), on peut admettre que l’instant de défail- lance d’un composant individuel peut être prédit lorsque l’on connait, d’une part, la

Partant d'un échantillon de 60 données de défaillance relatif à un dispositif technique, on compare les performances de ce modèle simple à 2 paramètres à

Les paramètres géométriques de ces deux couches sont tels que la largeur (W N et W P ) et le dopage (N D et N A ) doivent être judicieusement choisis afin d’avoir une balance de

La figure 1 représente les TtF moyens théoriques (qui ont servi à l’obtention des TtF simulés) et ceux résultants du modèle que nous proposons. Tout d’abord nous

- La prédiction du taux de défaillance d’un équipement dépend donc du temps de mission considéré, du temps de bon fonctionnement, du nombre de défaillances de l’équipement

In this section, we present our γk−NN method which works by scaling the distance between a query point and positive training examples by a factor.. 4.1 A Corrected

RésuméCe papier présente une méthode originale pour ob- tenir une expression analytique de la abilité d'une trans- mission de données entre deux terminaux d'un système en

Constatant que les avis comminatoires précités se référaient expressément aux loyers de février 2009 et indiquaient clairement les montants dus (de même que le délai de paiement