• Aucun résultat trouvé

Analyse de sensibilité de modèles

, pour modéliser les aluls des modèles numériques stohastiques. De tels odes sont par

exemple eux basés sur la méthode de Monte Carlo pour simuler les trajetoires des neutrons dans

un ÷ur de réateur nuléaire. La onlusion sera l'oasion de mettre en lumière les grands axes de

reherhe quej'entrevoispour mesfuturs travauxetollaborations.

3.2 Analyse de sensibilité de modèles

Lors de la onstrution et de l'utilisation d'un modèle numérique simulant des phénomènes

phy-siques,les méthodes d'analyse de sensibilité sont des outils préieux. Elles permettent de déterminer

quelles sont les variables qui ontribuent le plus à la variabilité de la quantité d'intérêt, quelles sont

au ontraire les variables lesmoins inuentes etquellesvariables interagissent ave quelles autres.La

quantitéd'intérêt peutêtrelavarianed'unevariabledesortiedumodèle,maisaussiuneautremesure

d'information (omme par exemple l'entropie), une probabilité qu'une sortie dépasse un seuildonné,

ou toute autrehose. L'analyse de sensibilité est don une aide à lavalidation d'unode de alul, à

l'orientation des eortsde R&D, ou enore à lajustiation en terme de sûreté du dimensionnement

d'un système. Saltelli et al. [187 ℄ proposent une lassiation des grands objetifs d'une analyse de

sensibilité:

hiérarhisationdesvariablesd'entrée(fatorsprioritization) :déterminationdesvariables dont larédutionde l'inertitude permettrait d'obtenir laplusforterédutionde

l'inerti-tudesurlaquantité d'intérêt;

identiation des variables d'entrée non inuentes (fators xing) : détermination des variables que l'on peut xer sans altérer le modèle (e qui permet une simpliation du

modèle);

partagedelavariane(varianeutting):déterminationdesvariablesàxerpourobtenir unerédution donnéede l'inertitudesurlaquantité d'intérêt;

artographie des variables d'entrée (fators mapping) : détermination des variables les plusinuentes dansundomaine devaleursde lasortie.

L'analysedesensibilitéalongtemps étévuesousunangleloal,quionsisteàévaluerles

réperus-sions(sur lavaleurde variablesdesortie) depetitesperturbationsdesvaleursdesentrées autourd'un

point nominal. Cette approhe déterministe onsiste à aluler ou à estimer des indies basés surles

dérivées partielles du modèle en un point préis (Turanyi [216 ℄). La mesure d'importane de haque

variabled'entréepeutalorsêtrealuléeenmultipliant ladérivéequiluiorrespondparsonéarttype.

Déoulant desmêmes prinipes, des méthodes adjointes relativement sophistiquéesont également été

développées pour pouvoir traiter de gros systèmes d'équations possédant notamment un très grand

nombrede variables d'entrée (Caui[31 , 32℄). Ce typed'approhes estpar exemple ouramment

uti-lisédanslarésolutiondegrossystèmesenvironnementaux(limatologie,oéanographie,hydrogéologie,

f.Castaings[37℄).

Apartirdelandesannées1980etpourrelâherertaineshypothèsesdeesméthodes(hypothèses

de linéaritéetde normalité,variations loales), de nouvellesméthodesd'analysede sensibilitéont été

développées dansun adre statistique. Par opposition aux méthodes loales, ellesont étépar lasuite

2

LaboratoiredeProbabilitésetModèlesAléatoires,UniversitéParisVII

3

dotorant,CEMAGREF Lyon

variables d'entrée. Cette distintion loal/global semble ependant parfois quelque peu ambiguë. Par

exemple,ellessontéquivalentessileomportement dumodèleestlinéairededegréundansl'ensemble

dudomaine de variationdesentrées.

Ces méthodesstatistiques, issues de plusieurs horizons, sont omposées de tehniques bien

éprou-véesissuesdelathéoriedesplans d'expériene(pourl'exploration desodesdealulàgrand nombre

d'entrées), de méthodes de type Monte Carlo rendues possible grâe aux nouvelles apaités

infor-matiques (pour des analyses de sensibilité quantitatives et nes) et de la théorie de l'apprentissage

statistique (pour les odes oûteux et omplexes). Ce sont toutes es méthodes d'analyse de

sensibi-lité que le laboratoire dans lequel j'oie a essayé de populariser depuis une dizaine d'années dans

divers projetset appliations duCEA. La Figure3.2 présenteune synthèse desprinipales méthodes

d'analysedesensibilité.Cette listen'estbien entendupasexhaustive etnetient pasompte des

éven-tuellesaméliorationsapportéesauxdiérentesméthodes('estleaspar exemplepourlaméthodedes

bifurationsséquentielles).

Fig.3.2Synthèsedesméthodesd'analysedesensibilitéplaéesdansundiagramme (oûtennombre

d'évaluations dumodèlevs.omplexité etrégularité dumodèle).

d

est lenombrede variablesd'entrée

dumodèle,

h

est lenombre de variablesd'entrée inuentes.

Cette gure permet de distinguer inq lasses de méthodes qui orrespondent à diérents types

de problèmes renontrés en pratique. L'approhe méthodologique que je défend onsiste à utiliser

la méthode la plus simple adaptée au problème posé 4

, fontion de l'objetif de l'étude, du nombre

d'évaluations du modèle numérique que l'on peut réaliser et de la onnaissane que l'on a sur la

régularitédu modèleétudié. Lavalidation a posteriori delaméthode utiliséepermet desavoirs'il est

4

ensuivantleprinipedeparimonieonnuesouslenomderasoird'Oam

approheaétéutiliséedansmespubliationstraitantprinipalement d'appliationsenvironnementales

(Ioosset al.[104 ℄, Volkova etal. [223 ℄) etdansde nombreuses études réalisées pour diérentsprojets

duCEA. Lessetionssuivantesdétaillent lesinq grandeslasses deméthodesd'analysede sensibilité

queje distingue.

3.2.1 Criblage à très grande dimension

Lesméthodesde riblage (sreening) permettent d'explorer rapidement le omportement des

ré-ponses d'un ode de alul oûteux en faisant varier un grand nombre de ses entrées (typiquement

plusieurs dizaines voire plusieurs entaines). Certaines tehniques issues des plans d'expériene

per-mettentdelefaireen réalisant moinsde alulsquedevariablesd'entrée.Celles-isupposentqu'il n'y

apasd'interationentrelesvariablesd'entrée,quelavariationdelaréponseestmonotone parrapport

àhaqueentréeetquelenombre desentrées inuentes esttrèsfaible devant lenombretotal d'entrées

(del'ordre d'unesurdix). Il s'agit en premierlieu des planssupersaturés développésdans leontexte

de la planiation d'expérienes réelles (Satterthwaite [194℄, Lin [134 ℄, Dean & Lewis [55℄). L'un des

plans supersaturés les plus onnus résulte de la division en deux parties (à l'aide d'une olonne de

branhement) d'une matrie d'Hadamart. En traitant quelques appliations, Claeys-Bruno etal. [43 ℄

ont montréquee plansupersaturéestl'undesplusablesetqu'ilfaut aumoins

5

foisplusdealuls

quede variablesinuentes pour lesidentier toutes. Dans Cannamelaet al.[36℄, nousavons appliqué

e type de plansupersaturéenplaniant

30

alulssurun ode possédant

53

variables d'entrée

iner-taines.Ceplansupersaturénousapermisd'identierles

5

entrées lesplusinuentes,résultatquiaété

validé par lasuite à l'aide d'unplus grandnombre de simulations et de mesures d'importane basées

surles oeients de orrélation(f. Ÿ3.2.3).

D'autres approhessont partiulièrement bien adaptées auxexpérienes numériquesar ellessont

séquentiellesetadaptatives, 'est-à-direqu'elles dénissent une nouvelle expérieneà réaliseren

fon-tion desrésultats despréédentes. Onne sait don pas a priori ombien elles vont néessiter

d'expé-rienes. La tehnique du riblage par groupe (Dean & Lewis [55℄) onsiste à réer un ertain nombre

degroupesdevariables d'entréeetàidentier lesplusinuents. Enrépétantl'opérationenonservant

seulement lesgroupesinuents,on extraitensuitelesvariablesinuentes. Laméthodedesbifurations

séquentielles, mise aupoint dansun ontexte desimulation numérique par Bettonvil& Kleijnen [21℄,

peut êtrevueommeuneméthode deriblagepar groupeave seulement deuxgroupes.C'est une

ap-prohe dihotomique oùontente d'éliminer àl'issuede haquenouveaualulungroupe devariables.

Comme pour le riblage par groupe, son oût dépend don du nombre de variables inuentes, mais

aussidelastratégiedelassement,i.e.denotreapaitéàsuspeterquellessontlesvariablesinuentes

ande les rassembler ausein d'unmême groupe.

Dansunontextederiblagepourodesdealul,Sergentetal.[197℄omparent lesplans

supersa-turés,leriblagepar groupeetles bifurationsséquentielleseten onluent quelatehnique desplans

supersaturés estnettement plus risquée queles autres mais néessitelemoins d'hypothèses. En eet,

ilestnéessairedeonnaîtrelesensdevariationdelasortieparrapportàhaqueentrée pour pouvoir

appliquer lesbifurationsséquentielles etleriblagepar groupe.

3.2.2 Criblage et plans d'expériene

La deuxième lassede méthodesonerne elleissuedelathéorie lassiquedesplans d'expériene

(Droesbeke et al. [60 ℄, Montgomery [152 ℄, Azaïs & Bardet [10 ℄). Comme préédemment, les entrées

(nommées fateurs) sont disrétisées en plusieurs valeurs (nommées niveaux) de leur domaine de

va-riation. Un plan fatoriel omplet onsiste à évaluer le ode de alul pour toutes les ombinaisons

entre fateurs, e qui permet l'estimation de tous les eets des fateurs et de leurs interations. En

pratique,lenombre de simulations requisrende planimpratiable. Eneet,ilnéessitepar exemple

2 d

aluls si on suppose que le modèle est monotone en travaillant ave deux niveaux pour haque fateur(exemple :

min

et

max

).

paux)dehaqueentrée,ilfautauminimumsimuler

n ≥ d+ 1

ombinaisonsdesentrées.Pardénition, unplan derésolution trois(noté RIII)permetette estimationnon biaiséeensupposantque leseets

desinterations sont nuls, i.e.que lemodèleest delaforme suivante :

Y = X d

j=0

β j X j + ǫ ,

(3.2)

X 0 = 1

,

β = (β 0 , . . . , β d ) t ∈ R d+1

est le veteur des eets des entrées et

ǫ ∈ R

est l'erreur du modèle. L'estimationde eseetssefait par laméthode desmoindres arrésordinaires.

Le pland'expérienesleplussimple,enore trèsutilisé par les ingénieurs,estleplannommé One

At aTime (OAT),quifaitpartiedelalassedesplansRIII.LeplanOATonsisteàhangerleniveau

d'uneentréeàlafois,enutilisantdeuxoutroisniveauxparfateur(Kleijnen[117℄).Avedeuxniveaux,

e plan requiert don exatement

n = d + 1

aluls (f. Fig.3.2), maisne permetpas de maîtriser la

préision quel'on asur les estimations deseets.La méthode de Morris,quionsiste à répéter (entre

inq etdixfois) un planOATaléatoirement dansl'espae desvariables d'entrée, permetde s'extraire

deshypothèses limitativesdu planOAT, maiss'avèrebienplus oûteuse entemps de alul.

Unevoieplusraisonnablequ'unsimpleplanOATonsisteàminimiserlavarianedeseetsestimés,

e qui estl'objetif de lathéorie statistiquedesplans d'expériene. Celle-i seonentresur lesplans

orthogonaux, 'est-à-direeux quisatisfont

(X n 0 ) t X n 0 = nI d+1 ,

(3.3)

X n 0 = (X j (i) ) i=1..n,j=0..d

estlamatrieduplanet

I d+1

estlamatrieidentitédedimension

d+1

.Une

lassebienonnue deplansorthogonauxestelledesplansfatoriels frationnaires.Leuronstrution

qui fait appel à la notion d'alias et qui dépasse le adre de e mémoire, onsiste à onfondre des

interations quel'on soupçonnenon ativesave deseetsprinipaux.

Il est parfois prudent de supposer que les interations entre les entrées peuvent avoir des eets

importants.Pardénition, unplanderésolution quatre (notéRIV)permet uneestimationnonbiaisée

deseetsprinipaux même sidesinterations d'ordre deuxsont présentes. UnplanRIV estonstruit

en superposant un plan RIII ave son plan miroir. Ainsi la taille d'un plan RIV est le double de

elle d'un plan RIII. Pour un oût en terme de nombre de aluls de l'ordre de

2 × d

, un plan RIV

permet don d'identier les eetsprinipaux des entrées pour desmodèles ave interations. Il existe

de nombreux autres types de plan quiassouplissent les hypothèses desplans RIII touten onservant

unnombrede aluls raisonnable.

Remarque 3.2.1 Dans unontexte uniquederiblage,esplanspeuvent êtreintéressantspourlesodes

de alul. Malheureusement, dans un ontexte de réutilisation ultérieure du plan pour la propagation

d'inertitude ou la onstrution d'un métamodèle omplexe (i.e. plus rihe qu'une surfae de réponse

polynomiale),esplanssontpeureommandésarleursprojetionssurlesmargessontpartiulièrement

médiores en terme de reouvrement spatial. Pujol [171℄ illustre bien e problème sur les plans de

Morris. C'est pourquoi, de nombreux auteurs se sont penhés sur le développement de plans de type

Spae Filling Designs (SFD) qui assurent un bon reouvrement des marges (Fang etal. [62℄).

3.2.3 Mesures d'importane basées sur des éhantillons

Lorsque l'on dispose d'un éhantillon de simulations

(X n , Y n )

,

X n = (X j (i) ) i=1..n,j=1..d

est

la matrie des entrées et

Y n = (Y i ) i=1..n

est le veteur des sorties, il est très faile d'obtenir des

indies de lasensibilité de laréponse par rapport auxvariables d'entrée en appliquant les tehniques

de régression linéaire, de régression sur les rangs ou des tests statistiques. On peut parler à présent

de mesuresd'importane ar estehniques permettent une réelle hiérarhisation de l'inuenesur la

sortie de toutes les variables d'entrée, ontrairement aux tehniques de riblage qui ont plutt pour

butde déteter lesvariablesd'entréenon inuentes. Onrappelle brièvement i-dessouslesprinipales

mesuresd'importane que l'onlasse dansette atégorie:

leoeient de orrélation linéaire (nommé ommunément oeient de Pearson et noté

ρ( · , · )

) entre

X j

et

Y

:

ρ j = ρ(X j , Y ) =

Cov

(X j , Y ) p

Var

(X j )

Var

(Y ) ∀ j = 1, . . . , d ,

(3.4)

mesurede sensibilitéextrêmement simple à alulerà partir d'unéhantillon;

leoeient derégression standard (noté SRC

( · , · )

) :

SRC

j =

SRC

(X j , Y ) = β j s

Var

(X j )

Var

(Y ) ∀ j = 1, . . . , d ,

(3.5)

oùles

β j

(

i = 1 . . . d)

sont lesoeients dela régressionlinéaire (f.Eq. (3.2));

leoeient deorrélation partielle (notéPCC

( · , · )

),

PCC

j =

PCC

(X j , Y ) = ρ(Y − Y , X b j − X c j ) ∀ j = 1, . . . , d ,

(3.6)

Y b

estlaprévision dumodèle linéaire danslequel

X j

n'est pasprésent :

Y = X d

k=0,k6=j

δ k X k + ǫ 1

(3.7)

ave

0 , . . . , δ j−1 , δ j+1 , . . . , δ d ) ∈ R d

les oeients de régression et

ǫ 1 ∈ R

l'erreur du modèle,etoù

X c j

estlaprévisiondumodèlelinéaire quiexprime

X j

enfontiondesautres

entrées :

X j = X d

k=0,k6=j

η k X k + ǫ 2

(3.8)

ave

0 , . . . , η j−1 , η j+1 , . . . , η d ) ∈ R d

lesoeientsderégressionet

ǫ 2 ∈ R

l'erreur du mo-dèle. Contrairement aux oeientsde régression standards,les oeients de orrélation

partiellepermettent d'éliminer l'inuene desautres variables etsont don adaptésau as

où les variables d'entrée sont orrélées. Par ontre, ils représentent plus une mesure de la

linéaritéde la sortie

Y

par rapport à une entrée

X j

qu'un indie de sensibilité(Saltelli et al.[185℄);

leoeient de orrélation sur les rangs des variables (nommé oeient de Spearman et

noté

ρ S ( · , · )

). Si

R X = (R X 1 , . . . , R X d )

est le veteur des rangs des entrées et

R Y

est le

rangdelasortie, on a :

ρ S j = ρ S (X j , Y ) = ρ(R X j , R Y ) ∀ j = 1, . . . , d .

(3.9)

Onalule esoeientsaprèsavoirtransformé l'éhantillon

(X n , Y n )

en unéhantillon

(R n X , R n Y )

en remplaçant lesvaleurspar leur rangdanshaque olonne de lamatrie

(Sa-porta [192℄);

leoeient derégression standard surles rangs (notéSRRC

( · , · )

), pendant duSRCmais

àpartirde l'éhantillon

(R n X , R n Y )

:

SRRC

j =

SRRC

(X j , Y ) =

SRC

(R X j , R Y ) ∀ j = 1, . . . , d .

(3.10)

leoeient deorrélationpartiellesurles rangs(notéPRCC

( · , · )

),pendant duPCCmais

àpartirde l'éhantillon

(R n X , R n Y )

:

PRCC

j =

PRCC

(X j , Y ) =

PCC

(R X j , R Y ) ∀ j = 1, . . . , d .

(3.11)

les indies alulés à partir des données segmentées. Pour haque variable d'entrée, un déoupageenlasseséquiprobablespermetd'obtenirplusieurséhantillons dedonnées.Des

testsstatistiquessontalors appliquéspourmesurerl'homogénéitédespopulationsentreles

lasses : moyennes ommunes (CMN) basées sur un test de Fisher, médianes ommunes

(CMD)basées sur un test de

χ 2

,varianes ommunes (CV)basées surun test de Fisher,

loalisations ommunes (CL) basées sur le test de Kruskal-Wallis, ...(Kleijnen & Helton

[118 ℄,Heltonetal. [84℄).D'autres mesurespeuvent êtreutilisées pour testerl'homogénéité

deslasses (ommepar exemple l'entropie).

Enpratique,oneetuetoutd'abordune régressionlinéaire entrelasortie

Y

etlesentrées

X

an

de savoir si leur relation est approximativement linéaire. Pour ela, on peut utiliser le oeient de

détermination

R 2

:

Ceoeient peut êtreutilisé danstout modèlede régression (pas seulement linéaire) ommeritère

de qualitéde la préditiondu modèle. Basé surl'utilisation desrésidusd'observations ayant serviesà

ajuster lemodèle, il estependant à prendre ave préaution, etàbannir dansles modèles

d'interpo-lation(omme lekrigeage,f Ÿ3.3).Il estsouvent préférabledetravailler ave d'autresritères (f.par

exempleAzaïs &Bardet [10 ℄). Enutilisant desrésidusde prédition(issus d'observations n'ayant pas

serviesàajuster lemodèle),on dénitleoeient de préditivité

Q 2

dumodèle :

Q 2 = 1 −

(X p(i) , Y i p ) i=1..n p

est l'éhantillon des variables d'entrée et de sortie de la base de prédition (ap-pelée aussi base de test), de taille

n p

,et

Y p

est lamoyenne de

(Y i p ) i=1..n p

. Le oeient

Q 2

, dont la

terminologieest peuemployée en statistique,estomparable auoeient plusonnu nomméPRESS

(PReditive Error SumofSquares) qui estlenumérateur dumembrede droite de l'équation(3.13).

Si on juge l'hypothèse de linéarité aeptable (par exemple si

R 2 > 0.8

), alors les indies de

sensibilitéPearson,SRCetPCCsontutilisables.Silesvariablesd'entréesontindépendantes,lasomme

des arrés desSRC vaut

R 2

et l'ensemble des SRC

2

forment une déomposition de la variane de la réponse : haque SRC

2 j

exprime la part de variane de la réponse expliquée par le fateur

X j

. Dans

le as où la relation entre

X

et

Y

n'est pas linéaire mais monotone, les oeients de orrélation

et de régression basés sur les rangs (Spearman, SRRC, PRCC) peuvent être utilisés. L'hypothèse de

monotoniedoitbiensûrêtrevalidée,parexempleàl'aideduoeientdedéterminationdelarégression

surlesrangs(noté

R 2∗

)ou duoeientde préditivitéassoié(noté

Q 2

).Enn, lesméthodesbasées

surles testsstatistiquesne requièrent pasd'hypothèse surlamonotonie delaréponseen fontion des

entrées. Par ontre, es méthodes sont dénies pour des éhantillons de données indépendantes. En

théorie, elles ne sont don appliables que si l'éhantillon est purement aléatoire (tirage Monte Carlo

simple).Ononstateependant qu'ellessontpluttrobustesvis-à-visdeettehypothèse;parexemple

elles donnent de bons résultats ave des éhantillons de type latin hyperube (LHS). Ces méthodes

présentent aussil'inonvénient d'être peu intuitives omparativement auxméthodesderégression.

Touslesindiesdesensibilitébaséssurlarégressionsontalulablesàpartird'éhantillons detaille

supérieureà

d

alors quelesindiesbaséssurlesoeientsdeorrélationoulestestsstatistiquessont alulablesàpartird'éhantillonsdetaillequelonque.Surlesappliations,ononstateependantqu'il

faut souvent deséhantillons detaille supérieureà

2d

pour obtenir desrésultatsorrets,laonane

quel'on peutavoirsur lesindies augmentant ave lenombrede données utiliséespour lesaluler.

3.2.4 Déomposition de la variane

Dansleadregénéral d'unmodèlenon linéaireetnonmonotone,onpeutestimer l'importane des

variables d'entrée surla réponse du modèleen utilisant ladéomposition de la variane fontionnelle

(appelée aussi représentation ANOVA fontionnelle). Toute fontion intégrable sur

Ω = [0, 1] d

peut

êtredéomposéeen sommede fontionsélémentaires :

f(X 1 , · · · , X d ) = f 0 +

f 0

estune onstante etlesautres fontions vérient les onditions suivantes :

Z 1

0

f i 1 ,...,i s (x i 1 , . . . , x i s ) dx i k = 0 ∀ k = 1, . . . , s , ∀{ i 1 , . . . , i s } ⊆ { 1, . . . , d } .

(3.15)

CettedéompositionestonnuesouslenomdedéompositiondeHoeding (présentéedansHoeding

[86℄)etaétéintroduiteparSobol[200℄pourl'analysedesensibilité(d'oùsonappellationdéomposition

deSobol danse domaine). Celui-i anotamment montré quelesonditions (3.15) impliquent quela

déomposition estunique.

Le termeANOVA est utilisé ar l'équation(3.14) fournit lamême interprétation qu'une

déom-positionANOVA usuelle.Eneet,siles

X i

sontmutuellement indépendants, l'équation(3.14)permet d'obtenirune déompositionde lavariane de laréponsedumodèle:

Var

[Y ] =

d'analyse de variane sur des espaes de fontion a été introduite par Antoniadis [7℄. À partir de

(3.16),les indiesde sensibilités'obtiennent alors extrêmement naturellement :

S i =

Var

[ E (Y | X i )]

Var

(Y ) = V i (Y )

Var

(Y ) , S ij = V ij (Y )

Var

(Y ) , S ijk = V ijk (Y )

Var

(Y ) , . . .

(3.17)

Ces oeients, nommés mesures d'importane basées sur la variane ou plus simplement indies

de Sobol (appellation non onsarée), peuvent être utilisés pour n'importe quelle fontion

f( · )

. Les

indiesd'ordreun sontégauxauxarrésdesSRCquandlemodèle

f ( · )

estpurement linéaire.L'indie

du seond ordre

S ij

exprime la sensibilité du modèle à l'interation entre les variables

X i

et

X j

, et

ainside suite pour les ordres supérieurs. Compris entre

0

et

1

et leur somme valant

1

, les indies de

Sobolsont partiulièrement failesàinterpréter (enterme depourentagede lavariane delaréponse

expliquée),e qui expliqueleurpopularité.

Lorsque le nombre de variables d'entrée

d

augmente, le nombre d'indies de sensibilité roît ex-ponentiellement (il vaut

2 d − 1

) et l'estimation etl'interprétation de touses indies deviennent vite impossibles. Homma & Saltelli [89 ℄ ont alors introduit la notion d'indie de sensibilité total pour

exprimertousles eetsd'unevariabled'entréesur lasortie:

S T i = S i + X

#i

représente tous lessous-ensembles d'indies ontenant l'indie

i

.Ainsi,

P

l ∈ #i S l

estla somme

de tous les indies de sensibilité faisant intervenir

i

. En pratique, quand

d

est grand (par exemple

d > 10

), on se ontente souvent d'estimer les indies d'ordre un et les indies totaux. Des exemples

de tous les indies de sensibilité faisant intervenir

i

. En pratique, quand

d

est grand (par exemple

d > 10

), on se ontente souvent d'estimer les indies d'ordre un et les indies totaux. Des exemples