, pour modéliser les aluls des modèles numériques stohastiques. De tels odes sont par
exemple eux basés sur la méthode de Monte Carlo pour simuler les trajetoires des neutrons dans
un ÷ur de réateur nuléaire. La onlusion sera l'oasion de mettre en lumière les grands axes de
reherhe quej'entrevoispour mesfuturs travauxetollaborations.
3.2 Analyse de sensibilité de modèles
Lors de la onstrution et de l'utilisation d'un modèle numérique simulant des phénomènes
phy-siques,les méthodes d'analyse de sensibilité sont des outils préieux. Elles permettent de déterminer
quelles sont les variables qui ontribuent le plus à la variabilité de la quantité d'intérêt, quelles sont
au ontraire les variables lesmoins inuentes etquellesvariables interagissent ave quelles autres.La
quantitéd'intérêt peutêtrelavarianed'unevariabledesortiedumodèle,maisaussiuneautremesure
d'information (omme par exemple l'entropie), une probabilité qu'une sortie dépasse un seuildonné,
ou toute autrehose. L'analyse de sensibilité est don une aide à lavalidation d'unode de alul, à
l'orientation des eortsde R&D, ou enore à lajustiation en terme de sûreté du dimensionnement
d'un système. Saltelli et al. [187 ℄ proposent une lassiation des grands objetifs d'une analyse de
sensibilité:
⊲
hiérarhisationdesvariablesd'entrée(fatorsprioritization) :déterminationdesvariables dont larédutionde l'inertitude permettrait d'obtenir laplusforterédutiondel'inerti-tudesurlaquantité d'intérêt;
⊲
identiation des variables d'entrée non inuentes (fators xing) : détermination des variables que l'on peut xer sans altérer le modèle (e qui permet une simpliation dumodèle);
⊲
partagedelavariane(varianeutting):déterminationdesvariablesàxerpourobtenir unerédution donnéede l'inertitudesurlaquantité d'intérêt;⊲
artographie des variables d'entrée (fators mapping) : détermination des variables les plusinuentes dansundomaine devaleursde lasortie.L'analysedesensibilitéalongtemps étévuesousunangleloal,quionsisteàévaluerles
réperus-sions(sur lavaleurde variablesdesortie) depetitesperturbationsdesvaleursdesentrées autourd'un
point nominal. Cette approhe déterministe onsiste à aluler ou à estimer des indies basés surles
dérivées partielles du modèle en un point préis (Turanyi [216 ℄). La mesure d'importane de haque
variabled'entréepeutalorsêtrealuléeenmultipliant ladérivéequiluiorrespondparsonéarttype.
Déoulant desmêmes prinipes, des méthodes adjointes relativement sophistiquéesont également été
développées pour pouvoir traiter de gros systèmes d'équations possédant notamment un très grand
nombrede variables d'entrée (Caui[31 , 32℄). Ce typed'approhes estpar exemple ouramment
uti-lisédanslarésolutiondegrossystèmesenvironnementaux(limatologie,oéanographie,hydrogéologie,
f.Castaings[37℄).
Apartirdelandesannées1980etpourrelâherertaineshypothèsesdeesméthodes(hypothèses
de linéaritéetde normalité,variations loales), de nouvellesméthodesd'analysede sensibilitéont été
développées dansun adre statistique. Par opposition aux méthodes loales, ellesont étépar lasuite
2
LaboratoiredeProbabilitésetModèlesAléatoires,UniversitéParisVII
3
dotorant,CEMAGREF Lyon
variables d'entrée. Cette distintion loal/global semble ependant parfois quelque peu ambiguë. Par
exemple,ellessontéquivalentessileomportement dumodèleestlinéairededegréundansl'ensemble
dudomaine de variationdesentrées.
Ces méthodesstatistiques, issues de plusieurs horizons, sont omposées de tehniques bien
éprou-véesissuesdelathéoriedesplans d'expériene(pourl'exploration desodesdealulàgrand nombre
d'entrées), de méthodes de type Monte Carlo rendues possible grâe aux nouvelles apaités
infor-matiques (pour des analyses de sensibilité quantitatives et nes) et de la théorie de l'apprentissage
statistique (pour les odes oûteux et omplexes). Ce sont toutes es méthodes d'analyse de
sensibi-lité que le laboratoire dans lequel j'oie a essayé de populariser depuis une dizaine d'années dans
divers projetset appliations duCEA. La Figure3.2 présenteune synthèse desprinipales méthodes
d'analysedesensibilité.Cette listen'estbien entendupasexhaustive etnetient pasompte des
éven-tuellesaméliorationsapportéesauxdiérentesméthodes('estleaspar exemplepourlaméthodedes
bifurationsséquentielles).
Fig.3.2Synthèsedesméthodesd'analysedesensibilitéplaéesdansundiagramme (oûtennombre
d'évaluations dumodèlevs.omplexité etrégularité dumodèle).
d
est lenombrede variablesd'entréedumodèle,
h
est lenombre de variablesd'entrée inuentes.Cette gure permet de distinguer inq lasses de méthodes qui orrespondent à diérents types
de problèmes renontrés en pratique. L'approhe méthodologique que je défend onsiste à utiliser
la méthode la plus simple adaptée au problème posé 4
, fontion de l'objetif de l'étude, du nombre
d'évaluations du modèle numérique que l'on peut réaliser et de la onnaissane que l'on a sur la
régularitédu modèleétudié. Lavalidation a posteriori delaméthode utiliséepermet desavoirs'il est
4
ensuivantleprinipedeparimonieonnuesouslenomderasoird'Oam
approheaétéutiliséedansmespubliationstraitantprinipalement d'appliationsenvironnementales
(Ioosset al.[104 ℄, Volkova etal. [223 ℄) etdansde nombreuses études réalisées pour diérentsprojets
duCEA. Lessetionssuivantesdétaillent lesinq grandeslasses deméthodesd'analysede sensibilité
queje distingue.
3.2.1 Criblage à très grande dimension
Lesméthodesde riblage (sreening) permettent d'explorer rapidement le omportement des
ré-ponses d'un ode de alul oûteux en faisant varier un grand nombre de ses entrées (typiquement
plusieurs dizaines voire plusieurs entaines). Certaines tehniques issues des plans d'expériene
per-mettentdelefaireen réalisant moinsde alulsquedevariablesd'entrée.Celles-isupposentqu'il n'y
apasd'interationentrelesvariablesd'entrée,quelavariationdelaréponseestmonotone parrapport
àhaqueentréeetquelenombre desentrées inuentes esttrèsfaible devant lenombretotal d'entrées
(del'ordre d'unesurdix). Il s'agit en premierlieu des planssupersaturés développésdans leontexte
de la planiation d'expérienes réelles (Satterthwaite [194℄, Lin [134 ℄, Dean & Lewis [55℄). L'un des
plans supersaturés les plus onnus résulte de la division en deux parties (à l'aide d'une olonne de
branhement) d'une matrie d'Hadamart. En traitant quelques appliations, Claeys-Bruno etal. [43 ℄
ont montréquee plansupersaturéestl'undesplusablesetqu'ilfaut aumoins
5
foisplusdealulsquede variablesinuentes pour lesidentier toutes. Dans Cannamelaet al.[36℄, nousavons appliqué
e type de plansupersaturéenplaniant
30
alulssurun ode possédant53
variables d'entréeiner-taines.Ceplansupersaturénousapermisd'identierles
5
entrées lesplusinuentes,résultatquiaétévalidé par lasuite à l'aide d'unplus grandnombre de simulations et de mesures d'importane basées
surles oeients de orrélation(f. 3.2.3).
D'autres approhessont partiulièrement bien adaptées auxexpérienes numériquesar ellessont
séquentiellesetadaptatives, 'est-à-direqu'elles dénissent une nouvelle expérieneà réaliseren
fon-tion desrésultats despréédentes. Onne sait don pas a priori ombien elles vont néessiter
d'expé-rienes. La tehnique du riblage par groupe (Dean & Lewis [55℄) onsiste à réer un ertain nombre
degroupesdevariables d'entréeetàidentier lesplusinuents. Enrépétantl'opérationenonservant
seulement lesgroupesinuents,on extraitensuitelesvariablesinuentes. Laméthodedesbifurations
séquentielles, mise aupoint dansun ontexte desimulation numérique par Bettonvil& Kleijnen [21℄,
peut êtrevueommeuneméthode deriblagepar groupeave seulement deuxgroupes.C'est une
ap-prohe dihotomique oùontente d'éliminer àl'issuede haquenouveaualulungroupe devariables.
Comme pour le riblage par groupe, son oût dépend don du nombre de variables inuentes, mais
aussidelastratégiedelassement,i.e.denotreapaitéàsuspeterquellessontlesvariablesinuentes
ande les rassembler ausein d'unmême groupe.
Dansunontextederiblagepourodesdealul,Sergentetal.[197℄omparent lesplans
supersa-turés,leriblagepar groupeetles bifurationsséquentielleseten onluent quelatehnique desplans
supersaturés estnettement plus risquée queles autres mais néessitelemoins d'hypothèses. En eet,
ilestnéessairedeonnaîtrelesensdevariationdelasortieparrapportàhaqueentrée pour pouvoir
appliquer lesbifurationsséquentielles etleriblagepar groupe.
3.2.2 Criblage et plans d'expériene
La deuxième lassede méthodesonerne elleissuedelathéorie lassiquedesplans d'expériene
(Droesbeke et al. [60 ℄, Montgomery [152 ℄, Azaïs & Bardet [10 ℄). Comme préédemment, les entrées
(nommées fateurs) sont disrétisées en plusieurs valeurs (nommées niveaux) de leur domaine de
va-riation. Un plan fatoriel omplet onsiste à évaluer le ode de alul pour toutes les ombinaisons
entre fateurs, e qui permet l'estimation de tous les eets des fateurs et de leurs interations. En
pratique,lenombre de simulations requisrende planimpratiable. Eneet,ilnéessitepar exemple
2 d
aluls si on suppose que le modèle est monotone en travaillant ave deux niveaux pour haque fateur(exemple :min
etmax
).paux)dehaqueentrée,ilfautauminimumsimuler
n ≥ d+ 1
ombinaisonsdesentrées.Pardénition, unplan derésolution trois(noté RIII)permetette estimationnon biaiséeensupposantque leseetsdesinterations sont nuls, i.e.que lemodèleest delaforme suivante :
Y = X d
j=0
β j X j + ǫ ,
(3.2)où
X 0 = 1
,β = (β 0 , . . . , β d ) t ∈ R d+1
est le veteur des eets des entrées etǫ ∈ R
est l'erreur du modèle. L'estimationde eseetssefait par laméthode desmoindres arrésordinaires.Le pland'expérienesleplussimple,enore trèsutilisé par les ingénieurs,estleplannommé One
At aTime (OAT),quifaitpartiedelalassedesplansRIII.LeplanOATonsisteàhangerleniveau
d'uneentréeàlafois,enutilisantdeuxoutroisniveauxparfateur(Kleijnen[117℄).Avedeuxniveaux,
e plan requiert don exatement
n = d + 1
aluls (f. Fig.3.2), maisne permetpas de maîtriser lapréision quel'on asur les estimations deseets.La méthode de Morris,quionsiste à répéter (entre
inq etdixfois) un planOATaléatoirement dansl'espae desvariables d'entrée, permetde s'extraire
deshypothèses limitativesdu planOAT, maiss'avèrebienplus oûteuse entemps de alul.
Unevoieplusraisonnablequ'unsimpleplanOATonsisteàminimiserlavarianedeseetsestimés,
e qui estl'objetif de lathéorie statistiquedesplans d'expériene. Celle-i seonentresur lesplans
orthogonaux, 'est-à-direeux quisatisfont
(X n 0 ) t X n 0 = nI d+1 ,
(3.3)où
X n 0 = (X j (i) ) i=1..n,j=0..d
estlamatrieduplanetI d+1
estlamatrieidentitédedimensiond+1
.Unelassebienonnue deplansorthogonauxestelledesplansfatoriels frationnaires.Leuronstrution
qui fait appel à la notion d'alias et qui dépasse le adre de e mémoire, onsiste à onfondre des
interations quel'on soupçonnenon ativesave deseetsprinipaux.
Il est parfois prudent de supposer que les interations entre les entrées peuvent avoir des eets
importants.Pardénition, unplanderésolution quatre (notéRIV)permet uneestimationnonbiaisée
deseetsprinipaux même sidesinterations d'ordre deuxsont présentes. UnplanRIV estonstruit
en superposant un plan RIII ave son plan miroir. Ainsi la taille d'un plan RIV est le double de
elle d'un plan RIII. Pour un oût en terme de nombre de aluls de l'ordre de
2 × d
, un plan RIVpermet don d'identier les eetsprinipaux des entrées pour desmodèles ave interations. Il existe
de nombreux autres types de plan quiassouplissent les hypothèses desplans RIII touten onservant
unnombrede aluls raisonnable.
Remarque 3.2.1 Dans unontexte uniquederiblage,esplanspeuvent êtreintéressantspourlesodes
de alul. Malheureusement, dans un ontexte de réutilisation ultérieure du plan pour la propagation
d'inertitude ou la onstrution d'un métamodèle omplexe (i.e. plus rihe qu'une surfae de réponse
polynomiale),esplanssontpeureommandésarleursprojetionssurlesmargessontpartiulièrement
médiores en terme de reouvrement spatial. Pujol [171℄ illustre bien e problème sur les plans de
Morris. C'est pourquoi, de nombreux auteurs se sont penhés sur le développement de plans de type
Spae Filling Designs (SFD) qui assurent un bon reouvrement des marges (Fang etal. [62℄).
3.2.3 Mesures d'importane basées sur des éhantillons
Lorsque l'on dispose d'un éhantillon de simulations
(X n , Y n )
, oùX n = (X j (i) ) i=1..n,j=1..d
estla matrie des entrées et
Y n = (Y i ) i=1..n
est le veteur des sorties, il est très faile d'obtenir desindies de lasensibilité de laréponse par rapport auxvariables d'entrée en appliquant les tehniques
de régression linéaire, de régression sur les rangs ou des tests statistiques. On peut parler à présent
de mesuresd'importane ar estehniques permettent une réelle hiérarhisation de l'inuenesur la
sortie de toutes les variables d'entrée, ontrairement aux tehniques de riblage qui ont plutt pour
butde déteter lesvariablesd'entréenon inuentes. Onrappelle brièvement i-dessouslesprinipales
mesuresd'importane que l'onlasse dansette atégorie:
⋄
leoeient de orrélation linéaire (nommé ommunément oeient de Pearson et notéρ( · , · )
) entreX j
etY
:ρ j = ρ(X j , Y ) =
Cov(X j , Y ) p
Var
(X j )
Var(Y ) ∀ j = 1, . . . , d ,
(3.4)mesurede sensibilitéextrêmement simple à alulerà partir d'unéhantillon;
⋄
leoeient derégression standard (noté SRC( · , · )
) :SRC
j =
SRC(X j , Y ) = β j s
Var
(X j )
Var
(Y ) ∀ j = 1, . . . , d ,
(3.5)oùles
β j
(i = 1 . . . d)
sont lesoeients dela régressionlinéaire (f.Eq. (3.2));⋄
leoeient deorrélation partielle (notéPCC( · , · )
),PCC
j =
PCC(X j , Y ) = ρ(Y − Y , X b j − X c j ) ∀ j = 1, . . . , d ,
(3.6)où
Y b
estlaprévision dumodèle linéaire danslequelX j
n'est pasprésent :Y = X d
k=0,k6=j
δ k X k + ǫ 1
(3.7)ave
(δ 0 , . . . , δ j−1 , δ j+1 , . . . , δ d ) ∈ R d
les oeients de régression etǫ 1 ∈ R
l'erreur du modèle,etoùX c j
estlaprévisiondumodèlelinéaire quiexprimeX j
enfontiondesautresentrées :
X j = X d
k=0,k6=j
η k X k + ǫ 2
(3.8)ave
(η 0 , . . . , η j−1 , η j+1 , . . . , η d ) ∈ R d
lesoeientsderégressionetǫ 2 ∈ R
l'erreur du mo-dèle. Contrairement aux oeientsde régression standards,les oeients de orrélationpartiellepermettent d'éliminer l'inuene desautres variables etsont don adaptésau as
où les variables d'entrée sont orrélées. Par ontre, ils représentent plus une mesure de la
linéaritéde la sortie
Y
par rapport à une entréeX j
qu'un indie de sensibilité(Saltelli et al.[185℄);⋄
leoeient de orrélation sur les rangs des variables (nommé oeient de Spearman etnoté
ρ S ( · , · )
). SiR X = (R X 1 , . . . , R X d )
est le veteur des rangs des entrées etR Y
est lerangdelasortie, on a :
ρ S j = ρ S (X j , Y ) = ρ(R X j , R Y ) ∀ j = 1, . . . , d .
(3.9)Onalule esoeientsaprèsavoirtransformé l'éhantillon
(X n , Y n )
en unéhantillon(R n X , R n Y )
en remplaçant lesvaleurspar leur rangdanshaque olonne de lamatrie(Sa-porta [192℄);
⋄
leoeient derégression standard surles rangs (notéSRRC( · , · )
), pendant duSRCmaisàpartirde l'éhantillon
(R n X , R n Y )
:SRRC
j =
SRRC(X j , Y ) =
SRC(R X j , R Y ) ∀ j = 1, . . . , d .
(3.10)⋄
leoeient deorrélationpartiellesurles rangs(notéPRCC( · , · )
),pendant duPCCmaisàpartirde l'éhantillon
(R n X , R n Y )
:PRCC
j =
PRCC(X j , Y ) =
PCC(R X j , R Y ) ∀ j = 1, . . . , d .
(3.11)⋄
les indies alulés à partir des données segmentées. Pour haque variable d'entrée, un déoupageenlasseséquiprobablespermetd'obtenirplusieurséhantillons dedonnées.Destestsstatistiquessontalors appliquéspourmesurerl'homogénéitédespopulationsentreles
lasses : moyennes ommunes (CMN) basées sur un test de Fisher, médianes ommunes
(CMD)basées sur un test de
χ 2
,varianes ommunes (CV)basées surun test de Fisher,loalisations ommunes (CL) basées sur le test de Kruskal-Wallis, ...(Kleijnen & Helton
[118 ℄,Heltonetal. [84℄).D'autres mesurespeuvent êtreutilisées pour testerl'homogénéité
deslasses (ommepar exemple l'entropie).
Enpratique,oneetuetoutd'abordune régressionlinéaire entrelasortie
Y
etlesentréesX
ande savoir si leur relation est approximativement linéaire. Pour ela, on peut utiliser le oeient de
détermination
R 2
:Ceoeient peut êtreutilisé danstout modèlede régression (pas seulement linéaire) ommeritère
de qualitéde la préditiondu modèle. Basé surl'utilisation desrésidusd'observations ayant serviesà
ajuster lemodèle, il estependant à prendre ave préaution, etàbannir dansles modèles
d'interpo-lation(omme lekrigeage,f 3.3).Il estsouvent préférabledetravailler ave d'autresritères (f.par
exempleAzaïs &Bardet [10 ℄). Enutilisant desrésidusde prédition(issus d'observations n'ayant pas
serviesàajuster lemodèle),on dénitleoeient de préditivité
Q 2
dumodèle :Q 2 = 1 −
où
(X p(i) , Y i p ) i=1..n p
est l'éhantillon des variables d'entrée et de sortie de la base de prédition (ap-pelée aussi base de test), de taillen p
,etY p
est lamoyenne de(Y i p ) i=1..n p
. Le oeientQ 2
, dont laterminologieest peuemployée en statistique,estomparable auoeient plusonnu nomméPRESS
(PReditive Error SumofSquares) qui estlenumérateur dumembrede droite de l'équation(3.13).
Si on juge l'hypothèse de linéarité aeptable (par exemple si
R 2 > 0.8
), alors les indies desensibilitéPearson,SRCetPCCsontutilisables.Silesvariablesd'entréesontindépendantes,lasomme
des arrés desSRC vaut
R 2
et l'ensemble des SRC2
forment une déomposition de la variane de la réponse : haque SRC2 j
exprime la part de variane de la réponse expliquée par le fateurX j
. Dansle as où la relation entre
X
etY
n'est pas linéaire mais monotone, les oeients de orrélationet de régression basés sur les rangs (Spearman, SRRC, PRCC) peuvent être utilisés. L'hypothèse de
monotoniedoitbiensûrêtrevalidée,parexempleàl'aideduoeientdedéterminationdelarégression
surlesrangs(noté
R 2∗
)ou duoeientde préditivitéassoié(notéQ ∗ 2
).Enn, lesméthodesbaséessurles testsstatistiquesne requièrent pasd'hypothèse surlamonotonie delaréponseen fontion des
entrées. Par ontre, es méthodes sont dénies pour des éhantillons de données indépendantes. En
théorie, elles ne sont don appliables que si l'éhantillon est purement aléatoire (tirage Monte Carlo
simple).Ononstateependant qu'ellessontpluttrobustesvis-à-visdeettehypothèse;parexemple
elles donnent de bons résultats ave des éhantillons de type latin hyperube (LHS). Ces méthodes
présentent aussil'inonvénient d'être peu intuitives omparativement auxméthodesderégression.
Touslesindiesdesensibilitébaséssurlarégressionsontalulablesàpartird'éhantillons detaille
supérieureà
d
alors quelesindiesbaséssurlesoeientsdeorrélationoulestestsstatistiquessont alulablesàpartird'éhantillonsdetaillequelonque.Surlesappliations,ononstateependantqu'ilfaut souvent deséhantillons detaille supérieureà
2d
pour obtenir desrésultatsorrets,laonanequel'on peutavoirsur lesindies augmentant ave lenombrede données utiliséespour lesaluler.
3.2.4 Déomposition de la variane
Dansleadregénéral d'unmodèlenon linéaireetnonmonotone,onpeutestimer l'importane des
variables d'entrée surla réponse du modèleen utilisant ladéomposition de la variane fontionnelle
(appelée aussi représentation ANOVA fontionnelle). Toute fontion intégrable sur
Ω = [0, 1] d
peutêtredéomposéeen sommede fontionsélémentaires :
f(X 1 , · · · , X d ) = f 0 +
où
f 0
estune onstante etlesautres fontions vérient les onditions suivantes :Z 1
0
f i 1 ,...,i s (x i 1 , . . . , x i s ) dx i k = 0 ∀ k = 1, . . . , s , ∀{ i 1 , . . . , i s } ⊆ { 1, . . . , d } .
(3.15)CettedéompositionestonnuesouslenomdedéompositiondeHoeding (présentéedansHoeding
[86℄)etaétéintroduiteparSobol[200℄pourl'analysedesensibilité(d'oùsonappellationdéomposition
deSobol danse domaine). Celui-i anotamment montré quelesonditions (3.15) impliquent quela
déomposition estunique.
Le termeANOVA est utilisé ar l'équation(3.14) fournit lamême interprétation qu'une
déom-positionANOVA usuelle.Eneet,siles
X i
sontmutuellement indépendants, l'équation(3.14)permet d'obtenirune déompositionde lavariane de laréponsedumodèle:Var
[Y ] =
d'analyse de variane sur des espaes de fontion a été introduite par Antoniadis [7℄. À partir de
(3.16),les indiesde sensibilités'obtiennent alors extrêmement naturellement :
S i =
Var[ E (Y | X i )]
Var
(Y ) = V i (Y )
Var
(Y ) , S ij = V ij (Y )
Var
(Y ) , S ijk = V ijk (Y )
Var
(Y ) , . . .
(3.17)Ces oeients, nommés mesures d'importane basées sur la variane ou plus simplement indies
de Sobol (appellation non onsarée), peuvent être utilisés pour n'importe quelle fontion
f( · )
. Lesindiesd'ordreun sontégauxauxarrésdesSRCquandlemodèle
f ( · )
estpurement linéaire.L'indiedu seond ordre
S ij
exprime la sensibilité du modèle à l'interation entre les variablesX i
etX j
, etainside suite pour les ordres supérieurs. Compris entre
0
et1
et leur somme valant1
, les indies deSobolsont partiulièrement failesàinterpréter (enterme depourentagede lavariane delaréponse
expliquée),e qui expliqueleurpopularité.
Lorsque le nombre de variables d'entrée
d
augmente, le nombre d'indies de sensibilité roît ex-ponentiellement (il vaut2 d − 1
) et l'estimation etl'interprétation de touses indies deviennent vite impossibles. Homma & Saltelli [89 ℄ ont alors introduit la notion d'indie de sensibilité total pourexprimertousles eetsd'unevariabled'entréesur lasortie:
S T i = S i + X
où
#i
représente tous lessous-ensembles d'indies ontenant l'indiei
.Ainsi,P
l ∈ #i S l
estla sommede tous les indies de sensibilité faisant intervenir
i
. En pratique, quandd
est grand (par exempled > 10
), on se ontente souvent d'estimer les indies d'ordre un et les indies totaux. Des exemplesde tous les indies de sensibilité faisant intervenir