• Aucun résultat trouvé

3.6 Synth`ese des repr´esentations coh´erentes avec la nature de l’information disponible

4.1.2 Notions d’ind´ependance dans le cadre des probabilit´es impr´ecises

La notion d’ind´ependance, dans le cadre des probabilit´es pr´ecises, est unique mais ne l’est plus dans le cadre des probabilit´es impr´ecises. En effet, Couso et al. [23] reconnaissent et pr´esentent plusieurs notions d’ind´ependance pour les probabilit´es impr´ecises, nomm´ees

70 Propagation des incertitudes ´epist´emiques et stochastiques ”repetition independance”, ”strong independence”, ”epistemic independence” et ”random set independence”.

Supposons deux mesures de probabilit´e PX, PY mal d´efinies associ´ees aux variables al´eatoires X, Y repr´esentant deux param`etres x, y. L’ensemble des valeurs possibles pour les param`etres sont ΩX et ΩY. Consid´erons PX, PY deux ensembles de mesures de probabilit´e mod´elisant

X, Y et PXY la mesure de probabilit´e associ´ee au vecteur al´eatoire (X, Y ).

Si nous n’avons aucune connaissance sur les relations de d´ependance qui pourraient exister entre X et Y , Couso et al. [23] d´efinissent la notion d’”int´eraction inconnue” (voir exemples dans [7]) entre les composantes X et Y . Dans ce cas, l’ensemble des probabilit´es pour le vecteur (X, Y ) est :

{PXY|PXY(.× ΩY) = PX ∈ PX, PXY(ΩX× .) = PY ∈ PY}

Nous parlons alors de non connaissance de relations entre les observateurs (sources d’infor- mation) et entre les valeurs des observations (ph´enom`enes observ´es).

Nous pr´esentons dans ce qui suit les 4 notions d’ind´ependance dans le cadre des probabilit´es impr´ecises [23] :

– l’ind´ependance de r´ep´etition (repetition independence [23]) apparaˆıt quand il y a l’ind´epen- dance stochastique (dans le sens traditionnel) entre les variables al´eatoires X et Y qui sont identiquement distribu´ees (c-`a-d PX = PY = P ), bien que la probabilit´e P soit mal

connue. En d’autres termes, nous avons la mˆeme information incompl`ete sur les probabi- lit´es marginales PX, PY associ´ees aux variables X et Y ; soit PX = PY = P ∈ P. Cette d´efinition est donc l’analogue de la contrainte dans la th´eorie des probabilit´es classiques que les variables sont ind´ependantes et identiquement distribu´ees (voir exemples dans [7]). Cette notion d´efinit la famille de probabilit´es

PXY ={PXY = P ⊗ P |P ∈ P}

– l’ind´ependance forte (strong independence [23]) est une compl`ete absence de relation entre les sources d’information (observateurs). Cette notion d´efinit la famille de proba- bilit´es contenant la mesure de probabilit´e jointe

PXY ={PXY = PX ⊗ PY|PX ∈ PX, PY ∈ PY}

qui peuvent ˆetre engendr´ees par les ensembles PX et PY. On dit que deux variables sont

fortement ind´ependantes si

1. les valeurs des variables X (resp. Y ) sont al´eatoires gouvern´ees par une distribution de probabilit´e unique PX (resp. PY) mais mal connue.

2. les variables X et Y sont stochastiquement ind´ependantes.

3. il n’y a pas de connaissance sur les relations entre les connaissances (observateurs) qui pourraient exclure des combinaisons possibles entre les possibles probabilit´es marginales PX ∈ PX et PY ∈ PY.

Cela signifie qu’il n’y a pas d’information sur des relations possibles entre la connaissance sur X et la connaissance sur Y (absence de connaissance sur les relations entre les

Propagation des incertitudes ´epist´emiques et stochastiques 71 observateurs) et qu’il y a ind´ependance entre les variables elle-mˆemes (ph´enom`enes observ´es) (voir exemples dans [7]).

– l’ind´ependance ´epist´emique (epistemic independence [23]) est une sorte de g´en´eralisation de la notion d’ind´ependance aux ensembles de mesures de probabilit´e. Cette notion in- troduit le fait que la connaissance de la valeur de X n’affecte pas notre connaissance PY sur Y mˆeme si la valeur de X peut affecter la valeur de Y . Cela signifie que si l’on apprend la valeur de X, alors la mesure de probabilit´e PY associ´ee `a Y est encore l’une des mesures de probabilit´e de PY (mais en g´en´eral pas toujours la mˆeme pour diff´erentes valeurs de X puisque Y peut d´ependre de X) parce que la mesure de probabilit´e condi- tionnelle PY|X doit ˆetre dans PY, et vice versa. Dans ce cas, la famille de probabilit´es contenant la mesure de probabilit´e jointe est :

PXY ={PXY|PX|Y ∈ PX, PY|X ∈ PY}

o`u PX|Y (resp. PY|X) est la mesure de probabilit´e conditionnelle par rapport `a Y (resp. par rapport `a X)

PXY(A, B) = P (X ∈ A, Y ∈ B) = PX|Y ∈B(A)PY(B) = PY|X∈A(B)PX(A)

– l’ind´ependance entre observations impr´ecises (random set independence [23]) correspond `a une ind´ependance stochastique entre les ´el´ements focaux dans le cadre des fonctions de croyance de Dempster-Shafer (voir Annexe C). C’est-`a-dire que PX (resp. PY) est engendr´e par un ensemble al´eatoire (FX, νX) (resp. (FY, νY)) o`u νX (resp. νY) est la fonction de masse associ´ee aux ´el´ements focaux FX = {EX

1 , . . . , EnX} (resp. FY =

{EY

1 , . . . , EnY}). Nous avons alors

PX ={PX|∀A ⊆ ΩX, PX(A) X i,EX i ∩A6=∅ νX(EiX)} PY ={PY|∀A ⊆ ΩY, PY(A) X i,EY i ∩A6=∅ νY(EiY)}

La famille de probabilit´es contenant la mesure de probabilit´e jointe se d´efinit alors par PXY ={PXY|∀A ⊆ ΩX × ΩY, PXY(A) X

ij,EX

i ×EYj ∩A6=∅

νX(EiX)νY(EjY)}

Cette d´efinition signifie que les distributions de probabilit´e sur FX et FY sont stochas-

tiquement ind´ependantes mais ne suppose rien sur les interactions possibles entre les valeurs de X et Y `a l’int´erieur de chacun des ´el´ements focaux produit (EX

i × EjY)ij.

Cette notion d’ind´ependance peut ˆetre vue comme une ind´ependance entre les sources d’informations (diff´erents avis d’experts ind´ependants par exemple) sans d´efinir de re- lation entre les variables elles-mˆemes. On peut alors parler d’ind´ependance entre les observateurs et non connaissance des interactions entre les ph´enom`enes observ´es (voir exemples dans [7]).

72 Propagation des incertitudes ´epist´emiques et stochastiques Couso et al. [23] donnent des exemples pour chaque d´efinition. Fetz et al. [58] discutent les cons´equences des diff´erentes d´efinitions de l’ind´ependance dans l’estimation des probabilit´es sur le mod`ele (x + y)x selon les repr´esentations math´ematiques possibles des param`etres x et y. Les familles de mesures de probabilit´e jointes PXY d´efinies par les diff´erentes notions d’ind´ependance dans le cadre des probabilit´es impr´ecises peuvent ˆetre ordonn´ees [23, 58] :

PXYInd´ependance de r´ep´etition ⊆ PXYInd´ependance forte ⊆ PXYInd´ependance ´epist´emique et dans le cadre de Dempster-Shafer [23, 58] :

PXYInd´ependance de r´ep´etition⊆ PXYInd´ependance forte PXY

Ind´ependance forte⊆ PXYInd´ependance ´epist´emique

PXY

Ind´ependance ´epist´emique ⊆ PXYInd´ependance entre observations impr´ecises

Fetz et al. [58] d´efinissent la notion d’ind´ependance entre observations floues dans le cadre de Dempster-Shafer o`u les ´el´ements focaux FX ={EX

1 ⊆ · · · ⊆ EnX} (resp. FY ={E1Y ⊆ · · · ⊆

EYn}) sont cette fois-ci emboˆıt´es. De ce fait, la fonction de masse νX (resp. νY) associ´ee `a FX

(resp. FY) d´efinit une distribution de possibilit´e πX (resp. πY) (voir Section 2.2.2) et nous avons νX(EX

i ) = νY(EiY) = αi− αi−1 (α0=0) o`u αi est une α-coupe de πX (resp. πY). La

famille de probabilit´es contenant la mesure de probabilit´e jointe est alors d´efinie par : PXY ={PXY|∀A ⊆ ΩX × ΩY, PXY(A) X

i,EX

i ×EiY∩A6=∅

νX(EiX)}

Ils obtiennent un ensemble al´eatoire avec les mˆemes ´el´ements focaux (EiX× EjY)ijque dans la

d´efinition de l’ind´ependance entre observations impr´ecises mais avec des poids de probabilit´e diff´erents. En fait, la notion d’ind´ependance entre observations floues est ´equivalente `a la notion de distribution de possibilit´e jointe πXY (discut´ee dans l’Annexe B Section B.1) d´efinie par

πXY(x, y) = min(πX(x), πY(y))

Comme nous le verrons, cette notion mod´elise le fait qu’il existe une d´ependance totale entre les sources d’information (observateurs) sans pour d´efinir de relation entre les variables elles- mˆemes (observations) (voir exemples dans [7]).

L’(in)d´ependance dans le cadre des probabilit´es classiques n’est d´ej`a pas une notion ´evidente `a traiter, elle se complique dans le cadre des probabilit´es impr´ecises. Une analyse plus approndie sur ces notions d’(in)d´ependances `a deux niveaux (Observateurs-Observations) demanderait une ´etude `a part enti`ere. C’est pour cela que nous ne pr´esentons en d´etail que les structures d’(in)d´ependance g´en´er´ees pour chaque m´ethode de propagation propos´ee. Ces m´ethodologies ont ´evidemment les avantages et les restrictions li´ees au Monte-Carlo et au calcul d’intervalles.