• Aucun résultat trouvé

3.4 Repr´esentation de l’information par des distributions de possibilit´e continues

3.4.2 Prise en compte des fractiles dans la repr´esentation possibiliste continue

nue

Supposons que l’expert fournisse le mode M et la m´ediane m de la distribution de proba- bilit´e unimodale inconnue. Soit PM,mI l’ensemble de telles probabilit´es born´ees par I = [b, c] et on suppose que m < M . Nous pouvons alors raffiner l’approximation possibiliste πL en

tenant compte de l’information additionnelle apport´ee par la m´ediane, `a savoir F (m) = 0.5. Cela signifie que F passe par le point de coordonn´ee (m, 0.5). Ainsi, `a la place de FL, nous

pouvons consid´erer la fonction de r´epartition lin´eaire par morceaux FLm sur les segments [(b, 0), (m, 0.5)], [(m, 0.5), (M, F (M ))], [(M, F (M )), (c, 1)]. Clairement, F ≤ Fm

L < FL sur

[b, M ] (voir Figure 3.9.a). Par cons´equent, en choisissant encore les intervalles [x, y] tels que (xM−b)−b = (cc−M−y), nous obtenons une distribution de possibilit´e lin´eaire par morceaux plus sp´ecifique πm

L ≤ πL qui domine toutes les probabilit´es de mode M et de m´ediane m (voir

Figure 3.9.b). C’est `a dire PM,mI ⊂ P(πmL). En particulier :

πLm(m) = πmL(m) = 0.5 + (1− F (M))m− b M− b

o`u (m−b)M−b = (c−m)c−M . Ce r´esultat pr´ecise le fait que quand p est unimodale, la m´ediane se trouve n´ecessairement dans l’intervalle [M +b2 ,c+M2 ]. En effet, supposons que m < M +b2 , nous avons πp(m)≤ πL(m) < 0.5 ce qui est contradictoire avec le fait que πp(m) = F (m)+1−F (f(m)) =

0.5 + 1− F (f(m)) ≥ 0.5 o`u f(m) = max{y, p(y) ≥ p(m)}.

Notons que cette distribution de possibilit´e πmL d´epend de F (M ), et que si M > m, l’in´egalit´e F (M ) 2(mM−b−b) reste valide, puisque πm

60 Repr´esentations math´ematiques de la connaissance a) b) PSfrag replacements 0 0 0.5 0.5 1 1 F convexe F concave m mM Mm F(M ) b c b c F FL πL πm L πm L(m) = π m L(m) Fm L

Fig. 3.9 – Distribution de possibilit´e πm

L respectant la condition de Dominance quand on

connaˆıt la m´ediane, le mode M , F (M ) et le support.

possibilit´e triangulaire πLest retrouv´ee, par exemple quand le mode et la m´ediane co¨ıncident

(F (M ) = 0.5). Si F (M ) = 1 (le cas le plus asym´etrique) alors πmL(m) = 0.5. L’exploita- tion de cette repr´esentation n´ecessite une estimation de F (M ). Mais cette quantit´e est une bonne mesure de l’asym´etrie de la distribution de probabilit´e. Ce r´esultat est facile `a ´etendre `a d’autres fractiles, ou ensemble de fractiles si ceux-ci sont connus `a priori. En particulier, consid´erons le cas o`u un expert donne les fractiles x1, x2 et x3, `a 5%, 50% et 95%, et le mode

M . Par d´efinition x2est la m´ediane, et nous supposons que celle-ci co¨ıncide avec le mode. Soit

la famille de probabilit´es Px1,x2,x3

I ayant ces fractiles d´efinis. Avec un raisonnement similaire

au pr´ec´edent nous pouvons repr´esenter cette connaissance par la distribution de possibilit´e (sym´etrique) suivante : π(x1) = π(x3) = F (x1) + 1− F (x3) = 0.1, π(x2) = 1 en faisant

des interpolations lin´eaire sur [b, x1], [x1, x2], [x2, x3] et [x3, c] pour chaque valeur de π(x).

Clairement Px1,x2,x3

I ∪ PM,m ⊂ P(π) (respectant la Condition de Dominance definie dans le

chapitre 2 `a la Section 2.5). 0 1 2 3 4 5 6 7 8 9 10 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Repr´esentations math´ematiques de la connaissance 61

3.4.3 Distribution de possibilit´e continue connaissant le mode et le sup-

port :Condition de Dominance par les Intervalles de Pr´ediction

Supposons que I = [b, c] contienne la distribution de probabilit´e inconnue p et nous sup- posons que p est sym´etrique et unimodale. Soit PS

I l’ensemble des probabilit´es sym´etriques

de support I. Leur mode est forc´ement b+c2 du fait de la sym´etrie (cela inclut la distribution uniforme sur I). Si p est sym´etrique, la transformation optimale (voir chapitre 2 `a la Section 2.5) πp?autour du mode est convexe de chaque cˆot´e du mode [31]. La distribution de possibilit´e triangulaire sym´etrique πS de support I et de noyau b+c2 est donc telle que πS ≥ πp?,∀p, et

est r´eellement ´egale `a supp∈PS

Iπp [31]. Ainsi, nous avons non seulement P(πS) contenant P

S I

mais aussi les α-coupes de πS encadrent les plus ´etroits intervalles de pr´ediction de niveau de

confiance 1− α de toutes les probabilit´es contenues dans PS I, i.e,

∀λ ∈ [0, sup(p)], {x|p(x) ≥ λ} ⊆ (πS)α ={x|πS(x)≥ 1 − P ({x|p(x) ≥ λ})}

N´eanmoins, P(πS) contient aussi des densit´es de probabilit´e qui ne sont pas sym´etriques et

dont le mode diff`ere de b+c2 . Nous pouvons dire que la p-box [F , F ] d´efinie par F (x) = x− b c− b si x≤ b + c 2 et 1 sinon et F (x) = x− b c− b si x≥ b + c 2 et 0 sinon est une repr´esentation plus informative des densit´es sym´etriques de support inclus dans I que P(πS). Mais, notons dans ce cas que la distribution de possibilit´e π = min(F , 1− F )

si x6= b+c

2 domine aussi de telles distributions sym´etriques et est mˆeme plus pr´ecise que la

p-box. Mais, bien sˆur, elle n’encadre pas leurs intervalles de pr´ediction. Tout le m´erite de la distribution de possibilit´e πSest pr´ecis´ement d’encadrer les intervalles de pr´ediction dans PSI.

De fa¸con int´eressante, notons que πS = 2· min(F , 1 − F ) pour x 6= b+c2 .

Si nous connaissons des fractiles, nous pouvons raffiner la repr´esentation comme expliqu´e dans le paragraphe pr´ec´edent. De tels raffinements respecteraient la Condition de dominance par les intervalles de pr´ediction (see Figure 3.10) du fait de l’hypoth`ese de la sym´etrie. Quand p est asym´etrique, la transformation optimale πp?, associ´ee `a p peut ne pas ˆetre convexe de chaque cˆot´e du mode M . Ainsi, les α-coupes de la distribution de possibilit´e triangulaire πL de noyau {M} ne contient pas toujours les (1 − α) intervalles de pr´ediction optimaux

des mesures de probabilit´e de mode M , clairement mis en ´evidence dans le th´eor`eme 4 sur les transformations optimales des densit´es lin´eaires par morceaux. Par exemple, consid´erons l’exemple de la Figure 3.11 sugg´er´e dans [31], o`u :

p(x) = 0.6x + 1.2 sur [−2, −1.5] p(x) = (0.2/3)x + 0.4 sur [−1.5, 0] p(x) =−0.2x + 0.4 sur [0, 2].

L’intervalle [−1.4, 1.4], correspondant `a l’0.3-coupe de la distribution de possibilit´e triangu- laire, ne contient pas l’intervalle de pr´ediction au niveau de confiance 0.7 de la mesure de probabilit´e de mode 0, qui est [−1.5, 1.5] : la transformation optimale de p (voir Chapitre 2 Section 2.5) n’est en effet pas convexe partout. Nous pouvons n´eanmoins trouver une borne sup´erieure de π?

p pour une densit´e unimodale asym´etrique continue p. Alors, en utilisant la

concavit´e de F et en consid´erant les intervalles emboˆıt´es Jx= [x, max{y, p(y) ≥ p(x)} = f(x)]

62 Repr´esentations math´ematiques de la connaissance −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 p πL πp* transformation optimale de p

Fig. 3.11 – transformation optimale de p autour du mode.

– Pour x≤ M, π?

p(x)≤ F (x) + 1 − F (f(x)) ≤ FL(x) + 1− F (M) = F (M )(xM−b−b)+ 1− F (M).

– Pour x≥ M, πp?(x)≤ F (f−1(x)) + 1− F (x) ≤ F (M) + 1 − FL(x) = 1−1−F (M)c−M (x− M)

La connaissance de la valeur F (M ) est n´ecessaire pour pouvoir couvrir π?p (voir Figure 3.12 pour exemple). En g´en´eral, il sera difficile de trouver une distribution de possibilit´e plus informative qui tienne compte des intervalles de pr´ediction de toutes les mesures de probabilit´e sur un intervalle I avec un mode fix´e, dˆu `a la large ´etendue de telles distributions. On pourra rajouter de l’information sur la densit´e inconnue p telle que sa convexit´e-concavit´e.

Th´eor`eme 5 Si la densit´e p est croissante convexe sur ]b, M [ et strictement d´ecroissante concave sur ]M, c[ alors π?p est aussi convexe sur ]b, M [.

Preuve.Nous devons montrer que la d´eriv´ee seconde de πp?est positive sur ]b, M [. Consid´erons p1 (la partie gauche de p) et p2 (la partie droite de p) d´efinie comme suit :

∀x ∈ [b, M], p1(x) = p(x) et 0 sinon.

∀x ∈ [M, c], p2(x) = p(x) et 0 sinon.

Pour x∈ [b, M], πp?(x) = F (x) + 1− F (f(x)) o`u f(x) = max{y, p(y) ≥ p(x)}. Si on d´erive π? p sur ]b, M [, on obtient : πp?0(x) = F0(x)− f0(x)F0(f (x)) = p1(x)− f 0 (x)p2(f (x)) Cependant p1(x) = p2(f (x)), donc : π?p0(x) = p1(x)  1− f0(x) Par cons´equent en d´erivant de nouveau :

π?p00(x) = p01(x)1− f0(x)− p1(x)f

00

Repr´esentations math´ematiques de la connaissance 63 Nous savons que p1(x) = p2(f (x)) ; si nous d´erivons cette ´egalit´e, on obtient :

f0(x) = p

0

1(x)

p0

2(f (x))

La fonction p1 croˆıt sur ]b, M [, ainsi p01 ≥ 0. La fonction p2 d´ecroˆıt strictement sur ]M, c[,

ainsi p02 < 0. Nous en d´eduisons alors que f0≤ 0 ≤ 1. On en conclu donc que : p01(x)1− f0(x)≥ 0 ∀x ∈]b, M[

En d´erivant de nouveau f0, nous obtenons

f00(x) = p 00 1(x)− (f 0 (x))2p002(f (x)) p0 2(x)

Nous savons que p est convexe sur ]b, M [ (resp. concave sur ]M, c[), nous avons p001(x) ≥ 0 pour tout x∈]b, M[ (resp. p002(x)≤ 0 pour tout x ∈]M, c[).

Par cons´equent, p001(x)− (f0

(x))2p002(f (x)) ≥ 0 pour tout x ∈]b, M[ et donc f00

(x) ≤ 0 pour tout x∈]b, M[. Nous concluons que

p1(x)f

00

(x)≤ 0 ∀x ∈]b, M[ En bref, nous avons :

p01(x)1− f0(x)≥ 0 et p1(x)f

00

(x)≤ 0 ∀x ∈]b, M[

Nous avons donc prouv´e que πp?00 est positive sur ]b, M [, et ainsi la convexit´e de πp?sur ]b, M [.2 Supposer F (M ) < 0.5 est coh´erent avec la convexit´e de p sur [b, M ] et sa concavit´e sur [M, c]. Dans ce cas, une distribution de possibilit´e lin´eairement croissante de 0 `a 1 sur [b, M ] couvre toutes les transformations optimales de telles densit´es de ce cˆot´e. De l’autre cˆot´e du mode, l’utilisation d’une forme lin´eaire est possible avec π(c) = 1− F (M) (voir Figure 3.12). Pour r´esumer, si nous supposons que F (M ) est connue, alors selon le th´eor`eme 5 sur la d´eriv´ee seconde de p une distribution de possibilit´e plus informative, dont les coupes contiennent les intervalles de pr´edictions des densit´es de mode M ayant de telles caract´eristiques, peut ˆetre calcul´ee.