3.4 Repr´esentation de l’information par des distributions de possibilit´e continues
3.4.2 Prise en compte des fractiles dans la repr´esentation possibiliste continue
nue
Supposons que l’expert fournisse le mode M et la m´ediane m de la distribution de proba- bilit´e unimodale inconnue. Soit PM,mI l’ensemble de telles probabilit´es born´ees par I = [b, c] et on suppose que m < M . Nous pouvons alors raffiner l’approximation possibiliste πL en
tenant compte de l’information additionnelle apport´ee par la m´ediane, `a savoir F (m) = 0.5. Cela signifie que F passe par le point de coordonn´ee (m, 0.5). Ainsi, `a la place de FL, nous
pouvons consid´erer la fonction de r´epartition lin´eaire par morceaux FLm sur les segments [(b, 0), (m, 0.5)], [(m, 0.5), (M, F (M ))], [(M, F (M )), (c, 1)]. Clairement, F ≤ Fm
L < FL sur
[b, M ] (voir Figure 3.9.a). Par cons´equent, en choisissant encore les intervalles [x, y] tels que (xM−b)−b = (cc−M−y), nous obtenons une distribution de possibilit´e lin´eaire par morceaux plus sp´ecifique πm
L ≤ πL qui domine toutes les probabilit´es de mode M et de m´ediane m (voir
Figure 3.9.b). C’est `a dire PM,mI ⊂ P(πmL). En particulier :
πLm(m) = πmL(m) = 0.5 + (1− F (M))m− b M− b
o`u (m−b)M−b = (c−m)c−M . Ce r´esultat pr´ecise le fait que quand p est unimodale, la m´ediane se trouve n´ecessairement dans l’intervalle [M +b2 ,c+M2 ]. En effet, supposons que m < M +b2 , nous avons πp(m)≤ πL(m) < 0.5 ce qui est contradictoire avec le fait que πp(m) = F (m)+1−F (f(m)) =
0.5 + 1− F (f(m)) ≥ 0.5 o`u f(m) = max{y, p(y) ≥ p(m)}.
Notons que cette distribution de possibilit´e πmL d´epend de F (M ), et que si M > m, l’in´egalit´e F (M ) ≥ 2(mM−b−b) reste valide, puisque πm
60 Repr´esentations math´ematiques de la connaissance a) b) PSfrag replacements 0 0 0.5 0.5 1 1 F convexe F concave m mM Mm F(M ) b c b c F FL πL πm L πm L(m) = π m L(m) Fm L
Fig. 3.9 – Distribution de possibilit´e πm
L respectant la condition de Dominance quand on
connaˆıt la m´ediane, le mode M , F (M ) et le support.
possibilit´e triangulaire πLest retrouv´ee, par exemple quand le mode et la m´ediane co¨ıncident
(F (M ) = 0.5). Si F (M ) = 1 (le cas le plus asym´etrique) alors πmL(m) = 0.5. L’exploita- tion de cette repr´esentation n´ecessite une estimation de F (M ). Mais cette quantit´e est une bonne mesure de l’asym´etrie de la distribution de probabilit´e. Ce r´esultat est facile `a ´etendre `a d’autres fractiles, ou ensemble de fractiles si ceux-ci sont connus `a priori. En particulier, consid´erons le cas o`u un expert donne les fractiles x1, x2 et x3, `a 5%, 50% et 95%, et le mode
M . Par d´efinition x2est la m´ediane, et nous supposons que celle-ci co¨ıncide avec le mode. Soit
la famille de probabilit´es Px1,x2,x3
I ayant ces fractiles d´efinis. Avec un raisonnement similaire
au pr´ec´edent nous pouvons repr´esenter cette connaissance par la distribution de possibilit´e (sym´etrique) suivante : π(x1) = π(x3) = F (x1) + 1− F (x3) = 0.1, π(x2) = 1 en faisant
des interpolations lin´eaire sur [b, x1], [x1, x2], [x2, x3] et [x3, c] pour chaque valeur de π(x).
Clairement Px1,x2,x3
I ∪ PM,m ⊂ P(π) (respectant la Condition de Dominance definie dans le
chapitre 2 `a la Section 2.5). 0 1 2 3 4 5 6 7 8 9 10 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Repr´esentations math´ematiques de la connaissance 61
3.4.3 Distribution de possibilit´e continue connaissant le mode et le sup-
port :Condition de Dominance par les Intervalles de Pr´ediction
Supposons que I = [b, c] contienne la distribution de probabilit´e inconnue p et nous sup- posons que p est sym´etrique et unimodale. Soit PS
I l’ensemble des probabilit´es sym´etriques
de support I. Leur mode est forc´ement b+c2 du fait de la sym´etrie (cela inclut la distribution uniforme sur I). Si p est sym´etrique, la transformation optimale (voir chapitre 2 `a la Section 2.5) πp?autour du mode est convexe de chaque cˆot´e du mode [31]. La distribution de possibilit´e triangulaire sym´etrique πS de support I et de noyau b+c2 est donc telle que πS ≥ πp?,∀p, et
est r´eellement ´egale `a supp∈PS
Iπp [31]. Ainsi, nous avons non seulement P(πS) contenant P
S I
mais aussi les α-coupes de πS encadrent les plus ´etroits intervalles de pr´ediction de niveau de
confiance 1− α de toutes les probabilit´es contenues dans PS I, i.e,
∀λ ∈ [0, sup(p)], {x|p(x) ≥ λ} ⊆ (πS)α ={x|πS(x)≥ 1 − P ({x|p(x) ≥ λ})}
N´eanmoins, P(πS) contient aussi des densit´es de probabilit´e qui ne sont pas sym´etriques et
dont le mode diff`ere de b+c2 . Nous pouvons dire que la p-box [F , F ] d´efinie par F (x) = x− b c− b si x≤ b + c 2 et 1 sinon et F (x) = x− b c− b si x≥ b + c 2 et 0 sinon est une repr´esentation plus informative des densit´es sym´etriques de support inclus dans I que P(πS). Mais, notons dans ce cas que la distribution de possibilit´e π = min(F , 1− F )
si x6= b+c
2 domine aussi de telles distributions sym´etriques et est mˆeme plus pr´ecise que la
p-box. Mais, bien sˆur, elle n’encadre pas leurs intervalles de pr´ediction. Tout le m´erite de la distribution de possibilit´e πSest pr´ecis´ement d’encadrer les intervalles de pr´ediction dans PSI.
De fa¸con int´eressante, notons que πS = 2· min(F , 1 − F ) pour x 6= b+c2 .
Si nous connaissons des fractiles, nous pouvons raffiner la repr´esentation comme expliqu´e dans le paragraphe pr´ec´edent. De tels raffinements respecteraient la Condition de dominance par les intervalles de pr´ediction (see Figure 3.10) du fait de l’hypoth`ese de la sym´etrie. Quand p est asym´etrique, la transformation optimale πp?, associ´ee `a p peut ne pas ˆetre convexe de chaque cˆot´e du mode M . Ainsi, les α-coupes de la distribution de possibilit´e triangulaire πL de noyau {M} ne contient pas toujours les (1 − α) intervalles de pr´ediction optimaux
des mesures de probabilit´e de mode M , clairement mis en ´evidence dans le th´eor`eme 4 sur les transformations optimales des densit´es lin´eaires par morceaux. Par exemple, consid´erons l’exemple de la Figure 3.11 sugg´er´e dans [31], o`u :
p(x) = 0.6x + 1.2 sur [−2, −1.5] p(x) = (0.2/3)x + 0.4 sur [−1.5, 0] p(x) =−0.2x + 0.4 sur [0, 2].
L’intervalle [−1.4, 1.4], correspondant `a l’0.3-coupe de la distribution de possibilit´e triangu- laire, ne contient pas l’intervalle de pr´ediction au niveau de confiance 0.7 de la mesure de probabilit´e de mode 0, qui est [−1.5, 1.5] : la transformation optimale de p (voir Chapitre 2 Section 2.5) n’est en effet pas convexe partout. Nous pouvons n´eanmoins trouver une borne sup´erieure de π?
p pour une densit´e unimodale asym´etrique continue p. Alors, en utilisant la
concavit´e de F et en consid´erant les intervalles emboˆıt´es Jx= [x, max{y, p(y) ≥ p(x)} = f(x)]
62 Repr´esentations math´ematiques de la connaissance −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 p πL πp* transformation optimale de p
Fig. 3.11 – transformation optimale de p autour du mode.
– Pour x≤ M, π?
p(x)≤ F (x) + 1 − F (f(x)) ≤ FL(x) + 1− F (M) = F (M )(xM−b−b)+ 1− F (M).
– Pour x≥ M, πp?(x)≤ F (f−1(x)) + 1− F (x) ≤ F (M) + 1 − FL(x) = 1−1−F (M)c−M (x− M)
La connaissance de la valeur F (M ) est n´ecessaire pour pouvoir couvrir π?p (voir Figure 3.12 pour exemple). En g´en´eral, il sera difficile de trouver une distribution de possibilit´e plus informative qui tienne compte des intervalles de pr´ediction de toutes les mesures de probabilit´e sur un intervalle I avec un mode fix´e, dˆu `a la large ´etendue de telles distributions. On pourra rajouter de l’information sur la densit´e inconnue p telle que sa convexit´e-concavit´e.
Th´eor`eme 5 Si la densit´e p est croissante convexe sur ]b, M [ et strictement d´ecroissante concave sur ]M, c[ alors π?p est aussi convexe sur ]b, M [.
Preuve.Nous devons montrer que la d´eriv´ee seconde de πp?est positive sur ]b, M [. Consid´erons p1 (la partie gauche de p) et p2 (la partie droite de p) d´efinie comme suit :
– ∀x ∈ [b, M], p1(x) = p(x) et 0 sinon.
– ∀x ∈ [M, c], p2(x) = p(x) et 0 sinon.
Pour x∈ [b, M], πp?(x) = F (x) + 1− F (f(x)) o`u f(x) = max{y, p(y) ≥ p(x)}. Si on d´erive π? p sur ]b, M [, on obtient : πp?0(x) = F0(x)− f0(x)F0(f (x)) = p1(x)− f 0 (x)p2(f (x)) Cependant p1(x) = p2(f (x)), donc : π?p0(x) = p1(x) 1− f0(x) Par cons´equent en d´erivant de nouveau :
π?p00(x) = p01(x)1− f0(x)− p1(x)f
00
Repr´esentations math´ematiques de la connaissance 63 Nous savons que p1(x) = p2(f (x)) ; si nous d´erivons cette ´egalit´e, on obtient :
f0(x) = p
0
1(x)
p0
2(f (x))
La fonction p1 croˆıt sur ]b, M [, ainsi p01 ≥ 0. La fonction p2 d´ecroˆıt strictement sur ]M, c[,
ainsi p02 < 0. Nous en d´eduisons alors que f0≤ 0 ≤ 1. On en conclu donc que : p01(x)1− f0(x)≥ 0 ∀x ∈]b, M[
En d´erivant de nouveau f0, nous obtenons
f00(x) = p 00 1(x)− (f 0 (x))2p002(f (x)) p0 2(x)
Nous savons que p est convexe sur ]b, M [ (resp. concave sur ]M, c[), nous avons p001(x) ≥ 0 pour tout x∈]b, M[ (resp. p002(x)≤ 0 pour tout x ∈]M, c[).
Par cons´equent, p001(x)− (f0
(x))2p002(f (x)) ≥ 0 pour tout x ∈]b, M[ et donc f00
(x) ≤ 0 pour tout x∈]b, M[. Nous concluons que
p1(x)f
00
(x)≤ 0 ∀x ∈]b, M[ En bref, nous avons :
p01(x)1− f0(x)≥ 0 et p1(x)f
00
(x)≤ 0 ∀x ∈]b, M[
Nous avons donc prouv´e que πp?00 est positive sur ]b, M [, et ainsi la convexit´e de πp?sur ]b, M [.2 Supposer F (M ) < 0.5 est coh´erent avec la convexit´e de p sur [b, M ] et sa concavit´e sur [M, c]. Dans ce cas, une distribution de possibilit´e lin´eairement croissante de 0 `a 1 sur [b, M ] couvre toutes les transformations optimales de telles densit´es de ce cˆot´e. De l’autre cˆot´e du mode, l’utilisation d’une forme lin´eaire est possible avec π(c) = 1− F (M) (voir Figure 3.12). Pour r´esumer, si nous supposons que F (M ) est connue, alors selon le th´eor`eme 5 sur la d´eriv´ee seconde de p une distribution de possibilit´e plus informative, dont les coupes contiennent les intervalles de pr´edictions des densit´es de mode M ayant de telles caract´eristiques, peut ˆetre calcul´ee.