• Aucun résultat trouvé

1.1.5.1 Statut des graphes bay´esiens

Dans un r´eseau bay´esien (G, p) sur un ensemble de variables V, G et p sont compatibles. On peut donc consid´erer que G indique un ensemble de parents markoviens de chacune des variables de V pour p et pour tout ordre strict sur V qui s’accorde avec G – et c’est d’ailleurs sur cette lecture qu’est fond´ee l’analyse du paragraphe pr´ec´edent. Cette information peut ˆetre ais´ement exprim´ee sous la forme d’une affirmation portant sur le seul p. Nous le montrons dans un cas particulier.

Consid´erons un ensemble {A, B, C, D, E} de cinq variables binaires de valeurs respectives a1 et a2, b1 et b2, . . . , e1 et e2, et un r´eseau bay´esien sur

cet ensemble d´efini par : 1. le graphe G suivant : A ✟✟✟✟ ✯ B ❍❍ ❍❍❥ C ✟✟✟✟ ✯ ❍❍ ❍❍❥ D ✲ E

2. la sp´ecification des probabilit´es conditionnelles suivantes (dont on a vu qu’elles suffisent `a d´eterminer compl`etement p en pr´esence de G) :

p(ai) pour 1 ≤ i ≤ 2

p(bi|aj) pour 1 ≤ i, j ≤ 2

p(ci|aj) pour 1 ≤ i, j ≤ 2

p(di|bj, ck) pour 1 ≤ i, j, k ≤ 2

p(ei|dj) pour 1 ≤ i, j ≤ 2

L’information dont G est porteur dans ce contexte peut ˆetre exprim´ee par l’expression linguistique suivante : « pour tout ordre strict < sur {A, B, C, D, E} tel que A < B, A < C, B < D, C < D et D < E, une suite de parents markoviens pour p et < des variables (A, B, C, D, E) est (∅, {A}, {A}, {B, C}, {D}) ». Plus g´en´eralement, il est donc bien tou- jours possible d’exprimer dans le langage naturel l’information dont un graphe bay´esien est porteur. Cette information n’exige ni une repr´esentation r´eticulaire, ni mˆeme une repr´esentation graphique. L’exemple par lequel nous illustrons ce fait montre en outre que la repr´esentation de cette information par une expression du langage naturel peut toujours ˆetre men´ee `a bien en sui- vant une proc´edure m´ecanique tr`es simple ; sa repr´esentation graphique est donc toujours dispensable en fait. Or, c’est en tant que les graphes bay´esiens sont porteurs de cette information que les r´eseaux bay´esiens peuvent servir `a d´efinir de fa¸con ´economique les distributions de probabilit´es. La question de ce `a quoi les r´eseaux bay´esiens servent se pose donc `a nouveaux frais, en mˆeme temps qu’elle se pr´ecise. Il s’agit en effet maintenant de savoir `a quoi servent les graphes bay´esiens.

1.1.5.2 A quoi servent les graphes bay´esiens ?

Nous envisageons deux r´eponses `a la question que nous posons ici. Se- lon la premi`ere, l’information dont un graphe bay´esien est porteur est plus facilement appr´ehend´ee si elle est repr´esent´ee sous cette forme graphique plutˆot que par une expression dans le langage naturel. Cette r´eponse nous semble `a la fois facile `a accepter et difficile `a justifier ; nous ne nous y attar- dons pas. Selon la seconde r´eponse que nous envisageons, la repr´esentation graphique de l’information exprim´ee par le graphe G d’un r´eseau bay´esien (G, p) sur V rend visibles des propri´et´es non triviales de p. Le th´eor`eme 1.1 indique en effet que la d -s´eparation dans G constitue un crit`ere n´ecessaire et suffisant d’ind´ependance probabiliste pour toute distribution de probabi- lit´es compatible avec G – et donc en particulier pour p. Sur G, on lit toutes les ind´ependances probabilistes pour p – relatives ou non – qui d´ecoulent de l’information relative `a p que G repr´esente.

1.1. Pr´esentation des r´eseaux bay´esiens 33

construction qui intervient dans la r´esolution du probl`eme suivant : ´etant donn´es un ensemble de variables al´eatoires V, un ordre strict < et une distri- bution de probabilit´es p sur V, quelles sont les ind´ependances probabilistes qui d´ecoulent de la donn´ee d’une suite PM d’ensembles de parents marko- viens des variables de V pour p et < ?

Bien sˆur, on pourrait identifier toutes les ind´ependances de ce type sans recourir `a un graphe G repr´esentant p. On raisonnerait sur les ind´ependances probabilistes en prenant pour pr´emisses les ind´ependances probabilistes dont PM nous informe explicitement et pour r`egles d’inf´erence les propri´et´es de la relation ternaire d’ind´ependance probabiliste relative – dont les princi- pales sont bien connues.18 Pour tout triplet (W, X, Y) de sous-ensembles

de V, une d´emonstration de ce type permet d’´etablir, si c’est le cas, que les ind´ependances probabilistes dont PM nous informe explicitement im- pliquent que W est ind´ependant de X relativement `a Y. Toutefois, une telle d´emonstration ne permet pas d’´etablir qu’une ind´ependance probabiliste ne d´ecoule pas des ind´ependances probabilistes explicitement v´ehicul´ees par la donn´ee de PM. En outre, mˆeme dans le cas favorable o`u il y a effectivement ind´ependance probabiliste, une d´emonstration `a partir des ind´ependances v´ehicul´ees par PM et des propri´et´es de l’ind´ependance probabiliste consiste en des inf´erences qui peuvent ˆetre nombreuses et qu’il peut ˆetre difficile d’identifier et fastidieux de mettre en oeuvre.

A l’inverse, le recours `a un graphe G repr´esentant p permet, pour tout triplet (W, X, Y), de d´eterminer si les ind´ependances probabilistes donn´ees impliquent ou non que W et X sont ind´ependants relativement `a Y. La d´emonstration proprement dite de la r´eponse `a cette question est r´eduite `a la portion congrue une fois G connu : elle consiste en effet tout enti`ere dans la lecture de la d -s´eparation ou non de X et Y par Z dans G. Ainsi, pour reprendre l’exemple de la suite de lancers d’un d´e, on lit sur G2 les

ind´ependances et les d´ependances probabilistes relatives pour p. A titre d’illustration, il apparaˆıt sur G2 que, pour p, W est ind´ependant de Z re-

lativement `a {X, Y }. Il apparaˆıt `a l’inverse qu’il existe une distribution de probabilit´es compatibles (qui n’est pas forc´ement p) avec G2 pour laquelle X

et Z ne sont pas ind´ependants relativement `a Y .

Il est apparu que les r´eseaux bay´esiens, consid´er´es dans cette premi`ere section comme des objets formels, permettent de d´efinir de fa¸con ´economique une distribution de probabilit´es sur un ensemble fini de variables al´eatoires susceptibles de prendre chacune un nombre fini de valeurs. Cette propri´et´e ne d´epend que de la repr´esentation par tout graphe bay´esien G d’un r´eseau (G, p)

18

Sur ce point, voir par exemple Williamson (2005) pp. 16, Pearl (2000) p. 11, Spohn (1994).

d’une certaine information relative `a p. Cette information peut toujours ˆetre repr´esent´ee sans recourir `a G, mais sa repr´esentation par G non seulement la rend plus facile `a appr´ehender, mais encore rend apparentes les r´eponses `a une classe de questions relatives aux ind´ependances probabilistes pour p.

Ces propri´et´es, toutefois, sont rarement mobilis´ees pour elles-mˆemes. En effet, le recours aux r´eseaux bay´esiens se fait presque toujours en r´ef´erence `a une interpr´etation – c’est-`a-dire, plus pr´ecis´ement, `a une interpr´etation des fl`eches qui figurent dans les graphes qui composent les r´eseaux bay´esiens. Les interpr´etations envisagables sont multiples. En tant qu’elle s’attache aux propri´et´es de l’objet formel, la pr´esentation des r´eseaux bay´esiens que nous avons propos´ee dans cette premi`ere section permet de rendre compte de ces interpr´etations multiples. Cela n’implique ´evidemment pas que nous nous apprˆetons `a les discuter chacune `a son tour. Positivement, nous concen- trons notre attention sur l’interpr´etation causale des r´eseaux bay´esiens. La deuxi`eme section de ce chapitre est consacr´ee `a expliquer le rapport qui existe entre les r´eseaux bay´esiens et la causalit´e.