Les r´eseaux bay´esiens sont des couples compos´es d’un graphe orient´e acy- clique et d’une distribution de probabilit´es, d´efinis sur un mˆeme ensemble de variables, et qui entretiennent un certain rapport. D´efinir compl`etement les r´eseaux bay´esiens requiert donc en premier lieu d’introduire des notions de th´eorie des graphes d’une part et des notions probabilistes d’autre part. Nous le faisons dans l’appendice au pr´esent chapitre. Les d´efinitions que nous donnons dans cet appendice, ainsi que la terminologie que nous y introdui- sons, sont usuelles. Mais d´efinir les r´eseaux bay´esiens, c’est ensuite et surtout d´efinir le rapport qu’entretiennent les deux ´el´ements du couple qu’un r´eseau bay´esien compose. C’est sur ce point que nous nous concentrons dans le corps du chapitre.
Notations. Dans la suite de la pr´esente sous-section, V ={V1, V2, . . . , Vn}
est un ensemble fini de variables al´eatoires dont chacune admet un nombre de valeurs fini.8
< est un ordre strict sur V. On suppose que les indices des variables de V correspondent `a leur ordonnancement pour < : V1 < V2 < . . . < Vn.
p une distribution de probabilit´es sur V et G un graphe orient´e acyclique sur V.
La notion `a d´efinir est celle de r´eseau bay´esien (G, p) sur V. Mais avant d’en arriver l`a, et pour que la d´efinition ´enonc´ee fasse sens, il convient toutefois de d´efinir la notion – uniquement probabiliste – de parent markovien.
1.1.2.1 Parents markoviens d’une variable
D´efinition 1.1 (Parents markoviens) Soit Vi une variable de V.
Un ensemble PMi de parents markoviens de Vi pour p et < dans V est
sous-ensemble de V minimal parmi ceux qui ont les propri´et´es suivantes : – tous les ´el´ements de PMi sont des pr´ed´ecesseurs de Vi pour < ;
– Vi est ind´ependant pour p de {V1, V2, . . . , Vi−−1}\ PMi relativement `a
PMi.
8
Tous les ensembles de variables al´eatoires que nous consid´ererons sont finis et tels que chaque variable est discr`ete et peut prendre un nombre fini de valeurs. Nous ne connais- sons pas de travaux dans lesquels l’une ou l’autre de ces restrictions est lev´ee. Nous ne mentionnerons plus ces restrictions dans la suite.
Pour le dire autrement et de mani`ere plus imag´ee, les variables de PMi
suffisent exactement `a rendre les autres variables de {V1, . . . , Vi−1} non per-
tinentes pour la probabilit´e des valeurs de Vi. De fa¸con similaire, dans une
chaˆıne de Markov, un ´etat suffit `a rendre non pertinents tous les ´etats qui le pr´ec`edent relativement `a l’´etat qui lui succ`ede imm´ediatement. On comprend alors l’utilisation de l’adjectif « markovien » dans le contexte auquel nous nous r´ef´erons.
A titre d’illustration, on peut consid´erer une suite infinie de lancers ind´ependants d’un d´e ´equilibr´e et d´efinir quatre variables W , X, Y et Z, dans cet ordre, dont les valeurs varient avec le lancer consid´er´e de la fa¸con suivante : pour le n-i`eme lancer,
W prend pour valeur le r´esultat du n + 1-i`eme lancer ;
Xprend pour valeur la somme des r´esultats des n-i`eme et n+1-i`eme lancers ; Y prend pour valeur le r´esultat du n + 2-i`eme lancer ;
Z prend pour valeur la somme des r´esultats des n-i`eme, n + 1-i`eme et n + 2- i`eme lancers.
Sous ces d´efinitions, la valeur de Z ne d´epend que des valeurs que prennent X et Y . Z est donc ind´ependant de W relativement `a {X, Y }. D’un autre cˆot´e, la valeur de Z ne d´epend ni de celle de X seul, ni de celle de Y seul ; Z n’est ni ind´ependant de {Y, W } relativement `a X, ni ind´ependant de {X, W } relativement `a Y . {X, Y } est donc un ensemble de parents markoviens de Z pour l’ordre que nous avons adopt´e et la distribution de probabilit´es p sur {W, X, Y, Z}9. On remarquera que c’est le seul.
L’id´ee qui conduit des parents markoviens aux r´eseaux bay´esiens est la sui- vante : repr´esenter les ensembles de parentalit´e markovienne par des graphes orient´es acycliques. Plus pr´ecis´ement, la repr´esentation consiste `a faire des parents markoviens d’une variable, ses parents dans un graphe orient´e acy- clique. Pour donner forme rigoureuse `a cette id´ee – et donc d´efinir les r´eseaux bay´esiens –, deux concepts doivent encore ˆetre introduits : d’abord celui d’ac- cord entre un ordre strict et un graphe orient´e acyclique d´efinis sur le mˆeme ensemble de variables, et ensuite celui de repr´esentation d’une distribution de probabilit´es par un graphe orient´e acyclique.
1.1.2.2 Accord d’un ordre strict avec un graphe orient´e acyclique D´efinition 1.2 (Accord de < avec G) < s’accorde avec G si :
pour tout Vi et Vj de V, si Vi est un ancˆetre de Vj, alors Vi < Vj.
9
La question de l’interpr´etation des probabilit´es n’est pas pos´ee ici. Nous parlons de la distribution de probabilit´es « naturelle » sur cet ensemble, qu’on peut consid´erer comme des rapports entre les cas favorables et les cas possibles.
1.1. Pr´esentation des r´eseaux bay´esiens 23
« Ancˆetre » a ici le sens graphique d´efini dans la sous-section 1.4 de l’appen- dice au pr´esent chapitre : Vi est un ancˆetre de Vj dans G si et seulement s’il
existe un chemin orient´e de Vi `a Vj. A titre, maintenant, d’illustration, reve-
nons `a l’exemple introduit plus haut. Pour l’ordre sur {W, X, Y, Z} que nous avons consid´er´e dans le paragraphe pr´ec´edent, on trouve les trois graphes orient´es acycliques suivants parmi les graphes qui s’accordent avec lui :
W ✲X ✲Y ✲Z W ❍❍❥ X✟✟ ✯Y ✲Z W ✘✘✘✘✿✲X Y ❳❳❳❳③ Z G1 G2 G3
Cette liste n’est pas exhaustive. Pour donner une id´ee de tous les graphes qu’elle comprend, consid´erons le graphe suivant :
Y ❍❍❥ W✟✟
✯X ✲Z
G4
G4ne s’accorde pas avec l’ordre W < X < Y < Z parce que Y est un ancˆetre
de X dans G4.
1.1.2.3 Repr´esentation d’une distribution de probabilit´es par un graphe orient´e acyclique
D´efinition 1.3 (Repr´esentation de p par G) G repr´esente p si :
pour toute variable Vi de V, l’ensemble PA(Vi) des parents graphiques de Vi
constitue un ensemble de parents markoviens de Vi relativement `a p et `a tout
ordre strict sur V qui s’accorde avec G.
Quand G repr´esente p, on dit aussi que G et p sont compatibles, ou encore que p est markovienne relativement `a G.
Revenons, maintenant, `a l’exemple introduit un peu plus haut. Nous avons vu que, pour l’ordre strict que nous avons consid´er´e et la distribu- tion de probabilit´es sur {W, X, Y, Z}, un ensemble de parents markoviens de Z est {X, Y }. Par ailleurs il nous semble clair qu’un ensemble de parents markoviens pour W est ∅, qu’un ensemble de parents markoviens pour X est
{W } et qu’un ensemble de parents markoviens pour Y est ∅10. D`es lors, la
distribution de probabilit´es p sur {W, X, Y, Z} est repr´esent´e par le graphe orient´e acyclique 2. de l’´enum´eration propos´ee dans le dernier paragraphe.
1.1.2.4 R´eseau bay´esien
D´efinition 1.4 (R´eseau bay´esien) Un r´eseau bay´esien sur un ensemble de variables V est un couple (G, p) tel que :
1. G est un graphe orient´e acyclique sur V ; 2. p est une distribution de probabilit´es sur V ; 3. G repr´esente p.
D’apr`es ce qui pr´ec`ede, le couple compos´e du graphe G2 ci-dessus et de la
distribution de probabilit´es sur {W, X, Y, Z} est un r´eseau bay´esien.