Les deux r´esultats que nous pr´esentons dans cette sous-section sont fon- damentaux au moins au sens o`u ils portent sur la notion de repr´esentation d’une distribution de probabilit´es par un graphe qu’on trouve au fondement de la d´efinition 1.4 des r´eseaux bay´esiens.
1.1.3.1 Condition de Markov
Le premier des r´esultats que nous pr´esentons consiste dans une ´equivalence entre la repr´esentation d’une distribution de probabilit´es par un graphe et une autre condition, appel´ee « condition de Markov ». Ce r´esultat est le suivant :
Proposition 1.1 (Pearl, 1988) Soit V un ensemble de variables, G un graphe orient´e acyclique sur V et p une distribution de probabilit´es sur V. G repr´esente p si et seulement si chaque variable de V est ind´ependante pour p de tous ses non-descendants dans G relativement `a ses parents dans G.11
Ainsi que nous l’avons d´ej`a partiellement indiqu´e, on appelle « condi- tion de Markov parentale » ou plus simplement « condition de Markov » la condition n´ecessaire et suffisante de repr´esentation d’une distribution de probabilit´es par un graphe qui est ´enonc´ee dans la proposition 1.1 :
10
Dans tous les cas, l’ensemble de parents markoviens que nous donnons est en fait unique.
11
On convient qu’une variable n’appartient pas `a l’ensemble de ses non-descendants graphiques.
1.1. Pr´esentation des r´eseaux bay´esiens 25
D´efinition 1.5 (Condition de Markov) Soit V un ensemble de va- riables, G un graphe orient´e acyclique sur V et p une distribution de proba- bilit´es sur V.
Le couple (G, p) satisfait la condition de Markov si toute variable de V est ind´ependante de tous ses non-descendants dans G relativement `a l’ensemble de ses parents dans G.
´
Etant ´equivalente `a la condition de repr´esentation mobilis´ee dans la d´efinition 1.4, elle peut lui ˆetre substitu´ee pour produire une d´efinition alternative des r´eseaux bay´esiens.12 La condition de Markov fait l’objet d’une grande partie
des discussions contemporaines portant sur les r´eseaux bay´esiens en g´en´eral et les r´eseaux bay´esiens causaux en particulier.
1.1.3.2 d-s´eparation
Le second des r´esultats que nous pr´esentons dans cette sous-section ex- plore la correspondance entre un graphe orient´e acyclique et les distributions de probabilit´es qu’il repr´esente.
d-s´eparation d’un chemin.
D´efinition 1.6 (d -s´eparation d’un chemin) Dans un graphe orient´e acyclique G sur un ensemble de variables V, un chemin c est d-s´epar´e par un sous-ensemble W de V si l’une des deux propositions suivantes est vraie : 1. c contient une chaˆıne Vi −→ Vj −→ Vkou une fourche Vi ←− Vj −→ Vk
telle que Vj appartient W ;
2. c contient une fourche invers´ee Vi −→ Vj ←− Vk telle que ni Vj, ni
aucun de ses descendants n’appartient `a W.
A titre d’illustration, notons les d-s´eparations suivantes dans les graphes G1,
G2 et G3 ci-dessus :
Dans G1, le chemin qui va de W `a Z est d-s´epar´e par {Y } en vertu du premier
disjoint de la clause 1.
Dans G3, le chemin entre X et Z est d-s´epar´e par {W, Y } en vertu du second
disjoint de la clause 1.
Dans G2, le chemin entre W et Y est d-s´epar´e par {X} en vertu de la clause
2.
12
La condition de Markov est utilis´ee pour d´efinir les r´eseaux bay´esiens par plusieurs auteurs. Voir par exemple Williamson (2005) pp. 14-16.
d-s´eparation de deux ensembles de variables. La d´efinition 1.6 donn´ee dans le paragraphe pr´ec´edent nous permet de d´efinir une relation ternaire de d -s´eparation entre ensembles de variables d’un graphe orient´e acyclique :
D´efinition 1.7 Soit un graphe orient´e acyclique G sur un ensemble de va- riables V et W, X et Y trois sous-ensembles de V.
Y d-s´epare W et X dans G si tout chemin d’une variable de W `a une variable de X est d-s´epar´e par Y.
Revenons, `a nouveau, `a notre exemple. Dans le graphe G2, {W } et {Y }
sont d-s´epar´es par {X} en vertu de ce qui a ´et´e mis en ´evidence dans le paragraphe p´ec´edent. Dans ce mˆeme graphe, on notera aussi – et entre autres – la d-s´eparation de {W, Z} par {X, Y }.
On notera que la notion de d -s´eparation, de mˆeme que celle d’ind´ependance probabiliste relative, est sym´etrique : Y d -s´epare W de X dans G si et seulement si Y d -s´epare X de W dans G.
Second r´esultat fondamental relatif aux r´eseaux bay´esiens. La no- tion de d -s´eparation entre ensembles de variables permet d’´enoncer une pro- pri´et´e importante de la correspondance entre un graphe orient´e acyclique et les distributions de probabilit´es qu’il repr´esente :
Th´eor`eme 1.1 (Verma et Pearl, 1988) Soit G un graphe acyclique orient´e sur un ensemble de variables V et soit W, X et Y trois sous- ensembles de V.
W et X sont d-s´epar´es par Y dans G si et seulement si W est ind´ependant de X relativement `a Y pour toute distribution de probabilit´es repr´esent´ee par G.
La d -s´eparation dans un graphe G correspond donc exactement `a l’ind´ependance probabiliste pour toutes les distributions de probabilit´es repr´esent´ees par G. Il en d´ecoule imm´ediatement que la d -s´eparation dans le graphe G d’un r´eseau bay´esien (G, p) implique l’ind´ependance probabi- liste pour p. Ainsi, la d-s´eparation dans le graphe G2 ci-dessus implique
l’ind´ependance probabiliste relative pour la distribution de probabilit´es p impliqu´ee par la description propos´ee pour la situation. Parce que (G2, p) est
un r´eseau bay´esien, la propri´et´e graphique de d-s´eparation dans G2 devient
un crit`ere d’ind´ependance probabiliste relative pour p.
Dans les deux sous-sections qui s’ach`event ici, nous avons d´efini les r´eseaux bay´esiens et pr´esent´e deux r´esultats fondamentaux les concernant.
1.1. Pr´esentation des r´eseaux bay´esiens 27
Arm´es de cela, nous pouvons revenir `a la question du traitement de l’incerti- tude. Plus g´en´eralement, nous pouvons maintenant en venir aux applications qu’autorise la notion de r´eseaux bay´esiens. En d’autres termes, nous en ve- nons maintenant aux utilisations des r´eseaux bay´esiens.