• Aucun résultat trouvé

APPROCHE BAYESIENNE ET AGE AU DECES

A1 L’ APPROCHE BAYESIENNE : UN CONCEPT PROBABILISTE

Pour mieux appréhender ce concept, nous allons d’abord brièvement revenir sur les probabilités et leurs propriétés.

a) propriétés des probabilités (Phillips, 1973 ; Berry, 1996)

Nous parlons de la probabilité qu’un événement A soit vrai et sa probabilité est p(A).

U est le plus grand événement possible, p(U) est égal à 1. L’évènement le plus petit est vide, on le nomme ∅. Un événement certain se produit avec une probabilité de 1, mais la certitude est relative. ∅ est un événement impossible, mais il peut y avoir des évènements autres que U ou ∅ qui ont une probabilité de 0 ou 1.

! Loi 1 : Les probabilités ne peuvent pas être inférieures à zéro et supérieures à 1, la probabilité d’un événement certain étant égale à 1 : [0p(A)1 ; p(certain)=1].

! Loi 2 : Si un événement A et un événement B sont exclusifs , alors :

p(A ou B) = p(A) + p(B)

Un corollaire de la loi 2 est important. La probabilité d’un événement est égal à 1 moins le probabilité du complément de l’événement : p(A)=1–p(~A), ~A est le complément de A.

! Loi 3 : La probabilité que A et B se produisent ensemble est égal à la probabilité de A multiplié par la probabilité de B, selon A.

p(B et A) = p(A)×p(B)

Le corollaire de cette troisième loi est la suivante : la probabilité inconditionnelle de B est égal à la probabilité de A multipliée par la probabilité de B selon A, plus la probabilité de ~A multipliée par la probabilité de B selon ~A : p(B) = p(A)×p(BA) + p(~A )×P (B~A ).

Pour des événements indépendants : p(A et B) = p(A)×p(B)

b) définitions de la probabilité

Selon Berry (1996), il y a deux définitions du terme probabilité :

(1) La première est la probabilité à fréquences à long terme, « long term frequencies ». Les fréquences à long terme nécessitent une série d’expériences répétées. La probabilité d’un événement est le nombre de fois qu’il se produit par rapport au nombre total d’observations. Long terme signifie que le nombre total d’observations tend vers l’infini. Mais le calcul de séries infinies est impossible. Une probabilité est donc l’expression d’une proportion pour un nombre élevé mais pas infini d’observations.

(2) La seconde définition des probabilités est le degré de croyance, qui est intuitif .

La notion du degré de croyance regroupe deux éléments : le pari et les probabilités. Le pari est noté O et les probabilités P.

La probabilité qu’un événement se produise correspond au nombre de fois que vous supposez que l’événement se produise sur une série de tests. Le pari est défini comme la probabilité que l’événement se produise, divisé par la probabilité que l’événement ne se produise pas. La probabilité est comprise entre 0 et 1. Le pari peut aller de 0 à l’infini.

O(A)=1-P(A)/P(A) ou P(A)=1/1+O(A)

Une probabilité basée sur un degré de croyance est une estimation subjective concernant le fait que l’événement en question va se produire (ou s’est produit).

Le caractère unique qui distingue les statistiques bayésiennes des approches traditionnelles est la définition de la probabilité. La probabilité est le degré de croyance d’une personne sur une hypothèse, un événement ou une quantité incertaine. Cette définition contraste avec celle plus courante et traditionnelle, pour laquelle une probabilité est la limite d’une fréquence relative (Phillips, 1973). La règle de Bayes indique donc comment les probabilités changent à la

lumière de nouvelles évidences. Cette règle est fondamentale : les probabilités changent

quand de nouvelles données sont accessibles.

c) règle généralisée de Bayes

L'approche bayésienne est basée sur 3 concepts (Litton et Buck, 1995 ; Buck et al., 1996) : ! le concept de probabilité a priori : il réside dans l’utilisation d’informations préalables

(c’est-à-dire antérieures à l’étude des données récoltées) sur les valeurs possibles des inconnues, pour obtenir une distribution a priori des paramètres à mesurer dans le modèle décrit. La probabilité a priori est une expression mathématique que nous notons p(θ). ! le concept de vraisemblance : il représente le lien entre les paramètres à mesurer et les

données. C’est une fonction mathématique du paramètre reflétant les informations fournies par les données sur ce paramètre. En d’autres termes, la vraisemblance mesure la conformité entre les données et une valeur particulière du paramètre. La fonction est déterminée par la probabilité conditionnelle d’une donnée x sachant que le paramètre a une valeur particulière : p(x/θ).

! la probabilité a posteriori : elle est obtenue par la combinaison des données et des informations a priori, soit p(θ/x).

p(θ/x)= ) ( ) ( ) / ( x p p x p θ × θ

d) les fondements du théorème de Bayes (Demengel, 1997).

Soit E1, un système complet d’évènements et E2 un événement quelconque. P(Ei) est la

probabilité que Ei ait lieu (∀i∈{1…n}). En supposant que E2 se soit produit, P(E2) est la

probabilité que E2 ait lieu. P(Ei et E2) est la probabilité que Ei et E2 aient lieu simultanément. P(EiE2) est la probabilité conditionnelle de Ei sachant que E2 est réalisé.

On peut démontrer que :

P(Ei et E2)=P(E2Ei)×P(Ei) et P(E2 et Ei)=P(Ei E2)×P (E2) P(Ei et E2)=P(E2 et Ei)

On en déduit donc : P(E2Ei)×P(Ei) = P(EiE2)×P(E2)

De plus : P(E2) =

=

n

j 1

P(Ej)×P(E2Ej)

D’après le théorème de Bayes : P(EiE2)=

) 2 ( )] ( ) 2 ( [ E P Ei P Ei E P ×

sachant que P(E2)>0.

P(Ei) représente la probabilité a priori de Ei basée sur les données d’origine.

P(EiE2) représente la probabilité a posteriori de Ei sachant que E2 s’est produit.

P(E2Ei) est alors la vraisemblance de l’événement Ei sachant que E2 a eu lieu. On note la

vraisemblance l(Ei ; E2).

On constate que la probabilité a posteriori est proportionnelle à la vraisemblance, multipliée par la probabilité a priori. Si on remplace Ei par θ et E2 par x on obtient :

) ( ) ( ) / ( ) / ( x P P x P x P θ = θ× θ

P(x/θ)/P(x) est la vraisemblance standardisée.

e) étape des inférences statistiques (Berry, 1996) ! Spécifier une série de modèle

! Assigner une probabilité (a priori) à chaque modèle ! Collecter les données

! Calculer la vraisemblance de chaque modèle : P(données modèle)

! Utiliser la règle de Bayes pour calculer les probabilités a posteriori du modèle

! Procéder aux calculs, trouver les probabilités des modèles et prédire la prochaine observation

Si une théorie prédit la certitude d’observer une donnée et que la donnée est observée lors d’une expérience, la seule déduction que nous pouvons faire, est que l’expérience va dans le sens de la théorie. Mais nous ne pouvons rien dire sur le degré de cette relation jusqu’à ce que des théories alternatives aient été considérées. Quand on applique le théorème de Bayes, nous ne cherchons pas à trouver l’hypothèse la plus vraie, le théorème nous dit quelle hypothèse est la plus plausible (Phillips, 1973).

A2 - DIFFERENCE ENTRE LES METHODES STATISTIQUES TRADITIONNELLES ET L’APPROCHE