Les chaînes de Markov
Texte intégral
Documents relatifs
Le premier jour suivant cette bonne résolution (jour 0), il ne fume pas. On suppose que la probabilité qu’il fume le jour j + 1 s’il n’a pas fumé le jour j est α, et que
(11) On modifie maintenant le problème : A chaque instant, on tire un nombre i uniformément entre 1 et d, et la balle numéro i change alors d’urne avec probabilité?. d+1 (et
On modifie la chaîne en introduisant la possibilité de mutations : avant le passage à la n + 1ème génération, chaque individu a une probabilité de muter : les individus A ont
On appelle graphe d’une chaîne de Markov (ou d’une matrice de transition ) le graphe dont les sommets sont les états possibles et étant donné x, y ∈ E, il y a une flèche de x
— Si la classe est transiente, la chaîne s’échappe “à l’infini” en temps long, voir exercice 5, donc asymptotiquement elle n’est nulle part en particulier (ex :
Le comportement d’une chaîne de Markov X dépend entièrement de sa ma- trice de transition Q, et de la position initiale X 0.. Mesure et notations Toutes les mesures que l’on va
Définition 1. Formellement, soit E un espace fini ou dénombrable. Ce sera l’espace d’états. Si Q est la matrice de transition d’une chaîne de Markov, alors elle est
3. Montrer que la chaîne est irréductible récurrente positive... b) Donner des exemples de graphes ou la chaîne est récurrente mais pas récurrente positive, et ou la chaîne de