• Aucun résultat trouvé

Fiche 2 – Chaînes de Markov

N/A
N/A
Protected

Academic year: 2022

Partager "Fiche 2 – Chaînes de Markov"

Copied!
4
0
0

Texte intégral

(1)

Université Paris 13, Institut Galilée MACS 2 – Probabilités Année universitaire 2012-2013

Fiche 2 – Chaînes de Markov

Définition, modélisation

Exercice 1 – Formalisme matriciel. Soit(Xn)n≥0 une chaîne de Markov surE={x1, x2, . . . , xN}, de loi initialeν et de matrice de transitionP, etf :E→Rbornée.

1. En termes matriciels, comment s’exprime la loi deX1? deXn?Assimiler les lois à des vecteurs-lignes 2. En termes matriciels, comment s’exprimeEν[f(X0)]?Eν[f(Xn)]?Assimilerf à un vecteur-colonne

Exercice 2. Dans un service administratif, on traite un dossier par jour. Par ailleurs, chaque jour arrivent zéro, un ou deux nouveaux dossiers avec probabilitésp0,p1 et p2 respectivement, où p0+p1+p2 = 1.

On noteXn le nombre de dossiers restant à traiter le journ. Expliciter la modélisation de(Xn)n par une chaîne de Markov.

Exercice 3 – Météo. À partir d’observations, un météorologue choisit de représenter le comportement journalier du temps par une chaîne de Markov à trois états :E ={beau,nuageux,couvert}, de matrice de transition

P =

0.6 0.3 0.1 0.3 0.5 0.2 0.1 0.2 0.7

.

S’il fait beau aujourd’hui, quelle est la probabilité que le ciel soit couvert dans 2 jours ? Nuageux dans 4 jours ?

Exercice 4 – Chaîne à deux états. Pourp, q∈[0,1], on considère la chaîne sur{0,1} de matrice de transition

Q=

1−p p q 1−q

. 1. Montrer que, sip+q >0, alors, pour toutn∈N,

Qn= 1 p+q

q p q p

+(1−(p+q))n p+q

p −p

−q q

.

2. En déduirelimnQn.

3. On supposeP(X0= 1) =α. CalculerP(X0= 1|X1= 1).

Classification des états, récurrence et transience, absorption

Exercice 5. Soit une chaîne de Markov surE={0,1,2} telle que

P0(X1= 0) =P0(X1= 1) = 13 P1(X1= 0) =P1(X1= 2) = 12

P2(X1= 2) = 1.

1. Donner le schéma de la matrice de transition de la chaîne. Classifier les états.

2. Déterminer la loi du tempsτ0= inf{n≥1|Xn= 0}, partant de 0, 1 et 2.

1

(2)

Exercice 6. Pour les chaînes des Markov suivantes, donner une classification des états. Calculer le cas échéant les probabilités d’absorption.

1.E={0,1,2} et

Q=

1/2 1/2 0 1/3 1/3 1/3 1/3 0 2/3

2.E={0,1,2,3}et

Q=

1/2 0 1/2 0

1/2 0 0 1/2

1/2 0 1/2 0

0 1/2 0 1/2

3.E={0,1,2,3} et

Q=

1/4 1/4 1/4 1/4 0 1/4 3/4 0 0 1/2 1/2 0 1/4 0 1/4 1/2

4.E={0,1,2,3,4,5} et

Q=

1/4 1/4 0 1/4 0 1/4

0 1/2 1/2 0 0 0

0 1/2 0 1/2 0 0

0 0 1/2 1/2 0 0

0 0 0 0 1/2 1/2

0 0 0 0 1 0

Exercice 7. Soit(Xn)n une chaîne de Markov surE={1,2,3,4,5,6,7} de matrice de transition

P =

0 0.5 0.5 0 0 0 0

0.3 0.7 0 0 0 0 0

0 1 0 0 0 0 0

0.25 0 0.25 0.25 0 0 0.25

0 0 0 0 0.7 0.3 0

0 0 0 0 0.2 0.8 0

0.2 0 0 0.2 0.6 0 0

 .

1. Classifier les états.

2. Déterminer la probabilité d’absorption dans les diverses classes récurrentes si la chaîne part d’un état transient.

Exercice 8 – Défauts de fabrication. La fabrication d’une pièce nécessite trois étapes successives, notées 1,2 et 3. Après chaque étape i, elle est testée et, selon qu’elle est jugée bonne (probabilité pi), légèrement défectueuse (probabilitéqi) ou irrécupérable (probabilitéri), elle passe à l’étapei+ 1(l’état 4 représentant celui de la pièce achevée), repasse l’étapeiou est jetée (état 5). On supposepi, qi, ri >0 et bien entendupi+qi+ri= 1.

1. On noteXnl’état d’une pièce au tempsn. Montrer que(Xn)n est une chaîne de Markov et déterminer sa matrice de transition.

2. Représenter le graphe associé à cette chaîne et classer les états.

3. Déterminer les probabilités d’absorption et donner leur interprétation dans le modèle.

Exercice 9 – Marche aléatoire surN absorbée en 0. Étant donnée une suite de réels(pi)i≥1dans ]0,1[, on définit une chaîne de Markov(Xn)n surNdont les probabilités de transition sont données par la figure suivante :

1

p

i

1 − p

i

0 i − 1 i i + 1

1. Classer les états. Quels comportements asymptotiques peut-on imaginer pourXn? 2. Si on avaitp(0,1)>0, pourrait-on faire la classification sans connaître lespi?

2

(3)

Probabilité invariante, périodicité, théorèmes limites

Exercice 10. On considère surE={0,1,2} la chaîne de Markov de matrice de transition

Q=

1/3 0 2/3 1/2 0 1/2 0 1/2 1/2

.

Décrire la nature de la chaîne. Existe-t-il une probabilité invariante ? Que vautlimnQn(1,1)?

Exercice 11. Pour les chaînes de Markov suivantes, montrer qu’elles sont récurrentes irréductibles et déterminer leur période.

1.E={0,1,2} et

Q=

0 0 1

1 0 0

1/2 1/2 0

2.E={0,1,2,3,4} et

Q=

0 1/3 2/3 0 0 0 0 0 1/4 3/4 0 0 0 1/4 3/4

1 0 0 0 0

1 0 0 0 0

Exercice 12 – Météo (suite). On reprend l’énoncé de l’exercice 3.

1. Montrer que la chaîne est irréductible et apériodique. Calculer la probabilité stationnaire de cette chaîne.

2. Quelle est la proportion de belles journées (calculée sur une longue période de temps) ?

Exercice 13. Soitp∈]0,1[. On note(Xn)n la chaîne de Markov homogène surNdéfinie par : pour tout k∈N,

P(X1=k+ 1|X0=k) =p= 1−P(X1= 0|X0=k).

1. Calculer la loi du temps de retourτ0sousP0. 2. Montrer que la chaîne est récurrente irréductible.

3. Montrer qu’il existe une unique probabilité invariante pour cette chaîne et la calculer.

Exercice 14. On considère la chaîne de Markov d’espace d’étatsE={1,2,3,4}de matrice de transition

P =

0 1 0 0

1

2 0 14 14

1 2

1

2 0 0

0 0 1 0

 .

1. Montrer qu’elle est irréductible et récurrente.

2. Quelle est sa probabilité invariante ? 3. Quelles sont les limites p.s. de 1nPn−1

k=0Xk et n1Pn−1

k=0Xk2 lorsquen→ ∞?

3

(4)

Exercice 15. Soit(Xn)n≥0 une chaîne de Markov surNde matrice de transitionP donnée par P(x, x+ 1) =p P(x, x−1) =q six∈N

P(0,0) =α P(0,1) = 1−α.

oùp+q= 1et 0< p <1,0≤α≤1.

1. Spécifier la ou les classes de communication (attention au casα= 1). Étudier la périodicité des états.

On suppose α <1.

2. Démontrer par le calcul l’existence d’une mesure invarianteν. Étudier suivant la valeur deple problème d’existence et d’unicité d’une probabilité invariante. En déduire, pourp < q, la nature des états.

3. Soita, bdes entiers tels que0≤a < b. On note, pour tout x∈ {a, . . . , b}, fa,b(x) =Pxb< τa).

3.a)Trouver une relation de récurrence pourfa,b, et en déduire les expressions suivantes : sip6=q,

fa,b(x) =

q p

a

qp

x q

p

a

qp

b

et sip=q(= 1/2),

fa,b(x) =x−a b−a.

3.b)En déduire la valeur de f(x) =f0,∞(x) =Px0 =∞) quandp≥q, et conclure quant à la nature de la chaîne de Markov.On pourra justifier que f(x) = limb→∞f0,b(x).

4. Dans le cas oùp < q, justifier la convergence presque-sûre sousPx de la suite de terme général

un= 1 n

n

X

i=1

exp(−aXi)

poura >0 quelconque.

On suppose α= 1.

5. Quelle est la nature des états ?

6. Soitx, y∈N. Que dire de la convergence de la suite de terme généralPn(x, y)? Préciser, s’il y a lieu, sa limite.

4

Références

Documents relatifs

4. Dans cette question, on suppose que le petit Nicolas choisit à chaque tour son manège au hasard, équiprobablement, et indépendamment des tours précédents... a) Exécuter

Dans le paragraphe 1, nous montrons, pour ces probabilités de transi- tion, l’existence d’une probabilité invariante y et un théorème ergodique. Dans le

Ces divers résultats sont inclus dans un théorème d’Orey [9] qui considère pour ~ l’ensemble des indicateurs d’une classe plus vaste (cf.. Nous revenons constamment

Dans la 3 e partie, on étudie le cas particulier des processus à résol- vante fortement fellerienne. Dans le cas transient, le temps de séjour dans tout compact est alors

[r]

On modifie la chaîne en introduisant la possibilité de mutations : avant le passage à la n + 1ème génération, chaque individu a une probabilité de muter : les individus A ont

Processus Markoviens Dé…nitions Exemple 1 Graphe de transition Proc non markovien Exemple 2 Distribution Classi…cation des états Probabilités d’absorption Loi

b) Pour chacune de ces chaînes de Markov, tracez le graphe de transition et classi…ez tous les états de la chaîne (stable ou instable, absorbant, récurrent ou transitoire et