• Aucun résultat trouvé

Chapitre IX : Utilisation des matrices – Chaînes de Markov

N/A
N/A
Protected

Academic year: 2022

Partager "Chapitre IX : Utilisation des matrices – Chaînes de Markov "

Copied!
4
0
0

Texte intégral

(1)

Maths expertes – Chapitre 9 Page 1

Chapitre IX : Utilisation des matrices – Chaînes de Markov

I- Suites de matrices

1) Suites de matrices colonnes Définition 1 :

Soit 𝑛 un entier naturel.

On appelle suite de matrices colonnes, notée (𝑈 ), des matrices colonnes dont tous les coefficients sont des termes de suites numériques.

Exemple 1 :

La suite (𝑈 ) définie par 𝑈 = (−1) 𝑛 3𝑛 − 1

est une suite de matrices colonnes dont les coefficients sont des suites définies pour tout entier naturel 𝑛 par : 𝑢 = (−1) , 𝑣 = 𝑛 et 𝑤 = 3𝑛 − 1

Remarque 1 : On définit de la même façon les suites de matrices lignes.

Définition 2 :

On dit que la suite (𝑈 ) converge vers 𝐿 signifie que, pour chaque emplacement, la suite des coefficients de 𝑈 converge vers le coefficient de 𝐿 correspondant.

Exemple 2 :

1) Pour tout 𝑛 ∈ ℕ, 𝑈 = −2 × 0,4 − 3 3 × 0,4 + 1 La suite (𝑈 ) converge vers 𝐿 = −3

1 2) La suite (𝑈 ) définie par 𝑈 = (−1)

𝑛 3𝑛 − 1

diverge.

2) Suites de matrices définies par récurrence

Propriété 1 : Soit (𝑈 ) une suite de matrices colonnes telle que, pour tout 𝑛 ∈ ℕ, 𝑈 = 𝐴𝑈 où 𝐴 est une matrice carrée.

On a alors, pour tout 𝑛 ∈ ℕ, 𝑈 = 𝐴 𝑈 Exemple 3 : suites couplées

On considère deux suites (𝑢 ) et (𝑣 ) définies par 𝑢 = 1, 𝑣 = −2 et, pour tout 𝑛 ∈ ℕ, 𝑢 = 3𝑢 − 4𝑣

𝑣 = −𝑢 + 2𝑣

On définit les matrices : 𝐴 = 3 −4

−1 2 et, pour tout 𝑛 ∈ ℕ, 𝑈 = 𝑢 𝑣

L’écriture matricielle du système est donnée par : 𝑈 = 𝐴𝑈 et ainsi 𝑈 = 𝐴 𝑈 = 23 077

−9 009 Exemple 4 : suite récurrente linéaire d’ordre 2

On considère la suite (𝑢 ) définie par 𝑢 = −1, 𝑢 = 2 et, pour tout 𝑛 ∈ ℕ, 𝑢 = 3𝑢 − 2𝑢 On définit les matrices : 𝐴 = 0 1

−2 3 et, pour tout 𝑛 ∈ ℕ, 𝑈 = 𝑢 𝑢 L’écriture matricielle du système est donnée par : 𝑈 = 𝐴𝑈 …

(2)

Maths expertes – Chapitre 9 Page 2 Propriété 2 : Soit (𝑈 ) une suite de matrices colonnes telle que, pour tout 𝑛 ∈ ℕ, 𝑈 = 𝐴𝑈 + 𝐵.

Si (𝑈 ) est convergente, alors sa limite 𝑈 est une matrice colonne solution de l’équation matricielle 𝐴𝑈 + 𝐵 = 𝑈.

La matrice colonne 𝑈 ainsi définie est appelée état stable de la suite (𝑈 ).

Remarque 2 :

Si la matrice carrée 𝐼 − 𝐴 est inversible, alors il existe un état stable 𝑆 tel que 𝑆 = (𝐼 − 𝐴) 𝐵 II- Les chaînes de Markov

1) Graphe orienté pondéré

Définition 3 : Un graphe probabiliste est un graphe orienté et pondéré dans lequel : - Il y a au plus un arc d’un sommet à l’autre ;

- La somme des poids des arcs issus d’un même sommet est égale à 1.

Remarque 3 :

1) Les poids des arcs sont des probabilités (ce sont des nombres réels compris entre 0 et 1).

2) Un graphe probabiliste indique les différents états possibles d’une situation (par les sommets), ainsi que les probabilités de passer d’un état à un autre (par les poids des arcs).

Exemple 5 :

Le premier graphe est un graphe probabiliste d’ordre 2 et le deuxième est d’ordre 3.

Définition 4 : Soit G un graphe probabiliste d’ordre 𝑛 dont les sommets sont numérotés de 1 à 𝑛.

La matrice de transition 𝑀 de G est la matrice carrée d’ordre 𝑛 telle que 𝑚 est égale à la probabilité portée par l’arc reliant le sommet 𝑖 au sommet 𝑗 s’il existe et 0 sinon.

Exemple 6 : Les matrices de transition associées aux graphes de l’exemple précédent sont, en supposant les sommets classés dans l’ordre alphabétique :

𝑀 = 0,6 0,4

0,2 0,8 et 𝑀 = 0,1 0,1 0,8 0,05 0,5 0,45 0,05 0,05 0,9

Remarque 4 : La somme des termes appartenant à une même ligne vaut 1.

 

A B

>

<

>

<

0,6 0,8

0,2 0,4

(3)

Maths expertes – Chapitre 9 Page 3 2) Chaîne de Markov à 2 ou 3 états

Définition 5 :

On considère une suite de variables aléatoires (𝑋 ) permettant de modéliser l’évolution par étapes successives d’un système aléatoire comportant différents états (2 ou 3).

À l’étape 𝑛 = 0, la loi de probabilité 𝑋 s’appelle la distribution initiale du système.

À l’étape 𝑛, la loi de probabilité 𝑋 s’appelle la distribution après 𝑛 transitions.

Lorsqu’à chaque étape, la probabilité de transition d’un état à un autre ne dépend pas de 𝑛, on dit que la suite (𝑋 ) est une chaîne de Markov.

Exemple 7 : Une mouche se déplace entre les trois ampoules d’un feu tricolore.

Si elle est sur le orange, elle y reste dans 10% des cas ou se déplace sur le vert dans 80% des cas ou le rouge dans 10% des cas.

Si elle est sur le rouge, elle y reste dans 50% des cas ou se déplace sur le vert dans 45 % des cas ou le orange dans 5% des cas.

Si elle est sur le vert, elle y reste dans 90% des cas ou se déplace sur le orange ou le rouge dans 5%

des cas.

On note 𝑋 la variable aléatoire donnant la position de la mouche à l’étape 𝑛.

Au début de l’expérience, pour 𝑛 = 0, la mouche est sur le vert.

Ainsi 𝑃(𝑋 = 𝑉) = 1, 𝑃(𝑋 = 𝑂) = 𝑃(𝑋 = 𝑅) = 0

À chaque étape, la probabilité pour la mouche de se déplacer vers l’une des ampoules ne dépend pas de 𝑛 mais seulement de sa position précédente donc la suite (𝑋 ) est une chaîne de Markov.

On lui associe le deuxième graphe de l’exemple 5 et la matrice de transition 𝑀 . 3) Chaîne de Markov et suite de matrices

Propriété 3 :

On considère une chaîne de Markov à 2 (respectivement à 3) états et 𝑃 la matrice de transition associée.

Soient 𝑛, 𝑖 et 𝑗, 3 entiers naturels tels que 𝑛 ≥ 1, 1 ≤ 𝑖 ≤ 2 et 1 ≤ 𝑗 ≤ 2 (resp. 1 ≤ 𝑖 ≤ 3 et 1 ≤ 𝑗 ≤ 3).

La probabilité de passer de l’état 𝑖 à l’état 𝑗 en 𝑛 étapes est égal au terme de la ième ligne et jème colonne de la matrice 𝑃 .

Exemple 8 : Dans un pays, les clients ont le choix entre deux opérateurs téléphoniques A et B.

Chaque année, 40% des clients de A changent pour l’opérateur B et 20% des clients de B vont vers A.

Cette situation peut être modélisée par le premier graphe de l’exemple 5.

La matrice de transition est 𝑀 = 0,6 0,4 0,2 0,8 .

Pour calculer la probabilité de passer de l’état 1 (A) à l’état 2 (B) en 3 étapes (années), on calcule 𝑀 : 𝑀 = 0,6 0,4

0,2 0,8 = 0,376 0,624 0,312 0,688

Définition 6 :

On considère une chaîne de Markov à 2 états (resp. 3) et 𝑃 sa matrice de transition.

On note 𝑈 la matrice ligne à 2 colonnes (resp. 3) dont le terme de la jème colonne est la probabilité qu’à l’étape n, la variable aléatoire 𝑋 soit égale à j.

Autrement dit : 𝑈 = (𝑃(𝑋 = 1) 𝑃(𝑋 = 2)) (resp. (𝑃(𝑋 = 1) 𝑃(𝑋 = 2) 𝑃(𝑋 = 3)))

Remarque 5 : La matrice 𝑈 représente la distribution initiale et la matrice 𝑈 la distribution après 𝑛 transitions.

(4)

Maths expertes – Chapitre 9 Page 4 Propriété 4 :

Pour tout entier naturel 𝑛 ≥ 1, 𝑈 = 𝑈 × 𝑃 et 𝑈 = 𝑈 × 𝑃 .

S’il existe un entier 𝑛 tel que la matrice 𝑃 ne contient pas de 0 alors la suite (𝑈 ) converge vers la matrice 𝑈 vérifiant 𝑈 = 𝑈𝑃 et cette limite ne dépend pas de 𝑈 .

On dit que la matrice 𝑈 représente la distribution invariante du système.

Remarque 6 :

1) Attention à l’ordre des matrices dans le produit.

2) 𝑃 ne contient pas de 0 signifie qu’en 𝑛 étapes, on peut passer de n’importe quel état à n’importe quel autre.

3) Cas particulier : si la matrice 𝑃 ne contient pas de 0, alors la suite (𝑈 ) converge.

Exemple 9 : Dans l’exemple des opérateurs téléphoniques, résolvons le système 𝑈 = 𝑈𝑀 : (𝑥 𝑦) = (𝑥 𝑦) 0,6 0,4

0,2 0,8 ⇔ (𝑥 𝑦) =⇔ 𝑥 = 0,6𝑥 + 0,2𝑦

𝑦 = 0,4𝑥 + 0,8𝑦(0,6𝑥 + 0,2𝑦 0,4𝑥 + 0,8𝑦)

⇔ 𝑥 = 0,6𝑥 + 0,2𝑦

𝑦 = 0,4𝑥 + 0,8𝑦 ⇔ 0,4𝑥 − 0,2𝑦 = 0 0,4𝑥 − 0,2𝑦 = 0

Les deux équations sont identiques, on ajoute l’équation 𝑥 + 𝑦 = 1 (logique au vu de la situation) 0,4𝑥 − 0,2𝑦 = 0

𝑥 + 𝑦 = 1 ⇔ 𝑦 = 2𝑥 3𝑥 = 1 ⇔

𝑦 =2 3 𝑥 =1 3 La distribution invariante est .

La matrice de transition ne contient pas de 0 donc les distributions de probabilités convergent vers cette distribution invariante.

Ainsi, à terme, la probabilité de choisir l’opérateur A se rapproche de 1/3 et celle de choisir B se rapproche de 2/3.

Références

Documents relatifs

4. Dans cette question, on suppose que le petit Nicolas choisit à chaque tour son manège au hasard, équiprobablement, et indépendamment des tours précédents... a) Exécuter

(11) On modifie maintenant le problème : A chaque instant, on tire un nombre i uniformément entre 1 et d, et la balle numéro i change alors d’urne avec probabilité?. d+1 (et

On modifie la chaîne en introduisant la possibilité de mutations : avant le passage à la n + 1ème génération, chaque individu a une probabilité de muter : les individus A ont

On appelle graphe d’une chaîne de Markov (ou d’une matrice de transition ) le graphe dont les sommets sont les états possibles et étant donné x, y ∈ E, il y a une flèche de x

— Si la classe est transiente, la chaîne s’échappe “à l’infini” en temps long, voir exercice 5, donc asymptotiquement elle n’est nulle part en particulier (ex :

Le comportement d’une chaîne de Markov X dépend entièrement de sa ma- trice de transition Q, et de la position initiale X 0.. Mesure et notations Toutes les mesures que l’on va

Processus Markoviens Dé…nitions Exemple 1 Graphe de transition Proc non markovien Exemple 2 Distribution Classi…cation des états Probabilités d’absorption Loi

b) Pour chacune de ces chaînes de Markov, tracez le graphe de transition et classi…ez tous les états de la chaîne (stable ou instable, absorbant, récurrent ou transitoire et