• Aucun résultat trouvé

Z Rx

0

X

z∈E

Px(Xs+t=y,Xs =z)ds

= Z Rx

0

X

z∈E

Px(Xs=y)Pzy(t)ds

= X

z∈E

Z Rx

0

Px(Xs=y)dsPzy(t) = (µP(t))y.

3.6 Cas irréductible récurrent

On se place dans le cas d’un processus {Xt, t≥0} irréductible récurrent. On va prou-ver dans cette section l’existence d’une unique probabilité invariante dans le cas particulier récurrent positif. Pour distinguer entre récurrence nulle et récurrence positive, on ne peut pas regarder seulement les propriétés de la chaîne incluse. On verra qu’il existe des proces-sus markoviens de sauts récurrents nuls dont la chaîne incluse est récurrente positive, et inversement.

Pour définir la récurrence positive ou nulle, on rappelle la notation du temps d’arreˆt Rx

qui représente le temps d’attente avant le premier retour à l’état x: Rx= inf{t≥T1 :Xt=x}.

Définition 19 On dit q’un état x ∈E est récurrent positif (resp. récurrent nul) si x est récurrent et s’il vérifie ExRx <+∞ (resp. ExRx= +∞).

A nouveau, comme dans le cas discret, si x ∈E est récurrent positif, alors tous les états sont récurrents positifs et le processus est dit récurrent positif. Dans ce cas, il existe une unique probabilité invariante.

Théorème 13 Soit {Xt, t ≥ 0} un processus markovien de sauts irréductible récurrent.

LASSE :

(i) x∈E est récurrent positif.

(ii) tous les états sont récurrents positifs.

(iii) il existe une unique probabilité invariante π.

3.6. CAS IRRÉDUCTIBLE RÉCURRENT 29 Dans ce cas, elle est donnée par

ExRx= 1

πxqx, x∈E.

Preuve (i)⇒(iii) Il suffit de remarquer que ExRx =X

y∈E

γyx qy.

Alors d’après le théorème précédent, puisque x est récurrent positif, on peut normaliser la mesure invariante pour obtenir une probabilité invariante, unique et strictement positive.

(iii)⇒(ii) Soit π probabilité invariante. Alors π est strictement positive (théorème précé-dent) et on a :

On a donc x récurrent positif puisque la chaîne est irréductible et que π est strictement positive. Cela étant vrai pour tout x, (ii) a lieu.

Remarque 3 Une mesure invariante π pour le processus markovien {Xt, t ≥ 0} vérifie πQ = 0. Cela implique que πq est invariante pour P, matrice de transition de la chaîne incluse. Réciproquement, si µest invariante parP, alorsµ(P−I) = 0et doncµq−1Q= 0.

Ainsi π est invariante pour (Xt) si et seulement si µ= πq est invariante pour la chaîne incluse. Il est alors facile de choisir q la matrice diagonale des temps de séjours en chaque état telle que (Xt) soit récurrente nulle et P récurrente positive, et vice-versa. Il faut pour cela jouer sur les temps de séjours en chaque point.

Dans le cas d’un processus irréductible récurrent positif, on peut énoncer le théorème ergodique de la manière suivante.

Théorème 14 Soit {Xt, t ≥ 0} un processus markovien de sauts irréductible récurrent positif. On note π sa probabilité invariante. Alors, pour f :E →Rbornée, on a :

1

Preuve D’après le Chapitre 1, il suffit de montrer le résultat pour f(y) = 1I(y =x) en travaillant sous Px. On noteNx(t) le temps de séjour en x de la chaîne jusqu’à l’instant t, et Txk les temps de séjour en x lors de lakième visite en x. Ainsi on a :

En effet, la suite de v.a.Txk étant i.i.d., d’après la loi des grands nombres, 1

Nx(t)

Nx(t)

X

k=1

Txk −−−−→p.s.

t→+∞ ExTx1 = 1 qx

.

De plus, en suivant la preuve du cas discret, on a :

Nx(t)−1

X

k=0

Sxk ≤t <

Nx(t)

X

k=0

Sxk,

où Sxk suite i.i.d. des temps des excursions entre deux retours à l’état x. En appliquant la loi des grands nombres, on a de la même manière :

t Nx(t)

−−−−→p.s.

t→+∞ ExRx = 1 πxqx

.

Dans le cas continu, la convergence en loi de Xt vers la probabilité invariante lorsque t→+∞ est vrai dans le cas irréductible récurrent positif, sans hypothèse supplémentaire.

Proposition 14 Soit {Xt, t ≥ 0} un processus markovien de sauts irréductible récurrent positif. On note π sa probabilité invariante. Alors, pour toute probabilité µ sur E, on a,

∀x∈E:

(µP(t))x →πx.

OG Rouge Ecole Centrale Marseille Année 2008-2009

Chaînes de Markov TD

Echauffement

1. Représenter les chaînes de Markov de matrices de transition

R= 2. Déterminer la matrice de transition du modèle d’Ehrenfest (Exemple 2 du cours).

Exercice 1 Soit(Xn)n∈Nune chaîne de Markov à valeurs dansE ={1,2,3,4,5,6}de matrice de

1. Déterminer les termes diagonaux deP.

2. Montrer queE est constitué de trois classes d’équivalence que l’on précisera, l’une T étant transitoire, et les deux autresR1etR2récurrentes.

3. Déterminer une probabilité invariante admettantR1comme support, et une probabilité in-variante admettantR2comme support. En déduire toutes les probabilités invariantes.

Exercice 2 Soit(Xn)n∈N une chaîne de Markov à valeurs dansE ={1,2,3,4,5}de matrice de

Déterminer les classes d’équivalences, les états transitoires et récurrents, et les mesures invariantes de(Xn).

Exercice 3 Soit (Xn)n∈N une chaîne de Markov à valeurs dans E. Soit xE. On note Nx = {nN: (Pn)xx>0}.

1. Montrer que si Nx contient deux entiers successifs, alors le PGCD des éléments de Nx est égal à 1.

2. Montrer que sin,n+ 1Nx, alors{n2,n2+ 1,n2+ 2, . . .} ⊂Nx.

3. Montrer que si le PGCD des éléments deNxest 1, alors il existenNtel que{n,n+1} ⊂Nx. 4. Conclure sur l’équivalence des deux définitions de l’apériodicité d’un étatx.

1

récurrente positive à valeurs dans E, de probabilité invariante π. On considère f : une fonction bornée. On veut déterminer la convergence suivante :

1

et que cette convergence a lieuPµp.s., pour toute loi initialeµ.

2. SoitF E. On notef¯=P

(b) En choisissantF fini tel queP

x /∈Fπx 4cǫ et en utilisant la partie 1., conclure.

Exercice 5 [Statistiques des chaînes de Markov] Le but de cet exercice est d’estimer la loi initialeµet la matrice de transitionP d’une chaîne de Markov(Xn)n∈N à partir des observations X0,X1, . . . Xn. Pour cela on se place dans le cas irréductible récurrent positif et on suppose queµ coïncide avec la probabilité invariante.

1. SoitxE. Proposer un estimateur consistant pourµx. 2. Soitx,yE.On considère l’estimateur

Pˆxy= Pn−1

i=0 1I(Xi=x,Xi+1=y) Pn−1

i=0 1I(Xi=x) .

Montrer quePˆxy est un estimateur consistant dePxy (on appliquera le théorème ergodique à la chaîneX˜n= (Xn,Xn+1)).

Exercice 6 [File d’attente] On considère une file d’attente à un guichet, modéliser de la manière suivante. A chaque instantnN, il arrive un client avec probabilitép(0< p <1), et aucun client avec probabilité1p. Lorsqu’il y a au moins un client dans la file, à chaque instant un client est servi et quitte la file avec probabilitéq (0< q <1), alors que personne ne quitte la file avec probabilité1q(un client qui arrive à l’instantnrepart au plus tôt à l’instantn+ 1). On suppose l’indépendance de tous ces phénomènes aléatoires. On noteXnle nombre de clients dans la file à l’instantn.

1. Montrer que(Xn)n∈N est une chaîne de Markov à valeurs dansN. Montrer qu’elle est irré-ductible et préciser sa matrice de transition.

2. Donner une condition nécessaire et suffisante surpetq pour que la chaîne(Xn)possède une probabilité invariante. On supposera dans toute la suite que cette condition est satisfaite et on noteraπl’unique probabilité invariante que l’on déterminera.

3. CalculerEπ(Xn).

4. On précise maintenant que les clients sont servis dans l’ordre de leur arrivée. On désigne par T le temps d’attente d’un client que l’on introduit à un instant arbitraire. Si on suppose que la loi initiale du système estπ, quelle est l’espérance de T?

2

OG Rouge Ecole Centrale Marseille Année 2008-2009

Chaînes de Markov - Processus de Poisson Devoir Maison

Problème :Base de données

Supposons qu’une mémoire d’ordinateur possèden données1,2. . . n. Cette mémoire reçoit des requêtes successives, qui consistent en une des données. Plus la donnée requise est proche de la tête de liste, plus l’accès à la requête est rapide, plus elle se situe en queue de liste, plus l’accès prend du temps. On suppose que les requêtes successives sont des variables aléatoires i.i.d.. Si la loi commune des requêtes était connue, on aurait intérêt à ranger par ordre décroissant de probabilité d’être requis. Bien entendu, cette probabilité p = (p1,p2, . . . ,pn) est inconnue. On suppose que pk>0, k∈ {1, . . . n}.

Le but est de choisir une façon de replacer la donnée après consultation, de telle sorte qu’à long terme, le rang moyen des données requises soit le plus petit possible.

On va considérer deux méthodes différentes. La première consiste à replacer en tête de liste la donnée qui vient d’être requise. La seconde consiste à faire progresser celle-ci d’un rang en la replaçant dans la mémoire. Dans chacun des deux cas, on a une chaîne de Markov irréductible à valeurs dansE l’ensemble de toutes les permutations de l’ensemble{1, . . . ,n}. On noteraQ la matrice de transition de la première chaîne de Markov etπsa mesure invariant associée, et P la matrice de transition issue de la deuxième méthode de mesure invarianteµ.

A la chaîne de matriceQon associe

JQ=

n

X

k=1

π(position de k)pk,

π(position de k)est l’espérance sousπ de la position de l’élémentk.

A la chaîne de matriceP on associe

JP =

n

X

k=1

µ(position de k)pk.

On peut alors vérifier que les quantités JQ et JP permettent de comparer la qualité des deux méthodes de replacement. On se propose de montrer queJP < JQ, ce qui implique que la deuxième méthode est meilleure que la première.

partie 1

1. Montrer que la chaîne de matriceQn’est pas réversible.

2. Montrer que la matrice de transitionP vérifie

Pkl>0Plk>0,∀k,lN.

3. Montrer que la matrice de transitionP vérifie, quelquesoitk,k1,k2, . . . km,k:

Pkk1Πmi=2Pki−1kiPkmk=PkkmΠ1i=m−1Pki+1kiPk1k.

4. En déduire queP est réversible.

partie 2

A toute permutation(i1, . . . ,in)de(1, . . . ,n)on associe les quantités

Ikl= 1I{il<ik},

où 1I{A}= 1siAa lieu et0sinon. AinsiIkl= 1silprécèdek et0sinon.

1

JQ= 1 +X

3. En utilisant la réversibilité de la chaîne de matriceP, montrer que

µ(l précèdek)> pl

pl+pk

. Conclure.

Travaux Pratiques : Processus de Poisson

Dans ce TP, on utilisera le logiciel Scilab pour répondre aux questions. Le but est de générer de plusieurs façons un processus de Poisson et d’utiliser les théorèmes limites présentés en cours pour estimer son intensité. La dernière partie détaille la marche à suivre pour m’envoyer vos résultats.

partie 1 : simulation d’un processus de Poisson

Proposition 1 Soit {Nt, t0} la f.a. de comptage d’un processus de Poisson. Sachant Nt =k (aveck 1), la suite T1,T2, . . . Tk est une suite de variables aléatoires i.i.d. de loi uniforme sur l’intervalle[0,t].

1. Ecrire une fonction "poisson" qui simule et affiche la f.a. de comptage {Nt, t 0} d’un processus de Poisson d’intensitéλ= 1jusqu’au20ième saut.

2. Ecrire deux fonctions qui simulent une trajectoire d’un processus de Poisson {Nt, t 0}

d’intensitéλ= 1jusqu’à l’instantt= 20:

– avec une bouclewhile (fonction "methode1"), – avec la proposition ci-dessus (fonction "methode2").

3. Comparer les deux méthodes en générant 1000 trajectoires avec chacune d’entre elle (utiliser la fonctiontimer()).

partie 2 : comportement asymptotique On a établit en cours les deux résultats suivants :

Loi des Grands Nombres :

Nt

t

−−−→p.s.

t→∞ λ.

Théorème de la Limite Centrale : rt

1. Ecrire une fonction "poissonrandom" qui tire au hasard (loi uniforme sur[0,10]) une intensité λet qui génère une trajectoire d’un processus de Poisson d’intensitéλ.

2. En déduire une estimation deλ(utiliser la LGN avecn= 1000).

3. Proposer un intervalle de confiance asymptotique pourλau niveau de confiance95%(utiliser le TLC).

partie 3 : sauvegarde des résultats

*Sauvegarder dans un fichier "simulation.jpg" la trajectoire d’un processus de Poisson d’intensité λ= 1généré avec la fonctionmethode2.

*Sauvegarder les réponses aux questions 1.3, 2.2 et 2.3 dans un fichier "resultat.txt". Expliquer la construction de l’estimateur (2.2) et de l’intervalle de confiance (2.3).

*Sauvegarder l’ensemble de votre code scilab dans un fichier "code.sce". Soigner la présentation du code et ajouter des commentaires.

*Envoyer les 3 fichiers ainsi créés par mail (objet du mail : "TL : nom du groupe") à l’adresse suivante : loustau@cmi.univ-mrs.fr , avant le 27/01, minuit.

2

OG Rouge Ecole Centrale Marseille Année 2008-2009

Processus markoviens de sauts TD

Exercice 1 Soit {Tn,n N} un processus ponctuel de Poisson d’intensité λ, et (Zn)n∈N une chaîne de Markov indépendante de{Tn,nN}à valeurs dansE, de matrice de transitionP. On pose

Xt=X

n≥0

Zn1I[Tn;Tn+1[(t), t0.

1. Montrer que{Xt, t0}est un processus markovien de sauts.

2. Déterminer ses matrices de transition et le générateur infinitésimal associé.

3. Déterminer la loi de l’instant du premier saut.

Exercice 2 Soit{Xt, t0}un processus markovien de sauts à valeurs dansE de semi-groupe de transition{P(t), t0}et de générateur infinitésimalQ. Montrer que dans le cas|E|<∞,

δ

δtP(t) =QP(t),

et de la même manière

δ

δtP(t) =P(t)Q.

On les appelle équations de Kolmogorov.

Exercice 3 SoitP la matrice markovienne définie par

P=

p 1p 0 0

0 0 p 1p

p 1p 0 0

0 0 p 1p

.

On considère le générateur infinitésimalQ=PIdu processus markovien de saut{Xt,t0}.

1. Déterminer la matriceP0 de transition de la chaîne incluse.

2. Décrire les trajectoires du processus{Xt,t0}, en précisant pour chaque état les paramètres des lois exponentielles des temps de séjour.

3. Montrer que(Xt)est irréductible, récurrente positive. Déterminer sa probabilité invariante.

4. Déterminer la probabilité invariante de la chaîne incluse.

1

dansE =Nde matrice de transition

Soit{Xt,t0}le processus markovien de sauts à valeur dansE=Nde générateur infinitésimal

Q=

2. Montrer que les deux processus sont irréductibles.

3. Montrer que toute mesure invariante de(Xn)est une mesure invariante de(Xt)et vice-versa.

4. Montrer que les deux chaînes sont transitoires lorsquep > q(comparer à la marche aléatoire surZ, qui est transitoire pourp=q).

5. Montrer que les deux chaînes sont récurrentes dans le casp=q. Déterminer dans ce cas une mesure invariante de masse infinie, et en déduire que le processus est récurrent nul.

6. On se place maintenant dans le casp < q. On poseλ=p/q. En remarquant queq−1−p) = λ2, montrer qu’il existe une probabilité géométrique (i.e. de la forme (πk=αk(1α), kN) invariante pour les deux chaînes.

7. On modifie le générateurQen multipliantpetqpar une constantec >0. Montrer que ni la nature de la chaîne (récurrente nulle, récurrente positive, transitoire), ni l’éventuelle mesure invariante n’est modifiée. Qu’est-ce qui est modifié dans le processus ?

8. On se place dans le casp < q. On considère le processus markovien de sauts {Yt, t0} de générateur infinitésimalQ0 défini par

Q= mesure invariante, et en déduire que{Yt, t0}est récurrente nulle. Expliquer pourquoi(Yt) met en moyenne plus de temps que(Xt)pour revenir àx, en partant dex.

2

OG Rouge Ecole Centrale Marseille Année 2008-2009

tp de clôture : modélisation de files d’attente.

1 Introduction

Les files d’attente apparaissent naturellement dans beaucoup de situations de la vie courante : un guichet desservant des usagers, une piste d’aéroport sur laquelle des avions attérissent, un serveur informatique répondant à des requêtes. Les clients arrvient à des temps aléatoires et attendent leur tour devant le(s) guichet(s). Le serveur met un temps aléatoire pour servir chaque client. Enfin la file a une certaine capacité d’accueil éventuellement limitée. Une file d’attente est donc déterminée par les quatres paramètres suivants : A/B/s/K où

A indique la loi des temps inter-arrivées des clients,

B indique la loi des temps de services,

s indique le nombre de serveurs,

K indique la capacité de la salle d’attente (+∞si il n’y a pas de précisions).

L’objet de ce TP est d’étudier les files sans M/M/1 et M/M/s, où M représente la loi exponentielle (ou sans mémoire, Memoryless en anglais).

2 File M/M/1 : Définition et premières propriétés

Une file d’attente M/M/1 est défnie par le processus stochastique suivant. On suppose que les instants d’arrivées des clients sont distribués selon un processus de Poisson d’intensité λ et que les temps de service sont indépendants (et indépendants du processus d’arrivée) et suivent la loi exponentielle de paramètreµ. On note{Xt, t0}le processus qui compte le nombre de personnes dans la file. On peut montrer que(Xt) est un processus markovien de sauts à valeurs dansN. On pourra calculer par la suite son générateur infinitésimal.

On note(Tn)n∈N (avecT0 = 0) la suite des sauts et (Zn)n∈N la chaîne de Markov incluse par le processus(Xt).

1. On se donneX∼ E(λ)etY ∼ E(µ). Montrer queV = min(X,Y)∼ E(λ+µ),W = 1I(V = X)B(λ+µλ ). On peut montrer aussi queW etV sont indépendantes.

2. En déduire les affirmations suivantes : Zn= 0Sn=Tn+1Tn∼ E(λ).

– SiZn>0,Sn∼ E(λ+µ)etZn+1=Zn+Yn, oùYnest à valeurs dans{−1,+ 1}telle queP(Yn= 1) =λ+µλ .

De plus, il est clair que(Zn)et(Sn)sont indépendantes.

3. En déduire une façon de représenter(Xt)à partir de(Un)n∈N et(Vn)n∈Ndeux suites de v.a.

indépendantes de lois respectives uniforme sur[0,1]et exponentielle de paramètre 1.

4. Ecrire une fonctionmm1 qui permet de simuler une trajectoire de la file d’attente M/M/1 prenant comme paramètreλ,µettl’instant final, et qui donne la matrice des temps de saut et des positions.

NB : Une v.a. exponentielleE(λ) est générée à l’aide de la fonction grand(1,1,"exp",1/λ).

5. Remarquez que(Xt)semble avoir trois comportement différents selon que λ < µ,λ=µ ou λ > µ.

1

On suppose ici queλ > µ.

1. Déterminer grâce aux simulations l’expression de la limite a(λ,µ) de Xtt quand t +∞.

Ecrire une fonctionlimit qui prend en paramètresλ,µettet trace la trajectoire det7→ Xtt. 2. Ecrire une fonctionquasigauss qui illustre le fait que, pourtgrand, la loi deYt =

t(Xtt a(λ,µ))est quasiment gaussienne.

NB : Pour cela il faudra simuler un grand nombre de variablesYt et comparer l’histogramme de l’échantillon à celui d’une loi Normale.

3. Peut-on grâce aux simulations se faire une idée de l’expression de la variance asymptotique σ2(λ,µ)en fonction deλetµ?

4 Cas récurrent positif

On se place à présent dans le cas oùλ < µ. On sait que dans ce cas le processus(Xt)admet pour mesure invariante la probabilitéπdéfinie par

∀kN, πk= λ

µ k

1λ µ

.

De plus, d’après le cours, la loi de(Xt)converge versπ. On veut illustrer cette convergence grâce aux simulations.

Ecrire une fonctionrepartqui prend en paramètresλ,µ,tet un entierp, qui génèrepréalisations indépendantes deXt puis compare la fonction de répartition empirique de cet échantillon à celle de la mesureπ.

Rappel : la fonction de répartition empirique de l’échantillon(X1, . . . Xn) est définie par :

Fn(x) = 1 n

n

X

i=1

1I(Xix).

5 Files M/M/s

On considère à présent la file d’attente M/M/s où les instants d’arrivée sont toujours pois-soniens, les temps de services exponentiels mais il y asguichets ou "serveurs" disponibles. Les temps de services aux guichets sont bien sûr mutuellement indépendants. On note{Xt, t0}le processus qui compte le nombre de personnes dans le système. On peut montrer que(Xt) est un processus markovien de sauts à valeurs dansNde générateur infinitésimal donnée par les relations suivantes :

pour la première ligne :

Q01=λ, Q0x= 0, x >1,

pour1xs:

Qx,x+1=λ, Qx,x−1=xµ, Qx,y = 0,|xy|>1,

et enfin :

Qx,x+1=−λ, Qx,x−1=sµ, Qx,y= 0,|xy|>1.

Comme précédemment, on noteSn=Tn+1Tn.

1. En remarquant quemin(S1, . . . ,Sx)∼ E(µx), en déduire comme dans le cass= 1la loi de (Sn)n∈N selon les valeurs deZn, ainsi que l’expression deZn+1 en fonction deZn.

2. En déduire une façon de représenter(Xt)à partir de(Un)n∈N et(Vn)n∈Ndeux suites de v.a.

indépendantes de lois respectives uniforme sur[0,1]et exponentielle de paramètre 1.

2

3. Ecrire une fonctionmm1squi permet de simuler une trajectoire de la file d’attente M/M/1/s prenant comme paramètreλ,µ,settl’instant final, et qui donne la matrice des temps de saut et des positions.

4. Remarquez que(Xt) semble avoir trois comportements différents selon queλ < µs,λ=µs ouλ > µs.

5. Dans le cas récurrent positif, on peut calculer la probabilité invarianteπdonnée par :

πk

π0 = (λ/µ)k

k! si0ks et

πk

π0 = (λ/µ)k

sk−ss! sik > s.

Les deux cas qui conduisent à une formule simple sont les cass= 1(déjà traité, loi géomé-trique), ets= +∞, auquel casπest la loi de Poisson de paramètre λµ. On veut illustrer cela grâce aux simulations.

Ecrire une fonctionpoissonqui prend en paramètresλ,µ,tet un entierp, qui génèrep réali-sations indépendantes deXtpouttgrand, puis compare la fonction de répartition empirique de cet échantillon à celle de la loi de Poisson de paramètre λµ.

6 Processus de départ des usagers

On s’intéresse au processus qui compte le nombre de personnes qui sont sorties du système.

Théorème 1 (Burke) Siλ < µs, à l’équilibre le processus des départs est un processus de Poisson d’intensitéλ.

La preuve utilise le fait que la probabilité invariante du processus {Xt, t 0} est solution de l’équation d’équilibre ponctuel :

πxQx,x+1=πx+1Qx+1,x.

Autrement dit, le générateur infinitésimalQest réversible par rapport àπ. Ainsi, si on munit(Xt) de la loi initialeπ, la chaîne est réversible et{XT−t,0tT}a même loi que{Xt,0tT}.

Ainsi les départs de(Xt)sont les arrivées de(XT−t): un processus de Poisson d’intensitéλ! 1. Ecrire une fonctiondepart qui génère une file d’attente M/M/1 et trace la trajectoire du

processus des départs. Cela confirme-t’il le Théorème de Burke ? 2. Vérifier le Théorème de Burke dans le cass >1.

3

Année 2008-2009

Processus markoviens de sauts Examen (2 heures)

Exercice 1 (4 points)

On considère un processus de Poisson{Nt, t 0} d’intensitéλ. Le but de cet exercice est de montrer de manière intuitive que la loi des accroissements est une loi de Poisson.

1. D’après le cours, on sait que pourh0, on a : P(Nt+hNt= 0) = 1λh+◦(h), P(Nt+hNt= 1) =λh+◦(h), P(Nt+hNt2) =◦(h),

où on rappelle que (hh) 0lorsqueh0.

Montrer que pourhpetit,Nt+hNtsuit approximativement une loi de Bernoulli dont vous préciserez le paramètre.

2. En déduire que pours >0,Nt+sNt suit approximativement une loi Binomiale dont vous préciserez les paramètres.

3. Conclure en utilisant le résultat suivant : la loi de PoissonP(λ) est la limite d’une suite de variables aléatoires indépendantes(Yn)n∈N Yn sont des lois binomialesB(n,λn).

Exercice 2 (10 points)

On considère la suite de variables aléatoires(Xn)n∈Nà valeurs dansNdéfinie par :

X0=x0NetXn+1=

(Xn+Yn+1)+,siVn+1= 1;

0siVn+1= 0,

(x)+ = x si x 0 et(x)+ = 0 si x < 0 et la suite (Y1,V1,Y2,V2, . . .) est une suite de v.a.

indépendante vérifiant pour toutnN:

P(Yn= 1) =P(Yn=−1) = 1

2 etP(Vn= 1) =p= 1P(Vn= 0), avecp >0.

1. Montrer que (Xn)n∈N est une chaîne de Markov. Calculer sa matrice de transition P et montrer qu’elle est irréductible.

2. SoitT le temps du premier retour en0, partant de0. MajorerP(T > k) et en déduire que l’état0est récurrent positif. Conclure pour la nature de la chaîne(Xn).

3. Montrer que siα est la solution de l’équationp(1α2) = 2αsituée dans l’intervalle ]0,1[, alors la probabilité géométriqueπdonnée parπx=αx(1α),xNest l’unique probabilité invariante de(Xn).

4. On considère maintenant un processus markovien de sauts{Xt, t0}à valeurs dansN, de générateur infinitésimal

Préciser la matrice de transition de sa chaîne incluse. Comparer avec la chaîne(Xn)n∈N.

1

5. Montrer que{Xt, t0}est irréductible récurrent. Montrer queπdéfinie à la question 3. est invariante pourXt. En déduire que{Xt, t0}est récurrent positif.

5. Montrer que{Xt, t0}est irréductible récurrent. Montrer queπdéfinie à la question 3. est invariante pourXt. En déduire que{Xt, t0}est récurrent positif.

Documents relatifs