• Aucun résultat trouvé

Rappel de Probabilit´es. Dans un premier temps nous faisons un rappel sur la th´eorie des probabilit´es. Nous simplifions volontairement certaines notions car nous pr´esentons seulement celles qui nous sont utiles dans le cadre de cette th`ese.

D´efinition 1.1 (Univers, r´esultat et ´ev´enement) Soit Ω un ensemble appel´e univers, on appelleω ∈Ω un r´esultat et A⊂Ω un ´ev`enement. Si ω∈A, on dit queω r´ealise A.

D´efinition 1.2 (σ-alg`ebre) Une σ-alg`ebre F est une collection d’´ev´enements telle que : – l’´ev´enement impossible ∅ et l’´ev´enement certainΩ sont dans F.

– Si A est dans F, alors A¯ y est aussi.

– Si A1, A2, . . . sont dans F, alors ∪k=1Ak y est aussi.

D´efinition 1.3 (Mesure de probabilit´e) Une mesure de probabilit´e P sur (Ω,F) est une fonction P :F →R tel que :

– pour tout A∈ F, 0≤P(A)≤1, – P(Ω) = 1,

– pour tous ´ev´enements A1, A2, . . . deux `a deux disjoints, P(∪k=1Ak) =P

k=1P(Ak).

P(A) est appel´e la probabilit´e de l’´ev´enement A.

D´efinition 1.4 (Espace de probabilit´e) Un espace de probabilit´e est un triplet (Ω,F, P).

D´efinition 1.5 (Ind´ependance) Deux ´ev´enements A et B sont ind´ependants si P(A∩B) =P(A)P(B).

D´efinition 1.6 (Probabilit´e conditionnelle) La probabilit´e conditionnelle deA sachant B not´ee P(A|B) est d´efinie comme P(A∩B)P(B) .

D´efinition 1.7 (Variable al´eatoire discr`ete) Une variable al´eatoire discr`ete d´efinie sur l’espace de probabilit´e(Ω,F, P)est une fonctionX : Ω→E o`uE est un ensemble d´enombrable tel que pour tout x ∈E, l’ensemble {X =x}={ω;X(w) =x} est un ´ev´enement de F. On dit que X prend ses valeurs dans E.

D´efinition 1.8 (Distribution de probabilit´e) La distribution de probabilit´ed’une variable al´eatoireX prenant ses valeurs dansE d´enombrable est la fonctionν :E →[0,1]qui pour tout

´

el´ement ide E lui associe P({X=i}).

Certains comportements peuvent ˆetre mod´elis´es par une variable al´eatoire. Ainsi, dans la litt´erature, certaines variables al´eatoires ont ´et´e analys´ees en d´etail. Nous ne pr´esenterons ici que les variables al´eatoires suivant une loi g´eom´etrique de param`etre p. Ces variables servent `a mod´eliser la question suivante :

Une pi`ece lanc´ee en l’air retombe avec probabilit´e p sur pile et avec probabi-lit´e 1−p sur face. Combien de fois faut-il la lancer pour obtenir pile ?

D´efinition 1.9 (Loi g´eom´etrique de param`etre p) Soitp∈[0,1], une variable al´eatoireX suit la loi g´eom´etrique de param`etre p si pour tout i∈N

P(X =i) = (1−p)i−1p.

D´efinition 1.10 (Convergence presque sˆure) Une suite (Xn)n≥1 de variables al´eatoires converge presque sˆurement vers une variable al´eatoire X si :

P({ω∈Ω : lim

n→∞Xn(ω) =X(ω)}) = 1.

D´efinition 1.11 (Esp´erance) Pour une variable al´eatoire X prenant ses valeurs dansE ⊂R d´enombrable, nous d´efinissons son esp´erance E[X] comme :

E[X] =X

x∈E

xP(X=x).

Proposition fondamentale 1.12 (Lin´earit´e de l’esp´erance) Soit une suite quelconque de variables al´eatoiresX0, . . . , XN alors

E[

N

X

i=0

Xi] =

N

X

i=0

E(Xi).

Sous r´eserve que la somme est absolument convergente.

D´efinition 1.13 (Esp´erance conditionnelle) Pour une variable al´eatoire X prenant ses valeurs dans E ⊂ R d´enombrable, nous d´efinissons son esp´erance conditionnelle sachant l’´ev´enement A, not´ee E[X|A], comme :

E[X|A] =X

x∈E

xP(X=x|A).

Notation 1.14 (Suite ind´ependante et identiquement distribu´ee) Une suite de va-riables al´eatoires (Xn)n≥1 ind´ependantes et identiquement distribu´ees (i.i.d.) est une suite de variables al´eatoires ind´ependantes et ayant la mˆeme distribution de probabilit´es.

D´efinition 1.15 (Processus stochastique discret) Un processus stochastique `a temps dis-cret est une suite de variables al´eatoires discr`etes (Xt)t∈N prenant leurs valeurs dans un en-semble E appel´e l’ensemble des ´etats. Si Xt = i on dit que le processus est dans l’´etat i au temps t.

1.1.1 Chaˆınes de Markov

Les chaˆınes de Markov sont des processus stochastiques repr´esentant, entre autres, les au-tomates cellulaires asynchrones du point de vue de la th´eorie des probabilit´es.

D´efinition 1.16 (Chaˆıne de Markov homog`ene) Soit(Xt)t∈N un processus stochastique `a temps discret sur un ensemble d’´etats E. Ce processus est une chaˆıne de Markov homog`ene si pour tout entier t≥0 et pour toute suite d’´etats i0, i1, . . . , it−1, i, j,

P(Xt+1 =j|Xt=i, Xt−1 =it−1, . . . , X0 =i0) =P(Xt+1 =j|Xt=i) =P(X1 =j|X0 =i) Nous ne consid´erons ici que des chaˆınes de Markov homog`enes. Par abus de langage, nous parlerons donc seulement de chaˆınes de Markov par la suite, homog`enes ´etant sous-entendu.

D´efinition 1.17 (Matrice de transition) La matrice de transition P = {pij}i,j∈E d’une chaˆıne de Markov (Xt)t∈N est d´efinie par :

pij =P(Xt+1 =j|Xt=i).

D´efinition 1.18 (Distribution initiale) La variable al´eatoire X0 est appel´ee l’´etat initial et sa distribution de probabilit´e ν0, ν0(i) =P(X0=i), est appel´ee la distribution initiale.

D´efinition 1.19 (Distribution) La distributionau tempstde la chaˆıne de Markov est le vec-teur ligneνt, o`u νt(i) =P(Xt=i). Elle est d´etermin´ee par la distribution initiale et la matrice de transitionP de la chaˆıne de Markov. Il s’ensuit queνt+1tP et donc, en it´erant,νt0Pt. D´efinition 1.20 (Distribution stationnaire) Une distribution ν est stationnaire si et seulement si pour tout i∈E, ν(i)≥0, P

i∈Eν(i) = 1 et νP.

D´efinition 1.21 (Graphe de transition) Le graphe orient´e de transition, G, d’une chaˆıne de Markov est d´efini comme suit :

– son ensemble des sommets est l’ensemble des ´etats E de la chaˆıne de Markov ;

– il existe un arc de l’´etativers l’´etatj si et seulement sipij >0; et cet arc a un poidspij. D´efinition 1.22 (Attracteur) Un attracteur A est un ensemble d’´etats fortement connexe maximal pour l’inclusion dans le graphe de transition de la chaˆıne de Markov. On parle parfois aussi de classe irr´eductible.

D´efinition 1.23 (Ensemble limite) L’ensemble limite A est l’union de tous les attracteurs de la chaˆıne de Markov.

D´efinition 1.24 ( ´Etat transitoire et ´etat r´ecurrent) Un ´etat est r´ecurrent si une chaˆıne de Markov passant par cet ´etat y revient presque sˆurement, sinon il est transitoire.

Dans le cas o`u l’ensemble des ´etats est fini, alors un ´etat est r´ecurrent si et seulement s’il appartient `a l’ensemble limite.

D´efinition 1.25 (Ap´eriodique) Une chaˆıne de Markov est ap´eriodique si pour tout sommet de son graphe de transition le ppcm de la longueur des cycles du graphe de transition passant par ce sommet est ´egal `a 1.

Dans notre cas, nous ne consid´erons que des chaˆınes de Markov o`u pour tout ´etat i,pii>0.

Ces chaˆınes de Markov sont donc toujours ap´eriodiques.

Proposition 1.26 (Convergence) Soit(Xt)t≥0une chaˆıne de Markovap´eriodiqued´efinie sur un ensemble finid’´etats et une distribution initialeν0. La suite de distributions(νt)t≥0 converge presque sˆurement vers une distribution stationnaireν0 o`u pour tout ´etat transitoire i,ν0(i) = 0.

1.1.2 Marches al´eatoires

Les marches al´eatoires sont des processus stochastiques repr´esentant des d´eplacements al´eatoires sur une ligne, une grille, etc. Nous nous restreignons ici aux marches al´eatoires 1D (sur une ligne). Leur comportement a ´et´e intensivement analys´e ; il est maintenant connu en d´etails dans de nombreux cas. Ces processus apparaissent dans le comportement des automates cellulaires que nous allons ´etudier.

D´efinition 1.27 (Marche Al´eatoire) Une marche al´eatoire de param`etre p ∈ [0,1] est un processus stochastique (Xt)t≥0 prenant ses valeurs dans Z tel que P(Xt+1 = Xt + 1) = p et P(Xt+1 =Xt−1) = 1−p. On dit que la marche al´eatoire est biais´ee quand p6= 0.5.

1.1.3 Collectionneur de coupons

Consid´erons une urne contenant N balles. `A chaque tentative, un joueur choisit une balle au hasard et la remet dans l’urne. Le joueur gagne au moment o`u il a tir´e au moins une fois chaque boule. Combien de tentatives devra-t-il faire ? Ce probl`eme est connu sous le nom de collectionneur de coupons et se mod´elise de la fa¸con suivante :

D´efinition 1.28 (Collectionneur de coupons) Consid´erons l’ensemble {1, . . . , N}, on d´efinit une suite de variables al´eatoires (Xt)t≥ i. i. d. telles que pour tout t ≥ 0 et pour tout i∈ {1, . . . , N}, P(Xt=i) = N1. Soit T la variable al´eatoire d´efinie par

T = min

t≥0{t:∃t1, . . . , tN ≤ttel que Xt1 = 1, . . . , XtN =N}.

L’´etude de cette variable al´eatoire est connue sous le nom du probl`eme du collectionneur de coupons.

Proposition 1.29 Pour un collectionneur de coupons o`u il y a N coupons, E[T] = H(N) o`u H(n) =Pn

i=11

i ∼nlnn.

1.1.4 Moyenne du maximum de n variables al´eatoires i.i.d. suivant la loi g´eom´etrique de param`etre p.

Consid´erons la suite de variables al´eatoires (Xi)1≤i≤n i.i.d. suivant la loi g´eom´etrique de

L’´etude de T est un probl`eme classique. Une r´ecapitulation des r´esultats connus peut ˆetre trouv´ee dans les travaux d’Eisenberg [19]. Nous n’aurons besoin que du r´esultat basique suivant :