• Aucun résultat trouvé

La Matrice Densit´e

11.3 Mouvements dans un algorithme de Metropolis

12.3.2 La Matrice Densit´e

On choisit, en g´en´eral pour repr´esentation non pas une base de vecteurs propres telle que {|Φi >} mais une base d’´etats orthonorm´es {|R >} d´ecrivant les positions dans l’espace des particules. Cette base est continue et les sommes discr`etes relatives `a la base discr`ete {|Φi >} consid´er´ee pr´ec´edemment sont remplac´ees par des int´egrales. En particulier, la trace d’un op´erateur, somme de ses valeurs propres de vient une int´egrale :

T r A= Z

dR0 < R0|A|R0>

Alors la relation g´en´erale 12.6 s’´ecrit :

<O>=

R dR0< R0|Oexp(−βH)|R0 >

Z (12.7)

En utilisant l’orthonormalit´e de la base{|R >}qui se traduit par la relation “de fermeture”

Z

dR|R >< R|= 1 (12.8) on peut rendre plus explicite le produit des deux matrices O et exp(−βH) pour arriver `a l’expression :

<O>=

R dRdR0 < R0|O|R >< R|exp(−βH)|R0>

Z (12.9)

En introduisant la “Matrice Densit´e :

ρ(R, R0;β) =< R|exp(−βH)|R0> (12.10)

Pour calculer l’int´egrale ci-dessus par la m´ethode de Monte-Carlo, nous allons donc g´en´erer de configurations{R, R0}suivant une probabilit´e proportionnelle `aρ(R, R0;β) et la moyenne des ´elements de matrice< R0|O|R >correspondant `a ces configurations nous donnera acc`es

`a une approximation de <O>

12.3 “Path Integral Monte-Carlo” 93 12.3.3 Echantillonnage de ρ(R, R0;β)

Une particule `a une dimension

Nous illustrons d’abord la m´ethode sur le cas simple utilis´e pr´ecedemment pour l’algorithme de “Diffusion Monte-Carlo” : une particule `a une dimension, de masse m, soumise `a un potentiel V(x). L’hamiltonien s’´ecrit :

H=−~2 en s´eparant la partie cin´etique :

Tˆ=−~2 La matrice densit´e s´ecrit :

ρ(x, x0;β) =< x|exp[−β( ˆT+ ˆV)]|x0 >

Cette quantit´e est tr`es difficile `a calculer, alors que les quantit´es < x|exp[−βTˆ]|x00 > et

< x00|exp[−βVˆ]|x0 > sont relativement simples. Malheureusement, les op´erateurs ˆT et ˆV ne commutent pas et

exp[−β( ˆT+ ˆV)]6= exp[−βTˆ] exp[−βVˆ]

Par contre, en divisant β en M intervalles δτ =β/M, on pourra recourir `a la formule de Trotter-Suzuki (cf. Equation 12.3) Enfin, en intercalant des relations de fermeture :

Z

dxi|xi>< xi|= 1 entre chaque produit d’op´erateurs, on aboutit `a la relation :

ρ(x0, xM;β) =

L’op´erateur ˆV est diagonal, on a donc :

< xi1|exp(−δτT) exp(ˆ −δτVˆ)|xi >=< xi1|exp(−δτTˆ)|xi >exp[−δτVˆ(xi)]

Mais l’´el´ement de matrice :

< xi1|exp(−δτTˆ)|xi >=h m 2π~2δτ

i1/2

exp[− m

2~2δτ(xi−xi1)2] pour une particule libre a ´et´e calcul´e au paragraphe pr´ec´edent (cf. Relation 12.4)

En reportant dans l’expression pr´ec´edente, le calcul de ρ(x0, xM;β) se pr´esente comme une int´egrale `a M−1 dimensions :

ρ(x0, xM;β) =C

La somme figurant en exposant du facteur exponentiel correspond `a l’´energie d’une chaˆıne de particules de coordonn´eesx0,x1, ... ,xM, chaque particule ´etant reli´ee `a la pr´ec´edente par un ressort d’energie proportionnelle au carr´e de la distance qui les s´epare. Chaque particule i´etant soumise `a un potentiel V(xi). On obtient l’image d’un polym`ere (cf section 11.2.2) N particules discernables `a 3 dimensions

Ces calculs se g´en´eralisent facilement pour une particule `a deux ou trois dimensions... et pour un ensemble de N particules `a trois dimensions soumises `a un potentiel d´ınteraction de paires

V(|Ri−Rj|

ne d´ependant que de la distance entre paires de particules. Dans ce cas, chaque particule p est repr´esent´ee par une chaˆıne de M monom`eres de coordonn´eesRp,i. La matrice densit´e s’exprime alors comme une int´egrale `a 3N M dimensions :

ρ(R1,0, R2,0, ..., RN,0, R1,M, R2,M, ..., RN,M;β) = m

Au paragraphe pr´ec´edent, nous avons raisonn´e sur des particules discernables. Or, en m´ecanique quantique, les particules sont indiscernables.

Pour des bosons, l’expression de la matrice densit´e ρB doit ˆetre compl`etement sym´etrique par rapport `a une permutation quelconque des particules.

12.3 “Path Integral Monte-Carlo” 95 On doit donc sommer sur toutes les permutations possibles de l’expression d’une matrice densit´e de particules discernables :

ρB(R1,0, ..., RN,0, R1,M, ..., RN,M;β) = 1 N!

X

P

ρB(R1,0, ..., RN,0, RP(1),M, ..., RP(N),M;β) = o`u P(1), P(2), ... ,P(N), repr´esente une permutation quelconque desN particules.

Les permutations seront elles-mˆemes ´echantillonn´ees par un algorithme de Monte-Carlo.

Nous n’aborderons pas le probl`eme des Fermions pour lesquels l’antisym´etrisation conduit

`a une alternance de signe qui constitue un des probl`emes les plus difficiles pour l’application de la m´ethode de Monte-Carlo.

Pour en savoir plus...

Le livre de Feynman [16] est essentiel pour approfondir la formulation de la m´ecanique quantique sous forme “d’int´egrales de chemin”, que nous avons bri`evement introduite ci-dessus.

Pour une approche plus compl`ete des m´ethodes de Monte-Carlo quantique, nous conseillons les articles de revue et cours de Ceperley [17]

Annexes : Probabilit ´es et

Physique Statistique

A Rappels de th ´eorie des probabilit ´es

Nous nous contenterons de rappeler bri`evement les notions indispensables `a la justification des m´ethodes de Monte-Carlo. Pour un expos´e complet et didactique sur la th´eorie des probabilit´es, nous conseillons le livre (niveau second cycle) de J. Bass[18] ou le cours de l’Ecole Polytechnique de J. Neveu[19].

A.1 Exp´ erience, ensemble des r´ esultats possibles.

Une exp´erience al´eatoire est une exp´erience dont le r´esultat est soumis au hasard. Elle se d´ecrit par la donn´ee de l’ensemble des r´esultats possibles. Nous noterons ω un tel r´esultat et Ω l’espace form´e par tous les r´esultats possibles.

Exemple : l’espace Ω associ´e au jet al´eatoire de deux d´es est compos´e des 36 couples d’entiers ω= (x, y) tels que 1≤x, y≤6

A.2 Notion d’´ ev´ enement al´ eatoire.

Un ´ev´enement al´eatoire est repr´esent´e par l’ensemble des r´esultats ω de l’exp´erience qui le r´ealisent. Dans l’exemple pr´ec´edent du jet de deux d´es, on peut d´efinir comme ´ev´enement :

“obtenir un total de points sup´erieur `a 8”. Cet ´ev´enement est repr´esent´e par le sous ensemble de r´esultats A⊂Ω :

A={(3,6),(4,5),(5,4),(6,3),(4,6),(5,5),(6,4),(5,6),(6,5),(6,6)} Nous devons maintenant envisager des op´erations logiques sur ces ´ev´enements.

– A tout ´ev´enementAest associ´e son contraireAcrepr´esent´e par l’ensemble compl´ementaire deAdans Ω. (Le contraire deAdans l’exemple pr´ec´edent est “obtenir un total de points inf´erieur ou ´egal `a 8”).

– Pour tout couple d´ev´enements (A1, A2), l’´ev´enement “A1 et A2” est par d´efinition celui qui est r´ealis´e si les ´ev´enementsA1 etA2 sont r´ealis´es `a la fois. En langage de th´eorie des

ensembles, il correspond `a l’intersection A1∩A2. En prenant toujours le mˆeme exemple de jet de deux d´es, consid´erons, A1 : “obtenir un total de points sup´erieur `a 8” et A2 : “chacun des d´es est tomb´e sur un nombre pair”, l’´ev´enement “A1 et A2” est donc repr´esent´e par :

A3 =A1∩A2={(4,6),(6,4),(6,6)}

– L’´ev´enement impossible sera repr´esent´e par l’ensemble vide ∅. L’´equation A1∩A2 =∅ signifie que les ´ev´enementsA1 et A2 sont incompatibles, c’est `a dire que les parties de Ω qui les repr´esentent sont disjointes

– Pour tout couple d´ev´enements (A1, A2), l’´ev´enement “A1 ouA2” est par d´efinition celui qui est r´ealis´e si l’un au moins des deux ´ev´enements A1 ou A2 est r´ealis´e (“ou” non exclusif). En langage de th´eorie des ensemble, il correspond `a l’unionA1∪A2.

– L’´ev´enement certain sera not´e Ω puisqu’il est r´ealis´e quel que soit le r´esultat ω de l’-exp´erience.

En conclusion, une exp´erience al´eatoire est d´ecrite math´ematiquement par la donn´ee d’un espace Ω et d’une classeAde parties de Ω. Chaque ´e l´ementAdeArepr´esente un ´ev´enement que l’on consid`ere relativement `a l’exp´erience. Nous exigerons de la classe A les propri´et´es suivantes :

– Elle contient l’´ev´enement certain : l’ensemble Ω lui-mˆeme.

– SiAappartient `aA, l’ensembleAccompl´ementaire deApar rapport `a Ω (i.e. “le contraire de A”) est aussi un ´el´ement de la classe A

– Si A1 et A2 appartiennent `aA, la r´eunion et l’intersection de A1 et A2 appartiennent `a A.

– Lorsque l’espace Ω n’est pas fini, il est encore indispensable d’exiger que la r´eunion d’une infinit´e d´enombrable d’ensembles deAappartienne `a A.

On dit que Aest une “tribu de parties de Ω”, ou encore une “σ-alg`ebre construite surΩ.”

Par exemple, dans R, la tribu engendr´ee par les segments ouverts [i.e la plus petite tribu contenant les segments ouverts] est nomm´ee “tribu Bor´elienne”. D’apr`es les propri´et´es

´enonc´ees ci-dessus, elle contient aussi les segments ferm´es (compl´ementaires d’ouverts), l’intersection et la r´eunion de nombres infinis d´enombrables d’entre eux.

A.3 Notion de probabilit´ e.

A.3.1 D´efinition heuristique

Une propri´et´e essentielle d’une exp´erience est de pouvoir ˆetre r´ep´et´ee ind´efiniment. Si nous comptons, au cours de N r´ep´etitions d’une exp´erience, le nombre de fois NA o`u un ´ev´enement A est r´ealis´e, nous observons que la fr´equence statistique NA/N tend vers une limite p≤1 lorsqueN → ∞. D’o`u l’id´ee d’associer un nombre positif ou nulP(A) =p, inf´erieur `a 1, `a tout ´ev´enement A.

Si deux ´ev´enements sont incompatibles (A1∩A2=∅, la fr´equence statistique de l’´ev´enement

A.4 Probabilit´es conditionnelles. Ev´enements ind´ependants 101 A1 ∪A2 au cours de N r´ep´etitions d’un exp´erience al´eatoire est ´egale `a la somme des fr´equences statistiques des ´ev´enements A1 et A2 puisque un seul des ´ev´enement, au plus, peut ˆetre r´ealis´e.

NA1A2

N = NA1

N +NA2 N donc

P(A1∪A2) =P(A1) +P(A2) si A1∩A2=∅ A.3.2 D´efinition math´ematique

– A chaque ´ev´enement A ∈ Aest associ´e un nombre r´eel P(A) ∈[0,1] appel´e probabilit´e de A

– La probabilit´e 1 est attribu´ee `a l’´ev´enement certain :P(Ω) = 1

– Nous imposons la propri´et´e d’additivit´e pour toute suite (finie ou infinie-d´enombrable) d’´ev´enements deux `a deux ind´ependants :

P(A1∪A2∪ · · · ∪An) =P(A1) +P(A2) +· · ·+P(An) (A.1) si

Ai∩Aj =∅ ∀(i, j), i6=j

En langage math´ematique, P est une “mesure positive, de masse totale P(Ω) = 1, d´efinie sur la tribu A de parties deΩ”.

On note “espace probabilis´e”{Ω,A, P} le triplet form´e par l’ensemble des r´esultats possi-bles de l’exp´erience Ω, la tribu de parties de cet ensemble A et la mesure de probabilit´es P.

A.4 Probabilit´ es conditionnelles. Ev´ enements ind´ ependants

Consid´erons une exp´erience qui se r´ealise en deux temps. En reprenant toujours l’exemple du jet de deux d´es, on peut lancer successivement un premier d´e puis le second. On peut d´efinir des ´ev´enements relatifs aux r´esultats du premier temps (exemple B : “le r´esultat du premier d´e est pair”) et des ´ev´enement relatifs au r´esultat global apr`es le second temps (exempleA : “le total des points est 8”). Ces deux ´ev´enements, bien sˆur, appartiennent `a une mˆeme tribuAde parties de Ω

Nous devons alors distinguer heuristiquement entre la probabilit´e, dans l’absolu, P(A) de l’´ev´enement A, et la probabilit´e de l’´ev´enement A, sachant que B s’est produit, que nous appellerons “probabilit´e de l’´ev´enement A conditionnelle en l’´ev´enement B”. Nous la noteronsP(A/B).

De mˆeme que la fr´equenceNA/N des r´ealisations de l’´ev´enementAau cours deNr´ep´etitions de l’exp´erience al´eatoire, donne une estimation statistique de la probabilit´eP(A) de l’´ev´ene-ment A, nous pouvons penser que le rapport NAB/NB de r´ealisations de l’´ev´enement A

parmi les NB r´ep´etitions de l’exp´erience qui ont donn´e B fournisse une estimation statis-tique de la probabilit´e de l’´ev´enement Aconditionnelle en l’´ev´enement B.

Apr`es avoir remarqu´e que :

NAB

NB =

NAB

N NB

N

il devient naturel de poser comme d´efinition :

P(A/B) = P(A∩B)

P(B) (A.2)

Deux ´ev´enement Aet B seront dits ind´ependants si la probabilit´e de l’´ev´enement A condi-tionnelle en l’´ev´enementBne d´epend pas de l’´ev´enementB, c’est `a dire siP(A/B) =P(A), ce qui d’apr`es la relation pr´ec´edente correspond `a l’´egalit´e

P(A∩B) =P(A)P(B) (A.3)

A.5 Variable al´ eatoire.

Une variable al´eatoire est d´efinie par r´ef´erence `a une exp´erience al´eatoire comme un nombre r´eel, ou plus g´en´eralement un vecteur X = φ(ω) dont la valeur d´epend du r´esultat ω de l’exp´erience. Par exemple, dans l’exp´erience du jet de deux d´es, la somme S des points amen´es par les deux d´es est une variable al´eatoire r´eelle. Le vecteur V = (m, n) o`um est le nombre de points amen´e par le premier d´e et n le nombre de points amen´es par le second d´e est un vecteur al´eatoire qui prend ses valeurs dans R2.

Une variable al´eatoire est donc repr´esent´ee par une application φ de Ω dans Rd. Elle est

“al´eatoire” du fait du caract`ere al´eatoire de l’exp´erience, dont chaque r´esultat possible est un point ω de l’ensemble Ω.

Nous exigerons une condition essentielle sur cette application : L’ensemble des r´esultats ω de l’exp´erience, tels que :

a < X =φ(ω)< b (A.4)

appartient `a la tribuA

Si X est une variable al´eatoire r´eelle, a et b repr´esentent deux r´eels quelconques tels que a < b.

Si X est une variable al´eatoire vectorielle `a valeurs dans Rd, a = (a1, a2,· · · , ad) et b = (b1, b2,· · · , bd) repr´esentent deux vecteurs deRd et les in´egalit´es sont v´erifi´ees composante par composante. Dans ce cas, l’in´egalit´e

a < x < b i.e. ai < αi< bi ∀i

A.6 Loi de probabilit´e d’une variable al´eatoire 103 d´efinit un pav´eB de Rd.

Donc, l’image r´eciproque par l’application X = φ(ω) d’un segment B de R, pour une variable al´eatoire r´eelle, (ou plus g´en´eralement d’un “pav´e” B de Rd, pour une variable al´eatoire vectorielle) est un ´el´ement (i.e “un ´ev´enement”) de la tribuA de sous ensembles de Ω.

Cette condition est indispensable pour que nous puissions parler de la probabilit´e de

“l’´ev´enement : {a < X =φ(ω) < b}. Elle correspond `a exiger que l’application X =φ(ω) soit une “application mesurable”.

Remarque importante : la classe B de parties de Rd form´ee par les pav´es de Rd, leurs intersections et la r´eunion d’un nombre fini ou infini-d´enombrable d’entre eux constitue unetribu(cf. ci-dessus) appel´ee “tribu Bor´elienne”

A.6 Loi de probabilit´ e d’une variable al´ eatoire

Soit AB l’image r´eciproque dans Ω d’un pav´e B de Rd (–B est un ´el´ement de la tribu Bor´elienneB–) par l’applicationX =φ(ω), c’est `a dire :

AB={ω tels que X =φ(ω)∈B}

alors les sous ensembles “´ev´enements”AB forment une sous tribu de la tribuAappel´ee “la tribu engendr´ee par la variable al´eatoire X.

La loi :

P(X)(B) =P(AB)

d´efinit une probabilit´e P(X) surRd par rapport `a la tribuB “Bor´elienne”) form´ee par les pav´es ouverts ou ferm´es deRd et la r´eunion d’un nombre fini, ou infini-d´enombrable d’entre eux.

Cette probabilit´eP(X) surRd, image de la probabilit´eP par l’application X =φ(ω) de Ω dansRd est appel´ee “la loi de probabilit´e de la variable al´eatoire X”

L’int´erˆet de l’introduction de ces “lois de probabilit´e” tient `a ce qu’il est plus ais´e de manipuler des “mesures” sur Rd que sur l’espace Ω. Pour les applications en physique, nous utiliserons le plus souvent la mesure de Lebesgue ou la mesure de Rieman surRd.

A.7 Fonction de r´ epartition d’une variable al´ eatoire r´ eelle

Consid´erons le segment semi infiniB =]− ∞, z] alors

F(z) =PX(B) =P(AB) =P({−∞< X(ω)≤z})

est la fonction de partition relative `a la loi de probabilit´e de la variable al´eatoire X. C’est une fonction positive, croissante qui atteint sa valeur maximale pourz→ ∞.

zlim→∞F[z] =P(Ω) = 1 C’est une fonction `a valeurs dans le segment [0,1]

A.8 Densit´ e de probabilit´ e.

Si la loi de probabilit´e P(X) de la variable al´eatoire X peut s’´ecrire : P(X)(B) =P({X =φ(ω)∈B}=

Z

B

f(x)dx (A.5)

o`u dxd´esigne la mesure de Lebesgue ou la mesure de Rieman.

Alors nous dirons que la variable al´eatoire X poss`ede la densit´e de probabilit´e f(x) (f est la densit´e de la “mesure de probabilit´e” P(X))

f est une fonction positive, et il r´esulte de l’´egalit´e P(X)(Rd) = 1 que : Z

Rd

f(x)dx= 1 (A.6)

Si une variable al´eatoire X poss`ede une densit´e de probabilit´ef(x), on peut ´ecrire siX est d´efinie dans R (d = 1) :

P({x < X =φ(ω)< x+dx}) =f(x)dx lorsque dx→0 (A.7) et plus g´en´eralement pour une variable al´eatoire d´efinie dansRd, en notantx= (α1, α2,· · · , αd) un ´el´ement de Rd :

P({αk<(X)k=φ(ω)k < αk+dαk}) =f(x)dα12· · ·dαd (A.8) Etant donn´e que, dans les applications physiques que nous allons ´etudier, nous nous restrein-drons au cas o`u les variables al´eatoires consid´er´ees poss`edent une densit´e de probabilit´ef, le lecteur, quelque peu d´erout´e par le formalisme g´en´eral peut se “raccrocher” aux relations ci-dessus en tant que d´efinition d’une densit´e de probabilit´e.

la fonction de r´epartition d’une variable al´eatoire r´eelle admettant une densit´e de probabilit´e f(x) est

F(z) = Z z

−∞

f(x)dx

A.9 Esp´erance, moments d’ordre n, variance 105 Quelques exemples de densit´es de probabilit´e dansR

– La loi uniforme sur un segment :

f(x) = 1/(b−a) si a < b < x et 0 sinon – La loi exponentielle

f(x) =λeλx x≥0 et 0 sinon

qui d´ecrit un certain nombre de ph´enom`enes physiques, dont le temps de d´esint´egration d’un ´el´ement radioactif.

– La loi de Gauss (ou loi “normale”)

f(x) = 1

√2πσe(x−m)22 (A.9)

tr`es importante en physique et statistique

A.9 Esp´ erance, moments d’ordre n, variance

A.9.1 Valeur moyenne ou “Esp´erance” d’une variable al´eatoire r´eelle Consid´erons tout d’abord une variable al´eatoire discr`ete X, c’est `a dire `a valeurs dans l’ensemble des entiers relatifs Z ⊂R. Au cours de N r´ep´etitions de l’exp´erience al´eatoire, chaque valeur {X =xi} “sort” ki fois. Si nous voulons ´evaluer empiriquement une valeur moyenne mde la variable al´eatoire X, nous prendrons :

m=X valeur moyenne ou esp´erance dans le cas discret :

E[X] =m=X

Z

xipi (A.10)

Dans le cas continu, la somme discr`ete est remplac´ee par une int´egrale : E[X] =

o`u les int´egrales sont prises au sens g´en´eral de la th´eorie de l’int´egration par rapport aux mesures abstraitesdP, dP(X).

Dans le cas o`u la variable al´eatoire X poss`ede la densit´e de probabilit´e f, alors, on peut

´ecrire plus simplement :

E(X) =m= Z

R

xf(x)dx (A.12)

o`u dxrepr´esente la mesure de Lebesgue ou la mesure de Rieman surR

A.9.2 Moment d’ordre n. Variance d’une variable al´eatoire r´eelle

Toute fonction Y =g(X) =g[φ(ω)] =g◦φ(ω) d´efinit une nouvelle variable al´eatoire. Son esp´erance est :

E[Y] =E[g(X)] = Z

R

g(x)f(x)dx (A.13)

Consid´erons en particulier g(X) =Xn, alors µn=E[Xn] =

Z

R

xnf(x)dx (A.14)

est le moment d’ordren de la variable al´eatoire r´eelle X Le moment d’ordre deux :

E[X2] = Z

R

x2f(x)dx (A.15)

joue un rˆole particuli`erement important.

On appelle variance le moment d’ordre deux de (X−m) = (X −E[X]) et ´ecart typeσ la racine carr´ee de cette quantit´e

σ=p

E[(X −E[X])2] (A.16)

La variable al´eatoire (X−E[X])/σ a pour esp´erance 0 et pour ´ecart type 1. On dit qu’elle est r´eduite.

A.10 Fonction Caracteristique

A.10.1 D´efinition

La fonction caract´eristique d’une variable al´eatoire r´eelle X est la transformee de Fourier de la loi de probabilit´eP(X) de la variable al´eatoire X :

F(t) =E[exp (itX)]

Son d´eveloppement de Taylor `a l’origine s’exprime en fonction des moments d’ordre n successifs de la variable al´eatoire X

F(t) = 1 +itE(X)−t2E[X2]/2−it3E[X3]/3!...

Si X admet une densit´e de probabilit´e f(x), alors sa fonction caract´eristique est la trans-form´ee de Fourier de la fonction f(x).

A.10 Fonction Caracteristique 107 A.10.2 Exemple :

Loi gaussienne :

Nous choisissons pour exemple la loi gaussienne de densit´e de probabilit´e : fG(x) = 1

car sa fonction caract´eristique est tr`es simple, et le r´esultat nous servira `a la d´emonstration du th´eor`eme de la limite centrale.

FG(t) = 1 Nous allons montrer que l’int´egrale :

I = 1

est simplement 1. Pour cela nous consid´erons dans le plan complexe la fonction g´en´erale : G(Z) = 1

et nous l’int´egrons sur le contour ferm´e repr´esent´e sur la figure A.1, Puisqu’il n’y a aucun pˆole `a l’int´erieur de ce contour, le th´eor`eme des r´esidus nous dit que l’int´egrale sur le contour est nulle : n’est autre queI et le premier terme repr´esente l’int´egrale sur l’axe r´eel :

√ 1

DoncI = 1 et la fonction caract´eristique de la loi gaussienne est : FG(t) = exp

−σ

2

t i

-A 0 A

C1 C2

C3 C4

Fig.A.1 –

A.11 In´ egalit´ e de Bienaym´ e-Tchebichef

Nous allons d´emontrer une in´egalit´e triviale, mais n´eanmoins importante introduite par Bienaym´e et Tchebichef.

Pour toute variable al´eatoire r´eelle X, de carr´e int´egrable (i.e µ2 =E[X2] est fini), et pour tout nombre r´eel astrictement positif :

P(|X| ≥a)≤ µ2

a2 (A.18)

D´emonstration : D´esignons par

1{|x|≥a} la fonction qui vaut 1 si |x| ≥aet 0 sinon, alors on a

1{|x|≥a}≤ 1 a2x2

et on a aussi, entre les variables al´eatoires d´efinies par les fonctions correspondant `a chacun des deux membres :

1{|X|≥a} ≤ 1 a2X2

En prenant l’int´egrale par rapport `a la mesure de probabilit´eP de chacun des deux mem-bres, on obtient :

P(|X| ≥a)≤E X2

a2

A.12 Couples de variables al´eatoires 109 Et comme

E X2

a2

=E[X2]/a2 l’in´egalit´e de Bienaym´e-Tchebichev est ainsi d´emontr´ee

A.12 Couples de variables al´ eatoires

Soient deux variables al´eatoiresX1 etX2 de lois de probabilit´ePX1 etPX2. On peut d´efinir la loi de probabilit´e conjointe du couple (ou vecteur) U = (X1, X2) :

P(U)(A×B) =P({X1 ∈A} ∩ {X2 ∈B}) A.12.1 Covariance

On appelle covariance des deux variables al´eatoires :

cov(X1, X2) =E[(X1−E[X1])(X2−E[X2])] =E[X1X2]−E[X1]E[X2] A.12.2 Ind´ependance

Deux variables al´eatoires sont ind´ependantes si quels que soientA et B : P(U)(A×B) =P(X1)(A)P(X2)(B)

soit

P({X1 ∈A} ∩ {X2 ∈B}) =P({X1 ∈A})P({X2 ∈B}) On en d´eduit :

E(X1X2) =E(X1)E(X2) donc cov(X1, X2) = 0

Si les variables al´atoiresX1etX2admettent des densit´es de probabilit´ef1(x1),f2(x2) alors la loi de probabilit´e conjointe du couple admet pour densit´e de probabilit´e :

h(x1, x2) =f1(x1)f2(x2)

A.12.3 Somme de 2 variables al´eatoires ind´ependantes

La fonction caract´eristique de la somme S = X1+X2 de deux variables al´eatoires X1 et X2 s’´ecrit :

F(t) =E[expit(X1+X2)] =E[exp(itX1) exp(itX2)]

Si deux variables al´eatoires X1et X2sont ind´ependantes, les variables al´eatoires exp(itX1) et exp(itX2) sont ind´ependantes et l’esp´erance du produit de ces derni`eres est ´egale au produit des esp´erances. Donc

F(t) =E[exp(itX1)]E[exp(itX2)]

siX1 etX2 admettent pour densit´es de probabilit´ef1(x1) et f1(x1) alorsF(t), transform´ee de fourier de la densit´e de probabilit´e de la sommeX1+X2 est le produit des transform´ees

siX1 etX2 admettent pour densit´es de probabilit´ef1(x1) et f1(x1) alorsF(t), transform´ee de fourier de la densit´e de probabilit´e de la sommeX1+X2 est le produit des transform´ees

Documents relatifs