• Aucun résultat trouvé

Leçon 261 : Fonction caractéristique d’une variable aléatoire. Exemples et applications.

N/A
N/A
Protected

Academic year: 2022

Partager "Leçon 261 : Fonction caractéristique d’une variable aléatoire. Exemples et applications."

Copied!
4
0
0

Texte intégral

(1)

Leçon 261 : Fonction caractéristique d’une variable aléatoire. Exemples et applications.

On se donne un espace probabilisé (Ω,A,P). On considèrera des variables aléatoires à valeurs dans (Rd,B(Rd)). On notera〈· | ·〉le produit scalaire canonique surRd.

1 Définitions et premières propriétés

Définition 1. Soitµune mesure de probabilité surRd, on appelle fonc- tion caractéristique de µ la fonction ϕµ : RdC définie par ϕµ(t) = R

Rdei〈t|x〉dµ(x).

SiX est une v.a. on appelle fonction caractéristique deX la fonction ca- ractéristique de sa loi.

Proposition 2. Par le théorème de transfert,ϕX(t)=E[eit|X].

Proposition 3. Soit X une v.a. dansRd, de fonction caractéristiqueϕ. 1. ϕ(0)=1

2. ∀t∈Rd,|ϕ(t)|61 3.tRd(−t)=ϕ(t)

4. Soient A ∈Mn,d(R) et bRn. Notons Y = AX+b, alors ϕY(t)= ϕX(tAt)ei〈b|t〉.

5. La fonctionϕest uniformément continue.

Proposition 4(formule d’inversion). Soitµune mesure de probabilité sur R. Alors :

µ(]a,b[)+µ({a})+µ({b})

2 = lim

T→∞

1 2π

Z T

T

e−it a−eit b

it ϕµ(t) dt

Théorème 5. La fonction caractéristique caractérise la loi : siµetνsont deux probabilités surRd, alorsϕµ=ϕν ⇐⇒µ=ν.

Corollaire 6. Soient X une v.a. dansRdet Y une v.a. dansRp. Alors X et Y sont indépendantes ssi pour tout(t,s)Rd×Rp(X,Y)(t,s)=ϕX(t)ϕY(s).

Remarque7. Dans le cas oùX admet une densité f par rapport à la me- sure de Lebesgue surRd, alorsϕX(t)=fˆ(−t) où ˆf est la transformée de Fourier def, définie par ˆf(ξ)=R

Rd f(x)ei〈ξ|xdx.

Exemple 8.

1. SiX∼U([−1, 1]), alorsϕX(t)=sintt. 2. SiX∼E(λ), alorsϕX(t)=λ−itλ .

3. SiX∼N(m,σ2), alorsϕX(t)=eimtet

2σ2 2 . 4. SiX∼C(1), alorsϕX(t)=e−|t|.

Proposition 9. Soient X et Y deux v.a. indépendantes. AlorsϕX+Y(t)= ϕX(t)ϕY(t).

Application 10. SoitN v.a. entière de loiG(p) avecp∈]0, 1[ et soit (Xn) une suite i.i.d. avecXnde loiE(λ). NotonsSn=X1+ · · · +Xn, alorsSNsuit la loiE(λp).

2 Vecteurs gaussiens

Définition 11. On dit qu’une v.a.X est un vecteur gaussien si pour tout aRd,〈X|a〉suit une loi gaussienne.

Exemple 12. SiX1, . . . ,Xdsont des v.a. i.i.d. de loiN(0, 1) alors (X1, . . . ,Xd) est un vecteur gaussien, de moyenne 0 et de matrice de covariance Id.

1

(2)

Proposition 13. L’image d’un vecteur gaussien d’espérance m et de matrice de covarianceΓpar une application affine x7→Ax+b et encore un vecteur gaussien, d’espérance Am+b et de matrice de covariance AΓtA.

Théorème 14. Soit X une v.a.L2d’espérance m et de matrice de covariance Γ. Alors X est un vecteur gaussien ssiϕX(t)=ei〈m|t〉e12〈Γt|t〉.

Corollaire 15. Si deux vecteurs gaussiens ont même espérance et même matrice de covariance, alors ils ont la même loi. On noteN(m,Γ)la loi d’un vecteur gaussien d’espérance m et de matrice de covarianceΓ.

Théorème 16. Des variables gaussiennes sont indépendantes ssi elles sont deux à deux non corrélées, c’est-à-dire ssi leur matrice de covariance est diagonale.

3 Moments d’une v.a.r.

Théorème 17. Soit X une v.a.r. et soitϕsa fonction caractéristique.

1. Si X admet un moment d’ordre nN, alorsϕest de classe Cn et pour tout16k 6n,ϕ(k)(t)=ikE(Xkeit X). En particulier,ϕ(k)(0)= ikE(Xk).

2. Siϕest k fois dérivable en0(avec k>2), alors X admet des moments jusqu’à l’ordre2bk2c.

Application 18. SoitXde loiN(0, 1). AlorsXadmet des moments de tout ordre et ceux-ci sont donnés par :

E(X2k+1)=0, E(X2k)=1×3×5× · · · ×(2k−1)

Remarque 19. Les moments ne suffisent pas à caractériser une loi en général : par exemple, si Z suit la loi log-normale (c’est-à-dire log(Z) suit une loiN(0, 1)), notons Za la v.a. admettant pour densité fa(x)= f(x)(1+asin(2πlogx)) surR+a∈[−1, 1] etf est la densité deZ. Alors Z etZaont les mêmes moments.

Théorème 20(des moments). Soit X une v.a.r. de fonction caractéristique ϕ.

1. Si X admet un moment d’ordre n, alorsϕadmet un développement limité à l’ordre n en0:

ϕ(t)=

n

X

k=0

(it)k

k! E[Xk]+(it)n n! εn(t) avecn(t)|62E(|X|n)etlimt0εn(t)=0.

2. Si X admet des moment à tout ordre et silim supnE(|Xnn|)1/n =R1 < ∞ alorsϕest développable en série entière au voisinage de tout réel avec un rayon de convergence supérieur à Re. En particulier, les moments caractérisent la loi.

4 Convergence en loi

Définition 21. Soit (µn) une suite de probabilités. On dit que (µn) converge étroitement vers la probabilitéµsi pour toute fonction f conti- nue bornée,R

Rdfn→R

Rdfdµ.

On dit qu’une suite de v.a. (Xn) converge versX en loi si la suite des lois des (Xn) converge étroitement vers la loi de X, c’est-à-dire si pour toute fonction continue bornéef,E[f(Xn)]→E[f(X)].

Définition 22. On dit qu’une familleMde mesures de probabilité surRd est tendue si pour toutε>0, il existe un compactK deRdtel que∀µ∈M, µ(Rd\K)6ε.

Théorème 23(Prohorov). Si une suite(µn)de mesures de probabilité est tendue, alors on peut extraire une sous-suite qui converge étroitement vers une mesure de probabilitéµ.

Corollaire 24. Soitn) une suite tendue de mesures de probabilité telle que toute sous-suite de(µn)qui converge étroitement converge versµ. Alors (µn)converge étroitement versµ.

2

(3)

Théorème 25(Lévy). Soit(Xn)une suite de v.a. et X une v.a. Alors Xn−→L X ssi∀t∈Rd,ϕXn(t)→ϕX(t).

Théorème 26(loi faible des grands nombres L1). Soit(Xn)une suite de v.a.r.L1. Notons m=E(X1)et Xn=1nPn

i=1Xi. Alors(Xn)converge vers X en probabilité :∀ε>0,P(|Xnm|>ε)→0.

Théorème 27(théorème central limite). Soit (Xn)n>1 une suite de v.a.r.

i.i.d. de carré intégrable. Notons m leur espérance etσ2leur variance. No- tons Xn=1nPn

i=1Xi. Alors : pn¡

Xnm¢ L

−−−−→n

→∞ N(0,σ2)

Lemme 28. Soit(Xn)une suite de vecteurs aléatoires et X un vecteur aléa- toire. Si pour tout aRd,Xn|aconverge en loi versX |a, alors(Xn) converge en loi vers X .

Théorème 29(TCL multidimensionnel). Soit(Xn)une suite de vecteurs aléatoires i.i.d.L2. On note m leur espérance etΓleur matrice de covariance.

Alors :

pn¡

Xn−m¢ L

−→N(0,Γ)

Application 30(intervalle de confiance asymptotique). Soit (Xn)n>1une suite de v.a.r. i.i.d. de carré intégrable. Notonsmleur espérance etσ2leur variance. SoientXn = n1Pn

i=1Xi et ˆσ2n = n1Pn

i=1(XiXn)2. On se donne α∈]0, 1[. Alors :

1. Xnet ˆσ2n convergent p.s. versmetσ2. On dit que ce sont des esti- mateurs consistants demetσ2.

2. Soit ˆIn

Xnqαpσˆn

n;Xn+qαpσˆn n

¤oùqαvérifieP(Z 6qα)=1−α2 pourZ de loiN(0, 1). Alors :

nlim→∞P(mIˆn)=1−α

Application 31(formule de Stirling). On a l’équivalentn!∼p

2πnn+12e−n.

Développements

1. Fonction caractéristique de la loi normale et de la loi de Cauchy.[8]

2. Fonction caractéristique et moments.[17]

3

(4)

Références

— BARBEet LEDOUX,Probabilités.

— BERCUet CHAFAÏ,Modélisation stochastique et simulation.

— CARRIEU,Probabilité – Exercices corrigés.

— GARETet KURTZMAN,De l’intégration aux probabilités.

— OUVRARD,Probabilités 2.

4

Références

Documents relatifs

C'est l'effet transistor qui permet à la diode qui est en inverse de conduire quand une tension est appliquée sur la base.. NPN

On obtient ainsi des congruences de droites, admettant (I) pour surface moyenne et dépendant de deux fonctions arbitraires d’une variable, f(s) et g~(s).

On pourrait, par une méthode toute semblable, établir une proposition analogue relative aux systèmes non singuliers d'équa- tions aux dérivées partielles du premier ordre à

The best attack which applies to all keys can break IDEA reduced to 6 rounds (the full IDEA cipher uses 8.5 rounds) Biham, E. ”A New Attack on

• multiple users can query the data, possibly with access rights defined by the

On suppose dans cette sous-partie III.A

Il existe un théorème un peu plus général : &#34;un vecteur aléatoire de loi gaussienne a des composantes indépendantes ssi sa matrice de covariance est diagonale&#34;.

Création et mise à jour du dossier d’identité du S.S.I. tel que visé par la norme NF S 61-932 ; Respect du cahier des charges et suivi des essais fonctionnels du S.S.I.