ÉCS2
Convergence et Estimation.
1 Convergence en probabilité.
Soit (Xn)n∈
N et X des v.a.r. sur (Ω,A,P). On dit que la suite (Xn) converge en probabilité versX(et on note siXn −→P X) si :
∀ε >0, lim
n→+∞P(
Xn−X
>ε) = 0.
Pour montrer que(Xn)−→P koùk est une v.a.r. constante, on dispose de :
1. Si(Xn)est une suite de v.a.r. indépendantes possédant une même espérance met un même écart-typeσet siFn =X1+· · ·+ Xn
n est lanème moyenne empirique desXn, alors
(Fn)converge en probabilité versm (Loi faible des grands nombres); 2. ∀ε >0, P(
Xn−E(Xn)
>ε)6V(Xn)
ε2 (Inégalité de Bienaymé-Tchebychev).
qui permet de conclure notamment si (∀n,E(Xn) =k, etV(Xn)−−−−−→
n→+∞ 0) ; 3. La définition de la convergence en probabilité :
si on peut calculerP(
Xn−X
>ε), on montre queP(
Xn−X
>ε)−−−−−→
n→+∞ 0 4. La composition par une fonctioncontinue: siXn =f(Yn)et si on arrive à montrer
queYn−→P k, alorsXn−→P f(k) 5. SiXest positive,
∀α >0, P(X>α)6E(X)
α (Inégalité de Markov).
Peut s’appliquer à une variable bien choisie : par exempleX = (Xn−k)2 et α=ε2 donnentP(|Xn−k|>ε) =P((Xn−k)2>ε2)6 E (Xn−k)2
ε2 ...
2 Convergence en loi.
Soit(Xn)n∈
Net Xdes v.a.r. sur(Ω,A,P). On dit quela suite(Xn)converge en loi vers X(et on noteXn−→L X) si :
en tout réelxoùFX est continue, lim
n→+∞FXn(x) = FX(x).
Pour montrer que(Xn)−→L X, on dispose de : 1. La définition : lim
n→+∞FXn(x) = FX(x)pour toutxoùFX est continue ; 2. Si(Xn)n∈NetX sont discrètes et vérifient∀n∈N, Xn(Ω)⊂Net X(Ω)⊂N,
Xn −→L X⇐⇒ ∀k∈N, lim
n→+∞P(Xn=k) =P(X =k)
où on peut remplacer éventuellementNparZ; 3. Le théorème limite central :
• soit(Xi)i∈N∗une suite de variables aléatoiresindépendantes, toutes de même loi, possédant une espérance m et un écart-type non nulσσσ
• soitSn =
n
X
i=1
Xi etXn= 1
nSn (nème moyenne empirique) Alors X∗n= S∗n−→L XoùX,→N(0; 1).
Remarque technique : savoir jongler avecS∗n et X∗n.
E(Sn)lin.= nm, E(Xn)lin.= m,V(Sn)indép.= nσ2,V(Xn)indép.= σ2 n, X∗n= Xn−E(Xn)
σ(Xn) =√
nXn−m
σ =nSn−nm
√nσ = S∗n .
4. La composition par une fonctioncontinue: siXn=f(Yn)et si on arrive à montrer queYn −→L k, alorsXn−→L f(k)
5. Le théorème deSlutsky(attention à la nature des convergences) : Xn P
−→c(constante) Yn−→L Y
)
⇒
( XnYn−→L cY
Xn+ Yn−→L c+ Y 6. Un cas très particulier : la loi de Poisson, limite de la loi binomiale.
Soitλ >0. Toute suite(Xn)n>λde v.a.r. de loi respectiveB(n, λ/n)converge en loi vers une v.a.r. de loi de PoissonP(λ).
/Une suite de v.a.r. à densité peut converger en loi vers une v.a.r. discrète.
/Une suite de v.a.r. dicrètes peut converger en loi vers une v.a.r. à densité.
/ La convergence en loi des v.a.r. à densité(Xn) vers une v.a.r. à densitéX n’entraîne pasa priori la convergence des densitésfXn versfX.
3 Approximations usuelles en probabilité.
Pour calculer des valeurs approchées de probabilités, on peut :
1. approcherB(n, p)parP(np)sin>30etnp610;
2. approcherB(n, p)parN(np;np(1−p))sin>20, np>5etn(1−p)>5; 3. approcherP(λ)parN(λ;λ)siλ>10.
/Si l’on approche une loi discrète par une loi à densité, il convient d’effectuer lacorrec- tion de continuité.
Lycée HenriPoincaré 1/2 lo
ÉCS2
Convergence et Estimation.
/Dans la pratique :
Si X,→B(45; 1/3), la loi deX peut être approchée par celle deY,→N(15; 10): P(X = 15)'P(14,56Y615,5) et P(86X615)'P(7,56Y615,5).
4 Estimation ponctuelle.
Quelques définitions :
1. Lorsque X1, . . . ,Xn sont n variables indépendantes de même loi µθ dépendant d’un paramètre θ qui peut prendre ses valeurs dans un intervalle Θ, on dit que (X1, . . . ,Xn)est unn-échantillondeµθ;
2. Unestimateur(de rangn) est une v.a.r.Tn fonction deX1, . . . ,Xn; 3. Si :∀n∈N∗, Eθ(Tn) =g(θ),Tn est unestimateur sans biaisdeg(θ); 4. Si : lim
n→+∞Eθ(Tn) =g(θ),Tn est unestimateur asymptotiquement sans biais deg(θ);
5. ∀n∈N∗, bθ(Tn) =Eθ(Tn)−g(θ)est lebiaisdeTn;
6. Lerisque quadratiquedeTn est rθ(Tn) =Eθ((Tn−g(θ))2);
7. L’estimateurTn estconvergents’il tend en probabilité versg(θ)quandntend vers +∞.
Pour calculer le risque quadratique, 1. rθ(Tn) =Vθ(Tn) +
bθ(Tn)2
;
2. En particulier, siTn est sans bais, alorsrθ(Tn) =Vθ(Tn).
Pour établir la convergence de l’estimateur,
1. siTn est fonction continuef(Xn)de la moyenne empiriqueXndenv.a.r. possédant une espérancemet une variance, alorsTn est un estimateur convergent def(m)(la convergence deXn versmdécoulant de la loi faible des grands nombres) ;
2. sinon, il suffit d’avoir
rθ(Tn)−−−−−→
n→+∞ 0 pour affirmer queTn converge.
En particulier, si l’estimateur est sans biais ou s’il est asymptotiquement sans biais (doncbθ(Tn)−−−−−→
n→+∞ 0), il suffit que : Vθ(Tn)−−−−−→
n→+∞ 0 pour affirmer queTn converge.
5 Estimation par intervalle de confiance.
Quelques définitions :
5.1 Estimation par intervalle de confiance
Soitα∈[ 0 ; 1 ]. Soit(Un)n>1et(Vn)n>1deux suites d’estimateurs deg(θ). On dit que [Un,Vn]est un intervalle de confiance deg(θ)au niveau de confiance1−α(ou au risque α) si, pour toutθ deΘ,
Pθ([Un 6g(θ)6Vn])>1−α.
La réalisation sur un échantillon fournit une estimation de cet intervalle de confiance.
5.2 Estimation par intervalle de confiance asymptotique
Soitα∈[ 0 ; 1 ]. Soit(Un)n>1et(Vn)n>1deux suites d’estimateurs deg(θ). On dit que [Un,Vn]est un intervalle de confiance asymptotique deg(θ)au niveau de confiance1−α (ou au risqueα) si, pour tout θ de Θ, il existe une suite (αn)n>1 de réels de [ 0 ; 1 ], de limiteα, telle que :
∀n>1,Pθ([Un 6g(θ)6Vn])>1−αn.
La réalisation sur un échantillon fournit une estimation de cet intervalle de confiance asymptotique.
5.3 Construction d’intervalles de confiance
Lorsque l’écart-typeσn’est pas connu, on peut utiliser un estimateur convergentSnde σconstruit à l’aide desXi (ou/et de Xn).
Dans ce cas , on utilise lethéorème de Slutsky: Sn−→P σ(>0)
X∗n−→L N(0; 1) )
⇒ σ Sn
X∗n−→L N(0; 1)
Voir la fiche du même nom, notamment le paragraphe3. Bilan.
Remarque sur les notations
La plupart des exercices ne cherchent pas à estimerg(θ)(i.e.une fonction quelconque de θ) mais directement θ, puisque si Tn −→P θ, alors g(Tn) −→P g(θ) pourvu que g soit continue.
De plus, on ne s’encombre en général pas de la notationPθ,Eθ etVθ, et on lui préfère la notation usuelleP, EetV.
Lycée HenriPoincaré 2/2 lo