EXAMEN DU 27 MAI 2009 – LM347 – CORRECTION (Programme : parties I, II, III, IV et V)
Durée 2h - Aucun document - Pas de calculette
Exercice 1.
Six points du plan ont pour coordonnées, pourα et β >0 vérifiant α2+β2 = 1 :
point C1 C2
1 1 0
2 −1 0
3 0 1
4 0 −1
5 α β
6 −α −β
i)−Calculer la matrice de variance-covariance empirique CX. ii)−Calculer les valeurs propres de cette matrice.
iii)−Calculer l0inertie du nuage de points associ´ee au tableau de donn´ees.
iv)−Calculer les vecteurs propres de CX.
v)−Calculer les composantes principales de l0ACP surCX.
vi)−Repr´esenter les points et les axes principaux dans le plan de d´epart.
vii)−Calculer et diagonaliser la matrice des corr´elations empiriques ρ(X).
viii)−Cela a-t-il un sens d0effectuer une ACP sur ρ(X) en dimension 2 ? Aide :la matrice de variance-covariance est proportionnelle à la matriceA=
1 +α2 αβ αβ 1 +β2
et ses valeurs propres ne dépendent pas deα etβ.
i) – Le tableau de données X est centré, ainsi Xc=X et : CX =Xc0Xc=X0X =
12+ (−1)2+α2+ (−α)2 αβ+ (−α)(−β) αβ + (−α)(−β) 12+ (−1)2+β2+ (−β)2
= 2A .
ii) – En utilisant α2+β2 = 1, les valeurs propres λ de A sont les solutions du trinôme : (1 +α2−λ)(1 +β2 −λ)−(αβ)2 =λ2−(2 +α2+β2)λ+ (1 +α2)(1 +β2)−α2β2
=λ2−3λ+ 1 +α2+β2 =λ2−3λ+ 2 . Ces solutions valent (3±√
32−4×2)/2 = (3±1)/2, c’est-à-dire 2 et 1.
iii) – D’après le cours, l’inertie du nuage de points est égale à la trace de CX, qui vaut 2× (1+α2 + 1+β2) = 2×3 = 6.
iv) – Un vecteur propre V = v1
v2
de A correspondant à la valeur propre 1 est solution de : (1 +α2)v1+αβv2 =v1
αβv1+ (1 +β2)v2 =v2 ⇐⇒
α2v1+αβv2 = 0
αβv1+β2v2 = 0 ⇐⇒ αv1+βv2 = 0 , ainsiV2 =
β
−α
est vecteur propre de norme1pour la valeur propre1, et, par orthogonormalité des vecteurs propres correspondant à des valeurs propres différentes lorsqu’on diagonalise une matrice symétrique, le vecteur V1 =
α β
est vecteur propre de norme1 pour la valeur propre 2.
v) – Avec les notations du cours les composantes principales de l’ACP surCX sont :µ1U1 =XcV1 et µ2U2 =XcV2; c’est-à-dire µ1U1 = (α −α β −β 1 −1)0 et µ2U2 = (β −β −α α 0 0)0.
vi) – A faire vous-mêmes : tous les points du nuages sont sur le cercle de rayon 1 centré en 0, et le premier axe principal passe par le centre du cercle et le point (α β)0.
vii) – La matrice ρ(X) se déduit de CX, elle vaut
1 r r 1
, avec r =αβ/p
(1 +α2)(1 +β2), elle admet
1/√ 2 1/√
2
comme vecteur propre pour la valeur propre 1 +r, et donc
1/√ 2
−1/√ 2
comme vecteur propre pour la valeur propre 1−r.
viii) – Cela n’a pas de sens puisque, en dimension 2, les vecteurs propres obtenus, qui définissent les axes principaux du nuage de points, sont indépendants du nuage de points.
1
Exercice 2.
Soit un échantillon X1, . . . , Xn de loi γ(1, b), de densité f(x) = be−bx/Γ(1) pour x > 0. On note X = (X1· · ·Xn)0.
i) – Montrer que Γ(1) = 1 et que f est bien une densité de probabilité.
ii) – Calculer EX1 etVX1.
iii) – Proposer un estimateur deb obtenu par la méthode des moments.
iv) – Calculer la densité fX(x, b)du v.a. X et le logarithme de la vraisemblance de X.
v) – Montrer que l’estimateurˆb du maximum de vraisemblance de b est égal à 1/m(X).
vi) – Montrer queˆb est asymptotiquement normal et calculer sa loi limite.
vii) – Calculer l’information de Fisher I(b)de l’échantillon X1, . . . , Xn.
viii) – Quelle relation attend-t-on entre la variance deˆb et l’information de Fisher I(b)? i) – Γ(1) = R∞
0 e−xdx = [−e−x]∞0 = 1. De plus, la fonction f est positive, continue sauf en 0, intégrable, et en effectuant le changement de variables y=bx, on a R∞
0 f(x)dx = R∞
0 be−bxdx = R∞
0 e−ydy= 1. Ce qui montre que f est une densité de probabilité.
ii) – Pour k ∈ {1,2, . . .}, on a : E(Xk) =
Z ∞
0
xkbe−bxdx= 1 bk
Z ∞
0
bk+1xke−bxdx= Γ(k+ 1) bk = k!
bk . Ainsi EX1 = 1/b et VX1 =E(X12)−(EX1)2 = 2/b2−1/b2 = 1/b2.
iii) – Comme P(X1>0)=1⇒P(m(X)>0)=1, l’équation m(X)=EX1=1ˆ
b se résoud en ˆb = m(X1 ). iv) – La densité = la vraisemblance de X est égale à fX(x, b) = Qn
i=1be−bxi = bne−b(x1+···+xn) pour x= (x1. . . xn)0∈]0,∞[n, le logarithme de la vraisemblance s’écrit donc :
log(fX(x, b)) =nlogb−b(x1+. . .+xn) .
v) – Cette dernière fonction est strictement concave de limite en 0 égale à −∞, et lorsque x1 +. . . +xn > 0, de limite en +∞ égale à −∞; dans ce cas elle admet donc un unique maximum qui est atteint en b solution de n/b−(x1+· · ·+xn) = 0 ⇔ b =n/(x1+· · ·+xn).
Ce qui prouve queˆb= 1/m(X) est l’EMV de b puisque P(m(X)>0)=1.
vi) – D’après le cours, m(X) est asymptotiquement normal : la suite √
n(m(X)−1/b) converge en loi lorsque n → ∞ vers la loi N(0,1/b2), en utilisant les résultats de la question ii). La méthode delta (théorème 4 de la partie V), appliquée à cette suite et à la fonction f(x) = 1/x, implique alors que la suite √
n(ˆb −b) converge en loi lorsque n → ∞ vers la loi N(0,1/b2), puisque (f0(1/b))2/b2 =b4/b2 =b2.
vii) – On a :
∂log(fX)
∂b (x, b) = n
b −(x1+· · ·+xn) et ∂2log(fX)
∂b2 (x, b) =−n b2 ,
ainsi, comme les conditions de régularité sont vérifiées, I(b) = −E(∂2log(f∂b2 X)(X, b)) =n/b2. viii) – En posant g(b) = Eˆb, on doit vérifier l’inégalité d’information :
Vˆb≥ (g0(b))2
I(b) = b2(g0(b))2
n .
Exercice 3.
Soit y1, . . . , yn des valeurs réelles connues et le modèle de régression linéaireXi =ayi+b+i pour i ∈ {1, . . . , n}, avec a, b des paramètres réels, et 1, . . . , n des v.a.i.i.d. de loi N(0,σ2) où σ2 est un paramètre réel strictement positif.
On suppose que les vecteurs 1 ety = (y1· · ·yn)0 deRn sont orthogonaux et que y6= 0.
i) – Ecrire le modèle sous la formeX =Aθ+,θ∈R2 et montrer que le modèle linéaire détermi- niste X˜ =Aθ est régulier.
ii) – Montrer que la matrice A0A est diagonale et calculer (A0A)−1.
iii) – Résoudre le problème de moindres carrés associé au modèle de régression linéaire X˜ =Aθ.
2
iv) – Ecrire la vraisemblance deX.
v) – Trouver les estimateurs du maximum de vraisemblanceˆa,ˆb,σˆ2des paramètresa, b, σ2 lorsque n >2.
vi) – Calculer la loi de ˆa et celle de σˆ2.
vii) – Construire un intervalle de confiance pour le paramètre a de degré de confiance 95%.
viii) – Proposer un test de l’hypothèsea = 0 d’erreur de première espèce 5%.
i) – Posons X = (X1· · ·Xn)0, = (1· · ·n)0, y= (y1· · ·yn)0 et 1= (1· · ·1)0 quatre vecteurs de Rn. Posons aussiA= [y1]une matricen×2etθ= (a b)0 ∈R2. Alors on a l’identitéX =Aθ+.
De plus, le vecteur y étant non nul et orthogonal au vecteur 1, les deux colonnes de la matrice A sont linéairement indépendantes et le rang de A est égal à 2. Ce qui montre que le modèle linéaire déterministe X˜ =Aθ est régulier.
ii) – La matrice A0A est constituée des produits scalaires des colonnes de A : A0A=
y0y y01 y01 101
=
y0y 0 0 n
d0o `u (A0A)−1 =
(y0y)−1 0 0 n−1
, ce qui a bien un sens puisque y6= 0 ⇒y0y6= 0.
iii) – Le paramètre θˆsolution du problème des moindres carrés pour le modèle régulier X˜ =Aθ est donné par la formule θˆ= (A0A)−1A0X. Comme A0X = (y0X 10X)0, il vient :
θˆ=
(y0y)−1 0 0 n−1
y0X 10X
=
y0X/y0y 10X/n
=
c(y,X)/v(y) m(X)
,
la dernière égalité provenant du fait que le vecteur y est centré, puisque qu’il est orthogonal au vecteur 1.
iv) – Le vecteur X suit la loi normaleNn(Aθ,σ2In), il admet une densité par rapport à la mesure de Lebesgue sur Rn qui est sa vraisemblance :
fX(x, a, b, σ2) = (2π)−n/2σ−ne−kx−Aθk
2
2σ2 = (2π)−n/2σ−ne−2σ12Pni=1(xi−ayi−b)2.
v) – D’après le cours, puisqu’il y a deux paramètres pour la moyenne et comme il est supposé quen >2, les EMV de a et b sont donnés par le θˆobtenu à la question iii) et l’EMV de σ2 vaut ˆ
σ2 = n1kX−Aθkˆ 2 = 1nPn
i=1(Xi−ˆayi−ˆb)2.
vi) – Toujours d’après le cours (proposition 9 de la partie V), θˆsuit la loi N2(θ, σ2(A0A)−1) et nˆσ2/σ2 suit la loi χ2n−2. De l’expression de (A0A)−1 obtenu à la question ii), on déduit alors que ˆ
a suit la loi N(a, σ2(y0y)−1).
vii) – On utilise la méthode de “studentisation”, p
nv(y)(ˆa−a)/σ suit la loi normale standard, si bien que la statistique :
T =
pnv(y)(ˆa−a)/σ pnˆσ2/σ2 =
pv(y)(ˆa−a)
√ ˆ σ2 suit la loi de Student Tn−2, les v.a. p
nv(y)(ˆa−a)/σ et nσˆ2/σ2 étant indépendantes. En notant tn−2,α le réel positif vérifiant P(|T| ≤tn−2,α) = 1−α, pour α ∈]0,1[, un intervalle de confiance pour le paramètre a est :
I = ˆ
a−tn−2,α
√ ˆ σ2
pv(y), ˆa+tn−2,α
√ ˆ σ2 pv(y)
,
il est de niveau de confiance 1−α puisque :
P(a∈ I) =P(|T| ≤tn−2,α) = 1−α .
viii) – Si on poseR ={0∈ I}, cette région de l’espace des observations peut être utilisée comme/ la région de rejet d’un test de l’hypothèse a = 0. On a alors pour l’erreur de première espèce, lorsque θ= (0 b)0 :
Pθ(R) = P(0∈ I) =/ P(|T|> tn−2,α) = 1−P(|T| ≤tn−2,α) =α . On répond à la question en choisissant α= 5%.
3