• Aucun résultat trouvé

GEOMETRIE EUCLIDIENNE ET STATISTIQUE Position du problème On considère une variable aléatoire X définie sur une population. On suppose que X est de loi normale,

N/A
N/A
Protected

Academic year: 2022

Partager "GEOMETRIE EUCLIDIENNE ET STATISTIQUE Position du problème On considère une variable aléatoire X définie sur une population. On suppose que X est de loi normale,"

Copied!
5
0
0

Texte intégral

(1)

GEOMETRIE EUCLIDIENNE ET STATISTIQUE

Position du problème

On considère une variable aléatoire X définie sur une population. On suppose que X est de loi normale, N ( μ , σ ) .

On prélève dans cette population un échantillon aléatoire et simple de taille n. Il en résulte n variables aléatoires, X X 1 , 2 ,... X n indépendantes et de même loi que X.

On note : X

n X i

i

= n

∑ =

1

1

et = ∑ ( − )

= n 1 i

i 2

2 X X

n

S 1 .

Nous allons démontrer que la variable aléatoire nS

suit la loi de

2

σ 2 χ² à (n – 1) degrés de liberté.

Rappel

Par définition une variable aléatoire suit la loi de χ² à ν degrés de liberté si elle est la somme des carrés de ν variables aléatoires normales, centrées, réduites et indépendantes.

Principe

On va travailler dans l'espace euclidien IR

n

muni de son produit scalaire usuel.

On considère le vecteur aléatoire

⎟ ⎟

⎟ ⎟

⎟ ⎟

⎟ ⎟

⎜ ⎜

⎜ ⎜

⎜ ⎜

⎜ ⎜

σ

− σ σ −

=

X X .

. X X

X X

V

n 2 1

et le vecteur

⎟ ⎟

⎟ ⎟

⎟ ⎟

⎜ ⎜

⎜ ⎜

⎜ ⎜

= 1

. . 1 1 I

( ) ( ) ( )

( X X X X ... X X ) ( 1 X X .... X n X ) 0

I. 1

V 1 2 n 1 + 2 + + n − =

= σ

− +

+

− +

σ −

=

V est donc orthogonal à I. Il en résulte que V appartient à l'hyperplan (sous-espace vectoriel de dimension n-1) de IR n orthogonal à I.

D'autre part ( ( ) ( ) 2 ( n ) 2 ) 2 2

2 2 2 1

2 nS

X X ...

X X X

1 X

V − + − + + − = σ

= σ

(2)

La démonstration consiste à utiliser une base orthonormale, ( ) e i 1 i n , de IR n telle que

n I

e 1 = 1 . On sait qu'une telle base existe et, dans une telle base, V a pour coordonnées

( 0 , X X 2 ' , 3 ' ,..., X ' n) et V nS

X i

i

2 2 n

2

2 2

= =

∑ =

σ

' .

Il restera à démontrer que les X ' i ( 2in ) sont de loi N(0, 1) et indépendantes.

Quelques rappels d’algèbre linéaire

Pour obtenir une matrice de changement de base on place en colonnes les coordonnées, dans la première base, des vecteurs de la deuxième base. Cette matrice permet de calculer les coordonnées d’un vecteur dans la première base en fonction de celles de ce vecteur dans la deuxième base.

Ce qui nous intéresse ici est la réciproque : calculer les nouvelles coordonnées en fonction des anciennes. Nous avons donc besoin de la matrice inverse de la matrice de changement de base.

Lors du passage d’une base orthonormale à une autre base orthonormale, la matrice de passage est une matrice orthogonale, son inverse est alors égale à sa transposée. Nous utiliserons donc une matrice dont les lignes seront les coordonnées des vecteurs de la nouvelle base.

Exemple de matrice convenant ici : Considérons la matrice suivante :

⎟ ⎟

⎟ ⎟

⎟ ⎟

⎟ ⎟

⎟ ⎟

⎜ ⎜

⎜ ⎜

⎜ ⎜

⎜ ⎜

⎜ ⎜

+

− +

1 n 1

1 ...

...

1 1 1

0 2

n 1 ...

...

1 1 1

...

...

...

...

...

...

...

...

...

...

...

...

...

...

...

...

0 0

...

0 3 1

1 1

0 0

...

...

0 2 1

1

0 0

...

...

0 0 1 1

1 1

...

...

1 1 1 1

Ses vecteurs-lignes sont 2 à 2 orthogonaux.. pour obtenir une matrice répondant à notre problème il suffit de multiplier chacun d'eux par l’inverse de sa norme.

Démonstration

• Soit une base orthonormale, ( ) e i 1 i n , de IR n telle que I

n

e 1 = 1

(3)

Pour 1 i n et 1 j n on notera a la j ≤ ≤ ≤ ≤ ij ième coordonnée de e . i

Pour tout i, 1 ≤ ≤ i n , on a : e i d où a ij

j

= n =

∑ =

1 2 1

1

' . (1)

D'autre part, pour i k e e i k d où a a ij kj

j

≠ = n =

∑ =

, . 0 ' : . 0 .

1

(2)

En particulier, pour tout i, 2 1 0 0

1

≤ ≤ = =

∑ =

i n e e i d où a ij

j

, . ' : n . (3)

• Avec les notations définies précédemment on obtient :

⎟ ⎟

⎟ ⎟

⎟ ⎟

⎟ ⎟

⎜ ⎜

⎜ ⎜

⎜ ⎜

⎜ ⎜

σ

− σ σ −

⎟ ⎟

⎟ ⎟

⎟ ⎟

⎜ ⎜

⎜ ⎜

⎜ ⎜

=

⎟⎟

⎟ ⎟

⎟ ⎟

⎜⎜

⎜ ⎜

⎜ ⎜

X X .

. X X

X X

..

a ...

...

a a

...

...

...

...

...

...

...

...

...

...

a ...

...

a

a n

... 1 n ...

1 n 1

X . . X X

n 2 1

nn 2

n 1 n

n 2 22

21

' n ' 2 1 '

0 I.

n V

X 1 ' = 1 = , d’où, puisque la nouvelle base est aussi orthonormale, l’égalité :

= ∑

= n 2 i

2 ' i

2 X

V c’est-à-dire = ∑

σ =

n 2 i

2 ' i

2 ² X

nS .

• D’autre part pour 2 ≤ ≤ i n on a :

( )

= = = =

=

=

=

n

1 j

j ij n

1 j

ij n

1 j

j ij n

1 j

j ij '

i

a X

σ a 1 σ X X σ a

X 1 X σ a

X 1 d’après (3).

X i ' est donc de loi normale comme combinaison linéaire de variables aléatoires normales indépendantes. De plus :

0 a )

X ( E 1 a

) X (

E n

1 j ij n

1

j ij j

' i ∑ =

σ

= μ σ ∑

= = = d’après (3).

et, les X i étant indépendantes,

1 a )

X ( V 1 a

) X (

V n

1 j

2 ij 2

n 2 1

j 2 j

2 ij

' i ∑ =

σ

= σ σ ∑

= = = d’après (1).

Il en résulte que, pour tout i, ' X i , n i

2 ≤ ≤ est de loi normale centrée et réduite.

(4)

• Il reste à montrer que les X i ' , pour 2 ≤ ≤ i n , sont indépendantes.

Toute combinaison linéaire des X i ' est une combinaison linéaire des X i et est donc de loi normale. La définition donnée en annexe permet donc de dire que le vecteur aléatoire

( ' ' n )

' 3

2 , X , ... X

X est gaussien. Pour que les X i ' ( 2 ≤ i ≤ n ) soient indépendantes il suffit, d'après le théorème donné en annexe, qu'elles soient 2 à 2 non corrélées.

Calculons donc, pour h différent de k ( h et k compris entre 2 et n), la covariance de X ' et h X ' k :

σ ∑ ∑

= = =

n 1 i

n 1

j hi kj i j

2 ' k

' h 1 a . a Cov ( X , X )

) X , X ( Cov

Or, pour i ≠ ,j Cov ( X i , X j ) = 0 puisque les X i sont indépendantes et, pour tout i compris

entre 1 et n, 2

i i

i , X ) V ( X ) X

(

Cov = = σ .Il en résulte :

0 a a .

a . 1 a

) X , X (

Cov n

1

j hj kj n

1 j

kj 2 2 hj

' k

' h ∑ σ = ∑ =

= σ

=

= d'après (2).

Les X ' i ( 2in ) sont donc indépendantes.

Conclusion : La variable aléatoire nS 2

σ 2 est la somme des carrés de n - 1 variables

aléatoires normales centrées réduites et indépendantes, elle est donc de loi de χ² à n - 1

degrés de liberté.

(5)

Prolongements possibles :

• On peut également montrer que nS 2

σ 2 est indépendante de X :

).

3 ( après ' d 0 n a

) X , X ( Cov n a

) 1 X , X ( Cov

) X , X ( Cov n a

) 1 n X

, 1 X 1 a

( Cov )

X , X ( Cov

n 1 j ij n 2

1

j ij j j

' i

n 1 j

n 1

k ij j k

n 1

k k

n 1 j ij j ' i

∑ = σ

= σ σ ∑

=

σ ∑ ∑

∑ = σ ∑

=

=

=

= =

=

=

Il en résulte que, pour tout i compris entre 2 et n, X ' i et X sont non corrélées et donc indépendantes d’après le théorème cité précédemment. On en déduit que nS 2

σ 2 qui est la somme des carrés de ces variables est indépendante de X .

• En analyse de variance à un facteur :

On démontre de la même manière que, lorsque les moyennes des p populations sont égales, la variable aléatoire SCE F

σ 2 suit la loi de χ² à p - 1 ddl (le même type de matrice est utilisable avec n = p lorsque les échantillons sont de même taille sinon on doit avoir a n

j n j

1 = , les n j étant les effectifs des échantillons et n l'effectif total).

• La matrice donnée en exemple (ou toute autre construite de la même manière)

est utilisée pour les comparaisons multiples de moyennes par une méthode appelée méthode des contrastes lorsque les effectifs des échantillons sont égaux.

Mais tout cela sera pour une autre fois si certains en manifestent le souhait.

Annexe

Définition : Une variable aléatoire définie sur un espace de probabilité et à valeurs dans IR n est dite normale ou gaussienne si toute combinaison linéaire de ses coordonnées est de loi normale.

(remarque : une variable aléatoire constante est considérée comme étant de loi normale d’écart type 0 ou dégénérée)

Théorème : Pour que la suite des coordonnées d'un vecteur normal soit indépendante, il faut et il suffit que la covariance de ce vecteur (matrice des covariances de ses coordonnées) soit une matrice diagonale.

- = - = - = - = - = - = - = - = -

Références

Documents relatifs

Les trois polynômes de cette famille sont de degrés deux à deux distincts donc ils forment une famille libre... On peut aussi ajouter que est bijective et que sa

[r]

On demande ici de montrer que certaines familles sont des bases et de préciser les matrices de passage à partir d'une base xée.. Les vecteurs de ces familles (les a i ) sont

On peut remarquer que dans le cas où les u k sont plus petits que 1 à partir d'un certain rang, la suite des produits est décroissante et positive donc elle converge.. Mais

Sauf mention explicite du contraire, R n est muni de son produit scalaire usuel.. Montrer que H est un hyperplan et en donner

c) D´ eterminer une base q-orthogonale et la matrice de q dans cette base... D´ eterminer la signature et le rang

En utilisant la m´ ethode de Gauss, d´ eterminer la signature de q et son

c) D´ eterminer une base q-orthogonale et la matrice de q dans cette