• Aucun résultat trouvé

1. On suppose ici les vecteurs v i deux à deux orthogonaux. Montrer que :

N/A
N/A
Protected

Academic year: 2022

Partager "1. On suppose ici les vecteurs v i deux à deux orthogonaux. Montrer que : "

Copied!
2
0
0

Texte intégral

(1)

MPSI B 29 juin 2019

Énoncé

Soit (E, (.|.)) un espace préhilbertien réel, n ∈ N et des vecteurs v 1 , ..., v n unitaires.

1. On suppose ici les vecteurs v i deux à deux orthogonaux. Montrer que :

n

X

i=1

v i

= √ n.

2. Les vecteurs v i ne sont pas ici supposés deux à deux orthogonaux. Il s'agit de montrer qu'il existe un n -uplet (ε 1 , ..., ε n ) ∈ {−1, 1} n tel que :

n

X

i=1

ε i v i

≤ √ n.

Considérons un espace probabilisé ni (Ω, P ) et n variables aléatoires X 1 , ..., X n mu- tuellement indépendantes sur Ω et à valeurs dans {−1, 1} telles que :

∀i ∈ J 1, n K , P (X i = 1) = P (X i = −1) = 1 2 . a. Montrer que E(R) = n pour la variable aléatoire R dénie par

R =

n

X

i=1

X i v i

2

.

b. En déduire qu'il existe ω ∈ Ω tel que R(ω) ≤ n . c. Conclure.

3. Pour toute partie I ⊂ J 1, n K et tout n -uplet (p 1 , ..., p n ) ∈ [0, 1] n , posons :

v I = X

i∈I

v i , v =

n

X

i=1

p i v i .

On veut montrer qu'il existe I ⊂ J 1, n K telle que kv − v I k ≤

√ n 2 .

Soient n variables aléatoires mutuellement indépendantes Y 1 , ..., Y n dénies sur Ω à valeurs dans {0, 1} et suivant toutes une loi de Bernoulli de paramètre p i . Posons :

S =

n

X

i=1

Y i v i − v

2

.

a. Montrer que E(S) ≤ n 4 . b. Conclure.

Cette création est mise à disposition selon le Contrat

Paternité-Partage des Conditions Initiales à l'Identique 2.0 France disponible en ligne http://creativecommons.org/licenses/by-sa/2.0/fr/

1

Rémy Nicolai Aeuclid1

(2)

MPSI B 29 juin 2019

Corrigé

1. Dans le calcul du carré de la norme, à cause de l'orthogonalité, seuls les (v i /v j ) avec i = j contribuent :

n

X

i=1

v i

2

= X

(i,j)∈ J 1,n K

2

(v i /v j ) = X

i∈ J 1,n K

kv i k 2 = n

2. a. Il ne faut surtout pas chercher à préciser la loi de R mais utiliser la linéarité de l'espérance en développant R comme une combinaison linéaire de variables plus simples.

R = X

(i,j)∈ J 1,n K

2

X i X j (v i /v j )

⇒ E(R) = X

(i,j)∈ J 1,n K

2

(v i /v j )E(X i X j ) = X

i∈ J 1,n K

kv i k 2 = n

En eet, pour i 6= j , la variable aléatoire X i X j est d'espérance nulle car prenant les valeurs −1 et 1 avec la même probabilité 1 2 . Par exemple, X i X j = 1 si et seulement si X i = 1 et X j = 1 ou X i = −1 et X j = −1 . Alors que la variable X i 2 est certaine de valeur 1 .

b. Si, pour tous les ω ∈ Ω , R(ω) était strictement plus grand que n , on aurait (sommation nie)

E(R) = X

ω∈Ω

P ({ω})X(ω) > X

ω∈Ω

P ({ω})

! n = n

En contradiction avec le résultat de la question précédente. Il existe donc un ω ∈ Ω tel que X (ω) ≤ n .

c. Pour l'évenement ω dont l'existence a été prouvé lors de la question précédente, notons i = X i (ω) . On a alors

n

X

i=1

i v i

= p

R(ω) ≤ √ n

3. a. Dans le calcul de E(S) en développant S comme le carré d'une norme, les variances et covariance des variables aléatoires Y i jouent le principal rôle. En eet, comme

les Y i sont de Bernoulli de paramétre p i , ce nombre p i est aussi l'espérance de Y i

donc Y i − p i est centrée( d'espérance nulle).

S =

X

i∈ J 1,n K

(Y i − p i )v i

2

= X

i∈ J 1,n K

(Y i − p i ) 2 kv i k 2 + X

i6=j

(Y i − p i )(Y j − p j )(v i /v j )

⇒ E(S) = X

i∈ J 1,n K

V(Y i ) kv i k 2 + X

i6=j

cov(Y i , Y j )(v i /v j ) = X

i∈ J 1,n K

p i (1 − p i )

Les covariances étant nulles car les variables sont mutuellement indépendantes.

La fonction x 7→ x(1 − x) est positive entre 0 et 1 et atteint sa plus grande valeur

1

4 en 1 2 . En majorant ainsi chaque p i (1 − p i ) , on obtient bien

E(S) ≤ X

i∈ J 1,n K

1 4 = n

4

b. Il est donc impossible que tous les ω soient tels que S(ω) > n 4 . Soit ω ∈ Ω tel que S(ω) ≤ n 4 et I = {i ∈ J 1, n K tq Y i (ω) = 1} . Dans ces conditions

S(ω) = kv I − vk 2 ≤ 1

4 ⇒ kv I − vk ≤

√ n 2

Cette création est mise à disposition selon le Contrat

Paternité-Partage des Conditions Initiales à l'Identique 2.0 France disponible en ligne http://creativecommons.org/licenses/by-sa/2.0/fr/

2

Rémy Nicolai Aeuclid1

Références

Documents relatifs

Si toutes ces tentatives échouent, on peut se ramener au cas d’une intersection d’événements en considérant la formule liant probabilité d’un événement à la probabilité

Autrement dit, F X définit la répartition aléatoire de X et permet ainis d’expliquer le terme de v.a.r.. • Évidemment, ce résultat est

Montrer de deux façons différentes que (AG) et (CFH) sont orthogonaux.. Montrer de deux façons différentes que (AG) et (IJ)

Si l’on considère l’expérience qui consiste à lancer une pièce.?. On note X la valeur obtenue par le premier dé et Y par

Une variable aléatoire X sur Ω est une fonction, qui à chaque issue de Ω, associe un nombre réel Exemples: Un joueur lance un dé a

ISFA - L3 Actuariat lerouvillois@math.univ-lyon1.fr Probabilités math.univ-lyon1.fr/homes-www/lerouvillois/. Éléments de correction TD 3

Dans le calcul de E(S) en développant S comme le carré d'une norme, les variances et covariance des variables aléatoires Y i jouent le principal rôle.. La symétrie vient de

En plus des propriétés usuelles de conservation des symétries , on utilise aussi souvent la conservation des points d'intersection.. Le but est de montrer que IJKL est