• Aucun résultat trouvé

) si et seulement si il existe des réels λ

N/A
N/A
Protected

Academic year: 2022

Partager ") si et seulement si il existe des réels λ"

Copied!
5
0
0

Texte intégral

(1)

Exercice 1.

1. Le vecteur x appartient à Vect(u

1

, u

2

, u

3

) si et seulement si il existe des réels λ

1

, λ

2

, λ

3

tels que x = λ

1

u

1

+ λ

2

u

2

+ λ

3

u

3

. Cela est équivalent à l'existence d'une solution pour le système suivant de 4 équations à 3 inconnues λ

1

, λ

2

, λ

3

.

(S) :

 

 

 

 

λ

1

+ 3λ

2

−λ

3

= x

1

λ

1

+2λ

3

= x

2

λ

1

+ 5λ

2

−3λ

3

= x

3

1

+ λ

2

+3λ

3

= x

4

On transforme ce système en des systèmes équivalents par des opérations élémentaires

(S) ⇔

 

 

 

 

λ

2

+ 2λ

1

+3λ

3

= x

4

+ λ

1

+2λ

3

= x

2

− 5λ

1

−10λ

3

= x

1

− 3x

4

− 9λ

1

−18λ

3

= x

3

− 5x

4

 

 

 

 

λ

2

+ 2λ

1

+3λ

3

= x

4

+ λ

1

+2λ

3

= x

2

0 = x

1

− 3x

4

+ 5x

2

0 = x

3

− 5x

4

+ 9x

2

On en déduit que x ∈ Vect(u

1

, u

2

, u

3

) si et seulement si

( 0 = x

1

− 3x

4

+ 5x

2

0 = x

3

− 5x

4

+ 9x

2

Il existe plusieurs systèmes d'équations possibles pour ce sous-espace. Si vous en avez un autre, pour le valider, vérier que les vecteurs suivants sont solutions

(3, 0, 5, 1) (−5, 1, −9, 0).

2. Avec les notations précédentes x

i

= α

i

(x) . On peut donc choisir

( α = α

1

− 3α

4

+ 5α

2

β = α

3

− 5α

4

+ 9α

2

Pourquoi (α, β) est-elle libre ? Si λα + µβ est la forme nulle, la valeur en a

1

donne λ = 0 et la valeur en a

3

donne µ = 0 .

Exercice 2

1. On trouve

A

2

=

1 −1 1 −1

0 0 0 0

2 −2 2 −1 2 −2 2 −1

(A − I

4

)

2

=

0 1 −3 3 0 1 −2 2 0 0 1 −1

0 0 0 0

A

2

(A − I

4

)

2

= 0

M4(R)

2. a. Comme A

2

= Mat

A

f

2

et (A − I

4

)

2

= Mat

A

(f − id

E

)

2

, la formule du rang donne dim N

1

= 4 − rg A

2

et dim N

2

= 4 − rg(A − I

4

)

2

. Ces dimensions sont égales à 2 car les rangs sont égaux à 2 .

Ce calcul des rangs est justié en transformant les matrices par opérations élé- mentaires.

On transforme (A − I

4

)

2

par les opérations L

4

← L

4

− L

3

, L

3

← L

3

− 2L

1

. Le rang est donc le même que celui de

1 −1 1 −1

0 0 0 0

0 0 0 1

0 0 0 0

qui est clairement 2 .

On transforme (A − I

4

)

2

par les opérations L

1

← L

1

+ 3L

3

, L

2

← L

2

+ 2L

1

, L

2

← L

2

− L

1

. Le rang est donc le même que celui de

0 1 0 0 0 0 0 0 0 0 1 −1 0 0 0 0

qui est clairement 2 .

Comme N

1

et N

2

sont deux sous-espaces de dimension 2 d'un espace de dimension 4 , il sut de montrer que leur intersection est réduite au vecteur nul pour prouver qu'ils sont supplémentaires.

Un vecteur v de coordonnées (x, y, z, t) est dans cette intersection si et seulement

si (x, y, z, t) est solution d'un système linéaire de 8 équations. Certaines de ces

équations sont triviales ( 0 = 0 ) ou équivalentes. Avec les mêmes opérations sur

(2)

les lignes qui ont servi à calculer le rang, elles se ramènent à :

v ∈ N

1

∩ N

2

 

 

 

 

x− y+z− t = 0 t = 0

y = 0

z− t = 0

 

 

 

  x = 0 y = 0 z = 0 t = 0

On pouvait aussi raisonner plus vectoriellement. Si x est dans les deux noyaux alors

( f

2

(x) − 2f(x) + x = 0

E

f

2

(x) = 0

E

f (x) = 1 2 x f

2

(x) = 0

E

⇒ 0

E

= f

2

(x) = 1

4 x ⇒ x = 0

E

b. Si v ∈ N

1

alors f

2

(f (v)) = f (f

2

(v)) = f (0

E

) = 0

E

donc f (v) ∈ N

1

. Le sous- espace N

1

est stable par f .

De même, si v ∈ N

2

alors (f − id

E

)

2

(f (v)) = f ((f − id

E

)

2

(v)) = f(0

E

) = 0

E

donc f (v) ∈ N

2

. Le sous-espace N

2

est stable par f . Le point important ici est que f commute avec les endomorphismes dont on considère le noyau.

3. a. On a montré à la question 1 que A

2

(A − I

4

)

2

est la matrice nulle. Cela entraine que f

2

◦ (f − id

E

)

2

et (f − id

E

)

2

◦ f

2

sont égaux à l'endomorphisme nul donc que Im(f

2

) ⊂ N

1

et Im((f − id

E

)

2

) ⊂ N

1

. Par le calcul de rang déjà fait, les deux images sont de dimension 2 . De l'égalité des dimensions, on déduit l'égalité des sous-espaces.

b. Le vecteur u

2

doit vérier f (u

2

) = u

1

et f

2

(u

2

) = f (u

1

) = 0

E

. Il s'agit donc d'un vecteur de N

1

qui n'est pas dans dans le noyau de f . On trouve de tels vecteurs en considérant les colonnes de (A − I

4

)

2

. La première ne convient pas car elle correspond à un élément du noyau, en combinant les colonnes 2 et 3 on peut former u

2

= −e

1

+ e

3

puis u

1

= f (u

2

) = e

1

+ e

2

.

Choisissons un vecteur u

4

dans N

2

, par exemple u

4

= e

1

qui est dans N

2

car la première colonne de (A − I

4

)

2

est nulle. Posons u

3

= (f − id

E

)(u

4

) = e

3

+ e

4

. On a alors u

3

= f (u

4

) − u

4

donc f (u

4

) = u

3

+ u

4

. De plus, de (f − id

E

)

2

(u

4

) = 0

E

, on tire alors f (u

3

) = u

3

.

On vérie facilement que la famille U = (e

1

+ e

2

, −e

1

+ e

3

, e

3

+ e

4

, e

1

) est une base. Par construction de ces vecteurs :

Mat

U

f =

0 1 0 0 0 0 0 0 0 0 1 1 0 0 0 1

Problème 1. Matrice semblable à son inverse.

1. La relation tr(AB) = tr(BA) fait partie du cours (voir Les matrices pour elles mêmes).

On en déduit que deux matrices semblables ont la même trace car tr(P

−1

AP ) = tr(AP P

−1

) = tr(A)

2. La matrice A est inversible car l'algorithme du pivot partiel permet de se ramener à une forme triangulaire, on peut poursuivre alors pour calculer l'inverse. On indique les opérations puis les matrices transformées à partir de A et de I

3

.

L

3

← L

3

− L

2

, L

2

← L

2

− L

1

1 1 1 0 1 0 0 0 2

1 0 0

−1 1 0 0 −1 1

L

1

← L

1

− L

2

, L

3

← 1

2 L

3

, L

1

← L

1

− L

3

1 0 0 0 1 0 0 0 1

2 −

12

12

−1 1 0

0 −

12 12

 = A

−1

La matrice A n'est pas semblable à son inverse car les traces sont diérentes, respec- tivement 6 et

72

.

3. a. Ici f

2

= 0 entraine Im f ⊂ ker f . On a donc rg f ≤ dim ker f avec rg f + dim ker = 3 (théorème du rang) et rg f > 0 car f n'est pas nulle. On en déduit rg f = 1 . Il existe un vecteur (notons le a

3

) dont l'image par f est non nulle. Posons a

1

= f (a

3

) . Comme f

2

est nulle, a

1

est un vecteur non nul du noyau. On peut le compléter par un vecteur a

2

du noyau de sorte que (a

1

, a

2

) soit une base du noyau.

La famille (a

1

, a

2

, a

3

) vérie alors :

f (a

1

) = 0

E

, f (a

2

) = 0

E

, f(a

3

) = a

1

C'est une base car elle est libre. Supposons λ

1

a

1

2

a

2

3

a

3

= 0

E

. En composant par f , on obtient λ

3

a

1

= 0

E

donc λ

3

= 0 puis λ

1

et λ

2

nuls car (a

1

, a

2

) est libre.

La matrice de f dans cette base est de la forme demandée.

b. Comme f

2

n'est pas la fonction nulle, il existe un vecteur (notons le a

3

) dont l'image par f

2

n'est pas nulle. On note a

2

= f (a

3

) et a

1

= f (a

2

) = f

2

(a

3

) . En composant par f , on vérie facilement que (a

1

, a

2

, a

3

) est libre donc une base de E . La matrice de f dans cette base est de la forme demandée.

c. On peut utiliser sereinement les règles de calculs usuelles car id

E

commute avec f . On obtient

(id

E

+f ) ◦ (id

E

+g) = id

E

−f

3

= id

E

(3)

On en déduit que id

E

+f est bijective de bijection réciproque id

E

+g .

d. De la dénition de g , on tire g

2

= f

2

puis g

3

= f

3

. On a donc évidemment g

3

nulle et d'autre part g

2

nulle si et seulement si f

2

est nulle.

4. a. La matrice I

3

+ N est inversible car triangulaire avec des 1 sur la diagonale donc de rang 3 . De plus,

N

2

=

0 0 αβ 0 0 0 0 0 0

 N

3

= 0

M3(R)

b. Par dénition de f , I

3

+ N = Mat

A

(id

E

+ f) et (I

3

+ N )

−1

= Mat

A

(id

E

+ f )

−1

= Mat

A

(id

E

+ g) Si N est nulle, la similitude est évidente. Dans la cas général, on a f

3

et g

3

nulles avec f et g non nulles. Les fonctions f

2

et g

2

peuvent être nulles mais alors elles le sont ensemble. Il existe donc des bases B et B

0

telles que Mat

A

(id

E

+ f ) et Mat

A

(id

E

+ g) soient égales à une des matrices de 3.a ou 3.b. La formule de changement de base pour la matrice d'un endomorphisme montre alors que I

3

+N est semblable à son inverse.

5. On peut choisir une matrice diagonale avec des termes non nuls sur la diagonale et stables par inversion. Par exemple

A =

2 0 0 0

12

0 0 0 1

 A

−1

=

0

12

0 2 0 0 0 0 1

alors A

−1

= P

−1

AP avec pour P une matrice de permutation P =

0 1 0 1 0 0 0 0 1

La matrice A n'est pas semblable à une matrice de la forme de la question 4 car sa trace n'est pas égale à 3 .

Problème 2. Matrices pseudo-magiques.

1. L'ensemble E est non vide ( 0 ∈ E ), stable par combinaison linéaire avec d(λA + µB) = λd(A) + µd(B)

pour A, B dans E et λ, µ réels. L'application d est donc une forme linéaire de E . 2. Pour une matrice A quelconque, précisons AJ et J A .

Toutes les colonnes de AJ sont égales à C =

 P

q

a

1q

...

P

q

a

nq

Toutes les lignes de J A sont égales à L = P

q

a

q1

· · · P

q

a

qn

Lorsque A ∈ E :

C = d(A)

 1 ...

1

 L = d(A) 1 · · · 1

donc AJ = J A = λJ avec λ = d(A) . Réciproquement, si AJ = J A = λJ alors

C =

 λ ...

λ

 L = λ · · · λ

Donc pour tout couple (i, j) ∈ {1, · · · , n}

2

, P

q

a

iq

= P

q

a

qj

= λ c'est à dire A ∈ E avec d(A) = λ .

3. a. Pour montrer que E est une sous-algèbre de M on doit vérier I ∈ E (évident avec d(I) = 1 )

E est un sous espace vectoriel de M (déjà montré en 1) E est stable par multiplication

Si A et B ∈ E :

ABJ = Ad(B)J = d(B)AJ = d(A)d(B)J

et de même, J AB = d(A)d(B)J . On en déduit AB ∈ E avec d(AB) = d(A)d(B) .

Ceci qui montre en même temps que d est un morphisme d'algèbre car on savait

déjà que d était linéaire.

(4)

b. Soit A inversible appartenant à E (on ne sait pas encore si A

−1

∈ E ). Alors :

AJ = d(A)J ⇒ J AA

−1

= d(A)J A

−1

⇒ J = d(A)J A

−1

On en déduit d(A) 6= 0 car J n'est pas nul et A

−1

J =

d(A)1

J .

De même, J A = d(A)J entraîne J A

−1

=

d(A)1

J ce qui signie A

−1

∈ E avec d(A

−1

) =

d(A)1

.

c. Une matrice pseudo-magique A telle que d(A) 6= 0 n'est pas forcément inversible comme le montre l'exemle de J qui est de rang 1 donc évidemment non inversible.

4. D'après les règles de calcul dans une algèbre et j

2

= nJ : BC = d(A)

n J (A − d(A)

n J ) = d(A)

n J A − d(A)

2

n

2

J

2

= d(A)

2

n J − d(A)

2

n J = 0 De même CB = 0 . Comme BC = CB , on peut appliquer la formule du binôme pour calculer A

p

= (B + C)

p

. Comme de plus BC = CB = 0 , seuls subsistent les termes extrêmes soit

A

p

= B

p

+ C

p

5. L'intersection de F et G est nulle car λJ ∈ F entraîne 0 = d(λJ) = λn donc λ = 0 . De plus, F est un hyperplan (noyau d'une forme) sa dimension est dim E − 1 donc E = F ⊕ G .

6. a. Par dénition, T

r,s

est de la forme

1 0 · · · 0 −1 0 · · · 0

0 ... ...

0

−1 0 · · · 0 1 0 · · ·

0 · · · 0

... ...

0 · · · 0

Les lignes et les colonnes ne contiennent que des 0 sauf deux qui contiennent chacune exactement un 1 et un -1. La somme des termes d'une ligne ou d'une colonne est donc toujours 0. Cela signie que T

r,s

∈ F .

Montrons que la famille (T

r,s

)

(r,s)∈{1,···,n}2

est libre.

Considérons une combinaison linéaire nulle

M = X

(r,s)∈{1,···,n}2

λ

r,s

T

r,s

Pour i et j xés dans {2, · · · , n}

2

, le coecient d'indice i, j de M s'obtient seule- ment à partir de celui de T

i,j

donc λ

i,j

= 0 .

Montrons maintenant que la famille est génératrice.

Soit A quelconque dans F , dénissons une matrice B de F en posant

B = X

(r,s)∈{2,···,n}2

a

r,s

T

r,s

Examinons A − B . C'est une matrice de la forme

u v

2

· · · v

n

w

2

0 · · · 0

... ... ... ...

w

n

0 · · · 0

Comme A − B ∈ F , on sait que d(A − B ) = 0 donc (en considérant les lignes et les colonnes)

v

2

= · · · = v

n

= 0 w

2

= · · · = w

n

= 0 u + v

2

+ · · · + v

n

= 0

 

 

⇒ A − B = 0

Ceci prouve que la famille est génératrice.

b. D'après a., dim F = (n − 1)

2

et dim E = (n − 1)

2

+ 1 .

Problème 3. Lemme de Hochschild.

1. a. Soit x

1

un point de X et a

1

∈ V tels que a

1

(x

1

) 6= 0 . Il existe bien de tels objets car sinon V ne serait formé que de l'application nulle. En divisant au besoin la fonction a

1

par le scalaire a

1

(x

1

) , on peut supposer que a

1

(x

1

) = 1 . La famille (a

1

) est une famille libre de V , on peut la compléter pour obtenir une base

(a

1

, w

2

, · · · , w

p

)

(5)

Pour i entre 2 et p , on pose alors a

i

= w

i

− w

i

(x

1

)a

1

. Il est clair que tous les w

i

s'expriment en fonction des a

j

qui engendrent donc V et forment une base. De plus, par construction, a

i

(x

1

) = 0 .

b. Considérons u

k+1

. C'est une fonction non nulle. Il existe donc x

k+1

∈ X tel que u

k+1

(x

k+1

) 6= 0 . Comme u

k+1

(x

i

) = 0 pour tous les i de 1 à k , on a x

k+1

6∈

{x

1

, · · · , x

k

} . On pose alors

v

k+1

= 1

u

k+1

(x

k+1

) u

k+1

∀i 6= k + 1, v

i

= u

i

− u

i

(x

k+1

)v

k+1

Ici encore, comme les u

i

s'expriment en fonction des v

j

, ces derniers engendrent V et forment une base. Pour laquelle

∀i ∈ {1, · · · , p}, ∀j ∈ {1, · · · , k + 1} : v

i

(x

j

) = δ

ij

c. Les deux questions précédentes permettent de prouver la proposition demandée par récurrence sur le nombre de points.

2. a. On choisit une base de V comme dans la question 1.. Pour tout réel a , la fonction f

a

s'exprime dans cette base

f

a

=

q

X

i=1

λ

i

v

i

Si on prend la valeur en x

i

on obtient alors

λ

i

= f

a

(x

i

) = f (a + x

i

) Ce qui prouve la formule demandée.

b. On considère

f (h + b) =

p

X

i=1

f (h + x

i

)v

i

(b)

f (b) = f (0 + b) =

p

X

i=1

f (x

i

)v

i

(b)

donc

f (b + h) − f (b)

h =

p

X

i=1

f (x

i

+ h) − f(x

i

h v

i

(b)

et comme f est dérivable on obtient en passant à la limite en 0 pour h : f

0

(b) =

p

X

i=1

f

0

(x

i

)v

i

(b)

f

0

=

p

X

i=1

f

0

(x

i

)v

i

Ce qui prouve f

0

∈ V . En fait, la formule du 2.a. est valable non seulement pour f

mais pour toute v ∈ V ce qui prouve que la dérivation est un endomorphisme de

V . La famille (f, f

0

, · · · , f

(p)

) est à p + 1 éléments dans l'espace V de dimension

p . Elle est donc liée. Ceci entraine l'existence d'une équation diérentielle linéaire

à coecients constants dont f est solution.

Références

Documents relatifs

La matrice A est inversible car l'algorithme du pivot partiel permet de se ramener à une forme triangulaire, on peut poursuivre alors pour calculer l'inverse.. Il existe un

[r]

Une matrice sym´ etrique r´ eelle est dite (d´ efinie) positive si toutes ses valeurs propres sont (strictement)

• La propriété est vraie au rang 0 ; elle

(b) Une famille est g´ en´ eratrice si et seulement si le rang de la matrice est ´ egal au nombre de lignes (ici 3), donc d’apr` es le calcul pr´ ec´ edent la famille n’est

Le but de ce TD est d’étudier différentes méthodes permettant de déterminer si une matrice est inversible et de déterminer, le cas échéant, son inverse..

(f) Comptez le nombre d’op´ erations ´ el´ ementaires (i.e. additions, soustractions, multliplications, divisions) n´ ecessaires pour calculer la d´ ecomposition LU de M..

On peut montrer que la rotation de l’une de ces droites autour de l’axe Oz engendre la surface S (c’est une droite de l’espace qui n’est ni parallèle à Oz (sa