• Aucun résultat trouvé

20 : Algèbre linéaire matricielle

N/A
N/A
Protected

Academic year: 2022

Partager "20 : Algèbre linéaire matricielle"

Copied!
8
0
0

Texte intégral

(1)

Lycée Louis-Le-Grand,Paris MPSI 4– Mathématiques A. Troesch

Problème n

o

20 : Algèbre linéaire matricielle

Correction du problème 1– Co-diagonalisation (Mines 2001)

Partie I –

Le but de cette partie est d’étudier, pour une application semi-linéaireudonnée, les valeurs et vecteurs co-propres.

1. Premières propriétés.

(a) Soit x6= 0. Siu(x) =µx=µx, puisquexest non nul (donc la famille(x)est libre), on obtientµ=µ. Ainsi il existe au plus un scalaireµtel que u(x) =µx.

(b) Soitµune valeur co-propre deuet xun vecteur co-propre associé. On a alors, pour toutθ∈R, u(eiθ2x) = eiθ2u(x) = eiθ2µx= (eiθµ)·eiθ2x.

Ainsi, eiθµest valeur co-propre deuun vecteur propre associé en esteiθ2x6= 0 . (c) Soitx∈Eµ non nul, eta=reiθ∈C. On a alorsu(ax) =au(x) =reiθµx= e2 iθµ(ax).

Ainsi, si µ6= 0, on peut choisiratel que e2 iθµ6=µ (il suffit de choisiranon réel). La question 1 amène alorsu(ax)6=µx, doncax6∈Eµ.

Par conséquent, siµ6= 0,Eµ n’est pas unC-espace vectoriel . Siµ= 0, pour toutx, y∈Eµ et a∈C, on a

u(ax+y) =au(x) +u(y) = 0, doncax+y= 0.

Comme de plus,Eµ ⊂Eet0∈Eµ, on peut conclure que siµ= 0,Eµ est un sous-espace vectoriel surCdeE . En revanche, quelle que soit la valeur deµ, six, y sont dansEµ et a∈R, on a :

u(ax+y) =au(x) +u(y) =au(x) +u(y) =aµx+µy=µ(ax+y).

Doncax+y∈Eµ. CommeEµ⊂Eet0∈E, on en déduit que Eµ est un sous-espace vectoriel surRdeE . (d) Soientx, y∈Eet a∈C. On a :

u◦v(ax+y) =u(av(x) +v(y)) =au(v(x)) +u(v(y)) =au◦v(x) +u◦v(y).

Ainsi, la composée de deux applications semi-linéaires est une application linéaire . 2. Matrice associée à une application semi-linéaire

(a) On décomposex=Pn

i=1xiei. On a alors

y=u(x) =

n

X

i=1

xiu(ei),

et en passant aux coordonnées dans la baseB: Y =

n

X

i=1

xiCi,

oùCi est le vecteur colonne des coordonnées deu(ei)dans la baseB. On reconnaît là un produit matriciel : Y =AX ,

(2)

oùAest la matrice dont les colonnes sont lesCi, c’est-à-dire les matrices colonnes des coordonnées dans la baseBdes images parudes vecteurs de cette base.

On peut montrer réciproquement queAvérifiant cette relation est définie de façon unique (il suffit d’évaluer en ei, ce qui nous dit que la colonne Ci de A est nécessairement égale aux coordonnées deu(ei) dans la base B). La question de l’unicité n’était pas explicitement demandée, mais était nécessaire pour répondre complètement à la question suivante.

Une autre façon d’aborder cette question est de remarquer que siB= (b1, . . . , bn)est une base de EsurC, alors l’application qui àx=x1b1+· · ·+xnbn associex=x1b1+· · ·+xnbn est clairement une application semi-linéaire. Attention au fait que cette définition de xdépend du choix de la baseB!

On pose alors, pour toutx∈E,v(x) =u(x). L’applicationvest alors linéaire (composée de deux applications semi-linéaires). Si on noteAsa matrice relativement à la baseB, on a alors

[u(x)]B= [v(x)]B=AX.

L’unicité deAdécoule de l’unicité de la matrice d’un endomorphisme.

(b) On ne peut pas vraiment utiliser la formule de changeùent de base survdéfinie ci-dessus, car la définition de v dépend du choix de la baseB. SoientBet Cdeux bases,Aet B les matrices deurelativement à chacune de ces deux bases respectivement, etS la matrice de passage deBà C. Soit x∈E et y=u(x). En notant [x]B le vecteur colonne des coordonnées dexdans la baseB, on a alors :

S[x]C = [x]B.

On en déduit que

[y]B=A[x]B=AS[x]C.

En appliquant la formule de changement de base pour le vecteury, il vient alors : [y]C =S1[y]B= (S1AS)[x]C.

On utilise la question précédente, et plus précisément le fait que la relationY =AXcaractérise la matrice deudans la base considérée (unicité de cette écriture) pour en déduire que la matrice deurelativement à la baseC estS1AS. Ainsi

B =S1AS1 .

On remarquera la forte similitude avec la formule de changement de base pour les endomorphismes, la seule différence étant la conjugaison supplémentaire effectuée sur la matriceS (à droite).

3. Exemples

(a) Soit µ∈C,µest une vaeur co-propre deAsi et seulement s’il existeX = a b

!

non nul tel queAX=µX,

c’est à dire : 

−b =µa a =µb

On en déduit queb=−|µ|2b et a=−|µ|2a. Comme l’un au moins des deux complexesaet b est non nul, on en déduit que−|µ|2= 1, ce qui est impossible. Ainsi, An’admet pas de valeur co-propre.

En jetant un coup d’oeil à la suite du sujet (c’est toujours conseillé !), on se rend compte que c’est en plein accord avec la question 4(a), puisque la matriceAAest ici égale à−I2, donc ne possède pas de valeur propre positive.

(b) SoitAune matrice réelle admettant une valeur propre réelleλ. On a alors au moins un vecteur propre réel.

En effet, la matriceA−λIn est non inversible dansMn(C), donc aussi dansMn(R), et son noyau en tant que matrice deMn(R)est donc non réduit à0, ce qui donne l’existence d’un vecteur propre à coordonnées réelles.

On peut aussi remarquer que si X est un vecteur propre, en conjuguant, puisque λest réel, X est aussi vecteur propre associé àλ, donc aussi leur sommeX+X si cette somme est non nulle. Le seul cas où cette

(3)

condition n’est pas satisfaite est le cas où toutes les coordonnées de X sont imaginaires pures. Dans ce cas iX est encore un vecteur propre, à coordonnées réelles.

Soit doncX un vecteur propre à coordonnées réelles deA, associé à la valeur propreλ. On a donc : AX=AX=λX,

donc X est aussi vecteur co-propre associé à la valeur co-propreλ.

4. Correspondance entre les valeurs co-propres de la matrice A et les valeurs propres de la ma- triceAA.

SoitA une matrice carrée complexe d’ordren.

(a) Soit µune valeur co-propre deA, etX un vecteur co-propre associé. On a alors AAX=A(AX) =A(µX) =µAX=µµX =|µ|2X.

Comme X 6= 0, on déduire de la relation trouvée que X est un vecteur propre de AA associé à la valeur propre|µ|2 deAA.

(b) Soitλune valeur propre positive ou nulle de la matriceAA etX un vecteur co-propre associé.

(i) SupposonsAX et X liés. Il existe alors µ ∈ Ctel que AX = µA. Ainsi, µ est valeur co-propre de A, un vecteur co-propre associé étant X. On déduit de la question précédente que X est vecteur propre de AA associé à la valeur propre|µ|2. Or, X est vecteur propre associé à la valeur λ, d’où λ=|µ|2. Par conséquent, il existeθ∈Rtel queµ=√

λ·eiθ. On déduit alors de la question 1(b) que

√λest valeur co-propre deA.

(ii) Supposons les vecteursAX etX indépendants. On a alorsY =AX+√

λX6= 0. De plus,

AY =AAX+√

λAX=λX+√

λAX =√ λY.

Ainsi,Y étant non nul, √

λest valeur co-propre deA. (c) Soitµun réel positif ou nul.

• Si µest valeur co-propre deA,|µ|22 est valeur propre deAAd’après 4(a).

• Réciproquement, si µ2est valeur propre deAA, alorsµ=p

µ2est valeur co-propre de Ad’après 4(b).

Ainsi,µétant réel positif, µest valeur co-propre deAssiµ2 est valeur propre deA. 5. Cas d’une matrice triangulaire supérieure

Dans cette question, la matriceA est une matrice triangulaire supérieure

(a) Soit λ une valeur propre de A. Notons d1, . . . , dn les coefficients diagonaux de A. La matrice A étant triangulaire, ses valeurs propres sont ses coefficients diagonaux. Ainsi, λest l’un desdi.

La matrice A est triangulaire supérieure, ses coefficients diagonaux étant d1, . . . , dn. Le produit AA est encore une matrice triangulaire supérieure, dont les coefficients diagonaux sont cette fois les didi. En particulier, l’un des coefficients diagonaux est |λ|2. La matrice AA étant triangulaire, il en résulte que

|λ|2 est valeur propre de AA. La question 4(b) permet alors d’affirmer que |λ| est valeur co-propre de A, puis, d’après 1(b), tous les complexes de même module que λ sont valeurs co-propres de A, donc

tous lesλeiθ sont valeurs co-propres deA .

(b) Réciproquement, supposons queµ est valeur co-propre de A. D’après 4(a),|µ|2 est valeur propre de AA.

Cette matrice étant triangulaire,|µ|2est l’un des coefficients diagonaux deAA. Or, ces coefficients diagonaux s’écriventdidi, avec les notations de la question précédente. Par conséquent, il existe un coefficient diagonal λ= di de A (donc une valeur propre de A, cette matrice étant triangulaire) telle que |µ|2 = |λ|2. On en déduit que|λ|=|µ|, donc qu’il existeθ∈Rtel que λ= eiθµ.

On a bien montré qu’ il existeθ∈Rtel queeiθµsoit valeur propre deA.

(c) La matriceAétant triangulaire, on peut appliquer les résultats précédents. Sa seule valeur propre esti (la valeur unique de ses coefficients diagonaux). Ainsi, tout les complexes de même module que isont valeurs co-propres d’après 5(a) (et ce sont les seules d’après 5(b)). En particulier, 1 est valeur co-propre deA.

(4)

On recherche un vecteurX= a+ ib c+ id

!

(a, b, c, d∈R) co-propre associé à1, c’est-à-dire vérifiant

AX=X soit: i 1

0 i

! a−ib c−id

!

= a+ ib c+ id

!

soit: (b+c) + i(a−d) ic+d

!

= a+ ib c+ id

! .

Ceci équivaut àc=det a=b+c. Les vecteurs co-propres associés à1 sont exactement les vecteurs c+ (1 + i)b

c(1 + i)

!

, b, c∈R

On peut prendre par exemple X = eiπ4 1 0

!

(vous pouvez vérifier directement que ce vecteur est bien co-propre associé à1).

6. Une caractérisation des valeurs co-propres

• Supposons queµest valeur co-propre deA,|µ|l’est également (question 1(b)). SoitX un vecteur co-propre associé à|µ|. Notons X=X1+ iX2, oùX1etX2 sont des vecteurs à coordonnées réelles. On a alors

|µ|(X1+ iX2) =AX=A(X1−iX2) =BX1+CX2+ i(−BX2+CX1).

En identifiant les parties réelles et imaginaires, il vient :

|µ|X1=BX1+CX2 et |µ|X2=−BX2+CX1.

D’après les règles du produit matriciel par blocs, ces deux égalités sont équivalentes à l’égalité matricielle B C

C −B

! X1

X2

!

=|µ| X1

X2

! .

Le vecteur X1

X2

!

étant non nul (carX6= 0), on en déduit que |µ|est valeur propre deD .

• Réciproquement, si |µ|est valeur propre deD, il existe un vecteur colonne réelY, qu’on découpe en blocs Y = X1

X2

!

, les deux vecteurs colonnesX1 etX2étant de même taille, tel que

DY =|µ|Y,

c’est-à-dire

|µ|X1=BX1+CX2 et |µ|X2=−BX2+CX1.

En reprenant les calculs précédents dans l’autre sens, on en déduit facilement que X1+ iX2 est vecteur co-propre de A = B + iC, associé à la valeur co-propre |µ|. Ainsi, |µ| est valeur co-propre de A, puis

µest valeur co-propre deA (toujours 1(b)).

Partie II –

1. Une relation d’équivalence Montrons que ≈ est reflexive, symétrique et transitive. Soient A, B, C dans Mn(C).

• A=InAIn1, doncA≈A, d’où la reflexivité.

• Si A≈B, il existeS∈GLn(C)tel que

B =SAS1 donc: A=S1BS11. PuisqueS1∈GLn(C)on peut conclure queB≈A, d’où la symétrie.

(5)

• SiA≈B etB≈C, on a l’existence deS etT dansGLn(C)tels que B =SAS1 et C=T BT1. On a alors

C= (T S)A(T S)1. Ainsi,A≈C, d’où la transitivité.

Ainsi, ≈est une relation d’équivalence.

2. Indépendance des vecteurs co-propres

• Soit µ1, . . . , µq des valeurs co-propres de mudules 2 à 2 distincts, et X1, . . . , Xq des vecteurs co-propres associés. Une façon rapide de s’en sortir (mais utilisant un résultat que pour l’instant vous n’avez vu qu’en DM, mais qui sera un résultat du cours l’année prochaine), est de se ramener à des vecteurs propres : lesXi

sont alors des vecteurs propres de AA, associés aux valeurs propres|µ1|2, . . . ,|µq|2, deux à deux distinctes par hypothèse. Les sous-espaces propres étant en somme directe (propriété du cours de Spé, résultant du lemme des noyaux vu en DM), on en déduit immédiatement que la famille(X1, . . . , Xq)est libre .

• On peut aussi procéder directement par récurrence surq. La propriété est triviale pourq= 1, les vecteurs co- propres étant non nuls par définition. Si on la suppose vraie pour une valeur deq∈N, et qu’on considère une famille de q+ 1 vecteurs co-propres X1, . . . , Xq+1 associés à des valeurs co-propres µ1, . . . , µq+1 de modules 2 à 2 distinctes, étudions la relation :

a1X1+· · ·+aq+1Xq+1= 0ε(1).

Conjuguons cette relation et appliquons-luiA. On obtient :

a1µ1X1+· · ·+aq+1µq+1Xq+1= 0 (2).

Si aq+1 = 0, on peut appliquer directement l’hypothèse de récurrence pour conclure que tous les ai sont nuls, donc la famille est libre. Sinon, on peut faire une combinaison de ces deux lignes en retranchant à (2) la relation (1) multipliée par µq+1aq+1aq+1. Cela nous donne une relation entreX1, . . . , Xq, et les coefficients de cette relation sont donc tous nuls par hypothèse de récurrence, c’est-à-dire

∀i∈[[1, q]], aiµi−ai

µq+1aq+1

aq+1

= 0.

Siai6= 0, cette expression est une différence de deux complexes de modules distincts, donc ne peut pas être nulle. Ainsi,ai = 0, pour touti∈[[1, q]]. La relation initiale se réduit àαq+1Xq+1= 0, avecXq+16= 0, donc aq+1= 0. Ainsi, la famille(X1, . . . , Xq+1)est libre.

Le principe de récurrence permet de conclure que toute famille de vecteurs co-propres associés à des valeurs propres 2 à 2 de modules ditincts est libre .

• Supposons maintenant que AA possède n valeurs propres λp, p∈ [[1, n]], positives ou nulles deux à deux distinctes. D’après I-4(b), lesp

λp sont des valeurs co-propres deA, de modules 2 à 2 distincts. Une famille X1, . . . , Xn de vecteurs co-propres associés à ces valeurs co-propres est donc libre,et de cardinaln, dans un espace de dimensionn. Ainsi,(X1, . . . , Xn)est une base deE.

Considéronsul’application semi-linéaire deCn dans lui-même associée àAdans la base canonique. Autre- ment dit, en identifiant les vecteurs deCn à des vecteurs colonnes,

u(X) =AX.

La matrice B de u dans la base (X1, . . . , Xn) est la matrice donc la colonne i est égale au vecteur des coordonnées deu(Xi)dans la baseXi. Or,u(Xi) =√

λiXi, donc

B=

√λ1 0 · · · 0

0 √

λ2 . .. ... ... . .. ... 0

0 · · · 0 √

λn

(6)

La matriceA et la matrice B représentent la même application semi-linéaire dans deux bases différentes.

D’après la question 2(b), on en déduit queAet B sont co-semblables. La matriceB étant diagonale, on en déduit que A est co-diagonalisable .

3. Quelques propriétés

(a) On aAA=SS1SS1=SS1= In .

(b) • La matriceS(θ)est inversible si et seulement si e2 iθA+In est inversible. Soit P(X) = det(AX+In).

Le caractère polynomial du déterminant permet d’affirmer que P est un polynôme. Il est non nul car P(0) = det(In) = 1. Ainsi, il ne peut admettre qu’un nombre fini de racines. Par conséquent, lese2 iθ, pour θ∈R, ne peuvent pas être tous racines deP. Il existe doncθ∈Rtel quedet(Ae2 iθ+In)6= 0, ce qui équivaut à l’ inversibilité deS(θ).

• On a alors

AS(θ) = eiθAA+ eiθA= eiθIn+ eiθA soit: AS(θ) =S(θ).

• On a alors immédiatement, S(θ)étant inversible : S(θ)S(θ)1=A. 4. Une condition nécessaire

SoitA une matrice d’ordrenco-diagonalisable, etS une matrice de passage adaptée. NotonsD =S1AS la matrice diagonale associée. On a alors

AA=SDS1SDS1=SDDS1.

Or,

• DD est une matrice diagonale, donc AA est diagonalisable .

• les valeurs propres deAAsont les coefficients diagonaux de DD, c’est-à-dire les didi =|di|2, où lesdi sont les coefficients diagonaux deD. Ainsi, les valeurs propres deAAsont toutes positives ou nulles .

• Le rang deAA est égal au rang deDD, donc au nombre de ses coefficients diagonaux non nuls (rang d’une matrice échelonnée), donc au nombre de|di|2(donc aussi dedi) non nuls. Il s’agit donc aussi du nombre de coefficients diagonaux non nuls deD, donc du rang deD. Or,DetAsont co-semblables, donc en particulier équivalentes. Elles ont donc même rang. Ainsi,

rg(A) = rg(D) = rg(DD) = rg(AA). 5. Une condition suffisante

SoitA une matrice carrée complexe d’ordrenqui vérifie les trois propriétés suivantes : (i) la matriceAA est diagonalisable

(ii) les valeurs propres de la matriceAAsont positives ou nulles (iii) le rang de la matriceA est égal au rang de la matriceAA.

(a) On a

BB=S1ASS1AS=S1AAS soit: BB= Λ . On obtient de même :

BB=S1AAS= Λ soit: BB= Λ,

puisque les valeurs propres deAAsont supposées réelles. En particulier, on a BB=BB On en déduit aussi que

BΛ =B(BB) = (BB)B= ΛB . (b) Notons

B=

B1,1 · · · B1,n

... ... Bn,1 · · · Bn,n

(7)

la décomposition en blocs deB, les tailles des blocs étant les mêmes que dans la matriceΛ. En particulier, les blocs diagonaux Bi,i sont carrés d’ordre ni. La relationBΛ = ΛB amène alors, d’après les règles du clacul matriciel par blocs :

λ1B1,1 · · · λnB1,n

... ...

λ1Bn,1 · · · λnBn,n

=

λ1B1,1 · · · λ1B1,n

... ...

λnBn,1 · · · λnBn,n

 ,

soit, pour tout (i, j)∈[[1, k]]2, λiBi,jjBi,j. Comme les λi sont deux à deux distincts, pour touti 6=j, il vientBi,j = 0. Ainsi, la matriceB est diagonale par blocs , les blocs diagonaux Bi =Bi,i étant carrés d’ordreni.

(c) Toujours d’après les règles du produit matriciel par blocs, l’identitéBB= Λamène alors :

B1B1 0 · · · 0 0 B2B2 . .. ... ... . .. . .. 0 0 · · · 0 BkBk

=

λ1In1 0 · · · 0 0 λ2In2 . .. ... ... . .. . .. 0 0 · · · 0 λkInk

• Siλk 6= 0, alors, vu le classement des valeurs propres, lesλisont tous non nuls. On peut alors considérer les matrices Ci = 1

λiBi. Ces matrices vérifient CiCi = Ini. D’après la question 3(b), il existe une matrice inversible Pi telle que

Ci=P Pi1 donc: Bi=P(p

λiIni)Pi1

.

Considérons alors la matrice diagonale par blocs

P =

P1 0 · · · 0 0 P2 . .. ...

... . .. ... 0 0 · · · 0 Pk

 ,

inversible, d’inverse décrit par blocs de la façon suivante :

P1=

P11 0 · · · 0 0 P21 . .. ... ... . .. ... 0 0 · · · 0 Pk1

 .

Les règles du produit matriciel par blocs amènent facilement B =P∆P1,

où∆ est la matrice diagonale, décrite par blocs de la manière suivante :

∆ =

√λ1In1 0 · · · 0

0 √

λ2In1 . .. ...

... . .. . .. 0

0 · · · 0 √

λkInk

 .

• Siλk = 0, alors lesλi,i < k, sont non nuls. Commerg(AA) = rg(Λ) = rg(A), on en déduit queAest de rangn−nk, doncB, qui lui est équivalente, est également de rangn−nk. Or, la description diagonale par blocs de B amène le calcul de son rang :

rg(B) = rg(B1) +· · ·+ rg(Bk).

(8)

Par ailleurs, pour touti < k,BiBiiIn1, doncBi est inversible, donc de rangni. On a alorq n−nk =n1+· · ·+nk1+ rg(Bk),

relation dont il découle que rg(Bk) = 0, donc Bk = 0. On effectue alors la même construction que précédemment, mais en définissantPk=Ink. La relation voulue est obtenue du fait queBk= 0.

Ainsi, avec les hypothèses (i), (ii) et (iii),Aest co-semblable à une matriceBelle-même co-semblable à une matrice diagonale. Ainsi, la relation≈étant transitive, Aest co-diagonalisable .

6. Exemples

(a) Soit Aune matrice symétrique réelle d’ordren. Le résultat admis (théorème spectral, cours de Spé) donne la diagonalisabilité de Adans Mn(R). On a alors l’existence d’une matrice inversible P telle queP1AP soit diagonale, à coefficients diagonauxλ1, . . . , λn réels. Comme cette diagonalisation se fait dans Mn(R), P ∈GLn(R), donc P =P. La relation de diagonalisabilité donne alors également une relation de codiago- nalisabilité. Ainsi, Aest codiagonalisable .

On peut remarquer que ce résultat se généralise facilement de la façon suivante : siA∈ Mn(R)est diago- nalisable dansMn(R)(ce qui équivaut à dire qu’elle est diagonalisable, à valeurs propres réelles), alorsA est codiagonalisable.

On peut aussi vérifier ici que la condition nécessaire et suffisante des questions 4 et 5 est bien vérifiée. Avec les notations ci-dessus, on a :

P1AAP =P1A2P=P1AP P1AP =D2.

Il s’agit d’une matrice diagonale à coefficients diagonaux égaux aux λ2i, donc positifs ou nuls, et nuls si et seulement siλi= 0. Ceci implique queDet D2ont même rang.

Ainsi,AAest diagonalisable, ses valeurs propres sont les coefficients diagonaux deD2, dont sont positifs ou nuls, et son rang est celui deD2, donc égal au rang deD, lui-même égal au rang de A.

(b) • ∗ La matriceAne possède qu’une valeur propre, et n’est pas une homothétie, donc An’est pas diagonalisable .

∗ Un calcul rapide montre queAA=In. Aest donc co-diagonalisable (par utilisation de la question 5, ou ici, plus simplement, de la question 3(b), montrant queA est co-semblable à l’identité).

• ∗ Les valeurs propres λde B sont solutions de l’équation polynomialedet(B−λI2) = 0 (équivaut à dire queB−λI2est non inversible), c’est-à-dire(1−λ)2+ 1 = 0. Cette équation admet deux racines complexes non réelles conjuguées. La matrice B est donc diagonalisable (prendre une base formée d’un vecteur propre associé à chaque valeur propre).

∗ On aBB= 0 2 2 0

!

, dont les valeurs propres sont2 et−2(calculer comme précédemment le déter- minantdet(BB−λI2)). La condition nécesaire de codiagonalisation n’étant pas satisfaite (question 4), B n’est pas co-diagonalisable .

• ∗ La matrice Cn’est pas diagonalisable , car possède une unique valeur propre0, et n’est pas égale à 0I2.

∗ CC =C2= 0, doncrg(C)6= rg(CC. La condition nécessaire de la question 4 n’étant pas satisfaite, C n’est pas codiagonalisable .

• ∗ Par un calcul de déterminant, on trouve l’existence de deux valeurs propres non réelles conjuguées deD, donc D est diagonalisable dansMn(C)(même principe que pourB, les deux matrices sont même semblables en fait)

∗ On a DD = 2I2. Cette matrice est diagonale, donc diagonalisable, d’unique valeur propre 2 qui est positive ou nulle, et de rang 2, donc de même rang que A. On peut appliquer la question 5 :

D est co-diagonalisable .

Références

Documents relatifs

105, version 2009-2010] Si le système (S )Ax = b est compatible, il est équivalent à tout système (S 0 ) obtenu en ne considérant que les lignes de la matrice A qui sont

105, version 2009-2010] Si le système (S )Ax = b est compatible, il est équivalent à tout système (S 0 ) obtenu en ne considérant que les lignes de la matrice A qui sont

Utiliser le nombre pour exprimer la position d’un objet ou d’une personne dans un jeu, dans une situation organisée, sur un rang ou pour comparer des positions..

Cette droite coupe la courbe des fréquences cumulées croissantes en un point N.. L'abscisse de N est égale

Le triangle AOB est rectangle isocèle en

[r]

• ´ echange deux lignes (resp. colonne) de A par un multiple - non nul- de cette ligne(resp. colonne) un multilple d’une autre

[r]