• Aucun résultat trouvé

Introduction

Dans ce chapitre on utilise les inverses généralisés pour déterminer les solutions approximantes de l’équation linéaire A =

2-1 Orthogonalité dans les espaces normés

Soit un espace normé et. ( , ) = {‖ − ‖; ∈ } On définit une notion d’orthogonalité comme suite :

⊥ ⇔ ( , span{ }) = ‖ ‖.

⊥ ⇔ ( , ) = ‖ ‖; ∀ ; ⊂ .

L’orthogonalité dans un espace normé n'est pas nécessairement symétrique.

Soit ℳ un sous espace vectoriel dans et ℳ admet un supplémentaire topologique dans P ∶={ P

( ) / P = P et ℛ(P) = ℳ}

( , P) ≥ 1 ∶= P P : ( , P) ≥ 1

2-1-1 Proposition: Soit P P; alors les propriétés suivantes sont équivalentes : ) ‖ −P ‖ = 1.

) (P ) ⊥ ℛ(P ).

) ∀ , ‖ − P ‖ ≤ ‖ − ‖; ∀ ℳ. Preuve:

Supposons ), soit (P ), z ℛ(P ), alors

‖ ‖ = ‖( −P )( − )‖ ≤ ‖ − ‖ Donc,

Mémoire de magister Page 29

∀ (P ) , ℛ(P ) = ‖ ‖, Supposons b), soit et z ℛ(P ), alors

‖ − ‖ = ‖( −P ) − P ( − )‖ ≥ ( −P ) , ℛ(P ) = ‖ − P ‖. Supposons c), ∀ ; il existe ( , ) unique tel que = +

Où = P ℛ(P ) et = ( −P ) ( )

‖ ‖ = ‖ − (− )‖ ≥ ‖ − P ‖ = ‖ ‖ = ‖( −P ) ‖ Par conséquent, ‖ −P ‖ = 1.

Si P P et P vérifie l’une des conditions de la proposition précédente, alors ℛ(P ) est le supplémentaire orthogonal de (P ).

Mais, (P ) n'est pas nécessairement un supplémentaire orthogonal de ℛ(P ).

2-1-2 Exemple:

Tout sous espace de co-dimension égale à 1 admet un hyperplan supplémentaire orthogonal. Soit et ≠ (par Hahn –Banach) existe tels que ( ) = 1, ‖ ‖ = 1 on définit P par : P = − ( )‖ ‖ , alors ( ) = ℛ(P) et ‖ P− ‖ = 1

En général, dans les espaces normés les supplémentaires orthogonaux des sous espaces sont rares.

2-2 Solution minimale d'une équation linéaire dans un espace normé.

Soit : un opérateur linéaire et un espace normé.

, on dit que est une solution approximante de l'équation = si minimise ‖ − ‖ C'est-à-dire ‖ − ‖ ≤ ‖ − ‖ ; ∀ .

Soit un espace normé, on dit que est une solution minimale si une solution approximante et ‖ ‖ < ‖ ‖ ; ∀

Mémoire de magister Page 30

est l’ensemble des solutions approximantes de l'équation A =

Inverse intérieur orthogonal.

2-2-1 Définition: Soit : un opérateur linéaire. On dit que est un inverse droite intérieur orthogonal de si = , et ‖ − ‖ = 1, on le note par , .

Soit : un opérateur linéaire. On dit que est un inverse gauche intérieur orthogonal de , si = , et ‖ − P ‖ = 1, on le note par , .

On dit que est un inverse intérieur orthogonal de , si est un inverse droite intérieur orthogonal et est un inverse gauche intérieur orthogonal de ; C'est-à-dire

= , = , . On le note par , .

2-2-2 Théorème: Soit : un opérateur linéaire, si , = est un inverse

Droite intérieur de , alors:

∀ ; est une solution approximante de l'équation = . Preuve: Par la proposition (2-1-1) on a: ‖ − ‖ ≤ ‖ − ‖; ∀ ℛ( ) Mais, = ; = ℛ( ) ⊕ ( ) Alors, = Minimise ‖ − ‖

2-2-3 Théorème: Soit : D( ) un opérateur linéaire; D( ) ⊂ , , = est un

inverse gauche intérieur orthogonal de et l'équation = admet une solution , alors est une solution minimale de l'équation = .

Mémoire de magister Page 31

Remarquons que,

+ est une solution de l'équation = où ( ). Maintenant nous cherchons la solution minimale. Par la proposition (2-1-1) on a∶

‖(I − P) ‖ ≤ ‖ − ‖; ∀ ℛ(P) Mais; ( ) ⊂ ℛ(P). Donc,

‖(I − P) ‖ ≤ ‖ − ‖; ∀ ( )

Alors, (I − P) est une solution minimale de l'équation = Mais, (I − P) = = = .

2-2-4 Théorème: Soient : D( ) ⊂ un opérateur linéaire et est un inverse

orthogonal de , si pour tout appartenant à , il existe dans ℛ( ) unique tel que ‖ − ‖ < ‖ − y‖; ∀ ℛ( )

Alors, est une solution minimale de l'équation = . Preuve:

Par le théorème (2-2-2) on a:

est l’unique solution approximante de l'équation = , donc est l’unique solution de l'équation = .

On applique le théorème (2-2-3) à l'équation = , nous trouvons = = est une solution minimale de l’équation = .

2-3 Solution minimale d'une équation linéaire dans un espace de Hilbert

2-3-1 Théorème:[17] Soient ℋ un espace de Hilbert et C une partie convexe Fermée non vide

de ℋ. Pour tout ℋ; il existe un et un seul point de C en lequel la fonction ‖ − ‖ Atteint son minimum, pour tout y C .

Mémoire de magister Page 32

2-3-2 Définition: Si ℱ est un sous espace vectoriels fermé d'un espace de Hilbert ℋ.

On appelle projecteur orthogonal sur ℱ l'opérateur : ℋ ℋ qui associe à tout vecteur ℋ sa projection orthogonal sur ℱ. On pose =

2-3-3 Proposition: Si ℱ est un sous espace vectoriel fermé dans un espace de Hilbert ℋ,

alors pour tout ℋ, d( , ) = { ( , ); ℱ} ⇔ 〈 − , 〉 = 0 ; ∀ ℱ Preuve: ‖ − ‖ ≤ ‖ − ( + )‖ = ‖ − ‖ − 2 〈 , − 〉 + ‖ ‖ Par conséquent, 2 〈 , − 〉 ≤ ‖ ‖ , on pose = 〈 , − 〉 , ℝ, alors 2 |〈 , − 〉| ≤ |〈 , − 〉|‖ ‖ et quand 0, alors 〈 , − 〉 = 0 ; ∀ ℱ. ⟸) Si 〈 − , 〉 = 0 ; ∀ ℱ, alors ‖ − ‖ = ‖ − ‖ + ‖ − ‖ ≤ ‖ − ‖ ; ∀ ℱ.

2-3-4 Proposition: Soient ℋ un espace Hilbertien et ℱ un sous-espace vectoriel fermé

Dans ℋ, alors ℋ = ℱ ⊕ ℱ .

Nous rappelons que si ℱ est un sous espace fermé d’un espace de Hilbert, alors ℱ admet un supplémentaire orthogonal ℱ , dans ce cas le projecteur est auto-adjoint.

Réciproquement, si P est un projecteur auto-adjoint sur un espace de Hilbert, alors ( ) ⊥ ℛ( ) et ⊥ est symétrique.

2-3-5 Proposition: Soit , , alors : a) ℛ( ) = ( )

b) ( ) = ℛ( ) Preuve:

Mémoire de magister Page 33

a) y ϵ ℛ(A) ⟺ 〈 A ; y〉 = 0 ; ∀ ℂ ⟺ 〈 ; y〉 = 0 ; ∀ ℂ y = 0 ; ∀ ℂ

⟺ y ( ).

2-3-6 Définition: Soient, (ℂ) et ℂ . On dit que ℂ est une solution minimale

de l'équation A = si pour tout ℂ ‖A − ‖ ≤ ‖A − ‖ et ‖ ‖ < ‖ ‖; est l’ensemble des solutions approximantes de l'équation A = .

2-3-7 Proposition: Si ϵ ℂ , et = , alors

) est projecteur sur ℛ( ), on le note par Pℛ( ), ( ) . b) ℂ = ℛ( ) ⨁ ( ).

Preuve:

a) ∀ ϵ ℛ( ) ⟹ ∃ ϵ ℂ : = ⟹ ∃ ϵ ℂ = ⟹ = .

b) Evident.

2-3-8 Proposition: Soient, , = et ℂ , , alors :

= Pℛ( ), ( ) , = Pℛ( ), ( ) . Preuve: = ⟹ ( ) = et = ⟹ ( ) = On applique ( 2-3-7) sur et on a : = Pℛ( ), ( ) = Pℛ( ), ( ) et = Pℛ( ), ( ) = Pℛ( ), ( ) . 2-3-9 Proposition: Si ℂ = ⨁ M, alors: ℛ P, = , P, = et P, = p , . Preuve:

Mémoire de magister Page 34

ℛ P, = (P, ) = et (P, ) = ℛ(P, ) = . Par (2-3-7) nous pouvons écrire, P, = P , .

2-3-10 Théorème: Soit ℂ = ⨁ on a:

= si et seulement si P, = P, Preuve:

⟹) ℛ P, = P , = = et P, = ℛ(P, ) = = M

D'autre part, on emploie la proposition (2-3-9) on a: P, = P, . P, = P, ⟹ ℛ P, = , donc = . 2-3-11 Proposition: Soit , on a: ) = et ( ) = = Pℛ( ), ℛ( ) . ) = et ( ) = ⟺ = Pℛ( ), ℛ( ) . Preuve: a) ⟹) = ⟹ ( ) = et par (2-3-8) on a : = Pℛ( ), ( ).

D'autre part, par la proposition (2-3-10) on a : ( ) = ℛ( ) Donc; = Pℛ( ), ℛ( ) .

⟸) = Pℛ( ), ℛ( ) ⟹ = Pℛ( ), ℛ( ) = . ( ) = ⟹ ℂ = ℛ( ) ⨁ ( ) = ℛ( ) ⨁ ( ) Car ( ) = ℛ(( ))

2-3-12 Proposition: Soient, , Y ℂ , , Y = et ( Y)= Y .

Mémoire de magister Page 35

Preuve:

Si est une solution de l'équation = Y, alors : = Y ⟹ = Y =

= Y ⟹ ( )= ( Y)= Y ⟹ ( ) = Réciproquement, Y = Y = ( )( Y) = ∗ ∗ Y∗ ∗

= ∗ ∗ = ( )= .

2-3-13 Théorème: Soient, , ℂ et ℂ , .

Si = et ( )= alors, une solution approximante de l'équation A = . Réciproquement, si Y minimise l'équation A = , alors Y = et ( Y)= Y. Preuve: ∀ ϵ ℂ , ∀ b ϵ ℂ on a: A −Pℛ( ), ℛ( ) b ϵ ℛ( ) et Pℛ( ), ℛ( ) b − b = Pℛ( ), ℛ( ) − I b = Pℛ( ) , ℛ( )b ϵ ℛ(A) On écrit, A − b = (A − Pℛ( ), ℛ( ) b) + ( Pℛ( ), ℛ( ) b − b) Nous avons; ‖A − b‖ = A − Pℛ( ), ℛ( ) b + Pℛ( ), ℛ( ) b − b Donc, ‖A − b‖ ≥ A − Pℛ( ), ℛ( ) b

Par conséquent, minimise l'équation A = si et seulement si est une solution de l'équation A = Pℛ( ), ℛ( ) .

Par la proposition (2-3-11) nous avons, A = Pℛ( ), ℛ( ) A = Pℛ( ), ℛ( ) ⟹ A = A , donc minimise A = Réciproquement, si Y minimise l'équation de A = , alors :

Mémoire de magister Page 36

Y est une solution de l’équation A = pℛ( ), ℛ( ) c'est –à-dire AY = pℛ( ), ℛ( ) donc, AY = pℛ( ), ℛ( )

par la proposition (2-3-12) nous avons: Y = et ( Y) = Y.

2-3-14 Proposition: Soient, , Y ℂ , , Y = et ( Y)= Y

une solution de l'équation = Y si et seulement si = et ( ) = . Preuve:

si une solution de l'équation = Y , alors : = Y ⟹ = Y = et

= Y ⟹ ( ) = (Y ) = Y ⟹ ( ) = . Réciproquement, Y = Y = (Y )( )= Y∗ ∗

= ∗ ∗ = ( ) = . 2-2-15 Lemme: Soit ℂ , , on définie sur ℛ( ) dans ℛ(A), par: = ; ∀ ϵ ℛ( )

alors, est une bijection :

∀ ϵ ℛ(A) ⟹ ∃ ϵ ℂ : = = Donc, est surjective.

∀ , ϵ ℛ( ), = ⟹ = ⟹ ( − ) =0 ⟹ ( − ) = 0 Nous avons,ℂ = ( ) ⨁ ℛ( ) ⟹ ( )⋂ℛ( ) = {0}

( − ) = 0 et ( − ) ϵ ℛ( ) ⟹ − = 0 ⟹ = Donc, est injective.

Mémoire de magister Page 37

2-3-16 Proposition: Soient ℂ , , ℛ(A), alors L'équation A = admet une solution

minimale unique. :

Par le lemme (2-2-15) on a :

L'équation A = admet une solution unique telle que ℛ( ) ∀ ϵ ( ); = + est une solution de l'équation A = D'autre part, nous avons :‖ ‖ = ‖ ‖ + ‖ ‖ ⟹ ‖ ‖ ≥ ‖ ‖.

2-3-17 Théorème: Soit, , ℂ , telles que = et ( )= .

Si l'équation A = admet une solution, alors est une solution minimale unique.

Réciproquement, si l'équation A = admet une solution, et Y est une solution minimale telle que Y ℂ , , alors Y = et (Y ) = Y .

:

Nous avons, A = ⟹ = ⟹ =

Donc, par conséquent, est solution de l'équation A =

On utilise (2-3-16); il existe ℛ( ) unique telle que soit solution minimale de l'équation A = .

D'ailleurs, ℛ( ) = ( ) = ℛ( ) et par le lemme (2-3-15) on a : = .

Réciproquement, si est une colonne de la matrice , alors Y ℛ( ) Par(2-3-14) on a: = Y ;donc = Y ,

Et par laProposition (2-3-12) on a :

Mémoire de magister Page 38

Exemple:

Soient ℂ , , ℂ , On considère l'équation A =

Par le théorème (2-3-13): est une solution approximante de l'équation A = . Donc, est une solution de l'équation A = A

Par le théorème(2-3-17): A est une solution minimale unique de l'équation A = A Alors, est une solution minimale de l'équation A = .

Chapitre 3:

Inverse

généralisé à

projections

Prédéterminées

,

( )

Mémoire de magister Page 39

Documents relatifs