Introduction
Dans ce chapitre on utilise les inverses généralisés pour déterminer les solutions approximantes de l’équation linéaire A =
2-1 Orthogonalité dans les espaces normés
Soit un espace normé et ⊂ . ( , ) = {‖ − ‖; ∈ } On définit une notion d’orthogonalité comme suite :
⊥ ⇔ ( , span{ }) = ‖ ‖.
⊥ ⇔ ( , ) = ‖ ‖; ∀ ; ⊂ .
L’orthogonalité dans un espace normé n'est pas nécessairement symétrique.
Soit ℳ un sous espace vectoriel dans et ℳ admet un supplémentaire topologique dans Pℳ ∶={ P
ℒ
( ) / P = P et ℛ(P) = ℳ}( , Pℳ) ≥ 1 ∶= P Pℳ : ( , P) ≥ 1
2-1-1 Proposition: Soit P Pℳ; alors les propriétés suivantes sont équivalentes : ) ‖ −P ‖ = 1.
) (P ) ⊥ ℛ(P ).
) ∀ , ‖ − P ‖ ≤ ‖ − ‖; ∀ ℳ. Preuve:
Supposons ), soit (P ), z ℛ(P ), alors
‖ ‖ = ‖( −P )( − )‖ ≤ ‖ − ‖ Donc,
Mémoire de magister Page 29
∀ (P ) , ℛ(P ) = ‖ ‖, Supposons b), soit et z ℛ(P ), alors
‖ − ‖ = ‖( −P ) − P ( − )‖ ≥ ( −P ) , ℛ(P ) = ‖ − P ‖. Supposons c), ∀ ; il existe ( , ) unique tel que = +
Où = P ℛ(P ) et = ( −P ) ( )
‖ ‖ = ‖ − (− )‖ ≥ ‖ − P ‖ = ‖ ‖ = ‖( −P ) ‖ Par conséquent, ‖ −P ‖ = 1.
Si P Pℳ et P vérifie l’une des conditions de la proposition précédente, alors ℛ(P ) est le supplémentaire orthogonal de (P ).
Mais, (P ) n'est pas nécessairement un supplémentaire orthogonal de ℛ(P ).
2-1-2 Exemple:
Tout sous espace de co-dimension égale à 1 admet un hyperplan supplémentaire orthogonal. Soit et ≠ (par Hahn –Banach) existe ∗ tels que ( ) = 1, ‖ ‖ = 1 on définit P par : P = − ( )‖ ‖ , alors ( ) = ℛ(P) et ‖ P− ‖ = 1
En général, dans les espaces normés les supplémentaires orthogonaux des sous espaces sont rares.
2-2 Solution minimale d'une équation linéaire dans un espace normé.
Soit : un opérateur linéaire et un espace normé., on dit que est une solution approximante de l'équation = si minimise ‖ − ‖ C'est-à-dire ‖ − ‖ ≤ ‖ − ‖ ; ∀ .
Soit un espace normé, on dit que est une solution minimale si une solution approximante et ‖ ‖ < ‖ ‖ ; ∀
Mémoire de magister Page 30
est l’ensemble des solutions approximantes de l'équation A =
Inverse intérieur orthogonal.
2-2-1 Définition: Soit : un opérateur linéaire. On dit que est un inverse droite intérieur orthogonal de si = , et ‖ − ‖ = 1, on le note par , .
Soit : un opérateur linéaire. On dit que est un inverse gauche intérieur orthogonal de , si = , et ‖ − P ‖ = 1, on le note par , .
On dit que est un inverse intérieur orthogonal de , si est un inverse droite intérieur orthogonal et est un inverse gauche intérieur orthogonal de ; C'est-à-dire
= , = , . On le note par , .
2-2-2 Théorème: Soit : un opérateur linéaire, si , = est un inverse
Droite intérieur de , alors:
∀ ; est une solution approximante de l'équation = . Preuve: Par la proposition (2-1-1) on a: ‖ − ‖ ≤ ‖ − ‖; ∀ ℛ( ) Mais, = ; = ℛ( ) ⊕ ( ) Alors, = Minimise ‖ − ‖
2-2-3 Théorème: Soit : D( ) un opérateur linéaire; D( ) ⊂ , , = est un
inverse gauche intérieur orthogonal de et l'équation = admet une solution , alors est une solution minimale de l'équation = .
Mémoire de magister Page 31
Remarquons que,
+ est une solution de l'équation = où ( ). Maintenant nous cherchons la solution minimale. Par la proposition (2-1-1) on a∶
‖(I − P) ‖ ≤ ‖ − ‖; ∀ ℛ(P) Mais; ( ) ⊂ ℛ(P). Donc,
‖(I − P) ‖ ≤ ‖ − ‖; ∀ ( )
Alors, (I − P) est une solution minimale de l'équation = Mais, (I − P) = = = .
2-2-4 Théorème: Soient : D( ) ⊂ un opérateur linéaire et est un inverse
orthogonal de , si pour tout appartenant à , il existe dans ℛ( ) unique tel que ‖ − ‖ < ‖ − y‖; ∀ ℛ( )
Alors, est une solution minimale de l'équation = . Preuve:
Par le théorème (2-2-2) on a:
est l’unique solution approximante de l'équation = , donc est l’unique solution de l'équation = .
On applique le théorème (2-2-3) à l'équation = , nous trouvons = = est une solution minimale de l’équation = .
2-3 Solution minimale d'une équation linéaire dans un espace de Hilbert
2-3-1 Théorème:[17] Soient ℋ un espace de Hilbert et C une partie convexe Fermée non vide
de ℋ. Pour tout ℋ; il existe un et un seul point de C en lequel la fonction ‖ − ‖ Atteint son minimum, pour tout y C .
Mémoire de magister Page 32
2-3-2 Définition: Si ℱ est un sous espace vectoriels fermé d'un espace de Hilbert ℋ.
On appelle projecteur orthogonal sur ℱ l'opérateur ℱ: ℋ ℋ qui associe à tout vecteur ℋ sa projection orthogonal sur ℱ. On pose ℱ =
2-3-3 Proposition: Si ℱ est un sous espace vectoriel fermé dans un espace de Hilbert ℋ,
alors pour tout ℋ, d( , ) = { ( , ); ℱ} ⇔ 〈 − , 〉 = 0 ; ∀ ℱ Preuve: ‖ − ‖ ≤ ‖ − ( + )‖ = ‖ − ‖ − 2 〈 , − 〉 + ‖ ‖ Par conséquent, 2 〈 , − 〉 ≤ ‖ ‖ , on pose = 〈 , − 〉 , ℝ, alors 2 |〈 , − 〉| ≤ |〈 , − 〉|‖ ‖ et quand 0, alors 〈 , − 〉 = 0 ; ∀ ℱ. ⟸) Si 〈 − , 〉 = 0 ; ∀ ℱ, alors ‖ − ‖ = ‖ − ‖ + ‖ − ‖ ≤ ‖ − ‖ ; ∀ ℱ.
2-3-4 Proposition: Soient ℋ un espace Hilbertien et ℱ un sous-espace vectoriel fermé
Dans ℋ, alors ℋ = ℱ ⊕ ℱ .
Nous rappelons que si ℱ est un sous espace fermé d’un espace de Hilbert, alors ℱ admet un supplémentaire orthogonal ℱ , dans ce cas le projecteur est auto-adjoint.
Réciproquement, si P est un projecteur auto-adjoint sur un espace de Hilbert, alors ( ) ⊥ ℛ( ) et ⊥ est symétrique.
2-3-5 Proposition: Soit ℂ , , alors : a) ℛ( ) = ( ∗)
b) ( ) = ℛ( ∗) Preuve:
Mémoire de magister Page 33
a) y ϵ ℛ(A) ⟺ 〈 A ; y〉 = 0 ; ∀ ℂ ⟺ 〈 ; ∗y〉 = 0 ; ∀ ℂ ⟺ ∗y = 0 ; ∀ ℂ
⟺ y ( ∗).
2-3-6 Définition: Soient ℂ , (ℂ) et ℂ . On dit que ℂ est une solution minimale
de l'équation A = si pour tout ℂ ‖A − ‖ ≤ ‖A − ‖ et ‖ ‖ < ‖ ‖; est l’ensemble des solutions approximantes de l'équation A = .
2-3-7 Proposition: Si ϵ ℂ , et = , alors
) est projecteur sur ℛ( ), on le note par Pℛ( ), ( ) . b) ℂ = ℛ( ) ⨁ ( ).
Preuve:
a) ∀ ϵ ℛ( ) ⟹ ∃ ϵ ℂ : = ⟹ ∃ ϵ ℂ = ⟹ = .
b) Evident.
2-3-8 Proposition: Soient ℂ , , = et ℂ , , alors :
= Pℛ( ), ( ) , = Pℛ( ), ( ) . Preuve: = ⟹ ( ) = et = ⟹ ( ) = On applique ( 2-3-7) sur et on a : = Pℛ( ), ( ) = Pℛ( ), ( ) et = Pℛ( ), ( ) = Pℛ( ), ( ) . 2-3-9 Proposition: Si ℂ = ⨁ M, alors: ℛ P∗, = , P∗, = et P∗, = p , . Preuve:
Mémoire de magister Page 34
ℛ P∗, = (P, ) = et (P∗, ) = ℛ(P, ) = . Par (2-3-7) nous pouvons écrire, P∗, = P , .
2-3-10 Théorème: Soit ℂ = ⨁ on a:
= si et seulement si P, = P∗, Preuve:
⟹) ℛ P∗, = P , = = et P∗, = ℛ(P, ) = = M
D'autre part, on emploie la proposition (2-3-9) on a: P∗, = P, . P∗, = P, ⟹ ℛ P∗, = , donc = . 2-3-11 Proposition: Soit ℂ , on a: ) = et ( )∗ = ⟺ = Pℛ( ), ℛ( ) . ) = et ( )∗ = ⟺ = Pℛ( ), ℛ( ) . Preuve: a) ⟹) = ⟹ ( ) = et par (2-3-8) on a : = Pℛ( ), ( ).
D'autre part, par la proposition (2-3-10) on a : ( ) = ℛ( ) Donc; = Pℛ( ), ℛ( ) .
⟸) = Pℛ( ), ℛ( ) ⟹ = Pℛ( ), ℛ( ) = . ( ) = ⟹ ℂ = ℛ( ) ⨁ ( ) = ℛ( ) ⨁ ( ) Car ( ) = ℛ(( )∗)
2-3-12 Proposition: Soient ℂ , , Y ℂ , , Y = et ( Y)∗= Y .
Mémoire de magister Page 35
Preuve:
Si est une solution de l'équation = Y, alors : = Y ⟹ = Y =
= Y ⟹ ( )∗= ( Y)∗= Y ⟹ ( )∗ = Réciproquement, Y = Y = ( )∗( Y)∗ = ∗ ∗ Y∗ ∗
= ∗ ∗ = ( )∗= .
2-3-13 Théorème: Soient ℂ , , ℂ et ℂ , .
Si = et ( )∗= alors, une solution approximante de l'équation A = . Réciproquement, si Y minimise l'équation A = , alors Y = et ( Y)∗= Y. Preuve: ∀ ϵ ℂ , ∀ b ϵ ℂ on a: A −Pℛ( ), ℛ( ) b ϵ ℛ( ) et Pℛ( ), ℛ( ) b − b = Pℛ( ), ℛ( ) − I b = Pℛ( ) , ℛ( )b ϵ ℛ(A) On écrit, A − b = (A − Pℛ( ), ℛ( ) b) + ( Pℛ( ), ℛ( ) b − b) Nous avons; ‖A − b‖ = A − Pℛ( ), ℛ( ) b + Pℛ( ), ℛ( ) b − b Donc, ‖A − b‖ ≥ A − Pℛ( ), ℛ( ) b
Par conséquent, minimise l'équation A = si et seulement si est une solution de l'équation A = Pℛ( ), ℛ( ) .
Par la proposition (2-3-11) nous avons, A = Pℛ( ), ℛ( ) A = Pℛ( ), ℛ( ) ⟹ A = A , donc minimise A = Réciproquement, si Y minimise l'équation de A = , alors :
Mémoire de magister Page 36
Y est une solution de l’équation A = pℛ( ), ℛ( ) c'est –à-dire AY = pℛ( ), ℛ( ) donc, AY = pℛ( ), ℛ( )
par la proposition (2-3-12) nous avons: Y = et ( Y)∗ = Y.
2-3-14 Proposition: Soient ℂ , , Y ℂ , , Y = et ( Y)∗= Y
une solution de l'équation = Y si et seulement si = et ( )∗ = . Preuve:
si une solution de l'équation = Y , alors : = Y ⟹ = Y = et
= Y ⟹ ( )∗ = (Y )∗ = Y ⟹ ( )∗ = . Réciproquement, Y = Y = (Y )∗( )∗= ∗ Y∗ ∗ ∗
= ∗ ∗ = ( )∗ = . 2-2-15 Lemme: Soit ℂ , , on définie sur ℛ( ∗) dans ℛ(A), par: = ; ∀ ϵ ℛ( ∗)
alors, est une bijection :
∀ ϵ ℛ(A) ⟹ ∃ ϵ ℂ : = = Donc, est surjective.
∀ , ′ ϵ ℛ( ∗), = ′⟹ = ′⟹ ( − ′) =0 ⟹ ( − ′) = 0 Nous avons,ℂ = ( ) ⨁ ℛ( ∗) ⟹ ( )⋂ℛ( ∗) = {0}
( − ′) = 0 et ( − ′) ϵ ℛ( ∗) ⟹ − ′= 0 ⟹ = ′ Donc, est injective.
Mémoire de magister Page 37
2-3-16 Proposition: Soient ℂ , , ℛ(A), alors L'équation A = admet une solution
minimale unique. :
Par le lemme (2-2-15) on a :
L'équation A = admet une solution unique telle que ℛ( ∗) ∀ ϵ ( ); = + est une solution de l'équation A = D'autre part, nous avons :‖ ‖ = ‖ ‖ + ‖ ‖ ⟹ ‖ ‖ ≥ ‖ ‖.
2-3-17 Théorème: Soit ℂ , , ℂ , telles que = et ( )∗= .
Si l'équation A = admet une solution, alors est une solution minimale unique.
Réciproquement, si l'équation A = admet une solution, et Y est une solution minimale telle que Y ℂ , , alors Y = et (Y )∗ = Y .
:
Nous avons, A = ⟹ = ⟹ =
Donc, par conséquent, est solution de l'équation A =
On utilise (2-3-16); il existe ℛ( ∗) unique telle que soit solution minimale de l'équation A = .
D'ailleurs, ℛ( ) = ( ) = ℛ( ∗) et par le lemme (2-3-15) on a : = .
Réciproquement, si est une colonne de la matrice , alors Y ℛ( ∗) Par(2-3-14) on a: = Y ;donc = Y ,
Et par laProposition (2-3-12) on a :
Mémoire de magister Page 38
Exemple:
Soient ℂ , , ℂ , On considère l'équation A =
Par le théorème (2-3-13): est une solution approximante de l'équation A = . Donc, est une solution de l'équation A = A
Par le théorème(2-3-17): A est une solution minimale unique de l'équation A = A Alors, est une solution minimale de l'équation A = .
Chapitre 3:
Inverse
généralisé à
projections
Prédéterminées
,
( )
Mémoire de magister Page 39