• Aucun résultat trouvé

Pseudospectres identiques et super-identiques d'une matrice

N/A
N/A
Protected

Academic year: 2021

Partager "Pseudospectres identiques et super-identiques d'une matrice"

Copied!
79
0
0

Texte intégral

(1)

Pseudospectres identiques et super-identiques

d’une matrice

Thèse Samir Raouafi Doctorat en mathématiques Philosophiæ doctor (Ph.D.) Québec, Canada © Samir Raouafi, 2014

(2)
(3)

Résumé

Le pseudospectre est un nouvel outil pour étudier les matrices et les opérateurs linéaires. L’outil traditionnel est le spectre. Celui-ci peut révéler des informations sur le comportement des matrices ou operateurs normaux. Cependant, il est moins informatif lorsque la matrice ou l’opérateur est non-normal. Le pseudospectre s’est toutefois révélé être un outil puissant pour les étudier. Il fournit une alternative analytique et graphique pour étudier ce type des cas. Le but de cette thèse est d’étudier le comportement d’une matrice non-normale A en se basant sur le pseudospectre. Il est bien connu que le théorème matriciel de Kreiss donne des estimations des bornes supérieures de

An et etA en fonction du pseudospectre. En

1999, Toh et Trefethen [31] ont généralisé ce célèbre théorème aux polynômes de Faber et aux matrices ayant des spectres dans des domaines plus généraux. En 2005, Vitse [34] a donné une généralisation du théorème aux fonctions holomorphes dans le disque unité. Dans cette thèse, on généralise le théorème matriciel de Kreiss aux fonctions holomorphes et aux matrices ayant des spectres dans des domaines plus généraux. Certaines conditions devraient cependant être vérifiées.

L’étude du comportement d’une matrice au cas où la valeur exacte de la norme de la résolvante est connue a été aussi remise en question. Il est bien connu que si A et B sont des matrices à pseudospectres identiques, alors

1 2 ≤

kAk

kBk ≤ 2. (1)

Mais, qu’en est-il pour les puissances supérieures An / Bn ?

En 2007, Ransford [21] a montré qu’il existe des matrices A, B ∈ CN ×N avec des pseudos-pectres identiques et où

An et Bn

peuvent prendre des valeurs aléatoires et indépendantes

les unes des autres pour 2 ≤ n ≤ (N − 3)/2. Serait-il aussi le cas pour n assez grand ? Par ailleurs, le pseudospectre est aussi utilisé pour étudier le semi-groupe etA, mais permet-il de déterminer

etA ?

Cette thèse répond à toutes ces questions en démontrant des résultats plus généraux. Elle gé-néralise l’inégalité (1) aux transformations de Möbius. Elle montre aussi que la condition de pseudospectre identique n’est pas suffisante pour déterminer le comportement d’une matrice. Cependant, la condition de pseudospectre super-identique pourrait l’être.

(4)
(5)

Abstract

The theory of pseudospectra is a new tool for studying matrices and linear operators. The traditional tool is the spectrum. It reveals information on the behavior of normal matrices or operators. However, it is less informative as the matrix or the operator are non-normal. Pseudospectra have nevertheless proved to be a powerful tool to study them. They provide an analytical and graphical alternative to study this type of case. The purpose of this thesis is to study the behavior of a non-normal matrix A based on its pseudospectra. It is well known that the Kreiss matrix theorem provides estimates of upper bounds of

An and etA

according pseudospectra. In 1999, Toh and Trefethen [31] generalized the celebrated theorem to Faber polynomials and matrices with spectra in more general domains. In 2005, Vitse [34] generalized the theorem for holomorphic functions in the unit disk. In this thesis, the Kreiss matrix theorem is generalized to holomorphic functions and matrices with spectra in more general domains. However, certain conditions should be imposed.

The behavior of a matrix if the exact knowledge of the resolvent norm is assumed has also been questioned. It is well known that if A and B are matrices with identical pseudospectra, then

1 2 ≤

kAk

kBk ≤ 2. (2)

But what about higher powers An / Bn ?

In 2007, Ransford [21] showed that there exist matrices A, B ∈ CN ×N with identical pseu-dospectra and where

An and Bn

can take more or less arbitrary values for 2 ≤ n ≤

(N − 3)/2. Is it also the case for large n? Moreover, pseudospectra are also used to study the semigroup etA, but do they allow us to determine etA

?

This thesis addresses all these issues by demonstrating more general results. It generalizes the inequality (2) to Möbius transformations. It also shows that the condition of identical pseudospectra is not sufficient to determine the behavior of a matrix. However, the condition of super-identical pseudospectra could do so.

(6)
(7)

Table des matières

Résumé iii

Abstract v

Table des matières vii

Liste des figures ix

Remerciements xiii

Introduction 1

1 Pseudospectre et fonction holomorphe d’une matrice 3

1.1 Pseudospectre d’une matrice . . . 3

1.2 Borne d’une fonction holomorphe d’une matrice . . . 9

2 Généralisation du théorème matriciel de Kreiss 15

2.1 Transformation de Faber. . . 15

2.2 La constante de Kreiss . . . 20

2.3 Théorème matriciel de Kreiss pour un domaine quelconque . . . 23

3 Pseudospectre identique 33

3.1 Pseudospectre identique et le comportement d’une matrice. . . 34

3.2 Normes plus générales . . . 48

4 Pseudospectre super-identique 53

4.1 Définitions et propriétés . . . 53

4.2 Pseudospectre super-identique et le comportement d’une matrice . . . 56

Conclusion 61

(8)
(9)

Liste des figures

1.1 L’interface graphique EigTool . . . 7

1.2 Pseudospectre de A . . . 8

1.3 Norme des puissances de A . . . 8

1.4 Pseudospectre de B . . . 9

(10)
(11)
(12)
(13)

Remerciements

Je tiens à remercier mon directeur de recherche, le professeur Thomas Ransford, pour ses conseils judicieux, sa disponibilité et tous les efforts qu’il n’a cessé de prodiguer tout au long de cette thèse. J’ai beaucoup apprécié ses suggestions de lecture éclairantes, ses conseils pertinents et le sujet de la thèse qu’il m’a proposé.

Je profite aussi de l’occasion pour remercier les professeurs de département de mathématiques et de statistique de l’Université Laval d’avoir contribué largement à ma formation durant toutes ces années, plus particulièrement, Thomas Ransford, Line Baribeau, Javad Mashreghi, et Jérémie Rostand, avec qui j’ai suivi les cours les plus importants de ma carrière. Mes remer-ciements s’adressent également au directeur du département, le professeur Frédéric Gourdeau, et au personnel du département, notamment Sylvie Drolet, Suzanne Talbot et Emmanuelle Reny-Nolin pour leur sympathie, leur aide et le plaisir que j’ai eu à être auxiliaire de recherche et d’enseignement avec eux. Je garderai toujours un excellent souvenir de mon séjour à l’Uni-versité Laval. Je n’oublie pas aussi mes professeurs à l’École Normale Supérieure de Tunis et à l’Université de Tunis El Manar où j’ai débuté ma carrière.

Je voudrais exprimer aussi mes sentiments de gratitude au ministère de l’enseignement su-périeur et de la recherchede de la Tunisie pour la bourse de l’excellence qu’il m’a octroyé à fin de poursuivre mes études supérieures à l’Université Laval. Merci aussi à L’ISM, l’Institut des Sciences Mathématiques, et à mon superviseur, le professeur Thomas Ransford, pour leur support financier.

J’aimerai aussi remercier tous mes amis qui ont fait de Québec un milieu spécial et précieux. Ils m’ont fourni beaucoup d’encouragement et une bonne compagnie. Je devrais aussi reconnaître le support moral et inestimable que j’ai eu de la communauté musulmane de Québec au CCIQ (Centre Culturel Islamique de Québec) et à l’AEMUL (Association des Étudiants Musulmans de l’Université Laval) où j’ai participé à leur conseil d’administration depuis plusieurs années. Finalement, je remercie sincèrement mes parents, mes soeurs, mes frères, ainsi que ceux de ma femme pour m’avoir toujours encouragé dans mes études et m’avoir toujours supporté. Les mots me manquent pour exprimer ma gratitude à ma chère femme Yamina que son dévouement, son amour et sa confiance en moi m’ont aidé beaucoup à surmonter toutes les

(14)

difficultés et les défis. Un dernier remerciement pour le meilleur cadeau que j’ai eu à la fin de ma thèse, ma belle-fille Sarra. Son sourire me fait oublier tous les travaux fatiguants de jours et des nuits. Cette thèse est en grande partie le fruit de votre aide appréciable surtout aux moments décourageant que j’ai vécu.

(15)

Introduction

Le pseudospectre est un outil important pour étudier des nombreux problèmes mathéma-tiques. Les équations de la forme dx/dt = Ax ou xn+1 = Axn, où A est une matrice ou un

opérateur linéaire, est l’un des plus importants de ces problèmes. Ces équations ramènent à l’étude des semi-groupes etAet An. L’image numérique et le spectre permettent de déterminer les taux de croissance initiaux et asymptotiques respectivement de

etA et An . Pour les

valeurs intérmédiaires de t et n, on trouve le célèbre théorème matriciel de Kreiss fournissant une borne supérieure pour

etA et An

en fonction de celle de la norme de la résolvante

(zI − A)−1

. Si A est normale, alors il est bien connu que (zI − A)−1 = 1/dist z, σ(A)  et par conséquent la norme de la résolvante serait complètement déterminée par le spectre. Par contre, si A est non-normale, alors la norme de la résolvante

(zI − A)−1

peut s’éloigner de

1/dist z, σ(A)

d’une façon spectaculaire et par suite l’étude du pseudospectre sera inévitable. La première définition du pseudospectre a été donnée en 1967 par Varah dans sa thèse intitulée “The computaion of bounds for the invariant subspaces of a general matrix operator [36]”. Puis en 1979, il l’a introduit dans l’article [37] pour étudier l’équation de Sylvester AX − XB = C. En 1975, Landau a publié l’article [17] qui utilise le pseudospectre pour étudier les matrices de Toeplitz et les opérateurs intégrales associés. Ensuite, Godunov et ses collègues ont fait des recherches liées au pseudospectre dans les années 1980. Ces recherches ont été principa-lement orientées vers le développement de techniques visant la garantie de la précision dans le calcul de valeurs propres. À partir de 1990, Trefethen et ses collègues ont publié plusieurs articles présentant notamment l’importance du pseudospectre dans l’étude des matrices et des opérateurs linéaires non-normaux. D’autres chercheurs se sont intéressés également au pseu-dospectre et ils l’ont appliqué dans des nombreux domaines de recherches. Parmi ces domaines d’application, on peut citer les sciences de l’atmosphère, la théorie du contrôle, l’écologie, la stabilité hydrodynamique, les lasers, la magnétohydrodynamique, les chaînes de Markov, les itérations des matrices, l’analyse des erreurs d’arrondissement, la théorie des opérateurs, la mécanique quantique, et la solution numérique des équations différentielles. Pour plus des détails sur l’histoire du pseudospectre et ses divers applications, voir [32, §2 et §6].

(16)

Embree “Spectra and pseudospectra [32]” qui prévoit que pour déterminer une estimation de la norme d’une fonction holomorphe d’une matrice ou d’un opérateur linéaire non-normale, il est important d’étudier non seulement le spectre, mais également le pseudospectre. Il est bien connu que le théorème matriciel de Kreiss donne une estimation de supn≥0

An et supt≥0 etA

en fonction du pseudospectre à un facteur constant près. Dans cette thèse, on

va généraliser ce célèbre théorème pour les fonctions holomorphes et aux matrices ayant des spectres dans des domaines plus généraux. En second lieu, on va étudier le comportement d’une matrice en utilisant le pseudospectre, au moins lorsque le comportement est interprété dans le sens de la norme d’une fonction holomorphe d’une matrice. Autrement dit, on veut savoir quels résultats on peut tirer quand on connait la valeur exacte de la résolvante. Le premier chapitre de cette thèse est consacré au rappel de quelques propriétés de base du pseudospectre. Il servira donc à introduire les chapitres qui suivent en présentant le théorème matriciel de Kreiss pour Anet pour etA par rapport au disque unité et au demi-plan à gauche respectivement. Il permet aussi d’étudier le comportement d’une matrice en utilisant le spectre et l’image numérique. Le deuxième chapitre généralise le théorème matriciel de Kreiss aux fonctions holomorphes définies sur des domaines plus généraux. Les résultats qu’on va montrer sont basés sur des travaux majeurs effectués par Toh et Trefethen [31] et Vitse [34]. Toh et Trefethen ont généralisé ce célèbre théorème aux polynômes de Faber. Vitse lui a donné une généralisation aux fonctions holomorphes sur le disque unité. Le troisième chapitre traite la question de la détermination du comportement d’une matrice par le pseudospectre. On présente tout d’abord les théorèmes inattendus 3.1.3et 3.1.5 de Ransford [21] qui montrent que le pseudospectre ne détermine pas la norme

An

lorsque 2 ≤ n ≤ (N − 3)/2 pour une

matrice A ∈ CN ×N. Un des objectifs de cette thèse est d’étudier le cas n > (N − 3)/2. Une question encore ouverte et qui est très intéressante dans les applications est : est-ce que le pseudospectre détermine

An

pour n > (N − 3)/2 ? Le pseudospectre est également utilisé

pour étudier les exponnentielles eA. Une autre question d’intérêt et qui n’a jamais été étudiée à nos connaissances est celle de la détermination de la norme eA

. On va étudier ces dérnières

questions et leur donner une réponse définitive qui clôture la question de la détermination de comportement d’une matrice par le pseudospectre. Plus précisément, on montre dans ce chapitre que le pseudospectre détermine seulement la norme d’une transformation de Möbius d’une matrice à un facteur constant près. Le quatrième chapitre présente une alternative introduite par Ransford [21]. Il prévoit que le pseudospectre super-identique détermine le comportement d’une matrice à un facteur constant près. On présente les résultats obtenus dans [9,21,22]. Ceux-ci donnent des réponses partielles aux questions posées dans le troisième chapitre et laissent certaines autres questions ouvertes.

(17)

Chapitre 1

Pseudospectre et fonction

holomorphe d’une matrice

Une question centrale dans la théorie spectrale est la suivante : comment estimer la norme d’une fonction holomorphe d’une matrice ? Parmi les techniques utilisées pour répondre à cette question certaines sont basées sur l’étude du spectre, d’autres sont basées sur l’étude de l’image numérique et enfin certaines sont basées sur l’étude du pseudospectre. Le présent travail est consacré essentiellement à étudier les techniques utilisant le pseudospectre. Afin de favoriser une meilleure compréhension de ce qui suivra, on va rappeler dans ce chapitre des notions fondamentales du pseudospectre et présenter quelques résultats intéressants en utilisant d’autres techniques.

1.1

Pseudospectre d’une matrice

1.1.1 Définitions et propriétés

Soit N ≥ 1. On dénote par CN l’espace des vecteurs complexes de dimension N , et par CN ×N l’algèbre des matrices N × N à coefficients complexes. On définit par |x| := PN

k=1|xk|2 12

la norme euclidienne sur CN, et par kAk := sup|x|=1|Ax| la norme matricielle associé à | · | sur CN ×N. On considère la norme de la résolvante zI −A−1d’une matrice A comme une fonction à variable complexe z. Si z est une valeur propre de A, alors par convention

zI − A −1

est l’infini. On rappelle qu’une matrice U est dite unitaire si U U= UU = I, où Uest la matrice adjointe de U et I est la matrice identité. Une matrice A est dite normale si AA= AA. Dans ce cas, on peut montrer que A est normale si elle est unitairement diagonalisable : A = U V U, où U est une matrice unitaire et V est une matrice diagonale. Ainsi, si A est normal, alors

zI − A −1 = 1 dist(z, σ(A)), (1.1)

(18)

où σ(A) dénote le spectre de A et dist(z, σ(A)) est la distance usuelle entre le point z et l’ensemble σ(A). Ainsi, la norme de la résolvante d’une matrice normale est entièrement déterminée par le spectre. Au contraire, si A est une matrice non-normale, la quantité (1.1) ne donne qu’une borne inférieure, et

zI − A −1

peut atteindre des valeurs assez grandes.

Cette façon de penser nous amène à notre première définition de pseudospectre.

Définition 1.1.1. Le -pseudospectre σ(A) d’une matrice A est l’ensemble des z ∈ C tel que zI − A −1 > 1 .

En particulier, le spectre est inclus dans le -pseudospectre pour tout  > 0. Si A est une matrice normale, alors l’identité (1.1) implique que son -pseudospectre se compose en des disques de rayon  entourant les valeurs propres. L’importance de pseudospectre se pose pour les matrices non-normales A, pour lesquelles

zI − A −1

peut-être grande même lorsque le

nombre complexe z est loin du spectre.

Le résultat suivant montre qu’on peut aussi décrire le pseudospectre en terme des valeurs propres approximatives.

Propriété 1.1.2. Soient  > 0, A ∈ CN ×N et z /∈ σ(A). Alors z ∈ σ

(A) si et seulement s’il

existe un vecteur v ∈ CN tel que

zI − A 

v

< kvk.

Le nombre complexe z ∈ σ(A) est appelé une valeur -pseudopropre de A, et le vecteur v

correspondant est appelé le vecteur -pseudopropre de A associé à z. En d’autres mots, le -pseudospectre est l’ensemble des valeurs -pseudopropres.

Démonstration. Si

zI − A −1

> 1, alors il existe un vecteur non-nul u ∈ CN tel que

zI − A −1

u > 1kuk. Pour v = zI − A −1

u, on peut écrire (zI − A)v

< kvk.

La réciproque est semblable. 

La propriété suivante franchit une deuxième caractérisation du pseudospectre basée sur la relation entre la norme de la résolvante et la perturbation des valeurs propres.

Propriété 1.1.3. Soient  > 0, A ∈ CN ×N et z /∈ σ(A). Alors z ∈ σ(A) si et seulement s’il

existe une matrice E ∈ CN ×N, kEk < , telle que z ∈ σ(A + E).

En d’autres mots, le -pseudospectre de A est l’ensemble des valeurs propres d’une matrice de perturbation A + E avec kEk < .

(19)

Démonstration. Si z ∈ σ(A), alors la propriété (1.1.2) implique qu’il existe un vecteur unitaire v ∈ CN tel que

(zI − A)v

< . Soit u ∈ CN un vecteur unitaire tel que (A − z I)v = s u

pour s < . On peut donc écrire

z v = A v − s u vv = (A − s u vI)v. C’est à dire z ∈ σ(A + E) avec E := s u vI.

Réciproquement, si z ∈ σ(A + E) pour une matrice E avec kEk < , alors il existe un vecteur v ∈ CN tel que (A + E) v = z v. Ainsi, si z /∈ σ(A), alors on peut écrire v = (z I − A)−1E v et on a 1 = kvk = (z I − A)−1E v(z I − A)−1 kEk <  (z I − A)−1 . 

On rappelle que les valeurs singulières d’une matrice A ∈ CN ×N sont les racines carrées des valeurs propres de AA. On les note s1(A), s2(A), . . . , sN(A) par ordre décroissant. La

décomposition en valeurs sigulières de A est A = U ΣV , où U et V sont des matrices unitaires et Σ = diag(s1, s2, . . . , sN) est une matrice diagonale. En particulier, on a

kAk = s1(A) et kA−1k =

1 sN(A)

.

Une des principales méthodes de calcul du pseudospectre de A est de calculer les valeurs sigulières de zI − A pour z ∈ C, puis on utilise le fait que

zI − A −1 = s1((zI − A)−1) = 1 sN(zI − A) .

La commande EigTool de Matlab produit des images de courbes des niveaux de la norme de la résolvante en utilisant la dernière équation. Pour plus d’information voir [32, §39].

Théorème 1.1.4. Pour tout A ∈ CN ×N, l’ensemble σ(A) est non-vide, ouvert, borné et a au plus N composantes connexes dont chacune contient au moins une valeur propre de A.

Démonstration : Il est clair que pour chaque  > 0, l’ensemble σ(A) est non-vide, ouvert et borné. Pour montrer qu’il a au plus N composantes connexes dont chacune contient au moins une valeur propre de A, on peut utiliser le fait que la fonction z 7→ log

(z I − A)−1

est sous-harmonique et elle vérifie donc le principe du maximum sur C\σ(A). Pour obtenir des résultats sur les fonctions sous-harmoniques, on réfere le lecteur aux [6, § X] et [20, § 2].

On note par D := {z ∈ C : |z| < 1} le disque unité ouvert et par D := {z ∈ C : |z| ≤ 1} sa fermeture. On utilise aussi la notation D pour désigner le disque ouvert centré à l’origine et

(20)

Théorème 1.1.5. Si A est diagonalisable, i.e. A = V DV−1 où V est inversible et D est diagonale, alors

σ(A) + D ⊆ σ(A) ⊆ σ(A) + Dk(V ), ∀ > 0,

où k(V ) := kV k kV−1k est le nombre de condition de V .

Démonstration. Si z ∈ σ(A), alors z + ξ ∈ σ(A + ξ I) pour tout ξ ∈ D. On déduit donc de

la propriété (1.1.3) que z + ξ ∈ σ(A). Pour la deuxième inclusion, on a

(z I − A)−1 = (z I − V D V−1)−1 = V (z I − D)−1V−1. Cela entraîne que

(zI − A)−1 ≤ k(V ) (zI − D)−1 = k(V ) dist(z, σ(A)). 

On termine cette section par le théorème suivant qui rassemble quelques propriétés du pseu-dospectre.

Théorème 1.1.6. Soient A et U appartiennent à CN ×N telles que U soit unitaire, et soit  > 0. Alors

(i) σ(U AU) = σ(A).

(ii) σ(A) = σ(A), où le bar désigne le conjugué des nombres complexes.

(iii) σ(A1⊕ A2) = σ(A1) ∪ σ(A2).

(iv) σ(A + cI) = c + σ(A) pour tout c ∈ C.

(v) σ(cA) = c σ/|c|(A) pour tout c ∈ C\{0}.

Dans la propriété (iii), la matrice A1⊕ A2 dénote la somme directe des deux matrices A1 et

A2 qui est définie par la matrice diagonale par block suivante :

A1⊕ A2:=

A1 0

0 A2 !

Pour la démonstration de ces propriétés, voir [32, §2].

1.1.2 Quelques exemples

Une perturbation d’une matrice normale avec une matrice de norme  ne déplace pas les valeurs propres d’une distance supérieure à . En fait, l’identité 1.1 montre que σ(A) se compose de disques de rayon  centrés à chaque valeur propre. Mais pour de nombreux ma-trices non-normales, des petites perturbations peuvent se déplacer les valeurs propres de façon

(21)

phénoménale. Dans ce cadre, le calcul du pseudospectre de ces matrices devient inévitable pour les étudier, et cela peut se faire tout simplement en utilisant la commande EigTool de Matlab, voir la figure 1.1. Ce logiciel est une interface graphique de Matlab pour calculer les valeurs propres, le pseudospectre, l’image numérique et les quantités connexes pour les matrices non-normales. Il a été dévéloppé à la periode 1999-2002 par Thomas G. Wright au laboratoire informatique de l’Université Oxford sous la direction de Lloyd N. Trefethen. Pour plus d’information sur EigTool, voir [38].

Figure 1.1: L’interface graphique EigTool

Exemple 1.1.7. La matrice tridiagonale A := triadiag(1/4, 0, 1) de dimension 32, voir [22].

A :=           0 1 1/4 0 1 . .. ... ... 1/4 0 1 1/4 0          

Les valeurs propres de A sont λk= cos(33) pour k = 1, 2, . . . , 32, voir [32, § I]. En particulier, son rayon spectral est strictement inférieur à 1, et cela implique que kAnk → 0 lorsque n → ∞.

(22)

Cependant, comme il montre la figure 1.3, la norme de An atteint des valeurs très grandes

avant de converger vers 0. Ce genre de comportement est important dans les applications, et il est important de comprendre et de prédire quant cela se produit.

Figure 1.2: Pseudospectre de A Figure 1.3: Norme des puissances de A

La figure1.2 illustre les frontières de σ(A) pour  = 10−2, 10−3, . . . , 10−8. Les points solides correspondent aux valeurs propres et l’ellipse pointillé correspond à la frontière de l’image numérique. Dans la figure1.3, on trouve l’évolution de la norme kAkk en fonction de k.

Exemple 1.1.8. La matrice Grcar de dimension 32, voir exemple 3 dans [33].

B :=                 1 1 1 1 −1 1 1 1 1 . .. ... ... ... ... −1 1 1 1 1 −1 1 1 1 −1 1 1 −1 1                 .

Une caractéristique intéressante de cet exemple est que le pseudospectre ne contient pas l’origine. Par exemple, l’image numérique de cette matrice le contient, mais les valeurs propres en sont loins, voir la figure1.4.

Les courbes de la figure1.4représentent les frontières de σ(A) pour  = 10−1, 10−1.5, 10−2 et

10−2.5, les points solides représentent les valeurs propres et la courbe pointillé représente la frontière de l’image numérique.

(23)

Figure 1.4: Pseudospectre de B

1.2

Borne d’une fonction holomorphe d’une matrice

Dans cette section, on va introduire quelques relations entre le “lieu” d’une matrice A dans le plan complexe et la quantité kf (A)k pour une fonction f . Dans ce qui suit, on appelle cette quantité le “comportement” de A. Parmi les lieux d’une matrice dans le plan complexe que l’on pourrait considérer on trouve le spectre, l’image numérique et le pseudospectre. Le spectre et l’image numérique sont déterminés par les −pseudospectres lorsque  → 0 et  → ∞ respectivement, voir [13, §5].

Si A est normal, alors, le théorème spectral [8], implique que

kf (A)k = sup

z∈σ(A)

|f (z)|,

pour toute fonction f holomorphe sur un voisinage de σ(A). Ainsi, le comportement d’une matrice normale est complètement déterminé par son spectre. Notre principale préoccupation dans cette thèse est l’étude des matrices non-normales, et il est clair que le spectre seul ne peut pas déterminer leurs comportements.

1.2.1 L’image numérique et le comportement d’une matrice

On rappelle que l’image numérique d’une matrice A ∈ CN ×N est l’ensemble W (A) défini par : W (A) :=

xA x : x ∈ CN, kxk = 1

.

C’est un sous-ensemble compact, convexe de C et il contient σ(A). Si A est normal, alors W (A) est le plus petit convexe qui contient σ(A). Pour plus de détails sur les propriétés de

(24)

l’image numérique, voir [14] et [24].

Les théorèmes qui suivent nous donnent la relation entre l’image numérique et le pseudos-pectre. On peut trouver des démonstrations de ces théorèmes dans [32, §17].

Théorème 1.2.1. La norme de la résolvante de A satisfait

zI − A −1

1

dist(z, W (A)), ∀z /∈ W (A).

Ce théorème, qui a été démontré depuis plusieurs années [29], implique que le pseudospectre satisfait

σ(A) ⊂ W (A) + D, ∀ > 0.

Inversement, on a le théorème suivant.

Théorème 1.2.2. [32, Théorème 17.2] L’ensemble W (A) est l’intersection de tous les demi-plans H ⊆ C qui satisfassent

σ(A) ⊆ H + D, ∀ > 0.

Une application importante de l’image numérique est l’estimation du comportement de ket Ak comme une fonction de t comme il ressort du théorème suivant.

Théorème 1.2.3. [32, Théorème 17.1] Soit A ∈ CN ×N. Posons ω(A) := sup

z∈W (A)Re(z)

l’abscisse numérique de A. Alors,

ket Ak ≤ et ω(A), ∀t ≥ 0 et

ket Ak = et ω(A)+ o(t) (t → 0).

En particulier ket Ak ≤ 1 pour tout t ≥ 0 si et seulement si ω(A) ≤ 0.

On voit dans ce théorème que l’image numérique répond à certaines questions au sujet du comportement d’une matrice, mais dans d’autres applications l’information obtenue est ap-proximative. Par exemple, il ne répond pas à la question de savoir s’il existe une constante C telle que ket Ak ≤ C pour tout t ≥ 0, i.e. si A est stable. Une condition suffisante pour cela est ω(A) ≤ 0. On peut voir qu’il n’y a pas une condition nécessaire et suffisante en notant que les matrices

(25)

A = −1 4 0 −1 ! , B =     −1 4 0 0 −1 0 0 0 1    

ont la même image numérique qui est le disque fermé de centre -1 et de rayon 2. Toutefois, la matrice A est stable tandis que B ne l’est pas, voir [32, §17].

Récemment, M. Crouzeix [7] a montré un théorème intéressant qui détermine le comportement d’une matrice en fonction de son image numérique.

Théorème 1.2.4. Soit f une fonction holomorphe sur un voisinage de W (A). Alors

kf (A)k ≤ 11, 08 sup

z∈W (A)

|f (z)|.

Ce théorème prouve aussi que l’image numérique répond à certaines questions au sujet du comportement d’une matrice. Cependant, dans de nombreuses autres applications, l’ensemble W (A) est assez grand et il empêche cette borne d’être significative. Par exemple, dans les deux situations qui suivent, on veut que supz∈W (A)|f (z)| soit aussi petit que l’on veut.

– f (z) = zk, mais W (A) contient des z ∈ C avec |z| ≥ 1. – f (z) = et z, mais W (A) contient des z ∈ C avec Re(z) ≥ 0.

1.2.2 Le théorème matriciel de Kreiss

Le théorème matriciel de Kreiss a été initialement publié par Heinz-Otto Kreiss [16]. Il donne une estimation de supn≥0kAnk ou sup

t≥0ket Ak, pour une matrice A, en fonction de

la constante de Kreiss K(A). Pour l’estimation de la norme de la puissance d’une matrice, la constante K(A) est définie par la formule suivante

K(A) := sup

|z|>1

(|z| − 1) zI − A −1

.

De façon équivalente, cette constante peut être définie en fonction du rayon pseudospectral comme suit

K(A) := sup

>0

ρ(A) − 1

 ,

où ρ(A) := supz∈σ(A)|z| est le rayon −pseudospectral de A. La constante de Kreiss mesure à quel point le pseudospectre peut s’éloigner du disque unité.

(26)

Théorème 1.2.5. Pour toute matrice A ∈ CN ×N, on a

K(A) ≤ sup

n≥0

kAnk ≤ e N K(A).

Ce théorème prouve que la borne supérieure de la suite kAnk est égale K(A) à une constante près inférieur ou égale à eN . Par exemple si on l’applique à l’exemple 1.1.7, on voit bien que le pseudospectre montre que kAnk atteint des valeurs assez grandes avant de converger vers 0. En regardant le nombre z = 1, 01, on peut lire directement dans la figure 1.2 que

zI − A −1

> 107, ainsi le théorème de Kreiss implique que supn≥0kAnk > 105.

La constante eN du théorème1.2.5a été obtenue après plusieurs développements de la décla-ration initiale du théorème matriciel de Kreiss en 1962. La preuve originale de Kreiss montre l’estimation

K(A) ≤ sup

n≥0

kAnk ≤ K(A)NN.

Puis elle a eu des améliorations par Morton en 1964, Strang en 1966 et Miller en 1967 qui ont diminué la borne supérieure à 6N(N + 4)5NK(A), NNK(A) et e9N2

K(A) respectivement. Après quelques années Strang a observé qu’un document de Laptev découle implicitement d’une estimation beaucoup plus raisonnable qui est 32πeN2K(A), voir [32,19]. En 1981, Tad-mor [30] a montré, en utilisant la formule intégrale de Cauchy à l’argument adapté de Laptev, que cette borne est linéaire en N et il l’a réduit à 32πeN K(A). Leveque et Trefethen [19] ont minimisé cette borne en 1984 à 2eN K(A) et ils ont conjencturé que la borne optimale est eN K(A). En 1985, Smith [26] a réduit cette borne à (1 + π2)eN K(A) et enfin Spijker [28] a prouvé cette conjecture en 1991. La démonstration se repose sur un lemme qui fournit une borne supérieure pour la longueur d’arc de l’image du cercle unité dans le plan complexe par une fonction rationnelle, voir [32, § 18] pour plus d’informations.

Il est intéressant aussi de savoir quelques informations sur la taille de etA

comme une

fonction de t en utilisant le pseudospectre. Le taux de croissance asymptotique de cette norme est complètement déterminé par le spectre de A et il est donné par l’équation

lim t→∞t −1 log etA = α(A),

où α(A) := supz∈σ(A)Re(z) est l’abscisse spectrale de A, voir [8, Théorème 10.1.6]. Le théo-rème1.2.3 montre que l’image numérique fournit le taux de croissance initial qui est donné par lim t→0t −1log etA = ω(A),

(27)

où ω(A) est l’abscisse numérique de A. Notre intérêt principal ne se limite pas à savoir seulement les deux cas t → ∞ ou t → 0 mais aussi toutes les valeurs intérmidiaires possibles de t. L’image numérique et le spectre donnent les bornes suivantes

etA ≥ etα(A) et etA ≤ etω(A) (t ≥ 0).

Si la matrice A := V DV−1 est diagonalisable, alors on a la borne supérieure suivante

etA

≤ k(V )etα(A) (t ≥ 0).

Cette borne est intéressante mais dans la plupart des applications le nombre de condition k(V ) est assez grand ou difficile à déterminer.

Pour obtenir des bornes optimales, il est intéressant d’utiliser le pseudospectre ou de façon équivalente la norme de la résolvante. Si on suppose que α(A) < 0, alors pour tout z ∈ C tel que Re(z) > 0, on obtient à partir de la transformation de Laplace la représentation suivante

Z ∞ 0

etAe−ztdt = (zI − A)−1.

Cette formule fournit une borne inférieure très utile dans la pratique et elle est donnée par l’inégalité suivante sup t≥0 etAα(A)  ( ≥ 0), (1.2)

où α(A) := supz∈σ(A)Re(z) est l’abscisse pseudospectrale de A. Supposons que A est une matrice avec α(A) < 0 et le pseudospectre σ(A) intervenant dans le demi-plan à droite, autrement dit α(A) >  pour certains  > 0. L’inégalité (1.2) montre qu’on doit avoir une croissance transitoire. Si par exemple zI − A

−1

= 105 pour un z ∈ C tel que Re(z) = 0.01,

alors α(A) ≥ 0.01 pour  = 10−5. On doit donc avoir une croissance transitoire de grandeur supérieure ou égale 103.

Si on définit la constante de Kreiss de A par rapport au demi-plan à gauche par K(A) := sup >0 α(A)  =Re(z)>0sup Re(z) zI − A −1 ,

alors l’inégalité (1.2) implique

sup t≥0 etA ≥ K(A).

Le théorème suivant est le théorème matriciel de Kreiss pour l’exponentielle qui fournit la borne supérieure de l’inégalité précédente.

(28)

Théorème 1.2.6. Pour toute matrice A ∈ CN ×N, on a K(A) ≤ sup t≥0 etA ≤ e N K(A),

où K(A) est la constante de Kreiss de A par rapport au demi-plan à gauche.

La démonstration de ce théorème est semblable au cas des puissances et se repose aussi sur le même lemme de Spijker [28]. Pour plus de détails, voir par exemple [32, Chapitre 18].

(29)

Chapitre 2

Généralisation du théorème

matriciel de Kreiss

Dans ce chapitre, on rappelle tout d’abord les propriétés de la transformation de Faber qui seront utiles par la suite. On présente ensuite une généralisation de la constante de Kreiss pour les domaines compacts et leurs complémentaires simplement connexe. Enfin, on présente une généralisation du théorème matriciel de Kreiss pour les polynômes de Faber puis les fonctions holomorphes des matrices ayant des spectres dans des domaines plus généraux.

2.1

Transformation de Faber

2.1.1 Polynôme et série de Faber

Soit Ω un ensemble compact du plan complexe C tel que son complémentaire Ωc soit simple-ment connexe dans la sphère de Riemann C∞ := C ∪ {∞}. Selon le théorème de Riemann

[11], il existe une unique transformation conforme φ de Ωcvers Dcnormalisée par φ(∞) = ∞ et φ0(∞) > 0, voir la figure 2.1, w = φ(z) := dz + d0+ ∞ X k=1 dk zk, (d > 0), z ∈ Ω c.

Si ψ : Dc→ Ωcest la transformation inverse de φ, alors elle a un développement de Laurent,

similaire à φ, de la forme suivante

z = ψ(w) := cw + c0+ ∞ X k=1 ck wk, w ∈ D c,

(30)

Figure 2.1: Transformation conforme entre Ωc et Dc

Le nièmepolynôme de Faber Fn(z), pour n = 0, 1, 2, · · · , associé à Ω (ou bien à φ) est la partie polynômiale de la série de Laurent de [φ(z)]n, qui est un polynôme de degré n.

Exemple 2.1.1. Si Ω =

z ∈ C : |z − z0| ≤ R , un disque fermé de centre z0 et de rayon R,

alors φ(z) = 1 R(z − z0), ψ(w) = Rw + z0 et Fn(z) = R −n(z − z 0)n, pour tout z ∈ Ωc, w ∈ Dcet n ≥ 0.

Pour tout r ≥ 1, on note par Tr le cercle centré à l’origine et de rayon r et par Γr la courbe

fermée ψ(Tr). On considère les intégrales, avec ζ = ψ(w),

1 2πi Z Γr [φ(ζ)]n ζ − z dζ = 1 2πi Z Tr wnψ0(w) ψ(w) − zdw, z ∈ int(Γr),

où int(Γr) dénote l’intérieur de Γr. Puisque la série de Laurent de [φ(ζ)]n est uniformément

convergente sur Γr, on peut intégrer la première intégrale précédente terme à terme pour

obtenir la représentation suivante des polynômes de Faber Fn(z) = 1 2πi Z Γr [φ(ζ)]n ζ − z dζ = 1 2πi Z Tr wnψ0(w) ψ(w) − zdw, z ∈ int(Γr), n ≥ 0. (2.1) Soit maintenant z ∈ int(Γr). Alors la fonction w 7→

0(w)

ψ(w)−z est analytique sur {w ∈ C : |w| >

r} et elle prend la valeur 1 en w = ∞, elle possède donc la série de Laurent suivante 0(w) ψ(w) − z = 1 + F1(z) w + F2(z) w2 + · · · , |w| > r, z ∈ int(Γr). (2.2)

En combinant (2.2) avec la formule intégrale de Cauchy, on peut représenter les fonctions holomorphes sur un domaine quelconque par des séries semblables aux séries de Fourier pour les fonctions holomorphes sur la disque unité. On note par A(Ω) l’ensemble des fonctions

(31)

holomorphes sur int(Ω) et continues sur Ω. La série de Faber associée à une fonction f de A(Ω) est la série formelle suivante

f (z) ∼ ∞ X n=0 anFn(z), z ∈ Ω,an:= 1 2πi Z T f ψ(w) wn+1 dw, n ≥ 0,

sont les coefficients de Faber associés à f .

Supposons que Γ := ∂Ω est une courbe simple, fermée et rectifiable et définissons F sur R par F (θ) := f (ψ(eiθ)). La série de Fourier de F est donnée par

F (θ) ∼ ∞ X n=−∞ ˆ F (n)eiθ, où ˆ F (n) := 1 Z 0 F (θ)e−inθdθ = 1 2πi Z T f (ψ(w))w−n−1dw, n ∈ Z.

Par conséquent an= ˆF (n), pour n ≥ 0, et ceci est un premier lien entre la série de Faber et la série de Fourier.

En 1955, Alper [3] a montré que si la frontière Γ de Ω est une courbe de Jordan rectifiable et lisse qui satisfait la condition de régularité Rc

0 w(h)

h | log h|dh < ∞ pour un c > 0, alors la série

de Faber converge uniformément sur Ω et elle se comporte comme une série de Fourier. Ici, la fonction w : [0, ∞] → [0, ∞] est le module de continuité de la fonction ϑ(s) qui désigne l’angle entre l’axe réel positif et la tangente à la courbe Γ au paramètre s. On rappelle qu’une fonction g : I → R admet w pour un module de continuité si et seulement si |g(t) − g(s)| ≤ w(|t − s|) pour tout t et s dans le domaine I de g. En 1967, Kövari et Pommerenke [35] ont montré que la situation est assez similaire si on suppose seulement que Γ est une courbe de Jordan de variation bornée. On rappelle qu’une courbe de Jordan Γ est dite de variation bornée si sa variation totale V :=R

Γ|dϑ(s)| est bornée.

Pour une série de Fourier G :=P∞k=−∞gkeikθ, on définit sa série conjuguée par

˜ G := ∞ X k=−∞ ˜ gkeikθ,g˜k:= ( −igk si k ≥ 0 igk si k < 0 Théorème 2.1.2. (Kövari et Pommerenke [35])

Soit Ω un domaine de Jordan, soit Γ sa frontière de variation bornée et soit f ∈ A(Ω). Si la série de Fourier de f (ψ(eiθ)) et sa série conjuguée convergent uniformément, alors la série de Faber converge uniformément vers f sur Ω.

(32)

Corollaire 2.1.3. [31, Lemme 4.1] Pour tout z ∈ Ωc, on a (z − ξ)−1 = ∞ X n=0 φ0(z) φ(z)n+1Fn(ξ), (ξ ∈ Ω).

Démonstration. La série de Faber associée à la fonction ξ 7→ (z − ξ)−1 sur Ω est donnée par

P∞ n=0anFn(ξ) avec an(z) = 1 2πi Z T z − ψ(w)−1 wn+1 dw = 1 2πi Z Γ (z − ζ)−1 φ 0(ζ) φn+1(ζ) = φ 0(z) φn+1(z).

La convergence uniforme de cette série est garantie par le théorème précédent. 

2.1.2 Opérateur de Faber

On note par Pn(Ω) l’ensemble des polynômes de degrés inférieur ou égale n muni de la norme

k kL(Ω). L’opérateur de Faber F est définie par la transformation linéaire qui envoie le

polynôme

p(w) := a0w0+ a1w1+ · · · + anwn, aj ∈ C

au polynôme

F (p)(z) := a0F0(z) + a1F1(z) + · · · + anFn(z).

En particulier l’image du polynôme p(w) := wn par l’opérateur de Faber F est le nième poly-nôme de Faber Fn(z).

L’opérateur F est une bijection de Pn(D) vers F Pn(D). En effet, si F (p) = 0, alors on

considère le coefficient du terme de plus haut degré. Puis, étant donné que le degré de Fn est exactement n, on trouve successivement que an = 0, an−1 = 0, · · · , a0 = 0. Si Γ est

rectifiable, alors F et son inverse F−1 possèdent des représentations intégrales. En utilisant la représentation (2.1) pour Fn, on trouve

F (p)(z) = 1 2πi Z Γ p(φ(ζ)) ζ − z dζ = 1 2πi Z T p(w)ψ0(w) ψ(w) − z dw, z ∈ int(Ω), (2.3) pour tout polynôme p.

D’autre part, en utilisant la formule intégrale de Cauchy et la formule suivante Fn(ψ(w)) = wn+ O(

1

(33)

on trouve F−1(p)(w) = 1 2πi Z T p(ψ(s)) s − w ds, |w| < 1. (2.4) PuisqueS

nPn(D) etSnPn(Ω) sont denses dans A(D) et A(Ω) respectivement, on peut définir

l’opérateur de Faber F entre les espaces de Banach A(D) et A(Ω) en prenant les limites dans la formule (2.3). Le théorème suivant prouve que cet opérateur est borné. Pour la démonstration et pour plus de détails, le lecteur est invité à consulter par exemple [1,2,11].

Théorème 2.1.4. [11, p. 48] Si Γ est une courbe de Jordan rectifiable et de variation bornée V , alors l’opérateur de Faber F : A(D) → A(Ω) est borné et on a

kF (f )k ≤ (1 +2V

π )kf k, (f ∈ A(D)).

Le théorème des résidus et la formule (2.3) montrent que, pour tout ξ ∈ Dcet z ∈ int(Ω), on a F 1 w − ξ  (z) = ψ 0(ξ) z − ψ(ξ).

Ceci implique que si q ∈ A(D) est une fonction rationnelle et a un pôle d’ordre N en ξ0, avec

0| > 1, alors F (q) est aussi rationnelle et a un pôle de même ordre au point ψ(ξ0). Pour les

fonctions f ∈ A(D) en général, on a aussi le théorème suivant.

Théorème 2.1.5. [11, p. 50] Soit f ∈ A(D), disons f (w) :=P∞n=0anwn pour |w| < 1. Alors

les coefficients de Faber de F (f ) sont les an. Autrement dit,

F (f )(z) =

∞ X

n=0

anFn(z), (z ∈ Ω).

Démonstration. Définissons fr(w) := f (rw) pour r ∈ (0, 1) et w ∈ D. Alors fr → f et par

conséquent F (fr) → F (f ) lorsque r → 1. Cela implique que

|an(f ) − an(fr)| ≤ kF (f ) − F (fr)k → 0 (r → 1),

où an(f ) et an(fr) sont les coefficients de Faber de f et fr respectivement. Comme fr(w) = P∞

n=0anrnwnconverge uniformément sur D, alors an(fr) = anrnpour tout n ≥ 0. Le résultat

suit donc en faisant tendre r vers 1. 

Le théorème précédent implique que l’opérateur F est injectif et il est donc bijectif entre A(D) et le sous espace fermé F (A(D)) := {g : g = F(f ), f ∈ A(D)}. En prenant la limite dans la formule (2.4), on trouve F−1(g)(ξ) = 1 2πi Z T g(ψ(w)) w − ξ dw, |ξ| < 1, (g ∈ F (A(D))). (2.5)

(34)

L’opérateur F−1 est borné si et seulement si F est surjectif et dans ce cas F est un isomor-phisme entre les algèbres A(D) et A(Ω). Le théorème suivant montre que c’est le cas si la courbe Γ est rectifiable et est de variation bornée.

Théorème 2.1.6. (Anderson et Clunie [2])

Soit Ω un domaine compact de Jordan de frontière Γ rectifiable et de variation bornée. Si Γ n’a aucun point de rebroussement, alors l’opérateur F−1 : A(Ω) → A(D) est bien défini par (2.5) et il est borné.

On rappelle qu’un point rebroussement est un type particulier de point singulier sur une courbe admettant une seule demi-tangente en ce point. Anderson et Clunie [2] ont prouvé aussi que le théorème précédent n’est pas vrai si la courbe Γ a des points de rebroussement.

2.2

La constante de Kreiss

Pour qu’une matrice vérifie la condition de Kreiss, il faut que son spectre soit inclus dans le disque unité. Cependant, si ce n’est pas le cas, il y a une généralisation pour les domaines Ω. Soit A une matrice de CN ×N telle que son spectre σ(A) est inclus dans Ω. On définit la constante de Kreiss pour A par rapport à Ω par la formule suivante :

K(Ω) := inf C : zI − A −1 ≤ C |φ0(z)| |φ(z)| − 1, ∀z /∈ Ω .

Une définition équivalente de la constante de Kreiss est donnée par la formule suivante :

e K(Ω) := inf C : zI − A −1 ≤ C dist(z, Ω), ∀z /∈ Ω .

Proposition 2.2.1. (Toh et Trefethen [31]) On a 1

2 ≤

e

K(Ω) K(Ω) ≤ 2.

De plus, si Ω est un intervalle, alors le facteur 12 est atteint à gauche et si Ω est un arc d’un cercle, alors le facteur 2 est atteint à droite.

La démonstration de cette proposition est une conséquence du lemme suivant.

Lemme 2.2.2. (Kühnau [31]) Supposons que ψ est une transformation conforme de l’exté-rieur du disque unité D à l’extél’exté-rieur d’un ensemble compact Ω de complémentaire simplement connexe telle que ψ(∞) = ∞. Alors pour tout |w0| > 1, on a

1 2(|w0| − 1) ≤ dist(z0, Γ) 0(w 0)| ≤ 2(|w0| − 1),

où z0 = ψ(w0) et Γ = ∂Ω. Si Ω est un intervalle, alors la constante 1/2 atteinte à gauche lorsque |w0| → 1 et si Ω est un arc de cercle, alors la constante 2 atteinte à droite lorsque |w0| → 1.

(35)

Démonstration de la proposition 2.2.1 D’une part, pour tout z = ψ(w) ∈ Ωc, on a 0(z)| |φ(z)| − 1 = 1 |w| − 1 0(w)|.

D’autre part, le lemme2.2.2entraîne que 1

2 ≤

dist(z, Γ)

(|w| − 1)|ψ0(w)| ≤ 2.

Le résultat découle donc des définitions de K(Ω) et K(Ω).e 

On note que la constante K(Ω) est bien définie même si Ωe c n’est pas simplement connexe.

Elle est définie géométriquement et peut être calculée indépendamment de la transformation conforme φ. Ceci est un grand avantage puisqu’on ne peut pas déterminer facilement φ sauf pour des domaines particuliers comme les ellipses ou les polygônes.

La proposition suivante montre la relation entre la constante de Kreiss et le pseudospectre. Sa démonstration est une conséquence directe des définitions de K(Ω) et σe (A).

Proposition 2.2.3. [31, Proposition 2.1] Les assertions suivantes sont équivalentes.

(i) zI − A −1

C

dist(z,Ω), ∀z, dist(z, Ω) > 0.

(ii) dist(z, Ω) ≤ C , ∀z ∈ σ(A), ∀ > 0. (iii) σ(A) ⊂ Ω + C D, ∀ > 0.

Une conséquence importante de la proposition précédente est que la constanteK(Ω) peut êtree

définie en utilisant le pseudospectre par la formule suivante

e

K(Ω) = sup

>0

maxz∈σ(A)dist(z, Ω)

 .

Autrement dit, elle mesure à quel point l’ensemble σ(A) peut s’éloigner du domaine Ω pour

tout  > 0.

En utilisant la définition de K(Ω), on peut montrer facilement d’autres propriétées intéres-e

santes de la constante de Kreiss comme la monotonie et les cas particuliers lorsque la matrice A est normale et Ω = σ(A) ou bien Ω est l’image numérique de la matrice.

Proposition 2.2.4. [31, Proposition 2.2] Supposons que Ω1 et Ω2 deux sous-ensembles

com-pacts de C tels que σ(A) ⊂ Ω1 ⊂ Ω2. Alors e

(36)

Démonstration. Ce resultat est une conséquence directe des définitions deK(Ωe 1) et K(Ωe 2). e K(Ω2) = sup z /∈Ω2 dist(z, Ω2) zI − A −1 ≤ sup z /∈Ω2 dist(z, Ω1) zI − A −1 ≤ sup z /∈Ω1 dist(z, Ω1) zI − A −1 = K(Ωe 1). 

Proposition 2.2.5. [31, Proposition 2.3] Si A := V DV−1 est une matrice diagonalisable, alors

e

K(σ(A)) ≤ k(V ), où k(V ) est le nombre de condition de V .

Démonstration. Puisque (zI − A)−1 = V (zI − D)−1V−1, on a

zI − A −1 ≤ k(V ) dist(z, σ(A)).

Ceci implique que σ(A) ⊂ σ(A) + k(V )D pour tout  > 0. Le résultat suit donc de la

proposition2.2.3. 

Proposition 2.2.6. [31, Proposition 2.4] Soit A une matrice normale telle que σ(A) ⊂ Ω. Alors

e

K(Ω) = 1.

Démonstration. On a toujours K(Ω) ≥ 1. Donc il reste à prouver quee K(Ω) ≤ 1. Rappelonse

qu’une matrice A est normale si et seulement s’il existe une matrice unitaire U telle que U−1AU est diagonale. Il suit donc des propositions 2.2.4et2.2.5ce qui suit

e

K(Ω) ≤K(σ(A)) ≤ k(U ) = 1.e 

Proposition 2.2.7. [31, Proposition 2.5] Si W (A) est l’image numérique de la matrice A, alors

e

K(W (A)) = 1.

Démonstration. On a vu dans le théorème 1.2.2 que l’ensemble W (A) est l’intersection de tous les demi-plans H qui satisfassent

σ(A) ⊆ H + D, ∀ > 0.

(37)

2.3

Théorème matriciel de Kreiss pour un domaine

quelconque

On a vu dans le chapitre précédent comment le théorème matriciel de Kreiss donne des bornes basées sur la norme de la résolvante zI − A

−1

pour kAnk si σ(A) est inclu dans le disque

unité, ou bien pour ketAk si σ(A) est dans le demi-plan à gauche. On généralise dans cette section ces résultats pour des fonctions holomorphes quelconques dans des domaines Ω plus généraux.

2.3.1 Polynôme de Faber

Une application de l’inégalité de Bernstein [11] nous donne une généralisation du théorème matriciel de Kreiss pour le domaine Ω.

Théorème 2.3.1. (Toh et Trefethen [31]) Soit Ω un domaine compact de C avec un

complé-mentaire simplement connexe. Soit A une matrice telle que σ(A) ⊂ Ω et K(Ω) < ∞. Alors, pour tout pôlynome pn de degré n, on a

kpn(A)k ≤ e (n + 1) K(Ω) kpnkΩ,

où kpnkΩ := supz∈Ω|pn(z)|.

Démonstration. Puisque σ(A) ⊂ Ω, alors la matrice pn(A) peut être représentée en fonction

de la résolvante par la formule intégrale de Cauchy [8],

pn(A) = 1 2πi Z Γr (zI − A)−1pn(z) dz (r > 1). Par conséquent, kpn(A)k ≤ 1 Z Γr (zI − A)−1 |pn(z)| |dz| ≤ 1 2πkpnkΩr Z Γr (zI − A)−1 |dz|, avec Ωr:= φ−1(Dr). Puisque (zI − A)−1 ≤ K(Ω)|φ0(z)| r−1 sur Γr et kpnkΩr ≤ r nkp nkΩ (C’est le

lemme de Bernstein [11]), on déduit que

kpn(A)k ≤ 1 2πK(Ω)kpnkΩ rn r − 1 Z Γr 0(z)| |dz| ≤ K(Ω) r n r − 1kpnkΩ. Pour r := 1 +n+11 , on conclut que

(38)

La borne donnée par ce théorème dépend linéairement de n, et donc elle peut être assez élevée et on ne peut pas utiliser l’approximation pour le généraliser à des fonctions holomorphes quelconques. Le théorème suivant montre que cette borne est indépendant de n pour les polynômes de Faber.

Théorème 2.3.2. (Toh et Trefethen [31]) Soit Ω un domaine compact de C avec un

com-plémentaire simplement connexe. Soit A une matrice N × N sur C telle que σ(A) ⊂ Ω et K(Ω) < ∞. Si le frontière de Ω est de classe C2, alors, pour tout n ≥ 0, on a

kFn(A)k ≤ Ce N K(Ω),

où la constante C ne dépend que de Ω.

Remarquons que si Ω est le disque unité, alors on obtient le théorème (1.2.5) car Fn(A) = An.

La preuve de ce théorème se base sur les trois lemmes suivants. Pour plus de détails, voir [31].

Lemme 2.3.3. Soit f une fonction analytique sur Ωc. Pour tout r > 1, on a Z Tr ψ02f0(ψ) |dw| ≤ Z Tr |h0| ψ0f (ψ) |dw| + Z Tr ψ00f (ψ) |dw|, où h(w) := arg wψ02(w)f0(ψ(w)) .

Lemme 2.3.4. Soit R une fonction rationnelle d’ordre (N − 1, N ) qui n’a pas de pôles dans

c. Alors

Z

Tr

|h0(w)||dw| ≤ (4N + 1)V, ∀r > 1, où h(w) := arg wψ02(w)R0(ψ(w))

et V est la variation totale de Γ.

Lemme 2.3.5. Pour tout r > 1, on a Z Tr ψ00(w) ψ0(w) |dw| ≤ 2V π 1 + sinh −1(r + 1 r − 1)  .

Démonstration du théorème 2.3.2. Le nième polynôme de Faber de la matrice A est donné par la formule suivante

Fn(A) = 1 2πi Z Tr wn ψ(w)I − A−1ψ0(w)dw (r ≥ 1). Ceci implique que, pour tout u, v ∈ CN tel que kuk = kvk = 1,

vFn(A) u = 1 2πi Z Tr wnR ψ(w) ψ0(w)dw (r ≥ 1),

où R(z) := vzI − A−1u est une fonction rationnelle d’ordre (N − 1, N ) et elle a des pôles seulement à l’intérieur de Ω. On obtient donc par intégration par partie

2πi vFn(A)  u = −1 n + 1 Z Tr wn+1 d dw h R ψ(w) ψ0(w)idw,

(39)

et ceci impique que 2π vFn(A)  urn+1 n + 1  Z Tr ψ02R0(ψ) |dw| + Z Tr ψ00R(ψ) |dw|  . En appliquant le lemme 2.3.3, on obtient

2π vFn(A) u  ≤ rn+1 n + 1  Z Tr |h0| ψ0R(ψ) |dw| + 2 Z Tr ψ00R(ψ) |dw|  ≤ r n+1 n + 1 R(ψ)ψ 0 Tr  Z Tr |h0||dw| + 2 Z Tr 00| 0||dw|  , où h(w) := arg wψ02(w)R0(ψ(w))

. D’autre part, pour tout w ∈ Tr, on a R(ψ(w))ψ 0(w) ≤ K(Ω)

r−1 . Il suit donc que

2π vFn(A) u  ≤ K(Ω)rn+1 (n + 1)(r − 1)  Z Tr |h0||dw| + 2 Z Tr 00| 0||dw|  .

On prend ainsi r = 1 + 1n et on applique les lemmes 2.3.4et 2.3.5qui donnent les inégalités suivantes vFn(A) u ≤ K(Ω)e V 2π(4N + 1) + 1 π Z |w|=1+1 n 00| 0||dw|  ≤ K(Ω)eV  4N + 1 + αn,αn:= 2 π Z |w|=1+1 n 00| 0||dw| ≤ 4 π  1 + sinh−1(2n + 1) .

Puisque Γ est de classe C2, alors α := supn≥1αn est fini et on déduit donc que

kFn(A)k ≤ Ce N K(Ω), avec CΩ := V h 4 +1 + α N i . 

Le théorème suivant donne une généralisation du théorème matriciel de Kreiss pour les opé-rateurs linéaires bornés sur un espace de Hilbert de dimension finie ou infinie.

Théorème 2.3.6. (Toh et Trefethen [31]) Soit Ω un domaine compact de C avec un

complé-mentaire simplement connexe. Supposons que A est un opérateur linéaire borné sur un espace de Hilbert tel que σ(A) ⊂ Ω et K(Ω) < ∞. Alors, pour tout n ≥ 0, on a

kFn(A)k ≤ e (n + 1) K(Ω), (2.6)

Inversement, si supn≥0kFn(A)k < ∞, alors σ(A) ⊂ Ω, la constante K(Ω) est finie et on a

K(Ω) ≤ sup

n≥0

(40)

Démonstration. En appliquant la preuve du théorème2.3.1à la formule Fn(A) = 1 2πi Z Tr wnψ0(w) ψ(w)I − A−1 dw (r > 1), on obtient l’inégalité (2.6).

Supposons maintenant que supn≥0kFn(A)k < ∞. On prouve que σ(A) ⊂ Ω par contraduction.

Supposons qu’il existe λ ∈ σ(A) ∩ Ωc. Nous avons d’une part, sup n≥0 |Fn(λ)| ≤ sup n≥0 kFn(A)k < ∞. D’autre part, on a lim n→∞|Fn(λ)| 1 n = |φ(λ)|,

voir [25]. Ceci implque que supn≥0kFn(A)k = ∞ puisque |φ(λ)| > 1. D’où la contraduction et par conséquent σ(A) ⊂ Ω.

En utilisant le corollaire2.1.3, on peut écrire

(zI − A)−1= ∞ X n=0 φ0(z) φ(z)n+1Fn(A), (z ∈ Ω c). Par la suite, (zI − A) −1 ≤ sup n≥0 kFn(A)k ∞ X n=0 0(z)| |φ(z)|n+1 = sup n≥0 kFn(A)k 0(z)| |φ(z)| − 1.

On conclut donc que K(Ω) ≤ supn≥0kFn(A)k. 

2.3.2 Généralisation aux fonctions holomorphes

On présente dans cette section une généralisation du théorème matriciel de Kreiss pour les fonctions holomorphes. On rappelle qu’une matrice ou un opérateur linéaire borné A satisfait la condition de Kreiss pour le disque unité D s’il existe une constante C > 0 tel que

I − λA −1 ≤ C 1 − |λ| pour tout λ ∈ D.

Théorème 2.3.7. (Vitse [34]) Soit A une matrice de CN ×N qui satisfait la condition de Kreiss avec une constante C > 0, et soit f ∈ A(D). Alors

kf (A)k ≤ 16

(41)

Ce théorème peut être démontrer de deux façons, voir [34]. La première est difficile à générali-ser pour des domaines plus généraux. La deuxième est basée sur une formule de représentation intégrale qui peut être appliquée aux opérateurs plus généraux ayant le spectre dans un do-maine plus général Ω et satisfaisant la condition généralisée de Kreiss. Cette démonstration est une conséquence des trois lemmes suivants.

Lemme 2.3.8. Soit T un opérateur borné sur un espace de Banach tel que σ(T ) ⊂ D. Pour

tout f ∈ A(D), on a f (T ) = 1 π Z Z D  1 − |z|2 I − zT−1 z2f00dxdy.

Démonstration. En utilisant les séries f (z) = P∞k=0akzk et I −zT −1 = P∞k=0znTk, on obtient 1 π Z Z D  1 − |z|2 I − zT−1 z2f00dxdy = 1 π Z 1 0 Z 0 (1 − r2)  ∞ X n=0 rne−inθTn  ∞ X k=0 ak(k + 2)(k + 1)rkeikθ  rdrdθ = 2 Z 1 0  ∞ X k=0 ak(k + 2)(k + 1)Tk(1 − r2)r2k+1  dr = 2 ∞ X k=0 ak(k + 2)(k + 1)Tk Z 1 0 (1 − r2)r2k+1dr = ∞ X k=0 akTk= f (T ). 

On note par H∞ l’espace des fonctions analytiques bornées sur D et par B11A l’espace analy-tique de Besov défini par

B11A :=  f ∈ A(D) : kf kB1 1A:= 1 π Z Z D z 2f00 dxdy < ∞  . Pour plus d’information sur les espaces de Banach H∞ et B11A, voir [39].

Le lemme suivant est une conséquence du célèbre théorème de G. Pick [12, section IV.1]. Le degré d’une fonction rationnelle r = pq est défini par deg(r) = max deg(p), deg(q)

.

Lemme 2.3.9. Soit f ∈ Het B un produit fini de Blashke. Il existe une unique fonction rationnelle r0 telle que r0− f ∈ BH, deg(r

0) < deg(B) et kr0k∞ := inf n

kf + Bhk: h ∈

H∞o= distf, BH∞≤ kf k. En fait r0 = λB1, où |λ| = dist 

f, BH∞et B1 est un produit de Blashke avec deg(B1) < deg(B).

(42)

Lemme 2.3.10. Soit r une fonction rationnelle telle que deg(r) ≤ n. Alors

krkB1 1A≤

8

π(n + 1)krk. Pour une démonstration du lemme précédent, voir [34].

Démonstration du théorème2.3.7. En utilisant le lemme 2.3.8, on obtient

f (A) = 1 π Z Z D  1 − |z|2 I − zA−1 z2f00dxdy ≤ sup z∈D   1 − |z|2 I − zA −1 1 π Z Z D z 2f00 dxdy = 2Ckf kB1 1A.

On note par B le produit fini de Blashke défini par B(z) := Y λ∈σ(A) |λ| λ λ − z 1 − λz d(λ) ,

où d(λ) dénote la multiplicité de λ. D’après le lemme2.3.9, il existe une fonction rationnelle r0 telle que r0 − f ∈ BH, kr0k∞ = dist



f, BH∞ et deg(r0) < deg(B) = N . Il suit que r0(A) = f (A). Il en résulte donc du lemme 2.3.10ce qui suit,

f (A) = r0(A) ≤ 2C r0 B1 1A ≤ 16 πCN r0 = 16 π CN f H∞/BH∞ ≤ 16 πCN kf k. 

Le théorème 2.3.7 généralise le théorème matriciel de Kreiss aux fonctions holomorphes sur le disque unité. Il est intéressant de l’étendre à un domaine compact de complémentaire sim-plement connexe Ω. Il paraît possible de le faire en généralisant la démonstration précédente, mais l’absence des informations précises du domaine Ω comparativement au disque unité rend la tâche plus difficile. Pour appliquer les mêmes techniques, on a besoin de regarder de nou-veau les trois lemmes précédents en remplaçant le disque unité par le domaine Ω et de savoir comment on peut sortir avec des résultats équivalents.

La démonstration du théorème 2.3.2 permet de réduire un peu la difficulté de ce problème puisqu’elle généralise le théorème matriciel de Kreiss aux polynômes de Faber en utilisant les propriétés de Ω. Le problème qui se pose à ce niveau est de savoir plus d’informations sur la frontière ∂Ω. Soit p un polynôme de degré n. Soit A ∈ CN ×N telle que σ(A) ⊂ Ω et K(Ω) < ∞. Il est intéressant de trouver une borne supérieure de

p(A)

indépendante de n.

La matrice p(A) peut être représentée par la formule suivante p(A) = n X k=0 ak 1 2πi Z Γr φ(z)k(zI − A)−1dz, (2.8)

Figure

Figure 1.1: L’interface graphique EigTool
Figure 1.2: Pseudospectre de A Figure 1.3: Norme des puissances de A La figure 1.2 illustre les frontières de σ  (A) pour  = 10 −2 , 10 −3 ,
Figure 1.4: Pseudospectre de B
Figure 2.1: Transformation conforme entre Ω c et D c

Références

Documents relatifs

[r]

Définir la dimension de la matrice A, ici, 2x2.Valider par entrer Saisir les éléments de la matrice et utiliser les flèches ou la touche entrer pour valider. Procéder de même

[r]

[r]

[r]

[r]

[r]

On admet que cette perte d’énergie reste suffisamment faible sur une période pour pouvoir utiliser les différentes relations étables dans la partie en