• Aucun résultat trouvé

La conjecture de Kadison-Singer

N/A
N/A
Protected

Academic year: 2021

Partager "La conjecture de Kadison-Singer"

Copied!
66
0
0

Texte intégral

(1)

La conjecture de Kadison-Singer

Mémoire Sarah Desmeules Maîtrise en mathématiques Maître ès sciences (M.Sc.) Québec, Canada © Sarah Desmeules, 2015

(2)
(3)

Résumé

La conjecture de Kadison-Singer traitant de l'existence et de l'unicité d'extension d'état pur de la C*-algèbre des opérateurs diagonaux dans B(H) sur B(H) fut émise en 1959 par Kadison et Singer. Il faut attendre jusqu'en 2013 pour que l'une de ses équivalences soit nalement résolue. La première partie de ce mémoire étudie le lien entre la conjecture et le résultat prouvé via deux autres équivalences. La seconde partie traite en profondeur de la preuve du résultat en passant par plusieurs concepts, tels que les familles entrelacées, la notion de stabilité et le polynôme caractéristique mixte. Enn, la dernière partie porte sur une équivalence particulière, soit la conjecture de Feichtinger.

(4)
(5)

Table des matières

Résumé iii

Table des matières v

Remerciements vii Notation ix 1 Introduction 1 2 La conjecture de Kadison-Singer 3 2.1 Conjecture de Weaver . . . 3 2.2 Problème de pavage . . . 4

2.3 Conjecture d'Akemann et Anderson . . . 5

2.4 Équivalence entre Kadison-Singer et Weaver . . . 6

3 Démonstration de la conjecture 11 3.1 Théorème principal . . . 11

3.2 Algèbre linéaire . . . 14

3.3 Familles entrelacées. . . 21

3.4 Polynôme stable . . . 24

3.5 Polynôme caractéristique mixte . . . 30

3.6 Fonction barrière et borne supérieure . . . 34

4 La conjecture de Feichtinger 45 4.1 Préliminaire . . . 45 4.2 Feichtinger et BT faible . . . 46 4.3 BT faible et Kadison-Singer . . . 49 Conclusion 53 Bibliographie 55

(6)
(7)

Remerciements

Tout d'abord, j'aimerais remercie mon superviseur le professeur Thomas Ransford, pour toute l'aide, la disponibilité et le soutien qu'il m'a oert, autant au niveau nancier qu'au niveau académique. Ses conseils et son expérience m'ont beaucoup appris et aidé au cours de mon cheminement.

Je voudrais également remercier les professeurs du département qui m'ont permis de com-pléter ma formation au niveau du baccalauréat lors de mon arrivée à l'Université Laval ainsi qu'au niveau de la maîtrise. Merci en particulier au professeur Robert Guénette qui m'a guidé lors de mon arrivée à l'Université Laval.

Merci à Emmanuelle Reny-Nolin pour m'avoir permis de travailler au CDA ainsi qu'à Saïd El Morchid pour me permettre d'être auxiliaire d'enseignement tout en me guidant. Ces expé-riences ont été pour moi à la fois grandement enrichissantes et très amusantes.

Ce mémoire n'aurait pas été possible sans le soutien permanent de ma famille. Merci à ma mère, Carole, à ma marraine, Lucie et à ma grand-mère, Marie, qui m'appellent chaque jour, s'assurant à chaque fois que je ne manque de rien tout en me soutiennent dans mes études. Merci à mon parrain, Michel, ainsi qu'à Renaud, pour leur disponibilité et leur présence. Un merci particulier à Christian, qui non seulement me remonte le moral et m'aide à traverser les épreuves, mais qui m'aide également dans la rédaction de ce mémoire en m'inspirant et en corrigeant mes erreurs.

Enn, merci à tous mes amis qui m'ont encouragé et avec qui, j'ai eu tant de beaux mo-ments.

(8)
(9)

Notation

Tout au long du document, l'ensemble des nombres réels est noté R, tandis que celui des nombres complexes est noté C. L'espace Rn correspond à l'espace R × · · · × R de dimension

n. Aussi, C[z1, . . . , zm]est l'ensemble des polynômes à m variables ayant des coecients

com-plexes. Soit p(z1, . . . , zm) un polynôme à plusieurs variables. L'opérateur de dérivée partielle

par rapport à la variable zi est noté ∂zi.

On écrit H pour désigner un espace de Hilbert et on note B(H) l'ensemble des opérateurs linéaires bornés sur H. La base canonique orthonormée est notée {e1, . . . , en}. On écrit I pour

l'opérateur identité. Lorsque la taille est ambiguë, on note Ikpour la matrice identité de taille

k.

Soit m ∈ N. On note [m] := {1, 2, ..., m} l'ensemble des entiers plus petits ou égaux à m. On écrit [m]

k



pour l'ensemble des sous-ensembles de [m] ayant k éléments.

Soit z0 un point quelconque dans Cd et p > 0. La boule de centre z0 et de rayon p s'écrit

comme B(z0, p). La boule pointée est noté ˚B(z0, p)alors que la fermeture de la boule est noté

B(z0, p). Enn, la frontière de la boule s'écrit ∂B(z0, p).

Soient z1, . . . , zm et S ⊂ [m]. Pour simplier la notation, on écrit zS:=Qi∈Szi.

Pour un vecteur x arbitraire, la norme kxk correspond à la norme euclidienne traditionnelle. Pour une matrice A, sa norme matricielle sera kAk := maxkxk=1kAxk. Par convention, AT est

sa transposée et A−1 est son inverse.

Soit u ∈ Cd un vecteur colonne. On a u= uT, soit le conjugué du vecteur transposé u.

Si u1, . . . , udsont des vecteurs colonnes, on note

X i uiu∗i = X i     ui1ui1 . . . ui1uid ... ... ... uidui1 . . . uiduid     .

(10)

Finalement, P dénote la probabilité d'un certain événement et E l'espérance d'une certaine variable aléatoire.

(11)

Chapitre 1

Introduction

Soit H un espace de Hilbert et B(H) l'ensemble des opérateurs linéaires bornés sur H. Une C*-algèbre est une sous-algèbre A de B(H) fermée pour la norme topologique telle que

si A, B ∈ A alors AB, A∗ ∈ A.

Ici, l'opérateur ∗ : B(H) → B(H) est l'opérateur adjoint déni par hAv, wi = hv, A∗wi,

pour tout v, w ∈ H [21].

Un état d'une C*-algèbre est une fonctionnelle linéaire f telle qu'on a f(I) = 1 et f(T ) ≥ 0 pour tout opérateur T positif. L'ensemble des états d'une C*-algèbre est convexe et il est généré par ses points extrêmaux. On appelle ces points extrêmaux des états purs [10]. En 1959, Kadison et Singer ont publié un document traitant des états purs sur des C*-algèbres dans lequel ils posent la conjecture suivante [11].

Conjecture 1.0.1 (Kadison-Singer). Tous les états purs de la C*-sous-algèbre des opérateurs diagonaux dans B(H) ont une extension d'état unique sur B(H).

Le problème apporté par Kadison et Singer fut, pendant plusieurs années, une question ouverte en théorie des opérateurs. L'intérêt de ce problème venait de ces nombreuses équivalences. En eet, la conjecture de Kadison-Singer est connue pour être équivalente à la conjecture de Weaver [20], la conjecture d'Akemann et Anderson [1], le problème de pavage [11], la R

-conjecture [7], la conjecture de Bourgain-Tzafriri [7], la conjecture de Feichtinger [6], et bien d'autres. Mais alors que tous croyaient que la conjecture était fausse, celle-ci se révéla vraie après près de 55 ans. On doit cette solution aux chercheurs Adam Marcus, Daniel A. Spielman et Nikhil Srivastava [14].

(12)

Le présent mémoire a pour but d'étudier cette conjecture. On présente d'abord au chapitre 2 le lien entre l'énoncé de la conjecture et la conjecture équivalente qui a été prouvée, soit la conjecture de Weaver. Ce lien passe par deux autres résultats équivalents, soit le problème de pavage et la conjecture d'Akemann et Anderson. Le survol rapide de ces deux résultats sera suivi d'une démonstration plus rigoureuse montrant l'équivalence de la conjecture de Weaver. Le chapitre 3 est consacré à l'étude de la démonstration de la conjecture de Weaver que l'on doit à Marcus, Spielman et Srivastava. D'abord, on explique le lien entre la conjecture de Weaver et le théorème prouvé dans leur article. Après un bref rappel sur des résultats classiques de l'algèbre linéaire, on débute avec le concept de familles entrelacées. Ces familles ont des propriétés particulières, dont la propriété qu'elles contiennent au moins un polynôme dont la plus grande racine est au plus la plus grande racine de la somme des polynômes de la famille. En utilisant la notion de stabilité et ce qu'on appellera le polynôme caractéristique mixte, on réussit à montrer que les polynômes caractéristiques des matrices qui apparaissent dans notre résultat forment une famille entrelacée. Enn, en bornant les racines du polynôme caractéristique grâce à une fonction particulière que l'on appellera barrière, il sera enn pos-sible de montrer le résultat voulu.

Enn, le chapitre 4 porte sur la conjecture de Feichtinger qui, malgré les apparences, est liée à la conjecture de Kadison-Singer. Après une courte introduction expliquant les notions nécessaires, on débute la preuve en démontrant la relation d'équivalence entre la conjecture de Feichtinger et celle de Bourgain-Tzafriri. On regarde ensuite le lien de cette dernière avec celle de Kadison-Singer.

(13)

Chapitre 2

La conjecture de Kadison-Singer

2.1 Conjecture de Weaver

La démonstration de Marcus, Spielman et Srivastava prouve la véracité de la conjecture de Kadison-Singer via une équivalence : la conjecture de Weaver [20]. L'énoncé de cette conjecture est le suivant :

Conjecture 2.1.1 (Weaver (ou KSr)). Pour tout nombre naturel r ≥ 2, il existe des constantes η ≥ 2 et θ > 0 telles que l'énoncé suivant est vrai. Soient w1, . . . , wm ∈ Cd avec kwik ≤ 1 ∀i

respectant l'hypothèse

m

X

i=1

|hu, wii|2 = η,

et ce pour chaque vecteur unitaire u ∈ Cd. Alors il existe une partition S

1, S2, . . . , Sr de

{1, . . . , m} telle que

X

i∈Sj

|hu, wii|2≤ η − θ

pour chaque vecteur unitaire u ∈ Cd et pour j ∈ {1, 2, . . . , r}.

Dans l'article de Weaver, la conjecture 2.1.1 avait comme hypothèse que Pn

i=1|hu, wii|2 ≤ η.

Cependant, le théorème 2 de [20] nous permet de poser θ = 1 et\ou Pn

i=1|hu, wii|2 = η sans

changer la relation d'équivalence avec la conjecture de Kadison-Singer. Pour nous simplier les choses, on pose directement l'hypothèse Pn

i=1|hu, wii|2 = η.

Le cas où le nombre de sous-ensembles dans la partition est égal à deux est un cas spé-cial qui est équivalent à la conjecture de Weaver KSr. En eet, si pour tout r ≥ 2, il existe des constantes telles que la conjecture2.1.1 est vraie, c'est vrai dans le cas où r = 2. Inversément, si l'énoncé est vrai pour r = 2, alors on peut facilement séparer la partition en plus de deux sous-ensembles et conserver la même conclusion avec les mêmes constantes. On notera KS2 pour le cas où r = 2. Ce sera le cas utilisé tout au long de la démonstration du chapitre 3.

(14)

Ce chapitre est dédié à l'étude de l'équivalence entre les deux conjectures. Deux résultats équivalents à la conjecture sont nécessaires pour la démonstration, soit le problème de pavage [11] et la conjecture de Akemann et Anderson [1]. Ces deux résultats ne seront que briève-ment survolés. On regardera par la suite la démonstration de la relation entre la conjecture de Weaver et celle de Kadison-Singer. La première partie de la démonstration montrera que la conjecture de Weaver dans le cas particulier où r = 2, soit KS2, entraîne celle d'Akemann et Anderson. La seconde partie, quant à elle, prouvera que le problème de pavage entraîne la conjecture de Weaver2.1.1.

2.2 Problème de pavage

Débutons cette section en énonçant le problème de pavage.

Conjecture 2.2.1 (Problème de pavage). Pour tout  > 0, il existe un entier naturel r > 0 tel que pour toute matrice n × n complexe A avec une diagonale nulle, il existe des projections diagonales n × n Q1, . . . , Qr (i.e. un pavage), telles que

r

X

i=1

Qi = 1 et kQjAQjk ≤ kAk ∀j.

La conclusion du problème de pavage correspond à la dénition de compressibilité que l'on retrouve dans l'article de B. Tanbay ( [18], proposition 1.1).

Proposition 2.2.2. Un opérateur T est compressible si et seulement si pour chaque  > 0, il existe une partition nie de N dans S1, . . . , Sn telle que pour tout i ≤ n,

kPSi(T − DT)PSik < ,

où DT correspond à la diagonale de T et PSi correspond à la projection orthogonale sur l'espace

engendré par {en: n ∈ Si}.

Le théorème 2.3 de [18] arme ensuite qu'une certaine C*-algèbre M dénie dans l'article de Tanbay et contenant la C*-algèbre des opérateurs diagonaux est compressible dans B(H). Or, J. Anderson a prouvé l'équivalence entre la compressibilité et l'unicité de l'extension de chaque état pur de la C*-sous-algèbre des opérateurs diagonaux dans B(H) sur B(H) [2]. Le résultat suivant correspond à la première partie du théorème 3.6. Notons ici que A0 et A sont

des C*-algèbres et que A0⊂ A.

Théorème 2.2.3. Si A0 est une sous-algèbre maximale abélienne de A, alors tous les états

purs de A0 ont une unique extension d'état pur dans A si et seulement si A est compressible.

(15)

Étant donné qu'il y a une équivalence unitaire entre une sous-algèbre maximale abélienne discrète de B(H) et la C*-algèbre des opérateurs diagonaux dans B(H) en respectant la base xée [18], il sut de poser A0 et A comme étant respectivement la C*-algèbre des opérateurs

diagonaux dans B(H) et M pour appliquer directement le théorème. Ainsi, le problème de pavage 2.2.1 est équivalent à la conjecture de Kadison-Singer1.0.1.

2.3 Conjecture d'Akemann et Anderson

Tout comme la section précédente, débutons en énonçant la conjecture d'Akemann et Anderson que l'on retrouve dans le chapitre 7 de [1].

Conjecture 2.3.1 (Akemann et Anderson). Il existe , δ > 0 tels que pour toute projection orthogonale complexe n × n P avec

max

i≤n Pi,i ≤ δ,

où Pi,j représente l'élément de la matrice situé à la i-ème ligne et à la j-ème colonne, il existe

une projection diagonale Q telle que

kQP Qk ≤ 1 − , k(I − Q)P (I − Q)k ≤ 1 − .

On se rappelle qu'une projection diagonale est une matrice ayant 1 ou 0 sur la diagonale et 0 ailleurs tandis qu'une projection orthogonale est une matrice n × n complexe P telle que P2 = P= I

n. La démonstration un peu longue de l'équivalence avec la conjecture de

Kadison-Singer se fait au début du chapitre 7 de [1].

Plus récemment, Weaver a montré qu'un résultat un peu plus faible que cette conjecture est équivalent à Kadison-Singer [20].

Conjecture 2.3.2. Il existe des constantes universelles δ > 0,  < 1 et r ∈ R telles que pour tout n et toute projection orthogonale P sur ln

2 avec

max

i≤n Pi,i ≤ δ,

il existe un pavage {Qj}rj=1 de {1, 2, . . . , n} tel que

kQjP Qjk ≤ 1 −  ∀j ∈ {1, 2, . . . , r}.

On remarque assez facilement que la conjecture d'Akemann et Anderson 2.3.1 est un cas spécique de la conjecture 2.3.2. La démonstration de la correspondance avec Kadison-Singer se fait à la n de la première étape de la démonstration du théorème 1 de [20], en utilisant la notion d'ultraltre que l'on n'abordera pas.

(16)

2.4 Équivalence entre Kadison-Singer et Weaver

Voici la démonstration de l'équivalence entre les deux conjectures que l'on retrouve dans l'article de Weaver [20].

Théorème 2.4.1. La conjecture de Kadison-Singer 1.0.1 a une solution positive si et seule-ment si la conjecture de Weaver KSr2.1.1 est vraie pour certains r ≥ 2.

Démonstration. (⇐) Étant donné que la conjecture avec r = 2, soit KS2, est équivalente à la conjecture de départ, on l'utilisera pour simplier la preuve. Supposons donc la conjecture KS2 vraie pour certaines valeurs de η et θ. Soit P une projection orthogonale complexe n × n avec

max

i≤n Pi,i≤

1 η.

Si P a un rang k, alors son image est un sous-espace à k-dimensions W ⊂ Cn. On dénit

wi =

ηP ei. On observe que pour tout i,

kwik2 = η · kP eik2 = η · hP ei, eii ≤ η · max

i≤n Pi,i≤ 1.

De plus, pour un vecteur unitaire u ∈ W , on a X i |hu, wii|2=X i |hu,√ηP eii|2 = η X i |hu, eii|2 = η.

Si par hypothèse, la conjecture est vraie, alors il existe une partition S1, S2 de {1, . . . , n} telle

que

X

i∈Sj

|hu, wii|2≤ η − θ

pour tout j ∈ {1, 2} et pour chaque vecteur unitaire u ∈ V . Pour j ∈ {1, 2} et 1 ≤ i ≤ n, soient Qj les projections diagonales n × n dénies par

Qjej = ( ej si i ∈ Sj 0 si i /∈ Sj. Alors, on obtient kQjP uk2=X i |hQjP u, eii|2 =X i |hu, P Qjeii|2 = 1 η X i∈Sj |hu, wii|2 ≤ 1 η(η − θ) ≤ 1 − θ η. 6

(17)

Puisque c'est vrai pour tout vecteur u ∈ V unitaire, c'est vrai en particulier pour le suprémum et donc

kQjP k2≤ 1 − θ η. Or, kQjP k2 = kQjP Qjk, ce qui entraîne

kQjP Qjk ≤ 1 −

θ η.

Puisque Q1 = I − Q2 et vice versa, la conjecture de Weaver KS2 entraîne la conjecture

d'Ake-mann et Anderson. Étant donné que cette dernière engendre la conjecture de Kadison-Singer, on obtient que la conjecture de Weaver KS2 implique celle de Kadison-Singer.

(⇒) On procède par contraposée. Supposons que la conjecture 2.1.1 est fausse pour tout r. Fixons N = r ≥ 2 avec θ = 1 et prenons w1, . . . , wn ∈ Ck satisfaisant les hypothèses de la

conjecture. Soit vi = √wiη. On remarque que si Aw : Ck → Ck est l'opérateur de rang 1 déni

par Aw: u 7→ hu, wiw, alors on a

kAvik = kvik2 ≤ 1 η et n X i=1 Avi ≤ Ik.

On a donc que (Ik−Pni=1Avi) est un opérateur positif de rang ni. Il est possible de trouver

des opérateurs de rang 1 notés Avj où n + 1 ≤ j ≤ m tels que

kAvjk ≤ 1 η et m X i=1 Avi = Ik.

Dénissons maintenant un plongement Φ : Ck → Cm par

Φ(u) := m X i=1 hu, viiei. Pour chaque u ∈ Ck, on a kΦuk2 = m X i=1 |hΦu, eii|2 = m X i=1 |hu, vii|2 = m X i=1 hAviu, ui = kuk2,

et donc Φ est une isométrie. Soit P la projection orthogonale dans Cn+m avec comme image

Φ(Ck). Alors

hP ei, Φvji = hei, Φvji = hvi, vji = hΦvi, Φvji,

(18)

Soit D la matrice diagonale avec la même diagonale que P (i.e. Di,i = Pi,i). Alors kDk = max kxk=1kDxk = maxi hP ei, eii = max i hΦvi, eii = maxi hvi, vii = max i kvik 2 1 η.

Soient Q1, . . . , Qr des projections diagonales m × m telles que r

X

i=1

Qi = I.

On dénit une partition S1, . . . , Sr de {1, . . . , m} telle que i ∈ Sj uniquement si l'élément de

la i-ème colonne et i-ème ligne de Qj n'est pas nul.

Étant donné notre choix de wi de départ, on déduit qu'il existe un j ∈ {1, . . . , r} et un

u ∈ Ck avec kuk = 1 tels que

X i∈Sj∩{1,...,n} |hu, wii|2 > η − 1. Il suit que kQjP (Φu)k2≥ m X i=1 |hQjP (Φu), eii|2 = X i∈Xj |hΦu, eii|2 = X i∈Xj |hu, vii|2 > 1 − 1 η car vi= wi √ η. Or, kQjP Qjk = kQjP k2 > 1 −1η.

Remarquons enn que A := P − D a des zéros sur sa diagonale et satisfait l'inégalité kAk ≤ 1 +1

η.

Pour des projections diagonales m × m Q1, . . . , Qr, avec leur somme égale à l'identité, on a

pour certains j

kQjAQjk ≥ kQjP Qjk − kQjDQjk > 1 −

2 N.

Lorsque N = r → ∞, on obtient une suite d'exemples qui contredit le problème de pavage. Ainsi, si la conjecture de Weaver KSr2.1.1est fausse, alors le problème de pavage2.2.1est faux.

(19)

Ceci signie que lorsqu'on a une réponse positive au problème de pavage, on a également une réponse positive à la conjecture de Weaver. Enn, puisque le problème de pavage est équivalent à la conjecture de Kadison-Singer, cela signie que Kadison-Singer implique la conjecture de Weaver.

(20)
(21)

Chapitre 3

Démonstration de la conjecture

3.1 Théorème principal

Ce chapitre sera consacré à l'étude de la preuve de la conjecture de Weaver 2.1.1 dans le cas où r = 2. Celle-ci a été démontrée par Marcus, Spielman et Srivastava dans leur article [14] grâce à l'analyse de la plus grande racine d'une famille particulière de polynômes que l'on appellera les polynômes caractéristiques mixtes. Les auteurs n'ont pas prouvé directement la conjecture, mais plutôt un résultat équivalent. Voici son énoncé.

Théorème 3.1.1. Soient  > 0 et v1, . . . , vm des vecteurs aléatoires indépendants dans Cd à

support ni tels que

m X i=1 Evivi∗ = Id et Ekvik2 ≤ , ∀i. Alors P " m X i=1 vivi∗ ≤ (1 +√)2 # > 0.

Le corollaire qui suit permet de faire le lien entre le théorème précédent et la conjecture de Weaver.

Corollaire 3.1.2. Soient u1, . . . , um des vecteurs colonnes dans Cd tels que m

X

i=1

uiu∗i = I et kuik2 ≤ α ∀i.

Alors il existe une partition de {1, . . . , m} séparée en deux ensembles S1 et S2 telle que

X i∈Sj uiu∗i ≤ (1 + √ 2α)2 2 , pour j ∈ {1, 2}.

(22)

Démonstration. Soient v1, . . . , vm des vecteurs aléatoires indépendants tels que P " vi= √ 2ui 0d !# = 1 2 P " vi= 0d √ 2ui !# = 1 2, où 0d est le vecteur nul de Cd. Alors on a

Eviv∗i = 1 2 2uiu∗i 0 0 0 ! + 1 2 0 0 0 2uiu∗i ! = uiu ∗ i 0 0 uiu∗i ! , avec kvik2= 2kuik2 ≤ 2α. De plus, ceci entraîne que

m X i=1 Evivi∗ = m X i=1 uiu∗i 0 0 uiu∗i ! = I.

On peut désormais appliquer le théorème3.1.1 avec  = 2α. Ainsi, pour certaines valeurs de vivi∗, on a m X i=1 vivi∗ ≤ (1 +√)2. Posons donc T ⊆ {1, . . . , m} tel que

X i∈T √ 2ui 0d ! √ 2ui 0d !∗ +X i6∈T 0d √ 2ui ! 0d √ 2ui !∗ ≤ (1 +√)2 X i∈T ui 0d ! ui 0d !∗ +X i6∈T 0d ui ! 0d ui !∗ ≤ (1 + √ )2 2 . Cela implique que

X i∈T uiu∗i = X i∈T ui 0d ! ui 0d !∗ ≤ (1 + √ )2 2 X i6∈T uiu∗i = X i6∈T 0d ui ! 0d ui !∗ ≤ (1 + √ )2 2

et les ensembles S1 et S2 sont dénis respectivement par T et {1, . . . , m} \ T .

Par exemple, posons α = 1

18. Alors le corollaire3.1.2 nous dit qu'il existe une partition S1 et

S2 de {1, . . . , m} telle que X i∈Sj uiu∗i ≤ (1 + q 2 18) 2 2 = (1 + 13)2 2 = 16 18. Posons ui = √wiη. On obtient kwik2 η ≤ α. 12

(23)

Pour respecter l'hypothèse sur la norme des wi de la conjecture de Weaver 2.1.1 dans le cas

où r = 2, il faut nécessairement que α = 1

η. On a donc que η = 18. De plus, si on suppose que m

X

i=1

|hv, wii|2= η,

alors la condition deviendra

m

X

i=1

|hv, uii|2= 1.

Cette égalité est vraie pour tout v ∈ Cd tel que kvk = 1. En particulier, si on prend v i le

vecteur ayant 1 à la i-ème position et 0 ailleurs, on obtient

m

X

j=1

(uj)2i = 1.

Si on prend cette fois-ci le vecteur vi,k ayant √12 à la i-ème et à la k-ème position avec des 0

ailleurs, on a donc 1 2 m X j=1 (uj)2i + 1 2 m X j=1 (uj)2k+ 1 2 m X j=1 (uj)i(uj)k= 1 1 2 + 1 2+ 1 2 m X j=1 (uj)i(uj)k = 1.

Ceci entraîne que 1 2

Pm

j=1(uj)i(uj)k= 0pour tous les i, k ∈ {1, . . . , m}, i 6= k. On peut répéter

l'argument par induction pour obtenir que

m

X

i=1

uiu∗i = I.

Ainsi, la condition de la conjecture de Weaver est équivalente à l'hypothèse du corollaire. De plus, si le corollaire est respecté, on aura

X i∈Sj uiu∗i ≤ 16 18 X i∈Sj wi √ η wi √ η ≤ 16 18 X i∈Sj wiw∗i ≤ 16.

(24)

Aussi, on sait que X i |hv, wii|2=X i v∗w iw∗iv =X i v∗wiw∗iv = v∗(X i wiwi∗)v.

Avec cela, on peut déduire que pour tout vecteur v tel que kvk = 1, on a v∗(X i wiw∗i)v ≤ X i∈Sj wiwi∗ , ce qui entraîne m X i=1 |hv, wii|2 ≤ 16 et donc θ = 2.

Cet exemple démontre bien la relation avec la conjecture de Weaver KS2 dans le cas par-ticulier où η = 18 et θ = 2.

3.2 Algèbre linéaire

La démonstration du théorème 3.1.1 se fait en utilisant plusieurs notions d'algèbre linéaire. Cette section sera donc un rappel de ces notions qui seront par la suite utilisées.

Dénition 3.2.1. Soit A une matrice carrée d × d. Les mineurs k × k de A sont les déter-minants de ses sous-matrices k × k. Les mineurs principaux k × k de A sont les mineurs obtenus en retirant les lignes et les colonnes ayant les mêmes indices.

On notera Mi,j le mineur (d − 1) × (d − 1) où l'on a retiré la i-ème ligne et la j-ème colonne.

Les deux dénitions qui suivent sont des résultats classiques de calcul du déterminant que l'on retrouve un peu partout, par exemple dans [9] et [13].

Dénition 3.2.2 (Laplace). Soit A une matrice d × d. Alors det(A) =

d

X

j=1

(−1)i+jai,jMi,j.

Dénition 3.2.3 (Leibniz). Soit A une matrice carrée d × d. Alors det(A) = X σ∈Pd ε(σ) n Y i=1 aσ(i),i, 14

(25)

où Pd est l'ensemble des permutations de {1, . . . , d} et ε(σ) égale 1 si la permutation est paire

et −1 si elle est impaire.

Regardons à présent quelques caractéristiques des matrices.

Dénition 3.2.4. Soit A une matrice carrée d × d. On dit que A est semi-dénie positive si x∗Ax ≥ 0 et ce, pour tout x ∈ Cd. Elle est dénie positive si l'inégalité est stricte pour

tout x 6= 0.

On note ici que pour être semi-dénie positive ou dénie positive, il faut nécessairement que x∗Axsoit réel. Voici quelques propriétés des matrices dénies positives que l'on retrouve dans [9].

1. Chaque matrice dénie positive est inversible et son inverse est aussi dénie positive. 2. Si A est une matrice (resp. semi-)dénie positive, alors il existe une matrice B également

(resp. semi-)dénie positive telle que A = B2.

3. Les valeurs propres d'une matrice dénie positive sont positives. Proposition 3.2.5. La matrice Piuiu

i est semi-dénie positive.

Démonstration. Soit v un vecteur unitaire de Cd. Alors il sut de remarquer que

X i |hv, uii|2= X i v∗uiu∗iv =X i v∗uiu∗iv = v∗(X i uiu∗i)v.

La seconde égalité vient du fait que la somme de modules élevés au carré est toujours réelle. Puisque le membre de gauche est toujours positif, cela entraîne que v∗(P

iuiu ∗

i)v ≥ 0.

Dénition 3.2.6. Soit A une matrice carrée d × d. On dit que A est hermitienne si A est égale au conjugué de sa transposée, c'est-à-dire

ai,j = aj,i ∀i, j.

Notons que les éléments de la diagonale sont nécessairement réels. Les propriétés qui suivent seront importantes dans les résultats à venir.

1. Si A est une matrice hermitienne, alors son inverse A−1 est également une matrice

hermitienne.

(26)

3. Si A est une matrice hermitienne, alors x∗Axest toujours réel pour tout vecteur x ∈ Cd.

Proposition 3.2.7. Soit A une matrice semi-dénie positive. Alors A est hermitienne. Démonstration. Considérons les matrices suivantes :

B := A + A ∗ 2 C := A − A∗ 2 . Ainsi, on a A = B + iC x∗Ax = x∗Bx + ix∗Cx. Or, on sait que les matrices B et C sont hermitiennes. En eet,

BT = A + A∗ 2 T = A + A T 2 !T = A T + A 2 ! = A T + A 2 ! = B.

Par les propriétés des matrices hermitiennes, on a que x∗Bx et xCx sont réels pour tout

x ∈ Cd. Par hypothèse, A est semi-dénie positive, ce qui signie que x∗Axest réel pour tout x ∈ Cd. Ceci entraîne que x∗Bx + ix∗Cx est réel. On a donc que C est la matrice nulle et A = B, ce qui prouve que A est hermitienne.

Remarque 3.2.8. La matrice Piuiu∗i est hermitienne.

En eet, par la proposition 3.2.5, la matrice Piuiu ∗

i est semi-dénie positive. Elle est donc

hermitienne.

Soit A ∈ Cd×d une matrice hermitienne. Le polynôme caractéristique de A par rapport à

la variable x sera noté

χ[A](x) = det(xI − A). On peut également écrire

χ[A](x) =

d

X

k=0

xd−k(−1)kσk(A),

où σk(A) est la somme des mineurs principaux de A de taille k × k.

Formule 3.2.9 (Cauchy-Binet). Soient A et B deux matrices respectivement k × n et n × k. Alors

det(AB) = X

S∈([n] k)

det(AS) det(BS),

où AS est la matrice k × k conservant uniquement les colonnes dont l'indice est dans S et BS

est la matrice k × k conservant uniquement les lignes dont l'indice est dans S.

(27)

Démonstration. Tout d'abord, si k > n, la somme de droite sera nulle, ce qui entraîne que det(AB) = 0. En eet, dans ce cas, le rang de la matrice AB sera au plus n et donc son déterminant s'annulera. On peut ainsi supposer que k ≤ n.

On note Pkl'ensemble des permutations de {1, . . . , k}. Pour σ ∈ Pk, posons τ la permutation

inverse. Alors det(AB) = det(C1, C2, . . . , Ck) = det( n X j=1 bj,1Aj, n X j=1 bj,2Aj, . . . , n X j=1 bj,kAj) = n X j1,...,jk=1 bj1,1. . . bjk,kdet(Aj1, Aj2, . . . , Ajk),

où les Aj1, . . . , Ajk sont les colonnes de A. On remarque ici que si ji = jlpour certains indices i

et l, alors le det(Aj1, Aj2, . . . , Ajk)s'annulera. De plus, pour une certaine permutation σ ∈ Pk,

on a par les propriétés du déterminant

det(Aj1, Aj2, . . . , Ajk) = ε(σ) det(Ajσ(1), Ajσ(2), . . . , Ajσ(1)). Ainsi, det(AB) = X 1≤j1<···<jk≤n X σ∈Pk bj1,1. . . bjk,kdet(Aj1, Aj2, . . . , Ajk) = X 1≤j1<···<jk≤n X σ∈Pk bj1,1. . . bjk,kε(σ) det(Ajσ(1), Ajσ(2), . . . , Ajσ(k)) = X 1≤j1<···<jk≤n X τ ∈Pk ε(τ )bjτ (σ(1)),1. . . bjτ (σ(k)),kdet(A(Jσ)) = X 1≤j1<···<jk≤n

det(B(Jσ)) det(A(Jσ)) par la formule 3.2.3

= X

S∈([n] k)

det(AS) det(BS).

Corollaire 3.2.10. Soient u1, . . . um et w1. . . wm des vecteurs colonnes dans Cd. Alors

det( m X i=1 uiw∗i) = X S∈([m] d) det(X i∈S uiw∗i).

Démonstration. Il sut de montrer que la matrice Pm i=1uiw

i peut s'écrire comme le produit

de deux matrices. On a m X i=1 uiw∗i =     P iui1wi1 . . . P iui1wid ... ... ... P iuidwi1 . . . Piuidwid     .

(28)

Soit A la matrice d × m et B la matrice m × d donnée par A =     u11 . . . um1 ... ... ... u1d . . . umd     B =     w11 . . . w1d ... ... ... wm1 . . . wmd     .

Si on les multiplie ensemble, on obtient     u11 . . . um1 ... ... ... u1d . . . umd         w11 . . . w1d ... ... ... wm1 . . . wmd     =     P iui1wi1 . . . Piui1wid ... ... ... P iuidwi1 . . . P iuidwid     ,

ce qui est exactement Pm

i=1uiwi∗. En appliquant le théorème 3.2.9 et en utilisant le fait que

det(A) det(B) = det(AB), on obtient le résultat.

Formule 3.2.11 (Jacobi). Soit A une matrice carrée. Alors d dtdet(A) = Tr  adj(A)dA dt  ,

où adj(A) est la transposée de la matrice C ayant comme composantes, ci,j = (−1)i+jMi,j.

Pour la démonstration de la formule de Jacobi, on a besoin d'un lemme supplémentaire. Lemme 3.2.12. Soient A et B des matrices carrées de dimension n. Alors

X

i

X

j

ai,jbi,j = Tr(ATB).

Démonstration. Les composantes du produit de matrices AB sont (AB)j,k =

X

i

aj,ibi,k,

ce qui nous donne pour ATB

(ATB)j,k = X i ai,jbi,k. On a donc Tr(ATB) =X j (ATB)j,j = X j X i ai,jbi,j = X i X j ai,jbi,j.

La dernière égalité vient du fait que les sommes sont nies.

Démonstration de la formule3.2.11. Tout d'abord, par la formule de Laplace 3.2.2, on a det(A) =X

j

(−1)i+jai,jMi,j

=X

j

ai,j(adjT(A))i,j.

(29)

Si on considère det(A) comme une fonction F ayant comme variables les ai,j, on peut appliquer

la règle de dérivation des fonctions composées. d dtdet(A) = X i X j ∂F ∂ai,j d(ai,j) dt . Or ∂F ∂ai,j = ∂ det(A) ∂ai,j = ∂ P

kai,k(adjT(A))i,k

∂ai,j

=X

k

∂ ai,k(adjT(A))i,k

 ∂ai,j =X k ∂ai,k ∂ai,j

(adjT(A))i,k+

X

k

ai,k

∂(adjT(A))i,k

∂ai,j

.

On se souvient que (adjT(A))

i,k = (−1)i+kMi,k. L'élément ai,j se trouve toujours dans la ligne

supprimée de Mi,k, ce qui entraîne que (adjT(A))i,j n'est pas une fonction de ai,j. Ainsi,

∂(adjT(A))i,k

∂ai,j

= 0. On peut donc réduire notre équation, ce qui nous donne

∂ det(A) ∂ai,j =X k ∂ai,k ∂ai,j

(adjT(A))i,k.

Il est maintenant clair que

∂ai,k ∂ai,j = ( 1 si k = j 0 sinon. Ceci permet d'obtenir

d dtdet(A) = X i X j

(adjT(A))i,j

d(ai,j)

dt . En appliquant le lemme 3.2.12à la partie de droite, on a

d dtdet(A) = Tr  adj(A)dA dt  .

Proposition 3.2.13. Soient W1, . . . , Wkdes matrices hermitiennes de rang 1 et soient x1, . . . , xk

des scalaires. Alors

σk k X i=1 xiWi ! = k Y i=1 xi ! σk k X i=1 Wi ! .

(30)

Démonstration. Si le rang de Pk

i=1xiWiest plus petit que k, alors nécessairement σk

 Pk i=1xiWi  = 0et σk  Pk i=1Wi 

= 0. Supposons donc que le rang de la matrice soit égal à k.

Étant donné que les matrices W1, . . . , Wk sont de rang 1, il est possible de prendre le

vec-teur propre de chacune des matrices pour former une base. Ainsi, selon cette base, chaque matrice W1, . . . , Wk sera diagonalisée. Elles seront toutes de la forme

Wj =     0 . . . 0 ... λj ... 0 . . . 0     . Ainsi, on aura σk k X i=1 Wi ! = k Y i λi,

ce qui entraîne que σk k X i=1 xiWi ! = k Y i=1 xiλi = k Y i=1 xi ! σk k X i=1 Wi ! .

Proposition 3.2.14. Soient u1, . . . , um des vecteurs colonnes de Cd. Alors

det xI − m X i=1 uiu∗i ! = d X k=0 xd−k(−1)k X S∈([m] d) σk X i∈S uiu∗i ! .

Démonstration. On remarque que det xI − m X i=1 uiu∗i ! = χ " m X i=1 uiu∗i # (x). On peut ainsi écrire

det xI − m X i=1 uiu∗i ! = d X k=0 xd−k(−1)kσk m X i=1 uiu∗i ! . Donc, il sut de montrer que

σk m X i=1 uiu∗i ! = X S∈([m] k) σk X i∈S uiu∗i ! .

Pour un certain vecteur u et T ⊆ [d] un ensemble, on pose u(T ) le vecteur de dimension |T | contenant les éléments de u dont les indices sont dans T (Par exemple, si T = {1, 2}, alors 20

(31)

u(T ) = (u1, u2)). On a σk m X i=1 uiu∗i ! = X T ∈([m] k) det m X i=1 ui(T )ui(T )∗ ! = X T ∈([m] k) X S∈([m] k) det X i∈S ui(T )ui(T )∗ ! par le théorème 3.2.9 = X S∈([m] k) X T ∈([m] k) det X i∈S ui(T )ui(T )∗ ! = X S∈([m] k) σk X i∈S uiu∗i ! .

3.3 Familles entrelacées

La dénition de familles entrelacées de polynômes a été introduite par Marcus, Spielman et Srivastava dans [15].

Dénition 3.3.1. On dit qu'un polynôme à racines et à coecients réels g(x) = α0Qn−1i=1(x −

αi) entrelace un autre polynôme à racines et à coecients réels f(x) = β0Qni=1(x − βi) si

β1 ≤ α1 ≤ β2≤ α2 ≤ · · · ≤ αn−1≤ βn.

On dit que g(x) entrelace strictement f(x) si les inégalités sont strictes. De plus, s'il existe un g(x) qui entrelace fi(x) pour i ∈ {1, . . . , k}, alors on dit que les f1(x), . . . , fk(x) ont un

entrelacement commun.

Dénition 3.3.2. Soient S1, . . . , Sm des ensembles nis et pour chaque s1 ∈ S1, . . . , sm ∈ Sm,

soit fs1,...,sm(x) un polynôme à racines et à coecients réels de degré n dont le coecient

directeur est positif. Pour chaque s1∈ S1, . . . , sk∈ Sk, avec k ≤ m on dénit

fs1,...,sk(x) := X sk+1∈Sk+1,...,sm∈Sm fs1,...,sk,sk+1,...,sm(x) f∅(x) := X s1∈S1,...,sm∈Sm fs1,...,sm(x).

On dit que les polynômes {fs1,...,sm(x)}s1,...,sm forment une famille entrelacée si pour tout

k ∈ {0, . . . , m − 1} et pour tous les s1 ∈ S1, . . . , sk ∈ Sk, les polynômes

{fs1,...,sk,t(x)}t∈Sk+1

(32)

Ces nouvelles familles ont des propriétés intéressantes qui entraînent de nouveaux résultats, comme par exemple ceux que l'on retrouve dans les articles [15] et [14]. En voici quelques-uns qui seront utiles pour la suite des choses.

Lemme 3.3.3. Soient f1, . . . , fk des polynômes de même degré à racines et à coecients réels

ayant un coecient directeur positif. On dénit f∅:=

k

X

i=1

fi.

Si f1, . . . , fk ont un entrelacement commun, alors il existe un indice j tel que la plus grande

racine de fj est au plus égale à la plus grande racine de f∅.

Démonstration. Supposons que le degré des polynômes soit égal à n. Posons g(x) le polynôme qui entrelace tous les fi. Les zéros de g seront notés αi et supposons sans perdre de généralité

que la plus grande racine de g soit αn−1. Ainsi, pour chacun des fi, on a

βi1 ≤ α1 ≤ βi2 ≤ α2 ≤ · · · ≤ αn−1 ≤ βin,

où les βij sont les zéros de fi. Puisque les coecients directeurs des fi sont positifs, on aura

donc que les fi > 0 pour tout x > βin. De plus, étant donné que les fi n'ont qu'une seule

racine plus grande que αn−1, cela entraîne que fi(αn−1) ≤ 0 et ce pour tout i.

Ainsi, f∅(αn−1) ≤ 0et le polynôme deviendra positif éventuellement. Posons γnla plus grande

racine de f∅. Puisque f∅ est la somme des fi par dénition, alors il existe un polynôme fj tel

que fj(γn) ≥ 0. On a donc

αn−1 ≤ βjn ≤ γn.

Voici un exemple montrant que sans l'hypothèse d'un entrelacement commun, le lemme ne fonctionne plus :

Prenons f(x) = (x + 5)(x − 9)(x − 10) et g(x) = (x + 6)(x − 1)(x − 8). Clairement, ces deux fonctions n'ont pas d'entrelacement commun. Lorsque l'on fait la somme, les zéros de f +gse trouvent approximativement à −5, 2765, 6, 3814 et 7, 3950. Or, les plus grandes racines de f(x) et g(x) ne sont pas plus petites ou égales à 7, 3950, une contradiction avec le lemme. Théorème 3.3.4. Soient S1, . . . , Sm des ensembles nis et soit {fs1,...,sm} une famille

entre-lacée de polynômes. Alors il existe certains s1, . . . , sm ∈ S1× · · · × Sm tels que la plus grande

racine de fs1,...,sm est au plus la plus grande racine de f∅.

(33)

Démonstration. Procédons par induction.

Cas k = 0 : On sait que les polynômes dans {ft}t∈S1 ont un entrelacement commun. Par

le lemme 3.3.3, il existe un certain s1 ∈ S1 tel que la plus grande racine de fs1(x)est au plus

égale à la plus grande racine de f∅(x).

Supposons vrai pour k = n − 1.

Cas k = n : On sait que les polynômes dans {fs1,...,sn,t(x)}t∈Sn+1 ont un entrelacement

com-mun. Par le lemme3.3.3, il existe un certain sn+1∈ Sn+1 pour lequel la plus grande racine de

fs1,...,sk,sk+1(x)sera au plus égale à celle de la somme des polynômes, soit fs1,...,sn. Puisque la

plus grande racine de fs1,...,sn est au plus égale à celle de f∅ par hypothèse d'induction, on a

le résultat.

Le lemme suivant tiré de [8] nous permettra de conclure que l'ensemble des polynômes utilisés dans la preuve du théorème 3.1.1 forme une famille entrelacée.

Lemme 3.3.5. Soient f et g des polynômes à une seule variable de degré n tels que pour tous les α, β > 0, le polynôme αf + βg possède n racines réelles. Alors f et g ont un entrelacement commun.

Démonstration. Posons a1 ≤ · · · ≤ an et b1 ≤ · · · ≤ bn les racines de f et g respectivement.

Supposons en premier lieu que les racines sont distinctes. Alors il y a exactement 2n + 1 in-tervalles dans lesquels les signes de f et g sont constants.

Sans perdre de généralité, supposons que an < bn. Posons I1 = (bn, ∞), I2 = (an, bn), . . ..

On a donc une suite d'intervalles telle que sur chaque pair d'intervalles adjacents, le signe de l'une des fonctions change tandis que le signe de l'autre reste constant.

Si les coecients directeurs de f et g ont le même signe, alors le signe de f et g sera identique sur les intervalles impairs. Ainsi, on peut déduire que les racines de αf + βg seront dans les intervalles pairs. La continuité des racines par rapport aux coecients nous assure qu'il y aura le même nombre de racines de αf + βg dans chaque intervalle. De plus, en prenant α = 1 et β très petit, on remarque que chaque intervalle pair aura une seule racine.

Supposons que la fonction f change de signe deux fois de suite et xons β. Alors, en prenant α très petit, le polynôme αf + βg n'aura pas de racine sur cet intervalle, une contradiction car il devrait y avoir exactement une racine. Ainsi, on peut en déduire que les extrémités des intervalles sont une racine de f d'un côté et une racine de g de l'autre.

(34)

Dans ce cas, on pose h(x) un polynôme ayant des racines dans chaque intervalle où les signes de f et g sont diérents, soit les intervalles pairs. Ainsi, h(x) sera la fonction qui entrelace strictement à la fois f(x) et g(x).

Le cas où les coecients directeurs de f et g n'ont pas le même signe se fait de la même manière, la seule diérence est que le signe de f et g sera identique sur les intervalles pairs et le polynôme h(x) aura ses racines dans les intervalles impairs. De plus, si les racines ne sont pas distinctes, h(x) entrelacera f(x) et g(x), mais pas strictement.

Étant donné que la multiplication par une constante non-nulle ne change pas la position des zéros du polynôme, on peut réécrire la somme des polynômes comme

α

βf (x) + g(x). Il sut ensuite de prendre à la place de f(x), βλ

α(1−λ)f (x)pour λ ∈ (0, 1). Cela nous donnera

λf (x) + (1 − λ)g(x) λ ∈ (0, 1).

Le polynôme h(x) entrelacera f(x) et g(x) car les zéros ne sont pas aectés par la multipli-cation. Ainsi, on peut prendre λ ∈ [0, 1]. À l'avenir, le lemme3.3.5 sera utilisé non pas avec α, β > 0mais avec λ ∈ [0, 1].

3.4 Polynôme stable

Une autre propriété intéressante des polynômes est la stabilité. Cette propriété sera utile surtout dans la prochaine section. Voici un rappel de la dénition d'un polynôme stable ainsi que quelques résultats qui en découlent. Notons que pour z ∈ C, on écrit Im(z) pour sa partie imaginaire.

Dénition 3.4.1. Soit p(z1, . . . , zm) ∈ C[z1, . . . , zm] un polynôme. On dit que p(z1, . . . , zm)

est stable si p(z1, . . . , zm) 6= 0 lorsque Im(zi) > 0 pour tout i ∈ {1, . . . , m}.

Le polynôme p(z1, . . . , zm) est réellement stable s'il est stable et que ses coecients sont

réels.

Lemme 3.4.2. Un polynôme à une seule variable est réellement stable si et seulement si toutes ses racines et tous ses coecients sont réels.

Démonstration. Soit p(z) un polynôme de degré n.

(⇒) Par hypothèse, p(z) est réellement stable, ce qui signie que ses racines se trouvent

(35)

dans le demi-plan inférieur du plan complexe incluant l'axe réel et ses coecients sont réels. Écrivons p(z) := a0 n Y i=1 (z − ai).

Supposons qu'il existe une racine complexe. Alors

p(z) := a0(z − a1) . . . (z − (α + iβ)) . . . (z − an).

Ici, puisque la racine doit être dans le demi-plan complexe inférieur, β < 0. Or, on sait que pour avoir des coecients réels, le conjugué de la racine complexe doit également être une racine. Cela voudrait dire qu'il existe une racine dans le demi-plan complexe supérieur, une contradiction avec la stabilité de p(z). Ainsi, ses racines sont réelles.

(⇐) Ceci est trivial.

La proposition suivante est un résultat provenant de l'article de Borcea et Brändén [3]. Proposition 3.4.3. Si A1, . . . , Am sont des matrices hermitiennes semi-dénies positives,

alors le polynôme f (z1, . . . , zm) := det X i ziAi !

est réellement stable.

Pour cette démonstration, il nous faut un théorème classique en analyse complexe : le théorème d'Hurwitz.

Théorème 3.4.4 (Hurwitz). Soit (fk) une suite de fonctions holomorphes d'un ouvert E qui

converge uniformément sur chaque compact F ⊂ E vers une fonction holomorphe f 6≡ 0. Si f a un zéro d'ordre m en z0, alors pour tout p > 0 assez petit, il existe un k ∈ N assez grand

tel que fk a précisément m zéros dans B(z0, p) incluant les multiplicités. De plus, ces zéros

convergent vers z0 lorsque k → ∞.

Étant donné que ce résultat est classique, la preuve sera laissée à la discrétion du lecteur. On est maintenant en mesure de faire la démonstration de la proposition 3.4.3.

Démonstration de la proposition 3.4.3. Il est possible de faire la preuve uniquement pour le cas de matrices dénies positives. En eet, on pose

f () := det X

i

ziAi+ I

! .

(36)

On a donc que f () → f := det X i ziAi ! .

Clairement, les coecients de f() convergent également vers ceux de f. En appliquant le théorème d'Hurwitz3.4.4, on sait que les zéros des f() convergeront vers ceux de f. Ainsi, si on montre que les f() sont réellement stables, alors f le sera également.

Supposons donc que les Ai sont dénies positives. Posons

z(t) := α + λt,

où α := (α1, . . . , αm) ∈ Rm, λ := (λ1, . . . , λm) ∈ Rm+ et t ∈ C.

Notons que P := Pm

i=1λiAi est dénie positive. En eet, la somme de matrices dénies

posi-tives multipliées par des scalaires positifs non-nuls est dénie positive. Alors P est inversible et il existe une matrice dénie positive A telle que A2 = P. Alors si on pose H := Pm

i αiAi, on a f (z(t)) = det X i zi(t)Ai ! = det X i (αi+ λit)Ai ! = det X i αiAi+ λitAi ! = det (H + tP ) = det  P12P −1 2 (H + tP )P −1 2 P 1 2  = detP12(P −1 2 H + tP −1 2 P )P −1 2 P 1 2  = det  P12(P −1 2 HP −1 2 + tP −1 2 P P −1 2 )P 1 2  = detP12(P −1 2 HP −1 2 + tI)P 1 2  = detP12  detP−12 HP −1 2 + tI  detP12  = det(P ) det(P−12 HP −1 2 + tI). Puisque P1

2 et H sont hermitiennes, on a que P −1

2 est aussi hermitienne. De plus, ceci entraîne

que (P−12 HP −1 2 )∗= P −1 2 ∗H∗P −1 2 ∗ = P−12 HP −1 2 . 26

(37)

On en conclut que P−12 HP −1

2 est une matrice hermitienne. Donc, dans l'égalité

f (z(t)) = det(P ) det(P−12 HP −1

2 + tI),

on remarque que le premier facteur de droite est une constante réelle tandis que le second est le polynôme caractéristique d'une matrice hermitienne. Puisque toutes ses valeurs propres sont réelles, on déduit que f(z(t)) a des racines réelles. De plus, étant donné que P−1

2 HP −1

2 + tI

est également hermitienne, le déterminant de cette matrice est réel et donc les coecients de f (z(t)) seront réels. Par le lemme 3.4.2, f(z(t)) est réellement stable. Or, puisque z(t) est arbitraire, on peut conclure que f est également réellement stable.

Maintenant que l'on a bien déni la stabilité des polynômes, on peut s'intéresser aux opéra-teurs agissant sur ceux-ci. En eet, certains d'entre eux préservent la stabilité réelle. C'est le cas de l'opérateur (1 − ∂zi).

Le théorème qui suit correspond au corollaire 18.2a du livre [16]. Les détails de ce résul-tat se trouvent par exemple dans la section 18 du livre [16] et dans la section 5.4 du livre [17].

Théorème 3.4.5. Si tous les zéros d'un polynôme q(z) de degré d se trouvent dans une région circulaire fermée A, alors pour λ ∈ C, tous les zéros de

q(z) − λq0(z)

sont dans la région convexe balayée par la translation de A dans la direction et l'amplitude du vecteur dλ.

Corollaire 3.4.6. Si p ∈ R[z1, . . . , zm]est réellement stable, alors

(1 − ∂zi)p(z1, . . . , zm)

est aussi réellement stable.

Démonstration. Sans perdre de généralité, supposons que i = 1. Fixons x2, . . . , xm ∈ C tels

que Im(xi) > 0, ∀i ∈ {2, 3, . . . , m}. On se retrouve dans le cas à une seule variable, ce qui

nous permet d'utiliser le théorème 3.4.5. En eet, les zéros du polynôme q(z1) := p(z1, x2, . . . , xm)

se trouvent dans une région circulaire, disons A, de nombres complexes tels que leur partie imaginaire est au plus 0. Notons que l'axe réel peut être considéré comme un cercle de rayon inni. Ainsi, le théorème nous dit que tous les zéros de q(z1) − q0(z1) se trouvent dans la

(38)

par d, les zéros restent toujours dans le demi-plan inférieur. Ainsi, q(z1) − q0(z1) est stable.

Ceci implique que le polynôme (1 − ∂zi)p(z1, . . . , zm) n'a pas de racines telles que Im(zi) > 0

pour tous les i. De plus, puisque q(z1) est réellement stable à la base, il est évident que les

coecients de sa dérivée sont réels, ce qui entraîne que (1 − ∂zi)p(z1, . . . , zm) est réellement

stable.

Dans les résultats qui suivront un peu plus tard, on utilisera également le fait que la stabilité réelle est préservée lorsque l'on pose les variables égales à des constantes réelles. Le lemme suivant se retrouve dans l'article de Wagner [19].

Lemme 3.4.7. Pour tout a ∈ {z ∈ C : Im(z) ≥ 0}, l'opérateur f 7−→ f(a, x2, . . . , xm)

préserve la stabilité.

Démonstration. Si Im(a) > 0, le résultat est immédiat. Regardons pour a ∈ R. Posons fn:= f (a + i2−n, x2, . . . , xm) n ∈ N.

En appliquant Hurwitz 3.4.4 lorsque n → ∞, les zéros de fn convergeront vers ceux de f.

Ainsi, puisque les fn sont stables, alors f l'est également.

Remarquons que le dernier lemme fonctionne aussi pour la stabilité réelle, puisque les coe-cients sont les mêmes partout.

Lemme 3.4.8. Si p(z1, z2) est un polynôme réellement stable de degré d précisément, alors il

existe des matrices d × d, notées A et B, semi-dénies positives et une matrice hermitienne C telles que

p(z1, z2) = ± det(z1A + z2B + C).

Pour la démonstration de ce lemme, on a besoin de deux dénitions tirées de l'article de Lewis, Parrilo et Ramana [12] ainsi que de deux résultats supplémentaires dont les preuves ont été faites dans la section 6 de l'article de Borcea et Brändén [4].

Dénition 3.4.9. Un polynôme p ∈ R[z1, . . . , zn] est homogène de degré d si pour tout

t ∈ R et pour tout w ∈ Rn,

p(tw) = tdp(w).

Dénition 3.4.10. Un polynôme homogène p de degré d est hyperbolique par rapport au vecteur v ∈ Rn si

1. p(v) 6= 0,

2. Le polynôme q(t) := p(w − tv) a des racines réelles pour tout w ∈ Rn.

(39)

Proposition 3.4.11. Soit p ∈ R[z1, . . . , zn] de degré d et soit pH(z1, . . . , zn, zn+1) l'unique

polynôme homogène de degré d tel que pH(z1, . . . , zn, 1) = p(z1, . . . , zn). Alors p est réellement

stable si et seulement si pH est hyperbolique par rapport à tous les vecteurs v ∈ Rn+1 tels que

vn+1 = 0 et vi > 0 pour tout i ∈ {1, . . . , n}.

Proposition 3.4.12. Un polynôme homogène p ∈ R[x, y, z] de degré d est hyperbolique par rapport à tous les vecteurs de forme (v1, v2, 0) avec v1, v2 ∈ R+ si et seulement s'il existe deux

matrices A, B semi-dénies positives d × d et une matrice C symétrique de même dimension telles que

p(x, y, z) = α det(xA + yB + zC).

On a maintenant tout ce qu'il nous faut pour faire la démonstration du lemme3.4.8.

Démonstration du lemme 3.4.8. Tout d'abord, on peut faire la preuve du lemme dans le cas où C est symétrique seulement. En eet, si C est hermitienne, il sut d'eectuer un change-ment de base pour la diagonaliser, ce qui nous donne une matrice symétrique.

Selon notre hypothèse, p(z1, z2) est réellement stable. Par la proposition 3.4.11, on a que

l'unique polynôme homogène de degré d respectant l'égalité pH(z1, z2, 1) = p(z1, z2)

est hyperbolique par rapport à tous les vecteurs v ∈ R3 avec v

1, v2 > 0 et v3 = 0. On peut

par la suite appliquer le théorème3.4.12et donc on sait qu'il existe A, B deux matrices d × d semi-dénies positives et C une matrice symétrique de même dimension telles que

pH(z1, z2, z3) = α det(v1A + v2B + v3C).

Il ne reste plus qu'à multiplier l'intérieur du déterminant par |α| et à remplacer v3 par 1. On

obtient

p(z1, z2) = pH(z1, z2, 1) = ± det(α(v1A + v2B + C)).

Sous les mêmes hypothèses que le lemme précédent, on peut déduire un résultat supplémen-taire.

Remarque 3.4.13. Soient A et B deux matrices d × d semi-dénies positives qui respectent le lemme 3.4.8. Alors pour tous x, y > 0,

xA + yB est dénie positive.

(40)

Démonstration. Supposons le contraire et que xA + yB n'est pas dénie positive. Alors il existe un vecteur non-nul dans le noyau de A qui est également dans celui de B. Si on change la base en fonction de ce vecteur, les deux matrices auront chacune une colonne et une ligne vide. Ainsi, le polynôme det(xA + yB) ne sera pas de degré d, ce qui contredit les hypothèses du lemme.

3.5 Polynôme caractéristique mixte

Cette section sera consacrée à dénir le polynôme caractéristique mixte et à mettre de l'avant ses propriétés. La stabilité réelle de ce polynôme permettra de montrer qu'une suite nie de vecteurs aléatoires, indépendants et à support ni v1, . . . , vm engendre toujours une famille

entrelacée.

Dénition 3.5.1. On dénit le polynôme caractéristique mixte des matrices A1, . . . , Am

par µ[A1, . . . , Am] := m Y i=1 1 − ∂zi ! det xI + m X i=1 ziAi ! z1=···=zm=0 .

Théorème 3.5.2. Soient v1, . . . , vm des vecteurs colonnes aléatoires et indépendants de Cd à

support ni. On pose Ai := Eviv∗i. Alors

Eχ " m X i=1 vivi∗ # (x) = µ[A1, . . . , Am].

Le lemme qui suit simplira la preuve de ce théorème.

Lemme 3.5.3. Soient W1, . . . , Wm des matrices hermitiennes de rang 1 et z1, . . . , zm des

scalaires. Alors det xI + m X i=1 ziWi ! = d X k=0 xd−k X S∈([m] k ) zSσk X i∈S Wi ! .

Démonstration. Ce lemme est un résultat direct des propositions3.2.13et3.2.14.

det xI + m X i=1 ziWi ! = d X k=0 xd−k(−1)k X S∈([m] k ) σk X i∈S −ziWi ! proposition3.2.14 = d X k=0 xd−k X S∈([m] k) Y i∈S ziσk X i∈S Wi ! proposition3.2.13 = d X k=0 xd−k X S∈([m] k) zSσk X i∈S Wi ! . 30

(41)

Démonstration du théorème 3.5.2. On pose lila grandeur du support de viet soient wi,1, . . . , wi,li

les valeurs que prend vi avec probabilités pi,1, . . . , pi,li respectivement. On pose également

Wi,j := wi,jwi,j∗ , ce qui entraîne que

Eviv∗i = li

X

j=1

pi,jWi,j.

On remarque que pour S ⊂ {1, . . . , m}, le coecient de Taylor au point 0 de zS dans l'équation

det xI + m X i=1 ziAi ! sera Y i∈S ∂zi ! det xI + m X i=1 ziAi ! z1=···=zm=0 . (3.1)

Sans perdre de généralité, considérons S = {1, . . . , k}. Si on écrit chaque Ai comme étant

Ai =

X

ji

pi,jiWi,ji,

alors on obtient par le lemme 3.5.3

(3.1) = Y i∈S ∂zi ! det  xI + m X i=1 X ji zipi,jiWi,ji   z1=···=zm=0 = Y i∈S ∂zi !    d X k=0 xd−k X S∈([m] k) X ji∈[li] zS Y i∈S pi,ji ! σk X i∈S Wi,ji !   .

Ici, le S est déjà xé, et donc notre k aussi. L'équation devient

(3.1) = k Y i=1 ∂zi ! xd−k X j1∈[l1],...,jk∈[lk] zS k Y i=1 pi,ji ! σk k X i=1 Wi,ji !  = xd−k X j1∈[l1],...,jk∈[lk] k Y i=1 pi,ji ! σk k X i=1 Wi,ji ! = xd−kEσk k X i=1 viv∗i ! ,

(42)

car les vecteurs visont indépendants. En appliquant cette égalité à tous les S ⊆ [m], on obtient µ[A1, . . . , Am] = m Y i=1 1 − ∂zi ! det xI + m X i=1 ziAi ! z1=···=zm=0 = m X k=0 (−1)k X S∈([m] k) Y i∈S ∂zi ! det xI + m X i=1 ziAi ! z1=···=zm=0 proposition 3.2.14 = m X k=0 (−1)k X S∈([m] k) xd−kEσk X i∈S viv∗i ! = E    m X k=0 (−1)k X S∈([m] k) xd−kσk X i∈S viv∗i !    = E χ " m X i=1 viv∗i #! .

À l'aide de certains résultats vus précédemment, on remarque facilement que les racines et les coecients du polynôme caractéristique mixte sont réels.

Corollaire 3.5.4. Le polynôme caractéristique mixte de matrices semi-dénies positives est à racines et à coecients réels.

Démonstration. Par la proposition3.4.3, on sait que

det xI + m X i=1 ziAi !

est réellement stable. En appliquant le corollaire3.4.6, on sait que

m Y i=1 (1 − ∂zi) det xI + m X i=1 ziAi !

est aussi réellement stable. Par la proposition3.4.7, on peut xer les zi= 0 tout en préservant

la stabilité. Ainsi, notre polynôme n'a qu'une seule variable, soit x, et il est réellement stable. Enn, le lemme3.4.2 permet de conclure que ses racines et ses coecients sont réels.

Il est enn possible de montrer que toute suite de vecteurs aléatoires indépendants v1, . . . , vm

à support ni engendre une famille entrelacée. Notons que l'on garde les mêmes notations que pour le théorème3.5.2.

(43)

Théorème 3.5.5. Pour j1∈ [l1], . . . , jm ∈ [lm], on dénit qj1,...,jm(x) := m Y i=1 pi,ji ! χ "m X i=1 wi,jiwi,ji∗ # (x) Alors les polynômes qj1,...,jm forment une famille entrelacée.

Démonstration. Pour 1 ≤ k ≤ m et j1 ∈ [l1], . . . , jk∈ [lk], on dénit

qj1,...,jk(x) := k Y i=1 pi,ji ! Evk+1,...,vmχ " k X i=1 wi,jiw∗i,ji+ m X i=k+1 vivi∗ # (x) q∅(x) := Ev1,...,vmχ " m X i=1 viv∗i # (x) Il faut montrer que pour tout j1, . . . , jk et jk0, les polynômes

qj1,...,jk−1,jk(x) qj1,...,jk−1,j0k(x)

ont un entrelacement commun. Par le lemme3.3.5, il sut de montrer que pour tout 0 ≤ λ ≤ 1, le polynôme

λqj1,...,jk−1,jk(x) + (1 − λ)qj1,...,jk−1,jk0(x) (3.2)

est à racines réelles.

Posons uk un vecteur aléatoire tel que

uk=

(

wk,jk avec probabilité λ

wk,j0

k avec probabilité (1 − λ)

Alors il ne reste qu'à remarquer que (3.2) = k−1 Y i=1 Pi,ji ! Euk,vk+1,...,vmχ "k−1 X i=1 wi,jiwi,ji∗ + uku∗k+ m X i=k+1 vivi∗ # (x). En eet, la partie de droite de l'équation est égale à

k−1 Y i=1 Pi,ji ! λEvk+1,...,vmχ "k−1 X i=1 wi,jiw∗i,ji+ wk,jkw∗k,jk+ m X i=k+1 vivi∗ # (x) + k−1 Y i=1 Pi,ji ! (1 − λ)Evk+1,...,vmχ "k−1 X i=1 wi,jiw∗i,ji+ wk,j0 kw ∗ k,j0k+ m X i=k+1 vivi∗ # (x) = λ k Y i=1 Pi,ji ! Evk+1,...,vmχ " k X i=1 wi,jiwi,ji∗ + m X i=k+1 viv∗i # (x) + (1 − λ) k Y i=1 Pi,ji ! Evk+1,...,vmχ " k X i=1 wi,jiwi,ji∗ + m X i=k+1 viv∗i # (x) = (3.2).

(44)

Notons que dans la seconde équation, Pk,jk = 1et Pk,j0k= 1. Ainsi, étant donné que k−1 Y i=1 Pi,ji ! Euk,vk+1,...,vmχ "k−1 X i=1 wi,jiwi,ji∗ + uku∗k+ m X i=k+1 viv∗i # (x)

est un multiple d'un polynôme caractéristique mixte, par le corollaire3.5.4, l'équation (3.2) a des racines et des coecients réels.

3.6 Fonction barrière et borne supérieure

Le théorème principal de cette section prouvera l'existence d'une borne supérieure pour les racines du polynôme caractéristique mixte dans le cas particulier où Pm

i=1Ai= I. Avec celui-ci,

il sera enn possible de démontrer le théorème3.1.1.

Lemme 3.6.1. Soient A1, . . . , Amdes matrices hermitiennes semi-dénies positives. Si Pmi=1Ai=

I, alors µ[A1, . . . , Am](x) = m Y i=1 1 − ∂yi ! det m X i=1 yiAi ! y1=···=ym=x .

Démonstration. Pour toute fonction dérivable f, on a ∂yi(f (yi))|yi=zi+x= ∂zi(f (zi+ x)) zi=0 . Ainsi, on peut aisément remplacer les yi par zi+ x. Cela nous donne

m Y i=1 1 − ∂yi ! det m X i=1 yiAi ! y1=···=ym=x = m Y i=1 1 − ∂zi ! det m X i=1 (zi+ x)Ai ! z1=···=zm=0 = m Y i=1 1 − ∂zi ! det m X i=1 ziAi+ x m X i=1 Ai ! z1=···=zm=0 = m Y i=1 1 − ∂zi ! det xI + m X i=1 ziAi ! z1=···=zm=0

= µ[A1, . . . , Am](x) par le théorème3.5.2.

Voici quelques dénitions qui serviront d'outils dans la preuve du théorème principal de la section.

Dénition 3.6.2. Soit p(z1, . . . , zm) un polynôme à plusieurs variables. On dit que z ∈ Rm

est au-dessus des racines de p si

p(z + t) > 0 ∀t = (t1, . . . , tm) ∈ Rm, ti≥ 0,

(45)

c'est-à-dire si p est positif dans l'orthant non-négatif d'origine z.

On écrit Abp pour l'ensemble des points au-dessus des racines de p.

Dénition 3.6.3. Soit p un polynôme réellement stable et soit z = (z1, . . . , zm) ∈ Abp. La

fonction barrière de p dans la direction i en z est dénie par Φip(z) = ∂zip(z)

p(z) . On peut également l'écrire comme

Φip(z1, . . . , zm) = qz,i0 (zi) qz,i(zi) = r X j=1 1 zi− λi .

Ici la restriction à une seule variable qz,i est dénie comme

qz,i(t) := p(z1, . . . , zi−1, t, zi+1, . . . , zm).

De plus, par la proposition 3.4.7, qz,i(t)est réellement stable, ce qui entraîne que ses racines

sont réelles.

La fonction barrière possède deux belles propriétés analytiques qui nous seront utiles pro-chainement, soit la convexité ainsi que la monotonie décroissante.

Lemme 3.6.4. Soit p un polynôme réellement stable et soit z ∈ Abp. Alors pour tout i, j ≤ m

et δ ≥ 0, on a 1. Φi

p(z + δej) ≤ Φip(z) (monotone décroissant)

2. Φi

p(z + δej) ≤ Φip(z) + δ∂zjΦip(z + δej) (convexité)

où ej est le vecteur ayant 1 à la j-ème composante et 0 ailleurs.

Avant de débuter la démonstration du lemme, remarquons que la deuxième propriété est eectivement équivalente à la convexité. Par dénition, une fonction continûment dérivable f est convexe sur un intervalle [a, b] si pour tout x, y ∈ [a, b], on a

f (x) ≥ f (y) + f0(y)(x − y). Or, en appliquant le changement de variables y = x + δ, on obtient

f (x) ≥ f (x + δ) + f0(x + δ)(x − x − δ) f (x) + δf0(x + δ) ≥ f (x + δ), ce qui est exactement la seconde propriété.

(46)

Démonstration. (Cas i = j) Considérons la restriction qz,i(zi) = r Y k=1 (zi− λk)

dénie un peu plus haut. Puisque z ∈ Abp, on a que zi > λk pour tout k. Si ce n'était pas le

cas, alors qz,i(zi)pourrait être négatif ou nul, ce qui viendrait en contradiction avec z ∈ Abp.

1. Puisque δei > 0, on a Φip(z + δei) = r X j=1 1 zi+ δ − λj ≤ r X j=1 1 zi− λj = Φip(z).

2. Regardons le développement en série de Taylor. Φip(z) = Φip(z + δei− δei) = Φip(z + δei) − δ∂ziΦip(z + δei) + δ2 2 ∂ 2 ziΦip(z + δei+ θδei).

On remarque que si le dernier terme de la somme, soit δ2 2∂

2

ziΦip(z + δei + θδei), est

supérieur ou égal à 0, on aura exactement que

Φip(z + δei) − δ∂ziΦip(z + δei) ≤ Φip(z) Φip(z + δei) ≤ Φip(z) + δ∂ziΦip(z + δei). Regardons ce terme. δ2 2 ∂ 2 ziΦip(z + δei+ θδei) = δ2 2∂ 2 zi r X j=1 1 zi+ δei+ θδei− λj .

Étant donné que la constante devant est toujours positive et que la dérivée se distribue sur chacun des termes de la somme, on peut simplement regarder

zi2  1 zi+ δei+ θδei− λj  = 2 (zi+ δei+ θδei− λj)3 > 0,

puisque zi > λj. Par conséquent, le dernier terme du développement est positif, ce qui

nous donne le résultat.

(Cas i 6= j) Tout d'abord, xons les variables sauf zi et zj. On obtient alors un polynôme à

deux variables réellement stable que l'on notera

qz,ij(zi, zj) := p(z1, . . . , zm).

Par le lemme3.4.8, il existe des matrices semi-dénies positives Bi, Bj ainsi qu'une matrice

hermitienne C telles que

qz,ij(zi, zj) = ± det(ziBi+ zjBj + C).

(47)

Par le corollaire 3.4.13, on sait que ziBi+ zjBj est dénie positive. Il existe donc un t assez

grand tel que t(Bi+ Bj) + C est également dénie positive. On a

det(tBi+ tBj+ C) > 0

Si on prend t > max{z1, z2}, alors l'inégalité fonctionne encore et qz,ij(t, t) sera positif. Ceci

signie que le signe devant le déterminant de qz,ij(zi, zj) sera lui aussi positif. On peut

main-tenant réécrire la fonction barrière. Φip(z) = ∂zidet(ziBi+ zjBj+ C) det(ziBi+ zjBj+ C) = Tr (ziBi+ zjBj+ C) −1B i det(ziBi+ zjBj+ C) det(ziBi+ zjBj+ C) Théorème 3.2.11 = Tr (ziBi+ zjBj + C)−1Bi .

Pour simplier la notation, posons M := ziBi+ zjBj+ C. Comme z ∈ Abp et Bi+ Bj est

dénie positive, M est dénie positive. En eet, puisque Bi+ Bj est dénie positive, on sait

que (Bi+ Bj)− 1

2 l'est aussi. Si M est dénie positive, alors (Bi+ Bj) −1

2 M (Bi + Bj) −1

2 est

également dénie positive. C'est équivalent à dire que pour tout t ≥ 0 det  (Bi+ Bj) −1 2 M (Bi+ Bj) −1 2 + tI  6= 0 det  (Bi+ Bj) −1 2 (M (Bi+ Bj) −1 2 + t(Bi+ Bj) 1 2)  6= 0 det  (Bi+ Bj) −1 2 (M + t(Bi+ Bj))(Bi+ Bj) −1 2  6= 0 det((Bi+ Bj) −1 2 ) det(M + t(Bi+ Bj)) det((Bi+ Bj) −1 2 ) 6= 0.

Mais on sait que det((Bi+ Bj) −1

2 ) 6= 0. Ainsi, il faudrait que

det(M + t(Bi+ Bj)) 6= 0.

Supposons le contraire et qu'il existe t ≥ 0 tel que det(M + t(Bi + Bj)) = 0. Or, puisque

z ∈ Abp, alors

det(M + t(Bi+ Bj)) = det((zi+ t)Bi+ (zj+ t)Bj + C) = qz,ij(zi+ t, zj+ t) > 0,

une contradiction. On peut conclure que M est dénie positive. Revenons à la fonction barrière

Φip(z) = Tr M−1Bi .

Maintenant que M est dénie positive, on sait que M1

2 existe et qu'elle est dénie positive.

On peut écrire Φip(z + δej) = Tr (M + δBj)−1Bi  = TrM−12 (I + δM −1 2 BjM −1 2 )−1M −1 2 Bi 

(48)

On peut développer (I + X)−1 en série et remplacer X = δM−12 B jM −1 2 par la suite. On obtient Φip(z + δej) = T r  I − δM−12 BjM −1 2 + δ2(M −1 2 BjM −1 2 )2+ O(δ3)  M−12 BiM −1 2 

Étant donné que M−1 2 BiM −1 2 et M −1 2 BjM −1

2 sont semi-dénies positives, on a en permanence

que 1. −δM−12 BjM −1 2 ≤ 0. 2. δ2(M−12 B jM −1 2 )2 ≥ 0.

Ainsi, la dérivée première est toujours négative et la dérivée seconde est toujours positive. On a donc la monotonie décroissante et la convexité.

On a introduit la fonction barrière an de regarder la relation entre l'ensemble des points Abp

et ceux de Abp−∂zip. En particulier, la propriété de monotonie implique le résultat suivant.

Lemme 3.6.5. Soit p(z1, . . . , zm) un polynôme réellement stable avec z ∈ Abp et supposons

que Φi

p< 1. Alors z ∈ Abp−∂zip.

Démonstration. Soit t un vecteur non-négatif. Par la propriété 1 du lemme3.6.4, pour δ > 0, on a

Φip(z + δej) ≤ Φip(z) ∀i, j.

Puisque Φi

p(z) < 1, on a aussi que Φip(z + t) < 1. Ainsi,

Φip(z + t) = ∂zip(z + t) p(z + t) < 1. On obtient

∂zip(z + t) < p(z + t)

(p − ∂zip)(z + t) = p(z + t) − ∂zip(z + t) > 0

et ce, pour tout t ≥ 0. Ceci entraîne que z ∈ Abp−∂zip.

Le lemme3.6.5 nous permet de prouver simplement qu'un vecteur est dans Abp−∂zip.

Cepen-dant, ce lemme n'est pas assez puissant pour être utilisé dans une induction car la fonction barrière peut augmenter à chaque opérateur (1 − ∂zi)qu'on applique.

Pour régler ce problème, on bornera la fonction barrière par 1 − 1

δ pour un certain δ et

on compensera l'eet de chacun des opérateurs (1 − ∂zi) en déplaçant la borne supérieure de

zéro dans la direction ei. La propriété de convexité nous permet d'émettre le lemme suivant.

(49)

Lemme 3.6.6. Soit p(z1, . . . , zm) un polynôme réellement stable avec z ∈ Abp et δ > 0

satisfaisant

Φjp(z) + 1 δ ≤ 1. Alors, pour tout i, on a

Φip−∂

zjp(z + δej) ≤ Φ i p(z).

Démonstration. Sans perdre de généralité, posons j = 1. Notre but est d'écrire Φi

p−∂z1p en

fonction de Φi

p et de Φ1p pour être par la suite en mesure d'utiliser la convexité. Mais d'abord,

remarquons l'identité suivante. ∂z1Φip = ∂z1  ∂zip p  = (∂z1∂zip)p − (∂z1p)(∂zip) p2 . (3.3) Avec ceci, on a Φip−∂ z1p = ∂zip − ∂zi∂z1p p − ∂z1p = (∂zip)p − (∂zi∂z1p)p p2− (∂ z1p)p = (∂zip)p − (∂zi∂z1p)p + (∂zip)(∂z1p) − (∂zip)(∂z1p) p2− (∂ z1p)p = (∂zip)(∂z1p) − (∂zi∂z1p)p p2− (∂ z1p)p +(∂zip)p − (∂zip)(∂z1p) p2− (∂ z1p)p = (∂zip)(∂z1p) − (∂zi∂z1p)p p2− (∂ z1p)p +(∂zip)(p − (∂z1p)) p(p − (∂z1p)) = (∂zip)(∂z1p) − (∂zi∂z1p)p p2(1 −(∂z1p) p ) +(∂zip) p = −∂z1Φ i p 1 − Φ1 p + Φip par (3.3). Notre but est de montrer que

Φip−∂

z1p(z + δe1) ≤ Φ i p(z).

Or, ceci est équivalent à

Φip(z + δe1) − ∂z1Φip(z + δe1) 1 − Φ1 p(z + δe1) ≤ Φip(z) −∂z1Φ i p(z + δe1) 1 − Φ1 p(z + δe1) ≤ Φip− (z)Φip(z + δe1).

Par la propriété de convexité du lemme 3.6.4, on a

Références

Documents relatifs

Dans la quatrième section, nous démontrerons également une majoration du nombre de racines réelles d'un polynôme quelconque à coefficients comple- xes, qui s'avère meilleure que

La fonction m

La fonction m

Les deux courbes indiquent les limites basses et hautes de l'évolution du poids d'un enfant : sa courbe de poids doit a priori se situer entre ces deux courbesh.

Les deux courbes indiquent les limites basses et hautes de l'évolution du poids d'un enfant : sa courbe de poids doit a priori se situer entre ces deux courbesh.

Exprimer, en fonction de x , le volume que peuvent occuper les bonbons dans la boîte.. Dans la pratique, x est compris entre 0,5

1 Pour chacune des questions suivantes, trois réponses sont proposées, une seule est exacte.. Pour chaque question, entoure la

1 Pour chacune des questions suivantes, trois réponses sont proposées, une seule est exacte.. Pour chaque question, entoure la