La conjecture de Kadison-Singer
Mémoire Sarah Desmeules Maîtrise en mathématiques Maître ès sciences (M.Sc.) Québec, Canada © Sarah Desmeules, 2015Résumé
La conjecture de Kadison-Singer traitant de l'existence et de l'unicité d'extension d'état pur de la C*-algèbre des opérateurs diagonaux dans B(H) sur B(H) fut émise en 1959 par Kadison et Singer. Il faut attendre jusqu'en 2013 pour que l'une de ses équivalences soit nalement résolue. La première partie de ce mémoire étudie le lien entre la conjecture et le résultat prouvé via deux autres équivalences. La seconde partie traite en profondeur de la preuve du résultat en passant par plusieurs concepts, tels que les familles entrelacées, la notion de stabilité et le polynôme caractéristique mixte. Enn, la dernière partie porte sur une équivalence particulière, soit la conjecture de Feichtinger.
Table des matières
Résumé iii
Table des matières v
Remerciements vii Notation ix 1 Introduction 1 2 La conjecture de Kadison-Singer 3 2.1 Conjecture de Weaver . . . 3 2.2 Problème de pavage . . . 4
2.3 Conjecture d'Akemann et Anderson . . . 5
2.4 Équivalence entre Kadison-Singer et Weaver . . . 6
3 Démonstration de la conjecture 11 3.1 Théorème principal . . . 11
3.2 Algèbre linéaire . . . 14
3.3 Familles entrelacées. . . 21
3.4 Polynôme stable . . . 24
3.5 Polynôme caractéristique mixte . . . 30
3.6 Fonction barrière et borne supérieure . . . 34
4 La conjecture de Feichtinger 45 4.1 Préliminaire . . . 45 4.2 Feichtinger et BT faible . . . 46 4.3 BT faible et Kadison-Singer . . . 49 Conclusion 53 Bibliographie 55
Remerciements
Tout d'abord, j'aimerais remercie mon superviseur le professeur Thomas Ransford, pour toute l'aide, la disponibilité et le soutien qu'il m'a oert, autant au niveau nancier qu'au niveau académique. Ses conseils et son expérience m'ont beaucoup appris et aidé au cours de mon cheminement.
Je voudrais également remercier les professeurs du département qui m'ont permis de com-pléter ma formation au niveau du baccalauréat lors de mon arrivée à l'Université Laval ainsi qu'au niveau de la maîtrise. Merci en particulier au professeur Robert Guénette qui m'a guidé lors de mon arrivée à l'Université Laval.
Merci à Emmanuelle Reny-Nolin pour m'avoir permis de travailler au CDA ainsi qu'à Saïd El Morchid pour me permettre d'être auxiliaire d'enseignement tout en me guidant. Ces expé-riences ont été pour moi à la fois grandement enrichissantes et très amusantes.
Ce mémoire n'aurait pas été possible sans le soutien permanent de ma famille. Merci à ma mère, Carole, à ma marraine, Lucie et à ma grand-mère, Marie, qui m'appellent chaque jour, s'assurant à chaque fois que je ne manque de rien tout en me soutiennent dans mes études. Merci à mon parrain, Michel, ainsi qu'à Renaud, pour leur disponibilité et leur présence. Un merci particulier à Christian, qui non seulement me remonte le moral et m'aide à traverser les épreuves, mais qui m'aide également dans la rédaction de ce mémoire en m'inspirant et en corrigeant mes erreurs.
Enn, merci à tous mes amis qui m'ont encouragé et avec qui, j'ai eu tant de beaux mo-ments.
Notation
Tout au long du document, l'ensemble des nombres réels est noté R, tandis que celui des nombres complexes est noté C. L'espace Rn correspond à l'espace R × · · · × R de dimension
n. Aussi, C[z1, . . . , zm]est l'ensemble des polynômes à m variables ayant des coecients
com-plexes. Soit p(z1, . . . , zm) un polynôme à plusieurs variables. L'opérateur de dérivée partielle
par rapport à la variable zi est noté ∂zi.
On écrit H pour désigner un espace de Hilbert et on note B(H) l'ensemble des opérateurs linéaires bornés sur H. La base canonique orthonormée est notée {e1, . . . , en}. On écrit I pour
l'opérateur identité. Lorsque la taille est ambiguë, on note Ikpour la matrice identité de taille
k.
Soit m ∈ N. On note [m] := {1, 2, ..., m} l'ensemble des entiers plus petits ou égaux à m. On écrit [m]
k
pour l'ensemble des sous-ensembles de [m] ayant k éléments.
Soit z0 un point quelconque dans Cd et p > 0. La boule de centre z0 et de rayon p s'écrit
comme B(z0, p). La boule pointée est noté ˚B(z0, p)alors que la fermeture de la boule est noté
B(z0, p). Enn, la frontière de la boule s'écrit ∂B(z0, p).
Soient z1, . . . , zm et S ⊂ [m]. Pour simplier la notation, on écrit zS:=Qi∈Szi.
Pour un vecteur x arbitraire, la norme kxk correspond à la norme euclidienne traditionnelle. Pour une matrice A, sa norme matricielle sera kAk := maxkxk=1kAxk. Par convention, AT est
sa transposée et A−1 est son inverse.
Soit u ∈ Cd un vecteur colonne. On a u∗ = uT, soit le conjugué du vecteur transposé u.
Si u1, . . . , udsont des vecteurs colonnes, on note
X i uiu∗i = X i ui1ui1 . . . ui1uid ... ... ... uidui1 . . . uiduid .
Finalement, P dénote la probabilité d'un certain événement et E l'espérance d'une certaine variable aléatoire.
Chapitre 1
Introduction
Soit H un espace de Hilbert et B(H) l'ensemble des opérateurs linéaires bornés sur H. Une C*-algèbre est une sous-algèbre A de B(H) fermée pour la norme topologique telle que
si A, B ∈ A alors AB, A∗ ∈ A.
Ici, l'opérateur ∗ : B(H) → B(H) est l'opérateur adjoint déni par hAv, wi = hv, A∗wi,
pour tout v, w ∈ H [21].
Un état d'une C*-algèbre est une fonctionnelle linéaire f telle qu'on a f(I) = 1 et f(T ) ≥ 0 pour tout opérateur T positif. L'ensemble des états d'une C*-algèbre est convexe et il est généré par ses points extrêmaux. On appelle ces points extrêmaux des états purs [10]. En 1959, Kadison et Singer ont publié un document traitant des états purs sur des C*-algèbres dans lequel ils posent la conjecture suivante [11].
Conjecture 1.0.1 (Kadison-Singer). Tous les états purs de la C*-sous-algèbre des opérateurs diagonaux dans B(H) ont une extension d'état unique sur B(H).
Le problème apporté par Kadison et Singer fut, pendant plusieurs années, une question ouverte en théorie des opérateurs. L'intérêt de ce problème venait de ces nombreuses équivalences. En eet, la conjecture de Kadison-Singer est connue pour être équivalente à la conjecture de Weaver [20], la conjecture d'Akemann et Anderson [1], le problème de pavage [11], la R
-conjecture [7], la conjecture de Bourgain-Tzafriri [7], la conjecture de Feichtinger [6], et bien d'autres. Mais alors que tous croyaient que la conjecture était fausse, celle-ci se révéla vraie après près de 55 ans. On doit cette solution aux chercheurs Adam Marcus, Daniel A. Spielman et Nikhil Srivastava [14].
Le présent mémoire a pour but d'étudier cette conjecture. On présente d'abord au chapitre 2 le lien entre l'énoncé de la conjecture et la conjecture équivalente qui a été prouvée, soit la conjecture de Weaver. Ce lien passe par deux autres résultats équivalents, soit le problème de pavage et la conjecture d'Akemann et Anderson. Le survol rapide de ces deux résultats sera suivi d'une démonstration plus rigoureuse montrant l'équivalence de la conjecture de Weaver. Le chapitre 3 est consacré à l'étude de la démonstration de la conjecture de Weaver que l'on doit à Marcus, Spielman et Srivastava. D'abord, on explique le lien entre la conjecture de Weaver et le théorème prouvé dans leur article. Après un bref rappel sur des résultats classiques de l'algèbre linéaire, on débute avec le concept de familles entrelacées. Ces familles ont des propriétés particulières, dont la propriété qu'elles contiennent au moins un polynôme dont la plus grande racine est au plus la plus grande racine de la somme des polynômes de la famille. En utilisant la notion de stabilité et ce qu'on appellera le polynôme caractéristique mixte, on réussit à montrer que les polynômes caractéristiques des matrices qui apparaissent dans notre résultat forment une famille entrelacée. Enn, en bornant les racines du polynôme caractéristique grâce à une fonction particulière que l'on appellera barrière, il sera enn pos-sible de montrer le résultat voulu.
Enn, le chapitre 4 porte sur la conjecture de Feichtinger qui, malgré les apparences, est liée à la conjecture de Kadison-Singer. Après une courte introduction expliquant les notions nécessaires, on débute la preuve en démontrant la relation d'équivalence entre la conjecture de Feichtinger et celle de Bourgain-Tzafriri. On regarde ensuite le lien de cette dernière avec celle de Kadison-Singer.
Chapitre 2
La conjecture de Kadison-Singer
2.1 Conjecture de Weaver
La démonstration de Marcus, Spielman et Srivastava prouve la véracité de la conjecture de Kadison-Singer via une équivalence : la conjecture de Weaver [20]. L'énoncé de cette conjecture est le suivant :
Conjecture 2.1.1 (Weaver (ou KSr)). Pour tout nombre naturel r ≥ 2, il existe des constantes η ≥ 2 et θ > 0 telles que l'énoncé suivant est vrai. Soient w1, . . . , wm ∈ Cd avec kwik ≤ 1 ∀i
respectant l'hypothèse
m
X
i=1
|hu, wii|2 = η,
et ce pour chaque vecteur unitaire u ∈ Cd. Alors il existe une partition S
1, S2, . . . , Sr de
{1, . . . , m} telle que
X
i∈Sj
|hu, wii|2≤ η − θ
pour chaque vecteur unitaire u ∈ Cd et pour j ∈ {1, 2, . . . , r}.
Dans l'article de Weaver, la conjecture 2.1.1 avait comme hypothèse que Pn
i=1|hu, wii|2 ≤ η.
Cependant, le théorème 2 de [20] nous permet de poser θ = 1 et\ou Pn
i=1|hu, wii|2 = η sans
changer la relation d'équivalence avec la conjecture de Kadison-Singer. Pour nous simplier les choses, on pose directement l'hypothèse Pn
i=1|hu, wii|2 = η.
Le cas où le nombre de sous-ensembles dans la partition est égal à deux est un cas spé-cial qui est équivalent à la conjecture de Weaver KSr. En eet, si pour tout r ≥ 2, il existe des constantes telles que la conjecture2.1.1 est vraie, c'est vrai dans le cas où r = 2. Inversément, si l'énoncé est vrai pour r = 2, alors on peut facilement séparer la partition en plus de deux sous-ensembles et conserver la même conclusion avec les mêmes constantes. On notera KS2 pour le cas où r = 2. Ce sera le cas utilisé tout au long de la démonstration du chapitre 3.
Ce chapitre est dédié à l'étude de l'équivalence entre les deux conjectures. Deux résultats équivalents à la conjecture sont nécessaires pour la démonstration, soit le problème de pavage [11] et la conjecture de Akemann et Anderson [1]. Ces deux résultats ne seront que briève-ment survolés. On regardera par la suite la démonstration de la relation entre la conjecture de Weaver et celle de Kadison-Singer. La première partie de la démonstration montrera que la conjecture de Weaver dans le cas particulier où r = 2, soit KS2, entraîne celle d'Akemann et Anderson. La seconde partie, quant à elle, prouvera que le problème de pavage entraîne la conjecture de Weaver2.1.1.
2.2 Problème de pavage
Débutons cette section en énonçant le problème de pavage.
Conjecture 2.2.1 (Problème de pavage). Pour tout > 0, il existe un entier naturel r > 0 tel que pour toute matrice n × n complexe A avec une diagonale nulle, il existe des projections diagonales n × n Q1, . . . , Qr (i.e. un pavage), telles que
r
X
i=1
Qi = 1 et kQjAQjk ≤ kAk ∀j.
La conclusion du problème de pavage correspond à la dénition de compressibilité que l'on retrouve dans l'article de B. Tanbay ( [18], proposition 1.1).
Proposition 2.2.2. Un opérateur T est compressible si et seulement si pour chaque > 0, il existe une partition nie de N dans S1, . . . , Sn telle que pour tout i ≤ n,
kPSi(T − DT)PSik < ,
où DT correspond à la diagonale de T et PSi correspond à la projection orthogonale sur l'espace
engendré par {en: n ∈ Si}.
Le théorème 2.3 de [18] arme ensuite qu'une certaine C*-algèbre M dénie dans l'article de Tanbay et contenant la C*-algèbre des opérateurs diagonaux est compressible dans B(H). Or, J. Anderson a prouvé l'équivalence entre la compressibilité et l'unicité de l'extension de chaque état pur de la C*-sous-algèbre des opérateurs diagonaux dans B(H) sur B(H) [2]. Le résultat suivant correspond à la première partie du théorème 3.6. Notons ici que A0 et A sont
des C*-algèbres et que A0⊂ A.
Théorème 2.2.3. Si A0 est une sous-algèbre maximale abélienne de A, alors tous les états
purs de A0 ont une unique extension d'état pur dans A si et seulement si A est compressible.
Étant donné qu'il y a une équivalence unitaire entre une sous-algèbre maximale abélienne discrète de B(H) et la C*-algèbre des opérateurs diagonaux dans B(H) en respectant la base xée [18], il sut de poser A0 et A comme étant respectivement la C*-algèbre des opérateurs
diagonaux dans B(H) et M pour appliquer directement le théorème. Ainsi, le problème de pavage 2.2.1 est équivalent à la conjecture de Kadison-Singer1.0.1.
2.3 Conjecture d'Akemann et Anderson
Tout comme la section précédente, débutons en énonçant la conjecture d'Akemann et Anderson que l'on retrouve dans le chapitre 7 de [1].
Conjecture 2.3.1 (Akemann et Anderson). Il existe , δ > 0 tels que pour toute projection orthogonale complexe n × n P avec
max
i≤n Pi,i ≤ δ,
où Pi,j représente l'élément de la matrice situé à la i-ème ligne et à la j-ème colonne, il existe
une projection diagonale Q telle que
kQP Qk ≤ 1 − , k(I − Q)P (I − Q)k ≤ 1 − .
On se rappelle qu'une projection diagonale est une matrice ayant 1 ou 0 sur la diagonale et 0 ailleurs tandis qu'une projection orthogonale est une matrice n × n complexe P telle que P2 = P∗ = I
n. La démonstration un peu longue de l'équivalence avec la conjecture de
Kadison-Singer se fait au début du chapitre 7 de [1].
Plus récemment, Weaver a montré qu'un résultat un peu plus faible que cette conjecture est équivalent à Kadison-Singer [20].
Conjecture 2.3.2. Il existe des constantes universelles δ > 0, < 1 et r ∈ R telles que pour tout n et toute projection orthogonale P sur ln
2 avec
max
i≤n Pi,i ≤ δ,
il existe un pavage {Qj}rj=1 de {1, 2, . . . , n} tel que
kQjP Qjk ≤ 1 − ∀j ∈ {1, 2, . . . , r}.
On remarque assez facilement que la conjecture d'Akemann et Anderson 2.3.1 est un cas spécique de la conjecture 2.3.2. La démonstration de la correspondance avec Kadison-Singer se fait à la n de la première étape de la démonstration du théorème 1 de [20], en utilisant la notion d'ultraltre que l'on n'abordera pas.
2.4 Équivalence entre Kadison-Singer et Weaver
Voici la démonstration de l'équivalence entre les deux conjectures que l'on retrouve dans l'article de Weaver [20].
Théorème 2.4.1. La conjecture de Kadison-Singer 1.0.1 a une solution positive si et seule-ment si la conjecture de Weaver KSr2.1.1 est vraie pour certains r ≥ 2.
Démonstration. (⇐) Étant donné que la conjecture avec r = 2, soit KS2, est équivalente à la conjecture de départ, on l'utilisera pour simplier la preuve. Supposons donc la conjecture KS2 vraie pour certaines valeurs de η et θ. Soit P une projection orthogonale complexe n × n avec
max
i≤n Pi,i≤
1 η.
Si P a un rang k, alors son image est un sous-espace à k-dimensions W ⊂ Cn. On dénit
wi =
√
ηP ei. On observe que pour tout i,
kwik2 = η · kP eik2 = η · hP ei, eii ≤ η · max
i≤n Pi,i≤ 1.
De plus, pour un vecteur unitaire u ∈ W , on a X i |hu, wii|2=X i |hu,√ηP eii|2 = η X i |hu, eii|2 = η.
Si par hypothèse, la conjecture est vraie, alors il existe une partition S1, S2 de {1, . . . , n} telle
que
X
i∈Sj
|hu, wii|2≤ η − θ
pour tout j ∈ {1, 2} et pour chaque vecteur unitaire u ∈ V . Pour j ∈ {1, 2} et 1 ≤ i ≤ n, soient Qj les projections diagonales n × n dénies par
Qjej = ( ej si i ∈ Sj 0 si i /∈ Sj. Alors, on obtient kQjP uk2=X i |hQjP u, eii|2 =X i |hu, P Qjeii|2 = 1 η X i∈Sj |hu, wii|2 ≤ 1 η(η − θ) ≤ 1 − θ η. 6
Puisque c'est vrai pour tout vecteur u ∈ V unitaire, c'est vrai en particulier pour le suprémum et donc
kQjP k2≤ 1 − θ η. Or, kQjP k2 = kQjP Qjk, ce qui entraîne
kQjP Qjk ≤ 1 −
θ η.
Puisque Q1 = I − Q2 et vice versa, la conjecture de Weaver KS2 entraîne la conjecture
d'Ake-mann et Anderson. Étant donné que cette dernière engendre la conjecture de Kadison-Singer, on obtient que la conjecture de Weaver KS2 implique celle de Kadison-Singer.
(⇒) On procède par contraposée. Supposons que la conjecture 2.1.1 est fausse pour tout r. Fixons N = r ≥ 2 avec θ = 1 et prenons w1, . . . , wn ∈ Ck satisfaisant les hypothèses de la
conjecture. Soit vi = √wiη. On remarque que si Aw : Ck → Ck est l'opérateur de rang 1 déni
par Aw: u 7→ hu, wiw, alors on a
kAvik = kvik2 ≤ 1 η et n X i=1 Avi ≤ Ik.
On a donc que (Ik−Pni=1Avi) est un opérateur positif de rang ni. Il est possible de trouver
des opérateurs de rang 1 notés Avj où n + 1 ≤ j ≤ m tels que
kAvjk ≤ 1 η et m X i=1 Avi = Ik.
Dénissons maintenant un plongement Φ : Ck → Cm par
Φ(u) := m X i=1 hu, viiei. Pour chaque u ∈ Ck, on a kΦuk2 = m X i=1 |hΦu, eii|2 = m X i=1 |hu, vii|2 = m X i=1 hAviu, ui = kuk2,
et donc Φ est une isométrie. Soit P la projection orthogonale dans Cn+m avec comme image
Φ(Ck). Alors
hP ei, Φvji = hei, Φvji = hvi, vji = hΦvi, Φvji,
Soit D la matrice diagonale avec la même diagonale que P (i.e. Di,i = Pi,i). Alors kDk = max kxk=1kDxk = maxi hP ei, eii = max i hΦvi, eii = maxi hvi, vii = max i kvik 2≤ 1 η.
Soient Q1, . . . , Qr des projections diagonales m × m telles que r
X
i=1
Qi = I.
On dénit une partition S1, . . . , Sr de {1, . . . , m} telle que i ∈ Sj uniquement si l'élément de
la i-ème colonne et i-ème ligne de Qj n'est pas nul.
Étant donné notre choix de wi de départ, on déduit qu'il existe un j ∈ {1, . . . , r} et un
u ∈ Ck avec kuk = 1 tels que
X i∈Sj∩{1,...,n} |hu, wii|2 > η − 1. Il suit que kQjP (Φu)k2≥ m X i=1 |hQjP (Φu), eii|2 = X i∈Xj |hΦu, eii|2 = X i∈Xj |hu, vii|2 > 1 − 1 η car vi= wi √ η. Or, kQjP Qjk = kQjP k2 > 1 −1η.
Remarquons enn que A := P − D a des zéros sur sa diagonale et satisfait l'inégalité kAk ≤ 1 +1
η.
Pour des projections diagonales m × m Q1, . . . , Qr, avec leur somme égale à l'identité, on a
pour certains j
kQjAQjk ≥ kQjP Qjk − kQjDQjk > 1 −
2 N.
Lorsque N = r → ∞, on obtient une suite d'exemples qui contredit le problème de pavage. Ainsi, si la conjecture de Weaver KSr2.1.1est fausse, alors le problème de pavage2.2.1est faux.
Ceci signie que lorsqu'on a une réponse positive au problème de pavage, on a également une réponse positive à la conjecture de Weaver. Enn, puisque le problème de pavage est équivalent à la conjecture de Kadison-Singer, cela signie que Kadison-Singer implique la conjecture de Weaver.
Chapitre 3
Démonstration de la conjecture
3.1 Théorème principal
Ce chapitre sera consacré à l'étude de la preuve de la conjecture de Weaver 2.1.1 dans le cas où r = 2. Celle-ci a été démontrée par Marcus, Spielman et Srivastava dans leur article [14] grâce à l'analyse de la plus grande racine d'une famille particulière de polynômes que l'on appellera les polynômes caractéristiques mixtes. Les auteurs n'ont pas prouvé directement la conjecture, mais plutôt un résultat équivalent. Voici son énoncé.
Théorème 3.1.1. Soient > 0 et v1, . . . , vm des vecteurs aléatoires indépendants dans Cd à
support ni tels que
m X i=1 Evivi∗ = Id et Ekvik2 ≤ , ∀i. Alors P " m X i=1 vivi∗ ≤ (1 +√)2 # > 0.
Le corollaire qui suit permet de faire le lien entre le théorème précédent et la conjecture de Weaver.
Corollaire 3.1.2. Soient u1, . . . , um des vecteurs colonnes dans Cd tels que m
X
i=1
uiu∗i = I et kuik2 ≤ α ∀i.
Alors il existe une partition de {1, . . . , m} séparée en deux ensembles S1 et S2 telle que
X i∈Sj uiu∗i ≤ (1 + √ 2α)2 2 , pour j ∈ {1, 2}.
Démonstration. Soient v1, . . . , vm des vecteurs aléatoires indépendants tels que P " vi= √ 2ui 0d !# = 1 2 P " vi= 0d √ 2ui !# = 1 2, où 0d est le vecteur nul de Cd. Alors on a
Eviv∗i = 1 2 2uiu∗i 0 0 0 ! + 1 2 0 0 0 2uiu∗i ! = uiu ∗ i 0 0 uiu∗i ! , avec kvik2= 2kuik2 ≤ 2α. De plus, ceci entraîne que
m X i=1 Evivi∗ = m X i=1 uiu∗i 0 0 uiu∗i ! = I.
On peut désormais appliquer le théorème3.1.1 avec = 2α. Ainsi, pour certaines valeurs de vivi∗, on a m X i=1 vivi∗ ≤ (1 +√)2. Posons donc T ⊆ {1, . . . , m} tel que
X i∈T √ 2ui 0d ! √ 2ui 0d !∗ +X i6∈T 0d √ 2ui ! 0d √ 2ui !∗ ≤ (1 +√)2 X i∈T ui 0d ! ui 0d !∗ +X i6∈T 0d ui ! 0d ui !∗ ≤ (1 + √ )2 2 . Cela implique que
X i∈T uiu∗i = X i∈T ui 0d ! ui 0d !∗ ≤ (1 + √ )2 2 X i6∈T uiu∗i = X i6∈T 0d ui ! 0d ui !∗ ≤ (1 + √ )2 2
et les ensembles S1 et S2 sont dénis respectivement par T et {1, . . . , m} \ T .
Par exemple, posons α = 1
18. Alors le corollaire3.1.2 nous dit qu'il existe une partition S1 et
S2 de {1, . . . , m} telle que X i∈Sj uiu∗i ≤ (1 + q 2 18) 2 2 = (1 + 13)2 2 = 16 18. Posons ui = √wiη. On obtient kwik2 η ≤ α. 12
Pour respecter l'hypothèse sur la norme des wi de la conjecture de Weaver 2.1.1 dans le cas
où r = 2, il faut nécessairement que α = 1
η. On a donc que η = 18. De plus, si on suppose que m
X
i=1
|hv, wii|2= η,
alors la condition deviendra
m
X
i=1
|hv, uii|2= 1.
Cette égalité est vraie pour tout v ∈ Cd tel que kvk = 1. En particulier, si on prend v i le
vecteur ayant 1 à la i-ème position et 0 ailleurs, on obtient
m
X
j=1
(uj)2i = 1.
Si on prend cette fois-ci le vecteur vi,k ayant √12 à la i-ème et à la k-ème position avec des 0
ailleurs, on a donc 1 2 m X j=1 (uj)2i + 1 2 m X j=1 (uj)2k+ 1 2 m X j=1 (uj)i(uj)k= 1 1 2 + 1 2+ 1 2 m X j=1 (uj)i(uj)k = 1.
Ceci entraîne que 1 2
Pm
j=1(uj)i(uj)k= 0pour tous les i, k ∈ {1, . . . , m}, i 6= k. On peut répéter
l'argument par induction pour obtenir que
m
X
i=1
uiu∗i = I.
Ainsi, la condition de la conjecture de Weaver est équivalente à l'hypothèse du corollaire. De plus, si le corollaire est respecté, on aura
X i∈Sj uiu∗i ≤ 16 18 X i∈Sj wi √ η wi √ η ≤ 16 18 X i∈Sj wiw∗i ≤ 16.
Aussi, on sait que X i |hv, wii|2=X i v∗w iw∗iv =X i v∗wiw∗iv = v∗(X i wiwi∗)v.
Avec cela, on peut déduire que pour tout vecteur v tel que kvk = 1, on a v∗(X i wiw∗i)v ≤ X i∈Sj wiwi∗ , ce qui entraîne m X i=1 |hv, wii|2 ≤ 16 et donc θ = 2.
Cet exemple démontre bien la relation avec la conjecture de Weaver KS2 dans le cas par-ticulier où η = 18 et θ = 2.
3.2 Algèbre linéaire
La démonstration du théorème 3.1.1 se fait en utilisant plusieurs notions d'algèbre linéaire. Cette section sera donc un rappel de ces notions qui seront par la suite utilisées.
Dénition 3.2.1. Soit A une matrice carrée d × d. Les mineurs k × k de A sont les déter-minants de ses sous-matrices k × k. Les mineurs principaux k × k de A sont les mineurs obtenus en retirant les lignes et les colonnes ayant les mêmes indices.
On notera Mi,j le mineur (d − 1) × (d − 1) où l'on a retiré la i-ème ligne et la j-ème colonne.
Les deux dénitions qui suivent sont des résultats classiques de calcul du déterminant que l'on retrouve un peu partout, par exemple dans [9] et [13].
Dénition 3.2.2 (Laplace). Soit A une matrice d × d. Alors det(A) =
d
X
j=1
(−1)i+jai,jMi,j.
Dénition 3.2.3 (Leibniz). Soit A une matrice carrée d × d. Alors det(A) = X σ∈Pd ε(σ) n Y i=1 aσ(i),i, 14
où Pd est l'ensemble des permutations de {1, . . . , d} et ε(σ) égale 1 si la permutation est paire
et −1 si elle est impaire.
Regardons à présent quelques caractéristiques des matrices.
Dénition 3.2.4. Soit A une matrice carrée d × d. On dit que A est semi-dénie positive si x∗Ax ≥ 0 et ce, pour tout x ∈ Cd. Elle est dénie positive si l'inégalité est stricte pour
tout x 6= 0.
On note ici que pour être semi-dénie positive ou dénie positive, il faut nécessairement que x∗Axsoit réel. Voici quelques propriétés des matrices dénies positives que l'on retrouve dans [9].
1. Chaque matrice dénie positive est inversible et son inverse est aussi dénie positive. 2. Si A est une matrice (resp. semi-)dénie positive, alors il existe une matrice B également
(resp. semi-)dénie positive telle que A = B2.
3. Les valeurs propres d'une matrice dénie positive sont positives. Proposition 3.2.5. La matrice Piuiu
∗
i est semi-dénie positive.
Démonstration. Soit v un vecteur unitaire de Cd. Alors il sut de remarquer que
X i |hv, uii|2= X i v∗uiu∗iv =X i v∗uiu∗iv = v∗(X i uiu∗i)v.
La seconde égalité vient du fait que la somme de modules élevés au carré est toujours réelle. Puisque le membre de gauche est toujours positif, cela entraîne que v∗(P
iuiu ∗
i)v ≥ 0.
Dénition 3.2.6. Soit A une matrice carrée d × d. On dit que A est hermitienne si A est égale au conjugué de sa transposée, c'est-à-dire
ai,j = aj,i ∀i, j.
Notons que les éléments de la diagonale sont nécessairement réels. Les propriétés qui suivent seront importantes dans les résultats à venir.
1. Si A est une matrice hermitienne, alors son inverse A−1 est également une matrice
hermitienne.
3. Si A est une matrice hermitienne, alors x∗Axest toujours réel pour tout vecteur x ∈ Cd.
Proposition 3.2.7. Soit A une matrice semi-dénie positive. Alors A est hermitienne. Démonstration. Considérons les matrices suivantes :
B := A + A ∗ 2 C := A − A∗ 2 . Ainsi, on a A = B + iC x∗Ax = x∗Bx + ix∗Cx. Or, on sait que les matrices B et C sont hermitiennes. En eet,
BT = A + A∗ 2 T = A + A T 2 !T = A T + A 2 ! = A T + A 2 ! = B.
Par les propriétés des matrices hermitiennes, on a que x∗Bx et x∗Cx sont réels pour tout
x ∈ Cd. Par hypothèse, A est semi-dénie positive, ce qui signie que x∗Axest réel pour tout x ∈ Cd. Ceci entraîne que x∗Bx + ix∗Cx est réel. On a donc que C est la matrice nulle et A = B, ce qui prouve que A est hermitienne.
Remarque 3.2.8. La matrice Piuiu∗i est hermitienne.
En eet, par la proposition 3.2.5, la matrice Piuiu ∗
i est semi-dénie positive. Elle est donc
hermitienne.
Soit A ∈ Cd×d une matrice hermitienne. Le polynôme caractéristique de A par rapport à
la variable x sera noté
χ[A](x) = det(xI − A). On peut également écrire
χ[A](x) =
d
X
k=0
xd−k(−1)kσk(A),
où σk(A) est la somme des mineurs principaux de A de taille k × k.
Formule 3.2.9 (Cauchy-Binet). Soient A et B deux matrices respectivement k × n et n × k. Alors
det(AB) = X
S∈([n] k)
det(AS) det(BS),
où AS est la matrice k × k conservant uniquement les colonnes dont l'indice est dans S et BS
est la matrice k × k conservant uniquement les lignes dont l'indice est dans S.
Démonstration. Tout d'abord, si k > n, la somme de droite sera nulle, ce qui entraîne que det(AB) = 0. En eet, dans ce cas, le rang de la matrice AB sera au plus n et donc son déterminant s'annulera. On peut ainsi supposer que k ≤ n.
On note Pkl'ensemble des permutations de {1, . . . , k}. Pour σ ∈ Pk, posons τ la permutation
inverse. Alors det(AB) = det(C1, C2, . . . , Ck) = det( n X j=1 bj,1Aj, n X j=1 bj,2Aj, . . . , n X j=1 bj,kAj) = n X j1,...,jk=1 bj1,1. . . bjk,kdet(Aj1, Aj2, . . . , Ajk),
où les Aj1, . . . , Ajk sont les colonnes de A. On remarque ici que si ji = jlpour certains indices i
et l, alors le det(Aj1, Aj2, . . . , Ajk)s'annulera. De plus, pour une certaine permutation σ ∈ Pk,
on a par les propriétés du déterminant
det(Aj1, Aj2, . . . , Ajk) = ε(σ) det(Ajσ(1), Ajσ(2), . . . , Ajσ(1)). Ainsi, det(AB) = X 1≤j1<···<jk≤n X σ∈Pk bj1,1. . . bjk,kdet(Aj1, Aj2, . . . , Ajk) = X 1≤j1<···<jk≤n X σ∈Pk bj1,1. . . bjk,kε(σ) det(Ajσ(1), Ajσ(2), . . . , Ajσ(k)) = X 1≤j1<···<jk≤n X τ ∈Pk ε(τ )bjτ (σ(1)),1. . . bjτ (σ(k)),kdet(A(Jσ)) = X 1≤j1<···<jk≤n
det(B(Jσ)) det(A(Jσ)) par la formule 3.2.3
= X
S∈([n] k)
det(AS) det(BS).
Corollaire 3.2.10. Soient u1, . . . um et w1. . . wm des vecteurs colonnes dans Cd. Alors
det( m X i=1 uiw∗i) = X S∈([m] d) det(X i∈S uiw∗i).
Démonstration. Il sut de montrer que la matrice Pm i=1uiw
∗
i peut s'écrire comme le produit
de deux matrices. On a m X i=1 uiw∗i = P iui1wi1 . . . P iui1wid ... ... ... P iuidwi1 . . . Piuidwid .
Soit A la matrice d × m et B la matrice m × d donnée par A = u11 . . . um1 ... ... ... u1d . . . umd B = w11 . . . w1d ... ... ... wm1 . . . wmd .
Si on les multiplie ensemble, on obtient u11 . . . um1 ... ... ... u1d . . . umd w11 . . . w1d ... ... ... wm1 . . . wmd = P iui1wi1 . . . Piui1wid ... ... ... P iuidwi1 . . . P iuidwid ,
ce qui est exactement Pm
i=1uiwi∗. En appliquant le théorème 3.2.9 et en utilisant le fait que
det(A) det(B) = det(AB), on obtient le résultat.
Formule 3.2.11 (Jacobi). Soit A une matrice carrée. Alors d dtdet(A) = Tr adj(A)dA dt ,
où adj(A) est la transposée de la matrice C ayant comme composantes, ci,j = (−1)i+jMi,j.
Pour la démonstration de la formule de Jacobi, on a besoin d'un lemme supplémentaire. Lemme 3.2.12. Soient A et B des matrices carrées de dimension n. Alors
X
i
X
j
ai,jbi,j = Tr(ATB).
Démonstration. Les composantes du produit de matrices AB sont (AB)j,k =
X
i
aj,ibi,k,
ce qui nous donne pour ATB
(ATB)j,k = X i ai,jbi,k. On a donc Tr(ATB) =X j (ATB)j,j = X j X i ai,jbi,j = X i X j ai,jbi,j.
La dernière égalité vient du fait que les sommes sont nies.
Démonstration de la formule3.2.11. Tout d'abord, par la formule de Laplace 3.2.2, on a det(A) =X
j
(−1)i+jai,jMi,j
=X
j
ai,j(adjT(A))i,j.
Si on considère det(A) comme une fonction F ayant comme variables les ai,j, on peut appliquer
la règle de dérivation des fonctions composées. d dtdet(A) = X i X j ∂F ∂ai,j d(ai,j) dt . Or ∂F ∂ai,j = ∂ det(A) ∂ai,j = ∂ P
kai,k(adjT(A))i,k
∂ai,j
=X
k
∂ ai,k(adjT(A))i,k
∂ai,j =X k ∂ai,k ∂ai,j
(adjT(A))i,k+
X
k
ai,k
∂(adjT(A))i,k
∂ai,j
.
On se souvient que (adjT(A))
i,k = (−1)i+kMi,k. L'élément ai,j se trouve toujours dans la ligne
supprimée de Mi,k, ce qui entraîne que (adjT(A))i,j n'est pas une fonction de ai,j. Ainsi,
∂(adjT(A))i,k
∂ai,j
= 0. On peut donc réduire notre équation, ce qui nous donne
∂ det(A) ∂ai,j =X k ∂ai,k ∂ai,j
(adjT(A))i,k.
Il est maintenant clair que
∂ai,k ∂ai,j = ( 1 si k = j 0 sinon. Ceci permet d'obtenir
d dtdet(A) = X i X j
(adjT(A))i,j
d(ai,j)
dt . En appliquant le lemme 3.2.12à la partie de droite, on a
d dtdet(A) = Tr adj(A)dA dt .
Proposition 3.2.13. Soient W1, . . . , Wkdes matrices hermitiennes de rang 1 et soient x1, . . . , xk
des scalaires. Alors
σk k X i=1 xiWi ! = k Y i=1 xi ! σk k X i=1 Wi ! .
Démonstration. Si le rang de Pk
i=1xiWiest plus petit que k, alors nécessairement σk
Pk i=1xiWi = 0et σk Pk i=1Wi
= 0. Supposons donc que le rang de la matrice soit égal à k.
Étant donné que les matrices W1, . . . , Wk sont de rang 1, il est possible de prendre le
vec-teur propre de chacune des matrices pour former une base. Ainsi, selon cette base, chaque matrice W1, . . . , Wk sera diagonalisée. Elles seront toutes de la forme
Wj = 0 . . . 0 ... λj ... 0 . . . 0 . Ainsi, on aura σk k X i=1 Wi ! = k Y i λi,
ce qui entraîne que σk k X i=1 xiWi ! = k Y i=1 xiλi = k Y i=1 xi ! σk k X i=1 Wi ! .
Proposition 3.2.14. Soient u1, . . . , um des vecteurs colonnes de Cd. Alors
det xI − m X i=1 uiu∗i ! = d X k=0 xd−k(−1)k X S∈([m] d) σk X i∈S uiu∗i ! .
Démonstration. On remarque que det xI − m X i=1 uiu∗i ! = χ " m X i=1 uiu∗i # (x). On peut ainsi écrire
det xI − m X i=1 uiu∗i ! = d X k=0 xd−k(−1)kσk m X i=1 uiu∗i ! . Donc, il sut de montrer que
σk m X i=1 uiu∗i ! = X S∈([m] k) σk X i∈S uiu∗i ! .
Pour un certain vecteur u et T ⊆ [d] un ensemble, on pose u(T ) le vecteur de dimension |T | contenant les éléments de u dont les indices sont dans T (Par exemple, si T = {1, 2}, alors 20
u(T ) = (u1, u2)). On a σk m X i=1 uiu∗i ! = X T ∈([m] k) det m X i=1 ui(T )ui(T )∗ ! = X T ∈([m] k) X S∈([m] k) det X i∈S ui(T )ui(T )∗ ! par le théorème 3.2.9 = X S∈([m] k) X T ∈([m] k) det X i∈S ui(T )ui(T )∗ ! = X S∈([m] k) σk X i∈S uiu∗i ! .
3.3 Familles entrelacées
La dénition de familles entrelacées de polynômes a été introduite par Marcus, Spielman et Srivastava dans [15].
Dénition 3.3.1. On dit qu'un polynôme à racines et à coecients réels g(x) = α0Qn−1i=1(x −
αi) entrelace un autre polynôme à racines et à coecients réels f(x) = β0Qni=1(x − βi) si
β1 ≤ α1 ≤ β2≤ α2 ≤ · · · ≤ αn−1≤ βn.
On dit que g(x) entrelace strictement f(x) si les inégalités sont strictes. De plus, s'il existe un g(x) qui entrelace fi(x) pour i ∈ {1, . . . , k}, alors on dit que les f1(x), . . . , fk(x) ont un
entrelacement commun.
Dénition 3.3.2. Soient S1, . . . , Sm des ensembles nis et pour chaque s1 ∈ S1, . . . , sm ∈ Sm,
soit fs1,...,sm(x) un polynôme à racines et à coecients réels de degré n dont le coecient
directeur est positif. Pour chaque s1∈ S1, . . . , sk∈ Sk, avec k ≤ m on dénit
fs1,...,sk(x) := X sk+1∈Sk+1,...,sm∈Sm fs1,...,sk,sk+1,...,sm(x) f∅(x) := X s1∈S1,...,sm∈Sm fs1,...,sm(x).
On dit que les polynômes {fs1,...,sm(x)}s1,...,sm forment une famille entrelacée si pour tout
k ∈ {0, . . . , m − 1} et pour tous les s1 ∈ S1, . . . , sk ∈ Sk, les polynômes
{fs1,...,sk,t(x)}t∈Sk+1
Ces nouvelles familles ont des propriétés intéressantes qui entraînent de nouveaux résultats, comme par exemple ceux que l'on retrouve dans les articles [15] et [14]. En voici quelques-uns qui seront utiles pour la suite des choses.
Lemme 3.3.3. Soient f1, . . . , fk des polynômes de même degré à racines et à coecients réels
ayant un coecient directeur positif. On dénit f∅:=
k
X
i=1
fi.
Si f1, . . . , fk ont un entrelacement commun, alors il existe un indice j tel que la plus grande
racine de fj est au plus égale à la plus grande racine de f∅.
Démonstration. Supposons que le degré des polynômes soit égal à n. Posons g(x) le polynôme qui entrelace tous les fi. Les zéros de g seront notés αi et supposons sans perdre de généralité
que la plus grande racine de g soit αn−1. Ainsi, pour chacun des fi, on a
βi1 ≤ α1 ≤ βi2 ≤ α2 ≤ · · · ≤ αn−1 ≤ βin,
où les βij sont les zéros de fi. Puisque les coecients directeurs des fi sont positifs, on aura
donc que les fi > 0 pour tout x > βin. De plus, étant donné que les fi n'ont qu'une seule
racine plus grande que αn−1, cela entraîne que fi(αn−1) ≤ 0 et ce pour tout i.
Ainsi, f∅(αn−1) ≤ 0et le polynôme deviendra positif éventuellement. Posons γnla plus grande
racine de f∅. Puisque f∅ est la somme des fi par dénition, alors il existe un polynôme fj tel
que fj(γn) ≥ 0. On a donc
αn−1 ≤ βjn ≤ γn.
Voici un exemple montrant que sans l'hypothèse d'un entrelacement commun, le lemme ne fonctionne plus :
Prenons f(x) = (x + 5)(x − 9)(x − 10) et g(x) = (x + 6)(x − 1)(x − 8). Clairement, ces deux fonctions n'ont pas d'entrelacement commun. Lorsque l'on fait la somme, les zéros de f +gse trouvent approximativement à −5, 2765, 6, 3814 et 7, 3950. Or, les plus grandes racines de f(x) et g(x) ne sont pas plus petites ou égales à 7, 3950, une contradiction avec le lemme. Théorème 3.3.4. Soient S1, . . . , Sm des ensembles nis et soit {fs1,...,sm} une famille
entre-lacée de polynômes. Alors il existe certains s1, . . . , sm ∈ S1× · · · × Sm tels que la plus grande
racine de fs1,...,sm est au plus la plus grande racine de f∅.
Démonstration. Procédons par induction.
Cas k = 0 : On sait que les polynômes dans {ft}t∈S1 ont un entrelacement commun. Par
le lemme 3.3.3, il existe un certain s1 ∈ S1 tel que la plus grande racine de fs1(x)est au plus
égale à la plus grande racine de f∅(x).
Supposons vrai pour k = n − 1.
Cas k = n : On sait que les polynômes dans {fs1,...,sn,t(x)}t∈Sn+1 ont un entrelacement
com-mun. Par le lemme3.3.3, il existe un certain sn+1∈ Sn+1 pour lequel la plus grande racine de
fs1,...,sk,sk+1(x)sera au plus égale à celle de la somme des polynômes, soit fs1,...,sn. Puisque la
plus grande racine de fs1,...,sn est au plus égale à celle de f∅ par hypothèse d'induction, on a
le résultat.
Le lemme suivant tiré de [8] nous permettra de conclure que l'ensemble des polynômes utilisés dans la preuve du théorème 3.1.1 forme une famille entrelacée.
Lemme 3.3.5. Soient f et g des polynômes à une seule variable de degré n tels que pour tous les α, β > 0, le polynôme αf + βg possède n racines réelles. Alors f et g ont un entrelacement commun.
Démonstration. Posons a1 ≤ · · · ≤ an et b1 ≤ · · · ≤ bn les racines de f et g respectivement.
Supposons en premier lieu que les racines sont distinctes. Alors il y a exactement 2n + 1 in-tervalles dans lesquels les signes de f et g sont constants.
Sans perdre de généralité, supposons que an < bn. Posons I1 = (bn, ∞), I2 = (an, bn), . . ..
On a donc une suite d'intervalles telle que sur chaque pair d'intervalles adjacents, le signe de l'une des fonctions change tandis que le signe de l'autre reste constant.
Si les coecients directeurs de f et g ont le même signe, alors le signe de f et g sera identique sur les intervalles impairs. Ainsi, on peut déduire que les racines de αf + βg seront dans les intervalles pairs. La continuité des racines par rapport aux coecients nous assure qu'il y aura le même nombre de racines de αf + βg dans chaque intervalle. De plus, en prenant α = 1 et β très petit, on remarque que chaque intervalle pair aura une seule racine.
Supposons que la fonction f change de signe deux fois de suite et xons β. Alors, en prenant α très petit, le polynôme αf + βg n'aura pas de racine sur cet intervalle, une contradiction car il devrait y avoir exactement une racine. Ainsi, on peut en déduire que les extrémités des intervalles sont une racine de f d'un côté et une racine de g de l'autre.
Dans ce cas, on pose h(x) un polynôme ayant des racines dans chaque intervalle où les signes de f et g sont diérents, soit les intervalles pairs. Ainsi, h(x) sera la fonction qui entrelace strictement à la fois f(x) et g(x).
Le cas où les coecients directeurs de f et g n'ont pas le même signe se fait de la même manière, la seule diérence est que le signe de f et g sera identique sur les intervalles pairs et le polynôme h(x) aura ses racines dans les intervalles impairs. De plus, si les racines ne sont pas distinctes, h(x) entrelacera f(x) et g(x), mais pas strictement.
Étant donné que la multiplication par une constante non-nulle ne change pas la position des zéros du polynôme, on peut réécrire la somme des polynômes comme
α
βf (x) + g(x). Il sut ensuite de prendre à la place de f(x), βλ
α(1−λ)f (x)pour λ ∈ (0, 1). Cela nous donnera
λf (x) + (1 − λ)g(x) λ ∈ (0, 1).
Le polynôme h(x) entrelacera f(x) et g(x) car les zéros ne sont pas aectés par la multipli-cation. Ainsi, on peut prendre λ ∈ [0, 1]. À l'avenir, le lemme3.3.5 sera utilisé non pas avec α, β > 0mais avec λ ∈ [0, 1].
3.4 Polynôme stable
Une autre propriété intéressante des polynômes est la stabilité. Cette propriété sera utile surtout dans la prochaine section. Voici un rappel de la dénition d'un polynôme stable ainsi que quelques résultats qui en découlent. Notons que pour z ∈ C, on écrit Im(z) pour sa partie imaginaire.
Dénition 3.4.1. Soit p(z1, . . . , zm) ∈ C[z1, . . . , zm] un polynôme. On dit que p(z1, . . . , zm)
est stable si p(z1, . . . , zm) 6= 0 lorsque Im(zi) > 0 pour tout i ∈ {1, . . . , m}.
Le polynôme p(z1, . . . , zm) est réellement stable s'il est stable et que ses coecients sont
réels.
Lemme 3.4.2. Un polynôme à une seule variable est réellement stable si et seulement si toutes ses racines et tous ses coecients sont réels.
Démonstration. Soit p(z) un polynôme de degré n.
(⇒) Par hypothèse, p(z) est réellement stable, ce qui signie que ses racines se trouvent
dans le demi-plan inférieur du plan complexe incluant l'axe réel et ses coecients sont réels. Écrivons p(z) := a0 n Y i=1 (z − ai).
Supposons qu'il existe une racine complexe. Alors
p(z) := a0(z − a1) . . . (z − (α + iβ)) . . . (z − an).
Ici, puisque la racine doit être dans le demi-plan complexe inférieur, β < 0. Or, on sait que pour avoir des coecients réels, le conjugué de la racine complexe doit également être une racine. Cela voudrait dire qu'il existe une racine dans le demi-plan complexe supérieur, une contradiction avec la stabilité de p(z). Ainsi, ses racines sont réelles.
(⇐) Ceci est trivial.
La proposition suivante est un résultat provenant de l'article de Borcea et Brändén [3]. Proposition 3.4.3. Si A1, . . . , Am sont des matrices hermitiennes semi-dénies positives,
alors le polynôme f (z1, . . . , zm) := det X i ziAi !
est réellement stable.
Pour cette démonstration, il nous faut un théorème classique en analyse complexe : le théorème d'Hurwitz.
Théorème 3.4.4 (Hurwitz). Soit (fk) une suite de fonctions holomorphes d'un ouvert E qui
converge uniformément sur chaque compact F ⊂ E vers une fonction holomorphe f 6≡ 0. Si f a un zéro d'ordre m en z0, alors pour tout p > 0 assez petit, il existe un k ∈ N assez grand
tel que fk a précisément m zéros dans B(z0, p) incluant les multiplicités. De plus, ces zéros
convergent vers z0 lorsque k → ∞.
Étant donné que ce résultat est classique, la preuve sera laissée à la discrétion du lecteur. On est maintenant en mesure de faire la démonstration de la proposition 3.4.3.
Démonstration de la proposition 3.4.3. Il est possible de faire la preuve uniquement pour le cas de matrices dénies positives. En eet, on pose
f () := det X
i
ziAi+ I
! .
On a donc que f () → f := det X i ziAi ! .
Clairement, les coecients de f() convergent également vers ceux de f. En appliquant le théorème d'Hurwitz3.4.4, on sait que les zéros des f() convergeront vers ceux de f. Ainsi, si on montre que les f() sont réellement stables, alors f le sera également.
Supposons donc que les Ai sont dénies positives. Posons
z(t) := α + λt,
où α := (α1, . . . , αm) ∈ Rm, λ := (λ1, . . . , λm) ∈ Rm+ et t ∈ C.
Notons que P := Pm
i=1λiAi est dénie positive. En eet, la somme de matrices dénies
posi-tives multipliées par des scalaires positifs non-nuls est dénie positive. Alors P est inversible et il existe une matrice dénie positive A telle que A2 = P. Alors si on pose H := Pm
i αiAi, on a f (z(t)) = det X i zi(t)Ai ! = det X i (αi+ λit)Ai ! = det X i αiAi+ λitAi ! = det (H + tP ) = det P12P −1 2 (H + tP )P −1 2 P 1 2 = detP12(P −1 2 H + tP −1 2 P )P −1 2 P 1 2 = det P12(P −1 2 HP −1 2 + tP −1 2 P P −1 2 )P 1 2 = detP12(P −1 2 HP −1 2 + tI)P 1 2 = detP12 detP−12 HP −1 2 + tI detP12 = det(P ) det(P−12 HP −1 2 + tI). Puisque P1
2 et H sont hermitiennes, on a que P −1
2 est aussi hermitienne. De plus, ceci entraîne
que (P−12 HP −1 2 )∗= P −1 2 ∗H∗P −1 2 ∗ = P−12 HP −1 2 . 26
On en conclut que P−12 HP −1
2 est une matrice hermitienne. Donc, dans l'égalité
f (z(t)) = det(P ) det(P−12 HP −1
2 + tI),
on remarque que le premier facteur de droite est une constante réelle tandis que le second est le polynôme caractéristique d'une matrice hermitienne. Puisque toutes ses valeurs propres sont réelles, on déduit que f(z(t)) a des racines réelles. De plus, étant donné que P−1
2 HP −1
2 + tI
est également hermitienne, le déterminant de cette matrice est réel et donc les coecients de f (z(t)) seront réels. Par le lemme 3.4.2, f(z(t)) est réellement stable. Or, puisque z(t) est arbitraire, on peut conclure que f est également réellement stable.
Maintenant que l'on a bien déni la stabilité des polynômes, on peut s'intéresser aux opéra-teurs agissant sur ceux-ci. En eet, certains d'entre eux préservent la stabilité réelle. C'est le cas de l'opérateur (1 − ∂zi).
Le théorème qui suit correspond au corollaire 18.2a du livre [16]. Les détails de ce résul-tat se trouvent par exemple dans la section 18 du livre [16] et dans la section 5.4 du livre [17].
Théorème 3.4.5. Si tous les zéros d'un polynôme q(z) de degré d se trouvent dans une région circulaire fermée A, alors pour λ ∈ C, tous les zéros de
q(z) − λq0(z)
sont dans la région convexe balayée par la translation de A dans la direction et l'amplitude du vecteur dλ.
Corollaire 3.4.6. Si p ∈ R[z1, . . . , zm]est réellement stable, alors
(1 − ∂zi)p(z1, . . . , zm)
est aussi réellement stable.
Démonstration. Sans perdre de généralité, supposons que i = 1. Fixons x2, . . . , xm ∈ C tels
que Im(xi) > 0, ∀i ∈ {2, 3, . . . , m}. On se retrouve dans le cas à une seule variable, ce qui
nous permet d'utiliser le théorème 3.4.5. En eet, les zéros du polynôme q(z1) := p(z1, x2, . . . , xm)
se trouvent dans une région circulaire, disons A, de nombres complexes tels que leur partie imaginaire est au plus 0. Notons que l'axe réel peut être considéré comme un cercle de rayon inni. Ainsi, le théorème nous dit que tous les zéros de q(z1) − q0(z1) se trouvent dans la
par d, les zéros restent toujours dans le demi-plan inférieur. Ainsi, q(z1) − q0(z1) est stable.
Ceci implique que le polynôme (1 − ∂zi)p(z1, . . . , zm) n'a pas de racines telles que Im(zi) > 0
pour tous les i. De plus, puisque q(z1) est réellement stable à la base, il est évident que les
coecients de sa dérivée sont réels, ce qui entraîne que (1 − ∂zi)p(z1, . . . , zm) est réellement
stable.
Dans les résultats qui suivront un peu plus tard, on utilisera également le fait que la stabilité réelle est préservée lorsque l'on pose les variables égales à des constantes réelles. Le lemme suivant se retrouve dans l'article de Wagner [19].
Lemme 3.4.7. Pour tout a ∈ {z ∈ C : Im(z) ≥ 0}, l'opérateur f 7−→ f(a, x2, . . . , xm)
préserve la stabilité.
Démonstration. Si Im(a) > 0, le résultat est immédiat. Regardons pour a ∈ R. Posons fn:= f (a + i2−n, x2, . . . , xm) n ∈ N.
En appliquant Hurwitz 3.4.4 lorsque n → ∞, les zéros de fn convergeront vers ceux de f.
Ainsi, puisque les fn sont stables, alors f l'est également.
Remarquons que le dernier lemme fonctionne aussi pour la stabilité réelle, puisque les coe-cients sont les mêmes partout.
Lemme 3.4.8. Si p(z1, z2) est un polynôme réellement stable de degré d précisément, alors il
existe des matrices d × d, notées A et B, semi-dénies positives et une matrice hermitienne C telles que
p(z1, z2) = ± det(z1A + z2B + C).
Pour la démonstration de ce lemme, on a besoin de deux dénitions tirées de l'article de Lewis, Parrilo et Ramana [12] ainsi que de deux résultats supplémentaires dont les preuves ont été faites dans la section 6 de l'article de Borcea et Brändén [4].
Dénition 3.4.9. Un polynôme p ∈ R[z1, . . . , zn] est homogène de degré d si pour tout
t ∈ R et pour tout w ∈ Rn,
p(tw) = tdp(w).
Dénition 3.4.10. Un polynôme homogène p de degré d est hyperbolique par rapport au vecteur v ∈ Rn si
1. p(v) 6= 0,
2. Le polynôme q(t) := p(w − tv) a des racines réelles pour tout w ∈ Rn.
Proposition 3.4.11. Soit p ∈ R[z1, . . . , zn] de degré d et soit pH(z1, . . . , zn, zn+1) l'unique
polynôme homogène de degré d tel que pH(z1, . . . , zn, 1) = p(z1, . . . , zn). Alors p est réellement
stable si et seulement si pH est hyperbolique par rapport à tous les vecteurs v ∈ Rn+1 tels que
vn+1 = 0 et vi > 0 pour tout i ∈ {1, . . . , n}.
Proposition 3.4.12. Un polynôme homogène p ∈ R[x, y, z] de degré d est hyperbolique par rapport à tous les vecteurs de forme (v1, v2, 0) avec v1, v2 ∈ R+ si et seulement s'il existe deux
matrices A, B semi-dénies positives d × d et une matrice C symétrique de même dimension telles que
p(x, y, z) = α det(xA + yB + zC).
On a maintenant tout ce qu'il nous faut pour faire la démonstration du lemme3.4.8.
Démonstration du lemme 3.4.8. Tout d'abord, on peut faire la preuve du lemme dans le cas où C est symétrique seulement. En eet, si C est hermitienne, il sut d'eectuer un change-ment de base pour la diagonaliser, ce qui nous donne une matrice symétrique.
Selon notre hypothèse, p(z1, z2) est réellement stable. Par la proposition 3.4.11, on a que
l'unique polynôme homogène de degré d respectant l'égalité pH(z1, z2, 1) = p(z1, z2)
est hyperbolique par rapport à tous les vecteurs v ∈ R3 avec v
1, v2 > 0 et v3 = 0. On peut
par la suite appliquer le théorème3.4.12et donc on sait qu'il existe A, B deux matrices d × d semi-dénies positives et C une matrice symétrique de même dimension telles que
pH(z1, z2, z3) = α det(v1A + v2B + v3C).
Il ne reste plus qu'à multiplier l'intérieur du déterminant par |α| et à remplacer v3 par 1. On
obtient
p(z1, z2) = pH(z1, z2, 1) = ± det(α(v1A + v2B + C)).
Sous les mêmes hypothèses que le lemme précédent, on peut déduire un résultat supplémen-taire.
Remarque 3.4.13. Soient A et B deux matrices d × d semi-dénies positives qui respectent le lemme 3.4.8. Alors pour tous x, y > 0,
xA + yB est dénie positive.
Démonstration. Supposons le contraire et que xA + yB n'est pas dénie positive. Alors il existe un vecteur non-nul dans le noyau de A qui est également dans celui de B. Si on change la base en fonction de ce vecteur, les deux matrices auront chacune une colonne et une ligne vide. Ainsi, le polynôme det(xA + yB) ne sera pas de degré d, ce qui contredit les hypothèses du lemme.
3.5 Polynôme caractéristique mixte
Cette section sera consacrée à dénir le polynôme caractéristique mixte et à mettre de l'avant ses propriétés. La stabilité réelle de ce polynôme permettra de montrer qu'une suite nie de vecteurs aléatoires, indépendants et à support ni v1, . . . , vm engendre toujours une famille
entrelacée.
Dénition 3.5.1. On dénit le polynôme caractéristique mixte des matrices A1, . . . , Am
par µ[A1, . . . , Am] := m Y i=1 1 − ∂zi ! det xI + m X i=1 ziAi ! z1=···=zm=0 .
Théorème 3.5.2. Soient v1, . . . , vm des vecteurs colonnes aléatoires et indépendants de Cd à
support ni. On pose Ai := Eviv∗i. Alors
Eχ " m X i=1 vivi∗ # (x) = µ[A1, . . . , Am].
Le lemme qui suit simplira la preuve de ce théorème.
Lemme 3.5.3. Soient W1, . . . , Wm des matrices hermitiennes de rang 1 et z1, . . . , zm des
scalaires. Alors det xI + m X i=1 ziWi ! = d X k=0 xd−k X S∈([m] k ) zSσk X i∈S Wi ! .
Démonstration. Ce lemme est un résultat direct des propositions3.2.13et3.2.14.
det xI + m X i=1 ziWi ! = d X k=0 xd−k(−1)k X S∈([m] k ) σk X i∈S −ziWi ! proposition3.2.14 = d X k=0 xd−k X S∈([m] k) Y i∈S ziσk X i∈S Wi ! proposition3.2.13 = d X k=0 xd−k X S∈([m] k) zSσk X i∈S Wi ! . 30
Démonstration du théorème 3.5.2. On pose lila grandeur du support de viet soient wi,1, . . . , wi,li
les valeurs que prend vi avec probabilités pi,1, . . . , pi,li respectivement. On pose également
Wi,j := wi,jwi,j∗ , ce qui entraîne que
Eviv∗i = li
X
j=1
pi,jWi,j.
On remarque que pour S ⊂ {1, . . . , m}, le coecient de Taylor au point 0 de zS dans l'équation
det xI + m X i=1 ziAi ! sera Y i∈S ∂zi ! det xI + m X i=1 ziAi ! z1=···=zm=0 . (3.1)
Sans perdre de généralité, considérons S = {1, . . . , k}. Si on écrit chaque Ai comme étant
Ai =
X
ji
pi,jiWi,ji,
alors on obtient par le lemme 3.5.3
(3.1) = Y i∈S ∂zi ! det xI + m X i=1 X ji zipi,jiWi,ji z1=···=zm=0 = Y i∈S ∂zi ! d X k=0 xd−k X S∈([m] k) X ji∈[li] zS Y i∈S pi,ji ! σk X i∈S Wi,ji ! .
Ici, le S est déjà xé, et donc notre k aussi. L'équation devient
(3.1) = k Y i=1 ∂zi ! xd−k X j1∈[l1],...,jk∈[lk] zS k Y i=1 pi,ji ! σk k X i=1 Wi,ji ! = xd−k X j1∈[l1],...,jk∈[lk] k Y i=1 pi,ji ! σk k X i=1 Wi,ji ! = xd−kEσk k X i=1 viv∗i ! ,
car les vecteurs visont indépendants. En appliquant cette égalité à tous les S ⊆ [m], on obtient µ[A1, . . . , Am] = m Y i=1 1 − ∂zi ! det xI + m X i=1 ziAi ! z1=···=zm=0 = m X k=0 (−1)k X S∈([m] k) Y i∈S ∂zi ! det xI + m X i=1 ziAi ! z1=···=zm=0 proposition 3.2.14 = m X k=0 (−1)k X S∈([m] k) xd−kEσk X i∈S viv∗i ! = E m X k=0 (−1)k X S∈([m] k) xd−kσk X i∈S viv∗i ! = E χ " m X i=1 viv∗i #! .
À l'aide de certains résultats vus précédemment, on remarque facilement que les racines et les coecients du polynôme caractéristique mixte sont réels.
Corollaire 3.5.4. Le polynôme caractéristique mixte de matrices semi-dénies positives est à racines et à coecients réels.
Démonstration. Par la proposition3.4.3, on sait que
det xI + m X i=1 ziAi !
est réellement stable. En appliquant le corollaire3.4.6, on sait que
m Y i=1 (1 − ∂zi) det xI + m X i=1 ziAi !
est aussi réellement stable. Par la proposition3.4.7, on peut xer les zi= 0 tout en préservant
la stabilité. Ainsi, notre polynôme n'a qu'une seule variable, soit x, et il est réellement stable. Enn, le lemme3.4.2 permet de conclure que ses racines et ses coecients sont réels.
Il est enn possible de montrer que toute suite de vecteurs aléatoires indépendants v1, . . . , vm
à support ni engendre une famille entrelacée. Notons que l'on garde les mêmes notations que pour le théorème3.5.2.
Théorème 3.5.5. Pour j1∈ [l1], . . . , jm ∈ [lm], on dénit qj1,...,jm(x) := m Y i=1 pi,ji ! χ "m X i=1 wi,jiwi,ji∗ # (x) Alors les polynômes qj1,...,jm forment une famille entrelacée.
Démonstration. Pour 1 ≤ k ≤ m et j1 ∈ [l1], . . . , jk∈ [lk], on dénit
qj1,...,jk(x) := k Y i=1 pi,ji ! Evk+1,...,vmχ " k X i=1 wi,jiw∗i,ji+ m X i=k+1 vivi∗ # (x) q∅(x) := Ev1,...,vmχ " m X i=1 viv∗i # (x) Il faut montrer que pour tout j1, . . . , jk et jk0, les polynômes
qj1,...,jk−1,jk(x) qj1,...,jk−1,j0k(x)
ont un entrelacement commun. Par le lemme3.3.5, il sut de montrer que pour tout 0 ≤ λ ≤ 1, le polynôme
λqj1,...,jk−1,jk(x) + (1 − λ)qj1,...,jk−1,jk0(x) (3.2)
est à racines réelles.
Posons uk un vecteur aléatoire tel que
uk=
(
wk,jk avec probabilité λ
wk,j0
k avec probabilité (1 − λ)
Alors il ne reste qu'à remarquer que (3.2) = k−1 Y i=1 Pi,ji ! Euk,vk+1,...,vmχ "k−1 X i=1 wi,jiwi,ji∗ + uku∗k+ m X i=k+1 vivi∗ # (x). En eet, la partie de droite de l'équation est égale à
k−1 Y i=1 Pi,ji ! λEvk+1,...,vmχ "k−1 X i=1 wi,jiw∗i,ji+ wk,jkw∗k,jk+ m X i=k+1 vivi∗ # (x) + k−1 Y i=1 Pi,ji ! (1 − λ)Evk+1,...,vmχ "k−1 X i=1 wi,jiw∗i,ji+ wk,j0 kw ∗ k,j0k+ m X i=k+1 vivi∗ # (x) = λ k Y i=1 Pi,ji ! Evk+1,...,vmχ " k X i=1 wi,jiwi,ji∗ + m X i=k+1 viv∗i # (x) + (1 − λ) k Y i=1 Pi,ji ! Evk+1,...,vmχ " k X i=1 wi,jiwi,ji∗ + m X i=k+1 viv∗i # (x) = (3.2).
Notons que dans la seconde équation, Pk,jk = 1et Pk,j0k= 1. Ainsi, étant donné que k−1 Y i=1 Pi,ji ! Euk,vk+1,...,vmχ "k−1 X i=1 wi,jiwi,ji∗ + uku∗k+ m X i=k+1 viv∗i # (x)
est un multiple d'un polynôme caractéristique mixte, par le corollaire3.5.4, l'équation (3.2) a des racines et des coecients réels.
3.6 Fonction barrière et borne supérieure
Le théorème principal de cette section prouvera l'existence d'une borne supérieure pour les racines du polynôme caractéristique mixte dans le cas particulier où Pm
i=1Ai= I. Avec celui-ci,
il sera enn possible de démontrer le théorème3.1.1.
Lemme 3.6.1. Soient A1, . . . , Amdes matrices hermitiennes semi-dénies positives. Si Pmi=1Ai=
I, alors µ[A1, . . . , Am](x) = m Y i=1 1 − ∂yi ! det m X i=1 yiAi ! y1=···=ym=x .
Démonstration. Pour toute fonction dérivable f, on a ∂yi(f (yi))|yi=zi+x= ∂zi(f (zi+ x)) zi=0 . Ainsi, on peut aisément remplacer les yi par zi+ x. Cela nous donne
m Y i=1 1 − ∂yi ! det m X i=1 yiAi ! y1=···=ym=x = m Y i=1 1 − ∂zi ! det m X i=1 (zi+ x)Ai ! z1=···=zm=0 = m Y i=1 1 − ∂zi ! det m X i=1 ziAi+ x m X i=1 Ai ! z1=···=zm=0 = m Y i=1 1 − ∂zi ! det xI + m X i=1 ziAi ! z1=···=zm=0
= µ[A1, . . . , Am](x) par le théorème3.5.2.
Voici quelques dénitions qui serviront d'outils dans la preuve du théorème principal de la section.
Dénition 3.6.2. Soit p(z1, . . . , zm) un polynôme à plusieurs variables. On dit que z ∈ Rm
est au-dessus des racines de p si
p(z + t) > 0 ∀t = (t1, . . . , tm) ∈ Rm, ti≥ 0,
c'est-à-dire si p est positif dans l'orthant non-négatif d'origine z.
On écrit Abp pour l'ensemble des points au-dessus des racines de p.
Dénition 3.6.3. Soit p un polynôme réellement stable et soit z = (z1, . . . , zm) ∈ Abp. La
fonction barrière de p dans la direction i en z est dénie par Φip(z) = ∂zip(z)
p(z) . On peut également l'écrire comme
Φip(z1, . . . , zm) = qz,i0 (zi) qz,i(zi) = r X j=1 1 zi− λi .
Ici la restriction à une seule variable qz,i est dénie comme
qz,i(t) := p(z1, . . . , zi−1, t, zi+1, . . . , zm).
De plus, par la proposition 3.4.7, qz,i(t)est réellement stable, ce qui entraîne que ses racines
sont réelles.
La fonction barrière possède deux belles propriétés analytiques qui nous seront utiles pro-chainement, soit la convexité ainsi que la monotonie décroissante.
Lemme 3.6.4. Soit p un polynôme réellement stable et soit z ∈ Abp. Alors pour tout i, j ≤ m
et δ ≥ 0, on a 1. Φi
p(z + δej) ≤ Φip(z) (monotone décroissant)
2. Φi
p(z + δej) ≤ Φip(z) + δ∂zjΦip(z + δej) (convexité)
où ej est le vecteur ayant 1 à la j-ème composante et 0 ailleurs.
Avant de débuter la démonstration du lemme, remarquons que la deuxième propriété est eectivement équivalente à la convexité. Par dénition, une fonction continûment dérivable f est convexe sur un intervalle [a, b] si pour tout x, y ∈ [a, b], on a
f (x) ≥ f (y) + f0(y)(x − y). Or, en appliquant le changement de variables y = x + δ, on obtient
f (x) ≥ f (x + δ) + f0(x + δ)(x − x − δ) f (x) + δf0(x + δ) ≥ f (x + δ), ce qui est exactement la seconde propriété.
Démonstration. (Cas i = j) Considérons la restriction qz,i(zi) = r Y k=1 (zi− λk)
dénie un peu plus haut. Puisque z ∈ Abp, on a que zi > λk pour tout k. Si ce n'était pas le
cas, alors qz,i(zi)pourrait être négatif ou nul, ce qui viendrait en contradiction avec z ∈ Abp.
1. Puisque δei > 0, on a Φip(z + δei) = r X j=1 1 zi+ δ − λj ≤ r X j=1 1 zi− λj = Φip(z).
2. Regardons le développement en série de Taylor. Φip(z) = Φip(z + δei− δei) = Φip(z + δei) − δ∂ziΦip(z + δei) + δ2 2 ∂ 2 ziΦip(z + δei+ θδei).
On remarque que si le dernier terme de la somme, soit δ2 2∂
2
ziΦip(z + δei + θδei), est
supérieur ou égal à 0, on aura exactement que
Φip(z + δei) − δ∂ziΦip(z + δei) ≤ Φip(z) Φip(z + δei) ≤ Φip(z) + δ∂ziΦip(z + δei). Regardons ce terme. δ2 2 ∂ 2 ziΦip(z + δei+ θδei) = δ2 2∂ 2 zi r X j=1 1 zi+ δei+ θδei− λj .
Étant donné que la constante devant est toujours positive et que la dérivée se distribue sur chacun des termes de la somme, on peut simplement regarder
∂zi2 1 zi+ δei+ θδei− λj = 2 (zi+ δei+ θδei− λj)3 > 0,
puisque zi > λj. Par conséquent, le dernier terme du développement est positif, ce qui
nous donne le résultat.
(Cas i 6= j) Tout d'abord, xons les variables sauf zi et zj. On obtient alors un polynôme à
deux variables réellement stable que l'on notera
qz,ij(zi, zj) := p(z1, . . . , zm).
Par le lemme3.4.8, il existe des matrices semi-dénies positives Bi, Bj ainsi qu'une matrice
hermitienne C telles que
qz,ij(zi, zj) = ± det(ziBi+ zjBj + C).
Par le corollaire 3.4.13, on sait que ziBi+ zjBj est dénie positive. Il existe donc un t assez
grand tel que t(Bi+ Bj) + C est également dénie positive. On a
det(tBi+ tBj+ C) > 0
Si on prend t > max{z1, z2}, alors l'inégalité fonctionne encore et qz,ij(t, t) sera positif. Ceci
signie que le signe devant le déterminant de qz,ij(zi, zj) sera lui aussi positif. On peut
main-tenant réécrire la fonction barrière. Φip(z) = ∂zidet(ziBi+ zjBj+ C) det(ziBi+ zjBj+ C) = Tr (ziBi+ zjBj+ C) −1B i det(ziBi+ zjBj+ C) det(ziBi+ zjBj+ C) Théorème 3.2.11 = Tr (ziBi+ zjBj + C)−1Bi .
Pour simplier la notation, posons M := ziBi+ zjBj+ C. Comme z ∈ Abp et Bi+ Bj est
dénie positive, M est dénie positive. En eet, puisque Bi+ Bj est dénie positive, on sait
que (Bi+ Bj)− 1
2 l'est aussi. Si M est dénie positive, alors (Bi+ Bj) −1
2 M (Bi + Bj) −1
2 est
également dénie positive. C'est équivalent à dire que pour tout t ≥ 0 det (Bi+ Bj) −1 2 M (Bi+ Bj) −1 2 + tI 6= 0 det (Bi+ Bj) −1 2 (M (Bi+ Bj) −1 2 + t(Bi+ Bj) 1 2) 6= 0 det (Bi+ Bj) −1 2 (M + t(Bi+ Bj))(Bi+ Bj) −1 2 6= 0 det((Bi+ Bj) −1 2 ) det(M + t(Bi+ Bj)) det((Bi+ Bj) −1 2 ) 6= 0.
Mais on sait que det((Bi+ Bj) −1
2 ) 6= 0. Ainsi, il faudrait que
det(M + t(Bi+ Bj)) 6= 0.
Supposons le contraire et qu'il existe t ≥ 0 tel que det(M + t(Bi + Bj)) = 0. Or, puisque
z ∈ Abp, alors
det(M + t(Bi+ Bj)) = det((zi+ t)Bi+ (zj+ t)Bj + C) = qz,ij(zi+ t, zj+ t) > 0,
une contradiction. On peut conclure que M est dénie positive. Revenons à la fonction barrière
Φip(z) = Tr M−1Bi .
Maintenant que M est dénie positive, on sait que M1
2 existe et qu'elle est dénie positive.
On peut écrire Φip(z + δej) = Tr (M + δBj)−1Bi = TrM−12 (I + δM −1 2 BjM −1 2 )−1M −1 2 Bi
On peut développer (I + X)−1 en série et remplacer X = δM−12 B jM −1 2 par la suite. On obtient Φip(z + δej) = T r I − δM−12 BjM −1 2 + δ2(M −1 2 BjM −1 2 )2+ O(δ3) M−12 BiM −1 2
Étant donné que M−1 2 BiM −1 2 et M −1 2 BjM −1
2 sont semi-dénies positives, on a en permanence
que 1. −δM−12 BjM −1 2 ≤ 0. 2. δ2(M−12 B jM −1 2 )2 ≥ 0.
Ainsi, la dérivée première est toujours négative et la dérivée seconde est toujours positive. On a donc la monotonie décroissante et la convexité.
On a introduit la fonction barrière an de regarder la relation entre l'ensemble des points Abp
et ceux de Abp−∂zip. En particulier, la propriété de monotonie implique le résultat suivant.
Lemme 3.6.5. Soit p(z1, . . . , zm) un polynôme réellement stable avec z ∈ Abp et supposons
que Φi
p< 1. Alors z ∈ Abp−∂zip.
Démonstration. Soit t un vecteur non-négatif. Par la propriété 1 du lemme3.6.4, pour δ > 0, on a
Φip(z + δej) ≤ Φip(z) ∀i, j.
Puisque Φi
p(z) < 1, on a aussi que Φip(z + t) < 1. Ainsi,
Φip(z + t) = ∂zip(z + t) p(z + t) < 1. On obtient
∂zip(z + t) < p(z + t)
(p − ∂zip)(z + t) = p(z + t) − ∂zip(z + t) > 0
et ce, pour tout t ≥ 0. Ceci entraîne que z ∈ Abp−∂zip.
Le lemme3.6.5 nous permet de prouver simplement qu'un vecteur est dans Abp−∂zip.
Cepen-dant, ce lemme n'est pas assez puissant pour être utilisé dans une induction car la fonction barrière peut augmenter à chaque opérateur (1 − ∂zi)qu'on applique.
Pour régler ce problème, on bornera la fonction barrière par 1 − 1
δ pour un certain δ et
on compensera l'eet de chacun des opérateurs (1 − ∂zi) en déplaçant la borne supérieure de
zéro dans la direction ei. La propriété de convexité nous permet d'émettre le lemme suivant.
Lemme 3.6.6. Soit p(z1, . . . , zm) un polynôme réellement stable avec z ∈ Abp et δ > 0
satisfaisant
Φjp(z) + 1 δ ≤ 1. Alors, pour tout i, on a
Φip−∂
zjp(z + δej) ≤ Φ i p(z).
Démonstration. Sans perdre de généralité, posons j = 1. Notre but est d'écrire Φi
p−∂z1p en
fonction de Φi
p et de Φ1p pour être par la suite en mesure d'utiliser la convexité. Mais d'abord,
remarquons l'identité suivante. ∂z1Φip = ∂z1 ∂zip p = (∂z1∂zip)p − (∂z1p)(∂zip) p2 . (3.3) Avec ceci, on a Φip−∂ z1p = ∂zip − ∂zi∂z1p p − ∂z1p = (∂zip)p − (∂zi∂z1p)p p2− (∂ z1p)p = (∂zip)p − (∂zi∂z1p)p + (∂zip)(∂z1p) − (∂zip)(∂z1p) p2− (∂ z1p)p = (∂zip)(∂z1p) − (∂zi∂z1p)p p2− (∂ z1p)p +(∂zip)p − (∂zip)(∂z1p) p2− (∂ z1p)p = (∂zip)(∂z1p) − (∂zi∂z1p)p p2− (∂ z1p)p +(∂zip)(p − (∂z1p)) p(p − (∂z1p)) = (∂zip)(∂z1p) − (∂zi∂z1p)p p2(1 −(∂z1p) p ) +(∂zip) p = −∂z1Φ i p 1 − Φ1 p + Φip par (3.3). Notre but est de montrer que
Φip−∂
z1p(z + δe1) ≤ Φ i p(z).
Or, ceci est équivalent à
Φip(z + δe1) − ∂z1Φip(z + δe1) 1 − Φ1 p(z + δe1) ≤ Φip(z) −∂z1Φ i p(z + δe1) 1 − Φ1 p(z + δe1) ≤ Φip− (z)Φip(z + δe1).
Par la propriété de convexité du lemme 3.6.4, on a