• Aucun résultat trouvé

Les vecteurs singuliers de l'algèbre superconforme dans le secteur de Ramond en termes de superpolynômes de Jack

N/A
N/A
Protected

Academic year: 2021

Partager "Les vecteurs singuliers de l'algèbre superconforme dans le secteur de Ramond en termes de superpolynômes de Jack"

Copied!
66
0
0

Texte intégral

(1)

Les vecteurs singuliers de l’algèbre superconforme

dans le secteur de Ramond en termes de

superpolynômes de Jack

Mémoire Ludovic Alarie-Vézina Maîtrise en physique Maître ès sciences (M.Sc.) Québec, Canada

(2)
(3)

Résumé

Ce mémoire fait état des résultats obtenus concernant les vecteurs singuliers de l’algèbre superconforme dans le secteur de Ramond. Une formule explicite exprimant ces vecteurs sin-guliers a été obtenue en termes de superpolynômes de Jack via la représentation de l’algèbre superconforme en termes de superpolynômes symétriques. On présente d’abord les partitions d’entiers et les fonctions symétriques standards. Ceci permet d’introduire les fonctions propres du modèle Calogero-Sutherland (CS) en termes de polynômes de Jack qui se révèlent être une représentation efficace des vecteurs singuliers de l’algèbre conforme. Suivant cette piste, on procède à la supersymétrisation du modèle CS ce qui permet de générer les superpolynômes de Jack, polynômes symétriques dans le superespace. On présente finalement la formule ex-plicite des vecteurs singuliers de l’algèbre superconforme en termes de superpolynômes de Jack.

(4)
(5)

Abstract

This mémoire presents results concerning the Ramond singular vectors of the superconformal algebra. An explicit formula has been obtained for the Ramond singular vectors of the su-perconformal algebra via its superpolynomial representation and the formula is given here in terms of Jack superpolynomials. We first present some basic elements of the integer partition and symmetric functions theories. This leads us to consider the eigenfunctions of the Calogero-Sutherland (CS) model, the Jack polynomials. These happen to be the singular vectors of the conformal algebra when represented in terms of symmetric polynomials. Given those results, we extend the CS model to the supersymmetric case and interpret its eigenfunctions as the Jack superpolynomials which are symmetric functions in superspace. We then display the ex-plicit formula of the Ramond singular vectors of the superconformal algebra which has been obtained in terms of Jack superpolynomials.

(6)
(7)

Table des matières

Résumé iii

Abstract v

Table des matières vii

Liste des figures ix

Remerciements xv

Introduction 1

1 Les fonctions symétriques et les partitions d’entiers 3

1.1 Partitions d’entiers . . . 3

1.2 Les polynômes symmétriques . . . 5

2 Le modèle Calogero-Sutherland et les vecteurs singuliers 9 2.1 Le modèle CS . . . 9

2.2 Les vecteurs singuliers de l’algèbre conforme . . . 11

2.3 Vecteurs singuliers en termes de polynômes de Jack . . . 12

3 Le modèle CS supersymétrique et les superpolynômes 15 3.1 Les variables de Grassmann . . . 15

3.2 Mécanique quantique supersymétrique . . . 17

3.3 Les superpolynômes . . . 19

4 Les vecteurs singuliers de l’algèbre superconforme 23 4.1 La correspondence entre la TCSC et les superpolynômes . . . 25

4.2 Les superpartitions admissibles . . . 28

4.3 La structure récursive des diagrammes . . . 30

4.4 Formulation explicite des vecteurs singuliers . . . 33

4.5 Illustration de la formule en termes d’éléments combinatoires . . . 34

4.6 La transformation de dualité . . . 41

Conclusion 47

(8)
(9)

Liste des figures

4.1 Illustration de l’amputation d’une colonne d’un diagramme autocomplémentaire. . 32

4.2 Illustration de l’amputation d’une rangée d’un diagramme autocomplémentaire . . 32

4.3 Illustration des ensembles SΛ,s, RΛ,r et OΛ . . . 33

4.4 Illustration du coefficient B(Λ, r, s) . . . 35

4.5 Illustration du coefficient C(Λ, r, s) . . . 39

(10)
(11)

À feu Yvan Bibeau, feu, du latin fatutus : qui a accompli son destin. Et permis celui de tant d’autres.

(12)
(13)

I have never done anything "useful". No discovery of mine has made, or is likely to make, directly or indirectly, for good or ill, the least difference to the amenity of the world.

(14)
(15)

Remerciements

Merci à Pierre Mathieu, pour m’avoir pris sous son aile.

Je remercie Patrick Desrosiers, pour m’avoir guidé et éclairé, Olivier Blondeau-Fournier, pour voir clair là où mon regard s’égare, Jean-Gabriel Young, mon camarade et allié.

Merci à mes parents qui m’aident à réaliser mes rêves, à ma famille toujours présente. Merci à la plus merveilleuse des cohortes de physique, à mes amis, à mes proches. Merci à tous mes professeurs et enseignants qui m’ont fait gravir l’escalier qui mène à la montagne.

(16)
(17)

Introduction

La théorie des champs quantiques est d’une élégance remarquable, elle utilise les symétries comme le chef d’orchestre les harmonies pour faire surgir d’impressionnantes subtilités du monde qui nous entoure. Elle conjugue la mécanique quantique et la relativité restreinte pour créer une symphonie surprenante. Le chef d’orchestre ne semble toutefois pas en paix avec ses musiciens puisqu’il impose à chacun d’ajuster son instrument pendant d’innombrables heures avant chaque représentation. C’est la raison pour laquelle il commence à croire qu’au violon et à la trompette devront se coupler la contrebasse et le trombonne.

Le problème des ajustements fins est probablement l’une des plus grandes motivations qui pousse la physique moderne à se tourner vers de nouveaux horizons. En particulier, la su-persymétrie est l’une de ces théories qui tentent de mettre un terme à l’absurde précision à laquelle on doit avoir recours dans certains calculs de diffusion. L’ajout de nouvelles particules génère de nouveaux mécanismes qui ont le potentiel d’accélérer largement la convergence de certains calculs perturbatifs.

Il y a toutefois, en théorie des champs, toute une classe de problèmes qui ont un caractère mathématique si contraignant qu’on peut les résoudre exactement. En effet, lorsqu’une théo-rie est soumise à la symétthéo-rie conforme, d’importantes contraintes s’imposent au système. S’il s’avère que cette théorie est en deux dimensions, les contraintes explosent et permettent de fixer exactement le résultat de certains calculs. C’est d’ailleurs l’objet de l’étude de la théorie des champs conformes en deux dimensions.

La symétrie conforme peut sembler très contraignante, par contre, pour un lagrangien géné-rique comportant des particules sans masse, elle se manifeste naturellement. D’autre part, lorsqu’un système comportant des particules massives est extrêmement énergétique, la part de l’énergie qui est dédiée à l’énergie cinétique est si grande comparativement à la masse que cette dernière peut être négligée. Nous obtenons une fois de plus la symétrie conforme. Finalement, si un système comporte des particules massives et d’autres sans masse, dans la limite des basses énergies, les particules massives ne contribuent pas ou peu à la dynamique

(18)

du système et nous retrouvons une fois de plus la symétrie conforme.

On pourra finalement argumenter qu’étudier un système en deux dimensions n’est pas très approprié à l’étude du monde physique. Par contre, si on considère des phénomènes se produi-sant sur une sufarce balayer par une corde, cette théorie est particulièrement appropriée. C’est la raison pour laquelle la théorie des champs conformes est la pierre angulaire de la théorie des cordes. D’un point de vue plus pratique, il a une correspondance mathématique entre les théories de champs et la physique statistique. Ainsi, la théorie des champs conformes permet de résoudre exactement certains modèles au point critique. Le modèle d’Ising et le modèle de Potts en sont des exemples.

Dans ce mémoire, on s’intéresse plus particulièrement à la théorie des champs superconformes. Dans ce contexte, on ne se limite pas à la symétrie conforme mais on impose aussi la super-symétrie. Ceci a des effets importants au point de vue mathématique comme l’ajout de toute une classe d’opérateurs de création et d’annihilation. Lorsque l’on étudie un système et que l’on génère ses états, on trouvera des états qui se comportent comme l’état d’énergie fonda-mental. Ces états sont appelés vecteurs singuliers et leur présence signifie qu’on travaille avec un ensemble d’états qui est réductible. Ces états sont aussi inadmissibles physiquement car ils possèdent une norme nulle et sont orthogonaux à tous les autres états. Il faut s’assurer de pouvoir calculer systématiquement ces vecteurs singuliers pour être en mesure de générer un espace des états irréductible. Le calcul des vecteurs singuliers est l’objet de ce travail.

Les recherches faites dans le cadre de cette maîtrise ont été en mesure de générer une for-mulation conjecturale des vecteurs singuliers associés à la théorie des champs superconformes dans le secteur de Ramond. Pour pouvoir présenter ces résultats, il faudra introduire certains éléments de base et mettre en lumière ce qui nous a amené jusqu’à ce résultat. Pour ce faire, on commencera par introduire les fonctions symétriques et les partitions d’entiers en termes desquelles on sera en mesure de donner les fonctions propres d’un modèle très particulier, soit celui de Calogero-Sutherland. Ce modèle fera l’objet du chapitre suivant. C’est aussi dans ce chapitre que les fonctions symétriques exhiberont toute leur puissance lorsqu’il s’agira de traiter des vecteurs singuliers de l’algèbre conforme. Puisque l’on s’intéresse particulièrement à l’équivalent supersymétrique des résultats qui auront été présentés à ce point, on passera au modèle Calogero-Sutherland supersymétrique. Ce dernier nous permettra d’introduire les superpolynômes et, plus particulièrement, les superpolynômes de Jack. On présentera enfin les résultats de recherche, soit l’expression des vecteurs singuliers de l’algèbre superconforme en termes des superpolynômes de Jack.

(19)

Chapitre 1

Les fonctions symétriques et les

partitions d’entiers

L’épigraphe de ce mémoire cite G.H. Hardy qui affirme avec assurance que ses travaux n’au-ront jamais aucune utilité. Il s’agit là d’une affirmation particulièrement fausse. Il n’est en effet pas évident de déterminer quelle sorte d’application il peut y avoir à tenter de trouver toutes les façons possibles d’additionner des entiers positifs tel qu’on obtient un entier précis. Il s’avère toutefois que la théorie des partitions d’entiers est un outil extrêmement puissant en physique moderne. Elle se trouve notamment au coeur de la théorie des fonctions symétriques et elle permet par exemple de compter le nombre d’états indépendants à un niveau d’énergie donné dans la théorie des champs conformes.

La théorie des partitions d’entiers est très large et elle est un sujet d’étude à elle seule, mais, pour le bien de cet ouvrage, nous nous contenterons d’en présenter les définitions de base et quelques quantités associées aux partitions. Ces différents éléments de théorie nous permet-tront de présenter par la suite les polynômes symétriques. Sans plus tarder, voyons ce qu’est une partition d’un entier.

1.1

Partitions d’entiers

1.1.1 Définitions de base

Une partition d’un entier est une collection d’entiers positifs dont la somme donne l’entier désiré. Par exemple, une partition de 5 serait λ = (2, 2, 1). On définit de façon générale une partition comme suit [15] :

λ = (λ1, λ2,· · · , λr,· · · ) (1.1)

(20)

Dans le cas d’une partition standard, on ne distingue pas deux partitions qui ne diffèrent que par une suite de 0.

(λ1, λ2,· · · , λN) = (λ1, λ2,· · · , λN, 0) (1.3)

On appelle poids l’entier représenté par la somme des parties ; il est noté

|λ| = λ1+ λ2+· · · + λN. (1.4)

On dit d’une partition qui a un poids |λ| = n qu’elle est une partition de n. Une notation plus compacte permet de dénoter la multiplicité de chacun des éléments sans les répéter,

λ = (rmr,· · · , 2m2, 1m1). (1.5)

Ceci signifie que l’entier r apparait mr fois dans la partition. Pour reprendre l’exemple cité

auparavant λ = (2, 2, 1) = (22, 1). On utilisera ici la convention selon laquelle les parties

ap-paraissent de façon décroissante dans la partition tel que noté dans les définitions (1.1) et (1.2). Finalement, on notera ℓ(λ) le nombre de parties non nulles d’une partition. Les autres quantités plus complexes seront introduites lorsque nécessaire. Celles-ci sont habituellement plus simples à calculer en utilisant une représentation particulière des partitions, soit les dia-grammes de Young.

1.1.2 Les diagrammes de Young

Un diagramme de Young est une représentation graphique d’une partition d’entier. On repré-sente chaque partie de la partition par une ligne composée d’un nombre de boîtes correspondant à la valeur de la partie. On représente chacune des parties de haut en bas. Par exemple,

λ = (5, 3, 2) = . (1.6)

On attribue les coordonnées (i, j) à chacune des boîtes comme dans le cas des coordonnées des éléments de matrice où i indique la ligne et j la colonne. Par exemple, dans le diagramme (1.6), la boîte supérieure gauche a pour coordonnées (1, 1) et la boîte inférieure droite a pour coordonnées (3, 2).

Les diagrammes de Young permettent de représenter des quantités complexes très naturelle-ment. Par exemple, on dénote λ′ la partition conjuguée à λ. La conjugaison a pour effet de

remplacer toutes les lignes par des colonnes, ce qui, sur le diagramme, se résume à prendre la réflexion selon la diagonale principale. Par exemple, toujours avec la partition précédente,

λ = (5, 3, 2) = → λ′ = (3, 3, 2, 1, 1) = . (1.7)

(21)

Deux autres quantités se montreront importantes soit le bras et la jambe d’une boîte d’un diagramme (la boîte est notée t = (i, j)). On les définit comme suit [15] :

aλ(t) = λi− j, lλ(t) = λ′j− i. (1.8)

On définira finalement l’ordre de dominance des partitions qui définit ce qu’on veut dire par le symbole > ou < entre deux partitions [15],

λ > µ ssi λ6= µ et k X i=1 λi≥ k X i=1 µi ∀ k . (1.9)

On aura, par exemple, pour les partitions de 5

(5) > (4, 1) > (3, 2) > (3, 12) > (22, 1) > (2, 13) > (15) . (1.10) Lorsque le poids des partitions dépasse 5, on obtient des partitions dites non-comparables, par exemple (7, 1, 1) et (5, 4). L’ordre de dominance n’est donc pas valide dans ces cas. C’est pourquoi on dit qu’il s’agit d’un ordre partiel.

1.2

Les polynômes symmétriques

Les polynômes symétriques sont des polynômes à plusieurs variables qui sont invariants sur l’échange de ses variables. Par exemple, les polynômes suivants sont symétriques :

f1(x1, x2, x3) = x1x2+ x1x3+ x2x3 (1.11)

f2(x1, x2, x3) = x21+ x22+ x23 (1.12)

f3(x1, x2, x3) = x21+ x22+ x33+ x1x2+ x1x3+ x2x3 (1.13)

f4(x1, x2, x3) = (x1+ x2+ x3)2. (1.14)

Dans cet ensemble, on remarque facilement que seuls deux de ces polynômes sont nécessaires pour représenter les deux autres. En effet, f1+ f2 = f3 et f2+ 2f1 = f4. Ceci nous amène

rapidement à considérer les différentes bases pour les polynômes symétriques. Différentes bases sont utilisées, certaines très brutes, d’autres plus sophistiquées. On choisit généralement la base la plus naturelle pour l’application qui nous intéresse. Nous nous pencherons principalement sur deux bases.

1.2.1 Bases

La base monomiale

Dénotons d’abord un monôme des variables xi par

xλ = xλ1

(22)

Noter que λℓ+1 = λℓ+2 =· · · = 0. On obtient un élément de la base monomiale simplement

en superposant linéairement toutes les permutations possibles des exposants des xi [15] :

mλ=

X′

xλ, (1.16)

où la somme porte sur toutes les permutations distinctes des λi. Par exemple, la fonction f1

de l’équation (1.11) correspond à un polynôme symétrique monomial m(1,1). Voici quelques

exemples de monômes,

m(3)= x31+ x32+ x33 (1.17) m(2,1)= x21x2+ x1x22 (1.18)

m(1,1,1)= x1x2x3+ x1x2x4+ x1x3x4+ x2x3x4. (1.19)

Noter que le nombre de variables reste jusqu’à un certain point arbitraire. Il faut néanmoins avoir un nombre de variables au moins équivalent au nombre de parties de la partition. Par exemple, on aurait pu écrire m(1,1,1) = x1x2x3tout simplement. La plupart du temps, on

consi-dère les polynômes comme ayant un nombre de variables infini pour s’assurer que le polynôme résultant de l’addition ou de la multiplication de deux polynômes symétriques arbitraires soit aussi un polynôme symétrique.

Les sommes de puissances

Les sommes de puissances sont les polynômes symétriques qui correspondent au produit de fonctions monomiales d’une seule partie. Plus précisemment, si on définit la j-ième somme de puissances [15] :

pj =

X

i

xji. (1.20)

La somme de puissances associée à une partition λ sera

pλ= pλ1pλ2· · · pλN. (1.21)

Énonçons quelques exemples pour illustrer la base,

p(3) = x31+ x32+ x33 (1.22) p(2,1) = (x21+ x22+ x23)(x1+ x2+ x3) (1.23)

p(1,1,1) = (x1+ x2+ x3)3. (1.24)

Noter que les fonctions monomiales et les sommes de puissances sont équivalentes pour des partitions d’une seule partie.

(23)

1.2.2 Les polynômes de Jack

Les polynômes de Jack constituent une famille de polynômes à un paramètre. Ces polynômes sont définis par la triangularité sur la base monomiale et l’orthogonalité sous l’action du pro-duit scalaire. La triangularité signifie qu’un polynôme de Jack de paramètre α et de partition λ ne se décompose que sur les fonctions monomiales dont l’ordre de dominance de leur partition est inférieur ou égal à celui de la partition du polynôme de Jack. Plus précisément, [15]

Pλ(α) = mλ+

X

µ<λ

vλ,µ(α)mµ. (1.25)

Le produit scalaire quant à lui est défini sur la base des sommes de puissances. On définit le produit scalaire à un paramètre sur la base de pλ comme

hpλ, pµiα= zλαℓ(λ)δλ,µ (1.26)

zλ =

Y

i∈λ

mi! imi. (1.27)

La notation utilisée ici pour les fonctions symétriques de Jack (soit Pλ(α)) dénote habituellement la normalisation imposée par la définition du produit scalaire sur les sommes de puissances. On a donc [19] : hPλ(α), Pµ(α)iα = jλ(α)δλ,µ (1.28) jλ(α) = Y t∈λ h↑λ(t) h↓λ(t), (1.29) où t dénote les boîtes (i, j) du diagramme de Young de la partition et h↑, hsont définis comme

suit

h↑λ(t) = (aλ(t) + 1)α + lλ(t) (1.30)

h↓λ(t) = aλ(t)α + lλ(t) + 1. (1.31)

Une normalisation différente est habituellement utilisée lorsqu’on traite du modèle Calogero-Sutherland. Sous cette normalisation, on dit que les Jack sont sous forme intégrale. On définit cette normalisation comme suit [19] :

Jλ(α) =Y

t∈λ

(a(t)α + l(t) + 1)) Pλ(α). (1.32)

Pour générer les polynômes de Jack, on peut simplement générer un système d’équations à l’aide de la définition du produit scalaire et le résoudre pour obtenir les coefficients. Voici quelques exemples de polynômes de Jack pour un poids de 3,

P(1(α)3)= m(13) (1.33) P(2,1)(α) = m(2,1)+ 6 α + 2m(13) (1.34) P(3)(α) = m(3)+ 3 α(2α + 1)m(2,1)+ 6 (α + 1)(2α + 1)m(13). (1.35)

(24)

Noter ici que le nombre de variables reste encore jusqu’à un certain point arbitraire. Lorsque le polynôme et ses variables ne sont pas explicités, on considérera qu’il possède un nombre infini de variables. Lorsque le nombre de variable est fourni, on dira du polynôme qu’il est stable si son expression sur la base monomiale ne change pas lorsqu’on ajoute des variables. Le minimum de variables nécessaires pour obtenir la stabilité dans la représentation d’un Jack d’une partition donnée doit être au moins équivalent au poids de la partition. Ceci est dû à la triangularité, elle impose des contributions de tous les monômes d’ordre inférieur. Il y a donc une contribution de m1|λ|, ce qui nécessite au moins |λ| variables.

Les polynômes de Jack possèdent plusieurs autres propriétés intéressantes, mais nous nous contenterons du nécessaire pour représenter les solutions du modèle Calogero-Sutherland.

(25)

Chapitre 2

Le modèle Calogero-Sutherland et les

vecteurs singuliers

Les polynômes de Jack présentés précédemment sont des objets mathématiques remarquables. Il s’avère qu’ils jouent un rôle physique tout aussi remarquable. En effet, lorsqu’il est ques-tion de la représentaques-tion de l’algèbre de Virasoro ou du modèle Calogero-Sutherland (CS), ces polynômes jouent un rôle important. Ils représentent une base parfaite pour représenter les vecteurs singuliers (VS) et les solutions du modèle CS, deux entités qui n’ont a priori aucun lien. C’est cette analogie formidable qui guidera ici l’exploration de l’algèbre conforme super-symétrique. On commencera donc par présenter le fameux modèle CS, puis on présentera une expression des VS de l’algèbre de Virasoro.

2.1

Le modèle CS

Le modèle CS décrit N particules sur un cercle interagissant deux-à-deux via un potentiel de portée infinie. On a N particules identiques de masse m sur un cercle. Si on pose ~ = m = 1, le modèle CS ne dépend que de deux paramètres, soit β la constante (adimensionnelle) de couplage entre les particules et L, la circonférence du cercle. L’hamiltonien de ce modèle est donné par [22] HCS = 1 2 N X i=1 p2i +π L 2 β(β− 1) X 1≤i<j≤N 1 sin2(πxi,j/L) . (2.1)

Remarquer qu’on note

xi,j ≡ (xi− xj). (2.2)

L’opérateur d’impulsion est donné par pj =−i∂xj. Ceci nous donne les règles de commutation

habituelles entre position et impulsion, c’est-à-dire

(26)

Il a été montré [4] que ce modèle est complètement intégrable. En effet, si on formule l’hamil-tonien sous la forme suivante [6],

H = 1 2

X

j

A†jAj+ E0, (2.4)

on espère pouvoir trouver la fonction propre qui est annihilée par tous les opérateurs Aj,

c’est-à-dire, l’état d’énergie minimale. En faisant le changement de variable zk = e2πixk/L on

obtient l’hamiltonien suivant,

H = 4π 2 L2 X i 1 2  zi ∂ ∂zi 2 − β(β − 1)4π 2 L2 X 1≤i<j≤N zizj z2 i,j . (2.5)

En posant la forme des opérateurs suivante L2 4π2Ak =−izk ∂ ∂k + iβ 2 X j6=k zk+ zj zk,j , (2.6)

on peut trouver une solution pour l’état d’énergie minimale [22].

Aiψ0(z) = 0∀ i (2.7) ⇒ ψ0(z) = Y i<j z2 i,j zizj !β2 (2.8) ⇒ ψ0(x) = Y i<j sinβ π L(xi− xj), (2.9)

avec l’énergie minimale :

E0 =  πβ L 2 N (N2− 1) 6 . (2.10)

Il est naturel de définir les énergies, et donc les états, par rapport à l’état d’énergie minimale. C’est pourquoi on conjugue l’hamiltonien avec cet état,

¯ H = 2(π L)ψ −1 0 (z)(H− E0)ψ0(z) (2.11) =X i (zi∂i)2+ β X i<j zi+ zj zij (zi∂i− zj∂j) . (2.12)

Comme toutes les particules sont identiques, donc indiscernables, l’échange des indices de deux particules n’a aucun effet sur le système. On s’attend donc à ce que la solution de ce système soit une fonction symétrique sur les variables xi. Il s’avère que les polynômes de Jack sont les

solutions de ce modèle (voir, par exemple, [6]) : ¯

H ¯ψλ(z1,· · · , zN) = ǫλψ¯λ(z1,· · · , zN) (2.13)

¯

ψλ(z1,· · · , zN) = Pλ(1/β)(z1,· · · , zN). (2.14)

(27)

Ces états ont pour valeur propre

ǫλ=

X

j

[λ2j + β(N + 1− 2j)λj] = Eλ− E0. (2.15)

Exiger d’un polynôme qu’il se développe triangulairement sur la base des monômes et qu’il soit fonction propre de ce modèle sont des conditions suffisantes pour définir les polynômes de Jack [21]. Il s’agit donc ici d’une définition alternative à celle présentée dans la section1.2.2. Ces deux façons de définir les polynômes de Jack se généralisent au cas supersymétrique. Avant de présenter ces généralisations, il reste à exposer la correspondance entre les polynômes de Jack et les vecteurs singuliers.

2.2

Les vecteurs singuliers de l’algèbre conforme

L’algèbre de Virasoro est une algèbre de Lie de dimension infinie définie par les règles de commutation suivantes [3] : [Ln, Lm] = (n− m)Ln+m+ c 12(n 3− n)δ m+n,0, (2.16)

où m, n sont des entiers et la constante c est nommée charge centrale. Cette algèbre se retrouve au coeur de la théorie des champs conformes car tout l’espace des états est produit par l’ap-plication des générateurs Virasoro. Les états sont définis comme une séquence d’opérateurs agissant sur l’état de plus haut poids |hi, celui-ci est défini par les contraintes suivantes [3] :

Ln|hi = 0 ∀ n ≥ 1, (2.17)

L0|hi = h |hi . (2.18)

où h est appelée la dimension conforme. À partir de l’état de plus haut poids, on peut générer tous les états permis [12] ,

L−k1L−k2· · · L−kn|hi (1 ≤ k1≤ · · · ≤ kn) . (2.19)

Noter qu’un état peut donc être représenté par une partition d’entier dont les parties sont les ki. On dira d’un état qu’il est de niveau n quand la somme des indices des générateurs est −n.

On appelle descendance l’ensemble de tous les états qui sont générés à partir de l’applications des générateurs d’indice négatif sur un autre état. Prenons par exemple

|µi = L−µ|hi = L−µ1L−µ2· · · L−µN|hi . (2.20)

On dit de l’état |ωi suivant, qu’il est un descendant de |µi :

(28)

L’ensemble des états générés avec les générateurs est appelé module de Verma. Il arrive que ce module soit réductible. Ceci se manifeste par l’apparition de vecteurs singuliers :

Ln|χi = 0 ∀ n ≥ 1, (2.22)

où |χi est un descendant de l’état de plus haut poids. Les vecteurs singuliers se comportent donc comme l’état de plus haut poids sans pour autant avoir la dimension conforme de celui-ci. La présence d’un vecteur singulier signifie que le module est réductible puisque cet état et sa déscendance forment un sous-espace à l’intérieur du module. Pour obtenir un module irréductible, on doit retirer ces vecteurs singuliers et leur descendance du module de Verma.

Si on paramètrise la dimension conforme par hr,s(t) = 1 4(r 2− 1)t + 1 4(s 2− 1)1 t − 1 2(rs− 1), (2.23) avec r, s ∈ N et la charge centrale contrainte par

c = 13− 6(t + 1/t), (2.24) où t est complexe, on sait que le module de Verma sera réductible [12]. Qui plus est, on sait que le vecteur singulier se manifestera au niveau rs. Si cette paramétrisation n’est pas respectée, le module sera irréductible.

Pour montrer qu’un vecteur est singulier, deux conditions sont suffisantes :

L1|χi = 0 (2.25)

L2|χi = 0 . (2.26)

Donc pour un état général de niveau rs constitué d’une superposition linéaire de toutes les combinaisons des générateurs de ce niveau, on impose ces deux conditions et on résoud le système d’équations pour obtenir le vecteur singulier. Il a été découvert [16] que ces vecteurs singuliers sont plus simplement représentés en termes de polynômes de Jack.

2.3

Vecteurs singuliers en termes de polynômes de Jack

Pour être en mesure de passer de la représentation en termes des générateurs Ln à celle des

polynômes de Jack, on doit passer par la représentation en champs libres (ou représenation de Feigin-Fuchs). On peut construire l’espace de Fock sur l’état du vide caractérisé par un paramètre |αi et les opérateurs de création et d’annihilation an. Ces an sont respectivement

de création et d’annihilation pour un n négatif et positif [16] :

an|αi = 0 ∀ n > 0 (2.27)

a0|αi = α |αi (2.28)

[an, am] = nδn+m,0 (2.29)

(29)

La relation entre les générateurs de l’algèbre conforme et cette représentation est donnée par Ln= 1 2 X m∈Z an−mam (n6= 0) (2.30) L0 = X n>0 a−nan+ 1 2a 2 0. (2.31)

L’expression (2.31) rend évident le fait que l’état du vide |αi a une dimension conforme de

h = α2/2. À partir de cette nouvelle représentation, on peut faire le passage à l’espace des polynômes symétriques. En effet, en prenant la définition du produit intérieur entre les sommes de puissances (1.26) et en faisant correspondre α ≡ β−1, on obtient [19],

pn←→r 2

βa−n pour n > 0 (2.32) ∂pn ←→ n

r β

2an pour n > 0. (2.33) Dans cette représentation, un vecteur singulier est représenté par un polynôme Fr,s :

Fr,s←→ |χr,si . (2.34)

Il a été trouvé [16] que les vecteurs singuliers dans cette représentation ne sont rien d’autre que les polynômes de Jack

Fr,s= J(r1/βs), (2.35)

où (rs) dénote une partition d’entier ayant un diagramme rectangulaire de s parties de

lon-gueur r.

Ce résultat est particulièrement remarquable car il s’agit, à ce jour, de la seule expression générale explicite connue pour obtenir les vecteurs singuliers. De plus, cette expression est particulièrement simple.

Ce résultat est à l’origine de la poursuite de cette recherche dans la théorie supersymétrique. La correspondance entre les polynômes de Jack, le modèle CS et les vecteurs singuliers de l’algèbre conforme laissait présager qu’une extension du modèle CS au cas supersymétrique permettrait d’obtenir les superpolynômes de Jack qui manifesteraient peut-être une corres-pondance semblable avec les vecteurs singuliers de l’algèbre superconforme. Pour continuer, il faudra donc passer à l’extension supersymétrique du mondèle CS. Les fonctions propres de ce nouveau modèle serviront donc de définition pour les superpolynômes de Jack et nous pourrons enfin scruter les vecteurs singuliers superconformes.

(30)
(31)

Chapitre 3

Le modèle CS supersymétrique et les

superpolynômes

On procèdera ici à l’extension du modèle CS au cas supersymétrique ce qui nous permettra de définir les superpolynômes de Jack comme étant les fonctions propres de ce nouveau modèle. Il est beaucoup plus simple de le faire dans le formalisme du superespace. C’est pourquoi on introduit d’abord les variables de Grassmann, ou variables fermioniques. Une fois cela fait, on introduira de brefs éléments de théorie concernant la mécanique quantique supersymétrique et on arrivera ainsi à faire l’extension supersymétrique du modèle CS. On présentera ensuite les solutions de ce nouveau modèle : les superpolynômes de Jack. Cette étape primordiale nous permettra enfin de plonger au coeur du projet de maîtrise et sonder les vecteurs singuliers de l’algèbre superconforme dans le chapitre suivant.

3.1

Les variables de Grassmann

Les variables de Grassmann sont des variables anticommutantes, c’est-à-dire que [14]

{θi, θj} = 0. (3.1)

La relation d’anti-commutation fournit une propriété importante soit que θ2

i = 0. On constate

donc que toute puissance d’une variable grassmannienne supérieure à 1 nous donne 0. Ceci confère une propriété fort utile pour les fonctions de variables grassmanniennes. En effet, il s’avère que toute fonction se développe en série de manière finie. Par exemple,

eθ = 1 + θ. (3.2)

Ceci fait en sorte que la fonction de θ la plus générale s’écrit

(32)

Dans le résultat précédent, on observe toutefois une ambiguïté. Il n’est pas clair si φ et ψ sont des quantités anticommutantes. Pour les fins de la supersymétrie, une fonction aura toujours une parité bien définie. C’est-à-dire que si Φ est paire, alors φ est une fonction paire (qui commute) et ψ une fonction impaire (qui anticommute). La conclusion concernant ψ vient du fait que le produit de deux variables anticommutantes donnent une variable qui commute. En effet,

(θiθj)θk=−θiθkθj = θk(θiθj) . (3.4)

En ayant une parité bien définie, les manipulations mathématiques ne sont pas ambiguës. Ainsi pour Φ paire, on a Φθ = θΦ.

3.1.1 Calcul différentiel avec les variables grassmanniennes

Pour travailler avec les fonctions qui dépendent de variables de Grassmann, il faudra défi-nir le calcul différentiel. Bien que ces variables soient de prime abord intimidantes, le calcul différentiel qui leur est associé est très simple [14],

∂θi(φ(x)θj) = δi,jφ(x), (3.5)

où φ est une fonction paire.

Il faut faire toutefois attention à la nature de l’objet qui multiplie la variable de Grassmann. En effet, pour éviter toute confusion, on amènera la variable à dériver complètement à gauche du terme avant de faire l’opération, par exemple pour ψ une fonction impaire :

∂θ1(ψ(x)θ2θ3θ1) =−∂θ1θ1ψ(x)θ2θ3 (3.6)

=−ψ(x)θ2θ3. (3.7)

Le calcul intégral sur les variables grassmanniennes est tout aussi simple, l’intégrale est définie comme l’équivalent de la dérivée :

Z dθθ = 1 (3.8) Z dθ = 0. (3.9) Par exemple, Z dθ1dθ2ψ(x)θ1θ2 = ψ(x) Z dθ1dθ2θ1θ2 =−ψ(x) Z dθ1θ1dθ2θ2 =−ψ(x). (3.10) 16

(33)

3.2

Mécanique quantique supersymétrique

L’extension supersymétrique des modèles implique l’existence de variables fermioniques ad-ditionnelles. En plus des 2N variables (x, p) on ajoute les 2N variables fermioniques (θ, θ†).

L’algèbre est donc maintenant définie selon les relations de commutation suivantes [6] :

[xj, pk] = iδj,k, {θj, θ†k} = δj,k. (3.11)

On travaillera avec la représentation suivante,

pj =−i∂xj, θ

j = ∂θj. (3.12)

Les modèles supersymétriques permettent de définir l’hamiltonien H comme l’anticommuta-teur des deux charges supersymétriques [5],

H = 12{Q, Q†} . (3.13) L’hamiltionien sera invariant sous transformation supersymétrique si

Q2= (Q†)2 = 0. (3.14)

Si on écrit les charges sous la forme

Q = N X i=1 θ†iAi(x, p), Q†= N X i=1 θiA†i(x, p), (3.15)

on obtient que l’invariance de l’hamiltonien sous transformation supersymétrique implique que

[Ai, Aj] = 0 = [A†i, A†j]. (3.16)

La forme générique d’un hamiltonien supersymétrique est donc donnée par

H = 12   X i A†iAi+ X i,j θi†θj[Ai, A†j]  . (3.17)

Pour obtenir le modèle Calogero-Sutherland supersymétrique (sCS), on peut directement sub-stituer les opérateurs de création et d’annihilation du modèle CS dans la définition (3.17). Ceci nous donne comme résultat [20],

H = 1 2 N X i p2i +π L 2X i<j β(β− 1 + θi,jθ†i,j) sin2(πxi,j/L) − E0 . (3.18)

Noter qu’on utilise la notation :

θi,j ≡ θi− θj et (3.19)

(34)

Tout comme dans le cas non-supersymétrique, il est plus simple de considérer le système de coordonnées zj = e2πixj/L en termes duquel l’hamiltonien s’écrit

H = 2π L 2   X i (zi∂i)2− 2 X i<j zizj z2 i,j β(β− 1 + θi,jθ†i,j)  − E0. (3.21)

Ce nouvel hamiltonien admet le même état d’énergie fondamental que le modèle CS, mais aussi un nouvel état de vide fermionique. Ces états sont

Ψ0(z) = ψ0(z) = Y i<j z2 i,j zizj !β/2 (3.22) ¯ Ψ0(z) = θ1· · · θN Y i<j z2 i,j zizj !−β/2 . (3.23)

Tout comme dans le cas standard, on enlèvera la contribution énergétique de l’état fondamen-tal. On se concentre ici sur Ψ0 pour éviter le fait que les variables de Grassmann n’ont pas

d’inverse : ˜ H =  2π L 2−1 Ψ−10 0 (3.24) =X i (zi∂i)2+ β X i<j zi+ zj zi,j (zi∂i− zj∂j)− 2β X i<j zizj zi,j θi,jθi,j† (3.25)

Cet hamiltonien admet des fonctions propres telles que

˜

HΦΛ(z, θ) = ˜EΛΦΛ(z, θ), (3.26)

où Λ sont des superpartitions qui seront définies dans la section suivante. Les fonctions propres de ce modèle sont les superpolynômes de Jack (sJacks). La simple condition qu’une fonction soit une fonction propre de ˜H est toutefois trop faible pour définir les sJacks. En effet, cette condition n’implique pas l’orthogonalité[9] entre les superpolynômes, ni la triangularité sur la base monomiale. Pour s’en assurer, il faut que les fonctions ΦΛ(z, θ) soient fonctions propres

de toutes les charges conservées simultanément. On peut, de façon équivalente, imposer la triangularité sur la base monomiale et imposer que ΦΛ(z, θ) soit aussi une fonction propre de

[7] : I1= X i θiziθ†i∂i+ β X i6=j θizj+ θjzi zi,j θ†i. (3.27)

Ces trois conditions définissent ensemble les sJacks. Pour présenter les sJacks, on verra d’abord certains concepts propres aux superpolynômes. On fournira ensuite une définition des sJacks équivalente aux conditions présentées ici. Cette définition alternative permettra de faire écho à la définition des Jacks standards puisqu’elles sont semblables.

(35)

3.3

Les superpolynômes

Les superpolynômes symétriques sont des polynômes incluant les variables grassmanniennes en plus des variables ordinaires zi. La nouvelle symétrie qu’ils doivent satisfaire est celle de

l’invariance sous l’échange (zi, θi)←→ (zj, θj)∀ i, j. Comme les variables fermioniques ont la

propriété spéciale d’anticommutation, il faut trouver une façon naturelle d’encoder la distri-bution des puissances et des indices pour contraindre les polynômes de manière à ce qu’ils ne soient pas systématiquement nuls.

Cette façon d’encoder s’appelle les superpartitions. Celles-ci consistent en l’union d’une parti-tion standard et d’une partiparti-tion strictement décroissante pouvant contenir au plus un 0. Plus formellement [6],

Λ = (Λa; Λs) = (Λ1,· · · , Λm; Λm+1,· · · Λℓ), (3.28)

Λ1 >· · · > Λm ≥ 0 et Λm+1≥ Λm+2 ≥ · · · ≥ Λℓ > 0. (3.29)

On appelle Λa la partition fermionique ou antisymétrique et Λs la partition bosonique ou

symétrique. Le nombre m est appelé degré fermionique de Λ et ℓ est la longueur de la partition. Le degré bosonique est |Λ| = PiΛi.

Pour représenter graphiquement ces superpartitions, on utilise des diagrammes de Young mo-difiés. On dénote une partie fermionique (∈ Λa) avec un cercle au bout de la partie. Par

exemple, la partition (3, 0; 2, 2) est représentée par

. (3.30)

Cette façon de représenter les superpartitions implique une représentation naturelle du conju-gué de la partition,     ❧ ❧     ′ = ❧ ❧ . (3.31)

Le conjugué préserve donc la définition selon laquelle on ne fait qu’intervertir les lignes et les colonnes. Une autre façon de représenter les superpartitions se fait par le couple (Λ⊛, Λ),

où la première définit la superpartition où tous les cercles ont été transformés en boîtes et la seconde où tous les cercles ont été retirés. En voici un exemple,

Λ = ❧ ❧ ❧ ⇐⇒ Λ⊛ = Λ∗= . (3.32)

(36)

Cette représentation est particulièrement utile lorsqu’on veut parler du bras (aλ(t)) et de la

jambe (lλ(t)) d’une boîte d’un diagramme. Ces quantités ne sont bien définies que sur une

partition standard, c’est pourquoi lorsque l’on voudra les calculer on précisera sur laquelle des partitions l’opération sera faite en notant par exemple lΛ⊛(t) ou lΛ∗(t).

Finalement, on définit l’ordre de dominance entre les superpartitions. Ω≤ Λ ssi Ω∗ ≤ Λ∗ et Ω⊛

≤ Λ⊛

, (3.33)

où les deux symboles ≤ de droite dénote l’ordre de dominance standard définit en (1.9). En d’autres mots, on dira que Ω < Λ si Ω peut être obtenu de Λ en déplacent successivement une boîte ou un cercle vers le bas. Par exemple,

❧ > ❧ >

. (3.34)

Maintenant que les éléments nécessaires ont été présentés, on peut s’attaquer à la formulation des superpolynômes symétriques.

3.3.1 Les bases polynomiales supersymétriques

La généralisation de la base monomiale est assez directe. Comme dans le cas standard, on écrit un monôme à N variables auxquelles on assigne une puissance en fonction de la partition, on symétrise ensuite l’expression en sommant toutes les permutations distinctes. La différence dans le cas supersymétrique, c’est qu’on ajoute N variables θ au polynôme. Plus formellement, pour une superpartition Λ [6], [8],

mΛ(z; θ) =

X

P ∈SN

P∗θ1· · · θmz1Λ1· · · zNΛN, (3.35)

où P∗génère les permutations (distinctes) des indices. Noter que Λ

ℓ+1 = Λℓ+2=· · · = ΛN = 0,

où ℓ est la longueur de la partition. On présente généralement les polynômes de façon telle que les indices sont en ordre croissant, ce qui peut induire des signes négatifs. Voici quelques exemples de supermonômes pour m = 2, |Λ| = 3 :

m(2,1;0)= θ1θ2(z21z2− z1z22) + θ1θ3(z12z3− z1z32) + θ1θ4(z21z4− z1z24) + θ2θ3(z22z3− z2z23) + θ2θ4(z22z4− z2z42) + θ3θ4(z32z4− z3z24) (3.36) m(2,0;1)= θ1θ2(z21− z22)(z3+ z4) + θ1θ3(z12− z32)(z2+ z5) + θ1θ4(z12− z24)(z2+ z3) + θ2θ3(z22− z32)(z1+ z4) + θ2θ4(z22− z24)(z1+ z3) + θ3θ4(z32− z42)(z1+ z2) (3.37) m(1,0;2)= θ1θ2(z1− z2)(z23+ z42) + θ1θ3(z1− z3)(z22+ z24) + θ1θ4(z1− z4)(z22+ z32) + θ2θ3(z2− z3)(z12+ z42) + θ2θ4(z2− z4)(z12+ z23) + θ3θ4(z3− z4)(z21+ z22) (3.38) m(1,0;1,1)= θ1θ2(z1− z2)z3z4+ θ1θ3(z1− z3)z2z4+ θ1θ4(z1− z4)z2z3 + θ2θ3(z2− z3)z1z4+ θ2θ4(z2− z4)z1z3+ θ3θ4(z3− z4)z1z2. (3.39) 20

(37)

Les superpolynômes de Jack seront développés sur cette base, mais leur produit scalaire sera défini sur la base des sommes de puissances.

Le développement des supersommes de puissances est tout aussi direct que dans le cas des monômes. Nous avions déjà que la n-ième somme de puissances était la somme de toutes les varibles individuellement élevées à la puissance n. On doit introduire ici la somme de puissances fermionique, ˜ pn(z; θ) = X i θizin. (3.40)

On définit donc un élément de la base des supersommes de puissances comme [8]

pΛ= ˜pΛ1· · · ˜pΛmpΛm+1· · · pΛl, (3.41)

où les pnsont les sommes de puissances standards. On associe à cette base un produit scalaire

à un paramètre qui sera aussi au centre de la définition des superpolynômes de Jack.

hpΛ|pΩiα= (−1)(

m

2)αℓ(Λ)zΛΛ,Ω, (3.42)

où la partition Λs est telle que définie auparavant, soit la partie symétrique (bosonique) de la

partition et zΛs a été défini en (1.27).1

3.3.2 Les superpolynômes de Jack

Tous les éléments introduits pour les superpolynômes nous permettent maintenant de présen-ter les fonctions propres de l’hamiltonien de l’extension supersymétrique du modèle CS. On a vu que ces polynômes sont caractérisés par le fait qu’ils sont simultanément fonctions propres de toutes les charges conservées du modèle sCS. On donne ici une définition équivalente qui nous permet de définir leur produit scalaire et leur forme sur la base des supermonômes. Ils doivent répondre à deux conditions particulières soit la triangularité dans la base des super-monômes et l’orthogonalité par rapport au produit scalaire (3.42).

La triangularité se présente ainsi [10],

PΛ(α) = mΛ+

X

Ω<Λ

cΛ,Ω(α)mΩ, (3.43)

où le < réfère à l’ordre de dominance. La condition d’orthogonalité sur le produit scalaire est définie en utilisant la décomposition des sJack sur la base des supersommes de puissances et le produit scalaire qui leur est associé.

hPΛ(α)|P (α)

Ω iα= 0 si Λ6= Ω. (3.44)

1. Il ne faut pas confondre le nombre miportant un indice, qui dénote la multiplicité d’une partie, avec le

(38)

Ces deux conditions permettent de définir uniquement les superpolynômes de Jack. La norme des sJacks est la suivante [10],

hPΛ(α)|P (α)

Λ iα = (−1)(

m

2)jΛ, (3.45)

où la superpartition Λ est de degré fermionique m. On explicite jΛ comme,

jΛ(α) = αm

Y

t∈Λ

h↑Λ(t)

h↓Λ(t). (3.46)

Les deux quantités h↑Λ, h↓Λ sont appelées respectivement les supercrochets supérieurs et infé-rieurs. Ils sont définis comme suit,

h↑Λ(t) = lΛ⊛(t) + α(aΛ∗(t) + 1) (3.47)

h↓Λ(t) = lΛ∗(t) + 1 + αaΛ⊛(t). (3.48)

La coordonnée t fait quant à elle référence au couple (i, j) dénotant la ligne et la colonne d’intérêt sur le diagramme. Voici quelques exemples de superpolynômes de Jack, pour un degré |Λ| = 3 : P(2,1;)(α) = m(2,1;)+ 1 1 + αm(2,0;1)− α 2(1 + α)2m(1,0;2)+ 1 (1 + α)2m(1,0;1,1) (3.49) P(2,0;1)(α) = m(2,0;1)+ 1 1 + αm(1,0;2)+ 2 1 + αm(1,0;1,1) (3.50) P(1,0;2)(α) = m(1,0;2)+ 2 2 + αm(1,0;1,1) (3.51) P(0;2,1)(α) = m(0;2,1)+ 6 2 + αm(0;1,1,1)+ 2 2 + αm(1;1,1) (3.52) P(;2,1)(α) = m(;2,1)+ 6 2 + αm(;1,1,1) (3.53)

Avec ces nouveaux polynômes en main, on peut inspecter la relation entre les sJack et les vecteurs singuliers de l’algèbre superconforme. On pourra voir si l’affinité se manifeste aussi dans le cas supersymétrique. Pour cela, il faudra définir l’algèbre superconforme et déterminer la correspondance entre les opérateurs appartenant à celle-ci et les superpolynômes ici décrits.

(39)

Chapitre 4

Les vecteurs singuliers de l’algèbre

superconforme

Dans ce chapitre, on mettra de l’avant le lien qui existe entre les superpolynômes symétriques et l’algèbre superconforme. On commencera par faire une connection entre la formulation en champs libres de l’algèbre et les superpolynômes. Puis, on montrera que les premiers vecteurs singuliers peuvent effectivement s’écrire en termes de seulement quelques superpolynômes de Jack. Ensuite, on caractérisera les superpolynômes admissibles pour construire un vecteur singulier ce qui nous mènera à plusieurs considérations sur la structure des diagrammes. On pourra alors présenter la formule explicite des vecteurs singuliers en termes des superpoly-nômes de Jack, puis on expliquera cette formulation explicite. Finalement, la transformation de dualité, permettant de résoudre la moitié du secteur qui n’est pas traitée par la formule, sera expliquée.

Notons tout d’abord que la théorie des champs superconformes (TCSC) se divise en deux sec-teurs. Rappelons d’autre part qu’elle est une théorie en deux dimensions, ce faisant, on peut définir le système de coordonnées sur un cylindre. La coordonnée polaire désigne la coordonnée d’espace tandis que la hauteur sur le cylindre définit le temps. Sur la coordonnée d’espace, on peut exiger certaines conditions aux frontières, soit qu’elles sont périodiques, soit qu’elles sont anti-périodiques. C’est ce qui définit les deux secteurs, respectivement de Neveu-Schwarz et de Ramond. Le premier secteur ayant été traité complètement dans [11], nous nous concentre-rons ici sur l’objet de la publication [1], soit le secteur de Ramond. Le contenu de ce chapitre reprend et complète plusieurs éléments de cette publication.

(40)

Neveu et Schwarz [18,17]. Elles sont définies comme suit [12] : [Ln, Lm] = (n− m)Ln+m+ c 12n(n 2− 1)δ n+m,0 [Ln, Gk] = n 2 − k  Gn+k {Gk, Gl} = 2Lk+l+  k21 4  c 3δk+l,0, (4.1)

où n et m sont des entiers. Le secteur de Ramond se distingue par le fait que les indices du générateur Gr prennent des valeurs entières, i.e. k, l ∈ Z.1Le fait que les indices prennent des

valeurs entières fait qu’il existe un générateur G0. L’existence de ce générateur fait qu’il y a

deux états de plus haut poids qui sont de chiralité différentes,

|hi+≡ |hi |hi− ≡ G0|hi . (4.2)

On se concentrera ici sur les états de chiralité positive, puisqu’on peut appliquer G0 sur un

vecteur singulier sans le dénaturer. Ceci sera démontré plus loin.

Les états de plus haut poids ont la propriété particulière suivante,

Ln|hi = 0 = Gn|hi ∀n > 0 et L0|hi = h |hi . (4.3)

On peut construire tout le module de Verma en appliquant de toutes les façons possibles les deux générateurs de l’algèbre. Un état arbitraire est donc dénoté par

G−Λ1· · · G−ΛmL−Λm+1· · · L−Λl|hi , (4.4)

avec les conditions

Λ1> . . . > Λm≥ 0, Λm+1 ≥ . . . ≥ Λℓ ≥ 0 avec m≥ 0, l≥ 0, (4.5)

c’est-à-dire que Λ est une superpartition. On voit ici que les Gk ont pour indices les parties

de la portion antisymétrique de la superpartition. La séquence de ces opérateurs correspond donc à une partition strictement décroissante, ainsi, deux parties ne peuvent être répétées. Ceci est une conséquence du fait que les relations de commutation entre les Gk produisent des

générateurs Ln. Si on veut écrire de façon unique chaque état, on doit s’assurer de les noter

tels que les Gk ne soient pas répétés.

On notera finalement que,

G20 = L0− c

24. (4.6)

1. Les indices prennent des valeurs demi-entières dans le secteur de Neveu-Schwarz.

(41)

Ceci signifie que l’état de plus haut poids |hi sera supersymétrique seulement si h = c/24. Ici, on prendra une paramétrisation de la charge centrale qui est beaucoup plus libre.

On se rappelera que, pour l’algèbre de Virasoro, lorsque la charge centrale et la dimension conforme sont paramétrisées d’une certaine façon, le module de Verma est réductible et il forme un module de Kac. Ce principe est aussi valable dans le cas supersymétrique. La para-métrisation dans le contexte de la TCSC pour le secteur de Ramond est la suivante [11] :

c = 15 2 − 3  t +1 t  et hr,s= t 8(r 2− 1) + 1 8t(s 2− 1) −1 4(rs− 1) + 1 16, (4.7) où r et s sont des entiers positifs tels que r − s est impair et t est un nombre complexe. Cette paramétrisation est une condition nécessaire et suffisante à l’existence d’un vecteur singulier et la paramétrisation indique que le vecteur singulier se manifestera au niveau rs/2 [13]. Les vecteurs singuliers sont pour leur part définis de façon analogue au cas de la TCC, c’est-à-dire que |χi est un vecteur singulier si Gn|χi = 0 et Ln|χi = 0 pour tout n > 0. Ces contraintes

peuvent être plus simplement résumées par

G1|χi = 0 et L1|χi = 0. (4.8)

Comme dans le cas standard, on peut écrire un état arbitraire au niveau rs/2, imposer ces deux conditions et résoudre le système d’équations. Comme mentionné auparavant, le changement de chiralité d’un vecteur singulier produit encore un vecteur singulier. En effet, si on utilise l’algèbre (4.1) on a que

[L1, G0] =

1

2G1 (4.9)

[G1, G0] = 2L1. (4.10)

Il est donc clair qu’à un facteur près, l’action de G0sur un vecteur singulier ne fait qu’échanger

les deux conditions dans (4.8) et puisqu’elles sont respectées simultanément, le vecteur singulier reste un vecteur singulier après l’action de G0. Ainsi, pour trouver les vecteurs singuliers, on

peut se contenter de trouver seulement ceux associés à une seule chiralité. C’est la raison pour laquelle on ne traitera ici que des vecteurs de chiralité positive.

4.1

La correspondence entre la TCSC et les superpolynômes

La relation entre les vecteurs singuliers et les superpolynômes passe une fois de plus par la représentation en champs libres. Dans le secteur de Ramond, cette représentation est décrite en termes des modes an, bn avec n ∈ Z et de l’opérateur de la charge du vide π0 [1] :

(42)

On définit la famille des états du vide à un paramètre comme |ηi ≡ eηπ0|0i satisfaisant,

a0|ηi = η|ηi, an|ηi = 0 et bn|ηi = 0, ∀ n > 0. (4.12)

Ceci nous permet d’introduire l’espace de Fock F qui est généré en agissant avec les opérateurs de création de (4.11) sur l’état de plus haut poids, et ce, de toutes les façons possibles. Un état arbitraire prend donc la forme,

b−Λ1· · · b−Λma−Λm+1· · · a−Λ|ηi , (4.13) où les sous-indices doivent correspondre aux contraintes imposées par les superpartitions (cf. (3.29)). Dans cette représentation, l’algèbre superconforme dans le secteur de Ramond prend la forme suivante, Ln=−γ(n + 1)an+ 1 2 X k∈Z : akan−k : + 1 4 X k∈Z n− 2k +1 2 : bkbn−k : (4.14) Gn=−2γ n + 1 2bn+ X k∈Z akbn−k, (4.15)

où γ est relié à la charge centrale par la relation c = 3

2 − 12γ2 et :: dénote l’ordre normal,

c’est-à-dire qu’on place toujours l’opérateur ayant le plus grand indice à droite.

On peut maintenant déterminer la correspondance entre les modes de la représentation en champs libres et les opérateurs différentiels agissant dans l’espaces des superpolynômes symé-triques. Cet espace sera noté R. La correspondance est la suivante [1],

an←→        (−1)n−1 √ α p−n n < 0 η n = 0 (−1)n−1n√α∂n n > 0 bn←→        (−1)n √ 2 p˜−n n < 0 1 √ 2(˜p0+ ˜∂0) n = 0 (−1)n√2 ˜ n n > 0 , (4.16) où ∂n≡ ∂ ∂pn et ˜n ∂ ∂ ˜pn . (4.17)

Deux choses sont à remarquer : les modes b ne dépendent aucunement de la constante α et ils comprennent le mode b0 représenté par la superposition linéaire d’un polynôme fermionique et

de sa dérivée. L’identification de l’état fondamental |ηi ↔ 1 et les définitions (4.16) fournissent la correspondance suivante entre F et R :

b−Λ1· · · b−Λma−Λm+1· · · aΛℓ|ηi ←→ ζΛpΛ, (4.18) où ζΛ= (−1)|Λ|−(ℓ−m) 2m/2α(ℓ−m)/2. (4.19) 26

(43)

Soulignons que le niveau dans l’espace de Fock correspond au degré bosonique de la partition, soit la somme de toutes les parties.

La représentation en champs libres et la correspondance entre F et R nous donne une repré-sentation des générateurs de super-Virasoro dans le secteur de Ramond en termes d’opérateurs différentiels agissant dans R. Les deux générateurs qui nous intéresseront plus particulièrement sont, G1 = √ 2(3γ− η) ˜∂1+r α 2(˜p0+ ˜∂0)∂1+ r α 2 X n≥1 n˜pn∂n+1+r 2 α X n≥1 pn∂˜n+1 L1 =√α(η− 2γ)∂1−1 2(˜p0+ ˜∂0) ˜∂1− X n≥1 npn∂n+1−1 2 X n≥1 (2n + 1)˜pn∂˜n+1. (4.20)

Ce sont ces deux opérateurs différentiels qui nous permettent de créer les systèmes d’équations linéaires associés aux vecteurs singuliers. C’est d’ailleurs avec ces opérateurs qu’on obtient les expressions des vecteurs singuliers avec un programme de calcul symbolique. Cette approche est beaucoup plus simple que celle qui consiste à programmer l’algèbre.

De façon plus générale, l’ensemble des définitions permettent une représentation de tout le module de Verma M avec l’état de plus haut poids |hi dans l’espace des superpolynômes :

X Λ cΛG−ΛaL−Λs|hi ←→ X Λ cΛG−ΛaL−Λs(1) , (4.21) où h = 1 2η(η− 2γ) + 1 16. (4.22)

4.1.1 Les vecteurs singuliers en termes de superpolynômes

Comme mentionné précédemment, les définitions (4.20) permettent de calculer les vecteurs singuliers dans l’espace R. En posant une superposition linéaire de supersommes de puissances d’un niveau donné, en appliquant chacun des opérateurs et en posant chaque équation égale à 0, on obtient un système d’équations linéaires pouvant nous fournir les vecteurs singuliers. Il s’avère, comme ce qui était attendu, que les sJacks réduisent grandement le nombre de termes nécessaires à la représentation des vecteurs singuliers. Pour obtenir un module de Kac avec la correspondance (4.21), on doit utiliser la paramétrisation suivante,

t = α, γ = 1

2√α(α− 1) et η≡ ηr,s= 1

2√α((r + 1)α− (s + 1)) . (4.23)

On notera PΛ = PΛ(α) les sJack avec paramètre α indexés par la superpartition Λ. Le terme

(44)

d’écrire les vecteurs singuliers de chiralité positive |χr,si en termes de superpolynômes, Fr,s = X Λ m=0 mod 2 |Λ|=rs/2 vΛPΛ, (4.24) si et seulement si, G1(Fr,s) = 0 et L1(Fr,s) = 0 . (4.25)

C’est ici qu’on arrive en plein centre du projet. Il faut arriver à caractériser le plus précisément possible les superpartitions Λ telles que les coefficients vΛ 6= 0. Une fois cela fait, il faut trouver

s’il y a un patron qui se dessine dans la suite des coefficients et voir si on peut exprimer chaque coefficient comme une fonction de (r, s, Λ). C’est effectivement ce qui a été obtenu. La formule qui sera présentée ne s’applique qu’aux cas où r est impair. Puisque dans le secteur de Ramond r + s est impair, la formule permet de déterminer tous les vecteurs singuliers seulement si nous avons une relation qui permet de relier Fr,s ↔ Fs,r. Cette relation existe, elle est ici appelée

la transformation de dualité et fait l’objet de la section (4.6).

4.1.2 Les vecteurs singuliers superconformes en termes de sJack : cas simple

Les formules pour les cas simples avaient été determinées dans [11]. On avait,

|χ1,si ←→ P(1s/2)− P(1,0;1s/2−1) (4.26)

|χr,1i ←→ P(r/2)+

αr

2 P(r/2,0;) (4.27)

et un résultat beaucoup plus étoffé,

|χ2,si ←→ (α + 1) (s−1)/2 X l=0 2l+1 Y i=l+1 i α + i  P(2(s−1)/2−l,12l+1)+ α 2l + 1P(1,0;2(s−1)/2−l,12l)  . (4.28)

Ces formules donnaient bon espoir qu’il existait une formule fermée pour les niveaux supérieurs. La première étape en vue de cet objectif est de caractériser le plus précisément possible les diagrammes admissibles qui composent les vecteurs singuliers.

4.2

Les superpartitions admissibles

On se rapellera que les polynômes de Jack qui représentent les vecteurs singuliers dans le cas standard dépendent d’une partition de forme (rs). Les diagrammes de ces partitions sont donc

des rectangles. Ce même rectangle se manifeste une fois de plus dans le cas supersymétrique, mais cette fois ci, sous la forme de l’autocomplémentarité.

Il avait déjà été noté [11] que les superpartitions qui entraient en jeu au niveau rs/2 étaient les partitions qui faisaient partie de l’ensemble des superpartitions autocomplémentaires dans le

(45)

rectangle (r, s). On notera cet ensemble par R

r,s. Une superpartition Λ est (r, s)-autocomplémentaire

si une fois tournée de 180 degrés, la partition Λ∗s’agence parfaitement à elle-même pour

com-bler un rectangle d’une largeur de r et d’une hauteur de s. Noter d’ailleurs que

Λ∈ Rr,s =⇒ |Λ| =

rs

2 . (4.29)

Pour illustrer le concept d’autocomplémentarité, considérons l’exemple où (r, s) = (3, 4). Sup-posons de plus que le degré fermionique est pair. Dans ce cas, il y a 40 superpartitions de degré 3 ∗ 4/2. Par contre, comme illustré ci-dessous, seules 14 superpartitions parmi celles-ci sont (3, 4)-autocomplémentaires : ←→ (3, 3) (3, 0; 3) ←→ (3, 2, 1) (1, 0; 3, 2) (2, 0; 3, 1) (2, 1; 3) (3, 0; 2, 1) (3, 1; 2) (3, 2; 1) (3, 2, 1, 0; ) ←→ (2, 2, 1, 1) (2, 1; 2, 1) (2, 0; 2, 1, 1) (1, 0; 2, 2, 1) (4.30)

où les boîtes dont les côtés sont gras correspondent à la version de Λ∗ qui a subie une rotation

de 180 degrés. Cet ensemble n’est toutefois pas suffisamment restrictif.

L’ensemble de toutes les superpartitions admissibles de type (r, s) pour r impair, qu’on notera Ar,s, correspond à toutes les superpartitions Λ qui satisfont ces conditions [1] :

m = 0 mod 2, (4.31a)

Λ∈ Rr,s, (4.31b)

ℓ(Λ)≤ s. (4.31c)

En d’autres mots, Λ est une superpartition admissible de type (r, s) si et seulement si Λ comporte un nombre pair de cercles, le complément de Λ∗ dans le triangle de largeur r et de

hauteur s est une copie de Λ∗ sous rotation de 180 degrés et, finalement, le seul élément qui

peut sortir de ce rectangle lorsqu’on y place tout le diagramme de la superpartition qui n’a pas subit de rotation est un cercle au bout de la première rangée. Ces conditions définissent complètement Ar,s :

r impair : Ar,s={Λ | Λ ∈ Rr,s, m pair, ℓ(Λ)≤ s}. (4.32)

Dans l’exemple des superpartitions appartenant à (r, s) = (3, 4), on voit que les superpartitions (2, 0; 2, 1, 1) et (1, 0; 2, 2, 1) ne sont pas permises puisqu’elles contredisent la troisième règle de sélection. Il y a donc 12 superpartitions admissibles de type (3, 4).

(46)

4.3

La structure récursive des diagrammes

Dans cette section on discutera de la structure des diagrammes admissibles. Ceci nous permet-tra d’introduire certaines quantités à partir desquelles la formule est construite. Les quantités et les ensembles définis ici ne nécessitent pas toute la discussion qui suit. Ces explications permettront toutefois de mettre en contexte ce qui a mené à la formule et de donner une interprétation claire des paramètres utilisés. Pour commencer cette discussion, introduisons l’idée selon laquelle les diagrammes admissibles sont construits par deux opérations simples.

Dénotons le coeur de Ar,s par A∗r,s défini comme l’ensemble des diagrammes Λ∗ = Λ ∈ Ar,s,

c’est-à-dire tous les diagrammes admissibles sans cercle. Puisque les superpartitions admis-sibles doivent être (r, s)-autocomplémentaires, on peut voir n’importe quel diagramme du coeur comme étant construit à partir de l’addition d’une rangée ou d’une colonne à un dia-gramme de niveau inférieur. Par exemple, les diadia-grammes appartenant à A∗

r,s peuvent être

plus larges que ceux appartenant à A∗

r−2,s en vertu de la règle d’autocomplémentarité. Par

contre, cette même règle contraint l’extension horizontale à se faire de façon très précise : tous les diagrammes de A∗

r−2,s ne peuvent être transformés en diagrammes de A∗r,s qu’en ajoutant

une colonne de longueur s. Toutefois, ce ne sont pas tous les diagrammes de A∗

r,s qui seront

générés de la sorte. Un autre processus contribue à y générer des diagrammes, soit l’extension verticale des diagrammes appartenant à A∗

r,s−2. L’autocomplémentarité, dans ce cas, limite

l’extension verticale à l’ajout d’une rangée de longueur r au-dessus du diagramme. Ces deux opérations ne donnent toujours pas l’ensemble des diagrammes admissibles dans Ar,s

puis-qu’elles ne permettent pas l’ajout de cercles.

En résumé de ce qui a été dit jusqu’à maintenant, tous les diagrammes A∗

r,s peuvent être

obtenus par l’addition d’une colonne de longueur s aux diagrammes A∗

r−2,set l’addition d’une

rangée de longueur r aux diagrammes de A∗

r,s−2. L’ensemble complet des diagrammes Ar,s

peut être obtenu en ajoutant des paires de cercles aux diagrammes de A∗

r,sde toutes les façons

permises (incluant aucune addition de cercle).

Illustrons ce processus récursif pour en avoir une vision plus claire :

(1,4)→(3,4)

−−−−−−−→ −−−−−−−→(3,2)→(3,4) −−−−−−−→(3,2)→(3,4)

(4.33) Dans cet exemple, on obtient A∗

3,4 en ajoutant une colonne de longueur s = 4 à l’unique

élément de A∗

1,4, illustré à gauche de (4.33), et en ajoutant une rangée de longueur r = 3

au-dessus des deux éléments de A∗

3,2. Il en résulte tout le coeur A∗3,4. On obtient ensuite A3,4

(47)

en ajoutant des paires de cercles de toutes les façons admissibles. On obtient ainsi

A3,4 : {(3, 3), (2, 2, 1, 1), (3, 2, 1), (3, 0; 3), (2, 1; 2, 1), (1, 0; 3, 2), (2, 0; 3, 1),

(3, 0; 2, 1), (2, 1; 3), (3, 1; 2), (3, 2; 1), (3, 2, 1, 0; )} . (4.34) La complétude de la structure récursive des diagrammes du coeur de Ar,s se base sur une

observation simple, soit le fait qu’un diagramme (r, s)-autocomplémentaire comporte néces-sairement une colonne de longueur s ou une rangée de longueur r, mais jamais les deux. Ceci implique que n’importe quel diagramme autocomplémentaire peut être réduit, par un proces-sus de déconstruction unique, à un diagramme autocomplémentaire trivial de degré minimal. En l’occurrence, ce diagramme ne sera constitué que d’une seule rangée (r, s) = (2k + 1, 2) pour un certain k ≥ 0. Ce processus de déconstruction s’effectue en retirant une rangée de longueur r ou une colonne de longueur s et en itérant ce processus jusqu’à ce que le diagramme ne soit plus qu’une rangée. Noter qu’à chaque étape, il faut ajuster les indices (r, s).

Les figures 4.1 et 4.2 illustrent ce processus de déconstruction. La première de ces figures montre la transformation de la partition régulière (33, 23) appartenant à (r, s) = (5, 6) jusqu’à

la partition (13) de (r, s) = (1, 6) en éliminant deux fois une colonne de longueur 6. Noter

qu’à chaque étape, le diagramme est encore autocomplémentaire. On voit facilement que ceci est une conséquence du mécanisme de déconstruction. En effet, la figure illustre le rectangle r× s en lignes pontillées. Dans le processus d’élimination d’une colonne du diagramme, deux colonnes sont enlevées du rectangle, une à chaque extrémité (celles à l’extérieur des coupures représentées par les lignes grises). Les deux coupures qui sont faites symétriquement montrent clairement que la partition à l’intérieur est coupée de la même façon que son complément, assurant la conservation de l’autocomplémentarité dans le nouveau rectangle. Le fait que dans ce processus deux colonnes soient retirées au rectangle montre clairement que la valeur de r est réduite de 2 à chaque fois qu’on ampute le diagramme d’une colonne. Noter d’autre part que le dernier diagramme peut être réduit davantage en l’amputant deux fois d’une rangée de longueur 1, produisant finalement la partition (1) appartenant à A1,2. La figure4.2montre le

processus similaire qu’est l’amputation des rangées de longueur r. Noter encore que le dernier diagramme de cette figure peut être réduit jusqu’à une boîte unique en faisant deux fois une amputation d’une colonne de longueur s. Dans le processus de déconstruction, chaque étape, soit le fait de retirer une rangée ou une colonne, est parfaitement déterminée par la partition et n’est pas ambiguë. Dans le cas d’un tableau en escalier par exemple, ces opérations sont alternées.

La structure récursive des diagrammes permet d’identifer chaque boîte comme ayant été ajou-tée à un certain niveau (r, s). L’argument tout juste présenté sur la structure des diagrammes montre que l’ajout d’une colonne résulte en un incrément de deux sur la valeur de r tandis que l’ajout d’une rangée résulte en un incrément de deux de la valeur de s. Ainsi, à l’intérieur du

(48)

r = 5 s = 6 r = 3 s = 6 ; r = 3 s = 6 r = 1 s = 6

Figure4.1: Illustration de l’amputation d’une colonne d’un diagramme autocomplémentaire. On voit ici deux amputations successives d’une colonne de longueur 6. À chaque étape, le diagramme résultant est autocomplémentaire.

r = 5 s = 2 ; r = 5 s = 4 r = 5 s = 4 r = 5 s = 6

Figure 4.2: Illustration de l’amputation d’une rangée d’un diagramme autocomplémentaire. Cette figure utilise la même idée que la figure4.1, mais dans le cas des rangées.

diagramme de type (r, s), on note les coordonnées (˜rj, ˜si) dans la boîte de coordonnées (i, j)

˜

rj ≡ r − 2(j − 1) , (4.35)

˜

si≡ s − 2(i − 1) . (4.36)

Ces données nous permettent d’introduire les deux ensembles suivants :

SΛ,s ={(i, j) ∈ Λ | lΛ∗(i, j) + 1 = ˜si} ,

RΛ,r ={(i, j) ∈ Λ | aΛ∗(i, j) + 1 = ˜rj} . (4.37)

En d’autres mots, l’ensemble S dénote toutes les boîtes où la coordonnée ˜s correspond au nombre de boîtes en dessous de celle-ci plus 1. L’ensemble R dénote pour sa part les boîtes où la coordonnée ˜r correspond au nombre de boîtes à la droite de celle-ci plus 1.

Ces ensembles permettent donc d’identifier le niveau auquel une rangée ou une colonne d’un diagramme est associée. C’est ce qui permet d’écrire la formule générale. En effet, cette formule a pu être trouvée en remarquant des similitudes entre les coefficients d’un vecteur singulier et ceux du vecteur singulier du niveau suivant. Ces similitudes et la structure des diagrammes laissaient supposer que l’ajout d’une colonne ou d’une rangée avait un effet bien déterminé sur la modification de la valeur des coefficients. Pour éviter de donner une formule récursive

Figure

Figure 4.1: Illustration de l’amputation d’une colonne d’un diagramme autocomplémentaire.
Figure 4.4: Illustration du coefficient B (Λ, r, s)
Figure 4.5: Illustration du coefficient C(Λ, r, s) pour le diagramme 4.4 sur lequel on présente la disposition des triangles △ , ▽
Figure 4.6: On trouve ici une autre illustration de l’insertion des triangles et du calcul repré- repré-senté par les flèches pour un diagramme à 4 cercles.

Références

Documents relatifs

Algorithmes pour le calcul de toutes les valeurs propres d’une matrice M´ ethode de la puissance it´ er´ ee... G´ en´ eralit´ es, outils matriciels Matrices

[r]

On suppose que A et B ont chacune une seule

Si une matrice A est diagonalisable, alors lorsqu’on la diagonalise, on obtient une matrice diagonale dont les coefficients diagonaux sont les valeurs propres de A...

Huvent, Toutes les mathématiques – Cours, exercices corrigés – MPSI, PCSI, PTSI, TSI, Ellipses, 2004..

Dans toute la suite, E est de dimension nie A) Familles de vecteurs propres Proposition :. Soit E un espace K-

Nous allons voir un critère simple (mais pas le plus général) pour obtenir une matrice P −1 AP qui est diagonale, les coefficients diagonaux étant les valeurs propres de

Ici nous allons énoncer un critère plus fort : nous trouvons des conditions qui sont exactement équivalentes à ce qu’une matrice soit