• Aucun résultat trouvé

Phénoménologie des neutrinos dans une théorie de matrices aléatoires

N/A
N/A
Protected

Academic year: 2021

Partager "Phénoménologie des neutrinos dans une théorie de matrices aléatoires"

Copied!
144
0
0

Texte intégral

(1)

© Nicolas Giasson, 2019

Phénoménologie des neutrinos dans une théorie de

matrices aléatoires

Thèse

Nicolas Giasson

Doctorat en physique

Philosophiæ doctor (Ph. D.)

Québec, Canada

(2)

Phénoménologie des neutrinos

dans une théorie de matrices aléatoires

Thèse

Nicolas Giasson

Sous la direction de :

Luc Marleau, directeur de recherche

Jean-François Fortin, codirecteur de recherche

(3)

Résumé

Le mécanisme permettant d’expliquer l’origine de la masse des neutrinos demeure, encore aujourd’hui, un mystère complet dont la résolution est susceptible de modifier considérablement la structure du modèle standard en physique des particules élémentaires. Dans la littérature, plusieurs candidats po-tentiels sont donc proposés afin de combler cette lacune et, ainsi, faire la lumière sur certaines des propriétés les plus étranges des neutrinos. Parmi ceux-ci, les mécanismes seesaw de type I, II et III constituent sans doute les approches les plus attrayantes et les plus étudiées. Cependant, bien que ces mécanismes offrent un cadre de travail simple et élégant pour expliquer la faible masse des neutrinos (l’ordre de grandeur), ceux-ci n’offrent aucune prédiction sur les paramètres fondamentaux caracté-risant le phénomène d’oscillation, soit les angles de mélange, les phases complexes et la hiérarchie des masses. Afin d’obtenir des prédictions concrètes sur la phénoménologie des neutrinos, certaines hypothèses de travail supplémentaires doivent donc être formulées pour contraindre la structure des matrices de masse obtenue.

Dans ce travail, l’hypothèse anarchique propre au secteur des neutrinos est adoptée. Les matrices de masse générées par les trois mécanismes seesaw dans la limite des basses énergies sont traitées dans le contexte d’une théorie de matrices aléatoires, ce qui permet de définir et d’analyser de nouveaux ensembles matriciels aléatoires appelés ensembles seesaw. Un cadre théorique unifié est donc présenté pour la construction de ces ensembles. Grâce au formalisme élaboré, qui repose sur les outils tradition-nels relevant de la théorie des matrices aléatoires, les densités de probabilité jointes caractérisant ces ensembles sont obtenues de façon analytique. Une étude détaillée de leurs propriétés est alors réalisée, ce qui permet d’extraire les tendances dominantes propres à ces mécanismes de masse et d’analyser leurs conséquences pour le secteur des neutrinos du modèle standard étendu.

En ce qui concerne le spectre de masse, les résultats obtenus indiquent que les mécanismes seesaw de type I et de type III sont plus adéquats pour reproduire les observations expérimentales. De plus, une forte préférence pour la différence de masses associée à la hiérarchie normale est observée. En contrepartie, il est également démontré que pour une différence de masses donnée entre les trois gé-nérations, toutes les permutations des masses sont équiprobables, ce qui rend hors de portée toute prédiction concernant la hiérarchie du spectre (normale ou inverse) sous l’hypothèse anarchique. En ce qui concerne les variables du groupe de symétrie (les angles de mélange et les phases complexes), on constate, d’une part, que la notion de mélange quasi-maximal est naturellement favorisée et, d’autre part, que la matrice PMNS peut être décrite comme une matrice unitaire générique tirée au hasard d’un ensemble matriciel caractérisé par la mesure de Haar du groupe de Lie correspondant. Par ailleurs, il est également démontré que ces conclusions sont indépendantes du mécanisme de masse considéré.

(4)

Abstract

The neutrino mass generation mechanism remains, to this day, a complete mystery which is likely to play an important role in understanding the foundations of the Standard Model of particle physics. In an effort to fill this gap and, ultimately, shed some light on some of the most intriguing properties of neutrinos, many theoretical models are proposed in the literature. Among the many candidates, the type I, type II and type III seesaw mechanisms may very well be the most attractive and the most studied propositions. However, despite the fact that these mechanisms provide a simple and elegant framework for explaining the smallness of neutrino masses (the order of magnitude), no prediction can be made on the fundamental parameters governing neutrino oscillations (the mixing angles, the CP-violating phases and the mass differences). Thus, to obtain concrete results regarding neutrino phenomenology, additional working assumptions must be made in order to constrain the structure of the corresponding mass matrices.

In this work, the anarchy hypothesis relevant to the neutrino sector is investigated. The mass matrices generated by the three seesaw mechanisms in the low-energy limit are studied within the framework of random matrix theory, which leads to the developement and the analysis of the seesaw ensembles. A unified and precise theoretical formalism, based on the usual tools of random matrix theory, is presended for the construction of these new random matrix ensembles. Using this formalism, the joint probability density functions characterizing these ensembles are obtained analytically, thus paving the way for a detailed study of their properties. This study is then carried out, revealing the underlying trends in these ensembles and, thereby, offering a thorough analysis of their consequences for the neu-trino sector of the seesaw-extended Standard Model.

Regarding the mass spectrum, it is found that the type I and type III seesaw mechanisms are bet-ter suited to accommodate experimental data. Moreover, the results indicate a strong preference for the mass splitting associated to normal hierarchy. However, since all permutations of the masses are found to be equally probable for a particular mass splitting between the three generations, predictions concerning the hierarchy of the mass spectrum (normal or inverted) remains out of reach in the fra-mework of anarchy. Regarding the group variables (the mixing angles an CP -violating phases), it is found that near-maximal mixing is naturally favored by these ensembles and, that the PMNS matrix can be described as a generic unitary matrix drawn at random from a matrix ensemble caracterized by the Haar measure of the corresponding Lie group. Furthermore, these conclusions are found to be independent of the mass mechanism considered.

(5)

Table des matières

Résumé iii

Abstract iv

Table des matières v

Liste des tableaux vii

Liste des figures viii

Remerciements x

Introduction 1

1 Description des neutrinos et de leurs propriétés 11

1.1 Champs fermioniques : Les spineurs de Dirac, Majorana et Weyl . . . 11

1.2 Les neutrinos et le secteur électrofaible . . . 16

1.2.1 Interaction de type courant chargé . . . 19

1.2.2 Le phénomène d’oscillation dans le vide . . . 22

1.2.3 Contraintes expérimentales . . . 25

1.3 Les origines de la masse dans une théorie de jauge . . . 28

1.3.1 Le mécanisme de Higgs . . . 29

1.3.2 Neutrinos massifs et extension minimale du modèle standard . . . 33

1.3.3 Mécanismes seesaw . . . 37

2 Principe anarchique et matrices aléatoires 47 2.1 Une approche alternative qui repose sur le hasard . . . 47

2.1.1 Motivations . . . 48

2.1.2 Le principe anarchique . . . 49

2.2 Introduction à la théorie des matrices aléatoires : L’ensemble gaussien orthogonal . . . . 51

2.2.1 Distribution jointe des éléments de matrice . . . 53

2.2.2 Distribution jointe des valeurs propres . . . 56

2.3 Éléments d’analyse statistique multivariée . . . 60

2.3.1 Propriétés du produit extérieur . . . 60

2.3.2 Calcul de mesures : l’ensemble gaussien unitaire . . . 62

2.3.3 Variété de Stiefel et mesure de Haar . . . 64

2.3.4 Décomposition en valeurs singulières et mesures associées . . . 66

3 Ensembles seesaw 73 3.1 Définitions et concepts de base . . . 73

3.1.1 Ensembles de base de type Dirac et Majorana . . . 74

3.1.2 L’ensemble seesaw de type I-III . . . 76

3.1.3 Distribution jointe des valeurs singulières et des variables du groupe . . . 79

(6)

3.2.1 Comportements asymptotiques . . . 82

3.2.2 Les cas N = 1 et N = 2 . . . 83

3.3 Le secteur des neutrinos du modèle standard étendu (le cas N = 3) . . . 90

3.3.1 Paramètres angulaires et masses . . . 90

3.3.2 Symétrie CP et invariants . . . 99

3.4 Analyse et discussion . . . 114

3.4.1 Retour sur les principales tendances observées . . . 115

3.4.2 Spectre de masse des neutrinos . . . 116

3.4.3 Invariants quartiques du secteur leptonique . . . 119

Conclusion 122 A Quelques résultats utiles 127 A.1 Intégrales multidimensionnelles . . . 127

A.2 Décomposition en valeurs singulières . . . 128

A.2.1 Matrice arbitraire . . . 128

A.2.2 Matrice symétrique . . . 129

A.3 Paramétrisation du groupe unitaire U(N) . . . 130

(7)

Liste des tableaux

1.1 Valeurs propres des opérateurs d’isospin I et I3, d’hypercharge Y et de charge électrique

Qpour les trois générations de fermions du modèle standard (tableau adapté de [1]). . . 17 1.2 Valeurs des différents paramètres d’oscillation (1σ) tels que présentés dans [2]. . . 26 1.3 Propriétés du doublet de Higgs. . . 29 3.1 Paramètres de localisation des distributions marginales de la figure 3.3. . . 88 3.2 Test de probabilité pour les angles de mélange et les phases complexes générés à partir

de la mesure de Haar et de la mesure uniforme. Les probabilités PHaar et PUniformesont

obtenues en intégrant ces mesures sur le volume expérimental Vexpdéfini par les données

à 1σ (voir tableau 1.2). . . 92 3.3 Paramètres de localisation des distributions marginales de la figure 3.6. . . 95 3.4 Valeurs maximales des invariants |jD|, |j1|et |j2|de la matrice PMNS selon les mesures

actuelles (±1σ) des angles de mélange pour la hiérarchie normale et inverse [2]. . . 105 3.5 Premiers moments des invariants |jD|, |j1|et |j2|pour la mesure de Haar et la mesure

uniforme. . . 113 3.6 Valeurs prédites au premier quadrant pour les phases complexes obtenues à partir des

premiers moments h|j|i relevant de la mesure de Haar et de la mesure uniforme et ce, pour les hiérarchies normale et inverse. . . 113 3.7 Probabilités P (|j| ≤ |jmax|) que les invariants quartiques générés à partir de la

me-sure de Haar et de la meme-sure uniforme soient dans l’intervalle permis par les valeurs expérimentales des hiérarchies normale et inverse. . . 114

(8)

Liste des figures

1.1 Spectre des masses et composition des états |νkiselon une hiérarchie normale ou inverse.

Figure adaptée de [3] avec les données du tableau 1.2. . . 27 3.1 Distributions des valeurs singulières (masses) des ensembles seesaw pour le cas N = 1.

Les histogrammes ont été obtenus à partir d’un échantillon de 5×104matrices de masse

sans dimension. . . 84 3.2 Distributions de l’angle de mélange et de la phase complexe des deux ensembles seesaw

pour le cas N = 2. Les histogrammes ont été obtenus à partir d’un échantillon de 2.5 × 104 matrices unitaires provenant de la décomposition en valeurs singulières des

matrices de masse. . . 86 3.3 Distributions des valeurs singulières (masses) des ensembles seesaw pour le cas N = 2.

Les histogrammes ont été obtenus à partir d’un échantillon de 2.5 × 104 matrices de

masse sans dimension dans les deux cas. Les valeurs singulières sont ordonnées selon 0 ≤ ˆ

1≤mˆν2et un facteur de 2! est introduit pour corriger la constante de normalisation

des distributions. . . 87 3.4 Courbes de densité PI-III

ν ( ˆ1,mˆν2) et PνII( ˆ1,mˆν2) des valeurs singulières (masses) des

ensembles seesaw pour le cas N = 2. Les deux figures sont séparées selon l’axe de symé-trie afin que les triangles inférieurs et supérieurs représentent les résultats numériques et analytiques respectivement. . . 89 3.5 Distributions des angles de mélange et des phases complexes des deux ensembles seesaw

pour le cas N = 3. Les histogrammes ont été obtenus à partir d’un échantillon de 2.5 × 104 matrices unitaires provenant de la décomposition en valeurs singulières des

matrices de masse. . . 91 3.6 Distributions des valeurs singulières (masses) des ensembles seesaw pour le cas N = 3.

Les histogrammes ont été obtenus à partir d’un échantillon de 2.5 × 104 matrices de

masse sans dimension dans les deux cas. Les valeurs singulières sont ordonnées selon 0 ≤ ˆ

1 ≤ mˆν2 ≤ mˆν3 et un facteur de 3! est introduit pour corriger la constante de

normalisation des distributions. . . 94 3.7 Distributions des ratios R des ensembles seesaw pour le cas N = 3. Les histogrammes

ont été obtenus à partir d’un échantillon de 2.5 × 104 matrices de masse sans dimension

dans les deux cas. Les valeurs singulières sont ordonnées selon 0 ≤ ˆ

1≤mˆν2 ≤mˆν3et un

facteur de 3! est introduit pour corriger la constante de normalisation des distributions. 96 3.8 Test de probabilité pour les valeurs singulières (masses) des ensembles seesaw pour le

cas N = 3. La probabilité obtenue est tracée en fonction du paramètre d’échelle Λν pour

les deux scénarios possibles, soit la hiérarchie normale et inverse. . . 98 3.9 Distributions P(j1) = P(|j1|)/2 de l’invariant sous rephasage j1pour le cas de matrices

unitaires 2 × 2. Les histogrammes ont été obtenus à partir d’un échantillon de 5 × 104

matrices générées à partir de la mesure de Haar et de la mesure uniforme. . . 109 3.10 Distributions P(j) = P(|j|)/2 des invariants sous rephasage jD, j1 et j2 pour le cas de

matrices unitaires 3 × 3. Les histogrammes ont été obtenus à partir d’un échantillon de 5 × 104 matrices générées à partir de la mesure de Haar et de la mesure uniforme. . . . 112

(9)

What can be asserted without evidence can also be dismissed without evidence.

(10)

Remerciements

La réalisation de ce projet de doctorat, aussi captivant et stimulant soit-il, n’aurait pas été possible sans le soutien inestimable de plusieurs personnes ayant joué, chacune à leur façon, un rôle déterminant dans cet accomplissement. Comme la clé de la réussite en recherche consiste avant tout à établir et entretenir des collaborations fructueuses, je me dois de remercier, en premier lieu, mon directeur de recherche ainsi que mon codirecteur de recherche, les professeurs Luc Marleau et Jean-François Fortin. Je suis profondément reconnaissant de la marque de confiance qu’ils m’ont accordé en acceptant la direction de mes travaux de recherche, de la grande liberté dont j’ai bénéficié dans le choix et dans l’élaboration de ce projet, de même que pour leur patience inébranlable lorsqu’affligés de mes nombreux questionnements. Leur support constant tout au long de ces années, ainsi que leur rigueur, leur professionnalisme et leur grande curiosité intellectuelle, ont été des sources intarissables d’inspiration, de motivation et de dépassement de soi. De cette collaboration a émergé un projet de recherche à la hauteur de mes ambitions et dont les conclusions ont permis de repousser, un tant soit peu, les limites de la connaissance dans ce domaine. En second lieu, j’aimerais remercier le professeur Patrick Desrosiers pour avoir accepté de partager son expertise sur la théorie des matrices aléatoires à un moment charnière dans l’élaboration de ce projet, de même que pour avoir réalisé la prélecture de cette thèse. Dans ce même esprit de collaboration, je tiens aussi à souligner l’importance des interactions hautement non triviales avec les étudiants diplômés du groupe de recherche en physique théorique (présents et passés), qui ont données lieu à de nombreux échanges formateurs à bien des niveaux.

Je souhaite également exprimer toute ma gratitude envers mes amis qui ont suivi, de près ou de loin, l’évolution de mon parcours universitaire et qui m’ont offert leur support et leurs encouragements dans les moments décisifs. Parmi ceux-ci, j’aimerais remercier Olivier pour les nombreuses discussions enrichissantes, pour ses conseils de vie éclairés de même que pour m’avoir communiqué son souci du détail quant à la notation et la présentation de résultats mathématiques. Un merci spécial également à Pierre-Alain et Marc-Antoine, pour les verres de scotch occasionnels qui ont su me changer les idées et m’alléger l’esprit lorsque c’était nécessaire. J’ai toujours anticipé nos rencontres (quasi) hebdomadaires avec beaucoup d’enthousiasme. De plus, je tiens à remercier Michelle pour son aide précieuse lors de la révision linguistique du manuscrit original de cette thèse. Son travail méticuleux et fort apprécié a contribué à agrémenter la lecture de cet ouvrage. Évidemment, dans l’éventualité où certaines erreurs grammaticales se révéleraient être de nature plutôt persistante, celles-ci ne devraient leur existence qu’à ma propre négligence. Enfin, merci aux membres de la famille qui ont tenté, tant bien que mal, de comprendre les différents aspects de ce projet de recherche et plus particulièrement, merci à mes parents pour leur appui inconditionnel tout au long de mes études. Sans leur dévouement exemplaire, rien de tout ça n’aurait été possible.

(11)

Introduction

Neutrino physics is largely an art of learning a great deal by observing nothing.

- Haim Harari

L

a recherche en physique des particules, alimentée par plus d’un siècle d’observations et de découvertes, permet aujourd’hui de peindre un portrait riche et diversifié des constituants fondamen-taux de la nature et de leurs interactions [4]. La panoplie de particules actuellement répertoriées, aux propriétés et fonctions fort variées, sont autant d’indices qui contribuent à révéler les secrets de l’uni-vers grâce à leur apport remarquable à notre compréhension des lois de la nature et des mécanismes qui les gouvernent. S’étant considérablement démarqués au sein de ce large éventail de particules, les neutrinos représentent sans doute l’une des composantes de la matière les plus énigmatiques et les plus étudiées, générant à eux seuls un champ de recherche d’une grande importance (autant sur le plan expérimental que théorique) s’étalant maintenant sur plusieurs décennies. Cet intérêt marqué pour l’étude des propriétés qui les caractérisent, qui s’avère être un défi de taille pour les expérimentateurs comme les théoriciens, rend manifeste le fait que celles-ci ont désormais des répercussions importantes dans plusieurs branches de la physique moderne [1,5,6]. À titre d’exemple, l’astrophysique (modélisa-tion de supernovae), la cosmologie (mécanismes derrière la leptogénèse) et la physique nucléaire (étude de désintégrations bêta particulières) sont des domaines où l’avancement des connaissances est en par-tie tributaire d’une meilleure compréhension (au niveau fondamental) de cette particule élémentaire. Ainsi, afin de bien saisir la place et l’importance qu’occupent les neutrinos dans la recherche fonda-mentale de pointe en physique des particules, il convient d’abord de présenter une revue des différents thèmes, concepts et principes élémentaires à la base d’une description adéquate des neutrinos. Cette approche pragmatique offre ainsi une vue d’ensemble de l’état actuel des connaissances, tant sur le plan expérimental que théorique, et permet de mieux cerner les différentes ramifications et limitations des modèles utilisés. Conséquemment, cette perspective contribue également à la description du contexte dans lequel se situe ce présent projet de recherche.

Considérant la classification actuelle en physique des particules [3], il s’avère possible d’attribuer le titre de particules élémentaires (objets sans structure interne apparente) à six saveurs de leptons et six saveurs de quarks réparties sur trois générations, quatre catégories de bosons de jauge transmettant les forces fondamentales (photon, gluons, bosons W± et le Z0) ainsi que le désormais célèbre boson

de Higgs (et leurs antiparticules correspondantes). À celles-ci s’ajoute également une multitude de particules composites qui se démarquent par leur contenu en quarks, regroupées sous la bannière des hadrons. De ce groupe, on distingue les baryons (une combinaison de trois quarks) et les mésons (la

(12)

combinaison d’un quark et d’un antiquark), qui sont les seules configurations hadroniques stables ayant été observées. Ces diverses familles décrivent donc des particules qui interagissent de façon fort diffé-rente avec leur milieu dû aux propriétés individuelles et collectives (charges, masses, spins, etc.) qui les caractérisent. En fait, cette méthode de classification particulière, qui repose sur la théorie des groupes, relève de l’étude de ces propriétés et de leur loi de conservation respective, ce qui permet d’entrevoir les différents patrons et symétries privilégiés par la nature. De manière réciproque, ces outils essentiels permettent à leur tour de mieux comprendre les rouages internes de ces interactions fondamentales et d’incorporer cette information dans la construction de modèles prédictifs. Ainsi, la synthèse des connaissances accumulées, complémentées de mesures expérimentales de plus en plus précises, a donné lieu à l’émergence du modèle standard (MS) actuel en physique des particules [7]. Ce modèle, qui s’inscrit dans un effort continu pour tenter d’expliquer l’univers à partir de ses constituants les plus simples, a donc été édifié au gré des découvertes expérimentales et théoriques et est aujourd’hui consi-déré comme l’un des grands triomphes de la science moderne. En effet, celui-ci établit les fondations théoriques sur lesquelles repose la dynamique des interactions pertinentes à l’étude des particules élé-mentaires (les interactions électromagnétique, faible et forte) tout en générant des prédictions qui sont vérifiables expérimentalement à un très haut degré de précision. Puisqu’il s’agit d’une théorie quan-tique des champs [8,9, 10] qui est à la fois renormalisable, invariante sous transformations de jauge locales et qui possède les symétries internes du groupe SU(3)c⊗SU(2)L⊗U(1)Y, le modèle standard

offre donc un point de vue unique à partir duquel il devient possible d’étudier le comportement de la matière dans ses moindres détails.1 Cependant, puisque les particules élémentaires ne sont pas toutes

assujetties aux mêmes interactions dues aux différentes propriétés qui les caractérisent, cela implique que celles-ci ne peuvent pas toutes être sondées et analysées avec le même niveau de précision. En ce sens, les neutrinos représentent sans doute l’une des particules élémentaires les plus difficiles à étudier. Suggérés pour la première fois en 1930 par Pauli afin de rétablir la conservation de l’énergie dans certaines désintégrations bêta, les neutrinos se sont par la suite révélés être bien plus intéres-sants qu’anticipé à l’origine.2 Étant aujourd’hui répertoriés comme les seuls leptons connus de charge

électrique nulle, cela signifie qu’en plus de la traditionnelle interprétation en termes de fermion de Dirac (à laquelle tous les autres fermions du modèle standard sont contraints), les neutrinos admettent également une description alternative en termes de fermion de Majorana [12], ce qui implique que le neutrino est susceptible d’être sa propre antiparticule. Bien sûr, outre cette ambivalence majeure sur la nature du champ fermionique, l’absence de charge électrique signifie également que les trois généra-tions de neutrinos interagissent avec la matière seulement via les interacgénéra-tions faibles et les interacgénéra-tions gravitationnelles. Conséquemment, puisque les interactions gravitationnelles sont négligeables à cette échelle et que les interactions faibles ont une portée très courte (principalement due à la grande masse des bosons de jauge qui la transmettent), les neutrinos possèdent une probabilité d’interaction très faible avec la matière. Autrement dit, ceux-ci passent au travers de la matière pratiquement sans au-cune interruption ou obstruction. De plus, lorsqu’une interaction impliquant des neutrinos se produit,

1. Ce groupe de jauge détermine de façon unique les interactions et le nombre de bosons vectoriels qui leur est attribuable, correspondant au nombre de générateurs du groupe auquel ils appartiennent.

2. Bien qu’il soit maintenant pratique courante de postuler l’existence de particules non observées afin de combler les lacunes des modèles existants, cela représentait une initiative fort audacieuse à cette époque. Pauli, qui a été d’une certaine façon l’instigateur de cette pratique, était bien conscient des critiques auxquelles il s’exposait à la suite de cette proposition : « I have done something very bad today by proposing a particle that cannot be detected ; it is something no theorist should ever do. » -W. Pauli [11].

(13)

ceux-ci ne peuvent pas être détectés directement (la majorité des détecteurs reposent sur les interac-tions électromagnétiques et on retrouve également certains détecteurs de type hadronique). Ils sont donc identifiés grâce à la détection du lepton chargé (électron, muon ou tau) qui leur est associé, égale-ment produit dans la réaction. Les trois saveurs de neutrinos sont alors étiquetées νe, νµ et ντ pour la

première, deuxième et troisième génération respectivement.3En fait, ce mécanisme particulier derrière

l’émission, la propagation et la détection présente certaines subtilités qui sont au coeur d’une propriété emblématique des neutrinos, l’oscillation [1, 3]. Relevant de considérations purement « quantiques », ce phénomène implique qu’un neutrino émis selon une saveur précise, après s’être propagé sur une certaine distance, peut être détecté avec une saveur différente de celle de départ. Ce changement de saveur spontané et périodique lors de la propagation, qui possède des effets bien réels et mesurables (la résolution du problème des neutrinos solaires, au tournant des années 2000, en est un bon exemple [6]), est par ailleurs intimement lié à la notion de masse pour les neutrinos,4 ce qui amène des défis

supplémentaires lors de la construction de modèles capables d’offrir des prédictions intéressantes sur l’évolution de ces systèmes. En somme, ces propriétés inusitées contribuent activement à dissimuler cette particule aux yeux des experts et soulèvent également d’importantes questions auxquelles le mo-dèle standard, dans sa forme actuelle, peine à répondre. Ainsi, pour bien comprendre les différents enjeux associés au statut particulier que possèdent les neutrinos dans le modèle standard, il s’avère avant tout nécessaire de s’attarder aux particularités du secteur électrofaible.

Constituant une partie essentielle du modèle standard, le secteur électrofaible correspond à une théorie de jauge non abélienne caractérisée par le groupe de symétries SU(2)L⊗U(1)Y. Celui-ci offre une

description unifiée des interactions faibles et des interactions électromagnétiques (QED, Quantum electrodynamics) aux hautes énergies (& 100 GeV) et repose sur le concept de brisure spontanée de symétrie pour découpler ces interactions et reproduire la masse (et donc le spectre) des particules élémentaires observées dans la limite des basses énergies. De plus, puisque le concept de brisure de symétrie est uniquement confiné au secteur électrofaible, celui-ci peut être étudié séparément des interactions fortes (QCD, Quantum chromodynamics). Cela est dû au fait que le groupe de symétries SU(3)c demeure intact (non brisé) dans le MS, impliquant qu’il ne peut pas y avoir de mélange entre

les huit bosons de jauge de QCD (les gluons) et les quatre bosons de jauge du secteur électrofaible. En contrepartie, dû au mécanisme derrière la brisure spontanée de la symétrie électrofaible (mécanisme de Higgs), il faut considérer un mélange entre les bosons de jauge électriquement neutres de SU(2)Let

U(1)Y afin de pouvoir identifier correctement les degrés de liberté physique des interactions faibles et

des interactions électromagnétiques. Cela s’avère nécessaire puisque ce sont les combinaisons linéaires orthogonales qui émergent naturellement entre ces champs qui possèdent une masse bien définie et par conséquent, qui forment les champs physiques du boson Z0 et du photon (dans le cas du photon,

l’absence d’un terme de masse bosonique pour cette combinaison particulière signifie une masse nulle). Les interactions faibles, dont la première description convenable remonte à Fermi au début des années

3. Les neutrinos observés sont produits dans des processus régis par les interactions faibles (soit par exemple une désintégration de la forme W+→ `+

ανα, avec α = e, µ, τ ) telles que la désintégration du pion ou la désintégration bêta.

Ceux-ci sont donc des états propres des interactions faibles. On distingue ces états par la saveur α du lepton chargé `±α

(qui étiquette du même coup la génération), ce qui implique que la saveur des neutrinos est un concept dynamique qui diffère complètement de la façon dont la saveur est définie dans le secteur des quarks.

4. Pour qu’il y ait oscillation, au moins deux des trois neutrinos doivent avoir une masse et ces masses doivent être différentes. De plus, puisque cette section a pour but d’illustrer l’importance de ce phénomène dans la recherche de pointe, il ne serait pas convenable de passer sous silence l’attribution du prix Nobel de physique 2015, décerné à T. Kajita et A.B. McDonald (donc en partie canadien) pour « la découverte du phénomène d’oscillation des neutrinos, qui démontre que les neutrinos ont une masse » [13].

(14)

1930,5 sont donc maintenant interprétées comme une manifestation à basse énergie des effets liés à la

brisure d’un groupe de symétries plus élevé,6ce qui est une conséquence directe des travaux de Glashow,

Weinberg et Salam. Cependant, comparativement à QED et QCD, les interactions faibles revêtent un caractère particulier attribuable à la structure dite « chirale » qui distingue considérablement la dynamique de cette interaction. Cette construction particulière, qui repose sur un lagrangien de la forme V − A,7 implique que les particules de chiralité gauche sont traitées différemment des particules de

chiralité droite, ce qui découle directement du fait que la symétrie de parité P est maximalement violée sous le régime des interactions faibles. Par ailleurs, en plus de la parité, l’invariance sous conjugaison de charge C (qui revient à remplacer une particule par son antiparticule) et la symétrie de charge-parité CPne sont pas préservées sous cette interaction,8ce qui influence les propriétés phénoménologiques qui en découlent. Également, cette interaction ne produit pas d’état lié et n’est donc responsable d’aucune forme d’énergie de liaison. Celle-ci se démarque plutôt par son action sur la saveur des particules élémentaires. En effet, parmi la variété de processus physiques qui proviennent des interactions faibles (ou pour lesquels celles-ci assument un rôle de premier plan), on retrouve, à titre d’exemple, la grande majorité des désintégrations de particules composites et élémentaires (radioactivité, fission, fusion, etc.). Ceci est dû, en partie, au fait qu’il s’agit de la seule interaction qui permet un changement de saveur au niveau des quarks et des leptons en plus d’être communiquée par des particules d’échanges (les bosons W+, Wet le Z0) ayant de grandes masses en comparaison à celle des autres types

d’interactions fondamentales. En fait, ces particules médiatrices présentent un fort contraste avec celles de QED et QCD, qui correspondent à des bosons de jauge électriquement neutres, sans masse et de spin 1. Dans le cas des interactions faibles, la possibilité d’avoir un sommet d’interaction qui repose sur une particule chargée,9 en l’occurrence les bosons W±, donne accès à une variété impressionnante de

phénomènes physiques et joue un rôle crucial en ce qui concerne le changement de saveur des particules élémentaires. Pour ce qui est des interactions impliquant le boson Z0, qui est électriquement neutre,

celles-ci sont décrites par un sommet d’interaction dont la forme interdit tout changement de saveur, ce qui implique des conséquences physiques très différentes. Pour cette raison, les interactions faibles sont

5. La théorie de Fermi, qui repose sur un sommet d’interaction à quatre fermions (un opérateur de dimension [masse]6

proportionnel à la constante de Fermi GF, qui est de dimension [masse]−2), décrit remarquablement bien les interactions

faibles (la partie décrivant le changement de saveurs) dans la limite des basses énergies (Λ> 100 GeV). Cependant, à haute énergie, certains problèmes majeurs surviennent dans le calcul de la section efficace (σ) de cette interaction. En effet, il s’avère possible de démontrer que cette quantité (de dimension [masse]−2), qui dépend directement de la force du couplage GF, croît proportionnellement à Λ2(c’est-à-dire que σ ∝ G2FΛ2), où Λ est un paramètre d’échelle représentant

une limite énergétique (une coupure arbitraire) de la théorie. La probabilité d’interaction du sommet à quatre fermions devient donc infinie dans la limite Λ → ∞, ce qui est typique d’une théorie non renormalisable [9].

6. À la suite d’un choix judicieux de l’état du vide pour le champ de Higgs, le groupe de symétries internes est brisé selon SU(2)L⊗ U(1)Y → U(1)Q. La présence de la symétrie résiduelle U(1)Q, associée à la conservation de la charge

électrique q (la valeur propre de l’opérateur Q), assure ainsi que le photon demeure sans masse et fait don à notre univers d’une propriété indispensable, l’électromagnétisme.

7. Il s’agit du patron général permettant de regrouper sous un seul lagrangien les phénomènes observés relatifs aux interactions faibles. Grâce à leur transformation particulière sous l’opération de parité P , la combinaison d’un courant de type vectoriel (Vector current) à un courant de type pseudovectoriel (Axial vector current) s’est avérée fournir le mécanisme approprié pour expliquer la violation de la parité observée expérimentalement et a constitué une étape clé derrière l’unification des interactions électromagnétiques et des interactions faibles.

8. Contrairement à la parité et à la conjugaison de charge, la brisure de la symétrie CP n’est pas une conséquence de la structure V − A du lagrangien. En réalité, puisque les actions combinées de P et C préservent la chiralité d’un spineur, les interactions faibles ne violent pas nécessairement la symétrie CP à première vue. Cependant, puisque la brisure de cette symétrie est nécessaire pour expliquer l’asymétrie matière-antimatière présente dans l’univers observable, celle-ci doit être prise en compte dans la structure du MS. À ce jour, il s’avère que seul le secteur électrofaible est en mesure d’accommoder ce résultat et ce n’est qu’en mesurant les paramètres fondamentaux de ce secteur que la source de cette brisure est devenue apparente (en ce qui concerne les quarks).

9. Ces sommets d’interaction couplent donc uniquement des fermions qui diffèrent par une unité de charge électrique, soit par exemple un neutrino et un lepton chargé.

(15)

subdivisées en deux catégories distinctes, dites de « courants chargés » (CC) et de « courants neutres » (CN) selon que le sommet d’interaction comprend les bosons W± ou le Z0 respectivement.10

Par ailleurs, puisque tous les leptons et les quarks actuellement répertoriés sont soumis aux interac-tions faibles, il devient alors utile de classifier les phénomènes observés selon la nature des particules impliquées. Conséquemment, on distingue les interactions faibles de types leptonique, hadronique ou semi-leptonique selon que les bosons W±ou Z0se couplent aux leptons, aux quarks ou à une

combinai-son leptons/quarks (chacun sur leur sommet respectif). Ayant présenté certains des éléments clés qui caractérisent les interactions faibles, une description détaillée du secteur leptonique et des conséquences qui découlent du traitement réservé aux neutrinos s’avère maintenant possible. Tout d’abord, compte tenu des propriétés discutées précédemment, il est important d’insister sur le fait que les neutrinos « observés » sont uniquement produits par des interactions faibles de type CC. En effet, la détection de cette particule implique nécessairement un couplage avec les bosons W±puisqu’il s’agit de la seule

interaction qui peut créer le lepton chargé nécessaire à l’identification du neutrino produit. Bien en-tendu, les neutrinos peuvent également être produits à la suite d’une désintégration du Z0. Cependant,

puisque ce boson se désintègre uniquement en couple fermion-antifermion, les neutrinos ainsi produits échappent inévitablement à toute détection, ce qui rend les courants neutres inaptes à l’étude des pro-priétés individuelles des neutrinos. En second lieu, bien que les interactions faibles de type CN puissent générer des couplages pour les deux types de chiralité (en proportion différente), il en est autrement des interactions faibles de type CC, qui font intervenir uniquement des fermions de chiralité gauche (il s’agit de la structure chirale mentionnée précédemment). Ainsi, d’un point de vue théorique, il appert que les neutrinos de chiralité droite ne sont pas requis pour expliquer les observations expérimentales actuelles. En conséquence, puisque le modèle standard s’avère être le plus économique possible en ce qui concerne son contenu en particules, seuls les neutrinos de chiralité gauche sont présents. Cette situation unique à l’intérieur du modèle standard, qui limite grandement le pouvoir prédictif de ce modèle en ce qui a trait aux neutrinos, constitue en réalité l’un des obstacles majeurs à la construction d’un terme de masse pour cette particule. En fait, en raison du contenu en particules, de l’invariance de jauge et de la propriété de renormalisation,11 il s’avère impossible d’écrire un terme de masse pour

les neutrinos dans le lagrangien du MS (qui respecte simultanément ces trois contraintes). Il est im-portant de souligner cependant que ces contraintes, qui sont en réalité responsables de la présence d’une symétrie « accidentelle » de type B − L, sont quelque peu arbitraires.12 Puisqu’il n’existe pas

de principe fondamental ou de loi de conservation qui interdit des neutrinos massifs, il ne semble donc pas naturel d’un point de vue théorique de supposer que ceux-ci soient sans masse. Quoi qu’il en soit, les neutrinos demeurent sans masse dans le modèle standard alors qu’en contrepartie, les expériences

10. À cet égard, la théorie de Fermi discutée précédemment doit donc être interprétée comme une théorie efficace des interactions de type CC à basse énergie [3].

11. Cette propriété fixe la dimensionnalité des termes présents dans le lagrangien. Pour qu’une théorie soit renorma-lisable, il faut que la dimension d des termes du lagrangien satisfasse d ≤ 4, où il est sous-entendu que d exprime la puissance d’une unité de masse (ou d’énergie), soit [masse]d.

12. Une symétrie qualifiée d’accidentelle est une symétrie qui n’est pas imposée au lagrangien, sa présence est seulement due au contenu en champs du modèle et aux limites imposées sur les dimensions possibles des termes du lagrangien (condition de renormalisation) [14]. Règle générale (en physique des particules), seules les symétries locales sont imposées, ce qui signifie en principe que ce sont les symétries globales qui peuvent être accidentelles. Dans ce cas-ci, il s’agit d’une symétrie globale hypothétique U(1)B−L qui survient fréquemment dans les théories grandement unifiées. Le nombre

quantique B − L (la différence entre le nombre baryonique et le nombre leptonique) est préservé puisque les anomalies chirales (qui brisent la conservation de B et L séparément) ou les anomalies gravitationnelles s’annulent parfaitement dans cette construction. La présence de cette symétrie constitue ainsi une autre façon de visualiser les contraintes qui interdisent la présence d’un terme de masse pour les neutrinos.

(16)

en lien avec le phénomène d’oscillation offrent maintenant de solides arguments en faveur d’une masse non nulle, exposant ainsi les lacunes de la théorie sous-jacente. Aujourd’hui révélés par des observa-tions expérimentales de plus en plus précises, les résultats actuellement admis concernant les masses des neutrinos et les paramètres d’oscillation représentent sans contredit une source d’embarras notoire pour le modèle standard et par conséquent, méritent d’être examinés plus en détail.

Historiquement, les neutrinos ont longtemps été considérés comme étant sans masse. En fait, cela s’est avéré être le paradigme prédominant jusqu’à la fin des années 1990 en raison du manque de preuve tangible pouvant indiquer le contraire. Par ailleurs, cette hypothèse se trouvait être en parfait accord avec les prédictions du modèle standard, ce qui a contribué à renforcer le consensus adopté durant cette période. La découverte du phénomène d’oscillation, qui a considérablement enrichi la dynamique de propagation des neutrinos, a donc constitué l’élément clé qui a permis d’obtenir des mesures fiables sur un bon nombre de paramètres fondamentaux du secteur leptonique. Cependant, puisque les quantités mesurables sont dictées par la forme particulière de l’expression pour la probabilité de transition d’une oscillation neutrino-neutrino (ou antineutrino-antineutrino) et que celle-ci est, entre autres, fonction des éléments de la matrice PMNS (Pontecorvo-Maki-Nakagawa-Sakata), cela contraint fortement le type d’information qu’on peut extraire sur les masses des neutrinos et les paramètres décrivant le mélange des états.13 À ce jour, trois angles de mélange (θ

12, θ13, θ23), une phase complexe (la phase

de Dirac δ) et deux différences de masse au carré (4m2

21= m22− m21 et 4m231= m23− m21) peuvent être

mesurés expérimentalement [2,4]. Ces résultats permettent de constater que le mélange dans le secteur des neutrinos est quasi-maximal et que les différences de masse sont très petites en comparaison à celles des quarks et des leptons chargés, ce qui suggère une très faible hiérarchie entre les trois générations de neutrinos. D’autre part, selon la convention utilisée pour la numérotation des états propres de masse [4], 4m2

21 est toujours considérée comme étant positive, ce qui laisse le signe de 4m231 indéterminé.

Puisque les données actuelles ne permettent pas de fixer le signe de cette quantité et que la grandeur de la masse du neutrino le plus léger n’est pas connue, trois scénarios sont donc possibles en ce qui concerne l’ordre des masses, c’est-à-dire que le spectre peut être quasi dégénéré (m1∼ m2∼ m3) ou manifester

une hiérarchie dite « normale » (m1< m2 < m3) ou « inverse » (m3< m1 < m2). De plus, bien que

les valeurs exactes de ces masses ne puissent être déduites à partir des résultats actuels, les limites expérimentales actuellement admises sur celles-ci suggèrent que les neutrinos ont une masse beaucoup plus petite (de l’ordre de l’eV) que celles des leptons chargés et des quarks.14On trouve, par exemple, un

ratio de l’ordre de 106entre la masse de l’électron (le lepton chargé le plus léger) et la borne supérieure

la plus élevée sur la masse des neutrinos. La faible masse des neutrinos constitue donc une contrainte supplémentaire qui doit être prise en compte dans tout mécanisme qui souhaite offrir des prédictions viables sur celles-ci. Finalement, comme le neutrino est la seule particule élémentaire répertoriée qui peut être traitée comme un fermion de Majorana, il faut également considérer la possibilité d’observer des oscillations neutrino-antineutrino, ce qui ajoute deux phases complexes (les phases de Majorana

13. La matrice PMNS apparaît dans le lagrangien du courant chargé leptonique lorsque celui-ci est diagonalisé dans la base des masses et constitue, en réalité, le lien entre les états propres de saveur et les états propres de masse des neutrinos. Cette matrice unitaire, qui est responsable du changement de saveur pour les trois générations de neutrinos, contient les angles de mélange et les phases physiques qui caractérisent ce phénomène. Le phénomène d’oscillation peut donc être interprété comme une conséquence du fait qu’il existe deux bases distinctes pour la description de neutrinos massifs (la base des saveurs et la base des masses) et que ces deux bases ne sont pas simultanément diagonalisables pour des interactions de type CC.

14. Outre les expériences en lien avec le phénomène d’oscillation, les mesures directes qui reposent sur les tests de cinématique, la double désintégration bêta sans neutrino et la cosmologie permettent de fixer des limites supérieures sur ces masses. Voir par exemple [15].

(17)

α21 et α31) au nombre des paramètres mesurables.15 À l’heure actuelle, aucune information n’est

connue sur ces phases puisque ce type d’oscillation n’a toujours pas été observé. Cela signifie que sur le plan expérimental, l’état des connaissances ne permet pas de déterminer si le neutrino est un fermion de Dirac ou de Majorana, ce qui entraine des répercussions phénoménologiques très différentes dans les deux cas. Néanmoins, ces résultats pointent tous vers un constat indéniable : les neutrinos sont des particules massives (pour au moins deux des trois générations).

Ainsi, cette incompatibilité notable entre les prédictions du modèle standard et les observations expé-rimentales est désormais à l’origine de plusieurs extensions de ce modèle [16, 17]. Celles-ci sont donc essentielles, sur le plan théorique, pour obtenir un portrait plus complet du secteur leptonique des interactions faibles et plus spécifiquement, faire la lumière sur le comportement singulier des neutri-nos. Bien qu’elles puissent provenir d’ensembles d’axiomes très différents, ces extensions partagent toutes le même objectif, qui consiste à générer un terme de masse pour les neutrinos actifs (de chira-lité gauche) permettant de reproduire les résultats expérimentaux actuellement admis, et ce, à partir de principes fondamentaux susceptibles de contribuer au développement de la théorie sous-jacente. Dans la littérature, plusieurs approches ont ainsi été proposées pour s’attaquer à ce problème, les plus connues et étudiées étant sans doute celles qui reposent sur les mécanismes de type seesaw [1, 6].16

Ces mécanismes, qui sont les plus contraignants ayant été élaborés jusqu’à présent (ceux qui dévient le moins du modèle standard actuel), sont classifiés en trois catégories distinctes appelées type I, type II et type III et offrent une solution élégante au problème de la faible masse des neutrinos. En effet, puisque ceux-ci reposent sur l’ajout de nouveaux degrés de liberté « lourds » à la théorie existante, cela permet de préserver l’invariance de Lorentz et l’invariance de jauge tout en justifiant une violation de la symétrie B−L, ce qui engendre une plus grande variété de couplages possibles (à haute énergie) avec ces nouveaux champs. À la suite d’une brisure spontanée de la symétrie électrofaible, ces couplages fondamentaux permettent alors de générer l’ensemble des matrices de masse élémentaires de type Di-rac et Majorana de ce nouveau spectre de particules, ce qui constitue le point d’origine de la théorie efficace résultante à basse énergie.17 Enfin, une fois le lagrangien diagonalisé dans la base formée des

champs physiques de la théorie (les neutrinos de chiralité gauche et les champs associés aux degrés de liberté supplémentaires), cela permet d’identifier correctement la matrice de masse résultante pour les neutrinos actifs, qui s’avère être décrite par un produit spécifique (unique à chacun des trois types) des matrices de masse élémentaires (qui dépendent des couplages fondamentaux) engendrées par ces nouveaux degrés de liberté. Dans ce contexte, la forme particulière des trois matrices de masse qui en résulte suggère que la faible masse des neutrinos est attribuable aux grandes masses des nouvelles particules ainsi introduites de même qu’à la violation du nombre leptonique.

Autrement dit, ces mécanismes consistent à modifier le contenu en particules du MS de façon à générer des couplages additionnels entre les champs qui permettent de reproduire la faible masse des neutrinos

15. Cette notation particulière pour les angles de mélange et les phases physiques repose sur la paramétrisation standard de la matrice PMNS telle que présentée dans [4].

16. Les quelques traductions françaises répertoriées de la désignation anglaise seesaw mechanism, quoique peu utilisées, incluent « mécanisme à bascule » et « mécanisme de la balançoire ».

17. De façon plus spécifique, ce ne sont pas tous les nouveaux couplages qui sont sensibles à la brisure de la symétrie électrofaible. Les couplages qui ne brisent aucune symétrie de jauge forment déja des termes de masse fermioniques adéquats du point de vue de la théorie à basse énergie. De plus, les matrices résultantes sont qualifiées d’« élémentaires » puisqu’elles constituent les ingrédients de base sur lesquels repose la matrice de masse des neutrinos actifs obtenue suite au processus de diagonalisation.

(18)

dans la limite des basses énergies, c’est-à-dire valides sous l’échelle d’énergie de la brisure spontanée de la symétrie électrofaible. Ainsi, de façon équivalente, le terme de masse résultant pour les neutrinos actifs peut être vu comme provenant d’une théorie efficace contenant un opérateur de Weinberg de dimension d = 5 (non renormalisable) unique à chaque type de mécanisme seesaw (dont le domaine de validité est compris entre l’échelle d’énergie de la brisure de la symétrie électrofaible et l’échelle d’énergie associée à ces nouveaux degrés de liberté) et où les degrés de liberté lourds ont été intégrés, ce qui donne un coefficient pour cet opérateur ayant la même forme que la matrice de masse résultant du processus de diagonalisation. Ces nouveaux couplages fondamentaux, principalement contraints par la symétrie de jauge, sont donc rendus possibles grâce à l’ajout de particules hypothétiques aux propriétés méthodiquement choisies pour chacun des trois types. Ainsi, les trois scénarios de base qui permettent d’implémenter cette méthode particulière consistent à introduire trois singulets leptoniques de chiralité droite (c’est-à-dire trois neutrinos droits stériles) pour le type I, un triplet scalaire dans le secteur du Higgs pour le type II et trois triplets leptoniques de chiralité droite pour le type III. Par ailleurs, bien qu’il soit peu probable que ces nouvelles particules puissent être observées dans un futur proche dû, entre autres, à la possibilité que leur masse soit liée à une nouvelle échelle d’énergie dont l’ordre de grandeur (∼ O(1015) GeV) s’apparente à celle de l’échelle d’énergie de la grande unification,

les trois types de mécanismes seesaw sont considérés comme de solides candidats pour expliquer la faible masse des neutrinos. En contrepartie, ces mécanismes génèrent à leur tour bon nombre de questions qui demeurent sans réponse et n’offrent aucune prédiction sur les couplages fondamentaux ainsi introduits, qui prennent naturellement une place prépondérante dans la composition des matrices de masse résultantes des neutrinos actifs. Comme c’est le cas pour l’ensemble des paramètres libres du modèle standard, ces diverses constantes de couplage doivent être déterminées expérimentalement afin d’être en mesure de tester la viabilité de ces mécanismes et ainsi obtenir des prédictions concrètes et précises, ce qui constitue une tâche largement hors de portée de la technologie actuelle.

Conséquemment, pour entreprendre une analyse détaillée du secteur des neutrinos tout en tirant profit du cadre théorique fourni par les mécanismes seesaw de type I, II et III, il s’avère nécessaire de formuler certaines hypothèses quant à la structure (ou l’absence de structure) des matrices de masse élémentaires qui contiennent les couplages fondamentaux. Étant donné la connexion profonde entre les masses des neutrinos et les paramètres d’oscillation, l’approche traditionnelle consiste à s’appuyer sur les résultats expérimentaux tels qu’observés à basse énergie, qui permettent une reconstruction complète de la matrice PMNS, pour tenter d’extraire certaines symétries de saveurs entre les trois générations de neutrinos susceptibles de se traduire en une « texture » ou un patron particulier pour ces matrices de masse [18, 19]. Cette approche, fortement inspirée de celle du secteur des quarks où la matrice CKM (Cabibbo-Kobayashi-Maskawa) présente un patron clair pouvant être visualisé à l’aide de la paramétrisation de Wolfenstein [20], est cependant beaucoup moins efficace dans le secteur des neutrinos en raison de la nature très irrégulière de celui-ci.18 En effet, les angles de mélange

quasi-maximaux, les très petites différences de masse au carré et l’absence de symétrie ou structure facilement discernable pour la matrice PMNS constituent un obstacle majeur à l’implémentation de ce

18. La matrice CKM constitue l’équivalent de la matrice PMNS dans le secteur des quarks. Celle-ci décrit donc les couplages entre les bosons de jauge W± et les quarks et a pour effet de mélanger les différentes saveurs. La structure

observée de la matrice CKM montre que celle-ci est en réalité très près de la matrice identité, c’est-à-dire une succession de « 1 » sur la diagonale combinés à des éléments hors diagonale très petits, menant naturellement à de petits angles de mélange pour le secteur des quarks. La matrice PMNS est différente en ce sens que toutes les entrées sont comparables et relativement grandes.

(19)

type d’approche et peut mener à des modèles ad hoc démontrant un certain manque de robustesse face à des mesures plus précises des paramètres de ce secteur [21]. En fait, la récente mesure de l’angle de mélange θ13, en 2012, a entre autres permis d’exclure certains des scénarios reposant sur des groupes

de symétries discrètes nécessitant θ13 = 0.19 Ainsi, bien que cette méthode mène à des modèles

hautement prédictifs, il n’en demeure pas moins que ces prédictions sont sensibles, dans une certaine mesure, aux choix des symétries imposées aux paramètres libres du lagrangien. Parallèlement à cet axe de recherche, une hypothèse alternative s’appuyant sur un principe en apparence plus simple mais radicalement différent a été introduite au tournant des années 2000. Se situant à l’opposé de l’approche traditionnelle, l’hypothèse dite « anarchique » [23, 24, 25] a permis de faire émerger naturellement certains des comportements et des tendances difficilement justifiables par des arguments de symétrie, et ce, en exploitant le caractère très désordonné du secteur des neutrinos. Plus précisément, l’hypothèse anarchique (ou principe anarchique) consiste à adopter le point de vue selon lequel les matrices de masse élémentaires (ou, telle que proposée à l’origine, la matrice PMNS) ne possèdent aucune structure ou patron intrinsèque, c’est-à-dire que toutes les entrées sont comparables (du même ordre de grandeur) et qu’il n’existe pas de ratios spécifiques qui sont privilégiés entre les éléments. En d’autres termes, ces matrices sont donc considérées comme étant le résultat de processus purement aléatoires. Cela signifie que d’un point de vue pratique, pour étudier le spectre de masse des neutrinos sous cette hypothèse, il devient alors nécessaire de se référer à la variété impressionnante d’outils qui ont été développés avec la théorie des matrices aléatoires (RMT, Random matrix theory) [26, 27]. Il est important de mentionner cependant que cette approche n’est pas interprétée comme une finalité en soi, c’est-à-dire que celle-ci doit plutôt être vue comme une technique d’analyse permettant d’offrir un regard nouveau sur le secteur des neutrinos à basse énergie tout en s’affranchissant des contraintes liées à l’élaboration de modèles hautement symétriques.

En fait, il ne serait pas surprenant que les paramètres physiques de ce secteur puissent être gouvernés par un principe plus structuré associé à une symétrie fondamentale relevant d’une échelle d’énergie élevée (qui pourrait par exemple provenir d’une théorie de grande unification) tout en étant compatible avec les conclusions tirées de l’approche anarchique [24]. Ce serait le cas, par exemple, dans le contexte où les vestiges de cette symétrie hypothétique à basse énergie seraient pratiquement imperceptibles pour le secteur des neutrinos.20Autrement dit, le simple fait que les valeurs des paramètres physiques

du secteur des neutrinos soient compatibles avec l’hypothèse anarchique ne signifie pas pour autant que celle-ci soit la voie privilégiée par la nature ; cela signifie simplement que cette approche peut être utilisée pour étudier le spectre de masse et le mélange des états plus en détail. En réalité, l’attrait particulier de cette hypothèse réside dans le fait que celle-ci permet une analyse statistique complète du secteur des neutrinos tout en imposant le moins de contraintes possible aux paramètres libres du lagrangien, ce qui permet d’extraire une quantité surprenante d’informations sur les neutrinos dans la limite des basses énergies. Cette approche permet ainsi de faire des progrès importants à partir d’une connaissance minimale de la théorie sous-jacente à la phénoménologie des neutrinos en évitant toute

19. L’année 2012 est en effet d’une grande importance en ce qui a trait à la recherche de pointe en physique des particules. La découverte du boson Higgs, combinée à la mesure expérimentale du dernier angle de mélange jusqu’ici inconnu (θ13) de la matrice PMNS (grâce aux expériences Daya Bay et RENO) [22], a permis de répondre à plusieurs

questions de longue date en lien avec les fondements même du secteur électrofaible du MS.

20. Ce scénario hautement spéculatif dépend du mécanisme derrière la brisure de cette symétrie et du mécanisme permettant de générer la masse des neutrinos. Cependant, on peut penser que les effets du groupe de renormalisation, le fait que plusieurs champs ont été intégrés ou simplement si un sous-ensemble des champs leptoniques ne sont pas chargés sous cette symétrie (les rendant insensibles à sa présence) puissent être des causes possibles de ce constat.

(20)

supposition infondée quant aux particularités d’une symétrie hypothétique gouvernant ces phénomènes. Il va sans dire qu’il s’agit d’une approche fort inusitée, voir même non conventionnelle en physique des particules. Par ailleurs, bien que la mesure de θ13 ait fourni des arguments supplémentaires favorisant

cette approche [28, 29, 30], très peu d’études détaillées ont été entreprises sur ce sujet, impliquant que ses conséquences et répercussions demeurent en grande partie mal documentées dans la littérature existante. Ainsi, dans la perspective d’explorer cette avenue davantage tout en contribuant à mettre en évidence les différents impacts de cette approche pour le secteur des neutrinos, l’hypothèse anarchique constitue la pierre angulaire de ce présent projet de recherche.

Objectif principal. Dans le cadre de ce travail, cette approche est utilisée comme un outil de

sé-lection permettant de comparer les différents types de mécanismes seesaw. Le but est donc d’extraire les tendances dominantes propres à ces mécanismes de masse, d’analyser leurs conséquences sur la phénoménologie des neutrinos et d’identifier ceux qui sont les mieux adaptés à reproduire les résultats expérimentaux actuellement admis. Pour ce faire, les matrices de masse émergeant des mécanismes seesaw de type I, II et III sont traitées dans le contexte d’une théorie de matrices aléatoires, ce qui permet d’introduire une nouvelle classe d’ensembles matriciels appelés ensembles seesaw [29].

L’étude détaillée de ces ensembles a ainsi permis de produire une série d’articles qui ont contribué à fa-çonner le contenu de cette présente thèse [31,32,33]. Dans un premier temps, la densité de probabilité multivariée comprenant les masses et les paramètres d’oscillation a été obtenue à partir de méthodes bien connues provenant de la théorie des matrices aléatoires [31]. Cette densité de probabilité, pré-sentée sous la forme d’une intégrale multidimensionnelle, a par la suite été utilisée pour extraire les distributions marginales des paramètres physiques d’intérêt à l’aide de méthodes d’intégration numé-riques, ce qui a permis de compléter l’analyse permettant de caractériser complètement ces ensembles [32]. Finalement, une étude des invariants sous rephasage [33], qui quantifient la brisure de la symétrie CP dans les secteurs leptonique et hadronique des interactions faibles, a été entreprise afin de mieux comprendre et identifier les sources possibles de cette brisure sous l’hypothèse anarchique.

À ce stade, il est important de préciser que le format retenu pour l’écriture de cette thèse ne fait pas appel à l’insertion d’articles scientifiques. Résultant d’un effort soutenu visant à communiquer les résultats obtenus de façon pédagogique, concise et rigoureuse, ce présent document consiste donc en un texte original divisé en trois chapitres distincts dont les thématiques représentent le cheminent parcouru pour mener à terme ce projet de recherche. Ainsi, le premier chapitre constitue une introduction aux modèles utilisés pour générer la masse des neutrinos, soit les mécanismes seesaw de type I, II et III. Les notions théoriques nécessaires à la compréhension de ces mécanismes sont présentées, de même qu’un examen approfondi des prédictions qui leur sont associés et des nombreuses questions qu’ils soulèvent. Le second chapitre est dédié à la méthodologie propre à ce projet de recherche. L’approche anarchique y est donc discutée plus en détail et une introduction sommaire à la théorie des matrices aléatoires est présentée afin d’illustrer les concepts de base nécessaires à l’étude des ensembles seesaw. Finalement, le troisième chapitre est consacré à l’étude de ces ensembles et forme ainsi la partie centrale de cette thèse. Les densités de probabilité multivariée sont obtenues et les résultats qui en découlent sont présentés. Une analyse détaillée de ces résultats, qui permet de mettre en évidence les forces et les limitations de cette approche, est ensuite proposée afin de clore ce chapitre. Celui-ci est ensuite suivi d’une conclusion résumant l’ensemble du travail accompli tout en amorçant une discussion quant aux possibles orientations futures qui pourraient être considérées.

(21)

Chapitre 1

Description des neutrinos et de

leurs propriétés

Ayant maintenant une meilleure idée du contexte dans lequel s’inscrit ce projet de recherche, il convient à présent de plonger dans les détails d’une description méthodique des neutrinos dans le modèle standard. L’objectif principal de ce chapitre est donc de couvrir les notions théoriques fondamentales allant des propriétés des champs fermioniques aux mécanismes seesaw, en passant par le phénomène d’oscillation et les résultats expérimentaux qui en découlent. Cette revue des concepts de base est par ailleurs essentielle afin de bien identifier les assises de ce projet et la portée des résultats obtenus.

1.1

Champs fermioniques : Les spineurs de Dirac, Majorana

et Weyl

La théorie de Dirac présentée dans cette section forme la base en ce qui concerne la description des champs fermioniques qui caractérisent les particules massives de spin 1

2. Constituant une étape clé

derrière l’unification de la relativité restreinte et de la mécanique quantique, les travaux de Dirac ont permis de décrire avec succès la dynamique des fermions fondamentaux à partir d’une équation d’onde relativiste, en plus de prédire l’existence des antiparticules qui leur sont associées. L’équation de Dirac (1928), linéaire dérivée en spatiale et temporelle, prend donc la forme suivante [8] :

(iγµ

µ− mIN)ψ = 0. (1.1)

Ici, (γµ) ≡ (γ0, γ1, γ2, γ3) est le quadrivecteur comprenant les matrices de Dirac, m est la masse, I N

est une matrice identité de dimensions N ×N et ψ = ψ(x) ≡ ψ(t, x) est le champ fermionique qui doit être quantifié (qui est une fonction des coordonnées d’espace-temps). Les contraintes imposées à l’équa-tion (1.1) pour assurer l’invariance de Lorentz, la compatibilité avec l’équation de Klein-Gordon et les principes de la mécanique quantique dictent les propriétés des objets γµ et ψ. En ce qui concerne les

matrices gamma, ces contraintes se traduisent par la relation d’anticommutation {γµ, γν}= 2gµν

IN,

ce qui correspond à l’algèbre de Dirac (un cas spécial de l’algèbre de Clifford). Par ailleurs, il s’avère que les objets mathématiques les plus simples satisfaisant cette relation (pour un espace de Minkowski) sont des matrices hermitiennes 4×4 de trace nulle. Cette relation implique également qu’il n’existe pas

(22)

de représentation unique pour les γµpuisque toute transformation de la forme γµ → γµ 0= UγµU, où

U est une matrice unitaire, satisfait également la relation d’anticommutation (cependant, les représen-tations sont équivalentes et les prédictions physiques ne dépendent pas de la représentation choisie). De plus, cette structure a des répercussions importantes sur le champ ψ : il doit être considéré comme un spineur (ou bispineur) ayant quatre degrés de liberté.21 Finalement, il existe deux types de

spi-neurs à quatre composantes qui satisfont l’équation (1.1) et ceux-ci se distinguent par la présence (ou l’absence) d’une symétrie supplémentaire sous l’opération de conjugaison de charge.

Il semble donc tout à fait à-propos de débuter cette section en considérant la solution la plus générale à l’équation (1.1), connue sous le nom de spineur de Dirac. Bien sûr, afin de pouvoir en étudier le contenu plus en détail, il faut choisir une représentation particulière pour les matrices γµ. Dans le

contexte des interactions faibles, la représentation la plus utilisée est appelée la représentation chirale (ou représentation de Weyl) et permet d’écrire les matrices γµ en fonction des trois matrices de Pauli

σi, soit γ0= 0 I2 I2 0 ! , γi= 0 σ i −σi 0 ! , γ5= −I2 0 0 I2 ! . (1.2)

La nouvelle matrice introduite, dont la forme explicite dépend également de la représentation choisie, est définie comme un produit spécifique de quatre matrices gamma, c’est-à-dire γ50γ1γ2γ3, et est

appelée l’opérateur de chiralité. L’ensemble des matrices (1.2) forme ainsi une base à partir de laquelle les 16 éléments indépendants contenus dans l’algèbre de Dirac complète peuvent être construits.22

L’avantage de cette structure particulière est que celle-ci rend manifeste le fait que la représentation chirale est réductible, ce qui permet de décomposer le spineur de Dirac en deux blocs distincts :

ψ= ψL+ ψR=  χL 0  + 0 χR  = χL χR  . (1.3)

Les composantes χLet χR(de dimension deux), qui se transforment indépendamment sous un « boost »

de Lorentz et une rotation, sont appelées spineurs de Weyl de chiralité gauche et droite respective-ment.23 Dans cette représentation, on constate que les champs chiraux ψ

R et ψL correspondent aux

états propres de γ5 5ψ

R = ψR et γ5ψL = −ψL), ayant les valeurs propres ±1.24 Dans le cadre de

ce travail, ces spineurs ne sont pas contraints à être des états propres de l’opérateur d’hélicité, ce qui permet d’introduire le concept de masse pour le spineur de Weyl également [12]. L’équation de Dirac prédit ainsi de façon naturelle l’existence de deux types de particules, dites « gauche » et « droite ». Toutefois, pour obtenir une théorie de champs quantifiés offrant une description adéquate des fermions,

21. En fait, cet objet est défini par ses propriétés de transformation sous un « boost » de Lorentz et une rotation. 22. Les quatre matrices de Dirac, complémentées de leur relation d’anticommutation, impliquent que tout produit de plus de quatre matrices peut se réduire à des produits de quatre matrices ou moins. Les 16 éléments indépendants de cette algèbre consistent donc en la matrice identité (I4), quatre matrices gamma ({γµ}), six produits de deux matrices

gamma ({12i[γµ, γν]}), quatre produits de trois matrices gamma ({γµγ5}) et un produit de quatre matrices gamma (γ5).

23. La chiralité (les valeurs propres de γ5) est une propriété intrinsèque de nature « quantique » associée à la manière

dont une particule (le spineur) se transforme sous le groupe de Lorentz. Il existe donc deux types de transformations indépendantes, étiquetées « gauche » et « droite ». De plus, cette propriété est fondamentale dans la description des neutrinos, particulièrement dans la construction de termes de masse. Pour une particule massive, la chiralité et l’hélicité (la projection du spin sur la quantité de mouvement) doivent être distinguées puisque l’hélicité est un concept qui dépend du référentiel choisi et par conséquent n’est pas un invariant de Lorentz.

24. De façon plus générale, on peut également constater que le rôle de la matrice γ5 peut être interprété comme une

façon de définir les champs chiraux indépendamment de la représentation choisie. En effet, puisque celle-ci satisfait la relation (γ5)2= I

4, on peut définir les opérateurs de projection PR,L=12(I4± γ5) qui, une fois appliqués sur le spineur,

Figure

Tableau 1.1 – Valeurs propres des opérateurs d’isospin I et I 3 , d’hypercharge Y et de charge électrique Q pour les trois générations de fermions du modèle standard (tableau adapté de [1]).
Tableau 1.2 – Valeurs des différents paramètres d’oscillation (1σ) tels que présentés dans [2].
Figure 1.1 – Spectre des masses et composition des états |ν k i selon une hiérarchie normale ou inverse.
Tableau 1.3 – Propriétés du doublet de Higgs.
+7

Références

Documents relatifs

Comme le Danemark, sa population active est à peu près stable sur la dé- cennie, mais le dynamisme de l’emploi est bridé, eu égard au taux de cris- sance, par une forte progression

La surface d’un quadrilatère est maximum quand celui-ci est inscriptible dans un cercle.. Cette propriété résulte de la formule de Bretscheider qui donne l’aire A

La programmation sur ordinateur ou calculatrice programmable d’une grille autoréférente est très simple mais elle enlève tout le plaisir de la recherche manuelle. Elle a pour

Ces méthodes appa- raissent sous diverses formes dans la littérature : sous le nom des extreme learning machines (ELMs) [ 3 ] dans le contexte des réseaux de neurones, de random

Dans cet article, nous sous sommes intéressés au paramètre de régularisation lorsque les estimateurs RSM et RTE sont utilisés dans la statistique du détecteur ANMF à la place de

On montre dans ce papier que le d´etecteur LR-ANMF bas´e sur la SCM est consistant quand le nombre de donn´ees secondaires K → ∞ pour une dimension des donn´ees m fixe mais

Dans le dernier chapitre on applique la technique de perturbation pour trouve les équations différentielles stochastiques des valeurs propres et des vecteurs propres d’un processus

« Et cette surprise a tant de pouvoir, pour faire que les esprits, qui sont dans les cavités du cerveau, y prennent leur cours vers le lieu où est l’impression