• Aucun résultat trouvé

3.4 Résultats des deux premières années d’Auger

3.4.2 Anisotropies à haute énergie

3.4.2.2 Sources ponctuelles

La recherche de sources ponctuelles dans ce domaine d’énergie nécessite beaucoup de statistique. Les deux seules premières années de données d’Auger sont encore insuffisantes pour apporter des contraintes fortes sur ces sources, mais elles permettent déjà de tester les annonces précédentes.

Autocorrélation

La fonction d’autocorrélation est un outil simple pour tester si des « amas » d’événements sont présents en quantité significative à petite échelle.

FIG. 3.22 : Fonctions d’autocorrélation angulaire, normalisées par la couverture du ciel, pour les données des

deux premières années d’Auger. Gauche :E ≥ 10 EeV, droite : E ≥ 30 EeV.

La Fig. 3.22 représente l’autocorrélation des événements de haute énergie avec les deux premières années. Il n’apparaît aucune autocorrélation significative aux petits angles, en particulier pourE ≥ 30 EeV. Nous ne sommes donc pas en mesure de confirmer le signal de clustering d’AGASA pour l’instant.

Corrélation avec les Bl Lacs

Nous avons testé la corrélation avec les Bl Lacs du catalogue de Veron-Cetty qui ont servi à obtenir la corré- lation avec les données HiRes àE ≥ 10 EeV. Pour cela, nous avons encore une fois appliqué la méthode de la collaboration HiRes [44], qui est basée sur le même principe que la construction des cartes de maximum de vraissemblance. Au lieu de considérer chaque direction~n et de calculer la fonction MLR(~n) pour construire une carte, l’idée est de calculer la fonctionMLR(~ni), où les ~nireprésentent l’ensemble des directions des Bl

Lacs considérés. On considère donc N événements et on suppose quensd’entre eux proviennent d’un Bl Lac.

La distribution de probabilité sur le ciel de ces événements peut donc s’écrire, comme on l’a fait à la section précédente : Pi(~n) = ns NQi(~n) + N− ns N W (~n)

W (~n) est la couverture du ciel et Qi(~n) est la distribution de probabilité sur le ciel des rayons cosmiques qui

proviennent des Bl Lacs. En notant~nj les directions exactes de ces objets etKila résolution angulaire associée

Qi(~n) =

P

jW (~nj)Ki(~n, ~nj)

P

jW (~nj)

La fonction de vraissemblance se calcule alors, comme précédemment, en faisant le produit des probabilités Pi(~ni), et la fonction MLR(~ni) est obtenue en maximisant cette fonction de vraissemblance par rapport au

nombrensd’événements associés aux sources.

On simule alors un grand nombre de distributions d’événements selon la couverture du ciel d’Auger, et on compare ainsi leMLR(~ni) avec les valeurs obtenues par Monte-Carlo. La Fig. 3.23 compare directement

les directions d’arrivée des événements Auger à 10 EeV avec celles des Bl Lacs, et montre la distribution des MLR obtenus par Monte-Carlo. On observe ainsi que le MLR des vrais événements est anormalement bas : la probabilité d’avoir un MLR plus élevé que celui obtenu est, d’après le Monte-Carlo, de 0.97.

FIG. 3.23 : Distribution des significativités maximales obtenues par Monte-Carlo (le logarithme de la fonction

MLR décrite dans le texte). La ligne verticale rouge indique la significativité maximale obtenue avec les données d’Auger.

Ainsi, non seulement nous ne pouvons confirmer la corrélation avec les Bl Lacs obtenue à 10 EeV, mais nous trouvons plutôt même une anticorrélation (néanmoins pas significative) ! Il faut noter que le recouvrement de la couverture du ciel d’Auger avec les Bl Lacs du catalogue considéré est plus faible que pour la couverture de HiRes, situé dans l’hémisphère nord, comme le montre la carte de la Fig. 3.23. On ne peut donc proba- blement pas encore réfuter complètement cette corrélation, dont nous avons montré qu’elle est extrêmement controversée, avec les données d’Auger Sud seul.

Corrélations avec d’autres sources remarquables

Les Fig. 3.24 et 3.25 montrent la distribution des directions d’arrivée des UHECRs au-dessus de 10 et 30 EeV, ainsi que quelques sources potentielles de ces particules. Nous avons ainsi représenté le « triplet » AGASA, hors du champ de vue d’Auger, les sources au TeV de HESS et d’autres observatoires, et un petit nombre d’amas de galaxies proches ainsi que Cen A, la galaxie active la plus proche de la voie lactée. Le dernier chapitre de cette thèse justifiera le fait que les sources au TeV apparaissent comme des candidats privilégiés de sources d’UHECRs.

FIG. 3.24 : Distribution sur le ciel des directions d’arrivée des UHECRs au-dessus de 10 EeV. Rouge : sources

au TeV (compilation des données de HESS et « pré-HESS »). Bleu : amas de galaxies choisis. On a rajouté le centre galactique, le triplet AGASA et Cen A.

FIG. 3.25 : Même figure que Fig. 3.24, pour les événements àE≥ 30 EeV.

Aucun excès évident n’apparaît en direction de l’une de ces sources, ou dans d’autres directions. On peut ainsi dire qu’avec ces deux premières années de données d’Auger Sud, aucun excès statistiquement intéressant n’est apparu aux plus hautes énergies.

Nous nous sommes ici limités à l’analyse des données pour E ≥ 10 et E ≥ 30 EeV, autrement dit nous n’avons pas intégralement « scanné » sur l’ensemble des seuils en énergie. La difficulté est qu’en appliquant une telle procédure, il devient alors malaisé d’associer une significativité à un éventuel excès. En conclusion, il semble qu’à l’heure actuelle la meilleure chose à faire est d’attendre que la statistique tombe du ciel pour espérer voir un signal...

Distribution des temps d’arrivée des UHECRs

On peut vérifier que la distribution des temps d’arrivée des UHECRs aux énergies élevées est bien compatible avec un processus stationnaire en appliquant la méthode du scanstatistique : dans le cas où l’acceptance du détecteur est constante, la définition du scanstatistique est telle que l’on peut en calculer analytiquement la distribution [52] ; l’acceptance pour Auger est bien sûr variable, ce qui nous force à redéfinir cette grandeur et à utiliser des Monte-Carlo. On notetkles temps d’arrivée des événements dans un intervalle[0, T ]. On se fixe

une taille de fenêtre temporellew = 20 jours (par exemple), et à chaque instant t on définit n(t) le nombre d’événements dans la fenêtre[t− w/2, t + w/2], et n0(t) le nombre d’événements moyen attendus dans cette

même fenêtre en intégrant l’acceptance obtenue à partir des fichiers de T2. On peut alors calculerPw(t) la

probabilité de Poisson d’avoir plus quen(t) événements sachant qu’on en attend n0. Le scanstatistique est par

définition la grandeur :

Sw = mint[Pw(t)]

En tirant au hasard des temps d’événements selon la loi d’évolution de l’acceptance du détecteur, on peut par Monte-Carlo obtenir la distribution de probabilité deSw, et détecter ainsi la présence significative de « bursts »

sur une échelle de temps typiquew. Pour une fenêtre w de 20 jours, la Fig. ci-dessous montre la distribution desSwsimulés, et leSwdes événements pourE≥ 10 et E ≥ 30 EeV. On voit ainsi qu’il n’y a pas de « burst »

significatif dans cette série temporelle sur une période de l’ordre de 20 jours.

Figure : Histogramme : distribution attendue du scanstatistique, obtenue à l’aide de 500 simulations Monte-

Carlo ; ligne rouge : valeur mesurée du scanstatistique des événements des deux premières années de prise de donnée, pourE≥ 10 EeV à gauche et E ≥ 30 EeV à droite.

Nous avons ici choisi une fenêtre de la taille de 20 jours, car l’acceptance instantanée d’Auger étant de loin la plus importante parmi tous les détecteurs d’UHECRs, et l’acquisition d’Auger ayant pour l’instant duré plusieurs mois, Auger est la première expérience à pouvoir tester une éventuelle variabilité du flux d’UHECRs sur cette échelle de temps (les autres expériences ont, elles, duré de nombreuses années). On pourra aussi rechercher avec Auger des coïncidences du flux UHECR avec des sursautsγ, mais cela nécessitera de prendre en compte la distribution temporelle et spatiale des événements.

Bilan de la partie expérimentale

Après deux années de prise de données, la statistique accumulée par l’Observatoire Auger est devenue supé- rieure à celle d’AGASA ou d’HiRes en mode stéréo. Le développement de méthodes d’analyses d’anisotropies a été l’occasion d’étudier de manière approfondie la stabilité du détecteur de surface et ses systématiques asso- ciées aux conditions atmosphériques. Nous avons pu grâce à ces études rechercher des anisotropies sur le ciel aussi bien à grande échelle et basse énergie qu’aux petites échelles à haute énergie. Résumons ici les résultats principaux :

• La stabilité de l’acquisition des données du détecteur de surface n’est pas chose facile à obtenir pour les événements de basse énergie ! Un certain nombre de facteurs : effets météorologiques, inhomogénéités et instabilités des taux de déclenchement des cuves, déploiement des détecteurs, rendent la tâche ardue, mais possible si l’on accepte de sélectionner sévèrement les périodes d’acquisition valides. Ces difficultés n’ont rien d’étonnant puisque le détecteur est conçu essentiellement pour fonctionner aux plus hautes énergies.

• Au prix d’études relativement fastidieuses, nous avons quantifié les effets des fluctuations météorolo- giques sur le détecteur de surface. La surprise majeure a été que ces effets ne sont pas simplement des effets de seuil, à basse énergie, mais sont probablement présents pour toutes les énergies. Ces effets peuvent être bien compris en ordre de grandeur par des changements des propriétés des gerbes en fonc- tion de l’état de l’atmosphère. Ils peuvent engendrer un biais et des fluctuations de quelques pourcents sur la reconstruction en énergie telle qu’elle est appliquée actuellement. On peut sérieusement envisager, à l’avenir, de corriger ces effets.

• À des énergies autour de 1018 eV, nous n’avons pas observé d’excès associé au centre galactique. Cela

contraint un certain nombre de modèles hadroniques expliquant la source associée au TeV. Il a aussi été impossible de confirmer les excès annoncés dans ce domaine d’énergie par les expériences précédentes. • Nous ne pouvons néanmoins réfuter l’existence possible d’une structure aux très grandes échelles, sem-

blant être associée à l’hémisphère sud de notre galaxie, à des énergies très basses, inférieures à1018eV. La difficulté est qu’il n’est pas encore possible d’établir un résultat ferme à des énergies aussi faibles. Il sera donc intéressant mais peut-être difficile d’infirmer ou de confirmer cet excès avec de nouvelles données. S’il est confirmé, l’interprétation d’un tel excès ne pourra se faire qu’en développant des mo- dèles de propagation des rayons cosmiques dans la galaxie à ces énergies. Il est possible que l’on puisse ainsi obtenir une observation importante qui contraigne : 1) l’origine, galactique ou extragalactique, des rayons cosmiques autour de l’EeV ; et 2) les modèles de champs magnétiques galactiques.

• Aux plus hautes énergies, la statistique reste faible mais les données actuelles ne permettent pas de confirmer le clustering observé par AGASA. Il est difficile néanmoins de prouver que ce clustering est une fluctuation statistique, car d’une part la statistique reste assez faible, et d’autre part Auger ne regarde pas la même portion de ciel. En particulier, le fait d’avoir la région du centre galactique dans le champ de vue fait que les déflections dues aux champs magnétiques galactiques peuvent être plus grande que dans l’hémisphère nord, et donc les éventuelles sources sont plus « diluées ». Le fait de ne rien voir actuellement est évidemment décevant, mais ce n’est pas une situation définitive et le décuplement de la

statistique pourrait tout-à-fait changer les choses. Les conséquences possibles de l’absence d’observation de sources seront décrites au cours de la seconde partie de cette thèse.

Chapitre 4

Propagation des particules chargées (1). Le

cadre

Nous abordons maintenant la facette théorique, en fait surtout phénoménologique, de cette thèse. Avant d’entrer en détail sur les modèles actuels de propagation des protons, noyaux, photons et neutrinos d’ultra- haute énergie, il est nécessaire de connaître dans leurs grandes lignes les « ingrédients » permettant de modéliser l’origine et la propagation des UHECRs jusqu’à la Terre. L’objectif de ce chapitre est de fournir une revue à ce sujet.

Les trois concepts essentiels à la théorie de la propagation des UHECRs seront successivement présentés. Tout d’abord, nous allons décrire les mécanismes et les objets astrophysiques succeptibles de permettre l’ac- célération de particules chargées jusqu’aux énergies extrêmes. Nous en profiterons pour décrire aussi quelques scénarios exotiques, alternatives potentielles essentiellement dans le cas où la coupure GZK ne serait pas ob- servée. Dans une seconde partie seront décrites les interactions que subissent les UHECRs au cours de leur propagation sur des distances (quasi-)cosmologiques. Ces interactions sont dues aux fonds de photons à basse énergie qui baignent l’Univers ou ses régions les plus denses. En fonction de la nature des UHECRs, elles génèrent des pertes d’énergie, des particules secondaires neutres et des cascades de noyaux. Enfin nous insis- terons en dernière partie sur les champs magnétiques galactiques et extragalactiques, susceptibles de déflechir les UHECRs chargés : c’est la faible connaissance actuelle que nous avons de ces champs qui génère le plus d’incertitudes sur les modèles de propagation.

On se placera maintenant en général dans le système d’unités naturelles ~= c = 0 = 1.

4.1

Les sources astrophysiques et leur distribution

On distingue de façon générique deux types de modèles pour la production des UHECRs :

– Les modèles « bottom-up » : les rayons cosmiques sont accélérés à partir de particules de basse énergie du plasma situé dans des objets astrophysiques. Les mécanismes de l’accélération sont basés sur de la physique connue, et on dispose d’indices expérimentaux relativement forts en leur faveur pour les rayons cosmiques de basse énergie.

– Les modèles « top-down » : les rayons cosmiques sont issus de mécanismes plus exotiques basés sur de la physique hors du modèle standard. De tels modèles ont été développés pour plusieurs raisons : il est légitime d’imaginer de la « nouvelle physique » pour décrire des particules dont l’énergie (∼ 1011GeV)

est à mi-chemin entre la masse de Planck (∼ 1019GeV) et le TeV ; les modèles bottom-up appliqués aux

objets astrophysiques les plus violents connus ont du mal à atteindre ces énergies ; enfin des expériences comme AGASA semblent indiquer l’absence de coupure GZK, attendue naturellement pour des sources astrophysiques extragalactiques.

Dans cette section seront passés en revue les mécanismes et les sources astrophysiques susceptibles d’accélérer les UHECRs, puis certains scénarios plus exotiques qui ont été proposés.

Documents relatifs