• Aucun résultat trouvé

Nous nous tournons maintenant vers la recherche de structures aux petites échelles. Il s’agit de rechercher des « sources » qui peuvent être ponctuelles, notion finalement toute relative avec une résolution angulaire de l’ordre du degré, mais aussi étendues, d’extension∼ 10◦ par exemple. La recherche de sources assez éten-

dues est motivée par les déflections des UHECRs dues aux champs magnétiques, discutées en détails dans les chapitres suivants. En particulier, à cause de ces déflections, la relativement mauvaise résolution angulaire des détecteurs d’UHECRs n’est probablement pas un réel handicap.

De manière générale, les observatoires comme Auger, mais aussi les télescopes à neutrinos (AMANDA, IceCube, Antarès,. . . ) et les observatoires deγ au TeV du type de Milagro, ont un mode de détection qui ne les prédestine pas à l’étude de sources. Il s’agit en effet d’instruments qui détectent des particules venant d’un grand nombre de directions possibles, et ont donc une couverture du ciel étendue. Ils sont donc optimums pour l’étude de fonds astrophysiques, mais pas pour la détection de sources qui seront forcéments noyées dans ces fonds, puisque l’on ne peut « pointer » dans une direction particulière, comme c’est le cas avec HESS ou INTEGRAL par exemple.

Avec les observatoires d’UHECRs, on peut formellement mener deux types de recherches de sources, dont les philosophies sont différentes :

– La recherche de sources a priori. Il s’agit d’étudier les cartes du ciel dans des régions qui ont un intérêt astrophysique. À défaut de pouvoir pointer un télescope, on va donc « pointer » l’analyse des données dans une ou des directions précises. À titre d’exemple, on peut vouloir étudier le centre galactique, ou bien l’ensemble des directions des AGNs proches.

– La recherche aveugle de sources. Dans ce type d’analyse, on étudie l’ensemble des directions couvertes par l’expérience, sans a priori aucun, et on cherche à déterminer s’il y a, à petite échelle, des excès en quantitité statistiquement significative.

Il nous apparaît crucial de distinguer clairement ces deux analyses. En particulier, il faut éviter de faire

de la recherche éduquée « en aveugle », c’est-à-dire d’utiliser un ensemble de données pour les corréler avec n’importe quelle source non définie a priori.

Donnons un exemple montrant la distinction entre ces deux analyses : si on détecte un excès « à 4 σ » dans une région du ciel sans intérêt particulier, cela ne constitue pas une découverte car, en cherchant dans un

grand nombre de régions du ciel, il est très probable d’obtenir une telle fluctuation. Si le même excès est dirigé vers le centre galactique par exemple, qui est une source astrophysique pour laquelle on a de bonnes raisons a priori (arrière-pensées théoriques, précédentes annonces d’excès) de voir quelque chose, alors cet excès prend immédiatement une toute autre valeur.

3.2.1 Recherche de sources a priori

La bonne façon de procéder est de faire la même chose qu’avec un télescope, pour lequel on est obligé de choisir l’objet vers lequel pointer avant d’analyser les données ! Il faut donc appliquer des sortes de prescrip- tions définissant, avant l’analyse des données, quelles sont les cibles astrophysiques privilégiées pour lesquelles l’observation d’un excès, même à quelquesσ, sera une information scientifiquement importante. Le point cru- cial est de choisir ces cibles en nombre restreint, de façon à ne pas risquer de confondre un tel excès avec une fluctuation statistique. Cette idée de prescriptions a été adoptée, d’une manière plus ou moins formelle (dans l’esprit si ce n’est dans la lettre), par la collaboration Auger.

On peut par exemple définir comme « cible » :

• Une source ponctuelle observée dans d’autres longueurs d’ondes, ou bien annoncée comme excès par d’autres expériences d’UHECRs (par exemple les triplets AGASA).

• Une région plus étendue du ciel, par exemple les plans galactique et supergalactique.

• Un ensemble de sources astrophysiques ponctuelles, défini à partir d’un catalogue et de critères physiques motivés.

Si, comme cela a été souvent le cas par le passé, une corrélation avec de telles cibles est obtenues a pos- teriori, par réanalyse d’un lot de données, on ne peut dans ce cas parler de découverte car le fait de ne pas limiter le nombre de cibles testées (« on pointe dans toutes les directions ») empêche de donner une quelconque significativité à une telle corrélation.

Évaluation de la significativité et optimisation de la recherche

Le choix le plus simple de « cible » est de considérer un disque centré sur une certaine direction~n0et de rayon

angulairer0. Si l’on recherche une source ponctuelle on peut prendrer0 de l’ordre de la résolution angulaire,

mais on peut aussi considérer un rayon plus grand. En intégrant la carte de couverture dans ce disque, et en utilisant le nombre totalN d’événements observés, on peut obtenir le nombre nexp d’événements attendus

en l’absence de source. On compte alors le nombrenobs d’événements vus dans le disque. La distribution de

probabilité de nobs en l’absence de source est une loi de Poisson P(ν = nexp). L’excès éventuel est donc

quantifié en calculant la probabilité d’observer plus denobsévénements :

p =

X

i=nobs

P(i)

Par tradition, on peut convertir cette probabilité en significativiték× σ (« le nombre de σ ») définie en ré- férence aux statistiques gaussiennes parp = 1/√2π R∞

k du e−u

2/2

. En astronomie « traditionnelle », un excès doit conventionnellement être à5σ pour pouvoir être considéré comme une source. Si aucun excès apparent n’est observé en direction de la cible, on peut placer une valeur limite supérieure sur son flux. La statistique poissonnienne permet d’abord de placer une limite sur le nombre d’événements en excès (c’est-à-dire sur nobs−nexp) ; puis la connaissance de l’acceptance du détecteur permet de convertir cette limite en flux, compté

par exemple en nombre de particules par cm2 par seconde.

Dans le cas où l’on étudie une source ponctuelle, de direction~n0, il est clair que la taille de la fenêtre doit

être de l’ordre de la résolution angulaire : plus petit, on perd beaucoup de statistique pour rien ; plus grand, on noie l’excès éventuel dans du bruit. On montre en fait que la fenêtre optimale dans ce cas est exactement la

fonction de réponse angulaire de l’instrument, c’est-à-dire une gaussienneK(~n, ~n0) de la largeur la résolution

angulaire correspondant aux événements considérés [29]. Le « nombre » d’événements observé est alors la somme sur tous les événementsnobs =PiK(~ni, ~n0). Le « nombre » attendu est nexp∼R dΩ W (~n)K(~n, ~n0).

De manière générale, la statistique associée à cette nouvelle variable aléatoire n’est plus poissonienne et la probabilité associée à l’excès peut être estimée par Monte-Carlo : on simulenM C cartes de N événements

suivant la couverture du ciel, et alors : p = 1

nM C

(Nb de cartes telles que nobs ≥ nexp)

On peut aussi estimer analytiquement p si la largeur de la gaussienne K est suffisamment faible pour pouvoir faire une approximation plane [29], ainsi que les éventuelles valeurs limites associées sur le flux.

3.2.2 Recherche aveugle : la fonction d’autocorrélation

L’outil le plus naturel pour rechercher si des excès sont présents à petite échelle, en quantité statistiquement significative mais pas dans une direction précise, est la fonction d’autocorrélation, déjà largement utilisée en cosmologie pour mettre en évidence le clustering des galaxies. Il s’agit simplement de calculer l’histogramme N (θ) des séparations angulaires sur la sphère des événements observés. C’est l’excès des valeurs de cet histo- gramme aux petits angles qui indique un tel clustering.

L’histogramme obtenu n’est bien sûr pas plat, ne serait-ce qu’à cause d’effets d’angle solide. On appelle N0(θ) sa valeur prédite dans le cas isotrope. Pour une couverture uniforme du ciel, en notant N le nombre

d’événements observés, on a simplement :

N0(θ) = N (N − 1)

4 sin θ

Il y a un terme d’angle solide, et la fonction est normalisée parR0πN0(θ)dθ = N (N− 1)/2. Dans le cas où

la couverture n’est pas uniforme, cette distribution est moins triviale. Elle peut être obtenue de deux façons différentes :

– On peut simplement tirer un grand nombre de fois des événements au hasard de manière isotrope, suivant la carte de couverture, et reconstruire ainsi la fonctionN0 par Monte-Carlo. Cette méthode est consom-

matrice en temps de calcul car il faut répéter un grand nombre de fois l’opération de fabrication de l’histogramme de paires d’événements simulés, ce qui est particulièrement long car le nombre de paires est∝ N2.

– On peut aussi utiliser le lien qui existe entre le spectre de puissance angulaire et la fonction de corrélation angulaire d’un champ sur la sphère :

N0(θ)∝

X

`

2` + 1

4π C`P`(θ)

LesC`sont ceux de la carte de couverture. La normalisation est ensuite choisie simplement pour avoir

la même relationR0πN0(θ)dθ = N (N − 1)/2. Cette méthode nécessite bien moins de temps de calcul

que la précédente. Elle présente aussi l’avantage d’être très précise à partir du moment où la carte de couverture est suffisamment pixellisée. Par contre, elle nécessite de connaître la carte de couverture alors que la précédente peut être appliquée par simple scrambling d’un jeu d’événements donné (voir chapitre précédent). Cela explique que la méthode Monte-Carlo ait été largement utilisée par le passé.

On peut ainsi calculer une fonction de corrélation renormalisée(N /N0)(θ). L’incertitude associée est, surtout

aux petits angles, due aux fluctuations statistiques de l’histogramme N (θ). En toute rigueur, les différents bins de cet histogramme ne sont pas décorrélés. Pour pouvoir calculer les incertitudes associées à chaque bin, il faudrait donc utiliser des Monte-Carlo. En fait, la statistique aux petites séparations angulaires est tellement

faible, à cause du facteur d’angle solide, qu’il est raisonnable en première approximation d’estimer l’incertitude associée à chaque binθ avec la loi de PoissonP[N0(θ)].

♠ En pratique, le choix du binning pour construire l’histogramme de la fonction d’autocorrélation est impor- tant. Il est naturel de choisir un bin de l’ordre de la résolution angulaire.

Cette fonction statistique n’est pas optimisée pour la recherche d’une source particulière. À titre d’exemple, considéronsN événements distribués uniformément sur la sphère, soit une densité ρ = N/4π, avec en plus une unique source ponctuelle deκN événements. Avec une résolution angulaire θ, le rapport signal/bruit au niveau de la source vaut environκN/ρπθ2 = 4κ/θ2. La fonction d’autocorrélation (non-normalisée) est cal-

culée à partir de tous les événements. Dans le premier bin, de taille choisie= θ, on a N2θ2 paires d’évé- nements en l’absence de source. La source rajoute environ(κN )2 paires, ce qui correspond à une fraction f ≡ (κN)2/N2θ2 ∼ κ22. L’excès mesuré à l’aide de la fonction de corrélation angulaire est donc plus petit

d’un facteurκ par rapport à une recherche a priori de la source.

Distribution des plus proches voisins

On peut calculer un grand nombre de grandeurs statistiques destinées à mettre en évidence des structures à petite échelle. Mentionnons par exemple la distribution des plus proches voisins : à chaque événement i on associe la distance angulaireθ1i du plus proche voisin, celle θ2i du second plus proche voisin, etc. Les

distributions cumulatives de ces distances sont ensuite représentées, et comparées à des Monte-Carlos. L’intérêt de cette méthode est justement qu’elle ne nécessite pas de choisir un binning.

3.2.3 Recherche aveugle : cartes d’excès

On peut calculer des cartes d’excès d’événements sur tout le ciel couvert par diverses méthodes, afin de voir si un ou plusieurs « point(s) chaud(s) » ne ressortent pas d’une manière statistiquement significative.

Carte de significativité à une échelle donnée

Nous avons vu précédemment comment calculer une significativité dans une fenêtre de rayonr0 donné, dans

une direction~n0 donnée, à partir d’un ensemble d’événements. Le principe maintenant, dans le cadre d’une

recherche aveugle, est de calculer une carte de significativités sur un ensemble important de directions dans le ciel (par exemple, l’ensemble des directions associées à une pixellisation Healpix à grandNside) [30]. Cette

carte permet ainsi de localiser d’éventuelles structures à l’écheller0 dans le ciel. Formellement, si le noyau

« fenêtre » est une fonctionK(~n, ~n0), la carte brute des événements est une somme de Diracs : M0(~n) =

P

iδ(~n, ~ni), et la carte lissée est sa convolution :

MK(~n) = M0? K =

X

i

K(~n, ~ni)

La carte de significativité est obtenue en comparant cette carte à la carte de couverture lisséeW ? K. Comme on a des relations de convolution, le calcul de la carte de significativité est facilité en passant dans l’espace de Fourier, c’est-à-dire à nouveau en utilisant les harmoniques sphériques.

Dans le cas particulier où l’on recherche des sources ponctuelles, il suffit de prendrer0égal à la résolution

angulaire. Néanmoins nous avons vu que la résolution angulaire n’est pas la même pour tous les événements (elle dépend deθ, etc) ; il faut donc en toute rigueur introduire un noyau de résolution angulaire Ki par événe-

ment (ce qui empêche alors d’utiliser l’outil de l’analyse de Fourier).

Une telle carte fera toujours apparaître des fluctuations à plusieursσ. Pour savoir si celles-ci sont statis- tiquement significatives, il faut en général recourir à un Monte-Carlo : on tire un grand nombre de fois des

événements suivant la carte de couverture, et on produit ainsi des distributions de significativité « isotropes » auxquelles on peut comparer la distribution des significativités réelles.

♠ Avec un estimateur de « significativité » statistique approprié, comme l’estimateur de Li-Ma très couram- ment utilisé en astronomie, on connaît la distribution théorique d’un ensemble de significativités indépen- dantes : il s’agit d’une gaussienne. Mais les significativités obtenues sur une carte d’excès qui a été lissée à une certaine échelle ne sont pas indépendantes (les pixels étant corrélés), c’est pourquoi on est obligé de recourir au Monte-Carlo.

Sources ponctuelles : carte de maximum de vraissemblance [31]

Une autre approche existe dans le cas de la recherche spécifique de sources ponctuelles. Étant donné un en- semble de directions d’arrivée~ni, une couvertureW (~n), et des noyaux de résolution angulaire Kidéfinis pour

chaque événement, on peut tester l’hypothèse : « parmi lesN événements observés, il y en a nsqui proviennent

d’une source dans la direction~ns». Partant de cette hypothèse, la probabilité d’observer l’événementi dans la

direction~n est : Pi(~n, ~ns) = ns NKi(~n, ~ns) + N− ns N W (~n)

La vraissemblance associée à l’ensemble des événements est alors L(ns, ~ns) = QiPi(~ni, ~ns). Pour une

direction~ns donnée, on maximise doncL par rapport à ns. On peut ainsi construire une carte de maximum

de vraissemblance permettant de représenter les sources possibles, et prenant en compte en particulier les résolutions angulaires individuelles des événements. La valeur deL dépendant du nombre d’événements, on considère plutôt le logarithme du rapport entreL(ns, ~ns) etL(0, ~ns). On cartographie donc la quantité suivante

(MLR signifiant Maximum Likelihood Ratio) : MLR(~n) = Maxns X i ln  1 +ns N  Ki(~ni, ~n) W (~ni) − 1 

Documents relatifs