• Aucun résultat trouvé

2.2 Calcul de la couverture

2.2.5 Variantes et raffinements

Nous présentons ici des variantes et améliorations des deux méthodes présentées ci-dessous pour estimer l’évolution temporelle de l’acceptance.

Méthodes intermédiaires

Il existe un grand nombre de variantes possibles permettant de calculer la couverture à partir des données et/ou de modèles d’acceptance. Utiliser de telles méthodes permet de comparer les couvertures obtenues et de comprendre d’éventuelles différences. Nous décrivons ici deux de ces méthodes que nous avons implémentées. 1) On peut utiliser la fonction a0(θ) considérée précédemment pour modéliser la dépendance en θ de

l’acceptance, mais utiliser la distribution des tempstides événements (au lieu des fichiers de T2 et des modèles

d’acceptance) pour construire l’évolution temporelle de l’acceptance. Cela revient alors à faire du scrambling en temps sidéral, et permet d’avoir une carte de couverture très « prudente », puisque la distribution en temps des événements est conservée et donc une anisotropie à grande échelle sera en grande partie absorbée dans la couverture. De manière explicite, on modélise l’évolution temporelle de l’acceptance par la loia(t) =P

iδ(t−

ti), ce qui permet de calculer la couverture, notée Weavec la formule :

We(α, δ) =

X

i

a0[θ(ti, α, δ)]

Toujours avec le même lot d’événements de référence, la différence relative entre la couverture obtenue par cette méthode et la couverture invariante en ascension droite est représentée sur la Fig. 2.28. On observe im- médiatement que, comparée à la couverture du modèle précédent, la modulation en ascension droite est plus importante, de l’ordre de 4 %, et n’est pas tout-à-fait orientée selon la même direction.

2) Enfin, on a aussi implémenté un autre modèle intermédiaire d’évolution de a(t). Le principe de cette méthode est de séparer l’évolution temporelle dea(t) en une composante principale due à l’activité des cuves,

FIG. 2.28 : Différence relative entre la couverture calculée en utilisant la distribution temporelle des événement

du « lot de référence » et la couverture calculée en supposant l’acceptance constante.

Peut-on factoriser l’évolution temporelle des paramètres météo ?

Les méthodes de scrambling en jours et heures solaires(ji, si), ainsi que la méthode dérivée, que nous avons

implémentée et décrite dans le texte, sont fondées sur l’idée que l’évolution temporelle des paramètres météo sur le site du détecteur sont globalement factorisables en évolution solaire et évolution à long terme, c’est-à-dire que l’on peut écrire par exemple pour la températureT (t)' Tj(j)× Ts(s). On utilise ici les données météo du

CLF en 2004 - 2005 pour obtenir, par simples histogrammes, les fonctionsTj(j) et Ts(s). On compare alors la

fonction ˜T (t)≡ Tj× Tset la vraie températureT (t).

Figure : Haut : exemples de comparaisons entre l’évolution temporelle des paramètres( ˜T , ˜P ) « factorisés », en noir, avec les vraies données(T, P ), en rouge. Bas : histogrammes des différences entre ( ˜T , ˜P ) et (T, P ) pour la période 2004 - 2005.

L’hypothèse de factorisation est raisonnable, mais elle conduit à des erreurs relativement importantes, surtout en ce qui concerne la pression.

que l’on maîtrise grâce aux fichiers de T2, et une composante résiduelle due aux effets décrits en première section (météo et instabilités diverses). On écrit donc :

ˆ

a[t, θ, φ] = a0(θ)aT 2(t)× A(t)

On suppose alors que la composanteA(t) est d’une part toujours proche de l’unité, et d’autre part factorisable en une composante à long terme, et une modulation journalière. En utilisant les joursj et temps solaires s introduits précédemment, on pose doncA(t) = Ej(j)× Es(s). On montre alors que sous cette hypothèse, les

mesures des taux d’événements quotidiens et horaires permettent de remonter à ces fonctionsEjetEs, même si

une légère anisotropie est présente dans le ciel. C’est la même raison qui est utilisée dans le cadre du scrambling pour permuter les(ji, si) plutôt que les tiseuls.

L’hypothèse de factorisabilité n’est néanmoins pas garantie, même pour les paramètres météo comme le montre l’encadré. La Fig. 2.29 (gauche) montre sur un exemple la différence entre ce modèle d’évolution temporelle de l’acceptance et le modèle « de référence », décrit précédemment, qui utilise les données météo du CLF. Les deux modèles ont leur avantage : le modèle basé sur la factorisation (« FAM ») peut absorber des systématiques qui auraient été « oubliées » par l’autre modèle. Le modèle de référence, lui, prend complètement en compte les fluctuations des conditions météorologiques, sans l’approximation de factorisabilité. La Fig. 2.29 (droite) montre la différence entre la couverture obtenue avec une acceptance factorisable et la couverture correspondante avec acceptance constante. On vérifie ainsi que la couverture obtenue avec cette méthode est très proche de la couverture calculée avec le modèle d’acceptance de référence, présentée en Fig. 2.27.

FIG. 2.29 : Gauche : Sur une période de deux semaines en 2005, deux modèles d’évolution temporelle de

l’acceptance. En rouge, le modèle d’acceptance factorisable (FAM pour Factorizable Acceptance Model), et en noir le modèle « de référence ». Une période de mauvaise acquisition est prise en compte dans les deux cas. On observe une périodicité sur la courbe rouge, due à l’hypothèse de factorisabilité. Droite : différence relative entre la couverture « FAM » et la couverture associée invariance en ascension droite.

Variations des coefficients météorologiques avecθ

L’étude des effets météorologiques laisse suggérer que les coefficientsα et β de corrélation de l’acceptance avecT et P peuvent dépendre de θ : nous avions trouvé un effet à 2 σ. Par ailleurs, on a aussi vu que la méthode de scrambling prend en compte un tel effet, car les permutations des temps des événements sont opérés dans des bins deθ distincts. Nous quantifions ici l’effet de cette dépendance en θ de α et β.

Nous supposons ici queα et β ont des dépendances linéaires en cos θ. Nous posons donc pour ces coeffi- cients les relations :

α(θ) = α0+ sα(cos θ− hcos θi)

β(θ) = β0+ sβ(cos θ− hcos θi)

Dans ces relations,hcos θi = 0.807 est la valeur moyenne de cos θ pour l’ensemble des événements considérés, etα0 = 0.0063, β0 =−0.0041 sont les valeurs « standard » de α et β. À partir des mesures de α et β pour

θ≤ 35etθ≥ 35, qui ont été obtenues précédemment, on obtient facilement des ordres de grandeur pour les

pentes :

sα ' sβ ' +0.013

On peut alors implémenter cette paramétrisation peu précise, mais dont l’ordre de grandeur reproduit les don- nées, dans le calcul de l’acceptance et donc de la carte de couverture. On utilisera donc le modèle suivant d’acceptance :

ˆ

a[t, θ, φ] = a0(θ)× aT 2(t)× [1 + α(θ)(T [t] − T0) + β(θ)(P [t]− P0)]

La différence des couvertures calculées avec ce modèle d’acceptance, et avec le modèle oùα et β sont consi- dérés comme des constantes est représentée sur la Fig. 2.30. Cette différence est non-triviale car les angles zénithaux étant associés en moyenne à des bandes de déclinaisons diverses, on observe qu’une modulation en déclinaison se superpose à la modulation en ascension droite. La conclusion principale est que cet effet est très faible : dans la majorité des régions du ciel, la différence relative entre les deux couvertures est inférieure à ∼ 0.25%. Il s’agit donc d’un effet a priori sous-dominant par rapport aux autres effets présentés précédemment, et il est raisonnable de le négliger.

FIG. 2.30 : Effet sur la couverture du ciel de la prise en compte d’une dépendance en θ des coefficients de pression et de température. Cette carte représente la différence relative entre une couverture calculée avec (α,β) constants, et avec un modèle de dépendance linéaire en cos θ de ces coefficients.

Bilan

Ainsi, avec le lot de données « de référence » que nous avons construit, on peut a priori calculer la couverture du ciel en intégrant le modèle d’acceptance prenant en compte la croissance du réseau et les effets météorologiques.

La différence relative entre cette couverture du ciel et des couvertures obtenues en utilisant plus directement les événements (« FAM ») est faible (inférieure au pourcent), ce qui peut valider la méthode et donner une idées de l’erreur systématique que l’on fait sur l’estimation de cette couverture.

Par contre, la différence importante entre ces couvertures du ciel et la couvertureWeobtenue en conservant

intégralement la distribution en temps des événements reste incomprise. Nous reviendrons dessus lors de la présentation des résultats obtenus avec les données d’Auger.

Rappelons enfin que toutes ces analyses fines ne sont essentielles que pour les études à basse énergie ; dans le domaine d’énergie pour lequel Auger a été explicitement conçu, E ≥ 1019 eV, la couverture analytique

présentée au début de cette section est parfaitement adaptée pour l’instant.

Documents relatifs