• Aucun résultat trouvé

Conclusion : spectres en charge des 3 sous-détecteurs

Dans CREAM-III, 3 sous-détecteurs peuvent être utilisés pour mesurer la charge des particules : les

deux plans de SCD ainsi que CherCam. Au-delà de Z=2, la résolution de la charge est une gaussienne

dans chaque sous-détecteur (pour le SCD, la distribution est proche d’une distribution de Landau

convoluée avec une gaussienne pour Z=1 et Z=2). La figure 6.12 montre les distributions des charges

mesurées (aussi appelées spectres de charge) par les 3 sous-détecteurs. On constate que les résolutions

des deux plans de SCD sont similaires tandis que la résolution de CherCam est sensiblement moins

bonne. À titre d’exemple, les résolutions de la mesure de la charge de l’oxygène sontσ

bottom

= 0.27,

σ

top

= 0.26etσ

CherCam

= 0.40. Pour le groupe d’éléments B, C, N et O, CherCam apporte donc peu

d’informations. On peut toutefois envisager une utilisation future pour la reconstruction des flux de

protons et d’hélium, voire même de lithium et de béryllium. En effet, on constate que dans les SCD,

6.4 Conclusion : spectres en charge des 3 sous-détecteurs

FIGURE6.11 – Résolution sur la mesure de la charge de l’oxygène dans CherCam.

les distributions des protons et des héliums possèdent des queues qui se propagent jusqu’aux charges

∼ 5. Elles proviennent des fluctuations dans les dépôts d’énergie dues à leur nature stochastique.

Pour une énergie déposée moyenne fixée, la distribution de l’énergie déposée s’apparente à une loi de

Landau. Dans le cas de CherCam, à basse charge, la résolution est principalement gouvernée par la

fluctuation sur le nombre de photons détectés qui est de nature poissonnienne. Une telle fluctuation

ne produit pas la queue de distribution observable dans les plans du SCD. Un tel avantage pourrait

être exploité pour la reconstruction des flux de lithium et de béryllium, pour lesquels la contamination

dans les SCDs due aux protons et aux héliums est extrêmement importante. En attendant, dans cette

analyse CherCam joue un rôle important dans l’estimation des efficacités d’identification des top et

bottom SCD. Puisque sa mesure de charge est indépendante, on peut créer des échantillons de chaque

espèce qui peuvent être utilisés pour tester la réponse au passage de ces charges à travers le bottom et

le top SCD. Afin de créer des échantillons suffisamment purs, deux sous-détecteurs sont nécessaires,

et puisque l’on ne peut pas utiliser le même détecteur pour créer les échantillons et mesurer sa réponse,

au total 3 détecteurs sont indispensables. Tout ceci sera expliqué en détail dans la section 8.2.

Quatrième partie

Comme nous l’avons vu dans la section précédente, la mesure des flux et des rapports du

rayon-nement cosmique est l’objectif de l’expérience CREAM. Dans cette partie, nous nous consacrerons

à la reconstruction des flux et des rapports avec les données du troisième vol de CREAM ayant eu

lieu entre le 19 décembre 2007 et le 17 janvier 2008. La mesure prioritaire est la mesure du rapport

bore sur carbone, dont l’estimation passe par la reconstruction des flux B et C. La méthode d’analyse

est suffisamment générique pour reconstruire d’autres flux tels que ceux de l’azote et de l’oxygène.

Par ailleurs, nous verrons que connaître ces flux nous permet de contrôler la contamination due aux

azotes et aux carbones mal identifiés. La contamination due à l’hydrogène et à l’hélium est a priori

beaucoup moins probable, cependant leurs abondances sont beaucoup plus grandes que celles des

autres éléments et au final leur contamination n’est pas négligeable. On calculera donc aussi les flux

d’hydrogène et d’hélium. Ces flux serviront aussi à contrôler la procédure d’analyse car ils pourront

être comparés avec ceux issus de l’analyse des flux H et He effectuée par la collaboration.

La formule du flux

Un flux représente le nombre de particules d’une espèce donnée passant à travers une surface de

détection par unité de temps, de surface, d’énergie et d’angle solide. Si le flux est homogène, isotrope

et stationnaire, son expression s’écrit :

ϕ(E) = < N

tot

>

∆E·T ·GF

où< N

tot

>représente le nombre moyen de particules d’énergie comprise entreE etE+ ∆Equi

passent à travers le détecteur pendant un tempsT. La quantitéGF représente le facteur géométrique

du détecteur, c’est-à-dire l’intégrale de son angle solide sur toute la surface de détection. On ne mesure

pasN

tot

mais seulement une fraction pour plusieurs raisons. D’abord, certaines particules passent à

travers le détecteur sans déclencher l’acquisition. La fraction d’évènements déclenchant l’acquisition

se nomme efficacité de déclenchement ϵ

trig

. D’autre part, pour certains évènements, l’information

enregistrée par les détecteurs n’est pas suffisante pour identifier la charge et l’énergie de la particule et

ces évènements sont rejetés de l’analyse. La fraction d’évènements gardés est nommée efficacité des

coupuresϵ

cut

. Pour une réalisation de l’expérience, qui correspond à un nombreN(E)d’évènements

gardés dont l’énergie est comprise entreEetE+ ∆E, on utilise comme estimateurϕ˜(E)du flux, la

formule suivante :

˜

ϕ(E) = N(E)

∆E·T˜·GF˜ ·˜ϵ

trig

·˜ϵ

cut

(6.4)

où les variables avec le tilde correspondent à un estimateur des variables sans le tilde.

En pratique, la mesure deN(E)n’est pas immédiate pour deux raisons principales. Les détecteurs

possèdent des résolutions finies et il est possible de commettre des erreurs dans l’attribution de la

charge et de l’énergie des particules. Lorsque la charge est mal reconstruite, une particule peut-être

identifiée comme une autre, on parle de contamination des espèces. La mauvaise reconstruction de

l’énergie peut impliquer qu’une particule soit placée dans le mauvais bin en énergie, on parle de

convolution de la distribution des évènements avec la réponse en énergie du détecteur. Pour obtenir

Nous avons vu lors de l’étude sur la propagation du rayonnement cosmique que sa composition était

modifiée lors de la propagation par l’interaction de ce dernier avec la matière du milieu interstellaire

via le processus de fragmentation. Le même phénomène se produit lors de la traversée de

l’atmo-sphère et même dans les parties du détecteur situées au-dessus des détecteurs sensibles. Connaissant

la composition du détecteur et de l’atmosphère, on mettra en place une procédure permettant de

retro-propager les flux en dehors de l’atmosphère afin d’obtenir les flux finaux.

Cette partie est donc organisée comme suit. On commencera par estimer le temps de vol T de

l’instrument. Ensuite, on procédera à l’identification des particules en leur attribuant une charge et

une énergie, puis on déconvoluera de la résolution en énergie du détecteur. On évaluera et supprimera

alors la contamination des éléments et on appliquera les efficacitésϵ

cut

. On obtiendra alors les flux au

niveau du détecteur en estimant et en corrigeant de l’acceptance du détecteur (GF˜ ·˜ϵ

trig

). Il ne restera

plus qu’à rétro-propager les flux hors de l’atmosphère pour obtenir les flux finaux.

Chapitre 7

Reconstruction de la distribution en

énergie des évènements sélectionnés

7.1 Sélection des données et calcul du temps d’exposition

La première étape consiste à sélectionner les lots de données prises pendant une période où le

détecteur était stable. On voudra ensuite calculer la durée correspondante à ces périodes.

7.1.1 Sélection des périodes stables

Les données sont agencées par paquets ayant chacun une durée de∆T = 3000 s(qu’on appellera

une période). On définit les périodes stables comme celles ayant un taux de déclenchement proche

de celui attendu. Le taux de déclenchement correspond au nombre moyen d’évènements pendant une

seconde. Il est estimé à partir du nombre d’évènementsN

T

par période : Rate =N

T

/∆T.

On calcule ensuite les moments d’ordre un et deux de la distribution des taux de déclenchement de

l’ensemble des périodes. Cette distribution (en bas) ainsi que le taux de déclenchement en fonction

du temps (en haut) sont représentés sur la figure 7.1. Sur la figure supérieure, on peut voir deux

pé-riodes où le détecteur a un taux de déclenchement anormal qui peut être dû à un dysfonctionnement

dans un des sous-détecteurs. On observe aussi des périodes durant lesquelles aucun évènement n’est

enregistré. Hormis ces périodes, on constate sur la figure du bas que la distribution des taux de

dé-clenchement est relativement gaussienne. Cette gaussienne est de moyenne0.54 Hzet d’écart-type

0.03 Hz. Les périodes sont gardées pour l’analyse si leur taux de déclenchement est à moins de 3

sigmas de la moyenne. Les périodes gardées représentent 25.7 jours de données, soit94.5%du temps

total de vol.

7.1.2 Calcul du temps d’exposition

La durée cumulée des périodes stables ne représente pas le temps actif du détecteur. Il faut aussi

prendre en compte le temps mort qui suit l’acquisition de chaque évènement. Comme nous l’avons

vu dans la partie précédente, CREAM est équipé de deux systèmes de déclenchement de

l’acquisi-tion : déclenchement par le calorimètre et déclenchement par le TCD. Dans cette analyse, nous nous

consacrons uniquement aux évènements déclenchés par le calorimètre. Après l’acquisition d’un

évè-nement, il existe une période pendant laquelle l’acquisition d’un nouvel évènement est bloquée pour

que le système d’acquisition de CREAM enregistre l’évènement courant et que chaque détecteur soit

à nouveau opérationnel. Le temps d’exposition n’est donc pas simplement la durée intégrée de toutes

les périodes stables, mais doit être corrigé du temps mort. Pour cela, CREAM est équipé de plusieurs

FIGURE7.1 – En haut : taux de déclenchement en fonction du temps. En bas : distribution des taux

de déclenchement.

horloges et la mesure de la fraction de temps mort est effectuée régulièrement par l’électronique

embarquée et enregistrée par le logiciel d’housekeepingqui permet de contrôler les paramètres de

l’instrument et des détecteurs (température, tension, temps mort ...). Dans cette étude, le temps

d’ex-position est calculé pour chaque période stable puis intégré sur l’ensemble des périodes. Pour chaque

période stable, la durée d’exposition est calculée comme le produit du temps total de la période∆T

et de la fraction de temps opérationnel moyen intégré durant cette période< ϵ

actif

>. La durée de la

période est prise comme l’intervalle de temps entre le premier et le dernier évènement de la période

et la variable de temps utilisée estCRM_TimeInSec.

On moyenne la fraction de temps opérationnel car ces périodes sont longues devant l’intervalle de

temps entre deux acquisitions des donnéeshousekeeping(∼5 s), si bien que la valeur de cette fraction

peut varier durant la période. Dans les évènementshousekeeping, c’est la variableHSK_LiveToTotalRatio

qui contient l’information sur la fraction de temps mort. En intégrant sur l’ensemble des périodesi,

le temps d’expositionT et la fractionF de temps opérationnel s’écrivent :

T =

Nperiodes

i=1

∆T

i

< ϵ

actifi

>

= 2203250 s = 25.5 jours

et