• Aucun résultat trouvé

5.6 Suivi des erreurs de compression

5.6.3 Recherche des erreurs de compression

Dans la base de données de Planck, il est possible d’associer des marquages particuliers à chaque échantillon. Par exemple, lors du traitement des données, l’impact des rayons cosmiques, ou le passage d’une planète sont repérés, afin de distinguer les échantillons affectés et d’appliquer un traitement adapté. Malheureusement, au début de la mission, le niveau L1 ne construisait aucun marquage particulier pour les échantillons issus d’une erreur de compression. Ils étaient simplement mis à zéros dans la TOI du signal brut puis étaient considérés comme des échantillons valides. Suite à des problème rencontrés au cours du traitement des données, à cause des échantillons issus d’erreurs de compression qui n’étaient pas distingués des échantillons valides, il a été décidé de marquer ces échantillons comme non disponibles (NOT WRITTEN dans la base de données). Cette amélioration permet de résoudre le problème du traitement des données qui est prévu pour ne pas prendre en compte les échantillons non valides. Cependant, aucune autre information n’est disponible permettant de distinguer directement les échantillons provenant d’une erreur de compression, des autres types d’erreurs. Nous avons alors utilisé une méthode de détection en deux étapes. Dans un premier temps, nous recherchons les tranches de compression contenant une valeur non nulle pour la fréquence des mots codant pour des erreurs de compression, grâce au groupe contenant les statistiques corrigées des intervalles de quantification décrit dans la section 5.4.6. On utilise pour cela les objets POSCOMPR_ERROR et NEGCOMPR_ERROR. Dans un second temps on recherche le signal de la tranche de compression correspondante dans la TOI des données et on trace son évolution au cours du temps, en mettant en évidence les erreurs de compression. Ces dernières correspondent aux échantillons marqués « NOT WRITTEN » et dont la valeur vaut 0.

Plusieurs milliers d’erreurs de compression ont ainsi été détectées depuis le début de la phase d’observation régulière. Il est difficile de déterminer leur origine de façon automatisée car on ne connaît pas forcément toutes les causes qui peuvent produire des erreurs d’une part, mais également, car les erreurs produites par des phénomènes différents laissent une trace similaire. Pour déterminer

CHAPITRE 5. COMPRESSION DES DONNÉES DE L’INSTRUMENT HFI À BORD DU SATELLITE

(a) Nombre d’échantillons perdus par jour pour les voies à 100GHz.

(b) Nombre d’échantillons perdus par jour pour les voies à 143GHz.

(c) Nombre d’échantillons perdus par jour pour les voies à 217GHz.

5.6. SUIVI DES ERREURS DE COMPRESSION

(d) Nombre d’échantillons perdus par jour pour les voies à 353GHz.

(e) Nombre d’échantillons perdus par jour pour les voies à 545GHz.

CHAPITRE 5. COMPRESSION DES DONNÉES DE L’INSTRUMENT HFI À BORD DU SATELLITE

(g) Nombre d’échantillons perdus par jour pour les thermomètres.

(h) Nombre d’échantillons perdus par jour pour les thermomètres.

Figure 5.15 – Évolution de nombre d’échantillons perdus à cause des erreurs de compression. Chaque point est la moyenne sur une journée. Depuis le début des observations en août 2009 le taux d’échantillon perdu est stable. Il est dominé par les erreurs provoquées par les plus forts impacts des rayons cosmiques, dont le taux varie peu.

5.6. SUIVI DES ERREURS DE COMPRESSION

l’origine des erreurs, depuis le début des observations, une surveillance visuelle a été réalisée pour chaque erreur rencontrée. Toutes les erreurs ont été systématiquement étudiées et leurs causes sont maintenant bien comprises. On peut les classer en trois catégories : les erreurs produites par l’impact des rayons cosmiques, qui sont de loin les plus courantes, celle produites par l’émission galactique et celle produites par l’émission des planètes. Le nombre d’échantillons perdus à cause d’erreurs de compression, par jour et par voies, est résumé sur la figure 5.15. On compte en général, entre zéro et une dizaine de tranches de compression contenant des erreurs de compression et conduisant au maximum à la perte d’environ 200 échantillons par jour. Ces valeurs sont stables depuis le début des observations car elles sont largement dominées par les erreurs produites par l’impact des rayons cosmiques dont le taux varie peu. La fraction de données perdues depuis le début des observations, pour chaque voie, est donnée sur la figure 5.15 et varie entre 10−6 et 10−9, ce qui est totalement négligeable pour la qualité des observations.

Erreurs provoquées par les rayons cosmiques

Parmi les erreurs de compression rencontrées depuis le début des observations, les plus courantes sont dues à des rayons cosmiques de haute énergie. Comme on peut le voir sur la figure 5.16 la variation du signal engendrée par leur impact peut être très importante à l’échelle d’une tranche de compression. Dans les cas les plus extrêmes, l’estimation de la ligne de base pour la démodulation est trop fortement biaisée, ce qui produit un signal oscillant avec une grande amplitude et une estimation de l’offset du signal très éloignée de sa valeur réelle. Un grand nombre d’échantillons se trouve alors éloigné de l’intervalle central et doit donc être codé sur 22bits. Lorsque la limite de 64 est atteinte, l’ensemble des échantillons suivant devant être codé sur 22bits produit une erreur de compression.

La fréquence des rayons cosmiques diminuant lorsque leur énergie augmente, on n’observe heureuse-ment qu’un faible taux d’événeheureuse-ments de ce type. En moyenne suivant les voies cela varie entre 0 et 10 tranches de compression par jour, produisant des erreurs de compression. Comme on va le voir dans la suite, seuls deux autres événements ont conduit à des erreurs de compression. Depuis le début des observations, l’impact des rayons cosmiques est donc la source largement dominante d’erreurs de compression. Cependant, leur conséquence sur la qualité des observations est négligeable, de par le peu d’échantillons touchés, mais également grâce à la stratégie de pointage de Planck. En effet, comme on l’a vu dans la section 4.3.7, le satellite observe en moyenne 47 fois chaque cercle sur le ciel avant de changer sa direction d’observation. Ainsi si quelques échantillons ont généré des erreurs de compression, les passages redondants assurent dans tous les cas que la zone du ciel a été observée un grand nombre de fois. Par ailleurs, la nature aléatoire de l’impact des rayons cosmiques évite que ce soit systématiquement la même zone du ciel qui soit touchée.

Erreurs provoquées par l’émission de la poussière galactique

La seconde source d’erreur de compression est la brutale variation de l’intensité de l’émission de la poussière au niveau du centre galactique. L’émission de la poussière augmente fortement avec la fréquence comme on peut le voir par exemple sur les cartes du ciel de Planck de la figure 8.3. Dans les voies de l’instrument HFI faisant leurs observations aux plus hautes fréquences (545GHz et 857GHz), le signal est dominé par cette composante, en particulier dans les régions proches du plan galactique. Au niveau du centre galactique, on trouve une zone où l’émission atteint son niveau maximum. Lors du premier balayage de cette zone du ciel par le satellite, entre le 14 et le 15 septembre 2009, on a observé de façon presque systématique, des erreurs de compression sur l’ensemble des voies à 857GHz. Sur la figure 5.17 on peut voir le signal d’une des voies à 857GHz lors du passage dans cette partie du ciel. On constate une brutale variation du signal supérieure à 10000 fois le pas de quantification sur une échelle de temps inférieure à celle d’une tranche de compression. Cela produit donc un effet similaire à celui des rayons cosmiques : une mauvaise estimation de la ligne de base, puis une mauvaise estimation de l’offset, ce qui conduit ensuite à coder un grand nombre d’échantillons sur 22bits et si la limite de 64 est atteinte, produit des erreurs de compression. Dans ce cas particulier, comme la plupart des échantillons sont trop loin de la moyenne, une bonne démodulation et une estimation correcte de la moyenne donnerait quand même trop de mesures sur 16bits. Cet effet n’est donc pas totalement identique à celui d’un rayon cosmique qui n’affecte qu’un plus petit nombre d’échantillons. Au cours de cet événement, un nombre important de tranches de

CHAPITRE 5. COMPRESSION DES DONNÉES DE L’INSTRUMENT HFI À BORD DU SATELLITE

Figure 5.16 – Erreur de compression produite par l’impact d’un rayon cosmique. Les rayons cos-miques de haute énergie, peuvent déposer localement une grande quantité d’énergie. Cela induit une brutale augmentation de la température dans les bolomètres, suivie d’une décrois-sance exponentielle caractéristique du bolomètre. Lorsque l’amplitude est trop élévée, cela biaise trop fortement l’estimation de la ligne de base pour la démodulation, puis de l’offset, sur une tranche de compression. Beaucoup d’échantillons vont donc devoir être codés sur 22bits par l’algorithme de compression. Pour éviter d’avoir un débit trop important sur une tranche de compression, une limite de 64 échantillons pouvant être codés sur 22bits a été introduite. Tous les échantillons suivants de la tranche de compression, devant être codés sur 22bits, génèrent alors une erreur de compression, représentés par des croix jaunes sur la figure ci-dessus. Pour donner un ordre d’idée de l’amplitude de l’impact du rayon cosmique la ligne bleue horizontale, représente la limite au-delà de laquelle les échantillons doivent être codés sur 22bits. En rouge on peut voir le biais sur l’offset introduit par l’impact du rayon cosmique considéré. L’amplitude du signal produit par un rayon cosmique peut atteindre des valeurs jusqu’à 105fois plus élevées que la normale et arrive même dans certain cas à saturer les détecteurs. Le figure ci-dessus correspond à un impact sur le bolomètre 1B à 100GHz. L’amplitude des échantillons ayant subi une erreur de compression a été choisi arbitrairement à la valeur moyenne afin qu’ils soient visibles sur la courbe.

compression ont produit des erreurs. Cependant grâce à la stratégie de pointage du satellite, qui inclue une forte redondance sur chaque portion du ciel et compte tenu du fait que les tranches de compression ne tombent pas toujours exactement sur la même zone du ciel, les erreurs n’ont pas eu d’effet important sur les données. La seule conséquence est une faible diminution du rapport signal sur bruit de certains pixels qui ont été reconstruits avec quelques échantillons en moins.

Erreurs provoquées par l’émission des planètes

Finalement, l’observation de la planète Jupiter a également généré des erreurs de compression sur la quatrième voie à 857GHz. La planète Jupiter est le corps dont l’amplitude est la plus élevée aux longueur d’onde de Planck. Étant donnée la résolution de l’instrument HFI, la taille de Jupiter et sa distance du satellite, elle est vue comme un objet quasi-ponctuel. La variation de l’amplitude induite par son passage devant les détecteurs est donc très brutale et très brève. Les autres planètes du système solaire situées sur des orbites plus éloignées du Soleil que la Terre sont aussi observées par Planck et sont vues comme des objets ponctuels. L’observation des planètes joue un rôle essentiel pour l’instrument HFI. Grâce à leur forte amplitude elle peuvent être observées avec un rapport signal sur bruit élevé. Leur caractère ponctuel est alors utilisé pour déterminer de façon précise le profil du lobe de l’instrument. Par ailleurs, la brusque variation d’amplitude sur un temps très court permet d’étudier la réponse des bolomètres et en particulier les composantes de cette réponse possédant de longues constantes de temps. Lors de la première observation de Jupiter (voir