• Aucun résultat trouvé

5.2 L'heure de véritée : comparaison avec les résultats du temps-réel

5.2.3 Auto-critique

Les préliminaires nécessaires que me semblaient être une calibration ne et une extrac- tion adaptée se sont révélés susant à remplir, et même à déborder mon temps de thèse. Nous disposons au nal d'une chaîne de réduction faite sur mesure pour notre échantillon de données. Elle ne fait appel qu'à des fonctions élémentaires implémentées en C++ et en Python, dont les libraires cfitsio et lapack de la cernlib. Le nombre de chiers inter- médiaires a été limité tant que possible. La position des pixels rejetés, les modèles de ciel calculés, et diverses variables intermédiaires sont conservés dans un chier au format FITS. Le niveau de bruit statistique est calculé et propagé au cours de la réduction et de l'extraction.

Par rapport à une réduction standard, les principales diérences résident dans la conser- vation de l'échantillonnage irrégulier des pixels selon λ, an de ne pas corréler les pixels voisins. Les rayons comiques sont ltrés temporellement au moment de combiner les spec- trogrammes calibrés du CCD et dont le ciel a été soustrait. Enn, l'extraction est guidée par l'adéquation du signal spectral avec les images profondes obtenues au CFHT.

L'ecacité de l'algorithme est conditionnée à l'exactitude des coordonnées de la su- pernova par rapport au système astrométrique des images de référence : Une imprécision biaisera le calcul de la position à laquelle le signal de la supernova doit être extrait. Un seeing à Paranal meilleur que celui des images profondes est également souhaitable, bien que dans certaines congurations (supernova proche du centre d'une galaxie piquée) cela puisse mener à un ux extrait négatif (c.f. 03D1fb).

Le changement majeur par rapport à la chaîne de réduction directe réside surtout dans l'absence, en première approximation, d'intervention humaine. Le graal que je poursuivais, et dont mes directeurs avaient bien préssenti à quel point il est utopique, était l'auto- susance algorithmique, par laquelle le signal serait proprement distillé par une saine machinerie prolongeant naturellement le télescope et l'instrument qui l'habille.

Ce projet n'est pas vain, mais bien escarpé. La faille nous attend là où l'on ne l'a pas imaginée : de la multiplicité des sources qui sont invoquées tour à tour, nécessaires et cruciales à la réussite du projet, ainsi que de l'hypothèse d'homogénéité parfaite des données. Utiliser uniquement les spectrogrammes pour extraire le signal d'une source sur un fond inhomogène est une gageure : il faut nécessairement savoir auparavant où se trouve la source sur l'axe spatial. Si l'on connaît bien notre instrument, et qu'il est stable, on peut prévoir le déplacement de cette position en fonction de la longueur d'onde λ mesurée. Pour FORS1, le problème ne se pose quasiment pas, et l'on peut se satisfaire d'une position Ysn

indépendante de λ. Et l'homme conserve ce privilège de pouvoir reconnaître avec acuité la position à laquelle se trouve la source, pour peu qu'il dispose de la carte de pointé et d'une interface graphique adaptée.

Pourtant, l'erreur est humaine, et l'extraction quotidienne, répétée cent fois lorsque le cas est subtil pour explorer les possibles, si elle tient parfois du jeu, prend aussi des airs de cauchemars lorsque la journée est longue et que décidément rien ne va.

En bon humaniste, je me proposais donc d'utiliser toutes les informations disponibles mais encore non exploitées pour simplier le travail d'identication. À commencer par le calcul des décalages entre les spectrogrammes de science successifs à partir des coordonnées référencées, plutôt que de devoir les deviner en comparant les images. Ensuite, il faut à l'évidence disposer d'un spectre contenant non pas le plus de signal, mais le plus de signal provenant eectivement de la source étudiée, et non de sa galaxie hôte. À priori, toutes les étapes de calibration jouent un rôle plus ou moins critique dans la qualité du signal nal. Ainsi, on peut méthodiquement rebâtir une chaîne de calibration pour s'assurer que rien ne soit perdu dans les rouages.

Je ne sais si j'y ai conduit les rouages ou si ce sont eux qui m'ont entraîné sur ce long chemin, mais la chose dont je suis assuré à présent, est que l'on peut imaginer autant de mèthodes optimales de traitement de données qu'il a de prises de données.

Chaque négatif photo suppose un temps de révélation propre pour restituer la scène qui l'a exposé. L'art du photographe est de régler l'exposition pour rendre aisée la restitution. Si la scène ne s'accommode pas avec les exigences d'une bonne exposition, le bon photographe ne prend pas la photo. Si la scène est vraiment unique et magnique, on tentera pourtant d'en graver une silhouette, en comptant sur le traitement en laboratoire photographique pour en restituer une ébauche.

Nos poses vers les supernovæ lointaines présentent la diculté de devoir être obtenues au moment où la supernova est éclatante, en particulier pour les plus lointaines. Il faut

alors que les condition météo soient bonnes durant les heures où l'objet est visible depuis l'observatoire, sans que le soleil ni la lune ne soient trop gênants. Si ce n'est pas le cas, nous n'aurons pas de spectre, et si ce n'était pas vraiment la cas mais qu'ils y ont cru, nous aurons un mauvais spectre. C'est dur, mais c'est ainsi.

Au nal, l'échantillon est d'une qualité remarquable, avec une centaine de supernovæ identiées en deux ans.

La procédure d'extraction dédiée a permis d'identier certaines erreurs faites lors de l'analyse directe. Dans certains cas favorables, le spectre obtenu est beaucoup moins conta- miné par la galaxie hôte. Dans de nombreux cas, à grand redshift en particulier, les produits sont comparables : soit la supernova et la galaxie sont extraites ensembles, soient leurs spectres présentent un fort bruit corrélé.

Surtout, nous disposons à présent de deux méthodes indépendantes de traitement des spectres, chacune ayant ses spécicités. L'interface de XspecSNLS est intuitive, le logiciel est relativement simple à installer et permet de travailler sur une copie des images sur son ordinateur de bureau. Ma procédure dédiée permet de traiter les données de toute une année en quelques jours, avec idéalement aucune manutention. Sa prise en main doit être longue et fastidieuse pour une personne non avertie. Au nal, certains choix sont dicilement délégués à l'algorithme, et après un premier passage identique sur tout l'échantillon, au vu des produits d'extraction, on rane ceux qui penvent l'être (c.f. Fig. 5.7 : lorsque l'adéquation spectro-photométrique laisse à désirer).

Spectrogramme combiné (détail) :

Résidu sans iteration :

Résidu après iteration :

Fig. 5.7: Illustration de l'eet de prols mal ajustés, sur le candidat 04D4es (z = 0.685). Le décalage primaire ∆Y = 3.6 pixels obtenu, aecté par le décalage calculé en i' (∼ 8 pixels), est surestimé (en l'absence de courbe de lumière en i', le ux de la supernova y est indûement supposé faible, et la corrélation xe la galaxie sur la trace de la supernova). Les composantes se trouvent à côté des sources. L'iteration permet de bien les repositionner (au prix d'un temps de calcul décuplé, ∆Y = 1.5 pixels). Le gain sur le ux extrait est d'environ 50% pour la supernova. Le spectre de la galaxie hôte est beaucoup moins contaminé par le ux de la supernova.

Le coté agréable de tout cela, surtout pour moi, c'est non seulement de disposer des images combinées et des résidus d'extraction qui permettent un diagnostic able sur la présence ou non d'une raie galactique à 7654 Å, mais aussi de pouvoir produire toutes les quantités dérivées que l'on puisse souhaiter. Seul maître à bord, je mène ma chaloupe.

Cela serait bien beau, sans les multiples sources extérieures d'information évoquées précédement. Car à les invoquer, on en devient dépendant. Et ces produits pour ma cuisine sont en fait les plats cuisinés d'autres collaborateurs, qui n'ont de cesse, et moi de même, d'en vouloir modier la recette. Il faut alors s'adapter aux maigres dierences entre une version et sa suivante, et cela est aussi vrai lorque l'on modie son propre ouvrage. La

solution est simplement plus facile à deviner lorsque l'on a construit la chose.

Cette remarque concerne les quatres sources discriminantes d'information pour une bonne extraction : le seeing au cours des poses, le prol galactique sous-jacent à la source intégré dans la fente, les coordonnées et le ux de l'objet au moment des poses. Leur pertinence conditionne la qualité de l'extraction.

Ainsi, si aucun point de photométrie n'est disponible durant plusieurs jours autour de la date d'observation spectroscopique, la précision de l'estimation de la position Ys

risque de ne pas être parfaite. Les résidus d'extraction peuvent faire apparaître une telle imprécision, mais pas nécessairement : à condition qu'il y ait assez de signal, et que les prols extraits ne soient pas dégénérés, auxquel cas l'algorithme n'aurait aucun mal à minimiser les résidus, disposant de plus de paramètres qu'il n'y en a eectivement dans l'image, il corrèle allègrement les bruits.