• Aucun résultat trouvé

J’ai décrit dans le Chapitre 3 les procédures d’analyses classiques des données de chaque instrument d’INTEGRAL : il est relativement clair que leur compréhension et leur appren- tissage (loin d’être triviaux et rapides) demandent du temps. Essentiellement au début de la mission, une série d’étapes non automatiques et compliquées a rendu le travail très fastidieux et long avant l’obtention de résultats exploitables à travers des observables inté- ressantes. J’ai mis plusieurs mois à bien utiliser les logiciels et à en découvrir les subtilités : j’ai ensuite pu les adapter au cas par cas afin d’exploiter de façon satisfaisante les données fournies par INTEGRAL et j’ai crée mes propres méthodes d’analyses que je commente ici même.

Comme ces logiciels d’analyses sont en constante amélioration, les difficultés rencon- trées peu après le lancement du satellite sont maintenant obsolètes. J’avais alors développé des traitements spécifiques pour pallier les problèmes rencontrés (qui existent toujours mais

sont beaucoup moins gênants) que je détaille ci-après. Grâce à la collaboration entre les chercheurs et les ingénieurs, tous participant à l’amélioration du traitement standard des données, les procédures d’analyses pour IBIS, JEM-X et SPI ont été nettement améliorées depuis le début de la mission et continuent toujours de l’être. Proposer des améliorations suivant les problèmes détectés a été une partie importante de mon travail ainsi que col- laborer et d’interagir avec les membres du SAp et des autres laboratoires impliqués dans INTEGRAL, en France et à l’étranger. J’ai testé sur plusieurs jeux de données les logiciels sans cesse modifiés, les matrices de réponse et j’ai évalué les progrès dus à ces améliorations. Ce travail d’équipe a demandé du temps et de la patience ; je le définis comme faisant partie des tâches de service et je considère qu’il est indispensable, permettant la compréhension des logiciels par une plus large communauté de chercheurs et donc un retour scientifique optimal de la mission INTEGRAL et de ses données sans précédent. Chaque utilisateur non expert peut désormais obtenir de très bons résultats ; tel n’était pas le cas au début de ma thèse. Je présente dans ce Chapitre ma participation personnelle à ces améliorations puis je mentionnerai les tâches de service que j’ai effectuées.

4.1

Des techniques spécifiques mises en œuvre

4.1.1 La nébuleuse du Crabe et Cygnus X1, sources de référence

4.1.1.1 Renormalisation des matrices : effets hors axes

En exploitant les données de la PV-Phase (Chapitre 2.3.2) de Cygnus X−1 (avec IBIS/ISGRI et PICsIT) et les observations ultérieures régulières de la nébuleuse du Crabe, j’ai participé à tester les matrices de réponse au début de la mission afin de voir leurs éven- tuels problèmes dans les basses (≤20 keV) et dans les hautes (≥250 keV) énergies. Dans mon travail, menant à une publication en tant que troisième auteur (Laurent et al. 2003), des améliorations sur les matrices de réponse IBIS générées par Monte-Carlo au sol (Cha- pitre 2.6.3.2) ont été apportées suite aux données enregistrées en vol que j’ai analysées. Quelques mois après le lancement, l’analyse standard disponible à tous les utilisateurs n’était pas parfaite mais la relation canal-énergie, la correction du bruit de fond et les matrices de réponse ont pu être améliorées et testées avec ces observations de la nébuleuse du Crabe. Malgré les problèmes reportés entre 13 et 20 keV (mauvaise estimation de la transparence des éléments ouverts et des éléments passifs du masque) presque tous résolus depuis (et ce même pour les sources hors axe), le résultat principal était qu’une bonne réponse IBIS/ISGRI était obtenue entre 20 et 600 keV pour les sources totalement codées (Chapitre 2.5.2).

Puisqu’au début de ma thèse les problèmes décrits ci-dessus demeuraient, j’ai choisi : 1) de ne garder que les sources dans le FCFOV (Chapitre 2.5.2), ayant vu de claires va- riations dans le taux de comptage d’une source en fonction de l’attitude satellite ; 2) de modifier moi-même les matrices de réponse (Chapitre 2.6.3.1) à cause de résidus larges à basse énergie qui étaient encore visibles. Afin d’obtenir un spectre de la nébuleuse du

4.1 Des techniques spécifiques mises en œuvre 99

Crabe en loi de puissance d’indice spectral Γ = 2,1 d’après Zombeck (1979), j’ai multiplié chacun des 2048 canaux de l’ARF avec un facteur spécifique dans chaque canal d’énergie afin d’obtenir, pour un large échantillon de données, ce spectre attendu de la source en 2,1.

4.1.1.2 Précision de localisation

Avec les chercheurs et ingénieurs du SAp ayant déjà travaillé sur le télescope SIGMA, j’ai participé à la description théorique et expérimentale de la SPSF (Chapitre 2.5.3) finale (après déconvolution) d’IBIS/ISGRI. Sa réponse est très proche d’une gaussienne bidi- mensionnelle, fonction utilisée pour caractériser les paramètres. Notamment, la SPSF se déforme pour ce type de masque dans la zone partiellement codée : la largeur à mi-hauteur n’est pas constante. Mon apport personnel dans le travail qui a abouti à une publication a été d’aider à améliorer la précision de localisation de l’instrument IBIS en traitant un jeu spécifique de données de la nébuleuse du Crabe et de Cygnus X−1. C’est d’ailleurs ce que relate notre article Gros et al. (2003) où je suis troisième auteur : tous les effets et biais agissant sur la SPSF du télescope IBIS ont été étudiés. Par exemple, une erreur sur la vraie distance entre le masque et le détecteur a causé des problèmes pour estimer précisément la position des sources. Elle a été mieux déterminée depuis et l’erreur de positionnement des sources fut mieux étalonnée. La Figure 2.4 (à droite) du Chapitre 2 montre l’évolution du rayon d’erreur du positionnement (à 90% du niveau de confiance) de sources ponctuelles en fonction de leur rapport signal sur bruit. On a déterminé cela en utilisant les algorithmes de localisation sur 2000 images déconvoluées environ de Cygnus X−1 et de la nébuleuse du Crabe. Une fois calculée, la fonction qui décrit cette dépendance a été comparée à celle théorique. L’écart significatif était très probablement dû aux effets systématiques (comme la non-uniformité du fond décrite Chapitre 2.6.4). Cette précision est passée de 2′ à 1

depuis les meilleures estimations des effets systématiques. Désormais, IBIS/ISGRI atteint, avec le logiciel développé et testé au SAp, une précision de localisation angulaire supérieure à la minute d’arc pour une source de significativité σ ≥ 30 sur l’ensemble du champ de vue. Ce résultat est très important et nous a permis d’obtenir les cartes du ciel les plus précises aujourd’hui disponibles entre 30 et 500 keV. En particulier, j’ai pu analyser, grâce à ces logiciels performants, des sources situées dans un champ de vue très dense comme le centre galactique (Chapitres 7 et 9) et obtenir de précieux résultats. Il est également impor- tant de souligner le fait que ce travail d’équipe, commencé dès 1998 au SAp, est à la base des logiciels d’analyse des données IBIS/ISGRI utilisés par la communauté astrophysique internationale utilisant INTEGRAL.

4.1.1.3 Imagerie en bandes d’énergie adaptées

Au début de la mission, il m’a fallu parfois prendre en considération la force ou la faiblesse de la source et adapter l’extraction des courbes de lumière en bandes d’énergie adaptées. C’est en analysant la nébuleuse du Crabe que je me suis aperçue de la chose

suivante : si j’établissais des courbes de lumière dans des bandes d’énergie trop larges, elles montraient des variations aberrantes, en tout cas inexplicables par une variabilité intrinsèque de la source supposée constante. De plus, à basse énergie, les pixels bruyants étaient parfois mal détectés et leur efficacité mise à 0 (Chapitre 3.1.3.1) alors que leur signal correspondait au « vrai » signal de la source, et vice-versa ! Cela avait un effet d’autant plus important que le temps d’exposition était élevé : il arrivait qu’au cours d’une orbite, le taux de comptage diminue ou augmente brusquement d’une pose à l’autre, sans que cela ne soit dû à la source ! J’ai donc analysé les sources dans des bandes d’énergie adaptées, toujours prises au-dessus de 20 keV les premières années de la mission. La même démarche a été appliquée pour adapter les canaux de la matrice de réponse suivant la force de la source (méthode standard décrite Chapitre 5.3).

4.1.1.4 Participation aux rapports de validation des logiciels

Grâce à mes nombreuses analyses sur des sources étalons comme la nébuleuse du Crabe, des rapports de validation internes réguliers des logiciels ont pu être établis rapidement et efficacement au sein de notre groupe très actif. Par exemple, j’ai analysé de façon systéma- tique des spectres plus ou moins hors axes de la nébuleuse du Crabe et j’ai comparé leurs paramètres (devant être les mêmes, d’après les caractéristiques de la source) afin de tester la performance des programmes et y déceler d’éventuelles améliorations à apporter.

4.1.2 Outils informatiques développés

4.1.2.1 Extraction et affichage des courbes de lumière

Les données issues de l’imagerie et de l’extraction spectrale sont écrites dans un format d’extension FITS. Lors de la préparation des logiciels de traitement des données, un travail important a été réalisé pour écrire tous les fichiers issus des procédures d’analyses en un format standard lu par de nombreux outils informatiques. J’ai appris à utiliser ces fichiers et ces outils et j’ai créé des interfaces pratiques de lecture et d’interprétation pour tirer pro- fit des informations enregistrées lors de ces deux étapes. Le logiciel de programmation IDL (Interactive Data Language) est particulièrement adapté pour étudier les données astrono- miques. Afin de rendre ces fichiers (qui sont longs et complexes) visuellement exploitables, j’ai écrit un programme en IDL qui permet d’avoir accès à des données essentielles telles que l’intensité des pixels, le flux calculé à la position précise de la source, le taux de comp- tage en fonction du temps d’exposition par pose élémentaire ou encore la position de la source (trouvée et/ou ajustée) par rapport à l’axe du télescope IBIS. Le temps peut être exprimé soit en Jours Julien INTEGRAL (IJD), dont l’origine est le 1er janvier 2000, soit

en Jours Julien Modifiés (MJD) valant IJD+51544 jours. Je tracerai toutes mes courbes de lumière avec ce temps comme unité à laquelle sont habitués la plupart des chercheurs en astrophysique.

4.1 Des techniques spécifiques mises en œuvre 101

de coups enregistrés par unité de temps et par bande d’énergie à un temps donné (pour des coordonnées précises), pour une pose choisie. Les barres d’erreurs sont calculées comme la racine carrée de la variance elle-même estimée lors de l’analyse à la position de la source dans l’image. Moyenne, écart type et χ2 relatifs à une loi constante sont également calculés

afin de détecter par exemple une éventuelle évolution dans le flux de la source. Par ailleurs, il est possible de réaliser ces mêmes courbes de lumière à partir du spectre obtenu pour voir si les deux procédures (imagerie et extraction spectrale) sont cohérentes entre elles et donnent les mêmes résultats. Enfin, le programme que j’ai écrit permet de calculer le rapport de deux courbes de lumière pour les comparer ; je l’appellerai indice de dureté. Il permet en effet de suivre l’évolution spectrale d’une source en voyant si les composantes molles et dures varient l’une par rapport à l’autre au cours du temps.

4.1.2.2 Extraction spectrale pour région dense

Bien qu’aujourd’hui la situation se soit nettement améliorée et ne nécessite plus ce que j’ai développé pour mon article publié en 2004 dans A&A (Cadolle Bel et al. 2004d), il a fallu pallier les impossibilités premières d’extraire des spectres dans une région du ciel très peuplée. Les procédures d’analyses standard de l’époque avaient une limitation en nombre de sources : aussi, dans une région telle que le centre de notre galaxie, il m’était impossible d’extraire le spectre d’une nova X moyennement forte telle que XTE J1720−318 (résultats Chapitre 7). J’ai donc développé un programme sous IDL qui agit en sortie de l’imagerie et lit, pour chaque bande d’énergie, le taux de comptage et l’erreur d’une source à une position donnée. Le programme permet aussi d’écrire ces résultats dans un fichier de format FITS lisible par de nombreuses autres interfaces graphiques et logiciels, en particulier avec les mot-clés essentiels (nombre de canaux, exposition, nom de la source, matrices) et ceux davantage informatifs (type, extension, table ou image, instrument, satellite, date de création). Il suffisait ensuite de convoluer ces résultats par les matrices de réponses adaptées aux mêmes bandes d’énergie, pour avoir un spectre de la source (en coups normalisés par seconde et par keV).

4.1.2.3 Sommation des spectres en format exploitable

Au commencement de ma thèse, j’utilisais un moyen couramment employé par la com- munauté scientifique pour sommer les spectres obtenus par pose élémentaire permettant d’accumuler ainsi plus de statistiques et de temps d’observation pour chaque source. Ceci a un sens à condition que celle-ci ne change pas d’état spectral. En fonction des objectifs scientifiques, il est possible de sommer les spectres obtenus en les pondérant suivant leur importance relative, par exemple en tenant compte du fait que les temps d’exposition sont différents. Les FTOOLS regroupent un paquet d’outils disponibles en ligne. Ils contiennent une série de formules de sommation par exemple pour analyser des fichiers FITS de façon assez basique, mais pratique et rapide.

Par la suite, j’ai réalisé que la façon de sommer les spectres codée dans ce paquet d’outils informatiques (utilisés pourtant par une large communauté scientifique) était incorrecte. Il faut aussi tenir compte du fait que la variance associée à chaque pose change et entre en compte dans la pondération des diverses poses, en plus de leurs différences éventuelles de temps d’exposition. Bien qu’il y ait peu de différences entre les spectres sommés obtenus avec la méthode standard des FTOOLS et celle que j’ai développée (moins de 0,1%), j’ai par la suite employé la méthode la plus correcte et écrit un programme (sous IDL) qui procédait de la meilleure façon.

4.1.2.4 Conversion des spectres en photons ou en énergie

Bien que cela soit encore loin d’être systématique, de plus en plus d’astrophysiciens ne se contentent pas d’interfaces de sortie graphiques standard mais cherchent à rendre leurs résultats plus présentables, et surtout plus accessibles à une large communauté de chercheurs dans d’autres domaines que les rayons X et γ comme dans la radio, le visible et l’infrarouge. C’est pour ces raisons que j’ai établi une petite routine informatique s’occupant de la conversion des spectres obtenus (coups normalisés par seconde et par keV) avec les instruments RXTE et INTEGRAL en photons, en νFν ou dans des unités telles que erg (ou

keV) cm−2 s−1. Cela met en exergue les diverses composantes émissives du spectre (disque,

Comptonisation, réflexion, raie du fer) décrites Chapitre 1.3. J’y indique par ailleurs le modèle total sommé sur les données. Cette routine utilise les résultats obtenus lors de mes ajustements aux données (décrits ci-après) de diverses longueurs d’onde. Par ailleurs, j’ai également ajouté à ce programme les conversions nécessaires pour les données issues de la radio, l’infrarouge et le visible.

4.2

Compétences acquises dans l’exploitation de divers logi-

ciels

Outre les apprentissages mentionnés ci-dessus, j’ai été amenée à utiliser d’autres logi- ciels, très pratiques pour les études d’images, de spectres et de variabilités temporelles. Un ensemble de petits utilitaires existent et permettent de réduire un grand nombre de don- nées de manière systématique et automatique, avec des lignes de commandes relativement simples. On peut ensuite visualiser les résultats en lisant les fichiers (FITS) créés.

4.2.1 Apprentissage du logiciel ds9

Les images obtenues ont été traitées avec ce logiciel facile de compréhension et d’uti- lisation. Il permet de créer et de visualiser les données et les images astronomiques avec tout un jeu de couleurs et d’outils. Dans les différents types d’images (Chapitre 3.1.4.4) de format FITS (pouvant être sauvées en ps ou en jpg), il est possible de sélectionner les zones à étudier, d’y indiquer les coordonnées, de choisir une échelle de couleurs, de lisser les pixels, de superposer plusieurs cartes réalisées dans diverses bandes d’énergie. On peut

4.2 Compétences acquises dans l’exploitation de divers logiciels 103

également indiquer les sources du catalogue issu de l’analyse standard, connues ou incon- nues et analysées dans la zone du ciel étudiée afin de comparer plusieurs images à un même endroit sélectionné par l’utilisateur. C’est ainsi que j’ai réalisé les images présentées dans les Chapitres 6 à 9 (Partie IV).

4.2.2 Apprentissage et exploitation de l’outil XSPEC

J’ai aussi analysé les fichiers de format FITS avec le logiciel XSPEC conçu par Ar- naud et al. (1996) dont le concept standard est d’ajuster les données astronomiques avec des modèles (tels que ceux décrits Chapitre 1.3) incorporés. Ils sont régulièrement déve- loppés et mis à jour par les créateurs/utilisateurs. Ce logiciel a d’abord été conçu pour le satellite EXOSAT en 1983 de telle manière qu’il puisse être réutilisé indépendamment de l’instrument. Il est aujourd’hui la référence pour l’analyse spectroscopique de données X, mais peut s’utiliser également sur les données γ, visible et UV. Relativement facile à comprendre et à tester/utiliser, ce logiciel lit la réponse du détecteur sous forme de ma- trices 2D contenant la réponse spectrale de l’instrument en fonction de l’énergie d’entrée et de la correspondance canal/énergie. Il contient de nombreux modèles enregistrés et per- met essentiellement d’obtenir les meilleurs paramètres avec un niveau de confiance défini pour le modèle testé. Je peux ainsi réaliser des figures élégantes à partir des spectres que j’ai analysés et mis en entrée, et sauver uniquement les fichiers résultats (format texte) pour construire ensuite mes propres figures sous IDL. Il est aussi possible de regrouper les spectres dans des canaux plus larges en énergie (suivant leur significativité statistique) ou d’ajouter des erreurs systématiques pour ajuster (par la méthode du χ2 ou autre choix de

distribution statistique) les spectres en coups normalisés par seconde et par keV avec des modèles courants. Les matrices de réponse peuvent aussi être étendues pour estimer, avec le modèle choisi, la luminosité bolométrique des sources.

Dans la notation usuelle (que j’éviterai d’employer par la suite vue qu’elle est un peu technique, mais que je précise quand même ici pour ceux que cela intéresserait dans leurs recherches ou modélisations), j’ai employé les modèles suivants : un disque multicouleurs (diskbb dans les notations usuelles, décrit Chapitre 1.3.1), un modèle de Comptonisation thermique (compst au Chapitre 1.3.2.1 ou comptt au 1.3.3.1) et, si nécessaire, un modèle de raie gaussienne (gaussian, Chapitre 1.3.2.2) pour tenir compte de la présence d’une raie du fer et un modèle de réflexion (reflect, Chapitre 1.3.2.2). En ce qui concerne les modèles de Comptonisation hybrides (Chapitre 1.3.3.2), les modèles de Poutanen et Svensson (1996, appelé compps) et de Coppi (1999, appelé eqpair) ont été employés pour modéliser certains spectres (voir Chapitre 6 et 9). J’éviterai par la suite d’utiliser un tel jargon pour nommer des modèles que j’ai employés.

4.2.3 Analyses temporelles avec powspec

Cet outil permet, à partir des courbes de lumière de pas temporel constant (pouvant être inférieur à 1 ms suivant les besoins) réalisées dans des bandes d’énergie choisies, de

tracer les spectres de puissance (PSD, définition Chapitre 1.6.3) des sources étudiées en fonction de la fréquence. L’intervalle de celle-ci peut être choisi et les courbes de lumière précédemment extraites moyennées. On peut appliquer la normalisation de Leahy (décrite Chapitre 1.6.2 et utilisée Chapitres 7.4.2 et 8.4.3). Ensuite, on peut modéliser le bruit apériodique et les QPOs (Chapitre 1.6.3.2) des binaires X à trou noir analysées, avec des Lorentziennes dont on calcule la fréquence, la largeur et le pic comme calculés Chapitres 7 et 8. La significativité de chacune de ces composantes peut aussi être testée.

4.3

Participation personnelle aux tâches de service

Je décris brièvement les diverses tâches auxquelles j’ai participé pour faire évoluer et améliorer les programmes d’analyses de données tout au long des diverses étapes. Pour rendre ces procédures meilleures, les tester et les comparer aux précédentes nécessitent une collaboration étroite, un travail d’équipe et des aller-retours permanents entre le travail des ingénieurs et des chercheurs (thésards compris). Je citerai entre autres les points suivants :

Documents relatifs