• Aucun résultat trouvé

Clustering redshift : une nouvelle fenêtre sur l'univers

N/A
N/A
Protected

Academic year: 2021

Partager "Clustering redshift : une nouvelle fenêtre sur l'univers"

Copied!
174
0
0

Texte intégral

(1)

HAL Id: tel-01227831

https://tel.archives-ouvertes.fr/tel-01227831

Submitted on 12 Nov 2015

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Vivien Scottez

To cite this version:

Vivien Scottez. Clustering redshift : une nouvelle fenêtre sur l’univers. Astrophysique galactique [astro-ph.GA]. Université Pierre et Marie Curie - Paris VI, 2015. Français. �NNT : 2015PA066210�. �tel-01227831�

(2)

ED 127 - Astronomie & Astrophysique

Institut d’Astrophysique de Paris

Thèse de doctorat

Spécialité : Cosmologie

Clustering redshift :

une nouvelle fenêtre sur l’Univers

Par Vivien L. Scottez

En vue de l’obtention du grade de :

Docteur ès sciences

Présentée et soutenue publiquement le 21 septembre 2015 devant un jury composé de :

Présidente : Francoise COMBES, Professeur au Collège de France – LERMA Rapporteurs : Alain BLANCHARD, Professeur à l’université Paul Sabatier – LATT

Mathieu LANGER, Maître de conférences – IAS

Examinateurs : Laurence TRESSE, Astronome – LAM

Olivier ILBERT, Astronome adjoint – LAM

Directeurs de thèse : Yannick MELLIER, Astronome – IAP

(3)
(4)

Résumé

L

es principaux objectifs de cette thèse sont de valider, consolider et développerune nouvelle méthode permettant de mesurer la distribution en redshift d’un échantillon de galaxies. Là où les méthodes actuelles - redshifts spectroscopiques et photométriques - sont toutes liées à l’étude de la distribution d’énergie spectrale des sources extragalactiques, l’approche ici présentée repose sur les propriétés d’agréga-tion des galaxies entre elles. En effet l’agrégad’agréga-tion (clustering en anglais) des galaxies due à la gravité leur confère une distribution spatiale - et angulaire - particulière.

La méthode des clustering redshifts utilise cette propriété particulière d’agréga-tion entre une populad’agréga-tion de galaxies dont le redshift est inconnu et un échantillon d’objets de référence afin de déprojeter l’information et de reconstruire la distribu-tion en redshift de la populadistribu-tion inconnue. On peut s’attendre à ce que les systé-matiques de cette approche soient différentes de celles des méthodes existantes qui elles s’intéressent à la distribution spectrale d’énergie (SED) des galaxies.

Ce type d’approche répond à un réel besoin de la part de la communauté scien-tifique dans le cadre des grands projets d’observations tels que la mission Euclid de l’Agence Spatiale Européenne (ESA). Après avoir situé le contexte scientifique géné-ral et avoir mis en évidence le rôle crucial de la mesure des distances en astronomie, je présente les outils statistiques généralement utilisés dans le cadre de l’étude de la répartition de la matière dans l’Univers ainsi que leur modification afin de pouvoir mesurer des distributions en redshift.

Après avoir validé cette approche sur un type d’objets extragalactiques parti-culiers, j’ai ensuite étendu son application à l’ensemble des galaxies existantes. J’ai ensuite exploré la précision et les systématiques affectant ces mesures dans un cas idéal. Puis, je m’en suis éloigné de façon à me trouver en situation réelle. J’ai éga-lement poussé plus loin cette analyse et montré que les objets de référence utilisés lors de la mesure n’ont pas besoin de constituer un échantillon dont la magnitude limite est représentative de celle de la population de redshift inconnu. Cette pro-priété constitue un avantage considérable pour l’utilisation de cette approche dans le cadre des futurs grands projets observationnels comme la mission spatiale Euclid. Pour finir, je résume mes principaux résultats et présente certains de mes futurs projets.

(5)
(6)

Abstract

T

he main goals of this thesis are to validate, consolidate and develop a newmethod to measure the redshift distribution of a sample of galaxies. Where current methods - spectroscopic and photometric redshifts - rely on the study of the spectral energy distribution of extragalactic sources, the approach presented here is based on the clustering properties of galaxies. Indeed clustering of galaxies caused by gravity gives them a particular spatial - and angular - distribution.

In this clustering redshift approach, we use this particular property between a ga-laxies sample of unknown redshifts and a gaga-laxies sample of reference to reconstruct the redshift distribution of the unknown population. Thus, possible systematics in this approach should be independent of those existing in other methods.

This new method responds to a real need from the scientific community in the context of large dark imaging experiments such as the Euclid mission of the European Space Agency (ESA). After introducing the general scientific context and having highlighted the crucial role of distance measurements in astronomy, I present the statistical tools generally used to study the large scale structure of the Universe as well as their modification to infer redshift distributions.

After validating this approach on a particular type of extragalactic objects, I generalized its application to all types of galaxies. Then, I explored the precision and some systematic effects by conducting an ideal case study. Thus, I performed a real case study. I also pushed further this analysis and found that the reference sample used in the measurement does not need to have the same limiting magnitude than the population of unknown redshift. This property is a great advantage for the use of this approach in the context of large imaging dark energy experiments like the Euclid space mission.

(7)
(8)

Remerciements

J

e tiens à exprimer ma reconnaissance envers tous ceux qui ont rendu possiblele travail présenté dans cet ouvrage. Elle se dirige tout d’abord vers Brice Ménard et Yannick Mellier, qui m’ont suivi depuis les balbutiements de ce projet. Brice, tes précieuses remarques sont toujours d’une effroyable pertinence et m’ont permis de me dépasser et cela mérite toute ma gratitude. J’ai appris beaucoup sur moi-même en travaillant avec toi. Yannick, je te remercie de croire autant à ce projet et d’avoir toujours été à l’écoute de mes interrogations malgré tes très lourdes responsabilités. Plus généralement, merci à vous deux de m’avoir permis de travailler sur un projet aussi novateur et prometteur.

Un grand merci à Martin Kilbinger pour avoir toujours pris le temps de m’aider et de dispenser ses précieux conseils avec bienveillance et sympathie. Je tiens éga-lement à remercier Françoise Combes, Laurence Tresse et Olivier Ilbert qui m’ont fait l’honneur d’accepter de faire partie de mon jury et plus particulièrement Alain Blanchard et Mathieu Langer pour en être les rapporteurs. Vos remarques m’ont permis d’améliorer la qualité de ce manuscrit.

Je remercie l’ensemble des membres de l’Institut d’Astrophysique de Paris pour m’avoir accueilli pendant ces trois années et plus particulièrement : Henry Joy McCracken, Valérie de Lapparent, Raphaël Gavazzi, Karim Benabed, Florence Durret, Stéphane Colombi, Matt Lehnert, Gary Mamon, Brigitte Rocca-Volmerange pour leur soutien et leur disponibilité sur les différentes questions auxquelles j’ai dû faire face durant ma thèse.

Un énorme merci à mes parents qui m’ont toujours soutenu et qui me donnent l’impression d’être le meilleur physicien du monde. Merci également à mon frère Julien qui croit plus en moi que je ne le fais moi-même.

Merci également à tous les doctorants de l’IAP grace à qui venir au labo était un véritable plaisir. En particulier merci à Nicolas pour ne jamais refuser une bière et surtout pour ne pas parler boulot à la pause déjeuner ; à Alba, Julia et Mélanie pour apporter un peu de douceur - et de n’importe nawak - dans un monde de brutes ; ainsi qu’à Pierre pour nos discussions de physique mais aussi pour m’avoir fait découvrir la méthode de Feynman qu’il nous faudra bien essayer de mettre en application un jour ou l’autre ne serait-ce que pour vérifier sa validité. Nous avons la chance d’avoir une très bonne ambiance au sein de l’IAP, cela est extrêmement précieux.

(9)

Je tiens très particulièrement à remercier Alexis pour son amitié et pour nos innombrables soirées à parler de physique. Faire des calculs sur un carton de pizza devant le film Le Cinquième Élément pour vérifier ce que les personnages viennent d’affirmer n’a pas de prix.

Un très grand merci à tous mes "amis de Lille", pour ne pas dire Fourmies ! La distance et les nombreux mois passés sans se voir laissent inchangé le plaisir de passer du temps avec vous. Je remercie en particulier Nicolas pour être toujours présent. En dix-huit ans d’amitié les raisons sont trop nombreuses et nécessiteraient une thèse pour être énumérées. Bon courage avec ton manuscrit de thèse, j’ai hâte d’assister à ta soutenance.

Enfin je souhaite terminer ces remerciements en mentionnant les enseignants qui m’ont transmis plus que des connaissances : Marie-Hélène Avisse pour les sciences physiques et Alain Bergmann pour les mathématiques. Avoir des enseignants pas-sionnés et passionnants est une chance incroyable.

(10)

Table des matières

Résumé i

Abstract iii

Remerciements v

Table des matières vii

Introduction 1

Distances measurements in astronomy : abstract 7

1 Mesures des distances en astronomie 9

1 Des étoiles aux galaxies proches (< 500 M a.l.). . . 9

2 Pour les galaxies lointaines (> 500 M a.l.) . . . 14

3 Un œil vers l’avenir . . . 32

4 Synthèse . . . 45

Introducing the method : abstract 47 2 Présentation de la méthode 49 1 Concepts . . . 50

2 Formalisme . . . 55

3 Calcul de ω(z)¯ . . . 59

4 Synthèse . . . 65

Validating the method : abstract 67 3 Validation de la méthode 69 1 Evolution du biais et estimation du rapport signal sur bruit . . . 69

(11)

3 Validation du redshift clustering sur les données SDSS . . . 78

4 Généralisation à tous types de populations de galaxies. . . 81

5 Synthèse . . . 83

Ideal case study : abstract 85 4 Clustering redshift : cas idéal 87 1 Sélection des données et mesure du biais de référence . . . 87

2 Comparaison cluster/spectro-z et étude du bruit . . . 92

3 Synthèse . . . 97

Real case study : abstract 99 5 Clustering redshift : cas réel 101 1 Les données CFHTLS & VIPERS . . . 102

2 Présélection tomographique . . . 110

3 Présélection dans l’espace des couleurs . . . 117

4 Synthèse . . . 127

Conclusions et perspectives 129

A Fonctions de corrélation 133

B Publication 137

(12)

L

’étude de l’Univers, en tant qu’objet physique, est l’une des disciplines les plusfondamentales et passionnantes qui soit. Comprendre le monde, s’interroger sur la nature de la réalité et essayer de la décrire le plus fidèlement possible est le quotidien du physicien. Que ce soit l’étude de l’infiniment petit ou de l’infiniment grand la physique a ceci de passionnant qu’elle transporte, qu’elle fait rêver, qu’elle révèle.

L’astrophysique a ceci de particulier qu’elle ne peut pas s’appuyer sur la repro-duction, en laboratoire, d’expériences rigoureusement identiques. Pour des raisons évidentes cette approche, qui a fait la force de la démarche scientifique dans de nom-breux domaines, n’est pas envisageable. Il faut donc apprendre à se passer d’une connaissance quasi parfaite des conditions initiales d’un système et faire tout son possible pour extraire le maximum d’informations complémentaires à partir d’obser-vations différentes. Pour cela, les outils statistiques dont nous disposons aujourd’hui sont d’une aide précieuse et d’une efficacité redoutable.

Pendant longtemps, la question de l’origine de l’Univers ne fut abordée que par les religions, chacune développant sa propre cosmogonie. De nos jours, notre connaissance de la physique - notamment de la relativité générale - ainsi que les avancés remarquables de la technologie permettent d’aborder cette question de façon scientifique.

Portés par ces innovations technologiques, les modèles cosmologiques furent de plus en plus contraints pour finalement donner naissance au modèle standard cosmo-logique ou modèle de concordance. Bien que ce modèle soit en perpétuelle évolution, il a d’ores et déjà permis de mettre en évidence et d’expliquer des phénomènes jusqu’alors insoupçonnés.

(13)

Depuis le rayonnement fossile - Cosmic Microwave background (CMB) - présen-tant un Univers extrêmement homogène et isotrope ; jusqu’à aujourd’hui où l’Univers est dans une phase d’expansion accélérée ; en passant par l’époque de la réionisation avec la formation des premières étoiles, la grande histoire cosmique semble être assez bien décrite par ce modèle.

Nous entrons aujourd’hui dans une ère dite de cosmologie de précision. Il s’agit ici d’atteindre une précision de l’ordre du pourcent sur chacun des paramètres cosmo-logiques. Pour cela, la communauté scientifique va devoir réaliser, traiter et analyser des Peta-Bytes de données issues d’innombrables heures d’observations. De grands projets d’observations virent alors le jour tels que la mission Euclid de l’Agence Spatiale Européenne (ESA) dont l’objectif principal est de percer les mystères de l’actuelle accélération de l’expansion de l’Univers.

L’accélération de l’expansion de l’Univers est une des grandes découvertes de la physique de la fin du XXième siècle. Très largement consolidée par de multiples observations astronomiques elle ne fait plus vraiment l’objet d’un débat et c’est donc vers la question fondamentale de la source de cette accélération que se portent les interrogations des physiciens et des astrophysiciens. À ce jour c’est une véritable énigme et l’objet d’une des grandes quêtes de la physique fondamentale du début de ce siècle. Sa nature étant totalement inconnue c’est sous le terme générique d’énergie sombre qu’elle est identifiée.

Parmi les hypothèses les plus immédiates, l’énergie sombre pourrait traduire une interaction nouvelle de la nature associée à un champ scalaire dont les propriétés sont encore totalement inconnues. Alternativement, il est aussi tout à fait possible que l’accélération de l’expansion soit l’expression d’une déviation de la gravitation aux prédictions de la relativité générale lorsque l’on aborde des phénomènes portant sur des très grandes échelles de distance dans l’Univers - de l’ordre du Gpc ou plus - et pour lesquelles il n’existe à ce jour aucune expérience qui la valide. Ces deux grandes directions de recherche portent en elles des bouleversements pour la physique et notre compréhension des lois fondamentales de la nature mais aussi des scénarios décrivant le passé et l’avenir de l’Univers et même de la place de notre univers dans les théories cosmologiques modernes.

Comprendre la véritable nature de cette énergie sombre fait donc partie des questions les plus fondamentales et passionnantes de la physique et de la cosmolo-gie contemporaines. C’est la raison pour laquelle les physiciens et astrophysiciens déploient aujourd’hui tout une panoplie de "sondes cosmologiques" qui cherchent à détecter et caractériser des signatures de l’énergie sombre dans des observables astronomiques qui caractérisent l’histoire de l’expansion de l’Univers et l’histoire de la formation des structures cosmiques dans l’Univers. Les sondes cosmologiques qui sont aujourd’hui les plus prometteuses en matière d’observation astronomique, de mesures et d’interprétation physique dans un contexte cosmologique sont les supernovae du type Ia, les oscillations acoustiques des baryons, les distorsions

(14)

gra-vitationnelles faibles, les distorsions espace-redshift, les amas de galaxies et l’effet Sachs-Wolf intégré. Malheureusement, les différences des signatures portées par ces sondes cosmologiques et que l’on prédit pour les modèles d’énergie sombre les plus vraisemblables sont toutes infimes. Les écarts sont tellement infimes que seule des mesures de grande précision fondées sur une analyse statistique d’un très grand nombre d’objets astronomiques pourraient apporter une réponse décisive à la ques-tion de la nature de l’énergie sombre.

Par ailleurs certaines sondes sont plus sensibles aux propriétés géométriques de l’Univers et à son taux d’expansion alors que d’autres voient préférentiellement des manifestations de la gravitation et donc du taux de croissance des structures. Pour aborder le problème de l’origine de l’accélération de l’expansion de l’Univers il est donc indispensable de construire des expériences utilisant des sondes multiples, in-dépendantes et complémentaires. C’est notamment ce qui a conduit à la conception de la mission spatiale Euclid. Cette mission est dotée d’un télescope illuminant trois instruments d’imagerie et de spectroscopie visible et infrarouge permettant d’exploi-ter 5 sondes cosmologiques (toutes celles énumérées ci-dessus, sauf les supernovae) et de reconstruire l’histoire de l’expansion et celle de la croissance des structures au cours des 10 derniers milliards d’années.

Une des grandes spécificités de la mission Euclid est qu’elle est conçue priori-tairement pour la mesure des effets de lentille gravitationnelle faibles avec une très haute précision sur un échantillon de 1.5 milliards de galaxies. Cette méthode est fondée sur des mesures très précises de morphométrie des galaxies pour reconstruire le champ cohérent de déformation gravitationnelle par la matière noire localisée dans les structures cosmiques (le cisaillement cosmique). Cependant, les mesures de forme des galaxies ne suffisent pas car l’amplitude des effets de lentilles gravitationnelles dépend aussi des distances relatives des sources et des lentilles à l’observateur. Par ailleurs le champ cohérent de cisaillement cosmique est contaminé par les aligne-ments cohérents intrinsèques des galaxies résultant des processus de formation des galaxies et des interactions de marée entre les galaxies. Pour nettoyer cette contami-nation il est indispensable de connaître les distances des galaxies. La connaissance des distances de plusieurs centaines de millions de galaxies se trouve donc au coeur de l’enjeu scientifique de la mission Euclid.

Il se pose alors la question de savoir comment mesurer les distances d’environ un milliard de galaxies. En effet aucun instrument à ce jour et aucun spectrographe en projet dans la décennie à venir ne seront capables de mesurer les redshifts d’autant de galaxies et cela sur tous les types de galaxies. L’utilisation du redshift spec-troscopique en tant que mesure principale est donc compromise pour les galaxies d’Euclid. Néanmoins, on peut toutefois noter que pour les mesures de lentilles gravi-tationnelles et pour les alignements intrinsèques, il n’est pas nécessaire de disposer de distances mesurées avec une grande précision. Euclid se satisfait d’une précision de 0.05(1 + z) mais a besoin de mesurer ces redshifts avec une bonne précision, donc sans erreur systématique. La solution évidente est donc de s’orienter vers les redshifts photométriques, à la condition que les erreurs systémiques soient

(15)

parfai-tement contrôlées et que le taux de redshift catastrophique soit inférieur à 10%. Pour parvenir à ces niveaux de précision et d’exactitude, Euclid a besoin de mesu-rer des redshifts photométriques à partir des 3 bandes photométriques infrarouges que fournira son télescope et d’au moins 4 bandes photométriques visibles. C’est un enjeu considérable puisqu’il faut donc observer 15 000 deg2 du ciel boréal et

aus-tral à des magnitudes typiques de AB = 24. La quête des données photométriques de la mission Euclid s’avère donc un projet en soi qui demande des centaines de nuits d’observation avec des grands télescopes terrestres répartis sur les deux hé-misphères et un suivi spectroscopique complémentaire pour étalonner les redshifts photométriques. Le coût des observations sols est de plusieurs dizaines de millions d’euros et la mise à disposition de plusieurs télescopes pendant plusieurs centaines des nuits ainsi que les ressources humaines et matérielles nécessaires au traitement de ces données sont techniquement et opérationnellement des obstacles difficiles. Par conséquent, l’acquisition de ces observations n’est pas encore garantie ce qui place les redshifts photométriques au coeur des difficultés de la mission tant sur le plan de la précision et de l’exactitude des mesures de redshifts que sur celui de la production de ces données et du surcoût induit sur le projet.

Ces interrogations et les problèmes de mesure des distances des galaxies aux échelles cosmologiques motivent le coeur de mon projet de recherche : trouver un moyen de déterminer les distances d’un milliard de galaxies qui permettrait d’éviter un lourd et cher programme d’observation avec les télescopes au sol comme celui qu’il est nécessaire de conduire avec les redshifts photométriques. Si cet outil existe, il faut alors évaluer ses performances, ses limites, ses sensibilités aux conditions de sélection et d’observation, déterminer de potentielles sources d’erreurs systéma-tiques, le comparer à la méthode des redshifts photométriques et discuter comment ces méthodes pourraient être utilisées conjointement puis développer ce nouvel outil de mesure pour en faire un outil opérationnel pour Euclid, le valider et le distribuer à la communauté.

C’est dans ce contexte que s’inscrit le travail présenté dans cet ouvrage. Durant ces trois ans, je me suis intéressé à une toute nouvelle façon de mesurer le redshift - la distance - des galaxies lointaines. Cette approche, très peu utilisée à l’heure actuelle, va permettre une petite révolution dans notre façon de faire de la cosmologie simplement parce qu’elle nous permet d’adopter un nouveau point de vue sur les données, elle ouvre une nouvelle fenêtre sur l’Univers.

Afin de bien comprendre la motivation derrière le travail accompli tout au long de ces trois années nous commencerons par présenter les différentes méthodes existantes pour mesurer la distance d’un objet lointain. Une attention toute particulière sera portée aux redshifts photométriques qui sont devenus indispensables aujourd’hui. Nous verrons leurs forces et leurs limitations, notamment dans le cadre de la mission Euclid dans lequel s’inscrit ce travail de thèse.

(16)

dévelop-pée dans cet ouvrage. Nous verrons également la validation de cette méthode que ce soit en simulation ou sur de vraies données issues d’observations.

Enfin, nous discuterons deux analyses la première correspondant à un cas idéal, la seconde à un cas réel via l’utilisation des données provenant du Canada-France-Hawaii Telescope Legacy Survey (CFHTLS ) dont la stratégie d’observation ainsi que les filtres utilisés sont relativement proches de ceux du télescope spatial Euclid.

(17)
(18)

Distances measurements in astronomy : abstract

T

his chapter presents the crucial role of distance measurements in astronomy.I review some of the methods used to infer distances from stars to distant galaxies. Also, I introduce the key concept of redshift as a distance indicator and present current methods allowing its measurements. In particular, I present a uni-fied picture of photometric redshifts, as a function whose aim is to reproduce the mapping between photometric space - including : magnitude, position, ellipticity... - and redshift space based on spectral energy distribution (SED) inference from magnitudes or using training sets, Figure 1.

Figure 1 –This picture summarizes the main idea of photometric redshifts.

Then, I introduce the particular scientific context of upcoming large imaging dark energy experiments like the Euclid space telescope. Finally, looking at cosmological probes used to understand the cosmological accelerated expansion I present the key requirements on the redshift measurements introducing then the scientific challenge in which this work takes place.

(19)
(20)

Mesures des distances en astronomie

L

orsque l’on regarde le ciel, et les objets qui s’y trouvent, on peut naturellements’interroger sur la distance qui les séparent de nous. Cette simple question est des plus fondamentales. En effet, si le soleil et la lune échangeaient leur place, notre vision du système solaire serait radicalement différente - et incompatible - avec celle que nous avons aujourd’hui. Nous évoluerions alors dans un paradigme totalement différent. La connaissance de la distance des astres est donc la pierre angulaire de notre compréhension de l’Univers.

1

Des étoiles aux galaxies proches (< 500 M a.l.)

1.1

Pour les étoiles (<

100 M a.l.)

Mesure de parallaxe

La connaissance de l’éloignement, par rapport au soleil, des étoiles se trouvant dans notre galaxie passe par la mesure de leur parallaxe annuelle. Par définition, la pa-rallaxe est l’angle sous lequel on voit le demi-grand axe de l’orbite terrestre depuis une étoile, c’est-à-dire l’angle θ sur le schéma Figure 1.1 . Il s’agit en réalité d’un simple calcul de trigonométrie.

Cette méthode fut notamment utilisée en 1989 par le satellite Hipparcos (High Précision PARallaxe Collection Satellite) de l’Agence Spatiale Européenne (ESA). Hipparcos fit passer le nombre de mesures de parallaxe d’environ 8 000 à plus de 100 000 et cela avec une précision de l’ordre de la milliseconde d’arc. En 2013, le lancement réussi du satellite Gaïa de l’ESA qui localisera un milliard d’étoiles - soit dix mille fois plus que le satellite Hipparcos, Figure1.2 - marque un pas de plus dans le développement et l’utilisation de la méthode des parallaxes. En cosmologie, les observations de Gaïa permettront de étalonner les mesures de parallaxe. Ce ré-étalonnage se propagera vers les distances cosmologiques dans le régime où parallaxes et céphéides sont toutes deux applicables.

(21)

Figure 1.1 – Soit :S le soleil, T la terre et E une étoile proche. La parallaxe de E est notée θ.

Les angles ET S et θ étant complémentaires la mesure de ET S permet de déterminer θ. Finalement

la distanceSE est obtenue via : SE = ST

tan(θ). La parallaxe d’une étoile est généralement inférieure

à 1".

Figure 1.2 – Hipparcos : mesure de la distance des étoiles avec une erreur< 10%.

Gaïa : mesure de la distance des étoiles avec une erreur< 10%.

Gaïa : mesure de la vitesse des étoiles avec une précision < 1 km/s. Figure extraite de http: //endirect.univ-fcomte.fr/download/en-direct/image/ed-240-janvier-2012/ gaia-2.gif

(22)

Diagramme de Hertzsprung-Russell

Figure 1.3 – Diagramme H-R montrant des étoiles connues de la Voie Lactée. On distingue clairement la séquence principale, la branche des géantes, celle des supergéantes ainsi que la zone des naines blanches. Copyright c2008 Pearson Education, Inc., publishing as Pearson Addison-Weasley.

Le diagramme de Hertzsprung-Russell présente la luminosité d’un ensemble d’étoiles en fonction de leur température effective, Figure1.3. Il s’agit d’une méthode de me-sure indirecte présentée pour la première fois dans Russel (1914). La mesure de la température, d’une étoile de la séquence principale, permet via le diagramme H-R de déterminer sa magnitude absolue. Connaissant la magnitude apparente de l’objet on peut alors, via l’équation (1.1), obtenir la distance d en parsec.

d = 10× 10(m−M)/5 , (1.1) avec :

m, la magnitude apparente.

M , la magnitude absolue.

d, la distance en parsec.

Remarquons que cette méthode ne fonctionne pas pour les galaxies à cause des étoiles peu brillantes, de la poussière ainsi que de l’effet de l’âge et de la métallicité sur la luminosité.

(23)

1.2

Pour les galaxies proches ( < 500 M a.l.)

Méthode des céphéides

Les céphéides, Figure 1.4, sont des étoiles variables, brillantes dont la luminosité varie périodiquement sur une durée de quelques jours (Leavitt, 1908). On dit que ces étoiles possèdent une relation période/luminosité (Mo et Van den Bosch,2010).

Figure 1.4 – Exemple d’une céphéide. Il s’agit d’un cliché de RS Puppis pris par le télescope spatial Hubble (HST).

Cette relation est généralement utilisée pour déterminer la distance des galaxies proches. La mesure de la période de l’étoile permet de déterminer sa magnitude abso-lue. Une fois de plus l’utilisation de l’équation (1.1) permet de déterminer la distance de la galaxie hôte. Elles ont notamment joué un rôle crucial dans l’étalonnage des distances utilisées par Hubble lorsqu’il mit en évidence la fuite des galaxies.

Lois de Tully-Fisher et de Faber-Jackson

La relation de Tully-Fischer relie la luminosité intrinsèque d’une galaxie spirale à l’amplitude de sa courbe de rotation.

Cette relation (Tully et Fisher, 1977) permet de calculer la magnitude absolue d’une galaxie spirale grâce à la vitesse de rotation des étoiles autour du centre. La vitesse de rotation de la galaxie est elle-même mesurable par effet Doppler. Une fois la magnitude absolue de la galaxie connue, on peut une fois encore utiliser l’équation (1.1) et en déduire sa distance, Figure 1.5.

(24)

Figure 1.5 –Magnitude absolue en fonction de la vitesse de rotation pour des galaxies proches. Les croix correspondent à M31 et M81, les points sont M33 et NGC 2403, les triangles pleins sont des systèmes plus petits dans le groupe M81 et les triangles creux sont des sytèmes du groupe M101. Extrait deTully et Fisher(1977)

La relation de Faber-Jackson relie la magnitude absolue à la dispersion des vi-tesses σ des étoiles centrales des galaxies elliptiques, Figure 1.6. Elle permet la détermination des distances pour ce type de galaxies et s’exprime mathématique-ment ainsi : L∝ σγ, où l’on observe que l’exposant γ est approximativement de 4, selon la catégorie des galaxies considérées.

La relation de Faber et Jackson (1976), équivaut pour les galaxies elliptiques à la loi de Tully-Fisher - qui s’applique uniquement dans le cas des galaxies spirales.

Figure 1.6 –Dispersion des vitesses dans la ligne de visée en fonction de la magnitude absolue. Le point avec la plus petite vitesse correspond à M32. Extrait deFaber et Jackson(1976)

(25)

2

Pour les galaxies lointaines (> 500 M a.l.)

En cosmologie, la distance des galaxies lointaines est communément exprimée en termes de décalage spectral. Avant de présenter les différentes méthodes permettant de mesurer ce décalage, nous commencerons par rappeler brièvement les grands principes ainsi que le cadre mathématique de la cosmologie moderne puis nous nous attarderons sur la notion de redshift.

2.1

Principe cosmologique et métrique FLRW

La formulation du principe cosmologique se fait en supposant que l’Univers est homogène et isotrope à très grande échelle. En effet à l’échelle du système solaire, de la galaxie ou même du groupe local, l’Univers n’est ni homogène ni isotrope. Les deux principales raisons qui ont conduit à l’acceptation du principe cosmologique sont d’une part le principe copernicien qui stipule qu’il n’y a pas de point de vue privilégié dans l’Univers ainsi que l’isotropie autour de chaque point. Au cours des dernières décennies les observations astronomiques ont permis d’explorer la validité de ce principe et d’en constater la robustesse. Par exemple, l’isotropie de l’Univers a été confirmée par l’impressionante isotropie du fond diffus cosmologique (CMB) observé par les satellites COBE (Smoot et collab.,1992), WMAP (Bennett et collab.,

2003;Spergel et collab.,2003) et PLANCK (Planck Collaboration,2014). Les relevés de galaxies à bas redshifts comme le 2-degree Field galaxy redshift survey (Colless et collab., 2001) ou encore le Sloan Digital Sky Survey (York et collab., 2000) ont montré que l’homogénéité de l’Univers est également une hypothèse raisonnable.

La première description de la gravité fut donnée par Newton puis fut généralisée par Einstein avec la relativité générale en 1915, dans laquelle il met en évidence le lien intrinsèque entre temps et espace. Comme présenté dans Schneider (2015), l’espace peut être décrit par une sphère en expansion où la position des objets est décrite par leurs coordonnées comobiles (constantes s’il n’y a pas de mouvements propres) et leurs coordonnées physiques. Le lien entre ces deux coordonnées est appelé le facteur d’échelle a(t) :

d(t) = a(t)x , (1.2)

avec a(t0) = 1 aujourd’hui par convention. La vitesse de récession est définie par :

v(d, t) = d dtd(t) = da dtx= ˙a ad≡ H(t)d , (1.3)

où H(t) est le paramètre de Hubble. Dans l’Univers local, cette relation devient : v(d, t0) = H(t0)d = H0x , (1.4)

également connue sous le nom de loi de Hubble et où H0 est la constante de Hubble.

En relativité générale l’espace est déformé par la distribution en masse de l’Uni-vers. Cela implique que l’Univers n’est pas forcément plat comme dans la géométrie

(26)

Euclidienne mais qu’il peut être courbé par le potentiel gravitationnel des objets qu’il contient. La gravité peut alors être vue comme une propriété de l’espace-temps. Dans ce contexte le mouvement d’une particule suit simplement les distorsions de l’espace-temps. La distance entre deux évènements d’un tel espace est alors décrite par le tenseur métrique gµν selon :

ds2 = gµνdxµdxν , (1.5)

où xµ sont les coordonnées d’espace-temps.

Le principe cosmologique contraint la métrique de façon à ce que l’Univers soit homogène et isotrope. On peut montrer (Weinberg, 1972) que ces conditions sont vérifiées par la métrique de Fridmann-Lemaître-Robertson-Walker (FLRW) :

ds2 = c2 dt2− a2(t)  dr2 1− kr2 + r 22 + r2sin2(θ)dφ2  , (1.6)

où a(t) est le facteur d’échelle, k est la courbure spatiale qui décrit la topologie de l’Univers. Si k = 0 l’Univers est plat, si k = −1 il est hyperbolique, si k = 1 il est sphérique.

Toute particule se déplaçant à la vitesse de la lumière (comme un photon) suit une trajectoire appelée géodésique satisfaisant ds2 = 0. Si sa direction est radiale,

on a : c2dt2 = a2(t) dr 2 1− kr2 , (1.7) et : Z to te c a(t)dt = Z xo xe dr √ 1− kr2 . (1.8)

Ici, teest le temps d’émission du photon et tole temps d’observation. xeet xosont

les positions respectives de l’objet émetteur et de l’observateur. Comme la distance comobile (terme de droite) est constante dans le temps, il vient :

c dto

a(to)

= cdte a(te)

. (1.9)

En substituant c dte et c dto par les longueurs d’onde λe et λo, il est possible

d’exprimer le décalage spectral d’un objet distant en fonction du facteur d’échelle : λo

λe = a(to)

a(te)

(27)

Le décalage spectral résultant est alors défini par : z = λo

λe − 1 , (1.11)

avec :

– λe, la longueur d’onde émise.

– λo, la longueur d’onde observée.

– z, le décalage spectral.

D’après l’équation (1.10) il vient :

1 + z = a0

a(t) , (1.12)

avec :

– a0, le facteur d’échelle aujourd’hui choisi pour être a0 = 1.

– a(t), le facteur d’échelle au temps t correspondant au redshift z.

On voit immédiatement que le décalage spectral z, est relié à l’information sur la distance des objets. Étant une quantité observable cette expression fait du redshift un indicateur privilégié dans l’estimation de la distance des galaxies.

2.2

Notion de redshift

Comme nous venons de le voir, la distance des galaxies lointaines est reliée au dé-calage spectral de la lumière. En effet pour différentes raisons la longueur d’onde de la lumière émise par un objet lointain (comme une galaxie) peut-être décalée vers les grandes longueurs d’onde - vers le rouge - ou même dans certains cas vers les petites longueurs d’onde - vers le bleu. Nous présentons maintenant les différents effets pouvant engendrer un tel décalage.

Effet Doppler

Ce décalage peut être dû au mouvement de la source, Figure 1.7. Il s’agit de l’effet Doppler. On observe alors un décalage vers le rouge - redshift - si la source s’éloigne de l’observateur et vers le bleu - blueshift - si elle s’en rapproche. On calcule le décalage spectral selon l’équation (1.11).

(28)

Figure 1.7 –Illustration d’un décalage spectral dû à un effet Doppler. Un observateur, immobile, reçoit un signal émis par une source en mouvement. Le sens de déplacement de la source affecte la longueur d’onde du signal. Cette dernière est allongée - raccourcie - lorsque la source s’éloigne - se rapproche. Source :http://a-levelphysicstutor.com/wav-doppler.php.

Effet cosmologique

L’expansion de l’Univers est également une source de décalage spectral mais cette fois il s’agit systématiquement d’un décalage vers le rouge, Figure 1.8. On parle alors de redshift cosmologique. Dans un univers homogène et isotrope décrit par une métrique FLRW son expression en fonction du facteur d’échelle est donnée par l’équation (1.12).

Figure 1.8 – Illustration de l’agrandissement de la longueur d’onde entre le temps d’émission et le temps de réception dû à l’expansion de l’Univers. Source :http://www.pitt.edu.

(29)

Pour comprendre la différence entre ces deux définitions il convient de distinguer les effets cosmologiques des effets locaux. La chose importante à remarquer est que les objets ne bougent plus lorsque l’on se place en coordonnées comobiles. Cependant il existe tout de même un décalage vers le rouge dû à l’expansion de l’espace lui-même. C’est le redshift cosmologique.

Effet gravitationnel

La relativité générale prédit que la lumière se déplaçant dans un champ de gravi-tation non homogène subit un décalage vers le rouge ou vers le bleu selon que la lumière est émise ou reçue par l’astre, Figure 1.9. Cet effet est appelé le décalage d’Einstein ou redshift gravitationnel. Sur la Terre, il est faible mais a été mesuré par

Pound et Rebka (1959). Pour les galaxies cet effet est de l’ordre de 10−5 (Wojtak

et collab.,2015).

Figure 1.9 – Illustration de l’agrandissement de la longueur d’onde d’un signal s’échappant du potentiel gravitationnel d’un objet massif. Source : http://archive.ncsa.illinois.edu/ Cyberia/NumRel/EinsteinTest.html.

(30)

2.3

Redshift spectroscopique

La classification des galaxies se réfère toujours à la séquence de Hubble visible à la Figure 1.10. Cette classification est basée sur des critères morphologiques des galaxies dont les composants principaux sont :

– le bulbe central, dont le profil de brillance est en général décrit par une loi de de Vaucouleurs :

I(r) = Ie× 10−3.33((r/re)

0.25−1)

, (1.13)

où re représente le rayon à demi-luminosité et Ie est la brillance de surface à

r= re.

– le disque, dont le profil de brillance est décrit par la fonction :

I(r) = I0× exp−r/r0 , (1.14)

où r0 est la longueur caractéristique du disque et I0 est la brillance centrale à

r= 0.

– le halo de matière baryonique constitué d’étoiles agées.

– le halo de matière noire qui représente la majorité de la masse.

Figure 1.10 – Séquence morphologique de Hubble. Les galaxies elliptiques sont notées E, les spirales sont notées S, les lenticulaires sont notées S0 et les irregulières sont notées Irr. Source :

(31)

La séquence de Hubble distingue quatre types de galaxies :

– les galaxies elliptiques. Leurs brillance de surface est faible, elles contiennent peu de gaz froid et sont rouges à cause de leur population stellaire agée. Elles possèdent un bulbe prédominant.

– les galaxies spirales. Elles possèdent un disque fin et des bras spiraux. Elles sont classées en deux branches les spirales régulières et les spirales barrées selon qu’elles possèdent ou non une barre en leur centre.

– les galaxies lenticullaires. Cette classe regroupe les objets intermédiaires entre les elliptiques et les spirales.

– les galaxies irrégulières. Ces objets ne sont pas dominés par un bulbe central et ne possèdent pas non plus de disque. Elles ne présentent aucune symétrie particulière.

Les galaxies elliptiques et lenticulaires sont généralement qualifiées de type pré-coce (early type) car elles se sont formées tôt dans l’histoire de l’Univers. Un exemple de spectre est montré Figure 1.11. De la même façon les galaxies spirales et irrégu-lières sont qualifiées de type tardif (late type), voir Figure 1.12.

Figure 1.11 – Spectre d’une galaxie de type précoce. Source : http://classic.sdss.org/ dr7/algorithms/spectemplates/.

(32)

En parcourant la séquence de Hubble de droite à gauche la morphologie évolue du type tardif au type précoce ce qui correspond globalement à l’évolution d’une galaxie. En effet, les galaxies jeunes sont des objets actifs dont la formation d’étoiles dans leur disque est en cours. Elles sont généralement bleues. Puis à un certain moment dans l’évolution de la galaxie, la formation d’étoiles s’arrète, la galaxie devient passive avec une population stellaire vieillissante. La galaxie devient rouge. Les galaxies inhabituelles comme celles possèdant un noyau très actif (active galactic nucleus, AGNs), celles à fort taux de formation stellaire ou encore celles en interation ne sont pas représentées sur cette séquence. Les mécanismes contrôlant l’arrêt de la formation d’étoiles font toujours l’objets de recherches.

Figure 1.12 –Spectre d’une galaxie de type tardif. Source :http://classic.sdss.org/dr7/ algorithms/spectemplates/.

Mesurer le redshift revient à identifier au moins une caractéristique connue dans le spectre lumineux et d’en mesurer le décalage spectral via l’équation (1.11). Cela nécessite une bonne connaissance du spectre des galaxies c’est à dire de leur dis-tribution spectrale d’énergie (SED). L’acquisition du spectre se fait en séparant le faisceau de lumière incidente à l’aide d’un prisme ou d’une fente.

La composition et le mécanisme d’émission des étoiles sont à présent bien connus : le spectre est proche de celui d’un corps noir, avec des raies d’absorptions et d’émis-sions qui sont la signature de sa composition, en fonction de son âge et de sa taille. Les étoiles jeunes émettent fortement dans l’ultraviolet, sont très énergétiques, mais

(33)

le flux diminue rapidement à mesure que les étoiles évoluent et leur spectre subit alors une forte diminution du flux à 912 Å. Cette cassure, qui correspond à l’absorption de l’hydrogène, est appelée discontinuité de Lyman. Les étoiles vieillissantes sont de plus en plus rouges et créent une discontinuité supplémentaire, celle de Balmer, à 4000 Å. L’évolution en couleur des étoiles jeunes est très rapide et devient de plus en plus rouge avec le temps.

Si l’évolution des étoiles est assez bien comprise, le spectre lumineux total d’une galaxie n’est cependant pas toujours facile à prédire car les populations d’étoiles ne sont pas forcément homogènes et le flux total dépend du taux de formation stellaire. Une manière simple de modéliser le spectre d’une galaxie consiste à définir une population initiale d’étoiles (Initial Mass Function, IMF) et une évolution qui dépend du taux de formation stellaire (Star Formation Rate, SFR) et de l’évolution chimique de la galaxie (la métallicité). En plus de dépendre du type de l’objet, les caractéristiques présentes dans le spectre d’une galaxie peuvent également dépendre de l’environnement la séparant de l’observateur.

En considérant une dispersion de vitesse typique dans un amas de∼ 500 km.s−1 pour des galaxies proches de moins de quelques dizaines de mégaparsecs (Mpc) l’erreur relative sur la mesure du redshift par spectroscopie est de ∆zz ∼ 0.1%. Pour de tels objets il est préférable d’utiliser la méthode des céphéides ou encore la relation de Tully-Fisher.

Au-delà de cette distance, la spectroscopie est le meilleur moyen, en termes de précision, pour mesurer le redshift. En effet, une résolution R = λ

∆λ, de quelques

centaines permet d’obtenir une précision de ∼ 5.10−3(1 + z).

Les spectrographes multi-objets (MOS) existants permettent de mesurer simul-tanément des centaines de redshifts spectroscopiques. Cependant, cela n’est pas suf-fisant pour traiter les dizaines de millions d’objets déjà répertoriés ou les quelques milliards que l’on prévoit pour des relevés comme Euclid. Bien que la spectroscopie soit la méthode la plus précise, elle reste donc une méthode longue et coûteuse qu’il n’est pas envisageable d’utiliser pour estimer le redshift de l’ensemble des objets à notre disposition.

(34)

2.4

Redshift photométrique

La photométrie est une façon de déterminer le redshift d’un objet à partir des mesures de sa magnitude apparente à travers différents filtres. Cette technique a été développée pour la première fois par Baum (1962). Il observa ainsi la SED de six galaxies elliptiques dans l’amas Virgo dans neuf bandes allant de 3730 Å à 9875 Å.

Koo (1985) suivit une approche différente. Il n’utilisa que quatre filtres et au lieu d’utiliser une SED empirique il utilisa un spectre simulé issu du modèle deBruzual A. (1983) qui ne prennait pas en compte l’évolution des galaxies. La méthode de la coupure ultra-violette présenté dans Madau et collab. (1996); Steidel et collab.

(1996) utilise la coupure à 912 Å dans le spectre des galaxies dûe à la limite de Lyman de l’atome d’hydrogène. Le passage de cette coupure à travers la bande u (généralement centrée à ∼ 3 000 Å) permet de mettre une limite basse sur le redshift : z > 2.25. Cette méthode est utilisée pour préselectionner des galaxies à haut redshift avant d’en faire la mesure de façon spectroscopique. Vers la fin des années 1990 et au début de années 2000 de grand relevés astronomiques comme le SDSS ont grandement participé au développemt des redshifts photométriques (Csabai et collab.,2003).

On peut distinguer deux types d’approches permettant de mesurer le redshift photométrique : les méthodes utilisant des modèles (ajustement de modèles, ap-proche Bayesienne...) et les méthodes empiriques de type « apprentissage automa-tique » (réseaux de neurones, forêts d’arbres décisionnels...).

(i) Méthodes utilisant des modèles

L’ajustement de modèles est une procédure qui permet d’obtenir le redshift pho-tométrique. Elle est basée sur la détection de motifs particuliers dans le spectre des galaxies à partir des mesures de magnitude dans différents filtres et sur l’ajuste-ment de l’allure globale du spectre par rapport à une bibliothèque de spectres de références. La Figure 1.13 montre quelques exemples d’ajustement pour plusieurs modèles de galaxies.

Afin d’obtenir des résultats plus précis, l’ensemble de filtres utilisé doit être choisi de façon à encadrer certaines caractéristiques du spectre des galaxies. On utilise généralement la brisure à 4000 Å (due à l’accumulation des raies d’absorptions des métaux premièrement ionisé tel que le doublet du CaII [lignes H et K]) ; mais aussi les raies de Balmer (correspondant à la série de Balmer de l’hydrogène) et la brisure de Lyman à 912 Å. Les magnitudes photométriques observées sont alors comparées à celles obtenues via l’échantillon de spectres de référence. Ces spectres de référence sont soit observés soit synthétiques. La méthode d’ajustement de modèles consiste à réduire l’immensité des différents types de galaxies en sous-échantillons de plus en plus petits en calculant leurs différentes valeurs de magnitudes à différents redshifts.

(35)

Figure 1.13 – Exemple d’ajustement des templates de galaxies sur les magnitudes apparentes B, V , R et I du V V DS− F 02 (points noirs). Le spectre en trait continu correspond au meilleur template ajusté. Si une seconde solution est probable, le template est représenté en tirets. La fonction de distribution en probabilité du redshift (PDFz) est présentée dans un cadre réduit pour chaque galaxie.zp est le redshift photométrique, zs est le redshift spectroscopique. Source :Ilbert

(2004).

En résumé, cela revient à créer une grille de galaxies « standard » à différents redshifts puis à associer un ensemble de valeurs de flux à chaque point de la grille. Enfin, pour une galaxie test, il s’agit de localiser le point de la grille qui ressemble le plus à l’objet étudié. La valeur du redshift est soit directement la valeur de ce point sur la grille soit interpolée à partir des points les plus proches selon le meilleur ajustement de la SED photométrique via la minimisation du χ2 :

(36)

χ2(z, T, A) = ΣNf f =1 " Fobsf − A × Fpredf (z, T ) σfobs #2 , (1.15) avec :

– Nf, le nombre total de filtres.

– A, un facteur permettant de renormaliser le flux du modèle au flux de la galaxie.

– Fobsf , le flux observé de l’objet dans la bande large f .

– Fpredf , le flux dérivé du spectre théorique en prenant en compte le type d’objet T et le redshift z.

– σfobs, l’incertitude sur le flux mesuré.

La minimisation du χ2 fournit l’ensemble de valeurs (redshift, type, brillance...) le plus probable.

Bien que cette méthode soit largement utilisée et permette d’accéder à une esti-mation du redshift pour de très nombreux objets, on peut noter certaines limitations d’une telle approche. En effet si les modèles ne sont pas représentatifs de l’échan-tillon de galaxies alors l’estimation du redshift de certains objets sera biaisée. On peut également remarquer que les étoiles sont traitées comme des galaxies, à moins que l’on ne fasse une sélection indépendante ou que l’on introduise des modèles de spectres d’étoiles.

Cette approche est également très sensible à l’étalonnage photométrique de l’échantillon utilisé. En effet il arrive que la pente du spectre soit parfois très pronon-cée. Dans ce cas, si la pente se trouve dans un filtre dont le décalage photométrique est aussi faible que 0.1 cela peut provoquer des décalages en redshift suffisant pour expliquer les sytématiques observées dans l’estimation des redshifts photométriques.

Enfin, on peut noter divers effets tels que :

– La dégénérescence entre redshift et brillance : une galaxie peu brillante à bas redshift peut avoir la même signature qu’une galaxie lointaine et brillante. – La confusion entre les discontinuités Lyman et Balmer. Les erreurs de redshifts,

(37)

L’approche Bayesienne pour l’estimation des redshifts photométriques dévelop-pée par Benítez(2000), utilise également des modèles mais est aussi basée sur l’uti-lisation d’un apriori et d’une marginal’uti-lisation Bayesienne au lieu de la minimisation du χ2 . L’utilisation du théorème de Bayes (1.16) permet de prendre en compte de précieuses informations dans l’apriori comme la distribution en redshift ou la pro-portion des différents types de galaxies. La probabilité P(z|C) d’obtenir le redshift z pour des couleurs C est donnée par le théorème de Bayes.

P(z|C) = P(C|z)P (z)

P(C) , (1.16)

avec :

– P(C|z) = L (z) = exp(−χ22), la vraisemblance soit la probabilité d’obtenir les données (les couleurs) pour un redshift donné.

– P(C) =R P (C|z)P (z)dz, la normalisation de l’à posteriori.

Pour un ensemble de modèles, l’équation précédente se réécrit :

P(z, T|C) ∝ P (C|z, T )P (z, T ) , (1.17) avec :

– P(z, T|C), la probabilité de redshift pour un modèle de galaxie, connaissant les données.

Un apriori très utilisé est celui de la probabilité du redshift connaissant la magni-tude apparente de l’objet m0. Il s’agit simplement de la distribution en redshift n(z)

à une magnitude donnée. Cette distribution est généralement tirée des sondages de redshifts spectroscopiques. On a alors :

P(z|C, m0)∝ P (C|z)P (z|m0) . (1.18)

En prenant la somme des différentes probabilités, c’est-à-dire en marginalisant, on obtient : P(z|C, m0)∝ X T P(z, T|C, m0)∝ X T P(C|z, T )P (z, T |m0) . (1.19)

Le résultat s’exprime sous la forme d’une fonction de probabilité notée PDF(z). Les étapes sont résumées et illustrées à la Figure 1.14.

Comme pour l’ajustement de modèles, il existe une dégénérescence modèle/redshift, mais la magnitude apparente de l’objet permet de distinguer les deux cas. Un objet brillant a beaucoup plus de chances d’être à bas redshift qu’à haut redshift. La PDF contient toute l’information nécessaire à l’estimation finale du redshift (en suppo-sant avoir pris en compte tous les modèles). En général, le redshift retenu est celui du maximum de vraisemblance, qui correspond au plus grand pic - le plus petit χ2 - et la forme de la PDF permet de définir un degré de confiance de la mesure.

(38)

Figure 1.14 – Estimation bayesienne du redshift pour une galaxie située àz = 0.28 de type spectralIrr et I = 26.

De haut en bas :i) vraisemblance pour différents types de galaxies donnés. ii) Apriori sachant la magnitude de l’objet pour chaque type spectral.iii) à posteriori pour chaque type de galaxie. iv) à posteriori marginalisé dont le maximum se trouve àz = 0.305. La région hachurée correspond à la région où la fiabilité du redshift atteint91%. Source :Benítez(2000).

De façon générale, les désavantages des méthodes utilisant des modèles sont : – Ces méthodes dépendent de la qualité des modèles et de la précision de la

photométrie.

– Les résultats peuvent être biaisés et sont souvent plus bruités que les méthodes empiriques.

(39)

(ii) Méthodes empiriques : apprentissage automatique

Les réseaux de neurones utilisent la puissance de calcul des ordinateurs modernes pour s’entraîner à reconnaître, et à reproduire, les relations entre les objets brillants pour lesquels à la fois la spectroscopie et la photométrie sont possibles. On peut alors utiliser ces relations pour des objets moins brillants pour lesquels seule la photométrie est possible.

Figure 1.15 – Diagramme schématique d’un réseau de neurones avec : en entrée les magni-tudes dans différents filtres, une étape cachée et une sortie fournissant le redshift. Chaque ligne de connexion porte un poids. Le noeud biais, permet de prendre en compte certains décalages systématiques. Source :Collister et Lahav (2004)

À partir d’un échantillon de référence le programme s’entraîne, seul, à retrouver la bonne réponse, Figure1.15. Cela ressemble à l’approche Bayesienne à ceci près qu’ici le programme construit lui-même l’apriori à partir de l’échantillon de référence. C’est l’étape d’apprentissage. En pratique, il est nécessaire d’utiliser un échantillon de redshifts spectroscopiques que l’on divise en deux. Le premier sert à l’entraînement du programme, le second est utilisé pour vérifier les résultats.

(40)

Il y a trois conditions nécessaires pour justifier l’utilisation d’un réseau de neu-rones :

– les données utilisées pour l’étalonnage du programme doivent être des redshifts spectroscopiques.

– le sous-échantillon doit être représentatif de l’échantillon.

– les données doivent avoir été observées avec le même instrument et étalonnées exactement de la même façon.

La forêt d’arbres décisionnels est générée à partir de ré-échantillonnages succes-sifs, de type bootstrap, d’un jeu de données de référence afin d’obtenir un ensemble d’arbres de prédiction.

Ces arbres sont construits en divisant l’échantillon de référence en deux branches selon une liste de critères consécutifs (couleurs, magnitudes...). Les sous ensembles obtenus sont à nouveau divisés jusqu’à l’obtention d’un sous ensemble particu-lier (appellé feuille) lorsqu’un critère d’arrêt est rencontré. Ce critère d’arrêt peut être par exemple, une taille de feuille minimale. Pour une galaxie donnée, le ré-échantillonnage de ses paramètres est fait en perturbant les valeurs mesurées confor-mément à l’erreur sur chaque variable qui est supposée suivre une distribution nor-male.

Les prédictions de ces arbres sont ensuite combinées en une PDF(z) finale qui peut être utilisée pour estimer le redshift d’une galaxie ainsi que son erreur. La forêt d’arbres décisionnels est une méthode d’apprentissage automatique d’ensemble qui génère plusieurs arbres de prédiction puis, combine leurs prédictions de façon à obtenir une PDF(z) pour chaque galaxie, voir Carrasco Kind et Brunner (2013) pour plus de détails.

De façon générale les méthodes empiriques possèdent deux principaux désavan-tages :

– Elles sont spécifiques à un jeu de données.

– L’échantillon d’entraînement doit couvrir la même gamme de couleurs, red-shift, types que les objets cibles. Ce qui est très difficile à réaliser en pratique.

Bien que ces méthodes (modèles et empiriques) soient basées sur des concepts et des formalismes différents, leur rôle consiste à reproduire la relation existant entre l’espace photométrique - incluant brillances, positions, ellipticité... - et l’espace des redshifts, Figure 1.16. Dans le cas des redshifts photométriques, la reproduction de cette relation se base sur la corrélation entre les magnitudes mesurées et des SED ou des jeux de données servant à l’entrainement du programme.

(41)

Figure 1.16 – Schéma résumant et unifiant les différents types de redshift photométrique. De façon générale, il s’agit d’une méthode permettant de reproduire la relation existante entre l’espace photométriques - brillances, positions, ellipticité... - et l’espace des redshifts.

Cependant, la multitude de codes existants - BPZ (Benítez,2000), EASY (Brammer et collab., 2008), GALEV (Kotulla et collab., 2009), GOODZ (Dahlen et collab.,

2007, 2005), Hyperz (Bolzonella et collab., 2000), Le Phare (Arnouts et collab.,

1999;Ilbert et collab.,2006), LRT (Assef et collab.,2008,2010), ZEBRA (Feldmann et collab., 2006), ANNz (Collister et Lahav, 2004), BDT (Gerdes et collab., 2010) etc... - soulève la question de l’unicité de la réponse.

En effet selon la méthode utilisée, un même objet peut avoir des redshifts pho-tométriques différents. Ce point est développé dans l’analyse PHATz (Hildebrandt et collab., 2010) qui compare les résultats obtenus par de nombreux codes de red-shifts photométriques, Figure 1.17. La dispersion autour de la droite zp = zs ansi

que le taux de redshifts catastrophiques pour un même échantillon varient d’un code à l’autre. Ces différents estimateurs fournissent en fait des mesures différentes de la même quantité fondamentale : la PDF(z) d’une galaxie.

(42)

Figure 1.17 – Résultat d’une étude comparant différents codes de redshift photométrique réalisée parHildebrandt et collab.(2010). Le même échantillon de galaxies tests est utilisé lors de l’estimation du redshift pour chacun des codes. La dispersion autour de la droitezp= zsansi que le

taux de redshifts catastrophiques pour un même échantillon varient d’un code à l’autre. Les points rouges correspondent aux objets ayant une magnitude en bandeR≥ 24, les noirs correspondent à R≤ 24.

(43)

3

Un œil vers l’avenir

Le travail effectué durant cette thèse s’inscrit dans le cadre des relevés grands champs à venir dont l’objectif est, principalement, de percer les mystères de l’énergie sombre. Dans cette section je présente les relevés DES, LSST et Euclid qui sont assez proches. Chacun d’eux est décrit plus en détails ci-dessous.

3.1

Les futurs grands relevés et les sondes cosmiques

(i) DES : Dark Energy Survey

Ce sondage (The Dark Energy Survey Collaboration, 2005) vise à observer 5 000 deg2 dans les cinq bandes g, r, i, z, Y (iAB < 24.3) pour mesurer les distorsions

gravitationnelles, dériver les redshifts photométriques (Banerji et collab., 2008) et compter les amas de galaxies afin de contraindre l’équation d’état de l’énergie noire. Les observations sont effectuées au télescope de 4 m Blanco du Cerro Tololo Inter-American Observatory (CTIO ) situé à 2 207 métres au Chili où le seeing median est de 0.9 arcsec, Figure 1.18.

Figure 1.18 – Photo du télescope utilisé pour le Dark Energy Survey. Source : https://news.slac.stanford.edu.

(44)

(ii) LSST : Large Synoptic Survey Telescope

Le relevé (LSST Dark Energy Science Collaboration, 2012) observera 20 000 deg2 avec son miroir de 8.4 m. Il est prévu d’équiper la caméra, au champ de vue de 10 deg2, de six bandes photométriques u, g, r, i, z, Y (r <24.5). Le télescope se situera sur le Cerro Pachón, une montagne nord-Chilienne située à 2 680 mètres d’altitude où le seeing médian est de 0.67 arcsec.

(iii) Euclid

L’Agence Spatiale Européenne (ESA) a l’ambitieux projet (Laureijs et collab.,2011) de concevoir et lancer un satellite équipé d’un télescope de 4.5 mètres afin de réaliser un relevé profond de 40 deg2 (ABV IS = 26.5, ABY,J,H = 26.0), et un relevé large

de 15 000 deg2 (ABV IS = 24.5, ABY,J,H = 24.0) du ciel pour observer environ un

milliard de galaxies avec une très haute résolution, équivalente à celle du télescope spatial Hubble, Figure 1.19. Le satellite sera équipé d’un miroir de 1.2 m couvrant un champ de 0.5 deg2. Euclid sera doté de deux caméras, l’une de 600 millions de pixels (visible) et l’autre de 65 millions de pixels (proche IR). Ce projet est l’une des missions spatiales majeures des vingt prochaines années. Ses caractéristiques principales sont résumées dans la Table1.1.

(45)

Caractéristiques de la mission

Organisation ESA

Objectif scientifique principal Cosmologie et physique fondamentale : comprendre les propriétés et la nature de l’énergie sombre Date de lancement Q1 2020

Orbite Second point de Lagrange (L2) Durée de la mission 6.25 années

Masse totale 2 100 kg Charge utile 855 kg

Taille longueur 4.5 m, diamètre 3.1 m Télescope mirroir 1.2m Korsch Silicon Carbide Distance focale 24.5 m

Domaine de longueur d’onde couvert Visible (550-900 nm)

Infrarouge proche (900-2000 nm) Télémétrie 855 Gbit/jour

Mode d’observation Step and stare,

temps d’exposition jusqu’à 4 500 sec/champ Lanceur ESA/AE : Soyuz-Fregat

Site de lancement ESA/CSG : Kourou spaceport Satellite et module de service Thales Alenia Space

Payload module et télescope Airbus Defense and Space division Instruments Imageur visible (VIS)

Spectromètre et photomètre proche infrarouge (NISP) Taille des pixels 0.1 arcseconde (VIS) ; 0.3 arcsecond (NISP)

Champ de vue commun VIS et NISP 0.53 deg2

Filtres R, I et Z (VIS), Y, J et H (NISP) Couverture spectrale des grisms 1 "bleu" (920 nm - 1250 nm)

3 "rouge" (1250 nm - 1850 nm) Résolution des grisms 380 pour une source de 0.5 arcseconde Détecteurs CCD visible 36, 4096×4096 pixels

Détecteurs proche IR 16, 2048×2048 pixels

Relevé champ large 15 000 deg2, ABV IS = 24.5, ABY JH = 24.0

Relevé champ profond 40 deg2, AB

V IS = 26.5, ABY JH= 26.0

Sondes cosmologique principale Weak lensing, Galaxy Clustering Opération ESOC

Segment sol ESAC et Eucid Consortium

Table 1.1 – Table présentant les caractéristiques principales de la mission spatiale Euclid. Source : http://www.euclid-ec.org/?page_id=2540

(46)

Son objectif scientifique principal est de comprendre la source de l’accélération de l’expansion de l’Univers et de découvrir la véritable nature de ce que les physiciens et astrophysiciens appellent l’énergie sombre. Euclid soulèvera donc les questions sui-vantes : l’énergie sombre est-elle une constante cosmologique comme celle introduite par Einstein ? Correspond-elle à un nouveau champ évoluant de façon dynamique avec l’expansion de l’Univers ? Correspond-elle à une déviation des lois de la gravité et indique-t-elle les limites de la Relativité Générale ? Quelles sont la nature et les propriétés de la matière noire ? Quelles sont les conditions initiales qui ont mené à la formation des grandes structures de l’Univers ? Quelle sera l’évolution future de l’Univers dans les prochains 10 milliards d’années ?

Les empreintes de l’énergie sombre et de la gravité seront détectées à partir de leurs signatures sur le taux d’expansion de l’Univers et sur la croissance des struc-tures cosmiques à partir des effets de lentilles gravitationnelles faibles (Weak Lensing, WL) et des propriétés d’agglomération des galaxies via les oscillations acoustiques des baryons (BAOs) et la distorsion espace-redshift (RSD). Les BAOs permettent de sonder directement la relation distance-redshift afin d’explorer le taux d’expansion de l’Univers, alors que le WL est une sonde quasi directe de la matière noire mais combine les distances angulaires (qui sondent le taux d’expansion) et le contraste de densité massique (qui sonde le taux de croissance des structures et la gravité). Combinées ensemble ces trois sondes robustes et complémentaires permettent de sonder les effets de l’énergie sombre.

Ces observations seront complétées par des observations indépendantes venant également des données Euclid sur les amas de galaxies et l’effet Sachs-Wolfs Intégré. Ces observations permettront de vérifier les résultats obtenus à partir du WL, des BAOs et du RSD et permettront également de mieux comprendre et contrôler les erreurs systématiques.

Parallèlement à la science principale d’Euclid, le relevé large couvrant 15 000 deg2jusqu’à ABV IS = 24.5 et ABY JH = 24.0 détectera plusieurs milliards de galaxies

permettant l’emploi de sondes additionnelles et complémentaires au WL et aux amas de galaxies. De même, le champ profond de 40 deg2 allant jusqu’à ABV IS = 26.5 et ABY JH = 26.0 fournira un échantillon unique de plusieurs milliards de sources pour

l’astronomie stellaire et extragalactique.

Les relevés larges et profonds fourniront également de nombreuses cibles d’un grand intérêt pour ALMA JWST, E-ELT et TMT et seront en synergie avec LSST, GAIA, e-ROSITA ou encore SKA.

L’instrument visible d’Euclid (VIS) a pour rôle d’imager toutes les galaxies du relevé Euclid avec une très haute qualité d’image. Il sera utilisé pour mesurer les formes des galaxies afin d’en déduire les effets de lentilles gravitationnelles induits les grandes structures de l’Univers sur l’image des galaxies. Cela permettra de savoir de quelle façon la matière noire est distribuée ainsi que la façon dont cette distribution a évolué ces 10 derniers milliards d’années.

Le plan focal de VIS se compose d’une matrice de 6×6 4096×4096 e2v CCDs couvrant un champ de vue de 0.57 deg2 avec des pixels de 0.1". Il sera équipé d’un

(47)

filtre à bande large couvrant le domaine de longueur d’onde allant de 550 à 900 nm. L’instrument s’occupant de la spectrométrie et de la photométrie en infrarouge proche (NISP) a pour rôle de fournir la photométrie en infrarouge proche (de 1000 à 2000 nm) de toutes les galaxies également observées avec VIS ainsi que les spectres basse résolution en infrarouge proche et les redshifts de millions de galaxies. La pho-tométrie en infrarouge proche sera combinée avec les données de VIS pour l’obtention des redshifts photométriques.

Le plan focal de NISP se compose d’une matrice de 4×4 2048×2048 détecteurs Teledyne TIS H2RG couvrant un champ de vue de 0.53 deg2 partagé avec VIS avec une taille de pixels de 0.3". Le canal photométrique sera équipé de 3 filtres à bande larges (Y, J et H) couvrant le domaine de longueur d’onde allant de 1000 à 2000 nm. Le canal spectroscopique sera équipé de 4 grisms à basse résolution (R = 380) dans le proche infrarouge, 3 rouges allant de 1250 nm à 1850 nm et un bleu allant de 920 nm à 1250 nm.

Durant ses 6 ans d’opération la mission Euclid collectera plus de 500 000 images visibles (VIS) et infrarouges ( NISP imagerie et spectroscopie) correspondant à en-viron 1 Teraoctet de données par jour qui seront quotidiennement transférés sur Terre.

Les images spatiales d’Euclid seront complétées par des observations dans le vi-sible réalisées à partir de télescopes au sol couvrant la même région du ciel qu’Euclid pour l’obtention des redshifts photométriques. Le coût des observations sols, la mise à disposition de plusieurs télescopes pendant plusieurs centaines des nuits ainsi que les ressources humaines et matérielles nécessaires au traitement de ces données sont techniquement et opérationnellement des obstacles difficiles.

Environ 10 milliards de sources seront observés par Euclid parmis lesquelles plus d’un milliard seront utilisées pour l’étude de WL et environ 35 millions de spectres. La capacité d’observation unique d’Euclid en fait donc un outil de choix dans l’étude de l’Univers et promet des retombées dans la majorité des domaines de l’astrophysique.

(iv) Les sondes cosmiques

Le principal objectif de ces relevés est d’approfondir notre connaissance de l’accé-lération de l’expansion de l’Univers. Cette expansion accélérée peut s’expliquer de quatre façons différentes : l’existence d’une constante cosmologique, une nouvelle interaction s’exerçant à grande échelle, une modification des lois de la gravité telle que nous les connaissons actuellement, ou encore si nous vivons dans un univers inhomogène (Martin, 2012).

Afin de pouvoir mesurer l’équation d’état de l’énergie sombre et de pouvoir la distinguer des modèles de gravité modifiée, ces expériences combineront plusieurs sondes cosmiques comme : les supernovae de type Ia (SN), les oscillations acoustiques

Figure

Figure 1.2 – Hipparcos : mesure de la distance des étoiles avec une erreur &lt; 10%.
Figure 1.4 – Exemple d’une céphéide. Il s’agit d’un cliché de RS Puppis pris par le télescope spatial Hubble (HST).
Figure 1.11 – Spectre d’une galaxie de type précoce. Source : http://classic.sdss.org/
Figure 1.12 – Spectre d’une galaxie de type tardif. Source : http://classic.sdss.org/dr7/
+7

Références

Documents relatifs

Les résultats décrits dans le chapitre 6 portent sur l’étude de deux systèmes cimentaires ternaires à base de laitier de haut fourneau ou de laitier de

Loi DALO = Droit au logement opposable (2008) qui permet à une commission de médiation indépendante (comprenant des associations dans le domaine du logement

En plus de pouvoir personnaliser librement vos fenêtres (volets roulants, nombreux accessoires…) pour gagner en confort et en esthétique, vous avez un choix infini de couleurs

Comme les droites D et D’ ne sont pas parallèles, elles admettent un unique point d’intersection et le système admet une unique solution.. Le quadrilatère ACBE est un rectangle :

Ils sont ensuite émis sans vitesse par la source S, puis accélérés par un champ électrostatique uniforme qui règne entre S et P tel que.. U sp

Better estimates for the time between recombination and GF will have to wait for better astronomical SNe Ia data (or experiments of similar design) to overcome the insensitive nature

3 Space Telescope Science Institute 3700 San Martin Drive, Baltimore, MD 21218, U.S.A..

Une famille de solutions est, au signe près, a et b étant des entiers positifs ou négatifs :... C’est la solution en nombres non tous positifs obtenue en