• Aucun résultat trouvé

Radio-détection des rayons cosmiques d'ultra-haute énergie. Analyse, simulation et interprétation.

N/A
N/A
Protected

Academic year: 2021

Partager "Radio-détection des rayons cosmiques d'ultra-haute énergie. Analyse, simulation et interprétation."

Copied!
225
0
0

Texte intégral

(1)

HAL Id: tel-00815115

https://tel.archives-ouvertes.fr/tel-00815115

Submitted on 18 Apr 2013

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Vincent Marin

To cite this version:

Vincent Marin. Radio-détection des rayons cosmiques d’ultra-haute énergie. Analyse, simulation et interprétation.. Physique des Hautes Energies - Expérience [hep-ex]. Université de Nantes, 2011. Français. �tel-00815115�

(2)

UNIVERSITÉ DE NANTES

FACULTÉ DES SCIENCES ET TECHNIQUES

————-ÉCOLE DOCTORALE

MOLÉCULES, MATIÈRE ET MATÉRIAUX EN PAYS DE LOIRE (3MPL)

Année : 2013 N

attribué par la bibliothèque

Radio détection des rayons cosmiques

d’ultra haute énergie. Analyse, simulation

et interprétation.

THÈSE DE DOCTORAT Discipline : Physique Nucléaire

Spécialité : Astroparticules

Présentée

et soutenue publiquement par

Vincent MARIN

Le 20 décembre 2011, devant le jury ci-dessous

Présidente Nicole Meyer-Vernet, Directrice de recherches CNRS Rapporteurs M. Pierre Billoir, Professeur de l’Université Paris VI

M. Paolo Privitera, Professeur de University of Chicago Examinateurs Pascal Lautridou, Directeur de recherche CNRS

Benoît Revenu, Chargé de recherche CNRS Directeur de thèse : M. Pascal Lautridou

(3)
(4)
(5)
(6)
(7)
(8)

Remerciements

Voici venu pour moi le moment d’un exercice difficile, celui de la rédaction des traditionnels remer-ciements. Ce passage du manuscrit n’est pas évident car il s’agit de se parer de sa plus belle plume et bien évidemment de n’oublier personne... Au delà de l’expérience scientifique acquise durant ces trois années de doctorat, je retiendrai que la thèse, c’est aussi une histoire humaine qui dépasse le cadre de la science. Je vais ici tenter de rendre un hommage particulier à celles et ceux qui m’ont accompagné durant ces trois années.

Tout d’abord, je souhaite remercier chacun des membres de mon jury de thèse, pour avoir accepté ce rôle afin d’évaluer mon travail. Je remercie particulièrement Nicole Meyer-Vernet, pour avoir assuré la présidence du jury, Paolo Privitera et Pierre Billoir, pour s’être prêtés au jeu de rapporteur du manuscrit, ce qui a permis d’en améliorer le contenu.

Mon premier contact avec le groupe astro du laboratoire Subatech s’est réalisé quelques mois avant le début de cette thèse, avec la rencontre de Richard Dallier que je tiens à remercier très sincèrement pour m’avoir proposé ce sujet de thèse. N’ayant pas "officiellement" prêté son nom pour l’encadrement de ces trois années de travail, j’attribue à Richard le titre honorifique d’encadrant de cœur, puisqu’il a toujours été là, au-delà même des discussions scientifiques.

Je voudrais exprimer toute ma gratitude à Pascal Lautridou qui a accepté la direction de cette thèse. Je le remercie notamment pour nos discussions très franches lors de nos débats, m’obligeant à faire preuve de conviction et à éclaircir mon argumentation lorsque les idées qui ont pu fleurir durant cette thèse étaient encore à l’état de bourgeons.

C’est non sans émotion que je me tourne maintenant vers la personne qui m’a accompagné au jour le jour durant cette thèse : Benoît Revenu. J’aimerai lui adresser plus qu’un simple paragraphe d’hommage tellement l’interaction avec lui a été intense. Travailler avec Benoît a été (est) un réel plaisir, car il a su me laisser libre au moment où il le fallait, dans mes choix d’orientation particuliers qui n’étaient pas forcément gagnés par avance, tout en sachant s’y adapter et en me faisant une entière confiance. C’est donc grâce à lui que j’ai pu donner une couleur personnelle au sujet de thèse proposé initialement en créant l’outil de simulation SELFAS. Dans les phases de doutes, il a également su me redynamiser, apporter son expertise scientifique et technique et ce, toujours accompagné de cette fine dose d’humour absurde et capillo-tracté qui le caractérise quand on le connaît quelque peu et dont je suis féru1. Merci

Benoît.

Pour clore cet hommage à mes collègues de thématique, je voue une sincère reconnaissance à l’en-semble des membres du groupe astro pour m’avoir accueilli et donné du temps sans compter, pour avoir répondu à mes questions techniques ou scientifiques ou simplement pour avoir partagé de la bonne hu-meur, je pense notamment à Lilian, Arnaud, Didier, Jean-Luc, Olivier, Stephane, Louie-Marie, Yann, Hervé et Sylvain.

En tant que désormais vieux sage du bureau H125, je souhaite adresser un message de sympathie à tous mes collègues thésards de la première heure, en commençant par Éric avec qui j’ai partagé trois années de face à face quotidien, de joutes verbales, de blagues dont lui seul a le talent, de fourberies (Arnaud finira par nous pardonner, cela dit, restons vigilants). Je dois bien l’avouer, son départ vers des contrées retirées a créé un vide abyssal, qu’il sera difficile de combler. Si vous êtes connaisseurs et que vous prêtez l’oreille, il est possible d’entendre dans le couloir du premier étage du bâtiment H de Subatech, plus particulièrement dans une zone localisée entre le bureau H117 et le bureau H125, raisonner des rires provoqués par une histoire de pingouin qui avait bien du mal à respirer. Ha, j’allais oublier, maintenant je peux te le dire, Eric, tu avais une banane sur ton fauteuil. Je continuerai mon périple en nommant Van Minh, collègue de bureau dont j’ai vu la masse musculaire augmenter de jour en jour, Thibault avec qui j’ai partagé le même sujet, de la bière et quelques missions dans la pampa 1. Je voudrais tout de même lui signaler qu’étant moi même pratiquant de ce type d’humour, avec certes moins de talent, je ne suis pas un échantillon très représentatif de l’ensemble du public. Il s’agira donc de se modérer pour éviter la déception face à un public mal choisi.

(9)

de Nançay et d’Argentine, Tugdual, Rudy, Sébastien, Hamza pour nos échanges Mathematica, Thomas, Sarah, Ludivine, Samuel, Jérôme, Mickaël. Je souhaite aux thésards les plus jeunes bien du succès dans leur réalisation, du courage pour ceux qui écrivent, c’est une période très difficile, je pense notamment à Ahmed, collègue de bureau et de sujet, qui est dans sa dernière ligne droite ainsi qu’à Jean-Baptiste, puis viendra le tour de Diego notre astro-brésilo-guitariste (à quand le boeuf ?) et enfin à ceux qui ont encore un peu plus de temps devant eux (mais méfiez-vous cela viens très vite...), Jennifer dernière recrue du groupe astro, Zak en organisateur tout trouvé pour le basket, Charlotte en lieu et place d’Éric (Éric, je tacherai de faire respecter ta mémoire), Guillaume.

Le laboratoire ne serait rien sans cette vie extra-scientifique, particulièrement trépidante au premier étage du H, je remercie tous les acteurs de cette belle pièce burlesque : Nico, Beubeu, Arnaud B, Arnaud G avec qui je suis très fier d’avoir remporté à deux reprises le trophée pétanque de la Mine’s Cup, Eric, Fred, Lilian, Richard, Bam, Thomas, tous les adeptes du green que je n’ai pu connaître que virtuellement. Je remercie également Pol-Bernard pour m’avoir permis de me frotter aux joies de l’enseignement durant ces trois années de thèse ; je salue au passage Carl et Fred de l’équipe d’encadrants MSE de l’École des Mines. Je garde un très bon souvenir du contact avec les étudiants et j’espère sincèrement renouveler cette expérience.

La fin de thèse est un instant difficile où l’on se retrouve rapidement seul face à soi même, croulant sous des lignes d’écriture qui finissent par n’avoir aucun sens aux heures les plus tardives. Lorsque la seule porte ouverte de ce bâtiment H est la votre, il est temps de rentrer. Remontant du fin fond de cet interminable couloir pour retrouver la civilisation, je jette un dernier regard à gauche, à droite, à gauche, à droite, à gauche, ... cherchant désespérément âme qui vive et suivant le décompte H125, H124, H123, H122... compteur m’indiquant que je dois bientôt me préparer à refaire surface. C’est à cet instant que je rejoins la civilisation, en ralliant mon second bureau des heures tardives, ce bistrot de quartier des temps modernes, le kebab du boulevard du Petit Port. Je suis très reconnaissant pour l’hospitalité offerte par Fatih, me réservant toujours la même table pour continuer de travailler jusqu’à la fermeture et me permettant ainsi d’éviter la solitude de l’écriture. Je garde un souvenir indélébile de cette soirée organisée pour fêter la fin de thèse avec le saz, le duduk (avec lequel je dois encore travailler) et les chants traditionnels. Merci à toi Fatih, merci aussi à Zeki, Mickaël, Manon, Ali Kemal, "Christophe", Marco pour ces soirées débat/cours portant sur l’histoire et la géographie, la politique, l’économie, le sport, les sciences...

J’adresse à Gwen, mon ami de très longue date, présent pour moi sur bien des terrains, une reconnais-sance indéfectible pour son talent incomparable de dérideur de front plissé lors de morosité momentanée, pour m’avoir écouté d’une oreille néophyte mais très attentive et patiente, et pour m’avoir permis la mu-sique et la scène là où d’autres m’en ont privé.

Je tiens par dessus tout à rendre un hommage absolu à mes parents pour m’avoir soutenu durant ces longues années d’études et pour m’avoir permis un tel projet de vie. Leur soutien aura été permanent, même durant des périodes plus artistiques que scientifiques.

La qualité du pot de thèse organisé à l’issue de la soutenance était fabuleux, merci Maman, merci Papa, d’avoir su gérer le stress lié à la terrine aux marrons et au cake au foie gras, terrine et cake pour lesquels Arnaud G., fin gourmet du couloir, a tenu à en féliciter l’auteur. Je me joins donc à lui pour te féliciter Chantal.

J’adresse également toute mon affection à ma famille, présente en grande partie le jour de la soute-nance, ainsi qu’une partie de la belle-famille, ceci m’a vraiment fait très chaud au coeur, certains m’on dit vouloir venir mais ne pas pouvoir, pas d’inquiétude, vous étiez bien représentés et vous aurez le manuscrit pour vous rattraper... Merci Mémé pour avoir mis un cierge à brûler !

Enfin, il est une personne que je n’ai pas encore citée, qui m’a épaulé amoureusement durant ces travaux, qui a supporté les variations chaotiques de mes humeurs en partageant mes peines et mes joies et qui m’a simplement donné une raison de persévérer. Merci Klervi.

(10)

Table des matières

Introduction 13

1 Ciel ! On nous bombarde ! 17

1.1 Illusion cosmique ? . . . 18

1.1.1 Ondes et corpuscules, science de l’invisible . . . 18

1.1.2 Découverte des rayons cosmiques . . . 30

1.1.3 Physique des particules : rayons cosmiques sources d’avancées . . . 33

1.2 Un siècle de recherche : interprétations . . . 37

1.2.1 De 1945 à nos jours. Questions d’astrophysique. . . 37

1.2.2 Retour à la physique des particules : les gerbes atmosphériques et leurs princi-pales caractéristiques . . . 45

1.2.3 Théorie et simulation des gerbes . . . 50

1.3 Les techniques de détection . . . 52

1.3.1 Les réseaux de détecteurs de particules. Principes communs . . . 52

1.3.2 La détection par fluorescence . . . 54

1.3.3 L’observatoire Pierre Auger . . . 55

1.3.4 Les autres types de détection . . . 59

1.4 Emission radio des gerbes atmosphériques . . . 60

1.4.1 La découverte du rayonnement Cerenkov . . . 60

1.4.2 Cherenkov et gerbe atmosphérique . . . 60

1.4.3 Du visible à la radio. Phénomène de cohérence et excès de charge . . . 61

1.4.4 Effet géomagnétique . . . 62

1.4.5 Prémices de la détection radio autonome des gerbes cosmiques . . . 65

1.4.6 Vers un renouveau de la radio détection. . . 67

2 CODALEMA & RAuger 69 2.1 La radio détection aujourd’hui . . . 70

2.1.1 Enjeux et motivation . . . 70

2.1.2 Quelques expériences de détection radio actuelles . . . 70

2.2 CODALEMA, un site idéal : l’observatoire de Nançay . . . 74

2.2.1 L’observatoire . . . 74

2.2.2 CODALEMA-I . . . 75

2.3 CODALEMA-II : Vous avez dit pôle ? . . . 78

2.3.1 L’antenne dipôle . . . 78

2.3.2 Le réseau d’antennes CODALEMA-II . . . 79

2.3.3 Le réseau déclencheur : le détecteur de particules CODALEMA-II . . . 80

2.3.4 Analyse des données scintillateurs, référence pour la radio . . . 81

2.3.5 Premiers résultats CODALEMA-II, premières interprétations . . . 84

2.4 Détection radio autonome : RAuger . . . 91

2.4.1 RAuger-I, démonstration réussie . . . 91

2.4.2 RAuger-I, le détecteur et son environnement. . . 97

2.4.3 RAuger-I, bilan . . . 106

2.5 Et la chenille devint papillon . . . 106

2.5.1 Description du nouveau système . . . 107

2.5.2 Carte MATACQ . . . 110

2.5.3 Les deux sites et les premières données nouvelle génération . . . 115

2.6 Conclusion . . . 119

(11)

3 Nouvel outil de simulation radio : SELFAS 121

3.1 Simulation de l’émission radio dans le domaine du MHz . . . 122

3.1.1 Les première approches . . . 122

3.1.2 Les approches modernes . . . 122

3.1.3 La discorde monopolaire-bipolaire . . . 125

3.2 Retour aux sources . . . 131

3.2.1 Champ électrique d’une source ponctuelle avec un temps de vie fini . . . 131

3.2.2 Champ électrique d’un ensemble de charges . . . 133

3.3 SELFAS2 . . . 134

3.3.1 Génération de la gerbe, profil longitudinal, universalité . . . 134

3.3.2 Caractéristiques géométriques des gerbes : conditions initiales des particules . . 136

3.3.3 Propagation des particules et calcul du champ électrique . . . 138

3.3.4 Algorithme général et utilisation de SELFAS2 . . . 139

3.4 Discussion autour d’un premier exemple . . . 140

3.4.1 Stabilité numérique . . . 141

3.4.2 Résultats . . . 142

3.4.3 Courant transverse vs excès de charge . . . 144

3.4.4 Influence du filtrage numérique sur la forme du profil latéral . . . 144

3.4.5 Comparaison entre SELFAS2, REAS3 et MGMR . . . 146

3.4.6 Modification de ReAires : ReAires2 vs SELFAS2 . . . 147

3.5 Vers une prédiction de carte du ciel pour la configuration CODALEMA . . . 149

3.5.1 Influence de la direction d’arrivée sur le signal radio émis par la gerbe . . . 149

3.5.2 Interprétation de la dépendance de ∆θmaxà la distance au cœur . . . 150

3.5.3 Prédiction de carte du ciel pour la configuration CODALEMA . . . 153

3.6 Conclusion . . . 156

4 Interprétations des données expérimentales 159 4.1 Préambule . . . 160

4.2 Échantillon de données expérimentales . . . 160

4.3 La radio, un estimateur de l’énergie du primaire autonome . . . 161

4.3.1 Dépendance du signal à l’énergie du primaire . . . 161

4.3.2 Estimation de l’énergie du primaire via la mesure radio et SELFAS2 . . . 164

4.3.3 Reconstruction en énergie : profil gaussien ou exponentiel ? . . . 169

4.3.4 Discussion . . . 173

4.4 Signature de l’excès de charge dans les données CODALEMA-II . . . 173

4.4.1 SELFAS2 : influence de l’excès de charge . . . 174

4.4.2 SELFAS2 : reconstruction de la position du cœur radio . . . 177

4.4.3 SELFAS2 : prédiction du décalage de cœur radio pour la statistique de CODA-LEMA . . . 183

4.4.4 SELFAS2 : dépendance du décalage de cœur à la direction d’arrivée pour la statistique de CODALEMA . . . 184

4.4.5 CODALEMA : décalage de cœur expérimental, confrontation . . . 187

4.4.6 Bilan . . . 189

4.5 Profil longitudinal radio, vers la nature du primaire ? . . . 190

4.5.1 Préambule . . . 190

4.5.2 Le profil latéral radio, image d’un instant du développement des gerbes . . . 190

4.5.3 Reconstruction du maximum d’émission : application à la simulation SELFAS2 . 193 4.5.4 Reconstruction du maximum d’émission : application aux données expérimentales199 4.6 Conclusion . . . 200

Conclusion 203

(12)

TABLE DES MATIÈRES 11

B Radiation d’une charge ponctuelle 209

B.1 Équations de Maxwell . . . 209

B.1.1 Retour aux bases . . . 209

B.1.2 Solutions retardées pour Φ, AAAet EEE . . . 210

B.2 Solutions retardées . . . 212

B.2.1 Potentiels de Liénard-Wiecher . . . 212

B.2.2 Expression de Heaviside-Feynman pour le champ électrique émis par une charge ponctuelle avec un temps de vie fini . . . 213

(13)
(14)

Introduction

Cent ans après sa découverte en 1912 par Victor Hess, le rayonnement cosmique d’ultra-haute éner-gie reste un des sujets au centre des grandes interrogations de l’astrophysique. Ce flux de particules qui bombardent la terre apparaît aujourd’hui comme un messager pouvant apporter des éléments réponses aux questions fondamentales des sciences de l’univers, car le flux de rayons cosmiques porte les stig-mates de son origine et de son parcours à travers le milieu interstellaire jusqu’à son observation sur Terre. L’étude des rayons cosmiques touche des sujets très variés et les différents domaines sont très souvent interconnectés les uns avec les autres car les sources, les mécanismes d’accélération et la nature du rayon-nement cosmique sont liés. Différents modèles sont proposés pour expliquer les caractéristiques du flux du rayonnement cosmique observé sur terre. Grâce aux observations de cette dernière décennie, la plu-part des modèles interprètent aujourd’hui le rayonnement cosmique comme étant des plu-particules chargées (protons ou noyaux) accélérées dans des phénomènes astrophysiques violents : noyaux actifs de galaxie, supernovae, sursauts gamma ou encore par interaction avec des champs magnétiques interstellaires lors de leur propagation dans l’univers. Cependant, la nature du rayonnement cosmique d’ultra-haute énergie observé sur terre reste encore trop méconnue. Son identification est une étape cruciale pour interpréter au mieux l’origine du rayonnement cosmique en contraignant les modèles théoriques.

Lorsque les particules du rayonnement cosmique heurtent les particules composant l’atmosphère, la collision peut atteindre des énergies dans le centre de masse huit cent fois supérieure aux énergies reproduites en laboratoire avec notamment le "Large Hadron Collider". Au-delà de l’intérêt purement astrophysique, le rayonnement cosmique d’ultra-haute énergie constitue donc une source de particules de très hautes énergie dont l’étude pourrait permettre de répondre également à des questions spécifiques à la physique des particules en contraignant les modèles d’interaction de particules à des énergies non reproduites en laboratoire.

Plus l’énergie des particules est grande, plus le flux du rayonnement cosmique devient faible : à 1017 eV le flux est de l’ordre d’une particule par km2 par jour pour atteindre à 1020 eV un flux de

l’ordre d’une particule par km2 par siècle. Pour pallier à ce faible flux, les techniques de détections

des rayons cosmiques utilisent l’atmosphère terrestre comme un immense calorimètre. En effet, compte tenu du faible nombre d’évènements observables par unité de temps et de surface, il est tout simplement impossible de détecter la particule primaire directement, son observation est indirecte : c’est la gerbe de particules secondaires engendrée dans l’atmosphère qui est détectée soit lorsqu’elle arrive au sol avec des détecteurs de surface qui "comptent" les particules au sol, soit à l’aide de télescopes détectant la lumière de fluorescence émise par l’azote de l’atmosphère lors du passage de la gerbe. Actuellement deux expériences utilisent ces deux techniques de détection : le Telescope Array aux États-Unis, couvrant une surface au sol de 700 km2et l’observatoire Pierre Auger en Argentine couvrant une surface au sol de

3000 km2. L’intérêt pour l’étude du rayonnement cosmique aux énergies les plus hautes, allié à la faible

statistique à ces énergies, conduit à déployer des surfaces de réseaux de détecteurs toujours plus grandes. Dans ce cadre, le coût des infrastructures est évidemment un des principaux facteurs limitants.

Initialement suggéré en 1962 par Askaryan, il est montré expérimentalement en 1964 à Jodrell Bank que les gerbes atmosphériques de particules initiées par des particules issues du rayonnement cosmique sont détectables dans le domaine radio, autour de 44 MHz. Suite à cette découverte, de nombreuses ex-périences de radio-détection des grandes gerbes cosmiques ont vu le jour et il est finalement proposé par Khan et Lerche en 1966 que le champ électrique radio émis par les gerbes est lié à l’effet du champ magnétique terrestre sur les particules de la gerbe. Cependant, à partir des années 70, cette technique de détection a progressivement été abandonnée au profit du développement des télescopes de fluorescence et des détecteurs de particules au sol. Avec le déploiement de réseaux de surface toujours plus grands et plus onéreux pour caractériser le flux de particules aux plus hautes énergies (au-delà de 1019eV), la

détection radio des gerbes a finalement de nouveau été suggérée à partir des années 2000 comme po-tentielle technique alternative. Depuis les années 70, les progrès technologiques et le développement du traitement numérique du signal ont permis d’envisager à nouveau l’étude du principe de détection radio des gerbes atmosphériques. Au début des années 2000, deux démonstrateurs ont ainsi vu le jour : l’expé-rience LOPES, sur le site de l’institut de technologie de Karlsruhe (KIT) en Allemagne et l’expél’expé-rience CODALEMA sur le site de l’observatoire de radioastronomie de Nançay en France.

(15)

Grâce à une première phase du démonstrateur CODALEMA (entre 2002 et 2005), il a été possible d’obtenir les premières caractérisations du signal radio mesuré au sol ainsi qu’une première estimation du seuil en énergie de détection radio. La caractérisation du signal radio avec CODALEMA-I a permis une évolution majeure et la création d’une antenne plus adaptée qui a donné naissance à la phase 2 de CODALEMA (depuis 2005). Cette seconde phase du démonstrateur, toujours en opération à l’heure actuelle, a permis de confirmer de manière non-ambigüe la dépendance du champ électrique radio émis par les gerbes au champ magnétique terrestre. Cette dépendance s’explique aujourd’hui par la déviation systématique des particules chargées de la gerbes (principalement les électrons et les positrons) sous l’influence de la force de Lorentz causée par la présence du champ géomagnétique. Grâce à l’utilisation d’un réseau de détecteur de particules couplé au réseau d’antennes CODALEMA-II, il a été mis en évidence pour la première fois de manière non-ambiguë une corrélation entre le champ électrique radio des gerbes mesuré au sol et l’énergie des gerbes estimée par le réseau de scintillateurs.

Parallèlement aux études menées sur la caractérisation des observables radio des gerbes, des déve-loppements techniques sont aussi réalisés pour envisager la détection radio des gerbes avec des détecteurs radio autonomes, c’est à dire capables de se déclencher sans l’aide extérieure d’un autre mode de détec-tion, notamment les détecteurs de particules au sol. Dans l’optique de futurs réseaux géants de détecteurs de gerbes cosmiques d’ultra-haute énergie, la détection radio autonome est un enjeu important car le coût d’un détecteur radio est relativement faible (moins de 3000 C) par rapport à des détecteurs de particules (scintillateurs ou cuves Cerenkov) ce qui est un avantage certain pour équiper de grandes surfaces de dé-tecteurs. Une première version de station autonome radio a par conséquent été développée par l’équipe de CODALEMA et testée sur le site de l’expérience Auger (expérience RAuger-I). Avec le succès de cette première expérience de détection autonome, une nouvelle version de station a récemment été mise au point par l’équipe de CODALEMA. Trois de ces nouvelles stations autonomes sont actuellement en acquisition sur le site de l’expérience Auger (RAuger-II). Les premiers résultats montrent une nette amé-lioration de l’efficacité de détection par rapport à l’ancien prototype de station autonome. Depuis 2011, cette nouvelle version de détecteur radio autonome est en cours d’installation sur le site de l’observatoire de Nançay, constituant ainsi la troisième phase de l’expérience CODALEMA.

Avec les résultats obtenus par les expériences de détection radio des gerbes, notamment CODA-LEMA et RAuger, la démonstration de la technique est maintenant clairement établie. Les enjeux de la détection radio se portent désormais sur la capacité à estimer les caractéristiques des gerbes en particulier l’énergie et nature de la particule primaire. C’est dans ce contexte que s’inscrit le travail présenté dans cette thèse.

Dans le premier chapitre de cette thèse nous proposons de retracer le cheminement historique des concepts de physique conduisant naturellement vers la physique des particules et la découverte du rayon-nement cosmique au début du 20e siècle. Puis, après plus d’un demi-siècle d’observations et

d’expé-riences dédiées à la détection des rayons cosmiques, nous présenterons les interprétations modernes du rayonnement cosmique ainsi que les principaux modes de détection actuels des rayons cosmiques d’ultra-haute énergie. Pour terminer ce premier chapitre et ouvrir sur le sujet de cette thèse, nous présenterons les premières expériences de détection radio des rayons cosmiques développées conjointement aux autres modes de détection à la fin des années 60 ainsi que les premières interprétations de l’émission radio des gerbes atmosphériques.

Prenant appui sur une brève description des approches contemporaines de détection radio, le second chapitre sera dédié aux expériences CODALEMA et RAuger. Nous présenterons dans un premier temps l’expérience CODALEMA-I&II et les premiers résultats physiques obtenus. Nous décrirons ensuite l’ex-périence RAuger pour laquelle nous dresserons un bilan en tant que première exl’ex-périence de détection radio autonome des gerbes. Nous présenterons notamment les résultats physiques obtenus ainsi qu’une étude du comportement des stations en fonction de leur environnement. Avec la phase II de l’expérience RAuger mise en place durant cette thèse, nous présenterons la nouvelle station autonome et les pre-miers résultats de physique obtenus. Lors de la présentation de cette nouvelle station de radio-détection, nous reviendrons notamment sur une tentative de calibration temporelle de l’échantillonneur numérique permettant de stocker les traces temporelles des évènements radio.

(16)

TABLE DES MATIÈRES 15

émis par les gerbes : SELFAS (Simulation of ELectric Field emitted by Air Showers). Pour introduire la création du code SELFAS, nous reviendrons sur les différents modèles contemporains d’émission radio des gerbes en s’arrêtant particulièrement sur le désaccord entre les approches dites "macroscopiques" et "microscopiques". Pour expliquer ce désaccord, nous nous appuierons sur les équations de Maxwell appliquées à une charge ponctuelle en mouvement relativiste et nous proposerons une nouvelle équa-tion du champ électrique qui sera utilisée dans SELFAS. Après une descripéqua-tion détaillée du principe de SELFAS, les premiers résultats nous permettrons de décrire les mécanismes en jeu dans l’émission radio des gerbes et nous proposerons une première estimation de prédiction de carte du ciel des évènements observés en radio pour l’expérience CODALEMA.

Enfin, le dernier chapitre de cette thèse sera consacré à de nouvelles interprétations des mesures expérimentales en utilisant les données de l’expérience CODALEMA-II. Nous montrerons dans un pre-mier temps qu’il est possible d’estimer l’énergie des particules primaires initiatrices des gerbes atmo-sphériques en couplant les données expérimentales de mesures de champ radio au sol avec le code de simulation SELFAS. Cette méthode permet de faire de la radio un estimateur autonome de l’énergie du primaire, sans avoir recours à une calibration sur un autre type de détecteur. Dans un second temps, nous mettrons pour la première fois en évidence la signature expérimentale de la contribution secondaire au champ électrique due à l’excès de charges négatives dans les gerbes atmosphériques en s’appuyant sur une nouvelle observable suggérée par le code de simulation SELFAS. Puis, en vue de contraindre la nature du primaire avec la mesure radio, nous terminerons cette thèse en proposant une nouvelle in-terprétation du profil latéral du champ électrique radio mesuré au sol, permettant d’estimer un instant d’émission radio maximum durant le développement de la gerbe dans l’atmosphère.

(17)
(18)

1

Ciel ! On nous bombarde !

Plan

1.1 Illusion cosmique ? . . . 18

1.1.1 Ondes et corpuscules, science de l’invisible . . . 18

1.1.2 Découverte des rayons cosmiques . . . 30

1.1.3 Physique des particules : rayons cosmiques sources d’avancées . . . . 33

1.2 Un siècle de recherche : interprétations . . . 37

1.2.1 De 1945 à nos jours. Questions d’astrophysique. . . 37

1.2.2 Retour à la physique des particules : les gerbes atmosphériques et leurs principales caractéristiques . . . 45

1.2.3 Théorie et simulation des gerbes . . . 50

1.3 Les techniques de détection . . . 52

1.3.1 Les réseaux de détecteurs de particules. Principes communs . . . 52

1.3.2 La détection par fluorescence . . . 54

1.3.3 L’observatoire Pierre Auger . . . 55

1.3.4 Les autres types de détection . . . 59

1.4 Emission radio des gerbes atmosphériques . . . 60

1.4.1 La découverte du rayonnement Cerenkov . . . 60

1.4.2 Cherenkov et gerbe atmosphérique . . . 60

1.4.3 Du visible à la radio. Phénomène de cohérence et excès de charge . . 61

1.4.4 Effet géomagnétique . . . 62

1.4.5 Prémices de la détection radio autonome des gerbes cosmiques . . . . 65

1.4.6 Vers un renouveau de la radio détection. . . 67

(19)

FIGURE1.1 –Timbre dessiné par Charles Mazelin et gravé par Jacques Combet, émis le 20 mai 1961. A la droite de Charles-Augustin de Coulomb, on peut voir le pendule de torsion de Coulomb.

1.1 Illusion cosmique ?

Le vecteur de l’information entre la particule cosmique incidente et notre détecteur, n’est autre que l’onde électromagnétique. La compréhension du mécanisme à la base de sa création est primordiale. Une partie importante du travail réalisé dans le cadre de cette thèse est dédiée à la création d’un outil de simulation de l’onde radio générée par les grandes gerbes de particules. La physique des particules et l’électrodynamique classique sont les ingrédients de la radio-détection des rayons cosmiques et a fortiori, de cette thèse. J’ai par conséquent souhaité, pour débuter ce manuscrit, retracer l’histoire de l’électromagnétisme et des constituants de la matière, chemin naturel vers la découverte des rayons cosmiques.

1.1.1 Ondes et corpuscules, science de l’invisible

Les prémices de l’électromagnétisme, prémices des cosmiques

Aux alentours de 1785, le français Charles-Augustin de Coulomb (1736 - 1806) réalise une série d’expériences grâce à un dispositif nommé balance de torsion de Coulomb (voir Fig.1.1), afin d’établir une loi fondamentale décrivant l’interaction électrostatique entre deux corps chargés. Il montre que la force électrostatique qui lie les deux corps chargés entre eux est proportionnelle à chacune des deux charges électriques et inversement proportionnelle au carré de la distance entre ces deux charges :

Fe= kq1q2

r2 (1.1)

L’unité de cette force électrostatique Feétant le Newton et r la distance séparant les deux corps, le mètre,

il sera établi plus tard (en 1892) par Oliver Heaviside que k = 9.0 109N.m²/C2 dans le vide avec q 1et

q2exprimés en Coulomb, noté C. Lors de ses travaux sur l’électricité et le magnétisme, décrits dans sa

célèbre série de sept mémoires (1785-1791), Charles-Augustin de Coulomb remarque que les sphères chargées de sa balance de torsion perdent peu à peu leur charge électrique initiale. Pour expliquer ce résultat surprenant, il suggère que, vraisemblablement, d’autre corps chargés doivent heurter les sphères de sa balance de torsion. L’air environnant dans lequel il réalise ses expériences, contiendrait donc des corps chargés électriquement ; mais pourtant, les molécules composant cet air sont neutres... Qui peut donc créer des charges, ou bien ioniser ces molécules ? Cette question restera sans réponse jusqu’en 1900, nous y reviendrons. Les travaux de Charles-Augustin de Coulomb portant sur l’électricité et le

(20)

1.1. ILLUSION COSMIQUE ? 19

FIGURE1.2 –Gauche : timbre émis le 3 août 1970 pour commémorer le 150eanniversaire de la découverte

de l’électromagnétisme. On y voit une aiguille d’Oersted et le circuit électrique qui influence la direction de l’aiguille. Droite : portrait de Hans-Christian Oersted. Timbre émis en 1951 pour le centenaire de sa mort.

magnétisme marquent une étape majeure de l’histoire de ces deux sciences. Sans le savoir, il aura établi la première interaction scientifique avec le rayonnement cosmique.

Suite à ces travaux, beaucoup de physiciens et de mathématiciens s’intéressent à la théorie de l’en-semble des phénomènes électrostatiques, Joseph Louis Lagrange (1736-1813), Pierre Simon de Laplace (1749-1827), Carl Friedrich Gauss (1777-1785), Simon Denis Poisson (1781-1840), Michael Faraday (1791-1867) pour ne citer que les plus illustres. De nouveaux concepts sont développés tels que le champ électrique, les distributions de charge, le potentiel électrostatique ou l’énergie électrique. À l’instar de la théorie de la gravitation universelle de Newton, l’électricité ou l’électrostatique, est mise en équations de manière rigoureuse et puissante. Durant cette même période, une invention marque le début d’une ère d’intenses expérimentations sur l’électricité : la pile électrique (1800). Luigi Galvani (1737-1798) et Alessandro Volta (1745-1827) réalisent que tout ensemble constitué de deux métaux différents (élec-trodes) séparés par un milieu conducteur humide (électrolytes) génère une énergie électrique. Par rapport aux machines électrostatiques qui ne génèrent que des décharges électriques éphémères, la pile électrique est capable de fournir de l’électricité en continu (jusqu’à épuisement des électrolytes). Jusque-là, les phé-nomènes électriques et magnétiques n’ont a priori aucun lien entre eux, même si d’aucuns évoquent que sous l’effet de la foudre, les boussoles changeaient de direction...

Au printemps, 1820, alors qu’il donne un cours sur l’électricité à ses étudiants, Hans-Christian Oers-ted (1777-1851, voir Fig.1.2) fait une découverte capitale. L’histoire raconte que lors de la présentation d’une expérience sur l’électricité, il s’aperçoit que l’aiguille d’une boussole située à côté de son expé-rience, dévie de son axe anormalement. Suite à cette observation, il conclut que les "effluves électriques" de son circuit perturbent la boussole en la faisant dévier de sa direction initiale. Selon Oersted, un phéno-mène électrique est capable d’influencer voire de créer un phénophéno-mène magnétique. Peu de scientifiques vont adhérer à cette conclusion, seuls François Arago (1786-1853) et André-Marie Ampère (1775-1836, voir Fig.1.3) en comprendront l’importance. Pour expliquer ce phénomène, Ampère fera appel à la notion de courant électrique, décrivant l’électricité en mouvement et inventera le galvanomètre capable de me-surer son intensité. Ce galvanomètre deviendra un ampèremètre mesurant une intensité en... Ampère. Le premier théorème mathématique reliant un phénomène électrique avec un phénomène magnétique sera proposé par Ampère utilisant la notion de champ : la circulation, le long d’un circuit fermé, du champ magnétique engendré par une distribution de courant, est égale à la somme algébrique des courants qui traversent la surface définie par le circuit orienté, multipliée par la perméabilité du vide. Ce qui donne :

I

CBBB.dℓℓℓ = µ0

Itraversant (1.2)

où BBBest le champ magnétique, ℓℓℓ le déplacement le long du contour fermé noté C, µ0la perméabilité du

(21)

FIGURE1.3 –Gauche : timbre émis en 1936 pour commémorer le 100eanniversaire de la mort de André-Marie

Ampère. Droite : timbre émis en Mars 1991 au Royaume-Uni pour le bicentenaire de la naissance de Michael Faraday.

Michael Faraday (1791-1867, voir Fig.1.3) découvre qu’une variation de champ magnétique à travers une surface fermée engendre une force électromotrice ou tension électrique. Ce phénomène est décrit sous forme mathématique en 1934 par Heinrich Lenz (1804-1865) par la loi :

ε = −dΦ

dt (1.3)

où ε représente la force électromotrice créée par la variation temporelle du flux magnétique dΦdt. Le signe moins provient du fait que l’induction produit des effets qui s’opposent à leurs causes. Suite à ces découvertes, le physicien anglais Peter Barlow (1776-1862) réalisera en 1828, le premier moteur électrique. Un disque conducteur soumis à une tension électrique (via la pile électrique de Galvani et Volta...) et placé dans un champ magnétique subit une force électromotrice qui va entraîner la rotation du disque. Cette étape dans l’histoire des sciences est une révolution : un générateur de tension peut mettre en mouvement un objet.

Champ du crépuscule. Prélude de l’unification des lois de la physique

La question de l’action instantanée à distance, suscite chez Faraday un problème de taille. L’inter-action entre deux corps décrite jusqu’à présent ne tient pas compte du milieu qui les sépare, or pour Faraday, cette interaction doit se propager de "proche en proche", à travers le milieu et donc dépendre de sa nature. Il ne parviendra pas à traduire son intuition mathématiquement de manière rigoureuse. Il faudra attendre quelques années et James Clerk Maxwell (1831-1879, voir Fig.1.4 à gauche) pour déve-lopper une formulation mathématique sur les travaux de Faraday. En prenant modèle sur les équations aux dérivées partielles développées par le français Joseph Fourier pour décrire la propagation de la cha-leur (début 19e), Maxwell développe un système d’équations différentielles qui permet de décrire l’état

d’un point quelconque de l’espace sous l’influence d’une charge électrique fixe ou en mouvement. L’in-teraction magnétique et électrique qui se propagent de proche en proche selon l’intuition de Faraday est finalement décrite par Maxwell par un système de neuf équations aux dérivées partielles qu’il présentera à la Royal Society en 1864 [1, 2, 3]. Le concept de champ électromagnétique est né. Grâce à ce système d’équations, Maxwell tente d’estimer la vitesse de propagation de l’interaction électrique et magnétique. Il obtient une valeur si grande que ce phénomène n’aurait pas pu être mesuré jusqu’ici. Il fait alors un lien avec un phénomène a priori fort différent, celui de la propagation de la lumière. Mais il n’ira pas jus-qu’à considérer la lumière comme un phénomène électromagnétique. Une question fondamentale reste en suspend : Maxwell finit par conclure que cette "propagation" provient de la vibration du milieu, mais quel est ce subtil éther insaisissable ? Malheureusement Maxwell meurt en 1879 sans connaître le succès retentissant de la théorie qui marque les premiers pas de l’unification des lois de la physique.

(22)

1.1. ILLUSION COSMIQUE ? 21

FIGURE1.4 –Gauche : James Clerk Maxwell, timbre italien émis en 1991 pour le centième anniversaire de la radio. L’équation sur le timbre fait référence à la quatrième équation de Maxwell. La création d’un champ magnétique est associé à toute variation d’un champ électrique ou à la présence d’un courant électrique. Droite : Heinrich Hertz et James Clerk Maxwell. Timbre mexicain émis en 1967 lors du rassemblement de l’Union internationale des télécommunications.

Naissance de la radio

Durant les dix années qui suivent le décès de James Clerk Maxwell, le jeune Allemand, Heinrich Hertz (1857-1894, voir Fig.1.4 à droite) poursuit les études menées par Maxwell. Il simplifie les équa-tions de Maxwell en retirant la notion d’éther de la théorie et en considérant le champ électrique et le champ magnétique non plus comme des intermédiaires de calcul mais bel et bien comme des ob-jets physiques à part entière. À partir de cette période, Il s’ensuit d’intense études expérimentales et développements technologiques. Hertz vérifie la prédiction de la théorie en montrant que la vitesse de propagation de l’onde électromagnétique est la même que celle de la lumière et montre définitivement en 1887 que par sa nature ondulatoire, la lumière est une onde électromagnétique. Pour Hertz l’onde électromagnétique est véritablement différente de la matière, c’est une nouvelle substance continue par essence et dénuée de toute propriété mécanique. En 1888, Hertz génère, avec un dispositif expérimental, une onde électromagnétique qui oscille avec une fréquence déterminée et tente de détecter cette onde à distance. Au moyen d’un fil conducteur circulaire coupé éloigné de son circuit émetteur, il réussi à faire déclencher une étincelle dans l’ouverture, détectant ainsi pour la première fois une onde radio. Lors de la présentation de ses résultats sur les ondes hertziennes, un étudiant de l’assemblée lui demande si une telle découverte peut déboucher sur de possibles applications. Il répondra simplement non. Mais finalement, vers 1890, les premières communications radioélectriques seront établies grâce à l’italien Guglielmo Marconi (1874-1937) qui reçu prix le Nobel de physique de 1909 pour ses travaux et sa contribution à la création de la télégraphie sans fil ou TSF. La communication radio vivra alors l’essor technologique et commercial qu’on lui connait aujourd’hui, figeant l’étonnante réponse de Hertz à son étudiant.

Atome et électron

Le XIXe siècle est aussi la période où physiciens et chimistes reprennent les intuitions des

philo-sophes grecques pour décrire la matière. Il existe une limite à la division des corps (Democrite 427 av. J.C.), l’être est un tout formé par une infinité d’atomes (Leucippe 445 av.J.C.) et avant la formation du monde une infinité d’atomes tombaient, parallèlement, dans le vide(Épicure 341 av. J.C.). Avant le monde il n’y avait rien, pas de Cause ni de Fin. Puis, surgit le clinamen, déviation infinitésimale d’un atome qui rompt le parallélisme parfait de sa chute (attribué à Lucrèce 98-54 av. J.C., De natura rerum, De la nature des choses, selon les principes d’Épicure). Cette déviation qui apparaît on ne sait où, ni quand, ni comment, provoque la rencontre avec l’atome voisin, qui, dévié à son tour rencontre d’autres atomes et ainsi de suite... De ces rencontres en chaîne le monde serait né, selon les principes d’Épicure et de Lucrèce. En comparant ces pensées à la manière dont nous décrivons le monde aujourd’hui, vu par la lorgnette de nos télescopes et autres accélérateurs d’idées, il y a de quoi rester coi ! Prédiction, ou bien lente auto-orientation de notre connaissance ? Paraphrasant Paul Eluard, l’espace n’aurait-il simple-ment que la forme de ses regards ? Basée sur la description des philosophes grecs, la théorie atomique

(23)

FIGURE1.5 –Gauche : Schéma illustrant le principe du tube de Crookes. Droite : Tube de Crookes avec une tension apposée aux bornes des électrodes. Crookes observe alors que pour une pression faible à l’intérieur de l’ampoule de verre et une tension de l’ordre de quelques dizaines de kilo-Volt, un rayonnement provenant de la cathode provoque une luminescence sur les parois du tube. La croix de Malte sert ici de masque, prouvant avec son ombre projetée sur la partie droite du tube que le rayonnement provient bien de la gauche. Crookes appelle ce rayonnement, rayonnement cathodique.

moderne naît suite aux travaux du physicien et chimiste John Dalton (1766-1844) en 1803. Il suppose que les atomes se combinent entre eux sans modifier leur nature et il remarque lors de ces expériences, que deux gaz se combinent toujours dans des proportions de poids proches de nombres entiers : 1 g de dihydrogène réagit avec 8 g de dioxygène pour former 9 g d’eau... Ce résultat tend donc à confirmer que la matière est bien constituée d’éléments finis, indivisibles. Un premier système de poids atomique et de symbole des atomes est mis en place par Jöns Jacob Berzélius (1779-1848) et finalement Dmitri Ivano-vitch Mendeleïev (1834-1907) créé un système de classification de tous les éléments chimiques connus, par masse atomique croissante.

De nombreuses expériences sur les gaz sont réalisées pour permettre de caractériser les constituants de la matière. Vers 1855, Heinrich Geisser (1814-1879) invente la pompe à vide qui permet de réaliser des expériences avec de très faibles quantités de gaz, voire de s’affranchir de la présence d’un gaz dans une enceinte. Grâce à ce système, William Crookes (1832-1919) réussit à descendre à de très faibles pres-sions, de 10−6à 5.10−8atm, dans une enceinte tubulaire réalisée en verre. Crookes place à une extrémité

de ce tube de verre une première électrode, puis une seconde à environ la moitié de la longueur de ce tube (voir Fig.1.5). Entre ces deux électrodes est appliquée une tension continue de quelques dizaines de kilo-Volt. Crookes observe un rayonnement provenant de la cathode qui provoque une luminescence sur les parois du tube et qu’il l’appellera rayonnement cathodique. En approchant un aimant du tube de verre, la trajectoire de ce rayonnement cathodique est déviée, se manifestant par une délocalisation de la zone de luminescence maximum. Avec ce phénomène, Crookes déduit que ce rayonnement est électriquement chargé, car dévié par un champ magnétique. Ce phénomène ne sera expliqué qu’en 1896 par Joseph John Thomson (1856-1940) qui montre que le rayonnement cathodique est constitué de particules (appelées corpuscules) chargées négativement. L’étude du rayon dévié par le champ magnétique permet de quan-tifier le rapport charge/masse de ses constituants. La valeur de 1.76 108 C.g−1 est avancée, mille fois

inférieure à l’atome le plus léger, l’hydrogène. Le terme d’électron, d’abord employé par George Stoney (1826-1911) en 1894 pour désigner la notion de charge électrique élémentaire négative, sera reproposé par George Fitzgerald (1851-1901) et adopté définitivement suite à la découverte de Thomson en 1896.

Après avoir connu de nombreuses réticences, l’idée de matière comme objet physique discontinu finit par s’imposer au sein de la communauté scientifique. Cependant, cette discontinuité du milieu matériel n’est pas sans poser de problèmes conceptuels avec la notion de substance continue évoquée dans la théorie de l’électromagnétisme.

Objets inanimés avez-vous donc une âme ?

En 1895, Hendrik Antoon Lorentz (1853-1928, voir Fig.1.6 à gauche) émet deux hypothèses impor-tantes. Le courant électrique dans un conducteur est la cause d’un déplacement de particules chargées au

(24)

1.1. ILLUSION COSMIQUE ? 23

FIGURE1.6 –Gauche : timbre émis en 2009 en Guiné-Bissau à l’effigie de Hendrik Antoon Lorentz, prix nobel en 1902. Droite : timbre français émis en 1952 à l’effigie de Henri PoinCaré.

sein de ce conducteur et la lumière est émise par la vibration de ces corpuscules chargés. Avec ces deux hypothèses, il prédit l’influence qu’un champ magnétique peut avoir sur une source lumineuse, l’effet Zeeman, qui lui vaudra le prix Nobel en 1902 avec Pieter Zeeman (1865-1943). Suite aux travaux menés sur la matière et la découverte de l’électron, Lorentz précise sa première hypothèse en avançant que ce sont les électrons libres d’un matériau qui le rendent conducteur aussi bien de la chaleur que de l’élec-tricité. Lorentz retravaille les équations de Maxwell pour prendre en compte des phénomènes négligés jusque-là par la théorie, la dispersion, les effets magnéto-optiques et surtout l’optique des corps en mou-vement. Il suppose pour cela un éther rigoureusement stationnaire dans lequel les charges peuvent circu-ler librement. Il interprète la charge, le courant et la polarisation par une accumulation, une circulation et un déplacement d’ions ou d’électrons. L’ensemble des phénomènes électromagnétiques et optiques sont alors considérés comme des interactions entre les particules chargées (ions ou électrons) avec l’éther, décrites par les équations de Maxwell-Lorentz applicables à l’échelle des particules fondamentales.

Cependant le problème de l’éther reste gênant car les équations de Maxwell prédisent une vitesse de la lumière de 3.108 m.s−1 par rapport à un éther, rappelons-le, fixe. Si on cherche maintenant à

calculer cette vitesse pour un référentiel en mouvement dans l’éther (la terre par exemple), on obtient par la théorie de Maxwell une valeur différente et la forme des équations change. Ce qui signifie que les référentiels inertiels ne sont plus équivalents et que l’éther devient référentiel privilégié... Le principe de relativité de Galilée (1564-1642) est de fait, violé. Cependant, cette différence de vitesse prédite n’est tout simplement pas mise en évidence dans la célèbre expérience réalisée par Albert Abraham Michelson (1852-1931) et Edward Morley (1838-1923) en 1887. Cette expérience consiste à mesurer à 6 mois d’intervalle la vitesse de la lumière entre deux directions perpendiculaires. Sur le principe de ce qui est énoncé plus haut, la composition des vitesses lumière + terre par rapport à l’éther fixe devrait impliquer un résultat de mesure différent à 6 mois d’intervalle, or ce n’est pas le cas. Lorentz déduit donc la surprenante conséquence de ce résultat : pour compenser le résultat identique de ces deux mesures, les longueurs doivent se contracter dans la direction du mouvement apparent. Dans les années qui suivent, il travaille sur la description des ondes électromagnétiques pour des référentiels en mouvement les uns par rapport aux autres tout en s’imposant le fait que les phénomènes électrodynamiques doivent être décrits par les mêmes équations. Il propose comme solution, un système d’équations permettant de transformer une quantité physique observée dans un référentiel inertiel donné pour l’exprimer dans n’importe quel autre référentiel inertiel, à condition de connaitre le mouvement de l’un par rapport à l’autre. Pour cela, il fait appel à la notion de temps local, propre à chaque référentiel. En 1900, Henri Poincaré (1854-1912, voir Fig.1.6 à droite) utilisera les mots wonderful invention pour décrire l’idée de temps propre suggéré par Lorentz, et baptisera ce système de transformation comme La transformation de Lorentz qui est désormais l’outil inévitable à tout physicien des hautes énergies. Les travaux de Lorentz sur l’électrodynamique seront publiés en 1904 dans son mémoire intitulé : Electromagnetic phenomena in a system moving with any velocity smaller than that of light[4].

(25)

Dans la continuité de la description corpusculaire de la matière, Lorentz va plus loin. Lors d’un cours donné en 1906 à l’Université de Colombia il dit ceci : Permettez moi de les introduire (les électrons) par quelques remarques préliminaires. En premier lieu nous assignerons à chaque électron certaines dimensions finies, aussi petites qu’elles soient, et nous fixerons notre attention non seulement sur le champ extérieur, mais aussi sur l’espace intérieur, dans lequel il y a de la place pour de nombreux éléments de volume et dans lequel l’état des choses peut varier d’un point à l’autre. À ce stade nous le supposerons être de même nature que pour les points extérieurs. En effet, une des plus importantes de nos suppositions fondamentales doit être que l’éther occupe non seulement l’espace entre les molécules, les atomes ou les électrons, mais qu’il pénètre toutes ces particules. Nous ajouterons l’hypothèse que, bien que la particule puisse se mouvoir, l’éther reste toujours sur place. Nous pouvons admettre cette idée à première vue choquante, en imaginant la particule matérielle comme étant l’expression de certaines modifications locales de l’état de l’éther. Ces modifications peuvent évidemment très bien se déplacer en avant tandis que l’élément de volume du milieu dans lesquelles elles existent, reste sur place [5]. Lorentz dessine ici les prémisses du caractère ondulatoire de la matière qui sera nommé bien plus tard (en 1924) par Louis De Broglie (1892-1987), la dualité onde-corpuscule. Pour Lorentz la matière est ni plus ni moins qu’un complexe d’ondes sur fond d’éther fixe. Un déplacement de matière correspond à la propagation d’un état local de l’éther.

Les rayons et les ombres

FIGURE1.7 –Gauche : première image d’une partie du corps humain réalisée grâce aux rayons X par Wilhelm Röntgen le 22 décembre 1895. Il s’agit de la main gauche de sa femme. Les parties les plus denses et épaisses sont les plus sombres sur la plaque : la peau, les os et la bague. Droite : timbre mexicain émis en 1995 à l’effigie de Wilhelm Röntgen pour le centenaire de la radiologie. La main présente sur le timbre n’est pas celle de sa femme, mais celle de Rudolph Albert von Kölliker. Le cliché à été pris le 23 janvier 1896.

La lumière émise par les tubes de Crookes (cf paragraphe Atome et electron.), fascine la communauté scientifique à tel point que ce dispositif est présent dans quasiment tous les laboratoires d’Europe. À l’heure où Schuster et Thomson expliquent que le rayonnement cathodique est dû à un flux d’électrons sous l’influence d’un champ électrique intense, le physicien allemand Wilhelm Röntgen (1845-1923, voir Fig.1.7 à droite) s’intéresse plus particulièrement à la pénétration des rayons dans le verre car il remarque qu’une partie du rayonnement peut traverser la paroi du tube et quelques centimètres d’air. Pour s’affranchir de la lumière émise par la scintillation du verre, il recouvre le tube de Crookes d’un carton noir ne laissant pas passer la lumière visible et remarque qu’un écran enduit d’une substance particulière (platinocyanure de baryum) devient fluorescent. En éloignant cet écran, il constate que la fluorescence persiste, écartant ainsi le rayonnement cathodique comme en étant la cause. Cette fluorescence est due à autre chose. Röntgen recommence son expérience en intercalant entre le tube de Crookes et l’écran de platinocyanure de baryum, différents objets ayant des densités différentes (feuille de papier, carton, bois, aluminium, verre, ..., plomb). Il montre premièrement que ce nouveau rayonnement inconnu provenant du tube de Crookes est pénétrant car il traverse la matière puis, il remarque que son atténuation dépend

(26)

1.1. ILLUSION COSMIQUE ? 25

du type de matériaux intercalés, le plomb le stoppant complètement. Améliorant son système il est même capable d’impressionner sur des plaques photographiques, les images obtenues avec les différents objets intercalés. Conscient de sa découverte et de la nature différente par rapport au rayonnement cathodique, il nomme ce rayonnement nouveau Rayons X, en référence à l’inconnue x habituellement utilisée en algèbre. Röntgen réalise également le premier cliché radiographique d’une partie du corps humain le 22 décembre 1895 avec la main de son épouse (voir Fig.1.7 à gauche). Cette découverte suscite un engouement certain chez les scientifiques du monde entier et ses conséquences pour la médecine sont évidement déterminantes. Le premier laboratoire hospitalier de radiologie est ouvert en 1897 à Tenon en France, malgré les risques que comporte cette technique. Plusieurs personnes y laisseront leur vie, trop irradiés par ce rayonnement nocif à fortes doses. C’est le cas de Wilhelm Röntgen lui même qui meurt le 10 février 1923, quasiment aveugle.

La radioactivité

FIGURE1.8 –Gauche : timbre à l’effigie de Henri Becquerel émis en Guyane en 1995 pour le centième an-niversaire de la création du prix Nobel (le premier est remis en 1901 à Wilhelm Röntgen, pour la découverte des rayons X). Droite : électroscope déchargé à gauche, les feuilles d’or sont en contact, puis électroscope chargé à droite, les feuilles se repoussent car elles sont de charges iden-tiques. Les feuilles d’or et le plateau supérieur sont en contact, la charge et la décharge se réalisent au contact du plateau. Le premier électroscope a été créé par William Gilbert (1544-1603) vers 1600, le versorium.

La découverte de Röntgen présentée à l’académie française des sciences en 1895 attire particuliè-rement l’attention d’Henri Becquerel (1852-1908, Fig.1.8 à gauche) qui travaille sur le phénomène de fluorescence, propriété qu’on certains corps d’émettre de la lumière lorsqu’il reçoivent un rayonnement. Dans les jours qui suivent, Becquerel tente de déterminer si le phénomène qu’il étudie est de même nature que les rayons présentés par Röntgen. Il excite des substances fluorescentes d’oxyde d’uranium en les exposant à la lumière du soleil. Une fois ces échantillons enfermés mis à l’abri de la lumière, il constate qu’ils sont capables d’imprimer leur propre image sur une plaque photographique, même au travers d’une mince plaque métallique interposée entre les sels d’uranium et la plaque. Selon lui, l’énergie solaire est emmagasinée par l’uranium qui la réémet sous forme de rayons X, les mêmes que ceux qui impriment les plaques photographiques dans le cas de Röntgen. Le hasard de la météo va le faire changer d’avis. Alors que les sels d’uranium qu’il a préparés sont prêts à être exposés au soleil, le temps se couvre et les nuages cachent le soleil, il range finalement ses plaques attendant des jours meilleurs. Quelques jours plus tard, en mars 1896, il vérifie l’émulsion des plaques entreposées pour s’assurer de leur état. En développant les plaques, il découvre que les cristaux de sels d’uranium y sont également imprimés, comme dans le cas de l’expérience avec exposition au soleil. L’uranium émet donc un rayonnement de manière spontanée. La raison pour laquelle Becquerel développa ses plaques photographiques non utilisées dans le cadre de son expérience avec l’exposition des sels d’uranium au soleil, reste une curiosité de l’histoire des sciences. Certains évoquent l’impatience d’avoir attendu quatre jours que le soleil brille, d’autres, une curiosité primant sur tout... Becquerel montre par la suite que ce rayonnement partage certaines caractéristiques

(27)

du rayonnement X mais une différence fondamentale est mise en évidence, ce rayonnement est dévié par un champ magnétique comme dans le cas du rayonnement cathodique du tube de Crookes : il est chargé ! Avec le tube de Crookes, Röntgen a montré que les rayons X rendent l’air conducteur d’électricité, sur le même principe Becquerel va aussi réaliser cette démonstration pour ce nouveaux rayonnement mais avec cette fois un électroscope (cf. Fig.1.8 à droite). Cet appareil est constitué de deux feuilles d’or sus-pendues librement à l’intérieur d’une enceinte en verre. Une fois chargées électriquement, les feuilles d’or s’écartent l’une de l’autre, mais lorsque Becquerel approche simplement du sel d’uranium près de

FIGURE1.9 –Timbre émis en 2009 en Zambie à l’effigie de Marie Curie.

l’électroscope, les feuilles d’or se rapprochent. Le rayon-nement rend l’air conducteur et décharge l’électroscope, il est ionisant. Becquerel réalisera d’autres expériences basées sur le modèle de la lumière, car il persuadé que ce rayonnement est de type optique. Il parle de phospho-rescence invisible qui provient exclusivement de l’ura-nium. Il le baptisera même rayonnement uranique et ne fait toujours pas le lien avec l’origine atomique du phé-nomène.

À coté de l’engouement pour les rayons X et de leurs applications, le rayonnement uranique passe presque inaperçu. À Paris, en 1897, Marie Curie (1867-1934, Fig.1.9) décide de travailler sur ce sujet pour sa thèse. Elle tente de caractériser ce rayonnement en utilisant du pechblende, minerai riche en uranium. Dès les premiers mois de sa thèse elle montre brillamment à l’Académie des Sciences que l’émission du rayonnement est une pro-priété atomique de l’uranium. Elle explique même que certains minéraux utilisés sont plus actif que l’uranium. Elle tente alors d’obtenir de nouvelles substances avec des activités plus grandes. Avec son mari Pierre Curie (1859-1906), elle annonce la découverte du polonium en Juillet 1898 (en référence à son pays d’origine) puis celle du radium, 2.5 millions de fois plus actif que l’uranium, en décembre de la même année. Elle conclut que ce rayonnement est bien propre à la matière et elle le nomme radioactivité, qui vient du latin radius (rayon). Le travail du couple Curie en complicité avec Henri Becquerel permet de mettre en évidence des rayonnements de natures différentes. En mars 1899, Becquerel expose à l’Académie des Sciences, les travaux d’un certain Ernest Rutherford (1871-1937), alors en thèse avec Joseph John Thomson. Il montre que deux types de rayonnement sont identifiés : l’un caractérisé de mou appelé alpha et l’autre plus pénétrant appelé bêta. Grâce à ces travaux, Henri Becquerel partagera avec Pierre et Marie Curie le prix Nobel de physique en 1903 pour leur découverte sur la radioactivité. Un troisième type de rayonne-ment est mis en évidence durant cette période par Paul Ulrich Villard (1860-1934), chimiste Français. Il découvre un rayonnement provenant du radium, insensible aux champs électromagnétiques cette fois (ce n’est pas le cas du rayonnement alpha et bêta) et encore plus pénétrant. Villard propose de donner à ce rayonnement de troisième type un nom différent, Rutherford suggère le nom logique de rayon gamma.

La physique dans le brouillard

Septembre 1894, trois étudiant de Cambridge se dirigent vers l’observatoire météorologique de Ben Nevis qui surplombe les eaux noires et tourbées du Loch Ness. Le voyage est difficile, les tempêtes d’équinoxe provoquées par les dépressions atlantiques sont violentes et l’orage électrise l’atmosphère. Ce lugubre accueil réservé à nos trois étudiants est digne d’un scénario à la Hitchcock, les feux de Saint Elme illuminent le ciel et l’histoire raconte que l’atmosphère est si électrique, que les cheveux se dressent sur la tête. C’est le coup de foudre pour l’un de ces trois étudiants. Fils d’un couple d’éleveur de moutons du Glencorse en Écosse, Charles Thomson Rees Wilson (1869-1959) tombe sous le charme de ce lieu riche en phénomènes atmosphériques démesurés, arc en ciel, halos, couronnes irisées, spectre de Brocken

(28)

1.1. ILLUSION COSMIQUE ? 27

FIGURE1.10 –Gauche : timbre émis au Libéria à l’éffigie de Charles Thomson Rees Wilson en 2000. Droite : exemple de spectre de Brocken [6]. L’ombre portée en contrebas sur les nuages est couronnée d’une gloire.

projetant l’ombre de Wilson couronnée d’une gloire (Fig.1.10 à droite) sur les nuages en contrebas... Ce lieu est propice aux légendes, celle de l’histoire de Charles Thomson Rees Wilson et de sa chambre à brouillard y débute. Puissamment impressionné par la beauté du monde, Wilson veut comprendre ces phénomènes et les reproduire au laboratoire.

Quelques semaines après ce séjour à Ben Nevis, Wilson entre au laboratoire de Cambridge où il commence ses études sur la formation des nuages. Cette obsession pour les nuages lui vaudra le surnom de cloud au sein de son laboratoire. Suivant les plans du météorologue John Aitken (1839-1919), Wilson se fabrique une chambre à brouillard pour tenter de reproduire les divers phénomènes observés à Ben Nevis. Aitken avait montré vers 1874 la nécessité de poussières atmosphériques agissant comme noyau de condensation pour que les nuages puissent se former. Wilson montre finalement le contraire en filtrant l’air et en observant malgré tout la formation de brouillard dans l’enceinte. Ce résultat suggère à Wilson que c’est la présence d’ions libres qui doit servir de point de départ à la formation de gouttelettes en suspension. Ceci tombe vraiment bien puisque le laboratoire dans lequel il se trouve, travaille active-ment sur la compréhension des ions. En février 1896, Wilson approche son dispositif de l’appareillage à rayons X, très en vogue à cette période comme nous l’avons vu, et constate que le brouillard formé dans sa chambre à brouillard est beaucoup plus dense sous l’influence des rayons X. Les rayons X augmentent l’ionisation de l’air. Dans le même laboratoire, Ernest Rutherford et Joseph John Thomson qui travaillent en particulier sur le rayonnement cathodique, comprennent immédiatement la portée de cette observation expérimentale. Ils l’utilisent pour tenter de quantifier le rapport de la charge électrique à la masse des gouttelettes ionisées, dans la continuité de ce qui à été déjà réalisé par Thomson avec la déviation du rayon cathodique dans un champ magnétique. Malgré cette voie qui s’ouvre pour la physique, Wilson reste un météorologue, son séjour à Ben Nevis est encré profondément en lui, il souhaite maintenant reproduire les phénomènes électrostatiques en se faisant engager au Meteorological Council. Jusqu’à la fin de sa vie il se consacrera à l’explication de l’orage et des éclairs. Sa chambre à brouillard est dotée de plusieurs étages dans lesquels ils peut appliquer des potentiels différents pour reproduire l’atmosphère terrestre et les charges électriques des orages. Lors de différentes expériences, il remarque que ses élec-troscopes se déchargent tout seuls, aussi bien sur terre que sous terre, en air sec ou humide. Rutherford expliquera ce phénomène par la radioactivité naturelle du sol. Dans ce contexte, une idée commence aussi à circuler au sein de la communauté scientifique, l’ionisation de l’air pourrait être due à quelque chose d’extérieur à l’atmosphère. Le père Théodore Wulf (1868-1946) décide de réaliser une expérience pour vérifier ou infirmer cette proposition. Les radiations qui proviennent du sol doivent s’atténuer avec l’épaisseur d’air traversée et si l’ionisation de l’air n’est due qu’à ce phénomène, alors le dispositif de Wilson devrait se décharger moins vite en altitude. Il vérifie en 1910 cette prédiction en comparant les

(29)

mesures au pied et au sommet de la tour Eiffel. L’électroscope se décharge effectivement moins vite au sommet, mais pas autant que ce qui est prévu si l’ionisation de l’air est due uniquement à la radiactivité du sol. Suite à ces quatre jours d’expérimentation à Paris, il rédige un article : About the radiation of high penetration capacity contained in the atmosphere[7] mais ces résultats ne seront pas acceptés pour publication car l’expérience ne permet pas de conclure. Il faudra attendre deux ans, nous y reviendrons. Le passé ressurgit, la suggestion proposée par Coulomb deux cents ans auparavant pour expliquer la lente décharge de son pendule de torsion était une intuition remarquable.

Voir dans le brouillard

Les observations expérimentales foisonnantes de cette courte période de l’histoire des sciences per-mettent de forger la compréhension et d’entrevoir l’intérieur de la matière qui nous compose. Les intui-tions semblent converger, la matière est constituée de briques élémentaires, mais ces briques restent in-visibles, sans traces tangibles. L’obstination de Wilson pour les phénomènes météorologiques est de bon augure pour la physique, elle va permettre de franchir une étape majeure. En 1911, le rayonnement alpha

FIGURE1.11 –Traces laissées par des particules alpha dans une chambre de Wilson.

et bêta émis par un échantillon radioactif disposé à proximité de la chambre de Wilson laisse en-trevoir de petits fils nuageux dans le brouillard. Le passage de ces rayonnements ionisants se ma-nifeste par de fines gouttelettes qui se créent le long de ce qui semble bien être des trajectoires (voir Fig.1.11). Ces trajectoires erratiques et quan-tifiables montrent visuellement le caractère cor-pusculaire du rayonnement. L’invisible devient vi-sible, c’est une révolution pour la physique. Wil-son qui reste un météorologue doit certainement voir ici se dessiner un processus de création des nuages. Encore aujourd’hui, le lien entre parti-cules ionisantes (en particulier les rayons cos-miques) et la météorologie est une problématique très ouverte qui a donné naissance ces dernières années à une nouvelle discipline, la cosmoclima-tologie [8]. Le lien entre flux de rayons cosmiques et formation de nuages tente d’être réalisé. Pour clore notre parenthèse contemporaine, certains modèles suggèrent d’ailleurs les rayons cosmiques comme précurseurs des éclairs lors des orages [9].

La chambre de Wilson, tout premier détecteur de particules, deviendra emblématique et de nom-breuses découvertes y seront associées. Rutherford décrira la chambre de Wilson comme l’instrument le plus original et merveilleux de l’histoire des sciences. Le travail de Wilson initialement sans lien avec la physique des composants élémentaires de la matière montre que parfois les pistes de recherches mènent dans des directions insoupçonnées. Wilson dit lui-même ceci : La totalité de mon travail scientifique s’est sans aucun doute développée à partir des expériences que je fus amené à réaliser suite à mon séjour au Ben Nevis en 1894. [...] Est-il nécessaire de préciser qu’elles n’auraient donné que bien peu de résultats sans les découvertes simultanées de l’électron, des rayons X et de la radioactivité ?

Structure de l’atome

Durant sa période d’activité à Montréal, de 1898 à 1907, les travaux de Rutherford sur la radioactivité sont très prolifiques. Il expose notamment en 1904 ses résultats dans un livre intitulé Radio-activity [10] où il explique que la radioactivité est propre à la matière, elle ne dépend pas des conditions extérieures (pression, température) et qu’elle produit une quantité de chaleur qui dépasse de loin celle produite par des réactions chimiques. Il met également en évidence qu’après un certain temps, les éléments radioactifs disparaissent, laissant place à d’autres éléments non radioactifs, aux propriétés différentes. Le dégage-ment d’énergie estimé lors de telles réactions est telledégage-ment important par rapport aux réactions chimiques qu’il suggère que ce processus est peut-être la cause de l’énergie dégagée par le soleil. Nous sommes

Références

Documents relatifs

[r]

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des

Pour pouvoir élaborer un système de prévision des ventes de sa filiale, une firme multinationale a relevé pendant une période de 4 ans, les ventes trimestrielles de

Les principaux enjeux expérimentaux actuels dans le domaine des rayons cosmiques de haute énergie sont la mesure précise de la masse, du spectre vers la cheville et l’accumulation

Dans I'atmosphère (ainsi que dans l'espace inter- stellaire) les antinucléons sont produits avec une énergie basse dans le centrc de masse de collisions rares

The electric field distributions for this EAS event (squares) are shown in Fig. Counting rate ratio of multi-antenna events to the trigger events versus zenith angle showing

[r]

Après quinze minutes, si vous braquez le rayon de la lampe de poche parallèlement à la plaque noire en rasant le fond, vous allez observer comme une légère rosée ou un brouillard qui