• Aucun résultat trouvé

BULLETIN N° 187 ACADÉMIE EUROPEENNE INTERDISCIPLINAIRE DES SCIENCES

N/A
N/A
Protected

Academic year: 2022

Partager "BULLETIN N° 187 ACADÉMIE EUROPEENNE INTERDISCIPLINAIRE DES SCIENCES"

Copied!
40
0
0

Texte intégral

(1)

1

BULLETIN N° 187

ACADÉMIE EUROPEENNE INTERDISCIPLINAIRE

DES SCIENCES

lundi 1er septembre à 17h Maison de l'AX 5 rue Descartes 75005 Paris

17h : Conférence "Interférométrie atomique et mesures de précision"

par Noël DIMARCQ

Directeur de Recherche au Laboratoire "Systèmes de référence Temps-Espace"(SYRTE) Observatoire de Paris

61 avenue de l’Observatoire 75014 PARIS

Prochaine séance :

lundi 6 octobre à 17h Maison de l'AX 5 rue Descartes 75005 Paris

I)Conférence: "Le Rayonnement gravitationnel"

par Luc BLANCHET Directeur de Recherche au CNRS Gravitation et Cosmologie (GRεCO),

UMR 7095 du CNRS, Université Pierre & Marie Curie

Institut d'Astrophysique de Paris, 98 bis boulevard Arago 75014 PARIS

II) Présentation par notre Collègue Michel GONDRAN

de son dernier ouvrage:

“Mécanique quantique: Et si Einstein et de Broglie avaient aussi raison?”

Académie Européenne Interdisciplinaire des Sciences

Siège Social : Fondation de la Maison des Sciences de l’Homme 54, bd Raspail 75006 Paris Nouveau Site Web : http://www.science-inter.com

(2)

2

ACADEMIE EUROPEENNE INTERDISCIPLINAIRE DES SCIENCES

FONDATION DE LA MAISON DES SCIENCES DE L’HOMME

PRESIDENT : Pr Victor MASTRANGELO VICE PRESIDENT : Pr Jean-Pierre FRANҪOISE SECRETAIRE GENERAL : Irène HERPE-LITWIN TRESORIER GENERAL : Claude ELBAZ MEMBRE S CONSULTATIFS DU CA : Gilbert BELAUBRE

François BEGON Bruno BLONDEL

Patrice CROSSA-REYNAUD Michel GONDRAN

COMMISSION FINANCES:Claude ELBAZ,

COMMISSION MULTIMÉDIA: Pr. Alain CORDIER

COMMISSION CANDIDATURES:Pr. Jean-Pierre FRANCOISE

PRESIDENT FONDATEUR : Dr. Lucien LEVY (†) PRESIDENT D’HONNEUR : Gilbert BELAUBRE

SECRETAIRE GENERAL D’HONNEUR : Pr. P. LIACOPOULOS (†) CONSEILLERS SCIENTIFIQUES :

SCIENCES DE LA MATIERE : Pr. Gilles COHEN-TANNOUDJI SCIENCES DE LA VIE ET BIOTECHNIQUES : Pr Brigitte DEBUIRE CONSEILLERS SPECIAUX:

EDITION: Pr Robert FRANCK

AFFAIRES EUROPEENNES :Pr Jean SCHMETS

RELATIONS VILLE DE PARIS et IDF: Michel GONDRAN ex-Président RELATIONS UNIVERSITES et MOYENS MULTIMEDIA: Pr Alain CORDIER RELATIONS AX et MÉCENAT : Gilbert BELAUBRE

SECTION DE NICE :

PRESIDENT : Doyen René DARS SECTION DE NANCY : PRESIDENT : Pr Pierre NABET

juin 2014

N°187

TABLE DES MATIERES

p. 03 Compte-rendu de la séance du lundi 1er septembre 2014 p. 33 Annonces

p. 34 Documents

Prochaine séance :

lundi 4 octobre à 17h Maison de l'AX 5 rue Descartes 75005 Paris 17 h:

Conférence "Le Rayonnement gravitationnel"

par Luc BLANCHET

Directeur de Recherche au CNRS Gravitation et Cosmologie (GRεCO),

UMR 7095 du CNRS, Université Pierre & Marie Curie Institut d'Astrophysique de Paris,

98 bis boulevard Arago 75014 PARIS ,

Académie Européenne Interdisciplinaire des Sciences

Siège Social : Fondation de la Maison des Sciences de l’Homme 54, bd Raspail 75006 Paris Nouveau Site Web : http://www.science-inter.com

(3)

3

ACADEMIE EUROPEENNE INTERDISCIPLINAIRE DES SCIENCES

Fondation de la Maison des Sciences de l’Homme, Paris.

Séance du

Lundi 1er septembre 2014 Maison de l'AX 16h30

La séance est ouverte à 17h sous la Présidence de Victor MASTRANGELO et en la présence de nos Collègues Gilbert BELAUBRE, Jean-Louis BOBIN, Claude ELBAZ , Michel GONDRAN, Irène HERPE-LITWIN, Gérard LEVY, Antoine LONG, Edith PERRIER, Jean SCHMETS, Jean-Pierre TREUIL,

Etaient excusés François BEGON, Jean-Pierre BESSIS,Bruno BLONDEL, Michel CABANAC, Alain CARDON, Juan-Carlos CHACHQUES, Gilles COHEN-TANNOUDJI, Alain CORDIER, Daniel COURGEAU, Ernesto DI MAURO, Françoise DUTHEIL, Vincent FLEURY, Robert FRANCK, Jean -Pierre FRANCOISE, Walter GONZALEZ, Jacques LEVY , Valérie LEFEVRE- SEGUIN , Claude MAURY, Pierre PESQUIES, Pierre MARCHAIS , Alain STAHL, Jean VERDETTI.

I. Présentation de notre conférencier, Noël DIMARCQ

Le CV ci-dessous résume la carrière de notre conférencier:

Noël Dimarcq est directeur de recherche au CNRS. Il est docteur et agrégé en physique. Son domaine de recherche porte sur l'utilisation du caractère ondulatoire de la matière pour réaliser des mesures de très haute précision avec des instruments utilisant des atomes refroidis par laser.

Noël Dimarcq a dirigé pendant 8 ans le laboratoire SYRTE - Systèmes de référence Temps- Espace situé à l'Observatoire de Paris. Ce laboratoire développe entre autres des horloges atomiques ultra précises pour réaliser des tests de physique fondamentale mais aussi construire le temps légal français.

Noël Dimarcq a obtenu en 2008 la médaille d'argent du CNRS pour ses travaux sur les horloges atomiques et les capteurs inertiels.

Il dirige actuellement le réseau d'excellence FIRST-TF sur le temps-fréquence et il est chargé de mission sur la photonique pour l'Institut de Physique du CNRS.

(4)

4

II.

Résumé de la Conférence de Noël DIMARCQ:

Notre conférencier nous a donné le résumé de sa conférence:

"L’interférométrie atomique et les mesures de précision"

De nouveaux concepts d’instruments de mesure utilisant des techniques d’interférométrie sur des ondes atomiques démontrent aujourd’hui des précisions exceptionnelles. Dans ces instruments, les atomes, en général refroidis par laser, doivent être considérés comme des ondes atomiques pouvant interférer, telles les ondes électromagnétiques. Le choix de la géométrie d’interféromètre atomique permet de choisir la grandeur qui détermine le déphasage en sortie (fréquence, vitesse de rotation, accélération, etc…). Parmi les différents interféromètres envisageables, l’exposé se focalisera sur les horloges atomiques. Les principes de fonctionnement, les limitations et les pistes d’amélioration seront abordés. Enfin, quelques applications des interféromètres atomiques pour les mesures extrêmes seront présentées, depuis la physique fondamentale (tests de la relativité, …) jusqu’aux systèmes opérationnels (GPS,GALILEO,…).

III.

Diapositives présentées par notre conférencier

:

(5)

5

(6)

6

(7)

7

(8)

8

(9)

9

(10)

10

(11)

11

(12)

12

(13)

13

(14)

14

(15)

15

(16)

16

(17)

17

(18)

18

(19)

19

(20)

20

IV. Conférence de Noël DIMARQ analysée par notre Collègue Jean-Pierre TREUIL

Nous remercions très chaleureusement notre Collègue Jean-Pierre TREUIL de nous avoir communiqué son analyse de la conférence

L'exposé de Noël Dimarcq

Le terme d'interférométrie désigne un ensemble de méthodes consistant à observer, en différents points d'un espace, l'effet de la superposition de trains d'ondes de même nature et même longueur d'onde et d'en déduire en chacun de ces points leur éventuel décalage, c.a.d leur différence de phase ou encore déphasage. Ce, dans le but de mesurer une autre grandeur.

L'exposé de Noël Dimarcq se structure en plusieurs séquences.

Dans une première séquence introductive, le conférencier rappelle ce qu'est l'interférométrie optique, celle basée sur les ondes lumineuses - et le principe de son emploi dans la mesure de grandeurs physiques : à savoir la mise en oeuvre d'un dispositif convertissant la grandeur à mesurer en un déphasage entre deux ondes ; la fonction, reliant valeurs possibles de la grandeur et valeurs correspondantes du déphasage, prend la forme de franges d'interférences. Il liste quelques unes de ses applications, telles les applications en géophysique, dans l'aide à la navigation, dans les télécommunications, et dans des sciences comme l'astrophysique (détection des ondes gravitationnelles, projet VIRGO) ou la physique fondamentale.

Noël Dimarcq développe ensuite le parallèle entre l'interférométrie optique et l'interférométrie atomique, parallèle que permet la dualité onde-particule de la physique quantique. Il traite enfin de la notion d'atomes froids : il aborde ainsi la manière de les obtenir (techniques de refroidissement laser) , évoque les méthodes pour les manipuler, explicite leur intérêt - voire la nécessité d'en disposer - dans l'interférométrie atomique pour les mesures de précision.

Trois autres séquences suivent, consacrées respectivement 1) aux horloges atomiques, où l'aspect interférométrie atomique n'apparait explicitement qu'à la fin de cette partie de l'exposé ; 2) aux capteurs inertiels, où les schémas interférométriques sont d'emblée présentés ; et enfin 3) en parallèle avec ce qui a été dit en introduction à propos de l'interférométrie optique, aux applications en métrologie et physique fondamentale, et àdiverses techniques imprégnant plus ou moins notre vie quotidienne.

Les Horloges atomiques

Le conférencier rappelle le principe de la mesure du temps, par décompte du nombre d'oscillations d'un phénomène périodique et les progrès accomplis dans ce domaine : l'utilisation d'oscillateurs de fréquence de plus en plus grande, depuis les fréquences mécaniques des pendules jusqu'à cellesà des oscillateurs àquartz, pour en venir aux fréquences électromagnétiques des lasers.

un asservissement de la fréquence délivrée à une référence absolue.

Les horloges atomiques répondent à ce schéma basé sur un phénomène périodique : l'oscillateur (celui de l'horloge proprement dite, remplissant la fonction du pendule) voit sa fréquence réajustée périodiquement sur une fréquence de référence ; cette dernière fréquence correspond au rayonnement associé à la transition entre deux niveaux d'énergie d'un atome. Un tel mécanisme assure à l'oscillateur de l'horloge une fréquence - la fréquence délivrée - à la fois très élevée (par exemple de l'ordre de 10 milliards d'oscillations par secondes - 10 GHz - dans le cas d'une horloge à Césium, correspondant àun rayonnement micro-onde, centimétrique) et très stable.

(21)

21

La mesure de l'écart entre fréquence délivrée et sa référence L'oscillateur de l'horloge est un rayonnement électromagnétique cohérent (laser), dont la fréquence doit donc être recalée périodiquement sur un étalon, la fréquence de référence. L'écart entre les deux fréquences est mesuré par un dispositif dit d'interrogation. Le dispositif d'interrogation consiste à

"éclairer", par ce rayonnement, un paquet d'atomes du type choisi et préparés au préalable pour occuper le niveau inférieur de la transition d'énergie sélectionnée. Lors de cette interaction entre rayonnement et matière, certains atomes - peut-on dire en simplifiant la réalité quantique - vont passer au niveau d'énergie supérieur ; ils sont d'autant plus nombreux à le faire que l'écart entre fréquence de l'oscillateur et fréquence de référence est faible, le nombre maximum étant en principe atteint lorsque l'écart est nul.

Evaluer l'écart revient donc à évaluer, à la sortie de l'interrogation, la proportion d'atomes occupant le niveau supérieur d'énergie ; c'est la tâche d'un autre dispositif, dit de détection.

La mise en œuvre de ces dispositifs s'effectue cependant de plusieurs manières : il existe en effet plusieurs méthodes d'interrogation. L'une de ces méthodes, l'interrogation de Ramsey, fait explicitement appel àl'interférométrie. Noël Dimarcq y reviendra àla fin de la séquence.

L'utilisation des atomes froids La précision du recalage est d'autant plus grande que la bande de fréquence induisant une réaction mesurable du paquet d'atomes est étroite et qu'elle est bien centrée sur la référence. Parmi les conditions assurant cette "étroitesse", figure la nécessité d'une très faible agitation thermique des atomes au sein du paquet. C'est là un des intérêts de l'utilisation d'atomes froids, avec des paquets refroidis à des températures de l'ordre du millionième de degrés Kelvin, et donc des vitesses d'agitation ne dépassant pas le cm par seconde. Le dispositif de production de paquets d'atomes froids est un constituant majeur des horloges atomiques de haute précision

.

Par delà ce schéma général, une grande diversité Ce schéma général de fonctionnement se décline en plusieurs types de réalisations, répondant à des applications, avec des performances, des tailles, des coûts divers : l'on passe ainsi d'horloges aux objectifs scientifiques, dédiés à la métrologie et à la physique fondamentale, occupant plusieurs m3 et valant plusieurs millions d'euros, à des horloges "commerciales" utilisées dans l'industrie (volumes de l'ordre du dm3) ; dans ce dernier domaine, plusieurs projets visent à concevoir des horloges miniatures, dont la taille serait centimétrique et le prix de l'ordre de la centaine d'euros.

Caractériser la performance Dans cette seconde séquence, Noël Dimarcq consacre ensuite un assez long développement à la caractérisation des performances d'une horloge atomique, et aux paramètres dont ces performances dépendent. Deux notions sont identifiées :

La stabilité, fonction (décroissante) de l'amplitude des variations statistiques de la fréquence délivrée autour de sa valeur moyenne, correspondant au bruit de fréquence.

L'exactitude, fonction (décroissante) de l'écart relatif - appelé biais de fréquence - existant entre la fréquence de référence idéale (théorique) et la fréquence effectivement considérée comme référence par le dispositif d'asservissement.

Le couplage interrogation/détection mesure en réalité l'écart entre la fréquence délivrée et la fréquence idéale, affectée du biais de fréquence ; dans la littérature, cet écart relatif - rapporté à la référence théorique - est souvent noté y(t), t étant l'instant de la mesure. Le biais de fréquence - rapporté lui aussi àla référence théorique - est quant àlui notéε

Pour mieux comprendre ces notions, il est utile de rappeler trois durées caractéristiques de ces horloges : • La durée d'interaction, ou d'interrogation, T, durée du passage d'un paquet d'atomes dans le dispositif d'interrogation. Dans le schéma simplifié de fonctionnement donné précédemment,

(22)

22

cette durée s'identifie en effet à la durée d'interaction entre le paquet d'atomes et le rayonnement de l'oscillateur à asservir. Mais dans les mises en œuvre concrètes, son contenu exact dépend de la méthode d'interrogation choisie.

• La durée d'un cycle d'horloge Tc, à savoir le temps s'écoulant entre deux mesures successives, fournissant donc deux valeurs successives des écarts relatifs : y(t) et y(t+Tc).

• La durée d'intégration τ, intervalle temporel (un nombre entier de cycles, donc un nombre de mesures effectuées) sur lequel sont moyennées les valeurs des y(t) : pour chaque intervalle d'intégration k, on obtient ainsi une moyenne yk. Ce sont les variations de ces moyennes yk sur les intervalles d'intégration successifs - mesurées simplement par leur écart type σy(τ) en l'absence de dérive temporelle - qui servent de base à l'évaluation de la stabilité. Laquelle est ainsi lissée sur la durée d'intégration par cette procédure.

On peut se reporter pour un schéma de l'articulation de ces durées aux premières pages de la thèse de doctorat de Clément Lacroûte (Syrte et UPMC, 2010) sur le développement d'une horloge atomique à puce. Mais je n'ai pas bien compris si la durée s'écoulant entre deux corrections successives de la fréquence délivrée coïncidait avec le cycle de l'horloge Tc - donc avec un réajustement après chaque mesure y(t), ou bien si elle était supérieure et de combien. Une question du même type a d'ailleurs été posée lors de la discussion.

Les paramètres de la performance Noël Dimarcq a présenté une formule de la stabilité (mesurée par l'écart type des yk) la reliant à ses déterminants, destinée à nous montrer les directions de travail tendant àson amélioration. Cette formule fait apparaitre plusieurs paramètres importants :

la largeur de la bande de résonance, bande de fréquence associée à la réaction des paquets d'atomes dans l'interaction avec le rayonnement à asservir. La stabilité de la fréquence délivrée sera d'autant plus grande que la bande de résonance sera plus étroite, comme déjà dit précédemment. Cette largeur de bande dépend de la durée d'interaction T : la bande sera d'autant plus étroite que cette durée sera importante. Il faut donc chercher à soumettre les atomes à des interactions de plus en plus longues. Ou chercher des subterfuges pour faire "comme si". C'est le propos du recours à l'interférométrie atomique employé dans l'interrogation de Ramsey.

la fréquence de référence elle même. Lorsque la largeur de la résonance ne dépend pas de la fréquence, une manière toute simple d'améliorer la stabilité (en valeur relative) est d'utiliser des fréquences de plus en plus grandes. Passer des fréquences micro-ondes à des fréquences optiques est ainsi une voie de travail en cours

le nombre d'atomes dans les paquets. Ce nombre détermine en effet le bruit quantique, élément incompressible du bruit statistique en supposant éliminées toutes ses sources "techniques". Plus ce nombre sera grand, plus le bruit quantique sera faible. D'où l'intérêt de travailler avec des paquets d'atomes de plus en plus importants.

la durée du cycle : plus il est court, plus le nombre de mesures sera grand sur une même durée d'intégration, et donc plus l'écart type sera faible, toutes choses étant égales par ailleurs.

Le conférencier, après avoir présenté un tableau récapitulatif des courbes de stabilité σy(τ) en fonction du temps d'intégration pour différents types d'horloge, s'arrête un moment sur les plus récentes - les fontaines àatomes froids, et les projets en cours. Notons qu'il n'a pas - ou très peu - traitédes paramètres affectant l'exactitude. Le lecteur pourra trouver une synthèse sur ce thème dans un autre exposé de Noël Dimarcq, tenu en 2004 dans le cadre d'un colloque du Groupe de Recherche en Géodésie Spatiale, et accessible sur le web.

Fontaines à atomes froids L'expression de fontaine à atomes froids est bien adaptée au mécanisme en œuvre dans ces horloges : les paquets d'atomes - refroidis au préalable - sont propulsés verticalement vers le haut, à une vitesse

(23)

23

d'ensemble dont l'ordre de grandeur est de quelques m/s. Lors de cette ascension, ils sont soumis une première fois - pendant un temps très court - au signal d'interrogation, poursuivent leur chemin en étant freinés par la pesanteur, redescendent et interagissent une seconde fois avec le même signal. La durée s'écoulant entre les deux interactions élémentaires atteint, par exemple, la valeur d'une demi-seconde.

Ces deux interactions successives constituent un dispositif d'interférométrie : sa théorie (celle de l'interrogation de Ramsey) montre que c'est ce temps intermédiaire qui doit être pris en compte comme durée d'interaction T dans la formule d'évaluation de la stabilité, et non le temps très court des deux interactions élémentaires à l'aller et au retour. On conçoit la nécessité que les atomes soient bien refroidis : à des vitesses thermiques centimétriques, la dispersion de leurs vitesses verticales est alors négligeable ou très faible par rapport àla vitesse d'ensemble des paquets qui restent ainsi bien regroupés tout au long du processus. L'exactitude obtenue est déjà fantastique, la valeur du biais de fréquence, rapportéàla référence, étant de l'ordre de 10-16. Et il en est de même pour la stabilité.

Horloges du futur Les projets en cours suivent les directions mentionnées à propos des paramètres de la performance : augmenter encore plus la durée d'interaction et opérer àdes fréquences de référence encore plus élevées.

Le projet Pharao illustre la première de ces directions. Il sera effectif en 2016 sur la station spatiale internationale (ISS). Pharao utilise toujours les atomes de Césium refroidis et le rayonnement micro- onde. L'idée nouvelle est d'utiliser l'absence de pesanteur - plus exactement, la situation de micro- pesanteur présente sur l'ISS - pour mieux piéger et contrôler les paquets et leurs mouvements, et être ainsi à même de les interroger sur des durées très longues (5 secondes par exemple). Pharao atteindra ainsi une largeur de la bande de fréquence dix fois plus fine que celle des horloges au sol.

Plusieurs projets choisissent la seconde direction, en se plaçant dans la lignée des horloges optiques. Ces horloges utilisent toujours des fréquences de référence associées à des transitions entre deux niveaux d'énergie d'un atome, mais ces fréquences sont cette fois-ci dans le domaine des ondes lumineuses - domaine visible - et non plus celui des micro-ondes ; elles sont donc plus élevées. Bien entendu, les éléments atomiques ne sont plus les mêmes. Les premières horloges optiques (années 1990) du tableau présenté par Noël Dimarcq utilisaient des atomes comme l'hydrogène ou le calcium dans leur état neutre

; leur exactitude était alors nettement plus faible que celle les horloges atomiques. Dans les années 2000 sont apparues les horloges utilisant des atomes chargés électriquement: ions Mercure, Ytterbium, Aluminium... La ligne atomes neutres se maintient cependant, avec l'atome de Strontium (cf par exemple le projet strontium du Syrte et l'article de Xavier Baillard annexéau bulletin 186 de l'AEIS).

Horloges optiques : ions ou atomes neutres ? Noël Dimarcq s'est arrêté brièvement sur ces deux types d'horloges optiques, leurs techniques de confinement et leurs avantages respectifs. Tous deux se sont heurtés à la difficulté de mesurer les fréquences optiques avec la précision nécessaire, difficulté résolue par la mise au point des "peignes laser femtoseconde". Par ailleurs, ces deux types d'horloges n'utilisent pas les mêmes méthodes pour confiner et contrôler les paquets d'atomes. On comprend bien que le confinement de particules chargées puisse être l'oeuvre de champs électriques. Mais la présence des répulsions coulombiennes limite fortement le nombre d'ions utilisables dans un seul paquet. Concernant les atomes neutres, la technique utilisée (dite du piège dipolaire) s'appuie sur le fait qu'en présence d'un champ électromagnétique, l'atome - tout en restant globalement neutre - forme un dipôle électrique. Sous certaines conditions, ce dipôle tombe et reste enfermé dans un puits de potentiel. La mise en oeuvre de cette technique pour confiner un grand nombre d'atomes s'effectue en les enserrant dans un réseau optique : les puits de potentiel sont les creux d'une onde laser stationnaire, c'est l'image de la "boite à œufs" utilisée par Noël Dimarcq, les œufs figurant les atomes. Il faut cependant éviter que par l'effet quantique de tunnel, les atomes puissent sortir des puits de potentiel, et passer ainsi d'un logement de la boîte dans un autre. Des calculs de physique quantique et l'expérience montrent l'existence d'une

(24)

24

longueur d'onde magique - c'est-à-dire d'une taille des logements - garantissant un effet tunnel quasi nul.

Interrogation de Ramsey et Interférométrie Revenons, comme l'a fait Noël Dimarcq, sur l'interrogation de Ramsey, pour en souligner l'aspect interférométrique, lequel rappelons le, était au centre du titre de son exposé.

Noël Dimarcq montre d'abord un graphe construit à partir de données expérimentales d'une fontaine à atomes froids, donc dans le cadre d'une interrogation de Ramsey. Ce graphe illustre la fonction reliant la probabilité de transition entre les deux niveaux d'énergie, en fonction de l'écart entre fréquence délivrée et fréquence de référence. Cette fonction se présente sous forme d'oscillations rapides s'inscrivant dans une enveloppe, avec un maximum pour un écart nul et un amortissement progressif de l'amplitude des oscillations de part et d'autre de ce maximum. L'image rappelle de façon frappante celle des franges d'interférences dans l'expérience des fentes (ou trous) d'Young. Et Noël Dimarcq de poursuivre quantitativement l'analogie en soulignant la correspondance entre :

la durée séparant les deux interactions élémentaires de Ramsey et la distance entre les fentes. La première déterminant la période des oscillations de la probabilité de transition entre niveaux d'énergie, la seconde l'interfrange des interférences dans l'expérience des trous d'Young

la durée d'une interaction élémentaire de Ramsey et la largeur des fentes. La première déterminant la forme et la largeur de l'enveloppe dans laquelle s'inscrivent les oscillations, la seconde celle des franges d'interférences (enveloppe de diffraction)

Rappel : interprétation quantique de l'expérience de Young L'expérience primitive de Young (1801) a été effectuée sur des ondes lumineuses ; leur mise en œuvre sur des particules - des électrons - et l'observation dans ces expériences de franges d'interférences ont été - entre autres - à l'origine de la "dualité ondes/particule". La théorie quantique est amenée à considérer que dans ces expériences, chaque particule interfère avec elle même : après son passage à travers l'écran aux deux fentes, l'état quantique de la particule devient une superposition de deux états élémentaires ; le premier est celui d'une particule qui aurait été émise, au moment du passage, par l'une des fentes ; le second est celui d'une particule de même nature, qui aurait été émise au même instant depuis l'autre fente.

L'emploi du conditionnel (... qui aurait... ) a ici un sens précis : la superposition ne signifie nullement l'existence de deux particules, suivant chacune son trajet propre ; elle ne s'identifie pas non plus à l'énoncé de la possibilité de deux trajets, dont l'un sera effectivement choisi ; elle est la traduction mathématique du comportement d'un objet complexe (étendu spatialement), passant en réalité par les deux fentes, comme le montre très bien la simulation présentée dans la référence Wikipédia déjà mentionnée.

En l'occurrence, les états quantiques en jeu sont des fonctions - les fonctions d'onde - définies sur l'espace et le temps, à valeur complexe, donc mobilisant des notions de module et de phase. La probabilitéde détecter la particule sur une position, au delàdes fentes, se calcule àpartir de l'expression de l'état superposé(ce sera, rappelons le, le carré de son module en ce point, à cet instant). Elle dépend donc du déphasage existant (toujours en ce point, à cet instant) entre les deux états élémentaires.

L'observation des franges d'interférence traduit la variation spatiale de cette probabilité.

Interprétation quantique des franges de Ramsey La ressemblance entre franges de Ramsey et franges de Young n'est pas un hasard. Dans l'interrogation de Ramsey, le schéma est en effet le même : superposition de deux états élémentaires et existence de déphasages. Suivons pour simplifier un seul atome, occupant initialement le niveau d'énergie inférieur de la transition. L'état quantique lors de son passage dans le dispositif de détection - donc après avoir été

(25)

25

soumis aux deux interactions - est toujours la superposition de deux états élémentaires : le premier est celui d'un atome qui serait passé au niveau supérieur d'énergie, lors de l'étape ascendante (dans la fontaine), donc dès la première interaction avec le signal d'interrogation ; le second est celui d'un atome qui serait au contraire passéà ce même niveau supérieur d'énergie, lors de l'étape descendante, donc lors de la seconde interaction. La théorie quantique des interactions, entre le rayonnement et l'atome, montre que les deux états élémentaires sont déphasés d'un angle φdont la valeur dépend, dans la mise en oeuvre effective du dispositif d'interrogation :

• de l'écart δ entre fréquence de l'oscillateur ( = celle du signal d'interrogation) et fréquence de référence

• de la durée T séparant les deux interactions (ascendante et descendante) (le temps de "vol" de l'atome dans la fontaine)

La formule liant ces paramètres au déphasage est simplement φ = 2πδT. Cette valeur du déphasage détermine la largeur des franges de Ramsey sur l'axe des fréquences.

Un cas particulier des systèmes à deux niveaux.

Aller plus avant dans l'exploration du problème, par exemple pour rendre compte de la formule précédente ou encore des amplitudes des franges et de leur inscription dans l'enveloppe, serait hors de propos dans ce compte rendu. Et la considération d'un seul atome est de toute façon insuffisante.

Disons seulement qu'intervient, dans ces calculs, la théorie des systèmes quantiques à deux niveaux ; ces deux niveaux sont ici les deux niveaux d'énergie de la transition atomique utilisée, mais la structure mathématique, pour représenter toutes les superpositions possibles des deux états qui leur sont associés, reste formellement la même dans bien d'autres contextes. C'est là une différence avec les fentes d'Young : dans ces dernières, l'état quantique est une fonction définie sur un espace continu, donc un

"vecteur" possédant un nombre infini de dimensions. Dans le cas des horloges atomiques, les états quantiques (du moins lorsque l'on raisonne sur un seul atome) sont représentables simplement par un couple de deux nombres complexes, savoir les poids respectifs des deux niveaux dans les superpositions. Et la contrainte de normalisation (le module de l'état égal à 1) fait qu'au bout du compte on retrouve une représentation encore plus simple, un couple de deux angles θ et φ, assimilables respectivement à une co-latitude et une longitude ; l'état quantique peut alors être vu comme un point à la surface d'une sphère, la sphère de Bloch. Dans cette représentation, la co-latitude détermine le module, et la longitude φ, a le statut d'une phase.

-°-

Les capteurs inertiels.

Ces capteurs ont la fonction de mesurer des accélérations dans des contextes variés. Noël Dimarcq présente ainsi l'utilisation de l'interférométrie atomique pour les gyromètres (accélérations en oeuvre dans des rotations) et les gravimètres (accélération de la pesanteur).

Dans les fontaines atomiques, la trajectoire des atomes, dans l'espace de leurs états quantiques, est pour ainsi dire mixte : une part s'effectue dans un espace d'états quantiques interne, savoir la transition entre les deux niveaux d'énergie ; une autre part s'effectue dans un espace d'états quantiques externe, savoir le déplacement continu de la fonction d'onde dans l'espace physique, associée au vol libre entre les deux interactions. Comme il a été souligné ultérieurement lors de la discussion, c'est bien la part interne qui est importante ; la part externe introduit les deux modalités de cette trajectoire (interaction à l'étape ascendante, versus à l'étape descendante) et leur laisse le temps d'accumuler une différence de phase ; mais on peut créer les conditions techniques pour que les deux modalités puissent exister et que l'accumulation puisse se faire sans déplacement global du paquet d'atomes ...

Dans les capteurs inertiels atomiques présentés par Noël Dimarcq, cette mixité existe, bien qu'il n'en ai pas explicitement parlé. Mais l'attention se porte sur la fonction d'onde, c.a.d. la part externe de la trajectoire, ce qui s'y passe, et le déphasage qui en résulte. Il demeure cependant une part interne, une

(26)

26

transition entre deux niveaux d'énergie. La probabilitéde cette transition est couplée au déphasage ; son évaluation dans le dispositif de détection permet alors de calculer la valeur du déphasage, difficile à mesurer directement. Cette méthode de mesure indirecte mobilisant une transition d'énergie, il n'est pas étonnant que les types d'atomes utilisés dans les capteurs inertiels puissent être les mêmes que ceux des horloges atomiques, par exemple Césium ou Rubidium.

capteurs inertiels : l'analogie optique Dans les schémas présentés par Noël Dimarcq, les dispositifs d'interférométrie mis en oeuvre ont une structure rappelant formellement celle des interféromètres de Mach-Zehnder. Ces interféromètres optiques font intervenir : d'une part, une première lame semi-réfléchissante, appelée séparatrice, dont la fonction est de diviser le train d'ondes (lumineuses) en deux trains d'ondes séparés, qui suivront des trajets distincts, dans deux directions différentes ; d'autre part, deux miroirs, dont le but est de rabattre ces deux trains d'ondes vers une seconde lame semi-réfléchissante pour les faire se rejoindre et interférer. D'autres types d'interféromètres (Michelson, Sagnac, ... ) présentent une structure un peu différente, mais le principe est toujours le même : séparation spatiale, puis recombinaison pour mesurer l'éventuel déphasage.

capteurs inertiels : la transposition atomique Dans la version atomique des interféromètres de Mach-Zehnder, les trains d'ondes sont ceux associés aux atomes, avec une longueur d'onde "de Broglie", fonction de leur impulsion. Le rôle des séparatrices et des miroirs est tenu par des faisceaux lasers. Désirant nous parler davantage des progrès accomplis en performances, Noël Dimarcq ne s'est pas attardé sur la physique sous-jacente. Aussi ai- je eu envie d'en explorer un peu plus certains aspects.

L'action d'un faisceau laser, jouant le rôle de séparatrice ou de miroir, repose dans son principe sur la conservation de la quantité de mouvement, dans l'interaction entre l'atome et un photon. L'absorption d'un photon par un atome provoque, non seulement le passage sur un niveau d'énergie plus élevé, mais agit également sur sa vitesse, soit, en termes quantiques, sur son impulsion ; c'est par la modification de cette vitesse que le train d'ondes - représentant quantiquement l'atome ayant interagi avec un photon - se sépare spatialement de ceux qui n'ont subi aucune interaction.

Cet effet de recul sur l'atome, où la quantité de mouvement du photon est transféré à l'atome l'ayant absorbé, constitue le mécanisme majeur de l'étape préalable de refroidissement, comme Noël Dimarcq nous l'a rappelé, dans une partie antérieure de son exposé ; l'effet de recul est également présent lors des interactions d'interrogation dans les horloges atomiques et constitue un des paramètres dont il faut tenir compte dans l'évaluation de l'exactitude.

L'emploi de l'effet de recul, pour faire jouer à des faisceaux lasers les rôles de séparatrices et de miroirs, dans leurs interactions avec les atomes, a été mis en oeuvre dans plusieurs dispositifs. L'un d'eux, celui présenté par Noël Dimarcq, fait l'objet d'une abondante littérature. Il mobilise la physique des transitions Raman stimulées. Il a l'avantage de rendre possible un très bon contrôle de la correspondance entre les transitions des niveaux d'énergie (changements des états internes) et les modifications des impulsions (changements des états externes). La mesure des déphasages, à partir de celle des probabilités de transition, s'en trouve ainsi fiabilisée.

gravimètres : un aperçu du dispositif Raman.

Je prendrai le cas des gravimètres, pour lequel la séparation, puis la recombinaison des trains d'ondes, se font sur la seule dimension d'un axe vertical. Les atomes tombent le long de cet axe, sous l'effet de la pesanteur. Les références bibliographiques dont je me suis servi sont un exposé d'Arnaud Landragin tenu en 2010, ainsi que son rapport d'habilitation (Syrte, 2009), et enfin la thèse de Julien Le Gouët (Syrte, Paris 11, 2008).

(27)

27

Dans un gravimètre Raman, le paquet d'atomes en chute libre est éclairé, brièvement, à trois reprises successives par le même couple de faisceaux lasers verticaux "contra-propageants", provoquant trois interactions avec les atomes ; à chaque fois, l'un des faisceaux propage des photons d'une certaine fréquence vers le haut, à la rencontre des atomes ; l'autre propage des photons d'une autre fréquence vers le bas, pour ainsi dire à la poursuite de ces mêmes atomes. Ces deux fréquences sont choisies pour que leur différence corresponde à la différence entre les deux niveaux d'énergie de la transition sélectionnée.

Ces trois interactions se succèdent donc dans le temps ; la seconde est séparée de la première, et la troisième de la seconde, par une même durée T. Elles sont de même nature physique, seule leur durée propre (pendant laquelle elles sont actives) distingue leur action : la première et la dernière, d'une durée τ, jouent le rôle de séparatrice et la seconde, d'une durée double, celle de miroir ; cette unique interaction miroir joue simultanément pour les deux trains d'ondes lesquels, après le passage dans la première séparatrice de l'atome concerné, sont alors effectivement séparés spatialement sur l'axe vertical de leur chute.

Dans ce dispositif, l'étape de détection récupère une superposition d'états, liée aux deux modalités possibles du résultat de l'interaction lors du passage dans la première séparatrice, 1) pas de changement de niveau d'énergie, ni de modification de l'impulsion ; 2) transition effective au niveau supérieur et modification corrélative de l'impulsion.

gravimètres : de la mesure des transitions à celle de la pesanteur Au delà de la formule présentée par Noël Dimarcq, et au delà de la compréhension intuitive qu'il nous en a donné, j'ai voulu approcher le principe des calculs quantiques à la base de cette formule, donc du passage entre la mesure de la probabilitéde transition et celle de l'accélération de la pesanteur g.

Tout d'abord, l'évolution de l'état quantique d'un atome, tout au long de sa chute libre et de ses trois interactions successives avec les faisceaux laser, se ramène à celle, déjà mentionnée, d'un système à deux niveaux. Cette évolution peut être vue en conséquence comme une trajectoire sur la sphère de Bloch, de la même manière que pour les fontaines atomiques. Chaque point de cette sphère est représentable comme une combinaison linéaire de deux états de base, intervenant dans cette combinaison avec des poids respectifs notés habituellement Cf et Ce ; ces états de base sont : 1) le couple F, Pf associant le niveau d'énergie inférieur (F) et l'impulsion initiale (P) ; 2) le couple E, Pe associant le niveau d'énergie supérieur (E) et l'impulsion qui résulte du passage à ce niveau dans la transition Raman (Pe).

La démarche suivie consiste à écrire les équations contrôlant les poids respectifs des deux états de base dans leur superposition, à calculer quelles valeurs ils ont à l'issue du processus, lors de la détection, et à connaître la relation entre ces dernières valeurs et la pesanteur g.

Ces poidssont descoefficients complexes. Le passage du couple [Cf , Ce] initial - un vecteur complexe donc - au couple [Cf , Ce] final est assuré par une multiplication de matrices. Celles-ci sont au nombre de cinq : une première matrice représente l'action de la première séparatrice, une seconde fournit le résultat de la première évolution libre, une troisième associée à l'action miroir, une quatrième fournissant le résultat de la seconde évolution libre et enfin une cinquième, représentant l'action de la dernière séparatrice.

Les expressions de ces matrices sont plus ou moins compliquées, selon les conditions techniques de mise en oeuvre et les simplifications que l'on s'autorise à effectuer. Retenons en ici quelques paramètres déterminants :

• les durées des interactions : celle commune aux actions des deux séparatrices, la durée notée τ, est fixée de manière à ce qu'à l'issue de la première séparatrice, les modules des coefficients Cf

(28)

28

et Ce soient égaux (assurant donc à cet instant l'équi-probabilité des deux états de base) ; rappelons qu'une durée double (2τ) garantit alors à l'interaction centrale de remplir pour les deux états de base sa fonction miroir.

• la durée T commune aux deux évolutions libres, toujours grande devant τ

• les valeurs φ du déphasage entre les deux faisceaux lasers, au lieu ( savoir sur l'axe vertical) et à l'instant de chaque interaction. Pour être précis, puisque les trains d'ondes sont éventuellement spatialement séparés, il faut entendre leur centre de gravitéàl'instant oùils subissent l'action des lasers. Interviendront donc dans la formule trois valeurs de ce déphasage, valeurs φ1, φ2 et φ3 associées aux trois interactions.

Ce sont ces valeurs du déphasage qui sont sensibles à l'accélération de la pesanteur : en effet, les lieux (sur l'axe vertical de chute) des trois interactions varient selon l'intensité de cette accélération, qui amène l'atome plus ou moins loin vers le bas dans le même temps imparti.

En définitive, la formule reliant en première approximation, l'accélération de la pesanteur g àces valeurs de déphasage est :

le coefficient devant g étant lié à la différence de fréquence entre les deux faisceaux laser contra- propageants. Celle reliant le déphasage total àla probabilité de transition (de f vers e) constatée à la fin du processus s'écrit :

-°-

Applications de l'interférométrie atomique

Noël Dimarcq consacre la dernière partie de son exposé à quelques applications des performances actuelles ou espérées de l'interférométrie atomique aux mesures de précision. Noël Dimarcq mentionne en premier lieu la métrologie fondamentale, discipline scientifique consacrée à la définition (ou la redéfinition) des unités - telles l'unité de temps, de masse, etc... - à la conception et à la mise au point d'étalons. On est revenu sur ce thème lors de la discussion.

Le conférencier parle ensuite assez longuement des applications relatives à certains tests de physique fondamentale. L'idée à la base de ces applications est la suivante : certains principes ou lois physiques, considérés comme valides, doivent cette validité au fait que la précision des mesures effectuées pour les vérifier a été jusqu'à présent insuffisante pour constater leur violation. Avec l'espérance que cette violation pourra être mise en évidence avec une précision plus importante.

tests portant sur la Relativité Générale Il en est ainsi des principes à la base de la RelativitéGénérale, et des lois qui en sont la conséquence.

Nombre de physiciens travaillent aujourd'hui à partir de l'hypothèse que la réalité physique peut être décrite par une "Grande Théorie Unifiée", réunissant la théorie de la gravitation d'une part, et la théorie (quantique) des autres interactions d'autre part ; la théorie actuelle de la gravitation, à savoir la RelativitéGénérale, n'étant pas quantique, ces physiciens sont amenés àpenser que les énoncés de cette théorie de la gravitation seront tôt ou tard violés, dès lors qu'une certaine précision des mesures sera atteinte.

(29)

29

Le problème est que les tentatives vers une telle théorie unifiée ne sont actuellement pas (ou très peu) en mesure de proposer le niveau de précision qu'il faudrait atteindre pour faire apparaître de telles violations. Ce qui n'empêche pas cependant les expérimentateurs de pousser les vérifications par des mesures toujours plus précises.

Noël Dimarcq dresse ainsi un tableau des niveaux de précision atteints actuellement dans la vérification des différentes versions du Principe d'Equivalence. Rappelons en quelques exemples donnés par le conférencier.

• "dans un champ gravitationnel, tous les corps tombent avec la même accélération" (ex, un marteau et une plume, lâchées d'une même hauteur, arriveront au sol en même temps). En 1900, dans les expériences menées par Lorand Eötvös, l'écart relatif entre les deux valeurs de l'accélération était dans le rapport de 1 sur 100 millions. Cette précision, déjà très importante, s'est depuis accrue d'un facteur d'au moins 10.000, et l'on espère pouvoir prochainement atteindre un rapport de 1 sur 1000.000 milliards dans le projet STE-QUEST

• la mesure de la vitesse de la lumière fournit toujours la même valeur, indépendante de la vitesse de la source, de celle de l'observateur et de leurs directions respectives (principe introductif à la Relativité Restreinte). La précision relative atteint actuellement un rapport de l'ordre de 1 sur 10 milliards.

• les constantes fondamentales sont-elles vraiment constantes, dans l'espace et le temps ? La définition de l'unité de temps, donnée par les horloges atomiques étalons, étant reliées àla valeur de ces constantes, la dérive de ces dernières au cours de l'histoire de l'univers, signifierait une dérive de l'unité de temps. Or, selon le conférencier, certains signes d'une possible dérive des constantes pourraient (peut être) apparaître dans quelques temps

• la formule issue de la Relativité Générale, donnant le décalage en fréquence d'horloges identiques placées en différents points d'un champ gravitationnel, est-elle universelle? Un test de cette universalité va pouvoir être mené dans le cadre du projet Pharao déjà cité, avec une précision encore jamais atteinte.

De la géophysique à Galileo, de la distribution d'énergie aux transactions bancaires Noël Dimarcq, à plusieurs reprises, a insisté sur un point. Les recherches en matière de mesures de précision servent aussi bien les besoins de science fondamentale que les besoins des techniques employées couramment dans notre monde moderne. Des exigences d'évaluations de durée (de transmission de signaux), de synchronisation, de positionnement précis se font jour en effet dans nombre de domaines, et le conférencier en cite rapidement quelques exemples.

Il conclut enfin en rappelant les grandes étapes récentes et les grands noms des avancées scientifiques en arrière plan de son exposé, depuis la théorie du pompage optique par A. Kastler (Prix Nobel 1966), jusqu'aux travaux de Serge Haroche sur la manipulation des états quantiques individuels (Prix Nobel 2012, partagéavec D. Wineland)

--- La discussion

Après l'exposé de Noël Dimarcq, plusieurs questions ont pu être posées et il s'en est suivi une riche discussion. Certaines de ces questions réclamaient quelques précisions techniques, d'autres concernaient des problèmes de fond. je vais les présenter dans l'ordre des interventions.

Qualité des miroirs dans Virgo La question posée concernait le projet VIRGO de détection des ondes gravitationnelles - par interférométrie optique - et l'impact de la qualité des miroirs. Le conférencier a répondu qu'un éventuel biais du à l'état de surface des miroirs n'était pas nécessairement gênant, dans la mesure où il pouvait

(30)

30

être connu et corrigé. Le vrai problème est l'existence de vibrations, de bruits thermiques présents dans ces miroirs qui fonctionnent à la température ambiante (celle du nord de l'Italie, en l'occurrence). Les modifications de distance dues aux éventuelles ondes gravitationnelles étant très faible, ces vibrations sont une réelle limitation. Pour s'en sortir, deux directions évoquées : mener un travail sur des architectures de miroirs adaptées pour atténuer ces fluctuations ; concevoir et construire des interféromètres encore plus grands (référence faite à des projets spatiaux, avec des bras d'interféromètres de plus d'un million de km)

indépendance des mesures du temps et des mesures de distances La question s'est d'abord focalisée sur l'impact de la connaissance de la vitesse de la lumière, et de son éventuelle inconstance, sur la mesure du temps dans les horloges atomiques. En re-précisant la question, l'intervenant s'interroge à propos des horloges atomiques sur les conséquences, sur la mesure du temps, du fait que dans une fontaine atomique, les atomes se déplacent pendant leur vol libre d'où la re- formulation : la mesure du temps est-elle, dans les horloges atomiques, complètement indépendante de la mesure des distances ?

Le conférencier répond que oui, en principe, et même en pratique, en citant les horloges à ions où ces derniers sont piégés dans les creux d'un potentiel électromagnétique et ne bougent pas. Et Noël Dimarcq, de citer également ses propres travaux visant mettre en œuvre les interactions du signal d'interrogation au même endroit sur des atomes macroscopiquement immobiles. L'interféromètre est alors un interféromètre dans le temps, et non dans l'espace. Le déplacement des atomes peut même entrainer des biais d'exactitude, dont il faut tenir compte (effets relativistes, ...)

Par contre, ce qui est vrai pour les horloges atomiques, est faux pour les capteurs inertiels, Car c'est dans le mouvement des atomes dans l'espace physique que l'on décèle l'influence des grandeurs à mesurer (les accélérations).

métrologie du temps, des longueurs, des masses Suite àla constatation, par un intervenant, de l'extrême précision atteinte dans la mesure du temps, et de la possibilité, selon ses dires, de définir les unités de longueur et de masse à partir de l'unité de temps, la discussion s'oriente vers les questions fondamentales de définition formelle et d'étalonnage des unités physiques. Certes, l'unité de longueur est définie à partir de l'unité de temps et de la vitesse de la lumière. Mais le conférencier remarque d'abord que les incertitudes sur cette dernière n'ont pas d'impact sur les mesures de longueurs, au niveau de la précision relative exigée dans les applications. Cela l'amène à rappeler la différence entre la définition formelle - théorique - d'une grandeur et son étalonnage pour les besoins d'un grand nombre d'applications. Pour les définitions théoriques, la tendance est en effet de s'appuyer sur des phénomènes quantiques, où les grandeurs concernées se relient à des fréquences - donc au temps - à la constante de Planck, et éventuellement à la vitesse de la lumière. Mais cela n'empêchera pas dans la pratique d'utiliser des étalons basés sur d'autres phénomènes Le conférencier reprend alors le cas des unités électriques (Ampère, Volt), en lien avec le problème de la définition de l'unité de masse, le kilogramme ; et des pistes ouvertes sur ce dernier thème, à savoir une définition à partir de phénomènes quantiques ou à partir d'un nombre fixé d'atomes d'un certain type.

Sur le temps : existe t-il une limite au degré de précision atteignable ? Le conférencier pense effectivement que l'on risque d'atteindre un certain palier. La raison en est que l'extrême précision actuelle se rapproche de l'ordre de grandeur des variations de fréquence, dues à la variation des conditions environnementales présentes dans les expériences : on ne peut plus du tout considérer alors seulement l'horloge, mais le système constitué de l'horloge et de son environnement.

Pour prendre un exemple concret, tant que la précision est suffisamment faible pour que les variations de la fréquence d'une horloge soient indécelables sur l'ensemble des bâtiments d'un certain laboratoire,

(31)

31

on peut parler de l'horloge de ce laboratoire ; mais lorsque la précision atteinte permet de distinguer une variation de fréquence, lorsque l'on déplace l'horloge d'un centimètre, de quelle horloge va t-on parler ?

Sur les transitions utilisées dans les étapes de refroidissement, d'interrogation, de détection.

Sachant que ces trois étapes utilisent (ou peuvent utiliser pour la dernière) des transitions entre niveaux d'énergie sous l'effet d'interactions entre atomes et photons, une certaine confusion peut apparaître : ces transitions sont-elles les mêmes ? La réponse est clairement négative : les propriétés requises pour les transitions par ces différentes étapes sont différentes : ainsi, dans l'étape de refroidissement l'atome, une fois placé au niveau supérieur, doit très vite redescendre à son niveau initial, pour pouvoir être freiné à nouveau lors d'une seconde absorption. Et il doit le faire par émission spontanée et non émission induite, car alors le bilan de freinage serait nul. De plus, on a évidemment intérêt à utiliser des transitions de haute fréquence, pour que l'impulsion des photons soit élevée et donc le freinage important. Au contraire, dans l'interrogation, l'atome, ayant atteint le niveau supérieur, doit y rester le plus longtemps possible, pour qu'au niveau de la détection la probabilitéde transition soit correctement estimée.

La question sous-tendait celle des méthodes de détection, où il s'agit de mesurer la proportion d'atomes occupant le niveau supérieur d'énergie ; une des méthodes les plus efficaces consiste àéclairer le paquet d'atomes par un rayonnement laser d'un troisième type, amenant les atomes à un niveau encore supérieur, mais dont ils vont décrocher spontanément et revenir àun niveau fondamental, en émettant un rayonnement de fluorescence.

L'intervalle de temps séparant deux corrections successives La question porte sur la cadence de correction, dans l'asservissement de l'oscillateur à la fréquence théorique. Cette question rejoint celle du rapport entre cette cadence de correction et le temps d'intégration utilisé dans le calcul de la stabilité, mais cette dernière question n'a pas été explicitement posée. La réponse du conférencier est que cela dépend du type d'horloge : dans les fontaines à atomes froids, l'intervalle entre deux corrections comprend plusieurs cycles, et atteint par exemple la dizaine de secondes ; dans les horloges embarquées ce même intervalle se réduira, par exemple, à une dizaine de milli-secondes.

Sur une technique potentiellement utilisable dans les horloges à ions Un intervenant imagine que l'on refroidisse suffisamment les ions de façon àpouvoir les piéger dans un

"solide coulombien" et demande si cet effet a pu être utilisé dans les horloges à ions. Le conférencier répond que cet effet n'a pas été utilisé. La question l'amène à revenir sur les horloges à ions et leurs contraintes : utilisation d'un petit nombre, voire d'un seul ion avec les avantages et les inconvénients qui en résultent, recherches en direction de chaines linéaires d'ions. Il souligne enfin la complémentarité entre les deux approches (atomes neutre et ions) et l'intérêt de disposer de filières différentes, qui peuvent ainsi se contrôler les unes avec les autres.

Statuts comparés de la vitesse de la lumière et de la constante de Planck.

L'intervenant rappelle les rôles respectifs joués par la vitesse de la lumière et la constante de Planck, dans la théorie de la gravitation et dans le modèle standard de la physique des particules. Et de s'interroger sur la différence de leur statut dans la définition d'autres unités, comme l'unité de masse. Il s'interroge sur la dissymétrie entre les deux constantes et pose la question : que se passerait-il si l'on prenait comme constante fondamentale la constante de Planck ?

La discussion avec le conférencier permet à l'intervenant de préciser sa question. La vitesse de la lumière a le statut d'une constante "pure" ; elle est par définition connue avec une précision infinie puisque, en énonçant "elle vaut 299.... mètres par secondes", on ne fait que donner la définition du mètre. Toutes les unités spatiales (distances, etc) y sont accrochées. Qu'est ce qui empêche de faire la

(32)

32

même chose avec la constante de Planck, de considérer cette dernière comme une constante "pure" et d'y accrocher d'autres unités, telle l'unité de masse ?

S'ensuit un échange sur la possibilité et l'intérêt d'une telle démarche, et le statut que pourraient avoir d'autres constantes dans cette perspective, comme la constante de structure fine ou la constante de Rydberg.

Le caractère conceptuellement continu du temps Une intervenante s'appuie sur son expérience des fractales : La longueur d'un objet fractal dépend de la résolution avec laquelle on le mesure ; pourrait-il en être de même du temps ? le temps est il vraiment

"une ligne droite", se déroule t-il de façon continue ?

A cette question, le conférencier répond qu'on est encore loin, dans les résolutions temporelles atteintes (liées au fréquences), du temps de Planck, c'est-à-dire du temps où les phénomènes quantiques rejoindraient les phénomènes gravitationnels et où le caractère continu du temps, comme de l'espace, pourrait être remis en cause. La réponse est donc sans ambiguité: pour le moment oui, on ne sort pas du concept de temps continu, du temps vu comme une ligne droite.

Les raisons du choix des atomes, : pourquoi le césium, le rubidium, etc ? Cette question conduit le conférencier à revenir brièvement sur les critères de choix des atomes, au delà des raisons historiques qui ont conduit àtel ou tel choix, compte tenu des méthodes utilisées àl'époque : nécessité d'avoir des atomes stables, facilement sélectionnables sous une forme pure, présentant des écarts de niveaux d'énergie associés à des fréquences facilement accessibles et présentant la variété des qualités requises aux différentes étapes, et peu sensibles aux champs magnétiques.

De l'optique à l'électronique.

Un intervenant souligne un des aspects des relations entre l'optique et l'électronique qui le frappe, et le conférencier le rejoint sur cette constatation ; à la fin du 19 sème siècle, avec la reconnaissance de l'identitéde nature entre les ondes électromagnétiques et celles de l'optique, c'est l'optique, les notions et techniques que cette discipline avait introduits qui jouent le premier rôle : la notion de longueur d'onde, et les techniques pour la mesurer. Depuis, une bascule s'est faite vers la notion de fréquence ; les méthodes pour mesurer directement les fréquences et les contrôler se sont considérablement améliorées ; dans ce basculement, c'est l'électronique qui joue cette fois un rôle majeur.

De la possibilité d'utiliser les condensats de Bose-Einstein Un dernier intervenant évoque la possibilité d'utiliser, en lieu et place de paquets d'atomes froids, des condensats de Bose-Einstein, assemblées d'atomes dotées de propriétés collectives spécifiques, assurant en particulier la cohérence de leurs ondes atomiques respectives. Cette cohérence pourrait séduire en effet ; Noël Dimarcq souligne cependant l'inconvénient majeur des fortes interactions entre atomes, présentes dans ces collectivités, interactions qui ont pour effet de déplacer les fréquences des niveaux d'énergie et donc d'affecter l'exactitude. S'introduisent alors des biais qu'il faut savoir analyser et compenser ; des travaux sont en cours, mais rien ne permet actuellement de penser que les condensats puissent surpasser les atomes froids dans les horloges atomiques.

Après cette très riche séance, nos travaux prennent fin.

Irène HERPE-LITWIN

(33)

33

Annonces

A. Notre Collègue Michel GONDRAN nous fait part de la parution de son ouvrage:

“Mécanique quantique: Et si Einstein et de Broglie avaient aussi raison?”

que l’on peut commander par internet sur le site suivant

http://www.materiologiques.com/%E2%80%89Mecanique-quantique-Et-si on y trouve aussi en lecture libre le chapitre introductif et le plan.

Un résumé de son ouvrage est également disponible dans les documents p.20

B. Notre Collègue Christian HERVE nous fait part de la tenue d'une université d'été 2014

" Envie d'Ethique" qui se tiendra à Montpellier du 6 au 9 octobre 2014. Les informations relatives à cet événement sont accessibles sur le site :

http://www.espace-ethique.org/ressources/editorial/montpellier-2014-%C2%AB-envie- d%E2%80%99%C3%A9thique-%C2%BB

Le programme est accessible sur le site:

http://www.espace-ethique.org/sites/default/files/Colloque_Alzheimer_14_BD6.pdf Les inscritions ont lieu sur le site:

http://www.espace-ethique.org/actualites/ouverture-des-inscriptions-%C3%A0- luniversit%C3%A9-d%C3%A9t%C3%A9-%C3%A9thique-alzheimer-et-maladies

− Il signale qu'à l'occasion de cette même université d'été Etienne KLEIN et Jean- Claude AMEISEN engageront une conversation éthique animée par Emmanuel HIRSCH.

(34)

34

Documents

1. Pour illustrer la parution de son ouvrage “Mécanique quantique: Et si Einstein et de Broglie avaient aussi raison?” nous vous proposons:

p35: un résumé son ouvrage par Michel GONDRAN lui-même

2. Pour préparer la conférence Luc BLANCHET, nous vous proposons l'article ci- dessous rédigé par celui-ci:

p 36 : Issu du site http://www2.iap.fr/users/blanchet/images/Astronomie.pdf du 11/02/2009

"GRAVITE MODIFIEE OU MATIERE MODIFIEE ?"

(35)

35

Résumé du livre de Michel GONDRAN

“Mécanique quantique: Et si Einstein et de Broglie avaient aussi raison?”

Nous montrons qu'il existe une interprétation de la mécanique quantique qui réhabilite le réalisme (du temps et de l'espace) ainsi que le déterminisme. On montre même que l’on peut ainsi rendre la mécanique quantique et la relativité compatible et compréhensive.

Nous répondons ainsi aux deux affirmations d’Einstein: Dieu ne joue pas aux dés; J’aime à penser que la lune existe même lorsque je ne la regarde pas. Nous le faisons en améliorant et en développant les deux interprétations de la mécanique quantique de Louis de Broglie: l’onde pilote et la théorie de la double solution.

En effet, depuis le congrès Solvay de 1927, le point de vue de Bohr, d'Heisenberg, de Born et de Pauli s'est imposé à toute la science contemporaine contre celui d'Einstein, de Broglie et de Schrödinger : il faut dorénavant renoncer au déterminisme et à l'existence d'une réalité objective.

Le premier objectif de ce livre est de faire connaitre au public francophone l’onde pilote de Broglie-Bohm qui faisait dire à Bell en 1987:

« Pourquoi l'image de l'onde-pilote est-elle ignorée dans les cours ? Ne devrait-elle pas être enseignée, non pas comme l'unique solution, mais comme un antidote à l'auto-satisfaction dominante ? Pour montrer que le flou, la subjectivité, et l'indéterminisme, ne nous sont pas imposés de force par les faits expérimentaux, mais proviennent d'un choix théorique délibéré ?"

Or depuis 1987, cette théorie reste toujours méconnue des physiciens et ignorée du grand public.

Pourtant elle donne un modèle sous-jacent à la mécanique quantique habituelle et rétablit déterminisme et réalisme.

Nous proposons en particulier des simulations numériques qui permettent de donner des explications simples et réalistes de toutes les expériences fondatrices de la mécanique quantique : - les interférences dans les fentes de Young (paru dans AJP),

- la “ mesure” du spin dans l’expérience de Stern et Gerlach, - le passage d’un électron par effet tunnel,

- la non localité de l’expérience EPR-B sans contredire la relativité générale, - les transitions dans l’atome d’hydrogène,

- le point lumineux de l’expérience de Poisson-Arago (paru dans AJP),...

Une expérience de pensée réalisable aujourd’hui est proposée :c’est une expérience de fentes de Young avec des fentes de tailles variables qui permet de tester la coexistence onde et particule.

Dans une seconde partie de cet essai, nous proposons une réponse possible à la théorie de la double solution que recherchait de Broglie. Déterminée par des conditions initiales différentes (préparations

différentes du système quantique: onde pilote de Broglie-Bohm pour les systèmes statistiques, onde soliton de Schrödinger pour les états cohérents), cette interprétation permet d’expliquer le long débat sur la mécanique quantique, chacun des pères fondateurs semblant avoir sur généralisé son interprétation.

Il s’agit d’un livre pour un « public motivé » (niveau La Recherche/Pour la Science) où l’histoire des sciences est réellement utilisée pour construire une solution. Ce livre s’adresse à tout scientifique ou lecteur curieux en quête de clés pour comprendre les lois de la nature. Il devrait être indispensable aux étudiants, chercheurs et enseignants en physique et en histoire des sciences.

Références

Documents relatifs

Ainsi lorsque l‘on dispose en sciences de l‘éducation, par exemple, de notes d‘élèves à deux âges, répartis dans différentes classes [Goldstein, 2003], on

Cette fonction de causalité a été particulièrement étudiée par Aristote (Livre II de la physique), par St Thomas d’Aquin et par Kant. L’homme cherche à mettre de l’ordre dans

Pour modéliser la structure d'un système, il faut donc identifier, à partir du modèle conceptuel, les éléments des trois catégories d’éléments constitutifs de tout

Les critiques d’Einstein. Du point de vue conceptuel, les critiques d’Einstein ne portaient pas sur l’existence des particules, mais sur leur fondement en relation avec le

On peut penser à Descartes, au sujet duquel Spinoza a écrit Principes de la Philosophie de Descartes (1663), et dont peut considérer qu’il s’est inspiré dans son projet qui est

Nous décrirons la physique nouvelle qui sera possible avec l'analyse du signal gravitationnel: mesures des masses et spins d'étoiles à neutrons et de trous noirs, équation d'état

To this aim, we compared the activations evoked by math versus non-math reflection in mathematicians, with those evoked either by calculation relative to sentence

The focus is put here on co-periodic stability of periodic waves, that is, stability with respect to perturbations of the same period as the wave, for KdV-like systems