• Aucun résultat trouvé

2.6 Exploration discontinue de type Monte-Carlo

2.6.4 Recuit simulé

Le recuit-simulé est quand à lui utilisé dans le cadre des problèmes inverses, pour trouver les paramètres qui maximisent fpost — en pratique ceux qui minimisent son logarithme négatif f0. Il est inspiré de l’algorithme de Métropolis et des techniques de minimisation de l’énergie d’un matériau en métallurgie par la répétition d’un cycle al- ternant un lent refroidissement et un réchauffage rapide (pour éliminer les impuretés). Il a été proposé par Kirkpatrick et al. [1983] pour la première fois en tant que “simu- lated annealing”, c’est-à-dire avec un cycle de lent refroidissement uniquement. Il est basé sur la densité de probabilité de Gibbs-Boltzmann

gT(p) = exp (−E(p)/T)cste(T) , (2.57)

qui détermine la distribution de particules d’un système thermodynamique en équilibre en fonction de son énergie.

Les variations de température du recuit-simulé permettent de prendre un chemin qui descend progressivement la température vers une température nulle, malgré les minimums locaux (les impuretés du matériau). A température nulle, g(p) approxime en effet une distribution delta où l’énergie E(p) a été amenée à son minimum global.

En pratique l’algorithmme consiste à combiner une stratégie de variation de tem- pérature, avec des itérations qui consistent chacune en la proposition d’un pas δp et son acceptation avec la probabilité gT(δp).

La recommandation initiale de Kirkpatrick est de diminuer la température expo- nentiellement, toutefois cette stratégie ne fonctionne pas sur beaucoup de cas diffi- ciles[Pedersen, 1990], et mène alors vers un minimum local. Une autre stratégie de refroidissement consiste à diminuer la température à chaque fois qu’un équilibre est atteint. Toutefois cela mène à une optimisation avec des temps infinis. De nombreux travaux sur le recuit-simulé dans les années 80 dont ceux de Rothman sur des don- nées sismiques ont révélé la difficulté du réglage de la température, et donc la difficulté d’utilisation pratique de l’algorithme. Cependant des travaux plus prometteurs ont par la suite consisté à diminuer la température progressivement en se basant sur une dimi- nution de température à distance constante de l’équilibre[Nulton and Salamon, 1988; et al., 1988].

Il resterait encore de nombreuses techniques de Monte-Carlo à évoquer telles que notamment les codes génétiques et les réseaux neuronaux, mais je m’arrête ici dans cette présentation, puisque les développements que je présente par la suite ne mettent pas en œuvre de technique Monte-Carlo.

Chapitre 3

Reconstruction de phase à partir

d’une image tavelée

Dans ce chapitre je présente mon travail sur l’estimation des aberrations atmosphé- riques de la phase sur la pupille d’un télescope, à partir des images tavelées au foyer du télescope. C’est un problème inverse non-linéaire difficile à grand nombre de pa- ramètres dont je rappelle tout d’abord l’historique. Je présente ensuite mon approche pour le contexte particulier auquel je me suis intéressé de l’estimation des fortes aber- rations (D/r0 élevés). En particulier je présente un nouvel algorithme d’optimisation global pour résoudre ce problème pour des conditions de turbulence plus difficiles (D/r0 plus grands) que ce qui a été fait jusqu’à présent. Les performances de l’al- gorithme sont présentées avec de nombreuses simulations en fonction du D/r0 et du niveau de bruit.

3.1 Historique

La reconstruction de phase à partir de mesures d’intensités est un problème inverse récurrent en physique. La microscopie électronique, la cristallographie, l’optique ac- tive, la déconvolution aveugle, la reconstruction d’images 3D par tomographie, ont notamment motivé son développement au cours des 50 dernières années. Les premiers algorithmes permettant de mesurer des petites aberrations à partir d’une image dans un plan focal ont été proposés par Gerchberg and Saxton [1972], puis Gonsalves [1976] et Fienup [1978]. Ces premiers algorithmes sont basés sur la variation itérative de l’am- plitude complexe dans les deux plans de Fourier associés de la pupille et de la mesure. A chaque itération l’amplitude complexe est mise à jour dans son plan grâce respecti- vement à la contrainte de support de la pupille et grâce aux contraintes associées aux mesures. Fienup [1982] a ensuite établi la comparaison entre ces algorithmes et les algorithmes d’optimisation locale de type plus grande pente et gradients conjugués. Il

a également montré que ces premières méthodes possèdent les mêmes propriétés de convergence locale au voisinage d’un point fixe, que les algorithmes d’optimisation pseudo-continus de la comparaison.

Pour pallier la stricte ambiguïté de signe dans la reconstruction de phase, Gon- salves [1982] a proposé la technique de diversité de phase, qui s’est rapidement impo- sée. Cette technique permet de démanteler l’ambiguïté grâce à une deuxième image, contenant par rapport à la première une aberration fixe d’ordre pair, qui est générale- ment une défocalisation. L’ambiguïté peut toutefois être levée sans diversité dans le cas d’acquisitions continues, grâce à la corrélation temporelle entre les phases succes- sives, ce que je montre à la section 3.8. Un état de l’art des méthodes de reconstruction de phase avec diversité focale a récemment été écrit par Mugnier et al. [2006].

Dans le contexte particulier auquel je me suis intéressé d’estimation des aberrations atmosphériques de phase à partir d’une seule image tavelée au foyer d’un télescope, les développements de référence sont ceux accomplis par Irwan and Lane [1998]. Ils ont en effet obtenu la convergence locale de la phase pour des rapports D/r0jusqu’à 4 en faisant l’optimisation par gradients conjugués du critère de maximum de vraisem- blance de l’adéquation a posteriori (critère MAP). Je démontre par la suite qu’on arrive à reconstruire la phase pour des conditions de turbulence plus difficiles que D/r0=4, en partant d’une formulation analogue et en utilisant un algorithme d’optimisation non- linéaire mieux adapté, que je combine à une stratégie d’optimisation globale efficace lorsque l’optimisation locale ne suffit plus. A ma connaissance, mon algorithme est le premier algorithme d’optimisation globale effectif dans ce contexte de reconstruction de phase sans utiliser de diversité de phase.

3.2 Adéquation expérimentale (ML)