• Aucun résultat trouvé

Comparaison des FEPs obtenues avant et après compensations des aberrations statiques

2.3 Les méthodes d’inversion

L’astronomie fait partie de ces nombreux domaines de la physique où l’observation ne fournit qu’une mesure imparfaite d’une grandeur physique d’intérêt donnée. Les mesures sont liées à la grandeur d’intérêt via un modèle physique connu. Dans notre cas, les mesures sont une image et les grandeurs qui nous inté-ressent sont tour à tour l’objet observé o, et la réponse de l’instrument h, aussi appelée FEP. Si on admet un modèle physique f pour formation d’image, il vient

i = f (o, h) + b (2.36)

où b est un « bruit » qui modélise les incertitudes de mesure.

L’objet observé, de même que l’image mesurée, s’expriment comme leur répartition angulaire d’inten-sité. La réponse de l’instrument, dans le cadre général de l’observation d’une scène à travers la turbulence, peut être paramétrée la phase statique φsdans la pupille, et la fonction de structure Dφ. Comme expliqué dans la section précédente, cette répartition angulaire d’intensité est discrète sur une grille de pixels. La phase dans la pupille s’exprime comme une carte de phase elle aussi discrétisée. Par ailleurs, à l’intérieur du domaine isoplanétique, le modèle physique connu liant l’image mesurée à l’objet observé et à la réponse du télescope est un modèle convolutif1:

i = h ? o + b (2.37)

La mise en place d’une méthode d’inversion consiste donc à inverser ce problème, et « remonter » à l’ob-jet o, ou à la réponse de l’instrument h, ou aux deux conjointement à partir des mesures i et de connaissances

a priori sur l’objet et la réponse de l’instrument.

2.3.1 Inversion régularisée : l’approche bayésienne 2.3.1.1 Echec de méthodes non-régularisées

Il existe de nombreuses méthodes d’inversion. Il n’en est pas fait de liste ici, et le lecteur curieux trou-vera de nombreuses références sur le sujet très complètes et explicites, en particulier [57] pour une pré-sentation générale des méthodes d’inversion, et [58] pour une présentation plus détaillée sur l’imagerie à travers la turbulence. Notons simplement que les méthodes dites « non régularisées » (Moindres Carrés (MC), moindres carrés pondérés, ou Maximum de Vraisemblance (MV)) trouvent leur efficacité unique-ment lorsque le nombre de mesures dépasse largeunique-ment le nombre d’inconnues. Ces méthodes constituent en effet des estimateurs convergeant vers la vraie valeur des paramètres recherchés lorsque le nombre de mesures tend vers l’infini. Dans le cas qui nous intéresse, l’inversion en imagerie, le nombre de mesures (égal au nombre de pixels dans le cas d’une image discrétisée par un détecteur) est de l’ordre de grandeur du nombre d’inconnues recherchées (le nombre de point dans l’objet, ou dans la réponse de l’instrument, également discrétisés sur une grille de même taille que l’image), voire même plus faible en myope. Les méthodes non régularisées que sont les moindres carrés, ou le MV sont donc inadaptées. Il est intéressant de pouvoir rajouter lors de l’inversion, des connaissances a priori, c’est précisemment le but des méthodes dites « régularisées ».

2.3.1.2 Méthode régularisée : l’estimation bayésienne et le Maximum A posteriori (MAP)

L’estimation bayésienne permet de prendre en compte conjointement les mesures i apportées par l’ob-servation, ainsi que l’information disponible a priori sur la grandeur d’intérêt. Le raisonnement suivant, purement probabiliste, est fait sur l’objet o, mais peut être mené également sur la réponse de l’instrument h. On suppose pour ce faire que l’on a exprimé les connaissances a priori disponibles sur l’objet que l’on

souhaite observer o dans une distribution de probabilité p(o). Il ne s’agit pas de considérer l’objet comme une réalisation aléatoire de la loi p(o), mais de considérer que cette loi est représentative de nos informations

a priori, et prend des valeurs faibles pour les objets peu compatibles avec celles-ci, et élevées pour les objets

compatibles.

La règle de Bayes donne une expression de la probabilité de l’objet o sachant les mesures i : p(o|i) = p(i|o) × p(o)

p(i) ∝ p(i|o) × p(o) (2.38)

en fonction de la probabilité a priori de l’objet p(o) et de la probabilité des mesures sachant l’objet p(i|o). Celle-ci contient les connaissances sur le modèle physique liant o à i, bruit compris.

Il reste maintenant à définir un estimateur de l’objet. Un choix communément accepté est l’objet qui maximise la probabilité p(o|i) :

ˆ

oM AP = arg max

o (p(i|o) × p(o)), (2.39)

c’est l’objet le plus probable étant données les mesures et les connaissances a priori sur l’objet. L’esti-mateur correspondant est appelé MAP. La maximisation de la probabilité p(o|i) est équivalente à la minimi-sation de l’opposé de son logarithme, l’estimateur ˆoM AP est donc également celui qui minimise le critère JM AP(o):

JM AP(o) = − ln p(i|o) − ln p(o) = Ji(o) + Jo(o) (2.40) où Ji(o)est un critère d’attache aux données, par exemple un critère de moindres carrés pondérés, et où Jo(o)est un critère dit de régularisation (ou de pénalisation) et qui traduit l’attachement aux connaissances

a priori.

2.3.1.3 Lien avec le maximum de vraisemblance

Dans l’expression précédente (2.47), considérer que tous les objets sont également probables revient à considérer que sa probabilité p(o) est une constante, et donc que le terme du critère qui lui est rattaché est une constante qui ne modifie pas l’estimateur de l’objet. Le critère MAP est donc dans ce cas réduit au critère du maximum de vraisemblance. De plus si le bruit est gaussien et de variance uniforme dans l’image, alors le critère est réduit à un critère des moindres carrés.

2.3.2 Estimation de l’objet à FEP connue : déconvolution classique

Un cas de figure courant en astronomie consiste à estimer l’objet o, à réponse h connue. En effet la FEP peut souvent être calibrée par ailleurs, par exemple sur une étoile voisine. L’estimateur du meilleur objet ˆo est alors celui qui minimise le critère présenté en2.40. Les deux termes de ce critère (attache aux données Jiet a priori Jo) doivent être choisi selon certaines règles :

2.3.2.1 Terme de vraisemblance

Le terme d’attache aux données, ou de vraisemblance, prend en compte la statistique du bruit dans l’image. Physiquement, celle-ci est le résultat d’une statistique poissonienne due au bruit de photon et d’une statistique gaussienne uniforme due au bruit de détecteur. En pratique, cette statistique peut être approximée par un bruit blanc (indépendant d’un pixel à l’autre), gaussien centré (dont la statistique sur un pixel est gaussienne, centrée sur 0), et de variance non uniforme. Le terme d’attache aux données est donc un moindre carrés pondérés (chaque pixel possédant sa propre variance, mais une statistique gaussienne) :

Ji(o, h) =X k,l  i[k, l] − (h ? o)[k, l] σ[k, l] 2 (2.41)

où σ2[k, l]représente la variance de bruit associée au pixel [k, l] dans l’image.

Les hypothèses d’obtention de ce critère sont les suivantes : le bruit dans les images est supposé gaussien, blanc, non uniforme. C’est une bonne approximation pour décrire le bruit réel dans l’image, dont l’origine est double : le bruit de détecteur est blanc et gaussien homogène, le bruit de photon est blanc et poissonien. En effet à fort flux, le bruit dominant est le bruit de photon, dont la statistique poissonienne pour de fortes valeur du paramètre de moyenne µ tend vers une statistique gaussienne dont la variance varie de pixel à pixel. La Figure2.18montre la loi de Poisson pour différentes valeurs du paramètres µ. Pour des paramètres de moyenne 15 ou supérieure, l’approximation avec une gaussienne est bonne. D’autre part à faible flux, le bruit dominant est le bruit de détecteur dont la statistique est gaussienne uniforme. Quel que soit le régime de flux, il est donc valable d’approximer la statistique du bruit par une loi gaussienne non uniforme (ie variant de pixel à pixel).