• Aucun résultat trouvé

3.3 Calculs efficaces d’une sortie modèle et du transposé

3.3.3 Approximation du hessien

Nous nous intéressons à l’estimation de x à hyper-paramètres fixés et c fixé (que nous ignorerons dans les écritures). Dans ce cas on sait qu’il s’agit de la solution des moindres carrés régularisés décrite partie 3.2.1. Nous ferons quelques simplifications dans les notations par souci de clarté et pour se concentrer sur l’essentiel. Dans ce cas la solution explicite est connue et s’écrit

ˆ x=HtΣ−1 y H+ Σ−1 x −1 HtΣ−1 y y.

Ici nous considérons que le bruit est blanc iid avec un facteur γbb différent pour chaque bolomètre. En exploitant le modèle de la partie précédente, la solution s’exprime

ˆ

x=DtHctΣtPtPΣHcD+ Σ−1

x

−1

Le calcul de l’inverse du hessien n’est pas possible directement. Cependant on sait que les matrices D et Σ sont composées de matrices identités donc diagonales. De plus Hc est composée de matrices de convolution donc diagonalisables dans l’espace de Fourier. Par contre la matrice P est plus complexe. La question est donc : peut-on trouver une approximation telle que l’ensemble soit composé de matrices diagonalisables dans l’espace de Fourier, permettant d’inverser le hessien efficacement ?

En fait, comme P est une matrice de troncature, la matrice PtP est une matrice diagonale. Plus précisément, les éléments diagonaux correspondent au nombre de fois qu’un coefficient (à la sortie de la convolution) est observé. La diagonale est donc composée de 0, de 1, etc. la trace étant égale au nombre de données. L’idée est d’approcher cette matrice par l’identité et ainsi d’obtenir l’expression ˆ x=DtHctΣtΣHcD+ Σ−1 x −1 DtHctΣtPty.

qui pourra certainement avoir une expression diagonale dans l’espace de Fourier.

Il faut donc déterminer sous quelles approximations la matrice PtP est l’identité. On peut essayer d’établir la meilleure matrice au sens d’un critère tel que PtP ∝ I. Donc pour que P soit l’identité, il suffit que :

– là où il y avait des zéros, qui correspondent à des pixels non observés, il y ait maintenant un 1. Cela sous-entend soit l’existence de données non acquises en réalité, soit de considérer qu’une donnée est obtenue par combinaison linéaire de pixels.

– là où les coefficients sont plus grand que 1, on les positionne à 1, ce qui sous-entend que ces pixels ont été vus une seule fois. Donc soit certaines données sont ignorées ou alors on peut considérer une moyenne de celles-ci.

Une autre possibilité pour s’affranchir du problème des zéros consisterait à diminuer la résolution du ciel, c’est à dire les pas Tα et Tβ. C’est la solution envisagée naturellement par les solutions qui n’exploitent pas d’information a priori tel que MADmap ou sanepic. On perd potentiellement en résolution spatiale.

Ces considérations ne sont pas fondamentales. En effet l’intérêt repose plus sur la possibilité d’avoir une approximation relativement correcte pour appliquer un filtre de Wiener–Hunt. Si nous sommes capables d’avoir un filtre de Wiener–Hunt mis en œuvre par transformée de Fourier nous pouvons ainsi fournir une première estimation du ciel grossière, une initialisation pour l’algorithme d’optimisation voir une estimation des hyper-paramètres avec l’algorithme présenté partie 3.2 mais beaucoup plus rapide puisque l’échantillonnage de x se ferait dans l’espace de Fourier.

Une autre possibilité, employée dans certaines approches, considèrent que PtP est proportion-nelle à l’identité et fabrique des données intermédiaires avec une rétro-projection et une moyenne dans l’espace ciel

˜

y= Pt(P Pt)−1y

Il s’agit d’ailleurs de la méthode appelée Shift and add dans la littérature en astronomie ou en super-résolution lorsqu’une étape de déconvolution est incluse [PPK03].

L’approche proposée consiste à calculer l’optimum du critère J(x) =||y − P x||2+ λ||Dx||2

ce qui revient à estimer au préalable un ciel doux par pénalisation de hautes fréquences Dx avec un modèle d’acquisition correspondant à P . Autrement dit il n’y a pas de déconvolution puisque P est une matrice de prélèvement et Ptune matrice de bourrage de zéros. En fonction de la résolution choisie il peut y avoir des pixels non observés. L’a priori de douceur ||Dx||2, où en pratique D est le gradient discret, comble alors naturellement les sites où les données sont manquantes. L’optimum

3.4. CONCLUSION

est calculé par une algorithme de descente de gradient relativement rapide puisque les calculs P x et Dx sont très simples. C’est une approche notamment proposée par Farsiu et al. [FREM04].

La question maintenant est de savoir comment la solution s’exprime et se diagonalise dans l’espace de Fourier avec l’approximation PtP = I. La solution des moindres carrés régularisés s’écrit maintenant ˆ x=DtHctΣtΣHcD+ Σ−1 x −1 DtHctΣty.e (3.50)

Les calculs sont dans l’annexe C.4. En particulier si nous avons un ordre unique, c’est à dire l’ordre zéro, alors la solution est simplement

x0= FP vv0|2+ |ΛD0|2−1P vΛ1 0†◦ e yv  . (3.51)

Nous avons obtenu à l’aide d’une approximation sur la redondance de l’observation, une solution des moindres carrés régularisés par filtre de Wiener–Hunt, c’est à dire diagonalisée dans l’espace de Fourier grâce à l’inversion explicite du hessien. Cette inversion peut également servir dans l’algo-rithme d’optimisation, sans que l’approximation affecte la solution. On obtient alors un algol’algo-rithme avec pré-conditionneur où l’itération suivante est calculée par

x(k+1)= x(k)− ηH−1 e g(k). Si l’inverse du hessien H−1

e est disponible, alors avec un pas η = 1 et une initialisation x(0) = 0 la solution des moindres carrés régularisés est directement obtenue. L’idée ici n’est pas d’utiliser l’inverse exacte puisqu’elle n’est pas calculable en pratique, mais l’approximation obtenue. L’objectif est d’accélérer la descente en corrigeant les directions du gradient g.

3.4 Conclusion

Ce chapitre présente la démarche proposée pour l’estimation d’un signal astrophysique à l’aide des données fournies par l’instrument spire. L’approche proposée est nouvelle dans le sens où il s’agit de la seule, pour les données de spire, incluant explicitement le processus d’acquisition complet dans le problème d’inférence, le tout avec une approche globale. Cela permet, conjointement à l’estimation du signal de nuisance c, d’estimer un ciel sur-résolu. Elle propose également de déterminer explicitement, en reposant sur un critère formalisé, le compromis entre les différentes sources d’informations et les paramètres instruments.

Tout d’abord nous avons défini la loi a posteriori collectant toute l’information injectée dans le problème. Elle est construite en partie avec une vraisemblance qui repose sur le modèle linéaire non-invariant défini dans le chapitre 2 et une loi gaussienne indépendante stationnaire pour le bruit affectant les bolomètres. Elle est construite également pour une autre part sur les informations a priori sur l’objet, considéré régulier dans les dimensions spatiales, sur la composante basse fréquence régulière dans le temps, ainsi que sur des lois a priori sur les paramètres de ces lois.

L’estimateur proposé est la moyenne a posteriori calculée à l’aide d’un échantillonneur de Gibbs. Cet algorithme fournit une estimation de l’objet ainsi que des paramètres des lois permettant ainsi un réglage automatique du compromis entre les différentes sources d’information. L’approche permet également d’estimer des paramètres instruments et peut potentiellement prendre en compte une dérive thermique.

Le point difficile concerne l’échantillonnage de la loi conditionnelle a posteriori de l’objet qui est une loi normale multivariée. La structure non-invariante du modèle rend en effet impossible l’échantillonnage dans l’espace de Fourier ce qui aurait permis l’échantillonnage des coefficients

de Fourier indépendants entre eux. Malgré la dépendance complexe entre pixels, le calcul d’un échantillon peut s’effectuer en optimisant un système perturbé.

Enfin, plusieurs moyens d’accélérer les calculs en analysant la structure du modèle sont présen-tés. Tout d’abord nous exposons comment une partie de l’invariance continue est préservée dans l’espace discret, ce qui permet de réduire considérablement la taille dans la mise en œuvre sur machines de calcul. Nous montrons ensuite comment avec une approximation, avec un domaine de validité important, nous pouvons séparer le problème en une partie invariante et une partie non invariante. Enfin nous poussons l’approximation plus loin, permettant d’avoir un calcul faisable de l’inverse du hessien. Cela permet une mise en œuvre rapide par transformée de Fourier. Cette ap-proximation permet également une correction des directions de descente, avec un préconditionneur, dans l’algorithme d’optimisation.

Le prochain chapitre présente une étude expérimentale sur le potentiel de la méthode concernant la restauration de fréquences spatiales et les possibilités de sur-résolution. L’étude porte également sur les aspects non-supervisés et des résultats sur l’estimation de paramètres instruments sont présentés dans l’article de l’annexe F. La prise en compte de la composante basse fréquence n’est pas étudiée.

Chapitre 4

Étude expérimentale

Le chapitre précédent présente les résultats méthodologiques pour l’inversion de données spire avec une approche globale. L’étude expérimentale menée dans ce chapitre se concentre principale-ment sur les capacités de restauration de fréquences spatiales ou de structures fines du ciel au moyen de la méthode proposée. La prise en compte de la dérive ne nous semblant pas primordiale, pour le moment, face aux questions de reconstruction du ciel, elle n’est pas étudiée ici. L’ensemble des résultats présentés utilisent l’arrondi sur les pointages pour le modèle instrument, décrit partie 3.3.2. Dans un premier temps on étudie, à hyper-paramètres fixés, le gain apporté par la prise en compte d’un modèle instrument et d’une information a priori pour le ciel. Il s’agit de la solution des moindres carrés régularisés calculée par optimisation décrite partie 3.2.3.

Dans un deuxième temps on étudie les possibilités de la méthode pour l’estimation des pa-ramètres des lois de probabilité réglant le compromis entre les différentes sources d’information. Les résultats sont également concentrés sur les paramètres pilotant le contenu spatial de l’estimée, c’est-à-dire la précision de la loi gaussienne pour le bruit et des lois a priori pour le ciel. Dans ce cas l’estimateur est la moyenne a posteriori sur le ciel et les hyper-paramètres et l’algorithme de calcul est l’échantillonneur de Gibbs.

Enfin un troisième aspect porte sur l’estimation de paramètres instruments dans un cadre d’in-version non-supervisé. Cette étude, menée sur un problème de déconvolution plus académique, est décrite sous la forme d’un article présenté dans l’annexe F. La question porte sur l’estimation de paramètres d’une réponse impulsionnelle, comme la largeur d’une gaussienne. Dans ce cas l’estima-teur est la moyenne a posteriori pour le ciel et les hyper-paramètres, comme précédemment, mais également pour les paramètres instruments. L’algorithme de calcul est l’échantillonneur de Gibbs incluant des étapes de Metropolis-Hastings pour l’échantillonnage des lois a posteriori condition-nelles complexes des paramètres instruments.

4.1 Conditions de simulation

Documents relatifs