• Aucun résultat trouvé

Les résultats obtenus s’avèrent très encourageants. Pour l’ensemble des problèmes tes- tés, la CFSI a mené à une diminution importante du temps de calcul.

Soulignons que le nombre de points de discrétisation utilisés dans nos tests (n=32× 32=1024) constitue une taille de problème typique couramment rencontrée dans la littérature. Pour le cas 2-D, cette taille peut être qualifiée de moyenne. Rappellons aussi que nous utilisons dans cette thèse des problèmes de relativement petites tailles pour faciliter le développement de nos méthodes mais que l’objectif à moyen terme est de pouvoir appliquer celles-ci à des problèmes de tailles plus importantes et même, éventuellement, à des problèmes 3-D. Il apparaît donc pertinent de se questionner sur le comportement attendu des méthodes CFSI lorsque la taille du problème augmente. Pour ce faire, nous divisons notre analyse en deux parties, séparant le cas général (i.e.

le cas où Gcest sans structure) du cas TBT.

4.4.1 Cas général

Dans un premier temps nous cherchons donc à comparer l’évolution des coûts algo- rithmiques liée à l’augmentation de la taille du problème, pour les méthodes CFSI originale et alternated conjugate gradient for CSI.

Comme on l’a mentionné, dans le cas général les multiplications impliquant les ma-

trices pleines de taille n × n, i.e. la matrice Gc, pour les méthodes CSI, et les matrices

Gc et H−1w , pour la méthode CFSI, sont de loin les opérations les plus coûteuses. Or,

à chaque itération, la méthode alternated conjugate gradient for CSI requiert 2KCSI

de ces multiplications (où KCSIest le nombre d’itérations de l’algorithme de gradient

conjugué utilisé pour mettre à jour W) alors que la méthode CFSI en requiert 3.

À première vue, nous n’avons aucune raison de penser que KCSI diminuerait pour

une augmentation de la taille du problème. Au contraire, on pourrait s’attendre à ce

qu’une augmentation de n mène à une augmentation de KCSI. En effet, pour des vec-

teurs wiplus longs, il est envisageable qu’un plus grand nombre d’itérations de l’algo-

rithme de gradient conjugué soit nécessaire pour obtenir la décroissance suffisante de

I.2). Ainsi, il semble raisonnable de croire que l’avantage de la CFSI quant au nombre d’opérations par itération devrait au moins se maintenir et peut-être même augmenter avec n.

Cela dit, encore une fois, dû au fait que les méthodes étudiées utilisent différents critères et nécessitent l’estimation d’un nombre différent d’inconnues, seule l’expé- rimentation pourra confirmer que l’avantage par itération de la CFSI se traduit par un avantage sur l’ensemble de l’algorithme. Toutefois, il est encourageant de noter que le rapport entre le nombre d’inconnues à estimer pour chacune des deux méthodes est à peu près constant (≈ 2) pour toutes les tailles de problèmes.

4.4.2 Cas TBT

Pour le cas TBT l’analyse comparative des méthodes preconditioned CFSI et alterna-

ted conjugate gradient for CSIest un peu plus complexe.

Rappelons que l’intérêt de la méthode preconditioned CFSI provient du fait qu’elle repose sur un algorithme de gradient conjugué préconditioné qui permet une mise à jour des courants en moins d’itérations que l’algorithme de gradient conjugué utilisé par la méthode alternated conjugate gradient for CSI. Toutefois, comme nous l’avons précisé antérieurement, pour que cet avantage se traduise par une diminution du temps

de calcul, il faut que le coût associé aux multiplications par ˜H−1w soit raisonnable. Mais

qu’entend-on ici par raisonnable ?

Pour répondre à cette question il faut d’abord observer que, à partir d’une certaine taille de problème, les opérations les plus coûteuses de la méthode alternated conjugate

gradient for CSI sont celles reliées aux multiplications par la matrice d’observation

Go. En effet, le coût d’un produit matrice-vecteur impliquant cette matrice est O(N n)

(avec, pour la configuration testée ici et de façon relativement typique, N =√n) alors

que le coût associé à une multiplication par Gcest de O(n log n).

Remarque : Mentionnons à ce sujet que la taille des problèmes utilisée dans nos tests constitue, d’une certaine façon, un cas limite puisque que le coût d’une multi-

plication par Gc, en ayant recours à la FTT, est du même ordre de grandeur que le

coût d’une multiplication par la matrice Go. En effet, avec n = 1024 et N = 32,

une multiplication par Go nécessite 128n multiplications de nombres réels alors

qu’une multiplication par Gcen nécessite 160n (réf. : section 4.2).

Ceci nous amène à conclure que, pour que la méthode preconditioned CFSI demeure compétitive par rapport à la méthode alternated conjugate gradient for CSI, il faut

que le coût de calcul associé aux multiplications par ˜H−1w , d’ordre O(P n), progresse,

conserve la configuration présentée ici, P devrait donc progresser comme √n. Cela est-il envisageable ?

Dans notre algorithme, P règle seulement la valeur du préconditionneur P = ˜H−1w .

De ce fait, P peut être choisi aussi petit que l’on veut sans que cela n’affecte la qualité

de la solution obtenue. Par contre, en fixant la valeur de ˜H−1w , P influence directement

l’efficacité de l’algorithme du gradient conjugué préconditioné, i.e. le nombre d’ité- rations nécessaire à la mise à jour des courants. On peut donc envisager une série de compromis, allant d’un P relativement grand, mais offrant une convergence rapide de l’algorithme de gradient conjugué préconditionné, à un P plus petit, menant à un plus grand nombre d’itérations de cet algorithme.

De plus, on doit réaliser que, pour un problème de taille donnée, le lien entre la valeur

de P et la distance séparant ˜H−1w de H−1w (et donc, la qualité du préconditionneur) varie

de façon significative selon les caractéristiques du système. Ce sujet sera d’ailleurs traité en détail au prochain chapitre.

Toute cela nous incite à la prudence quant à l’extrapolation des performances de l’al- gorithme preconditioned CFSI. En effet si, par nos résultats, nous avons montré que celui-ci pouvait s’avérer très efficace par rapport à la méthode alternated conjugate gradient for CSI, il faut être conscient que cette efficacité relative risque de varier de façon importante selon la taille et les autres caractéristiques du problème. Une étape d’expérimentation sur une large gamme de problèmes serait donc souhaitable afin de déterminer l’influence des différents paramètres sur les performances de l’algorithme.

5

MÉTHODES BASÉES SUR DES FORMULATIONS APPROXIMATIVES

Les approches présentées dans ce chapitre s’attaquent à deux goulots d’étranglement qui affectent l’ensemble des méthodes CSI. Comme les méthodes CFSI, ces nouvelles approches sont basées sur des formulations alternatives de l’expérience de tomogra- phie micro-ondes. Cette fois-ci, cependant, les formulations proposées sont approxi- matives et, de ce fait, ne sont pas mathématiquement équivalentes à celles utilisées précédemment.

Cela dit, contrairement aux méthodes reposant sur des approximations proposées dans la littérature (présentées au chapitre 2), qui sont basées sur différentes tentatives de li- néarisation, nos méthodes prennent complètement en compte le caractère non-linéaire du problème. Elles permettent ainsi de traiter des problèmes avec des contrastes im- portants ce qui n’est pas le cas, on le rappelle, pour les autres méthodes utilisant des approximations.

Un autre aspect intéressant est que les critères d’optimisation dérivés de nos nouvelles formulations ont essentiellement la même forme que celui utilisé par les méthodes CSI (i.e. deux termes plus un terme de régularisation). Ainsi, les schémas d’optimisation développés au chapitre 3 peuvent être appliqués directement.

Les travaux portant sur les approches utilisant des formulations approximatives ont fait l’objet d’un article soumis à publication [Barrière et al. (2008a)] que nous reproduisons en Annexe III. Avant d’y référer, nous présentons en détail les failles des méthodes CSI attaquées et nous exposons brièvement le théorème des surfaces équivalentes, utilisé dans l’un de nos développements.

Documents relatifs