• Aucun résultat trouvé

3.3 État de l’art sur la sélection de modèles géométriques

4.1.2 Algorithme

Le processus de l’algorithme AC-RANSAC est détaillé en table4.1. À chaque itération i, un n-uplet S′ de taille n = 7 est tiré parmi les N correspondances de C. Une ou trois matrices fondamentales FS′ sont alors estimées. Pour chacune de ces matrices, toutes les correspondances restantes (mi, m′i) ∈

C\ S′sont ensuite ordonnées selon leur erreurs symétriques de transfert normalisées : αi = max  2D′ A′ d(m ′, F S′m), 2D A d(m, F T S′m′)  (4.8)

Le NFA étant une fonction strictement croissante de αi, la sélection du meilleur groupe pour chaque

0 0.2 0.4 0.6 0.8 1 0 50 100 150 200 250 300 350 rapport K/N

log10 NT‘ : nombre de tests constant log

10 NT : nombre de tests selon K

FIG. 4.1 –Illustration du nombre de tests NT(K) en fonction de la taille du groupe considéré K. Ce nombre de tests est comparé à la constante N′

T (voir la remarque 3) qui est une définition alternative du

nombre de tests. Ces deux courbes sont tracées pour N = 1000 et n = 7 (logarithme de base 10).

N − 7 plus petits résidus, ce qui représente jusqu’à 3(N − 7) groupes, puis on identifie le meilleur groupe comme celui minimisant le NFA : minFS′ {NFA(S, S

)}. Cette étape se répète jusqu’à ce que

le nombre d’itérations maximum imaxsoit atteint, ou bien jusqu’à ce que l’on détecte un groupe tel que

NFA(S, S′) < 1. Dans ce cas, la phase de détection s’achève et une phase d’optimisation commence

(processus d’échantillonnage ORSA décrit ci-après) à partir du groupe ainsi identifié.

Phase d’optimisation (ORSA) La quantité NFA recèle en pratique un autre avantage non négli-

geable. Nous avons vu au paragraphe3.2.3que l’échantillonnage aléatoire de transformations ne prenait pas en compte le résultat de l’analyse des résidus des tirages précédents. Si par chance le groupe d’inliers est identifié très tôt, les autres tirages devraient être choisis de manière à optimiser ce groupe, plutôt que de poursuivre l’échantillonnage de n-uplet parmi l’ensemble des correspondances C. Le problème est ce- pendant d’identifier l’instant où un groupe d’inliers est suffisamment correct pour décider de l’optimiser. L’idée de Moisan et Stival est de cesser la phase de détection dès que l’on identifie un groupe ayant un NFA plus petit que ε = 1. On définit alors ce groupe comme le groupe optimal Sopt. Bien souvent, la

transformation estimée pour un tel groupe est peu précise et nécessite une optimisation qui est obtenue en tirant des groupes S′ parmi le groupe d’inliers S

opt. Pour chaque transformation FS′ ainsi générée,

un groupe S est sélectionné en sélectionnant des correspondances parmi C \ S′. Si ce groupe est tel que

son NFA est plus petit que Sopt, alors S est le nouveau groupe optimal. Ce principe très simple, appelé

ORSA (Optimal Random SAmpling), permet en pratique de gagner un temps de calcul important (les tests menés dans [MS04] suggèrent un gain d’un ordre de grandeur).

Nous avons vu au paragraphe3.2.3que d’autres méthodes d’échantillonnage ont été proposées dans la littérature, qui reposent sur le tirage de correspondances dont les points d’intérêt appartiennent à un voisinage spatial restreint. ORSA peut être vu comme un moyen de définir automatiquement un tel voisinage, sans connaissance a priori sur les caractéristiques de l’objet recherché (taille, forme, et trans- formation entre les deux images).

Comparaison avec MINPRAN L’algorithme AC-RANSAC présente de nombreuses similarités avec

MINPRAN [Ste95], mais également quelques différences fondamentales, ainsi que le note Desolneux et al. [DMM03b] au sujet de la comparaison des méthodes a contrario et de l’approche de Stewart :

We see that Stewart’s method starts exactly as we propose. Stewart actually addresses but does not solve the two problems we intended to overcome. One is the generation of the set of samples, which generates in Stewart’s method at least three user parameters, and the second one is the severe restriction about the independence of samples. We actually solved both

TAB. 4.1 –Algorithme AC-RANSAC. Algorithme4.1 AC-RANSAC

Entrées : Ensemble C de N correspondances, nombre d’itérations maximum imax,

initialisation de Sopt :=∅, et de i := 0.

1) Échantillonnage aléatoire : Tirage d’un jeu de n correspondances S′parmi C.

Estimation des trois matrices FS′.

2) Sélection des inliers : Tri des correspondances (mi, m′i) selon leur erreur

symétrique de transfert normalisé αi.

Sélection du groupe candidat S minimisant NF A(S, S′).

3) Validation :

Si NF A(S, S′) < 1, passage à l’étape 4

Sinon, si i < imax, i := I + 1 et retour à l’étape 1.

Sinonarrêt de l’algorithme.

4) Optimisation (ORSA) : Optimisation de FS′par échantillonnage aléatoire dans S.

Sorties : Sous-ensemble de correspondances Soptet la matrice Fopt.

difficulties simultaneously by introducing the number of samples as an implicit parameter of the method (computed from the image size and Shannon’s principles) and by replacing in all calculations the “probability of hallucinating a wrong event” by the “expectation of the number of such hallucinations”, namely what we call the number of false alarms.

Considérons tout d’abord leurs similitudes : ce sont deux méthodes qui utilisent un cadre probabiliste pour définir un critère de sélection de groupes de données à partir des erreurs résiduelles. Une mesure de qualité est définie en fonction d’un test d’hypothèse nulle sur les données. Pour une transformation échantillonnée aléatoirement, les résidus sont ordonnés en ordre croissant et le groupe minimisant cette mesure de qualité est sélectionné.

Ces deux approches se distinguent cependant sur différents aspects. D’une part, la théorie de la détection a contrario présente l’intérêt considérable de reposer sur un unique paramètre de détection ε qui est très intuitif. Il représente une borne sur l’espérance du nombre de fausses alarmes, fixée à 1 pour toutes les expériences. En comparaison, le paramètre de validation de MINPRAN, qui est plus difficile à régler, est un seuil sur une probabilité de sélectionner un faux groupe. L’estimation de cette probabilité est réalisée de manière empirique, par une méthode d’inférence plus complexe que celle de Moisan et Stival, et repose sur une hypothèse – fausse – d’indépendance des différentes transformations testées et de leurs résidus. Le seuillage de cette probabilité définit ensuite des seuils de détections sur la mesure de qualité des groupes testés. Comme le soulignent Sur et al. dans [MSM03], AC-RANSAC définit également des seuils de validation de manière automatique, mais à partir d’un calcul d’espérance qui ne requiert aucune approximation. D’autre part, le seuil de détection de MINPRAN dépend du nombre de groupes réellement testés (nombre d’itérations imax). Au contraire, le critère de détection a contrario

prend en compte l’ensemble des tests possibles, et est indépendant du nombre de tirages aléatoires. Notons enfin que les applications visées par ces deux méthodes sont différentes, puisque MINPRAN est utilisé pour la reconstruction de plans à partir d’une image de disparité (points dans R3), tandis que

AC-RANSAC est utilisé pour l’estimation de la transformation entre deux images à partir de correspon- dances (couples de points d’intérêt de R4). Par conséquent, les définitions des résidus sont différentes

L’algorithme AC-RANSAC tel qu’il été introduit dans [MS04] a été défini afin de trouver une trans- formation épipolaire unique entre deux paires d’images, à partir de points de contrôle définis manuel- lement. Nous allons dans les paragraphes suivants présenter l’algorithme de détection multiple MAC- RANSAC. Il consiste en la modification de AC-RANSAC en vue de son utilisation séquentielle à partir de mises en correspondance automatique de descripteurs locaux, pour différents modèles géométriques.

4.2 Hypothèse nulle et mise en correspondance de descripteurs lo-