UPJV, Département EEA Master 2 EEAII
Parcours ViRob
Fabio MORBIDI
Laboratoire MIS
Équipe Perception Robotique E-mail: fabio.morbidi@u-picardie.fr Mercredi 10h00-12h30, Jeudi 14h00-17h00
Salle TP101
2
Plan du cours
Chapitre 1: Perception pour la robotique
Chapitre 2: Modélisation de l’incertitude
1. Introduction
3. Typologies de capteur 2. Classification des capteurs
1. Introduction
3. Incertitude d’un capteur 2. Représentation de l’erreur
4. Propagation d’incertitude
Chapitre 3: Traitement des mesures
1. Réseau multi-capteurs 2. Fusion des mesures
Partie I : Perception Avancée
Ch. 2: Modélisation de l’incertitude
Introduction
Représentation de l’erreur
Incertitude d’un capteur
Propagation d’incertitude
Partie 2 Partie 3 Partie 1
Partie 4
4
Introduction
• Les données de base sont acquises grâce à des capteurs qui transforment une grandeur physique x en grandeur d’observation y
• On doit pouvoir reconstruire x à partir de y
x : position angulaire de l’axe y : tension Exemple: encodeur optique
• Les données présentes peuvent donc être entachées d’une certaine erreur
• Il est nécessaire de représenter cette incertitude, de la propager et de la prendre en compte dans le processus en aval (localisation du robot, navigation, planification)
Introduction
6
Méthode des moindres carrés
Modèle théorique: Famille de fonctions d’une ou plusieurs variables muettes , indexées par un ou plusieurs paramètres inconnus
• La méthode des moindres carrés permet de sélectionner parmi ces fonctions celle qui reproduit le mieux les données expérimentales (C.-F. Gauss, XIXe siècle)
• La méthode consiste en une prescription, qui est que la fonction qui décrit « le mieux » les données est celle qui minimise la somme quadratique des déviations des mesures aux prédictions de
x
(« least squares »)
h(x; β)
h(x; β)
h(x; β) β
Méthode des moindres carrés
: résidus du modèle ( est l’écart entre la mesure et la prédiction donnée par le modèle)
: mesure de la “distance” entre les données expérimentales et le modèle théorique qui prédit ces données
Si, par exemple, nous disposons de mesures les paramètres « optimaux » au sens de la méthode des
moindres carrés sont ceux qui minimisent la fonction de coût:
n
où
yi
La prescription des moindres carrés commande que cette distance soit minimale, à savoir:
y1, . . . , yn
β S(β) =
n
i=1
d2i (β) =
n
i=1
(yi − hi(xi; β))2
S(β) di(β)
hi(xi;β) di(β)
β = arg min S(β)
8
Modéliser l’incertain: les objectifs
Objectifs
◦ Quantifier un degré de confiance dans une mesure utilisée ensuite pour se localiser (estimer l’état d’un robot)
◦ Propager l’incertitude de chaque mesure sur l’état
◦ Quantifier un degré de confiance dans l’état estimé
Exemple: un robot se déplace dans un environnement connu muni d’un capteur de position. Passe-t-il par une porte ?
Problème: Comment estimer la position du robot à chaque instant ? Avec quelle précision ?
robot porte
Modéliser l’incertain: les objectifs
Modéliser l’incertain entachant les mesures et savoir:
• propager ces erreurs dans un processus complexe
• combiner (fusionner) ces mesures
• évaluer l’adéquation modèle/mesure tenant compte de l’incertitude sur la mesure et sur le modèle
Objectifs
Les différents types d’erreur
• Erreurs systématiques (déterministes)
Une erreur systématique est soit constante (biais), soit à variation lente en fonction du temps (dérive)
Décalage entre la valeur vraie et la valeur mesurée
Exemples: erreur sur la valeur d’une grandeur de référence, erreur due à la surchauffe d’un appareil (par ex. une caméra)
• Erreurs aléatoires (accidentelles)
Exemples: bruit induit par une carte de numérisation, par un microphone, etc.
• Erreurs aberrantes
Écart énorme entre la vraie valeur et la valeur mesurée Exemple: erreur de mise en correspondance
10
Exemple: radar de contrôle routier
Vitesse retenue = vitesse mesurée marge technique
Marge technique (écart type sur l’erreur de mesure de vitesse) d’un:
• radar fixe est de 5 km/h pour des vitesses inférieures à 100 km/h et de 5% pour des vitesses égales ou supérieurs à 100 km/h
• radar utilisé en mouvement est de 10 km/h pour des vitesses inférieures à 100 km/h et de 10% pour les vitesses mesurées égales ou supérieures à 100 km/h
Modélisation et représentation de l’erreur
La représentation doit permettre de composer et de fusionner facilement les erreurs
1) Représentation par des régions: Définition d’une zone où la vraie grandeur doit se trouver. En général: polygone, disque, ellipse Problème: par composition, la zone peut devenir très complexe et/ou ne plus appartenir à la famille de représentation choisie
Pavage 2D et trajet sans collisions [Jaulin, Kieffer, Didrit, Walter, 2001]
Mesures de distance
t = t1 ?!
t = t0
12
Modélisation et représentation de l’erreur
2) Représentation par une distribution de probabilité
• Une mesure = réalisation d’une variable aléatoire
• En répétant plusieurs fois une mesure, on obtient des résultats plus ou moins différents, dont la répartition est aléatoire
Intérêt: facilité de manipulation (composition, comparaison, transformation de deux densités de probabilité)
Remarque: Représentation par zone d’incertitude
Utilisation d’une distribution uniforme
1 b − a
x
U(a, b)
U(a, b)
Incertitude d’un capteur: exemple de sonar
Numéro de mesure Valeur
Objet Emetteur/
récepteur
Onde émise
Onde réfléchie
μ μ + 3σ
μ − 3σ
14
Modélisation et représentation de l’erreur
Soit une variable aléatoire d’espérance et de variance finie L'inégalité de Bienaymé-Chebyshev s'énonce de la façon suivante. Pour tout réel strictement positif :
X
Cette inégalité montre qu'une variable aléatoire prend avec une
grande probabilité une valeur relativement proche de son espérance
σ2 > 0. μ
En réalité, seulement le cas de est utile k > 1
k
On déduit de cette inégalité que:
Pr(|X − μ| ≥ 3σ) ≤ 1 9
À savoir, l’intervalle contient au moins 8/9 (88.8%) c’est-à-dire, l’essentiel de la distribution
[μ − 3σ, μ + 3σ]
Pr(|X − μ| ≥ kσ) ≤ 1 k2
Modélisation et représentation de l’erreur
16
• Cette majoration est souvent excessive (trop conservative)
• En fait, pour la loi normale de moyenne nulle et d'écart type
unitaire (la gaussienne centrée réduite ou standard: ), l’intervalle contient 90% de la distribution
μ − 3σ μ − 2σ μ − σ μ μ + σ μ + 2σ μ + 3σ
μ = 0, σ = 1
99.7% des données se situent à 3 écarts types de la moyenne 95% des données à 2 écarts
types de la moyenne 68% des
données
[−1.65, 1.65]
Ch. 1: Modélisation de l’incertitude
Introduction
Représentation de l’erreur
Incertitude d’un capteur
Propagation d’incertitude
Partie 2 Partie 3 Partie 1
Partie 4
18
Combiner des mesures incertaines
En robotique mobile:
◦ Plusieurs mesures
Différents capteurs
Différents instants de temps
18
Quelle incertitude sur connaissant sur les ?
Propagation d’incertitude
Système
Yj = fj(X1, . . . , Xn)
fj
X1
... Xi
... Xn
Y1 ... Yj
... Ym
Yj
Xi
• Soit une variable aléatoire (v.a.) continue et la valeur spécifique que admette
Propagation d’incertitude
• Soit une fonctionne déterministe (connue)
X
Problème: Comment calculer (ou approcher), l’espérance et la variance de
E[f(X)] , ?
Si admet une fonction de densité de probabilité (pdf) X , c’est direct:
p(x)
E[f(X)] = x =
+∞
−∞ f(x)p(x) dx var[f(X)] =
+∞
(f(x) − x)2 p(x) dx f
Var[f(X)]
Var[f(X)]
f(X) : R → R
x
X20 20
De la même façon, soient:
Si chaque v.a. de admet une pdf : p(x)
: vecteur de variables aléatoires (vecteur aléatoire) n
: fonction déterministe de plusieurs variables
X
E[f(X)] =
⎡
⎢⎢
⎢⎣
E[f1(X)]
E[f2(X)]
...
E[fm(X)]
⎤
⎥⎥
⎥⎦
(matrice de covariance)
Var[f(X)] = E[(f(X) − E[f(X)])(f(X) − E[f(X)])T ] f(X) : Rn → Rm
Propagation d’incertitude X
Var[f(X)] = E[(f(X) − E[f(X)])(f(X) − E[f(X)])T ]
• La matrice de covariance est symétrique: ses éléments
diagonaux sont les variances et ses éléments extra-diagonaux sont les covariances des couples de variables
• La matrice de covariance est semi-définie positive (ses valeurs propres sont positives ou nulles)
=
⎡
⎢⎢
⎢⎢
⎢⎣
Var[f1] Cov[f1, f2] · · · Cov[f1, fm] Cov[f2, f1] Var[f2] · · · ...
... ... . .. ...
Cov[fm, f1] · · · · · · Var[fm]
⎤
⎥⎥
⎥⎥
⎥⎦ Propagation d’incertitude
22 22
• Ces valeurs peuvent toujours être calculées par intégration numérique ...
... mais cela pose un problème si on veut faire des développement formels !
Par ex. si la v.a. dépend d’un paramètre , trouver tel que soit minimale ou maximale X
a a
Il y a donc un intérêt à disposer de formules, même approchées, pour la propagation de l’erreur
Var[X(a)]
Propagation d’incertitude
Dans le cas linéaire:
Propagation d’incertitude: cas linéaire
Y = f(X) = AX
: vecteur colonne de variables aléatoires n X1, . . . , Xn
A ∈ Rm×n : matrice de scalaires m × n
D’après la linéarité de l’espérance:
E[Y] = E[AX] = AE[X] ∈ Rm
Var[Y] = Var[AX] = E[A(X − E[X])(X − E[X])T AT ]
= AVar[X]AT ∈ Rm×m X
24 24
Dans le cas non linéaire:
Propagation d’incertitude: cas non linéaire
En l’absence d’autres informations, on approche la fonctionne avec l’application linéaire tangente (en d’autres termes,
on utilise une approximation de Taylor de au premier ordre)
Y = f(X)
f
X0 = E[X]
Soit
f
: vecteur colonne de variables aléatoires n X1, . . . , Xn
X
Propagation d’incertitude: cas non linéaire
À l’ordre 1:
avec matrice jacobienne:
Y = f(X) f(X0) + Jf(X0)(X − X0)
Jf(X0) = ∂ f
∂ X(X0) =
∂ f
∂X1 (X0), . . . , ∂ f
∂Xn (X0)
∈ Rn×n
Alors:
E[Y] E[f(X0) + Jf(X0)(X − X0)]
= f(X0) + Jf(X0)(E[X] − X0)]
= f(X0)
26 26
Propagation d’incertitude: cas non linéaire
En outre:
cov[Y] = E[(f(X) − E[f(X)])(f(X) − E[f(X)])T] E[(f(X) − f(X0))(f(X) − f(X0))T]
E[(Jf(X0)(X − X0))(Jf(X0)(X − X0))T] E[Jf (X0)(X − X0)(X − X0)T JTf (X0)]
= Jf(X0) cov[X] JTf (X0)
Remarque:
Cas linéaire:
Cas non linéaire:
Var[Y]
Jf(X0)Var[X]JTf (X0)
Var[AX] = AVar[X]AT
Var[f(X)] Jf(X0)Var[X]JTf (X0)
Propagation d’incertitude: en résumé
Matrice de covariance « d’entrée » (sous l’hypothèse de v.a. indépendantes)
Rappel: Si deux v.a. and sont indépendantes:
Attention: la réciproque ne est pas toujours vraie
X Y
Cov[X, Y ] = E[X Y ] − E[X] E[Y ]
= E[X] E[Y ] − E[X] E[Y ] = 0 CX = diag(σX2 1, σX2 2, . . . , σX2 n) =
⎡
⎢⎢
⎢⎢
⎣
σX2 1 0 · · · 0 0 σX2 2 · · · ...
... ... . .. ... 0 · · · · · · σX2 n
⎤
⎥⎥
⎥⎥
⎦
28 28
Propagation d’incertitude: en résumé
• Approximation de Taylor au premier ordre de
On obtient la matrice jacobienne suivante:
• Loi de propagation d’erreur:
F
X=
⎡
⎢ ⎢
⎣
∂ f1
∂X1
∂ f1
∂X2
. . .
∂X∂ f1n.. . .. . . . . .. .
∂ fm
∂X1
∂ fm
∂X2
· · ·
∂ f∂Xmn⎤
⎥ ⎥
⎦
C
Y= F
XC
XF
TXfi, i ∈ {1, . . . , m}
∈ R
m×n()
Propagation d’incertitude: approxim. linéaire
“An Introduction to Error Propagation”, K.O. Arras, Tech. Rep. EPFL, 1998
Modèle à 1 variable: illustration graphique
Approx. linéaire:
f(X) Y = aX
v.a. gaussienne
X0
30 30
Exemple (1/3)
Soit un vecteur gaussien de moyenne et de covariance
Soit la v.a.
Définition: Soit un vecteur aléatoire. est un vector gaussien, si et seulement si, pour toute suite de nombres réels, la v.a.
est une v.a. gaussienne
X = [X, Y ]T [0, 0]T
σ2 diag(1, 4)
X = [X1, . . . , Xn]T X
a1, a2, . . . , an
Z = a1X1 + a2X2 + . . . + anXn X = f(X, Y ) = X2 + 3X − 2Y + 5
Objectif: Comparer les valeurs exactes et les valeurs approchées de la covariance de X
Exemple (2/3)
Nous avons la pdf suivante ( ):
En intégrant numériquement avec Maple (ou Matlab), nous obtenons:
p(X) = 1
(2π)2 det(Σ) exp(−1
2(X − μ)T Σ−1(X − μ))
= 1
4πσ2 exp
− 1
2σ2 (X2 + 1
4 Y 2)
μ = [0, 0]T
Σ = σ2diag(1, 4)
E[X] = 5 + σ2
Var[X] = 25 σ2 + 2 σ4
p(X) = N(μ, Σ)
32 32
Exemple (3/3)
Par contre, en utilisant les formules d’approximation:
Donc, au point X0 = [0, 0]T :
Jf(X0) = [3, −2]
D’où E[X] f(X0) = 5
Conclusion: Si est petit, est négligeable devant et l’approximation fournie est précise σ σ4 σ2
Var[X] Jf(X0)Var[X] JTf (X0)
= σ2 [3, −2]
1 0
0 4
3
−2
= 25 σ2
Jf(X) =
∂ f(X, Y )
∂ X , ∂ f(X, Y )
∂ Y
= [2X + 3, −2]
Calcul des ellipses d’incertitude
La matrice est une matrice carrée symétrique semi-définie positive: elle peut donc être représentée par une ellipse CY
C
Y= F
XC
XF
TXNous avons que (décomposition en valeurs/vecteurs propres):
C
YU = UΛ
Λ = diag(λ1, λ2, . . . , λm), U = [u1 u2 · · · um]
où
u
i: valeurs propres de la matrice ordonnées par ordre décroissant CY
: vecteur propre associé à la valeur propre ∈ { , . . . , m}
λ1 ≥ λ2 ≥ · · · ≥ λm
34 34
Calcul des ellipses d’incertitude
• En prenant le vecteur propre associé à la plus forte valeur propre de on obtient l’axe principale de l’ellipse
d’incertitude
u1
λ1 CY
• Les deux premières coordonnées et du vecteur permettent de déduire l’orientation de l’ellipse d’incertitude: u1,x u1,y u1
θe = arctan
u1,y
u1,x
• La longeur des demi-axes de l’ellipse est définie par la racine carrée des deux valeurs propres de les plus fortes, c’est-à-dire et
• On peut interprétéer et comme des variances.
Les demi-axes de l’ellipse auront donc pour longueurs:
CY
λ1 λ2 λ1 λ2
k
λ1, k
λ2, k ∈ {1, 2, . . .}
Calcul des ellipses d’incertitude: résumé
Ellipse d’incertitude
Si :
Cf. “Localisation et Navigation de
Robots”, Ch. 1
θe
θe = arctan
u1,y u1,x
Pr(μ − σ ≤ X ≤ μ + σ) 0.68269 Pr(μ − 2σ ≤ X ≤ μ + 2σ) 0.95450 Pr(μ − 3σ ≤ X ≤ μ + 3σ) 0.99730 Pr(μ − 4σ ≤ X ≤ μ + 4σ) 0.99993 Pr(μ − 5σ ≤ X ≤ μ + 5σ) 0.99999 k
λ1
k λ2
kσ
X ∼ N(μ, σ2)
36
Calcul des ellipses d’incertitude: exemple
Point de départ du robot
x [mm]
y [mm]
Ajustement de droites
• Données en provenance de scanners laser ou sonars
• Localisation et cartographie
◦ Connaissance d’un plan
Comparer l’ensemble des points à la carte de
référence est très couteux Comparer quelques droites
à la carte est très rapide
◦ Construction de plan
Points seuls: énormément de données à stocker
Droites ajustées: beaucoup moins de données !
0.5 0.4 0.3 0.2 0.1
0
y [m]
robot mur
mur
robot
Extraction de droite
Objectif: extraire une droite d’un ensemble de mesures de points incertains en distance et en orientation
Les paramètres et suffisent à représenter une unique droite en coordonnées polaires : r α
(ρ, θ)
ρ(cos θ cosα + sin θ sin α) − r = ρ cos(θ − α) − r = 0
α
r
droite
38
mesure
robot
i
Extraction de droite
Problème: quelle est l’incertitude de la droite extraite en connaissant les incertitudes de mesure des points qui ont permis de l’obtenir ?
1. Établir une transformation mesures droite 2. Appliquer la loi de propagation d’erreur
−→
α
r
droite mesure i
Extraction de droite
40
Cas réel: plusieurs droites !
Algorithmes existants
Transformée de Hough
Espérance-maximisation (EM) RANSAC
Split-and-merge Régression linéaire Incrémental
y [m] y [m]
Données brutes
Droites extraites
x [mm]
x [mm]
Extraction de droite
Cas réel: plusieurs droites !
x [m]
x [m]
y [m]
y [m]
Données brutes 6 droites extraites
robot robot laser
Mesures et incertitudes
42
Un scan laser donne points de mesure
On les modélise comme deux variables aléatoires:
Dans ce qui suit, on fera les hypothèses suivantes
xi = (ρi, θi), i ∈ {1, 2, . . . , n}
n
Xi = (Pi, Qi)
α
r x
i
= ( ρ
i, θ
i) ρ
iθi
Mesures et incertitudes
2) Chaque point est bruité selon une loi gaussienne sur les deux coordonnées: Xi = (Pi, Qi)
P
i∼ N ( ρ
i, σ
ρ2i) Q
i∼ N ( θ
i, σ
θ2i)
1) Les v.a. et sont indépendantes, c’est à dire:
E[Pi Pj] = E[Pi] E[Pj], ∀ i, j ∈ {1, 2, . . . , n}, i = j E[Qi Qj] = E[Qi] E[Qj], ∀ i, j ∈ {1, 2, . . . , n}, i = j E[Pi Qj] = E[Pi] E[Qj], ∀ i, j ∈ {1, 2, . . . , n}
Pi Qi
Transformation des mesures en droites
44
• On cherche une droite passant par les points de mesure et qui a pour équation:
ρ cos(θ − α) − r = 0
• Pour chaque point de mesure, l’erreur par rapport à la droite est donnée par:
α
r
xi = (ρi, θi)
Interprétation géométrique
di
ρi cos(θi − α) − ri = di, i ∈ {1, 2, . . . , n}
n
Transformation des mesures en droites
• Ajustement par la méthode des moindres carrés:
: résidus du modèle
: fonction de coût à minimiser
di
S(r, α)
α
r
xi = (ρi, θi) di
S(r, α) =
n
i=1
d2i (r, α) =
n
i=1
(ρi cos(θi − α) − r)2
Transformation des mesures en droites
46
Pour minimiser , on calcule les dérivées partielles par rapport à et et on les met à zéro: S(r, α)
r α
Si on résout le système de deux équations par rapport à et
on obtient la solution suivante r α
∂ S(r, α)
∂ r = 0, ∂ S(r, α)
∂ α = 0 S(r, α) =
n
i=1
d2i (r, α) =
n
i=1
(ρi cos(θi − α) − r)2
Transformation des mesures en droites
Solution au sens des moindres carrés:
r = 1 n
n
i=1
ρi cos(θi − α)
α = 1
2 arctan
⎛
⎜⎜
⎜⎜
⎝
n i=1
ρ2i sin(2θi) − 2 n
n i,j=1
ρiρj cos θi sin θj n
i=1
ρ2i cos(2θi) − 1 n
n i,j=1
ρiρj cos(θi + θj)
⎞
⎟⎟
⎟⎟
⎠
α
r
θi ρi
Remarque: dans la 1ère formule on préfère
normalement utiliser l’ atan2
Transformation des mesures en droites
48
• Si on dispose d'une estimation de l'écart type du bruit qui affecte chaque mesure, on peut l'utiliser pour « peser » la contribution de la mesure au
• Une mesure aura d'autant plus de poids que son incertitude sera faible. Cela nous amène à l’ajustement par la méthode des moindres carrés pondérés:
Remarque:
Le poids est l’inverse de la variance du bruit affectant la mesure . Par exemple, un choix possible dans notre cas est:
S(r, α)
wi i
wi = 1/σρ2i Sw(r, α) =
n
i=1
wi(ρi cos(θi − α) − r)2
, i ∈ {1, . . . , n}
Transformation des mesures en droites
Solution au sens des moindres carrés pondérés (cette fois-ci on calcule ):
α = 1
2 arctan
⎛
⎜⎜
⎜⎜
⎝
n i=1
wiρ2i sin(2θi) − 2 n
i=1 wi
n i,j=1
wiwjρiρj cosθi sinθj n
i=1
wiρ2i cos(2θi) − 1 n
i=1 wi
n i,j=1
wiwjρiρj cos(θi + θj)
⎞
⎟⎟
⎟⎟
⎠
minr, α Sw(r, α)
r = 1 n
i=1 wi
n i=1
wi ρi cos(θi − α)
Remarque:
Si , nous retrouvons la solution aux moindres carrés (non pondérés) w1 = . . . = wn = 1
Incertitude/propagation de l’erreur
50
• Matrice de covariance « de sortie » à déterminer:
où et sont les v.a. associées à et
Objectif: comprendre comment les incertitudes sur les mesures de distance et orientation se propagent et affectent l’incertitude sur la droite à estimer
En d’autres termes, comment l’incertitude sur et se propage dans les deux équations précédentes et
affecte et ?
ρi θi
r α
r α
R A
CRA =
σr2 σrα
σαr σα2
∈ R2×2
Incertitude/propagation de l’erreur
• Matrice de covariance d’entrée (diagonale):
CX =
CP 0n×n
0n×n CQ
=
diag(σρ21, . . . , σρ2n) 0n×n
0n×n diag(σθ21, . . . , σθ2n)
∈ R2n×2n
• Propagation d’incertitude:
C
RA= F
XC
XF
TXIncertitude/propagation de l’erreur
52
où le jacobien :
FX =
⎡
⎢⎢
⎢⎣
∂ r
∂ P1
∂ r
∂ P2 · · · ∂ r
∂ Pn
∂ r
∂ Q1
∂ r
∂ Q2 · · · ∂ r
∂ Qn
∂ α
∂ P1
∂ α
∂ P2 · · · ∂ α
∂ Pn
∂ α
∂ Q1
∂ α
∂ Q2 · · · ∂ α
∂ Qn
⎤
⎥⎥
⎥⎦ FX = FP Q ∈ R2×2n
• Propagation d’incertitude
C
RA= F
XC
XF
TXet r = ρ cos(θ − α), α = θ − arccos(r/ρ)
Exemple (Siegwart et al., 2011 - Sect. 4.7.1.1)
17 mesures prises par un télémètre laser embarqué sur un robot mobile (voir le tableau suivant)
Nos assumptions:
1. Normalement, on considère que l’incertitude de mesure soit proportionnelle à la distance mesurée, mais pour simplifier les calculs, on supposera que l’incertitude associée à chaque mesure soit la même
2. Les mesures sont non corrélées
3. Le robot est immobile pendant le processus de mesure
54
Angle d'inclinaison θ du capteur [degrés] Distance ρ [m]
0 0.5197 5 0.4404 10 0.4850 15 0.4222 20 0.4132 25 0.4371 30 0.3912 35 0.3949 40 0.3919 45 0.4276 50 0.4075 55 0.3956 60 0.4053 65 0.4752 70 0.5032 75 0.5273 80 0.4879
i i
Si nous calculons la solution aux moindres carrés, nous trouvons la droite optimale définie par (rouge en figure):
Exemple (Siegwart et al., 2011 - Sect. 4.7.1.1)
r = 0.4 m, α = 37.36◦
r
α
y [m]
Mesure avec son ellipse d’incertitude
56
Représentation de l’incertitude par des ellipses dans l’espace du robot et dans l’espace des droites (r, α)
Espace des droites
α [rad]
r [m]
Exemple (Siegwart et al., 2011 - Sect. 4.7.1.1)