• Aucun résultat trouvé

Ch. 2: Modélisation de l’incertitude

N/A
N/A
Protected

Academic year: 2022

Partager "Ch. 2: Modélisation de l’incertitude "

Copied!
56
0
0

Texte intégral

(1)

UPJV, Département EEA Master 2 EEAII

Parcours ViRob

Fabio MORBIDI

Laboratoire MIS

Équipe Perception Robotique E-mail: fabio.morbidi@u-picardie.fr Mercredi 10h00-12h30, Jeudi 14h00-17h00

Salle TP101

(2)

2

Plan du cours

Chapitre 1: Perception pour la robotique

Chapitre 2: Modélisation de l’incertitude

1. Introduction

3. Typologies de capteur 2. Classification des capteurs

1. Introduction

3. Incertitude d’un capteur 2. Représentation de l’erreur

4. Propagation d’incertitude

Chapitre 3: Traitement des mesures

1. Réseau multi-capteurs 2. Fusion des mesures

Partie I : Perception Avancée

(3)

Ch. 2: Modélisation de l’incertitude

Introduction

Représentation de l’erreur

Incertitude d’un capteur

Propagation d’incertitude

Partie 2 Partie 3 Partie 1

Partie 4

(4)

4

Introduction

•  Les données de base sont acquises grâce à des capteurs qui transforment une grandeur physique x en grandeur d’observation y

• On doit pouvoir reconstruire x à partir de y

x : position angulaire de l’axe y : tension Exemple: encodeur optique

(5)

•  Les données présentes peuvent donc être entachées d’une certaine erreur

•  Il est nécessaire de représenter cette incertitude, de la propager et de la prendre en compte dans le processus en aval (localisation du robot, navigation, planification)

Introduction

(6)

6

Méthode des moindres carrés

Modèle théorique: Famille de fonctions d’une ou plusieurs variables muettes , indexées par un ou plusieurs paramètres inconnus

•  La méthode des moindres carrés permet de sélectionner parmi ces fonctions celle qui reproduit le mieux les données expérimentales (C.-F. Gauss, XIXe siècle)

•  La méthode consiste en une prescription, qui est que la fonction qui décrit « le mieux » les données est celle qui minimise la somme quadratique des déviations des mesures aux prédictions de

x

(« least squares »)

h(x; β)

h(x; β)

h(x; β) β

(7)

Méthode des moindres carrés

: résidus du modèle ( est l’écart entre la mesure et la prédiction donnée par le modèle)

: mesure de la “distance” entre les données expérimentales et le modèle théorique qui prédit ces données

Si, par exemple, nous disposons de mesures les paramètres « optimaux » au sens de la méthode des

moindres carrés sont ceux qui minimisent la fonction de coût:

n

yi

La prescription des moindres carrés commande que cette distance soit minimale, à savoir:

y1, . . . , yn

β S(β) =

n

i=1

d2i (β) =

n

i=1

(yi hi(xi; β))2

S(β) di(β)

hi(xi;β) di(β)

β = arg min S(β)

(8)

8

Modéliser l’incertain: les objectifs

Objectifs

◦ Quantifier un degré de confiance dans une mesure utilisée ensuite pour se localiser (estimer l’état d’un robot)

◦ Propager l’incertitude de chaque mesure sur l’état

◦ Quantifier un degré de confiance dans l’état estimé

Exemple: un robot se déplace dans un environnement connu muni d’un capteur de position. Passe-t-il par une porte ?

Problème: Comment estimer la position du robot à chaque instant ? Avec quelle précision ?

robot porte

(9)

Modéliser l’incertain: les objectifs

Modéliser l’incertain entachant les mesures et savoir:

•  propager ces erreurs dans un processus complexe

•  combiner (fusionner) ces mesures

•  évaluer l’adéquation modèle/mesure tenant compte de l’incertitude sur la mesure et sur le modèle

Objectifs

(10)

Les différents types d’erreur

•  Erreurs systématiques (déterministes)

Une erreur systématique est soit constante (biais), soit à variation lente en fonction du temps (dérive)

Décalage entre la valeur vraie et la valeur mesurée

Exemples: erreur sur la valeur d’une grandeur de référence, erreur due à la surchauffe d’un appareil (par ex. une caméra)

•  Erreurs aléatoires (accidentelles)

Exemples: bruit induit par une carte de numérisation, par un microphone, etc.

•  Erreurs aberrantes

Écart énorme entre la vraie valeur et la valeur mesurée Exemple: erreur de mise en correspondance

10

(11)

Exemple: radar de contrôle routier

Vitesse retenue = vitesse mesurée marge technique

Marge technique (écart type sur l’erreur de mesure de vitesse) d’un:

•  radar fixe est de 5 km/h pour des vitesses inférieures à 100 km/h et de 5% pour des vitesses égales ou supérieurs à 100 km/h

•  radar utilisé en mouvement est de 10 km/h pour des vitesses inférieures à 100 km/h et de 10% pour les vitesses mesurées égales ou supérieures à 100 km/h

(12)

Modélisation et représentation de l’erreur

La représentation doit permettre de composer et de fusionner facilement les erreurs

1) Représentation par des régions: Définition d’une zone où la vraie grandeur doit se trouver. En général: polygone, disque, ellipse Problème: par composition, la zone peut devenir très complexe et/ou ne plus appartenir à la famille de représentation choisie

Pavage 2D et trajet sans collisions [Jaulin, Kieffer, Didrit, Walter, 2001]

Mesures de distance

t = t1 ?!

t = t0

12

(13)

Modélisation et représentation de l’erreur

2) Représentation par une distribution de probabilité

•  Une mesure = réalisation d’une variable aléatoire

•  En répétant plusieurs fois une mesure, on obtient des résultats plus ou moins différents, dont la répartition est aléatoire

Intérêt: facilité de manipulation (composition, comparaison, transformation de deux densités de probabilité)

Remarque: Représentation par zone d’incertitude

Utilisation d’une distribution uniforme

1 b a

x

U(a, b)

U(a, b)

(14)

Incertitude d’un capteur: exemple de sonar

Numéro de mesure Valeur

Objet Emetteur/

récepteur

Onde émise

Onde réfléchie

μ μ + 3σ

μ 3σ

14

(15)

Modélisation et représentation de l’erreur

Soit une variable aléatoire d’espérance et de variance finie L'inégalité de Bienaymé-Chebyshev s'énonce de la façon suivante. Pour tout réel strictement positif :

X

Cette inégalité montre qu'une variable aléatoire prend avec une

grande probabilité une valeur relativement proche de son espérance

σ2 > 0. μ

En réalité, seulement le cas de est utile k > 1

k

On déduit de cette inégalité que:

Pr(|X μ| ≥ 3σ) 1 9

À savoir, l’intervalle contient au moins 8/9 (88.8%) c’est-à-dire, l’essentiel de la distribution

[μ 3σ, μ + 3σ]

Pr(|X μ| ≥ ) 1 k2

(16)

Modélisation et représentation de l’erreur

16

•  Cette majoration est souvent excessive (trop conservative)

•  En fait, pour la loi normale de moyenne nulle et d'écart type

unitaire (la gaussienne centrée réduite ou standard: ), l’intervalle contient 90% de la distribution

μ 3σ μ 2σ μ σ μ μ + σ μ + 2σ μ + 3σ

μ = 0, σ = 1

99.7% des données se situent à 3 écarts types de la moyenne 95% des données à 2 écarts

types de la moyenne 68% des

données

[1.65, 1.65]

(17)

Ch. 1: Modélisation de l’incertitude

Introduction

Représentation de l’erreur

Incertitude d’un capteur

Propagation d’incertitude

Partie 2 Partie 3 Partie 1

Partie 4

(18)

18

Combiner des mesures incertaines

En robotique mobile:

◦ Plusieurs mesures

Différents capteurs

Différents instants de temps

18

Quelle incertitude sur connaissant sur les ?

Propagation d’incertitude

Système

Yj = fj(X1, . . . , Xn)

fj

X1

... Xi

... Xn

Y1 ... Yj

... Ym

Yj

Xi

(19)

•  Soit une variable aléatoire (v.a.) continue et la valeur spécifique que admette

Propagation d’incertitude

•  Soit une fonctionne déterministe (connue)

X

Problème: Comment calculer (ou approcher), l’espérance et la variance de

E[f(X)] , ?

Si admet une fonction de densité de probabilité (pdf) X , c’est direct:

p(x)

E[f(X)] = x =

+∞

−∞ f(x)p(x) dx var[f(X)] =

+∞

(f(x) x)2 p(x) dx f

Var[f(X)]

Var[f(X)]

f(X) : R R

x

X

(20)

20 20

De la même façon, soient:

Si chaque v.a. de admet une pdf : p(x)

: vecteur de variables aléatoires (vecteur aléatoire) n

: fonction déterministe de plusieurs variables

X

E[f(X)] =

E[f1(X)]

E[f2(X)]

...

E[fm(X)]

(matrice de covariance)

Var[f(X)] = E[(f(X) E[f(X)])(f(X) E[f(X)])T ] f(X) : Rn Rm

Propagation d’incertitude X

(21)

Var[f(X)] = E[(f(X) E[f(X)])(f(X) E[f(X)])T ]

•  La matrice de covariance est symétrique: ses éléments

diagonaux sont les variances et ses éléments extra-diagonaux sont les covariances des couples de variables

•  La matrice de covariance est semi-définie positive (ses valeurs propres sont positives ou nulles)

=

Var[f1] Cov[f1, f2] · · · Cov[f1, fm] Cov[f2, f1] Var[f2] · · · ...

... ... . .. ...

Cov[fm, f1] · · · · · · Var[fm]

Propagation d’incertitude

(22)

22 22

•  Ces valeurs peuvent toujours être calculées par intégration numérique ...

... mais cela pose un problème si on veut faire des développement formels !

Par ex. si la v.a. dépend d’un paramètre , trouver tel que soit minimale ou maximale X

a a

Il y a donc un intérêt à disposer de formules, même approchées, pour la propagation de l’erreur

Var[X(a)]

Propagation d’incertitude

(23)

Dans le cas linéaire:

Propagation d’incertitude: cas linéaire

Y = f(X) = AX

: vecteur colonne de variables aléatoires n X1, . . . , Xn

A Rm×n : matrice de scalaires m × n

D’après la linéarité de l’espérance:

E[Y] = E[AX] = AE[X] Rm

Var[Y] = Var[AX] = E[A(X E[X])(X E[X])T AT ]

= AVar[X]AT Rm×m X

(24)

24 24

Dans le cas non linéaire:

Propagation d’incertitude: cas non linéaire

En l’absence d’autres informations, on approche la fonctionne avec l’application linéaire tangente (en d’autres termes,

on utilise une approximation de Taylor de au premier ordre)

Y = f(X)

f

X0 = E[X]

Soit

f

: vecteur colonne de variables aléatoires n X1, . . . , Xn

X

(25)

Propagation d’incertitude: cas non linéaire

À l’ordre 1:

avec matrice jacobienne:

Y = f(X) f(X0) + Jf(X0)(X X0)

Jf(X0) = f

X(X0) =

f

∂X1 (X0), . . . , f

∂Xn (X0)

Rn×n

Alors:

E[Y] E[f(X0) + Jf(X0)(X X0)]

= f(X0) + Jf(X0)(E[X] X0)]

= f(X0)

(26)

26 26

Propagation d’incertitude: cas non linéaire

En outre:

cov[Y] = E[(f(X) E[f(X)])(f(X) E[f(X)])T] E[(f(X) f(X0))(f(X) f(X0))T]

E[(Jf(X0)(X X0))(Jf(X0)(X X0))T] E[Jf (X0)(X X0)(X X0)T JTf (X0)]

= Jf(X0) cov[X] JTf (X0)

Remarque:

Cas linéaire:

Cas non linéaire:

Var[Y]

Jf(X0)Var[X]JTf (X0)

Var[AX] = AVar[X]AT

Var[f(X)] Jf(X0)Var[X]JTf (X0)

(27)

Propagation d’incertitude: en résumé

Matrice de covariance « d’entrée » (sous l’hypothèse de v.a. indépendantes)

Rappel: Si deux v.a. and sont indépendantes:

Attention: la réciproque ne est pas toujours vraie

X Y

Cov[X, Y ] = E[X Y ] E[X] E[Y ]

= E[X] E[Y ] E[X] E[Y ] = 0 CX = diag(σX2 1, σX2 2, . . . , σX2 n) =

σX2 1 0 · · · 0 0 σX2 2 · · · ...

... ... . .. ... 0 · · · · · · σX2 n

(28)

28 28

Propagation d’incertitude: en résumé

•  Approximation de Taylor au premier ordre de

On obtient la matrice jacobienne suivante:

•  Loi de propagation d’erreur:

F

X

=

⎢ ⎢

∂ f1

∂X1

∂ f1

∂X2

. . .

∂X∂ f1n

.. . .. . . . . .. .

∂ fm

∂X1

∂ fm

∂X2

· · ·

∂ f∂Xmn

⎥ ⎥

C

Y

= F

X

C

X

F

TX

fi, i ∈ {1, . . . , m}

R

m×n

()

(29)

Propagation d’incertitude: approxim. linéaire

“An Introduction to Error Propagation”, K.O. Arras, Tech. Rep. EPFL, 1998

Modèle à 1 variable: illustration graphique

Approx. linéaire:

f(X) Y = aX

v.a. gaussienne

X0

(30)

30 30

Exemple (1/3)

Soit un vecteur gaussien de moyenne et de covariance

Soit la v.a.

Définition: Soit un vecteur aléatoire. est un vector gaussien, si et seulement si, pour toute suite de nombres réels, la v.a.

est une v.a. gaussienne

X = [X, Y ]T [0, 0]T

σ2 diag(1, 4)

X = [X1, . . . , Xn]T X

a1, a2, . . . , an

Z = a1X1 + a2X2 + . . . + anXn X = f(X, Y ) = X2 + 3X 2Y + 5

Objectif: Comparer les valeurs exactes et les valeurs approchées de la covariance de X

(31)

Exemple (2/3)

Nous avons la pdf suivante ( ):

En intégrant numériquement avec Maple (ou Matlab), nous obtenons:

p(X) = 1

(2π)2 det(Σ) exp(1

2(X μ)T Σ−1(X μ))

= 1

4πσ2 exp

1

2σ2 (X2 + 1

4 Y 2)

μ = [0, 0]T

Σ = σ2diag(1, 4)

E[X] = 5 + σ2

Var[X] = 25 σ2 + 2 σ4

p(X) = N(μ, Σ)

(32)

32 32

Exemple (3/3)

Par contre, en utilisant les formules d’approximation:

Donc, au point X0 = [0, 0]T :

Jf(X0) = [3, 2]

D’où E[X] f(X0) = 5

Conclusion: Si est petit, est négligeable devant et l’approximation fournie est précise σ σ4 σ2

Var[X] Jf(X0)Var[X] JTf (X0)

= σ2 [3, 2]

1 0

0 4

3

2

= 25 σ2

Jf(X) =

∂ f(X, Y )

∂ X , ∂ f(X, Y )

∂ Y

= [2X + 3, 2]

(33)

Calcul des ellipses d’incertitude

La matrice est une matrice carrée symétrique semi-définie positive: elle peut donc être représentée par une ellipse CY

C

Y

= F

X

C

X

F

TX

Nous avons que (décomposition en valeurs/vecteurs propres):

C

Y

U =

Λ = diag(λ1, λ2, . . . , λm), U = [u1 u2 · · · um]

u

i

: valeurs propres de la matrice ordonnées par ordre décroissant CY

: vecteur propre associé à la valeur propre ∈ { , . . . , m}

λ1 λ2 ≥ · · · ≥ λm

(34)

34 34

Calcul des ellipses d’incertitude

•  En prenant le vecteur propre associé à la plus forte valeur propre de on obtient l’axe principale de l’ellipse

d’incertitude

u1

λ1 CY

•  Les deux premières coordonnées et du vecteur permettent de déduire l’orientation de l’ellipse d’incertitude: u1,x u1,y u1

θe = arctan

u1,y

u1,x

•  La longeur des demi-axes de l’ellipse est définie par la racine carrée des deux valeurs propres de les plus fortes, c’est-à-dire et

•  On peut interprétéer et comme des variances.

Les demi-axes de l’ellipse auront donc pour longueurs:

CY

λ1 λ2 λ1 λ2

k

λ1, k

λ2, k ∈ {1, 2, . . .}

(35)

Calcul des ellipses d’incertitude: résumé

Ellipse d’incertitude

Si :

Cf. “Localisation et Navigation de

Robots”, Ch. 1

θe

θe = arctan

u1,y u1,x

Pr(μ σ X μ + σ) 0.68269 Pr(μ 2σ X μ + 2σ) 0.95450 Pr(μ 3σ X μ + 3σ) 0.99730 Pr(μ 4σ X μ + 4σ) 0.99993 Pr(μ 5σ X μ + 5σ) 0.99999 k

λ1

k λ2

X ∼ N(μ, σ2)

(36)

36

Calcul des ellipses d’incertitude: exemple

Point de départ du robot

x [mm]

y [mm]

(37)

Ajustement de droites

•  Données en provenance de scanners laser ou sonars

•  Localisation et cartographie

◦ Connaissance d’un plan

Comparer l’ensemble des points à la carte de

référence est très couteux Comparer quelques droites

à la carte est très rapide

◦ Construction de plan

Points seuls: énormément de données à stocker

Droites ajustées: beaucoup moins de données !

0.5 0.4 0.3 0.2 0.1

0

y [m]

robot mur

mur

robot

(38)

Extraction de droite

Objectif: extraire une droite d’un ensemble de mesures de points incertains en distance et en orientation

Les paramètres et suffisent à représenter une unique droite en coordonnées polaires : r α

(ρ, θ)

ρ(cos θ cosα + sin θ sin α) r = ρ cos(θ α) r = 0

α

r

droite

38

mesure

robot

i

(39)

Extraction de droite

Problème: quelle est l’incertitude de la droite extraite en connaissant les incertitudes de mesure des points qui ont permis de l’obtenir ?

1.  Établir une transformation mesures droite 2.  Appliquer la loi de propagation d’erreur

−→

α

r

droite mesure i

(40)

Extraction de droite

40

Cas réel: plusieurs droites !

Algorithmes existants

Transformée de Hough

Espérance-maximisation (EM) RANSAC

Split-and-merge Régression linéaire Incrémental

y [m] y [m]

Données brutes

Droites extraites

x [mm]

x [mm]

(41)

Extraction de droite

Cas réel: plusieurs droites !

x [m]

x [m]

y [m]

y [m]

Données brutes 6 droites extraites

robot robot laser

(42)

Mesures et incertitudes

42

Un scan laser donne points de mesure

On les modélise comme deux variables aléatoires:

Dans ce qui suit, on fera les hypothèses suivantes

xi = (ρi, θi), i ∈ {1, 2, . . . , n}

n

Xi = (Pi, Qi)

α

r x

i

= ( ρ

i

, θ

i

) ρ

i

θi

(43)

Mesures et incertitudes

2) Chaque point est bruité selon une loi gaussienne sur les deux coordonnées: Xi = (Pi, Qi)

P

i

∼ N ( ρ

i

, σ

ρ2i

) Q

i

∼ N ( θ

i

, σ

θ2i

)

1) Les v.a. et sont indépendantes, c’est à dire:

E[Pi Pj] = E[Pi] E[Pj], i, j ∈ {1, 2, . . . , n}, i = j E[Qi Qj] = E[Qi] E[Qj], i, j ∈ {1, 2, . . . , n}, i = j E[Pi Qj] = E[Pi] E[Qj], i, j ∈ {1, 2, . . . , n}

Pi Qi

(44)

Transformation des mesures en droites

44

•  On cherche une droite passant par les points de mesure et qui a pour équation:

ρ cos(θ α) r = 0

•  Pour chaque point de mesure, l’erreur par rapport à la droite est donnée par:

α

r

xi = (ρi, θi)

Interprétation géométrique

di

ρi cos(θi α) ri = di, i ∈ {1, 2, . . . , n}

n

(45)

Transformation des mesures en droites

•  Ajustement par la méthode des moindres carrés:

: résidus du modèle

: fonction de coût à minimiser

di

S(r, α)

α

r

xi = (ρi, θi) di

S(r, α) =

n

i=1

d2i (r, α) =

n

i=1

(ρi cos(θi α) r)2

(46)

Transformation des mesures en droites

46

Pour minimiser , on calcule les dérivées partielles par rapport à et et on les met à zéro: S(r, α)

r α

Si on résout le système de deux équations par rapport à et

on obtient la solution suivante r α

∂ S(r, α)

∂ r = 0, ∂ S(r, α)

∂ α = 0 S(r, α) =

n

i=1

d2i (r, α) =

n

i=1

(ρi cos(θi α) r)2

(47)

Transformation des mesures en droites

Solution au sens des moindres carrés:

r = 1 n

n

i=1

ρi cos(θi α)

α = 1

2 arctan

⎜⎜

⎜⎜

n i=1

ρ2i sin(2θi) 2 n

n i,j=1

ρiρj cos θi sin θj n

i=1

ρ2i cos(2θi) 1 n

n i,j=1

ρiρj cos(θi + θj)

⎟⎟

⎟⎟

α

r

θi ρi

Remarque: dans la 1ère formule on préfère

normalement utiliser l’ atan2

(48)

Transformation des mesures en droites

48

•  Si on dispose d'une estimation de l'écart type du bruit qui affecte chaque mesure, on peut l'utiliser pour « peser » la contribution de la mesure au

•  Une mesure aura d'autant plus de poids que son incertitude sera faible. Cela nous amène à l’ajustement par la méthode des moindres carrés pondérés:

Remarque:

Le poids est l’inverse de la variance du bruit affectant la mesure . Par exemple, un choix possible dans notre cas est:

S(r, α)

wi i

wi = 1ρ2i Sw(r, α) =

n

i=1

wi(ρi cos(θi α) r)2

, i ∈ {1, . . . , n}

(49)

Transformation des mesures en droites

Solution au sens des moindres carrés pondérés (cette fois-ci on calcule ):

α = 1

2 arctan

n i=1

wiρ2i sin(2θi) 2 n

i=1 wi

n i,j=1

wiwjρiρj cosθi sinθj n

i=1

wiρ2i cos(2θi) 1 n

i=1 wi

n i,j=1

wiwjρiρj cos(θi + θj)

minr, α Sw(r, α)

r = 1 n

i=1 wi

n i=1

wi ρi cos(θi α)

Remarque:

Si , nous retrouvons la solution aux moindres carrés (non pondérés) w1 = . . . = wn = 1

(50)

Incertitude/propagation de l’erreur

50

•  Matrice de covariance « de sortie » à déterminer:

où et sont les v.a. associées à et

Objectif: comprendre comment les incertitudes sur les mesures de distance et orientation se propagent et affectent l’incertitude sur la droite à estimer

En d’autres termes, comment l’incertitude sur et se propage dans les deux équations précédentes et

affecte et ?

ρi θi

r α

r α

R A

CRA =

σr2 σ

σαr σα2

R2×2

(51)

Incertitude/propagation de l’erreur

•  Matrice de covariance d’entrée (diagonale):

CX =

CP 0n×n

0n×n CQ

=

diag(σρ21, . . . , σρ2n) 0n×n

0n×n diag(σθ21, . . . , σθ2n)

R2n×2n

•  Propagation d’incertitude:

C

RA

= F

X

C

X

F

TX

(52)

Incertitude/propagation de l’erreur

52

où le jacobien :

FX =

⎢⎢

⎢⎣

∂ r

∂ P1

∂ r

∂ P2 · · · ∂ r

∂ Pn

∂ r

∂ Q1

∂ r

∂ Q2 · · · ∂ r

∂ Qn

∂ α

∂ P1

∂ α

∂ P2 · · · ∂ α

∂ Pn

∂ α

∂ Q1

∂ α

∂ Q2 · · · ∂ α

∂ Qn

⎥⎥

⎥⎦ FX = FP Q R2×2n

•  Propagation d’incertitude

C

RA

= F

X

C

X

F

TX

et r = ρ cos(θ α), α = θ arccos(r/ρ)

(53)

Exemple (Siegwart et al., 2011 - Sect. 4.7.1.1)

17 mesures prises par un télémètre laser embarqué sur un robot mobile (voir le tableau suivant)

Nos assumptions:

1. Normalement, on considère que l’incertitude de mesure soit proportionnelle à la distance mesurée, mais pour simplifier les calculs, on supposera que l’incertitude associée à chaque mesure soit la même

2. Les mesures sont non corrélées

3. Le robot est immobile pendant le processus de mesure

(54)

54

Angle d'inclinaison θ du capteur [degrés] Distance ρ [m]

0 0.5197 5 0.4404 10 0.4850 15 0.4222 20 0.4132 25 0.4371 30 0.3912 35 0.3949 40 0.3919 45 0.4276 50 0.4075 55 0.3956 60 0.4053 65 0.4752 70 0.5032 75 0.5273 80 0.4879

i i

(55)

Si nous calculons la solution aux moindres carrés, nous trouvons la droite optimale définie par (rouge en figure):

Exemple (Siegwart et al., 2011 - Sect. 4.7.1.1)

r = 0.4 m, α = 37.36

r

α

y [m]

Mesure avec son ellipse d’incertitude

(56)

56

Représentation de l’incertitude par des ellipses dans l’espace du robot et dans l’espace des droites (r, α)

Espace des droites

α [rad]

r [m]

Exemple (Siegwart et al., 2011 - Sect. 4.7.1.1)

Références

Documents relatifs

Nom Prénom Sexe Catégorie Licence Club Temps Réel Temps Moy Ecart... Nom Prénom Sexe Catégorie Licence Club Temps Réel Temps

[r]

On peut calculer (ci-dessous) les dimensions exactes si on suppose la figure plane (Figure 3) : L’erreur commise en assimilant la sphère terrestre à un plan est

[r]

[r]

c) A quelle famille appartient la molécule qu'on désire fabriquer ? Encadrer sur sa formule semi-développée que vous aurez recopiée sur la copie le groupe caractéristique de

La vitesse moyenne n'est pas égale à la moyenne des deux vitesses.. Le véhicule parcourt 154 km. b) Calculer la vitesse moyenne d'un piéton qui met 2 h pour parcourir 9,5 km. c)

14 octets 20 octets 20 octets trame Ethernet segment TCP.