• Aucun résultat trouvé

exemples d’apprentissage est maximale. Cette distance est appelée “marge” entre l’hyperplan et les exemples. L’hyperplan séparateur optimal est celui qui maximise la marge et minimise le risque empirique.

La marge vaut 2

||w||. Ainsi, maximiser la distance minimale aux exemples d’apprentissage revient à maximiser le quotient 2

||w||. La recherche de l’hyperplan optimal revient donc à minimiser ||w||. Ce problème est formulé comme suit :

M inimiser 12||w||2

T el que yi(�w, xi� + b) ≥ 1 (4.3) Cette formulation est appelée formulation primale. Il s’agit d’un problème d’optimisation quadra-tique sous contraintes linéaires dont la fonction objective est à minimiser. Ce type d’optimisation peut être résolu grâce à la méthode de Lagrange. Ceci revient à faire rentrer les contraintes dans la fonction objective et de pondérer chacune d’entre elles par une variable duale :

L(w, b, α) = 1 2||w|| 2ni=1 αi(yi(�wi, xi� + b) − 1) (4.4) Les variables duales αisont les multiplicateurs de Lagrange. Le problème primal et sa formulation duale ont la même solution qui correspond à un point selle du Lagrangien : L doit être minimisé par rapport aux variables primaires wi et b et maximisé par rapport aux variables duales αi. Au point selle, la dérivée partielle du Lagrangien par rapport aux variables primaires doit s’annuler :

∂L(w, b, α)

∂L(w, b, α)

∂b = 0 (4.6)

ce qui permet d’obtenir le système d’équations suivant : �

w=�ni=1αiyixi �n

i=1αiyi= 0 (4.7) En substituant les deux équations de (4.7) dans le Lagrangien L, on obtient le problème dual équivalent suivant :     

M aximiserαW(α) =�ni=1αi−1 2

�n

i,j=1αiαjyiyj�xi, xj� �n

i=1αiyi= 0 αi≥ 0

(4.8)

La recherche du séparateur linéaire optimal revient à un problème de programmation quadratique où les αi sont calculables et w peuvent être déduits par la première équation du système (4.7). Le seuil du séparateur linéaire est calculé comme suit :

b= −maxyi=−1(�w, xi�) + minyi=1(�w, xi�)

2 (4.9)

La fonction de décision associée devient donc : f(x) =

ni=1

αiyi�xi, x� + b (4.10)

La décision de la classification y est donnée alors par seuillage de la fonction de décision h(x) : y= sign(f (x)) = sign(�w, x� + b) = sign(

ni=1

αiyi�xi, x� + b) (4.11)

où la fonction sign() est appelée classifieur. Un grand nombre de termes de cette somme est nul, ainsi, les échantillons de l’apprentissage correspondants ne participent pas à la décision finale. Les échantillons de l’apprentissage pour lesquels la valeur de αiest non nulle sont appelés vecteur support. Les vecteurs support sont notés si et sont au nombre de Nv. La fonction de décision devient : f(x) = Nvi=1 αiyi�si, x� + b (4.12)

Cas non linéairement séparable

Dans la plupart des problèmes réels, la séparation linéaire entre les données est impossible. Le classifieur de marge maximale ne peut pas être utilisé car il ne fonctionne que si les classes de données d’apprentissage sont linéairement séparables. Ainsi, la notion de la marge souple a été introduite afin de tolérer des erreurs de classification. Pour résoudre les problèmes non linéairement séparables, l’idée est de changer l’espace des données. La transformation non linéaire des données peut permettre une séparation linéaire des exemples dans un nouvel espace.

prendre en compte les erreurs de classification ou le bruit. L’équation 4.3 devient : �

M inimiser 1

2||w||2+ C�ni=1ξi

T el que yi(�w, xi� + b) ≥ 1 − ξi (4.13) où C est une constante permettant de contrôler le compromis entre le nombre d’erreurs de clas-sement, et la largeur de la marge. Dans ce cas, la fonction de décision est toujours définie par l’équation 4.12.

Frontière de décision non linéaire

La frontière optimale est généralement non linéaire. La prise en compte de non linéarités dans le modèle est réalisée par l’introduction de noyaux non linéaires. Un noyau K(x, y) est une fonction de deux variables, symétrique et positive. Dans ce cas, la fonction de décision est définie par :

y= sign( Nv

i=1

αiyi.K(si, x) + b) (4.14) avec αisont les coefficients de Lagrange obtenus pendant l’apprentissage et sireprésentent les Nv vecteur support pour lesquels αi �0.

En général, Le choix de K est effectué empiriquement suivant l’application. Parmi les choix pos-sibles, on compte en particulier :

– Le noyau polynomial d’ordre q : K(x, y) = (γ �x, y� + θ)q,

– Le noyau RBF (radial basis function) : K(x, y) = exp−γ �x − y�2�, – Le noyau Tangente hyperbolique : K(x, y) = tanh (γ �x, y� − θ).

De même, l’optimisation des paramètres (γ, θ, q) dépend de l’application visée. Ces fonctions sont les plus couramment utilisées.

Dans la section suivante, nous présenterons la méthode de reconnaissance automatique de la position assise proposée. Celle-ci est basée sur le SVM.

4.3.3/ R

ÉALISATION ET INTÉGRATION DE LA DÉTECTION AUTOMATIQUE DE LA

POSITION ASSISE

L’étape de suivi du patient est réalisée par le suivi du squelette 3D fourni par le SDK de Kinect. Quant à la reconnaissance de la position assise, la méthode proposée est présentée ci-dessous.

Extraction des caractéristiques

L’analyse et l’interprétation des mouvements humains peuvent être effectuées par des primitives 3D, telles que les positions et les angles articulaires, qui nécessitent un suivi 3D du corps entier ou de quelque partie du corps selon les mouvements à interpréter. La méthode proposée consiste à représenter une action humaine (position assise) en fonction d’un ensemble de caractéristiques extraites à partir des joints 3D du squelette suivi pendant la réalisation du TUG. En effet, la position assise est une station de repos dans laquelle le corps s’appuie sur les fesses, avec le tronc à la verticale, ou bien avec une légère flexion du tronc vers l’avant ou vers l’arrière. Elle se caractérise aussi par une flexion des genoux. En se basant sur ces caractéristiques, nous avons déterminé les 16 paramètres suivants afin de décrire

la position assise dans une image donnée : – l’angle du tronc θ,

– l’angle formé entre le tronc et la jambe β,

– la distance entre la tête (Hd) et le centre de masse (H) DHdH,

– les différences de distance entre le centre de masse et le genou (K) au niveau de l’axe y (D1) et celle au niveau des axes x et z (D2), pour les parties gauche et droite du corps DHKL et DHKR,

– la distance entre le centre des épaules et le centre de masse au niveau de l’axe x DSHx, – la distance entre le centre des épaules et le centre de masse au niveau de l’axe z DSHz, – les cordonnées 3D de la tête, du centre des épaules et du centre de masse Hdx, Hdy, Hdz,

Sx, Sy, Sz, Hx, Hyet Hz.

Ces caractéristiques sont calculées pour chaque image (frame). L’ensemble des attributs est donc : F = {θ, β, DHdH, DHKL, DHKR, DSHx, DSHz, Hdx, Hdy, Hdz, Sx, Sy, Sz, Hx, Hy, Hz} (4.15) è â D HdH (Hd , Hdx y, Hdz) (H , Hx y, Hz) (K , Kx y, K )z DSH D 2 D 1 (S , Sx y, Sz)