• Aucun résultat trouvé

5.2 Influence et réglage des paramètres des algorithmes

5.2.2 Influence et réglage des paramètres du SAKM

Comme cela a été précédemment effectué pour l’AUDyC, nous proposons les mêmes tests pour les paramètres du SAKM. Ces tests visent principalement à faciliter le réglage des paramètres de modèle à partir de l’analyse de leur influence. Les tests sont effectués pour les paramètres suivants :

le paramètre λ du noyau gaussien, le ratio d’apprentissage η∈

[ ]

0,1 ,

la taille τ de la fenêtre exponentielle de définition du modèle de classe.

5.2.2.1 Sensibilité du paramètre du noyau gaussien λ

Le paramètre λ du noyau gaussien dépend de la distribution des données. Le réglage de ce paramètre a une influence prépondérante sur la qualité de modélisation.

Conditions de réalisation : Cette expérience est réalisée en utilisant les mêmes données

de la section 5.2.1.1. Rappelons que ces données décrivent 1 classe complexe et 2 classes gaussiennes. La partition de ces données est estimée par l’algorithme pour plusieurs valeurs de λ en maintenant tous les autres paramètres fixes.

Interprétation des résultats1 : La figure 5.2.5 présente les résultats de l’expérience. Pour

des valeurs très petites de λ, une seule classe est créée (figure 5.2.5.a). En effet, toutes les données deviennent similaires car λ→0 implique µφ→1 (chapitre 4, section 4.3.2). Et à l’opposé, pour des très grandes valeurs de λ, les données sont orthogonales (dissimilaires).

1 Un modèle de classe du SAKM est une fonction d’apprentissage à noyau qui peut être représentée dans l’espace de données par plusieurs contours disjoints. Le modèle gaussien n’ayant pas cette propriété, chaque classe de l’AUDyC est représentée par un unique contour fermé dans l’espace.

Dans le tableau 5.2.5, avec λ=0,8 et λ=1, on obtient 3 classes avec un risque d’apprentissage faible et un pourcentage de classification élevé. La modélisation est meilleure pour ces réglages (figures 5.2.5.b et 5.2.5.c). Par ailleurs, on constate que le temps d’exécution croît avec λ. Ceci est du au fait que les grandes valeurs de λ favorisent la création de classes et de vecteurs support et par conséquent accroissent la complexité du SAKM.

Figure 5.2.5 : Influence de λ sur le modèle de classification du SAKM. Paramètres fixés :

0,3

ν = , η=0,1, τ=30, Nmin =10, Namb =10 , T =333.

Dans la plupart des problèmes, le réglage de λ peut se faire par essais et corrections à partir d’un échantillon de données préalablement extraites.

Tableau 5.2.5 : Indicateurs de performance du SAKM en fonction du paramètre λ.

5.2.2.2 Sensibilité du ratio d’apprentissage η

Le ratio d’apprentissage η joue un rôle important dans la procédure d’adaptation du SAKM. Dans le cadre de la classification dynamique, le ratio est choisi dans l’intervalle

] [

0,1 .

a) λ=0,50 b) λ=0,80 c) λ =1, 00 d) λ=1,50 1 C 1 C 2 C 3 C 1 C 2 C 3 C 1 C 2 C 3 C

Conditions de réalisation : Cette expérience est réalisée avec des données

non-stationnaires décrivant deux classes évolutives. Nous utilisons les mêmes données que celles utilisées dans la section 5.2.1.3.

Figure 5.2.6 : Influence de η sur le modèle de classification du SAKM. Paramètres fixés : λ=0,8,

0,3

ν = , τ=30, Nmin=10, Namb =10 , T =333.

Tableau 5.2.6 : Indicateurs de performance du SAKM en fonction du paramètre η.

Interprétation des résultats : Si le ratio η est choisi trop petit, l’adaptation des modèles est moins sensible aux variations brusques (figure 5.2.6.a). Par contre, si ce ratio est proche de 1, le modèle devient très réactif, il y a une forte sensibilité au bruit (figure 5.2.7.d). Le modèle de chaque classe est défini sur un plus petit nombre de vecteurs support, i.e. les plus récents (tableau 5.2.6). En effet, l’influence des vecteurs support est très vite atténuée. Le tableau 5.2.6 montre également que η n’agit pas sur le temps d’exécution du SAKM.

Le choix du paramètre η ne dépend pas de la distribution des données, mais plutôt de l’importance que l’on souhaite accorder aux informations les plus récentes par rapport aux plus anciennes. Par ailleurs, un réglage adéquat de ce paramètre permet d’atténuer l’influence du bruit. Dans la plupart des simulations, on fixe le ratio d’apprentissage η≈0,1.

a) η=5.10−3 b) η=0, 02 c) η=0, 09 d) η=0,85 1 C 2 C 1 C 1 C 2 C 1 C 2 C 2 C

5.2.2.3 Sensibilité du paramètre τ

Le paramètre τ fixe le nombre maximal de vecteurs support utilisés pour modéliser chaque classe. τ représente la taille de la fenêtre exponentielle décrite par les poids αi des vecteurs support SVi dans le modèle de classe. Afin de maîtriser le réglage de ce paramètre, nous analysons son influence dans le cadre du suivi de classes évolutives.

Conditions de réalisation : L’expérience est réalisée avec les mêmes données que celles

de l’expérience précédente. Plusieurs tests sont effectués en ne variant que le paramètre τ.

Figure 5.2.7 : Influence de τ sur le modèle de classification du SAKM. Paramètres fixés : λ=0,8;

0,3

ν = ; η=0,1; Nmin =10; Namb =10; T =333.

Tableau 5.2.7 : Indicateurs de performance du SAKM en fonction du paramètre τ.

Interprétation des résultats : Lorsque le paramètre τ prend des valeurs petites, le modèle de classe est défini sur un petit nombre de vecteurs support (figure 5.2.7.a). Dans ce cas, les données sont vite élaguées de l’apprentissage car les poids αi décroissent rapidement. En revanche, pour des valeurs trop grandes de τ , il y a moins de retrait d’informations et par conséquent le modèle de classe est plus étendu (figure 5.2.7.d). Dans le tableau 5.2.7, on constate une légère augmentation du temps d’exécution du SAKM avec le paramètre τ.

a) τ =15 b) τ =30 c) τ =50 d) τ =100 2 C 1 C 2 C 1 C 1 C 2 C 1 C 2 C

On remarque que le SAKM offre une meilleure modélisation de classes évolutives que l’AUDyC, notamment pour les classes définies sur une fenêtre de taille importante (figures 5.2.4.d et 5.2.7.d). En effet, grâce à la flexibilité des fonctions d’apprentissage à noyau, le SAKM est moins exposé aux problèmes d’optima locaux.

Le paramètre τ est soumis à des conditions de réglage similaires à celles du paramètre

P

N (taille de la fenêtre de définition de prototypes de l’AUDyC). Ce paramètre est réglé de façon empirique quand il n’est pas imposé par le problème à traiter.

5.2.2.4 Sensibilité du coefficient ν

Le coefficient ν n’est utilisé que dans la fonction objectif du SAKM. Il n’a donc aucune influence sur le modèle de classification du SAKM. Par contre, il est utile pour le calcul d’erreurs dans la fonction objectif du SAKM (chapitre 4, équations 4.31 et 4.32). Dans toutes les simulations, ce coefficient est fixé ν =0,3.

A partir des expériences effectuées dans cette partie, on constate que seul le réglage de deux paramètres de modèle pose quelques difficultés à chaque algorithme. Pour l’AUDyC, il s’agit du paramètre σini de la matrice de covariance initiale et la taille NP de la fenêtre de définition des prototypes. Quant au SAKM, ce sont le paramètre λ du noyau gaussien et le paramètre τ imposant le nombre maximal de vecteurs support définissant chaque classe. Les réglages de σini et de λ dépendent de la distribution des données. Dans le cas évolutif, les réglages de NP et τ nécessitent quelques fois des connaissances supplémentaires sur la taille des classes, sinon leur choix se fait de façon empirique. Pour le cas statique, il convient de fixer NP = ∞ (adaptation sans oubli) pour l’AUDyC et de choisir τ pour avoir un nombre suffisant de vecteurs support pour modéliser chaque classe du SAKM.

5.3 Simulation des procédures d’apprentissage de l’AUDyC et