• Aucun résultat trouvé

Méthode de sélection par orthogonalisation

4.7 Proposition d’une procédure de construction de réseaux et d’initialisation de l’apprentissage

4.7.2 Méthode de sélection par orthogonalisation

La bibliothèque étant construite, une méthode de sélection est ensuite appliquée afin de déterminer les ondelettes les plus significatives pour modéliser le processus considéré. Soit

Mw le nombre d’éléments dans la bibliothèque et Nw le nombre d’ondelettes dans le réseau. Pour sélectionner les Nw ondelettes qui permettent de constituer le modèle dont l'EQMA (l’erreur quadratique moyenne d’apprentissage) est la plus faible possible, l’idéal serait de calculer les EQMA obtenues avec tous les sous–ensembles de cardinal Nw qu’on peut former à partir d’un ensemble de cardinal Mw. Ce nombre de sous– ensembles est généralement très grand. De ce fait, on a recours à une méthode de sélection qui présente un moindre coût du point de vue du volume de calculs nécessaires.

La technique de sélection qu’on utilise effectue un classement des ondelettes de la bibliothèque sur la base de la procédure d’orthogonalisation de Gram–Schmidt. Cette procédure est proposée dans plusieurs références [Chen89], [Zhan93] dans le cadre de la construction de réseaux d’ondelettes.

Soit une séquence d’apprentissage formée de N exemples. On considère une bibliothèque contenant MW ondelettes candidates. A chaque ondelette

φ

j on associe un vecteur dont les composantes sont les valeurs de cette fonction suivant les exemples de la séquence d’apprentissage. On constitue ainsi une matrice P dont l’expression est :

4.42

On peut l’écrire de la façon suivante :

P=(P1 P2 … PMw ) 4.43 Avec

Pi=(

φ

i

( )x

1

φ

i

( )x

2

φ

i

( )x

N )T avec i=1,…,Mw 4.44 Les vecteurs pi sont généralement linéairement indépendants (car N >> MW) et non orthogonaux. Les vecteurs pi engendrent donc un sous-espace vectoriel de dimension MW. On estime que ces MW vecteurs sont suffisants pour expliquer la sortie du réseau avec une précision satisfaisante. En d’autres termes, la projection du vecteur des sorties du processus

Yp dans cet espace correspond à une modélisation satisfaisante. La procédure de sélection consiste, en premier lieu, à classer les entrées par ordre de "pertinence" décroissante. Pour cela, on détermine, à chaque étape, l’ondelette qui a la plus grande projection sur la partie

du vecteur des sorties qui n'est pas expliquée par les entrées précédemment classées. La figure 4.7 propose une interprétation géométrique de cette procédure pour un exemple de dimension 2 (les ondelettes sont représentées par des vecteurs).

Figure 4.7: Interprétation géométrique de la sélection par orthogonalisation.

Sur cette figure, l’ondelette

φ

2 est celle qui explique le mieux le vecteur des sorties Yp

puisque l’angle qu’elle fait avec ce vecteur est plus petit que celui entre

φ

1 et Yp. Elle est donc classée en premier rang par la procédure. Pour supprimer la partie de Yp expliquée par

2

φ

, on projette Yp et les vecteurs correspondants aux ondelettes non encore classées (ici

φ

1

) dans l’espace orthogonal au vecteur que l’on vient de classer (ici

φ

2 ). On a représenté ces projections par Yp et

φ

1 .

Étant donné qu’on dispose des méthodes de construction de la bibliothèque d’ondelettes et de leur sélection, il reste à décrire les étapes de construction du réseau. Nous proposons le schéma suivant :

1. Effectuer l’apprentissage du réseau contenant uniquement les termes directs ‘affine’ (la solution est celle des moindres carrés).

2. Déduire une nouvelle séquence d’apprentissage dont les sorties sont définies comme les erreurs du réseau “affine“. Cette séquence décrit donc la partie non modélisée par le réseau constitué par les termes directs.

3. Sélectionner un nombre Nwd’ondelettes de la bibliothèque préalablement construite, sur la base de la nouvelle séquence d’apprentissage.

4. Effectuer l’apprentissage du réseau complet, avec la séquence initiale, en ajustant les pondérations des ondelettes et les termes directs.

Lors du second apprentissage, on réajuste les termes directs pour ne pas aboutir à une solution sous–optimale. Une comparaison de leurs valeurs avant et après le second apprentissage montre qu’ils ne sont généralement pas modifiés.

Dans le cas où la taille du réseau n’est pas une contrainte, le nombre d’ondelettes Nwpeut être augmenté tant qu’on n’observe pas de surajustement. En revanche, si l'on cherche à atteindre une performance donnée, on augmente Nw jusqu’à ce que cette performance soit atteinte. Dans les deux cas, la recherche de Nwse fait selon un processus itératif. La figure suivante illustre le schéma d’application de la procédure :

4.8 Conclusion

Ce chapitre présente une nouvelle technique basée sur les réseaux d’ondelettes qui peuvent faciliter la procédure de classification. Car ils correspondent à des réseaux de neurones qui ont des fonctions d’activation ressemblant aux ondelettes (dilatations et translations). Nous avons présenté une procédure de construction de réseaux d’ondelettes fondés sur la transformée discrète. Les réseaux obtenus sont plus volumineux, pour une même EQMP (l’erreur quadratique moyenne de performance), que ceux fondés sur la transformée continue, qui utilisent les techniques d’optimisation non linéaire. De plus, pour des modèles de trois entrées ou plus, le nombre d’éléments dans la bibliothèque devient très grand. En revanche, cette approche présente l’avantage d’utiliser les spécificités de la famille de fonctions (bibliothèque) pour une construction de réseaux à moindre coût (temps de calcul très inférieur à celui d’un apprentissage utilisant une technique d'optimisation non linéaire). Cette approche est donc conseillée dans le cas où l'on désire construire un modèle rapidement sans avoir recours à plusieurs apprentissages. C’est cette méthode que nous utiliserons pour classifier les EMG utérins.

Chapitre 5

Application - Adaptation aux

signaux réels

5.1 Introduction

Ce chapitre est consacré à la présentation des résultats obtenus après avoir appliqué les algorithmes et les méthodes développées sur les signaux réels enregistrés.

Dans la première partie, nous allons présenter la méthode d’acquisition des signaux EMG utérins, et les caractéristiques de la population.

La deuxième partie présente l’ensemble de la base de données de signaux réels. Cette base peut être analysée à partir de deux groupes des signaux : tout d’abord, les signaux possédant le même terme à l’enregistrement (nombre de Semaines d’Aménorrhée à l’Enregistrement, SAR) mais avec des termes différents à l’accouchement (nombre de Semaines d’Aménorrhée à l’accouchement, SAA), regroupement qui permet de tester le pouvoir de classification en termes d’accouchement prématuré ou à terme ; ensuite, en regroupant les signaux possédant le même terme à l’accouchement (SAA), mais des termes différents à l’enregistrement (SAR). Ce regroupement permet de tester s’il est possible de caractériser le délai avant l’accouchement.

La troisième partie dans ce chapitre est consacrée aux méthodes de classification non supervisée et de paramétrage des signaux par l’utilisation de la décomposition en ondelettes. Le choix des ondelettes et des échelles sont discutés dans ce chapitre. Nous décrivons ainsi l’utilisation de la méthode basée sur le test de Fisher (Unsupervised Statistical Classification Method), ainsi que l’utilisation des réseaux de neurones compétitifs (Competitif Neural Network Method, CNNM).

Finalement, nous présenterons l’utilisation de modèle AR pour générer une basée des signaux simulés afin d’augmenter notre base de données. Puis nous décrirons les deux méthodes de classification supervisées : nouvelle méthode de classification basée sur les réseaux d’ondelettes (Wavelet network, Wavnet), réseaux à fonctions radiales (radial basis function, RBF). Une discussion sur tous les résultats obtenus sera enfin proposée.

Documents relatifs