• Aucun résultat trouvé

Les r´eseaux de neurones sont tr`es utilis´es dans de nombreux probl`emes de recon- naissance de formes (Bishop, 1995). Ils le sont tout naturellement dans le domaine du spike-sorting (Jansen, 1990 ; Oghalai et al., 1994 ; Chandra et Optican, 1997 ; Garcia et al., 1998 ; Kim et Kim, 2000). Sans entrer dans le d´etail de la th´eorie math´ematique sous-jacente, ni dans le d´etail d’une impl´ementation particuli`ere, voici le principe de la classification r´ealis´ee par un r´eseau de neurones, dans le cadre qui nous occupe.

Les r´eseaux utilis´es sont des r´eseaux multi-couches de neurones artificiels intercon- nect´es. Ils sont compos´es d’une couche d’entr´ee, d’une ou plusieurs couches interm´e- diaires (dites “cach´ees”) et d’une couche de sortie (Fig. 3.4). Le nombre de neurones dans la couche d’entr´ee est ´egal au nombre de points d’´echantillonnage d´ecrivant un PA (ou au nombre de caract´eristiques utilis´ees pour d´ecrire un PA dans le cas o`u l’on commence par r´eduire la dimension de sa repr´esentation, Garcia et al., 1998) ; le nombre de neurones dans la couche de sortie est ´egal au nombre de neurones pr´esents dans l’enregistrement, tel qu’il peut ˆetre d´etermin´e a priori par l’exp´erimentateur. A une forme de PA donn´ee en entr´ee, le r´eseau devra associer un neurone de sortie. Le nombre de couches cach´ees et le nombre de neurones par couche cach´ee varient suivant les impl´ementations de la m´ethode.

La proc´edure de classification se fait en deux temps : apprentissage et classification. Les connexions entre neurones de deux couches successives sont caract´eris´ees par leurs poids “synaptiques” qui peuvent ˆetre modifi´es au cours de l’apprentissage. Une fois celui- ci termin´e, les poids synaptiques des connexions sont maintenus fix´es durant toute la classification. De fa¸con g´en´erale, l’apprentissage a pour but de d´eterminer les poids du r´eseau tels que celui-ci associe `a une entr´ee donn´ee (ici : un PA) la bonne sortie, i.e la sortie souhait´ee par l’exp´erimentateur (ici : le bon neurone).

Durant l’´etape d’apprentissage, l’exp´erimentateur apprend au r´eseau `a reconnaˆıtre un certain nombre de formes de PAs. Pour ce faire, il choisit, dans l’enregistrement, un ´echantillon de PAs d´ej`a lab´elis´es pour constituer un ensemble d’apprentissage (training set ) qu’il soumet au r´eseau. Il faut donc, d’une mani`ere ou d’une autre, proc´eder `a une premi`ere classification d’un ensemble de PAs de l’enregistrement. Cette classification peut se faire “`a la main”, par simple comparaison visuelle des formes des PAs s´electionn´es pour constituer l’ensemble d’apprentissage (Jansen, 1990). Elle peut se faire au moyen

                                  !" "#$ $ % %& &' ( ( ( ( ( ( ( ( ( ( ( ( ( ( ( ) ) ) ) ) ) ) ) ) ) ) ) ) ) ) * * * * * * * * + + + + + + + + + + + + , , , , , , , , , , , , - - - - - - . . . . . . . / / / / / / / 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3 4 4 4 5 5 5 6 6 6 6 6 6 6 6 6 7 7 7 7 7 7 7 7 7 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; < < < = = = > > > > > > > > > > > > ? ? ? ? ? ? ? ? @ @ @ @ @ @ @ @ A A A A B B B C C C D D D D D D D D D E E E E E E E E E neurones d’entrée neurones cachés neurones de sortie sortie échantillonnage supervisé apprentissage

Figure 3.4: Spike-sorting avec un r´eseau de neurones artificiels (d’apr`es Jansen, 1990). Les potentiels d’action sont digitalis´es et l’amplitude de chaque point d’´echantillonnage est pass´e `a l’un des neurones de la couche d’entr´ee du r´eseau. Tous les neurones d’entr´ee sont connect´es `a tous les neurones de la couche cach´ee, et chaque connexion a un poids “synaptique” qui peut ˆetre ajust´e. Tous les neurones cach´es sont ´egalement connect´es aux neurones de la couche de sortie. Il y a autant de neurones de sortie qu’il y a de classes de potentiels d’action. Dans un premier temps, le r´eseau apprend `a reconnaˆıtre un jeu de potentiels d’action s´electionn´es et lab´elis´es (dit “ensemble d’apprentissage”: apprentissage supervis´e). Dans un second temps, on soumet au r´eseau les potentiels d’action non classifi´es. Le niveau de sortie de chaque neurone de sortie mesure la similarit´e `a l’ensemble d’apprentissage de chaque potentiel d’action pr´esent´e.

d’un algorithme de clustering (Chandra et Optican, 1997 ; Kim et Kim, 2000) effectu´e sur l’´echantillon de PAs choisi pour ˆetre le sous-ensemble d’apprentissage. En tout ´etat de cause, il est imp´eratif que l’ensemble d’apprentissage contienne plusieurs PAs pour chaque classe de PAs identifi´ee par l’exp´erimentateur. Au cours de l’apprentissage, celui-ci soumet successivement `a la couche d’entr´ee du r´eseau tous les PAs de l’ensemble d’apprentissage. Initialement, les poids des connexions du r´eseau sont al´eatoires et la sortie du r´eseau (un nombre entre 0 et 1 pour chaque neurone de sortie) vis-`a-vis de l’un des PAs en entr´ee est arbitraire. La diff´erence entre la sortie r´eelle du r´eseau et la sortie souhait´ee pour ce PA sert de signal d’erreur et est utilis´ee pour corriger les poids synaptiques, selon une “r`egle d’apprentissage”, de sorte que l’erreur sera plus faible lorsque le mˆeme PA sera soumis `a nouveau. Cette proc´edure est r´ep´et´ee jusqu’`a ce que l’erreur du r´eseau soit minimis´ee sur tous les PAs de l’ensemble d’apprentissage.

Le r´eseau a “appris” `a reconnaˆıtre un PA de l’ensemble d’apprentissage lorsque le neurone de sortie associ´e `a ce PA est celui souhait´e (nombre proche de 1 pour ce neurone, proche de 0 pour les autres). La “connaissance” du r´eseau se situe dans les poids synaptiques entre les neurones des couches successives. Cette configuration du r´eseau est alors fig´ee. Tout nouveau PA, pris hors de l’ensemble d’apprentissage, est soumis `a la couche d’entr´ee du r´eseau et produit un patron de sortie dans la couche du mˆeme nom. Cette sortie repr´esente la classification du r´eseau. Celle-ci est d’autant plus nette qu’il existe un neurone de sortie proche de 1, les autres ´etant proches de 0.

La principale faiblesse de cette approche r´eside dans la n´ecessit´e de construire un ensemble d’apprentissage avec des PAs dont on a d´ej`a r´ealis´e la classification. Il s’agit donc une m´ethode hautement supervis´ee. L’exp´erimentateur doit s’assurer que tous les neurones sont repr´esent´es dans cet ensemble, et qu’il dispose de plusieurs exemplaires de PAs par neurone. Cette m´ethode peut s’av´erer performante pour classer automati- quement tous les PAs restants (hors de l’ensemble d’apprentissage et constituant ce qui est appel´e l’ “ensemble test”), mais elle ne r´esoud pas le probl`eme de la classification automatique initiale. Elle r´ealise, d’une certaine mani`ere, une forme de template mat- ching, l’information relative `a un template ´etant stock´ee dans les poids synaptiques du r´eseau qui lui sont associ´es.