• Aucun résultat trouvé

Architectures des réseaux de neurones

3.4.1 Les réseaux réccurents

Un réseau de neurones est dit récurrent s’il existe au moins un cycle dans la structure des liens entre neurones. Le fonctionnement d’un neurone en lui-même ne diffère pas nécessairement de celui des neurones des modèles antérieurs. L’existence de liens à l’envers permet de créer dans le réseau un comportement dynamique, mais lui rajoute aussi une fonction de mémorisa-tion. Ainsi, si l’on voulait créer un réseau de neurones capable de réaliser une addition, seule une connexion vers l’arrière pourrait permettre de mémoriser la retenue et l’utiliser à l’étape suivante de l’addition. De tels réseaux sont donc plus complexes, mais également beaucoup plus puissants.

Le plus célèbre modèle de réseau de neurones récurrent est celui de "Hop-field", proposé en 1982. Dans ce modèle, le réseau est totalement connecté, hormis qu’il n’existe pas de connexion d’un neurone vers lui-même.

Figure 3.2 – Connexions réccurentes

3.4.2 Les réseaux à propagation avant

Appelés aussi "réseaux de type Perceptron", ce sont des réseaux dans lesquels l’information se propage de couche en couche sans retour en arrière possible. Dans un tel réseau, le flux de l’information circule des entrées vers les sorties sans "retour en arrière".

3.4.2.1 Types des réseaux à propagation avant

On peut distinguer dans cette catégorie deux structures différentes dé-pendant du nombre de couches dans le réseau :

Réseau monocouche

La structure d’un réseau monocouche est telle que des neurones organisés en entrée soient entièrement connectés à d’autres neurones organisés en sortie par une couche modifiable de poids.

Figure 3.3 – Réseau monocouche Réseau multicouche

Les neurones sont arrangés par couche. Il n’y a pas de connexion entre neurones d’une même couche, et les connexions ne se font qu’avec les neu-rones de couches avales. Habituellement, chaque neurone d’une couche est connecté à tous les neurones de la couche suivante et celle-ci seulement. Ceci nous permet d’introduire la notion de sens de parcours de l’information (de l’activation) au sein d’un réseau et donc définir les concepts de neurone d’en-trée, neurone de sortie. Par extension, on appelle couche d’entrée l’ensemble des neurones d’entrée, couche de sortie l’ensemble des neurones de sortie. Les couches intermédiaires n’ayant aucun contact avec l’extérieur sont appelées couches cachées.

3.4.2.2 Propriété fondamentale

La propriété fondamentale des réseaux de neurones est l’approximation parcimonieuse. Cette expression traduit deux propriétés distinctes : d’une part, les réseaux de neurones sont des approximateurs universels et, d’autre part, une approximation à l’aide de réseau de neurones nécessite, en général, moins de paramètres ajustables que les approximateurs usuels.

L’approximation universelle

La propriété d’approximation universelle a été démontrée par (Cybenko 1989) et (Funahashi 89) et peut s’énoncer de la façon suivante :

"Toute fonction bornée suffisamment régulière peut être approchée unifor-mément, avec une précision arbitraire, dans un domaine fini de l’espace de ses variables, par un réseau de neurones comportant une couche de neurones cachés en nombre fini, possédant tous la même fonction d’activation, et un neurone de sortie linéaire".

Cette propriété est vraie pour les neurones présentés précédemment, c’est-à-dire à fonction d’activation sigmoïdale, mais aussi pour les fonctions radiales et les ondelettes.

La parcimonie

Lorsqu’on veut modéliser un processus à partir de données, on cherche toujours à obtenir les résultats les plus satisfaisants possibles avec un nombre minimal de paramètres ajustables. Dans cette optique, (Hornik 1994) a mon-tré que :

Si le résultat de l’approximation (c’est-à-dire la sortie du réseau de neurones) est une fonction non linéaire des paramètres ajustables, elle est plus parcimo-nieuse que si elle est une fonction linéaire de ces paramètres. De plus, pour des réseaux de neurones à fonction d’activation sigmoïdale, l’erreur commise dans l’approximation varie comme l’inverse du nombre de neurones cachés, et elle est indépendante du nombre de variables de la fonction à approcher. Par conséquent, pour une précision donnée, donc pour un nombre de neu-rones cachés donné, le nombre de paramètres du réseau est proportionnel au nombre de variables de la fonction à approcher.

Ces résultats s’appliquent aux réseaux de neurones à fonction d’activation sigmoïdale, puisque la sortie de ces neurones n’est pas linéaire par rapport à leurs coefficients. Ainsi, l’avantage des réseaux de neurones par rapport

aux approximateurs universels (tels que les polynômes) est d’autant plus sensible que le nombre de variables de la fonction à approcher est grand : pour des problèmes faisant intervenir une ou deux variables, on peut géné-ralement utiliser indifféremment des réseaux de neurones ou des polynômes. En revanche, pour des problèmes présentant trois variables ou plus, il est généralement avantageux d’utiliser les réseaux de neurones.

De l’approximation de fonction à la modélisation

statis-tique

Les problèmes que l’on rencontre en pratique ne sont que très rarement des problèmes d’approximation de fonction connue. Dans la très grande ma-jorité des cas, on cherche à établir un modèle à partir de mesures, ou, en d’autres termes, à trouver la fonction qui passe "au plus près" d’un nombre fini de points expérimentaux, généralement entachés de bruit. On cherche alors à approcher la fonction de régression du processus considéré, c’est-à-dire la fonction que l’on obtiendrait en calculant la moyenne d’une infinité de mesures effectuées en chaque point du domaine de validité du modèle. Le nombre de points de ce domaine étant lui-même infini, la connaissance de la fonction de régression nécessiterait donc une infinité de mesures en un nombre infini de points. Les réseaux de neurones, en raison de leur propriété fondamentale, sont de bons candidats pour réaliser une approximation de la fonction de régression. C’est ce qui justifie l’utilisation pratique des réseaux de neurones : la recherche d’une approximation de la fonction de régression à partir d’un nombre fini de points expérimentaux. L’utilisation des réseaux de neurones rentre donc complètement dans le cadre de méthodes statistiques d’approximation d’une fonction de régression. De telles méthodes ont été lar-gement développées pour les fonctions de régression linéaires. L’apport des réseaux de neurones réside dans leur capacité à modéliser des processus non linéaires.