• Aucun résultat trouvé

liers : les Intègre-et-tire

3.3.1 Définition formelle

3.3.3.4 Spike Respond Model

Tout comme les modèles d’intègre-et-tire non linéaires, les Spike Re- spond Models [66] (SRM) sont des généralisations de l’intégrateur à fuite de Lapicque. Néanmoins, deux aspects différencient ces deux généralisa- tions : alors que les modèles intègre-et-tire définissent toujours le com- portement du neurone par des équations différentielles et rendent dépen- dantes du potentiel membranaire certaines variables, les SRM les rendent dépendantes du moment ˆt du dernier potentiel d’action, et expriment le potentiel de la membrane en fonction d’une intégrale temporelle et de noyaux.

L’équation générale d’un SRM est la suivante :

V =η(t−ˆt) +

Z ∞

−∞κ(t−ˆt, s)I(t−s)ds

avec κ le noyau d’intégration modélisant le courant externe, et η le noyau rendant compte de la forme du potentiel d’action lui même. Le mécanisme de génération de potentiel d’action et de réinitialisation est toujours pré- sent, avec un seuil qui peut dépendre du temps t.

Ce type de modèle a entre autres été étudié par Jolivet et al. [113], qui l’a utilisé sur des données artificielles avec une quantité minimale d’informations a priori.

3.4

Mise en réseau de neurones

3.4.1 Présentation formelle

Ce qu’on appelle réseau de neurone artificiel, abrégé en réseau de neurone ou réseau neuronal, est un modèle mathématique ou computationnel ins- piré de réseaux de neurones biologiques, en conservant tout ou partie de

leurs propriétés. Il consiste en un ensemble de neurones modélisés et in- terconnectés en une structure de graphe, qui, à l’instar des réseaux biolo- giques, traitent un ensemble d’informations par une approche connexion- niste pondérée. Plus formellement, les réseaux de neurones sont des outils de modélisation de données statistiques non linéaires, pouvant être utili- sés pour modéliser des relations complexes entre entrées et sorties d’un modèle. Leur objet d’étude n’est plus l’activité du modèle d’un neurone formel, mais celle de la population considérée.

Par leur capacité d’induction, les réseaux de neurones permettent de construire un système de décision par confrontation à un ensemble de situations dont la généralité est fonction de la quantité et de la diversité des cas rencontrés, ils sont donc capable d’apprendre. Ces réseaux formels sont utilisés en apprentissage par approximation parcimonieuse (nécessi- tant moins de paramètres ajustables), pour de la classification, de la re- connaissance de motifs [12], pour de l’approximation de fonction, en fi- nance,. . . C’est cette parcimonie, et la relative facilité de simulation qui en découle, qui donne aux réseaux de neurones leur intérêt industriel.

Il existe un nombre conséquent de formalisations de tels réseaux, dif- férant par plusieurs paramètres comme la topologie des connexions, le modèle de neurone utilisé et donc les paramètres de ces modèles. On dis- tingue parmi les plus célèbre le perceptron de Rosenblatt [194], le plus simple des réseaux de neurones formels, et sa généralisation le percep- tron multicouche [95]. Ces deux exemples proposent un apprentissage supervisé mais ne permettent pas la rétropropagation du gradient. Une large gamme de modélisations à apprentissage supervisés sans et avec ré- tropropagation du gradient, ou à apprentissage non supervisé, reflète la diversité des possibilités offertes par cet outil de modélisation.

Une description plus complète des différents types de réseaux de neu- rones et de leurs utilisations dépasse cependant le cadre de cet exposé. Pour cela, nous référons le lecteur à [3].

3.4.2 Réseaux de neurones impulsionnels

Bien que capable d’apprendre et largement utilisé dans des problèmes de classification, les modèles de type perceptron sont trop éloignés de modèles biologiquement plausibles pour intéresser la communauté neuro- computationnelle. Pour les recherches concernant le fonctionnement du cerveau, les modèles intègre-et-tire et le fait qu’ils reproduisent quelques phénomènes biologiques (modélisation du potentiel membranaire, des ca- naux ioniques, des potentiels d’actions, de la fréquence de décharge, de la synchronisation des décharges) ont naturellement suscité un meilleur intérêt.

Dans le cas des neurones formels intègre-et-tire, Gerstner et Kistler recensent et explicitent différents types de réseaux [67], en variant le modèle impulsionnel utilisé (intègre-et-tire à fuite, SRM,. . . ) ainsi que la modélisation des entrées synaptiques (constante, bruitée, dépendante des sorties des autre neurones,. . . ). La population de neurones y est décrite par des équations de densité probabiliste, en introduisant une densité de potentiel membranaire p(u, t), densité de neurones ayant leur potentiel membranaire égal à u au temps t. Ils décrivent également l’activité A(t) d’un réseau comme le flux à travers le seuil de génération de potentiel

d’action. Ils montrent que les variations des grandeurs p(u, t) et A(t) peuvent se décrire sous la forme d’équations régissant la variation du potentiel membranaire dans le cas d’un neurone intègre-et-tire seul.

Conclusion du chapitre

Ce chapitre a premièrement mis en avant les différentes propriétés biologiques et physiologiques caractérisant l’état et l’évolution d’un neu- rone, et a décrit le mécanisme de transmission de l’information, le po- tentiel d’action, ainsi que ses méthodes de propagation à l’intérieur d’un neurone et entre deux neurones. Une seconde partie a introduit plusieurs modélisations biophysiques classiques d’un neurone, avec en particulier le modèle de Hodgkin et Huxley, toujours considéré comme une réfé- rence. Une troisième partie a décrit une classe de modélisations nommée intègre-et-tire, dans laquelle un mécanisme non linéaire modélise avec une précision acceptable la génération de potentiels d’action, et pour laquelle quelques modèles classiques sont brièvement présentés. Enfin, une brève quatrième partie a présenté le formalisme des réseaux neuronaux.

Dans le chapitre suivant, nous exposons deux de nos méthodes de simulation d’un réseau de neurones intègre-et-tire simple et leurs résul- tats, avec utilisation des processeurs de cartes graphiques comme outil de computation générique, avec pour objectif principal d’améliorer les temps de calcul.

4