• Aucun résultat trouvé

Chapitre I : Généralités

2.3 Le système immunitaire artificiel

Les AIS (Artificial Immune Systems) forment un secteur de recherche assez récent comparé à d'autres modèles de calcul informatique s'inspirant de la biologie pour trouver des solutions. Comme tout secteur de recherche pas encore tout à fait exploré, il est complexe de leur fournir une définition complète et concise. Cependant, plusieurs définitions ont été proposées. En voici quelques unes [GHA 06] :

Définition 1 : Les AIS sont des méthodes de manipulation de données, de classification, de représentation et de raisonnement qui s'inspirent d'un modèle biologique plausible : le système immunitaire humain (Starlab).

Définition 2 : Les AIS sont des systèmes informatiques basés sur des métaphores du système immunitaire naturel (Timmis 2000).

Définition 3 : Les AIS sont des systèmes adaptatifs, s'inspirant des théories de l'immunologie, ainsi que des fonctions, des principes et des modèles immunitaires, afin d'être appliqués à la résolution de problèmes (de Castro et Timmis 2002).

Les recherches concernant le système immunitaire artificiel dans les dernières années sont reportées dans le tableau 2.1 suivant [ENG 04] :

Auteur Année Sujet de l’étude

Forrest, S et al. 1994 Computer and Network Security Somayaji A. et al. 1997 //

Hofmeyr, S.A., Forrest, S. 1999 // Forrest, S., Hofmeyr S.A. 1999 //

Mori, M. et al 1997 Logarithm Hart, E. et al. 1998 //

Russ, S.H. et al. 1999 // Costa, A.M. et al. 2002 //

De Castro,L.N.,Von Zuben F.J. 2000 Model (Design) identification multi-purpose combinatory optimization

DeCastro,L.N.,Von Zuben F.J. 2002 // De Castro,L.N., Timmis, J. 2002 //

Dasgupta,D., Forrest, S. 1999 Device error detection Nasaroui O. et al. 2002 Data Mining

Timmis, J., Neal, M. J 2000 Data Analysis Dasgupta, D.,Forrest, S. 1996 Time series analysis

Lee, D. et al. 1999 Choosing strategies for common control and group behavior

Les algorithmes des AIS peuvent être divisés en trois grandes parties, chacune d'elles s'inspirant d'un comportement ou d'une théorie du système immunitaire biologique : la sélection clonale, la sélection négative et positive, les réseaux immunitaires (ou idiotypiques), la moelle osseuse et la théorie du danger.

Dans ce qui suit on va voir dans la section 2.3.2 la représentation informatique des différents mécanismes utilisés par les AIS : Affinité, génération des récepteurs, la sélection

positive, la sélection négative et la sélection clonale et puis dans la section 2.3.3 le modèle des réseaux immunitaires et dans la section 2.3.4 on trouve une idée sur la théorie du danger.

2.3.2 Représentation des différents mécanismes 2.3.2.1 Affinité

Afin de pouvoir être utilisés en informatique, les différents composants du système immunitaire biologique, plus particulièrement les cellules immunitaires et les antigènes, doivent être modélisés sous forme numérique, informatique. Par ailleurs le système immunitaire biologique a pour base de fonctionnement l'identification des antigènes et l'affinité entre les différents récepteurs des cellules (BCR et TCR) et ces antigènes qu'ils soient complets ou décomposés (présentés par les CPA). Pour que les cellules modélisées puissent reconnaître les "antigènes", cette notion d'affinité est reprise et appliquée aux cellules informatiques. Les lymphocytes B et T portent à leur surface un grand nombre de récepteurs, chacun n'est capable de reconnaître qu'un seul type d'antigène et tous les récepteurs d'une même cellule sont identiques. Dans les AIS dont le domaine d'application est l'informatique, on ne parlera plus de cellules B et T ni de leurs récepteurs respectifs mais d'anticorps en général par soucis de faciliter la modélisation et la représentation. Cependant, certaines applications basées sur les AIS utilisent cette notion.

Perelson et Oster ont introduit en 1979 [GHA 06] la notion "d'espace de forme" pour décrire quantitativement les interactions entre les molécules du système immunitaire et les antigènes. Chaque antigène et anticorps est représenté par un point dans "l'espace de forme". La distance entre ces points définit donc l'affinité entre antigène et anticorps. Un espace de forme de Hamming utilise la méthode de Hamming pour le calcul de la distance de même qu'un espace de forme Euclidien utilise la méthode Euclidienne pour calculer la distance entre deux points.

Chaque point est décrit par un certain nombre L de paramètres tel que : sa longueur, sa largeur, son poids etc ... Cette notion est donc reprise pour représenter les anticorps et les antigènes sous forme de vecteurs à L dimensions. Chacune de ces dimensions représente un paramètre. Ces paramètres permettent de calculer l'affinité entre ces deux entités. Il va de soi que les dimensions de ces deux vecteurs doivent être identiques afin de pouvoir les comparer. Etant donné que le calcul de l'affinité entre un antigène et un anticorps est réduit au calcul de la distance entre deux points dans un L-Espace, l'utilisation de diverses formules mathématiques est possible :

• La distance Euclidienne : calcul de la distance entre les deux points Ab et Ag dans chacun des espaces :

(

)

2 1

= − = L i Agi Abi D ……….……….….(1)

• La distance de Manhattan : calcul de la distance entre les deux points Ab et Ag en ne suivant que les axes de coordonnées de l’espace :

/ / 1

= − = L i Agi Abi D ……….…………..(2)

• La distance de Hamming : représente les anticorps et les antigènes sous forme de symboles et calcule la différence entre ces symboles. Par exemple la comparaison de CADBCADB (un antigène) avec CBDBCDDB (un anticorps) donne une complémentarité de six sur huit positions.

=

=

L i i

D

1

δ

Avec

2.3.2.2 Génération des récepteurs

Nous avons vu précédemment que les anticorps sont codés à partir de quatre bibliothèques de gènes différentes. Le modèle de la moelle osseuse s'inspire de cette méthode de génération d'anticorps pour en "fabriquer". Les bibliothèques sont des vecteurs qui contiennent dans chaque case un nombre de bits. Afin de créer un anticorps, un algorithme pseudo-aléatoire pioche une série de bits (une case de vecteur) dans chacune des librairies présentes.

Figure 2.5 : Sélection de segment dans des librairies pour former un anticorps.[GHA 06]

=

i

δ

1 si Abi <> Agi 0 si non ………..(3)

Par exemple, nous voulons créer des anticorps capables de reconnaître des antigènes de 64 bits nous devons donc créer des anticorps de 64 bits. Afin d'avoir une diversité dans notre population d'anticorps, nous générons quatre librairies contenant chacune huit segments de 16 bits. Donc notre individu a un total de 512 (16x8x4) bits. Ce nombre est très faible par rapport aux bibliothèques présentes dans le corps humain (sept bibliothèques avec un nombre de segments différents). En prenant dans chacune de ces quatre librairies un segment de 16 bits et en les mettant bout à bout, on obtient un anticorps de 64 bits comme souhaité. Nous pouvons alors procéder à la comparaison avec l'antigène en utilisant les différentes méthodes citées plus haut.

2.3.2.3 La sélection positive

La sélection positive, permet d'assurer que tous les lymphocytes T sortant du thymus reconnaissent les CMH1 du soi. Seidan et Celada ont proposé en 1992 [GHA] un algorithme de sélection positive intéressant du point de vue informatique. Pour fonctionner, cet algorithme a besoin de trois composants du système immunitaire : les lymphocytes B et T et les cellules présentatrices d'antigène (CPA). Les cellules T sont représentées sous la forme d'une suite de bits de longueur L qui correspond à leur récepteur. Les cellules B sont quant à elles représentées par deux suites de bits chacune de longueur L. La première suite représente le récepteur (anticorps), tandis que la seconde représente le CMH de la cellule. Les CPA sont représentées elles aussi avec une seule série de bits également de longueur L, qui est leur CMH. L'idée de l'algorithme est simple : Les cellules T, ne peuvent reconnaître que l'ensemble des CMH du soi.

Les récepteurs des cellules T sont donc testés avec tous les CMH. Si une cellule T est incapable de reconnaître un CMH du soi, elle est rejetée. Les récepteurs des cellules T sont générés aléatoirement. 2.3.2.4 La sélection négative

La sélection négative, permet d'assurer que tout lymphocyte T reconnaissant trop les cellules du soi comme antigène ne sorte pas du thymus afin d'éviter les maladies auto-immunes.

Forrest a proposé en 1994[BRO 06] un algorithme de détection du non-soi en s'inspirant de la sélection négative du thymus. L'algorithme peut se diviser en deux parties distinctes : la génération des détecteurs de non-soi et la surveillance qui teste les entrées avec les détecteurs générés précédemment.

Dans cet algorithme, le soi correspond aux données à protéger et le non-soi aux données indésirables. La génération de détecteurs proposée par Forrest est la suivante :

1. Définir les données du soi.

2. Générer les détecteurs aléatoirement.

3. Comparer chaque détecteur généré avec les données du soi. S'il en détecte une, il est supprimé, sinon il est gardé.

Une fois les détecteurs générés et filtrés, ils sont comparés avec les données du soi. S'il y a correspondance, c'est que ce n'est pas une donnée du soi et qu'on se trouve face à du non-soi. S'il n'y a pas de correspondance, c'est que les données sont bien celles du soi.

Dans cet algorithme, les détecteurs sont générés aléatoirement. Une analyse de probabilité est utilisée pour définir le nombre de détecteurs nécessaires pour avoir un certain niveau de fiabilité. Le principal défaut de la génération automatique est la difficulté de produire des détecteurs valides, qui augmente exponentiellement par rapport à la taille des données du soi. Une autre méthode de génération a été proposée par Helman et Forrest [BRO 06] dont le nombre de détecteurs à produire augmente linéairement avec le nombre de données du soi.

Le nombre de détecteurs à produire suit la formule probabiliste suivante :

(

)

s M M f R P X P N P

N 0 = − ln 1 où NR0 est le nombre de détecteurs à

produire, NR le nombre de détecteur après l'application de l'algorithme, Pf la probabilité pour que NR

détecteurs ne détectent pas l'intrusion, Ns le nombre de données du soi et PM la probabilité d'affinité entre un détecteur et une donnée du soi. Pour obtenir une augmentation linéaire du nombre de détecteurs à produire, Forrest et Helman ont simplifié l'expression de PM :

s

M

N

P

=

1

Une troisième méthode linéaire également, la méthode de Greddy utilise le même algorithme proposé par Helman et Forrest [GHA 06] pour générer les détecteurs. Cependant les détecteurs redondants sont supprimés ce qui rend cette méthode plus efficace. D'autres méthodes de génération de détecteurs de complexités variables ont été suggérées.

2.3.2.5 La sélection clonale

La sélection clonale est la théorie expliquant comment le système immunitaire interagit avec les antigènes. Cette théorie est applicable aux lymphocytes B ainsi qu'aux lymphocytes T. La seule différence est que les cellules B subissent une hypermutation somatique durant leur prolifération contrairement aux cellules T. Grâce à ce procédé, le corps humain est capable de contrer un très grand nombre d'éléments externes. Les AIS s'inspirent de cette théorie. Mais vu que seules les cellules B sont capables de muter pour optimiser la réponse immunitaire, seules ces cellules nous intéressent.

Cette optimisation est due au fait que les cellules B une fois en contact avec l'antigène, elles se multiplient et donnent plusieurs clones et chaque clone subit une mutation. Cette mutation sert à trouver des clones de la cellule mère possédant une plus grande affinité avec l'antigène. Lors des mutations successives, le risque d'être affronté à un problème d'optimum local ou l'on ne peut plus trouver de meilleur clone même en passant des générations de cellules (voir figure 2.7). Le corps humain évite ce problème en ajoutant à ces clones des éléments nouvellement créés, qui n'ont aucune relation avec la cellule mère. Cet ajout d'éléments "aléatoires" permet de résoudre le problème en faisant évoluer les nouveaux éléments s'ils possèdent une plus grande affinité avec l'antigène. Ces cellules sont présentées sous forme de vecteurs de bits de longueur L.

La figure 2.6 représente l'algorithme de la sélection clonale qui se déroule comme suit : (1) on commence tout d'abord par générer aléatoirement un nombre de récepteurs défini. (2) On sélectionne parmi ces récepteurs les n meilleurs.

(3)Cette nouvelle population est ensuite clonée puis (4) mutée.

(5) Puis la population obtenue est ensuite refiltrée pour ne garder que les meilleurs éléments (cellules mémoires).

(6) Une partie de ces cellules est ensuite remplacée par d'autres détecteurs aléatoirement régénérés. C'est cette introduction de nouveaux détecteurs qui évite le problème d'optimums locaux (voir figure 2.7).

En recommence ensuite le cycle en procédant à la sélection des n meilleurs éléments.

La mutation des détecteurs est effectuée en modifiant un ou plusieurs bits du vecteur représentant la cellule par une autre valeur.

Les principales différences entre tous les algorithmes de sélection clonale sont les méthodes utilisées dans la génération aléatoire des détecteurs, la mutation et l'affinité entre les détecteurs et les antigènes.

Les algorithmes de sélection clonale sont le plus souvent utilisés : dans des applications d'optimisation vu que les cellules B deviennent de plus en plus affines aux antigènes, des applications de détection d'intrusions également où l'on ne peut répertorier tous les éléments indésirables et où ces éléments sont extrêmement variés, ainsi que d'autres applications comme la reconnaissance de caractères.

Figure 2.7 : Représentation schématique de l’évolution de l’algorithme de la sélection clonale [GHA 06] 2.3.3 Modèle des réseaux immunitaires

En 1974 Jerne [BRO 06] émit l'hypothèse que le système immunitaire est un réseau autorégulé de molécules et de cellules qui se reconnaissent entre elles, même en l'absence d'antigène. Il existe deux grands modèles de réseaux immunitaires artificiels : un modèle continu et un autre discret. Comme tout modèle continu, le principal obstacle à son utilisation est de lui trouver une solution analytique, ce qui n'est pas forcément possible. Les modèles discrets sont généralement adaptatifs, que ça soit dans le nombre d'éléments les constituant ou dans la forme de ces éléments afin d'accroître leur affinité. Les modèles discrets sont plus appropriés pour résoudre des problèmes externes vu qu'ils peuvent interagir avec leur environnement (notion d'antigène) contrairement à certains algorithmes continus.

Les modèles continus de réseaux immunitaires artificiels sont basés sur des équations différentielles décrivant la dynamique du réseau. Le premier modèle discret est celui de Jerne en 1974, où à chaque élément du réseau (lymphocyte ou anticorps) est relié une équation différentielle qui gère l'état d'activation ou d'inhibition des éléments. Un autre modèle de F. Varela et A. Coutinho, qui a été nommé "second-génération immune network", se caractérise par sa structure (formes de connexion entre les différents éléments du système), sa dynamique (variation avec le temps du nombre d'éléments du réseau et de leur affinité) et sa métadynamique (production et renouvellement des éléments ainsi que la suppression des éléments non stimulés ou autoréactifs).

Un autre modèle continu a été proposé par Farmer , où les éléments du système sont représentés par des vecteurs binaires de différentes tailles dans un espace de forme de Hamming. Contrairement aux deux précédents modèles, Farmer a introduit la notion "d'antigène" (élément extérieur au système).

Les modèles discrets de réseaux immunitaires artificiels sont basés, quant à eux, sur des différences d'équations et sur des itérations. Timmis proposa en 2000 [GHA 06] le modèle RAIN où se confond théorie des réseaux idiotypiques et sélection clonale. Cet algorithme est donc capable, grâce à la sélection clonale, de reconnaître des éléments externes au réseau.

Affinité

On y retrouve donc, les notions de stimulation des éléments comme dans la théorie des réseaux idiotypiques ainsi que les notions de mutations, d'hypermutations somatique et de clonages de la théorie de la sélection clonale. DeCastro et Von Zuben [BRO 06] ont proposé un autre modèle de réseaux immunitaires artificiels nommé "aiNet". Il s'inspire aussi des deux théories de la sélection clonale et des réseaux immunitaires. Les deux modèles peuvent paraître similaires, cependant ils sont différents de plusieurs points de vue. La représentation des données, le calcul de la stimulation des éléments du réseau ainsi que la manière dont ils limitent la taille du réseau.

2.3.4 La théorie du danger

Contrairement à la plus part des théories des systèmes immunitaires artificiels, la théorie du danger proposée par Matzinger ne repose pas uniquement sur l'utilisation des cellules B mais également les cellules T et les cellules présentatrices d'antigènes. Cette théorie est controversée mais intéressante d'un point de vue informatique. Comme pour le système immunitaire biologique, une fois qu'un signal de danger est lancé, les cellules présentatrices d'antigènes qui se trouvent dans la zone du signal présentent les données considérées comme nuisibles aux cellules T. De même, les cellules B se clonent si elles sont dans la zone et reconnaissent les données. Les signaux de danger peuvent être différents, dépendant de l'application. Par exemple, on peut considérer le manque ou l'excès d'utilisation de la mémoire, activité inappropriée des disques etc ... La notion de proximité de danger peut être également très différente et n'est pas forcément géographique. La proximité peut être par exemple un temps de début d'exécution identiques ou un accès aux mêmes ressources, La théorie du danger commence à être utilisée dans quelques applications comme les IDS et l'extraction de données.

2.4 Conclusion

Le domaine des systèmes immunitaire artificiel est un vaste sujet de recherche. Dans ce chapitre on a présenté les différents principes inspirés du système immunitaire naturel tel que la sélection négative, la sélection clonale, la maturité d’affinité et la génération des récepteurs. Ces principes ont été utilisés pour développer des outils informatiques pour la résolution des problèmes complexes dans plusieurs domaines, et notamment les problèmes de l’optimisation combinatoire. Dans le chapitre suivant on abordera l’algorithme immunitaire artificiel inspiré de ces principes et mécanismes pour résoudre le problème d’ordonnancement dans les systèmes de production de type Flow Shop Hybride.

Documents relatifs