• Aucun résultat trouvé

Il existe un nombre important de processus standards poss´edant les mˆemes caract´eristiques que les signaux supersym´etriques que nous recherchons. Il sera donc difficile d’isoler ces ´

ev´enements avec un bon rapport signal sur bruit.

Pour s´electionner les ´ev´enements correspondants `a une topologie particuli`ere, on effectue en g´en´eral une s´erie de coupures sur des variables dont la distribution est diff´erente pour le fond et pour le signal. Il existe cependant d’autres m´ethodes plus performantes qui consistent `a

5.5. R´eseaux de neurones

construire une variable globale `a partir des distributions discriminantes, dont les trois princi-pales sont:

– L’analyse discriminante lin´eaire de Fisher. – La m´ethode de rapport de vraisemblance. – Le r´eseau de neurones.

On a choisi cette troisi`eme m´ethode dans les analyses de recherche des squarks. La r´eponse d’un r´eseau de neurones est une fonction non-lin´eaire des variables discriminantes qui lui sont donn´ees en entr´ee. Dans l’espace des variables, le r´eseau de neurones d´efinit des hypersur-faces limitant les r´egions o`u se trouvent les ´ev´enements de type fonds et de type signal. Les corr´elations entre les diff´erentes variables sont donc prises en compte, et cela constitue un des atouts majeurs des r´eseaux neuronaux par rapport aux autres m´ethodes.

5.5.1 Entraˆınement d’un r´eseau de neurones

Un r´eseau de neurone typique est constitu´e de trois types de couches diff´erentes (couche d’entr´ee, cach´ee, et de sortie) contenant chacune un certain nombre de neurones (ou noeuds). A chaque neurone de la couche d’entr´ee est associ´e une variable Eiediscriminant les ´ev´enements de type signal et de type fonds. Chaque neurone de la couche cach´ee re¸coit toutes les valeurs Eie(i = 1, Ne) o`u Ne est le nombre de neurones dans la couche d’entr´ee, et construit une variable Ejc correspondant `a l’entr´ee du noeud cach´e de la mani`ere suivante:

Ejc =

Ne

2

i=1

WijecEie+ Tjc (5.18)

Les coefficients Wijec sont des poids associ´es aux connexions entre le neurone i de la couche d’entr´ee et le neurone j de la couche cach´ee. Tjc est le seuil d’activation du neurone j de la couche cach´ee. Une sigmo¨ıde (Fig. 5.9) est utilis´ee comme fonction d’activation pour calculer la sortie ou r´eponse du noeud cach´ee:

Sjc = 1 1 + e−Ec

j

(5.19) Cette ´etape est r´ep´et´ee entre les diff´erentes couches cach´ees, puis entre la derni`ere couche cach´ee et la couche de sortie. De la mˆeme mani`ere, les sorties de la derni`ere couche cach´ee Sjc sont combin´ees pour d´efinir la valeur d’un neurone de sortie Es

k = 4Nc

j=1Wcs jkSc

i + Ts k o`u Nc est le nombre de noeuds dans la couche cach´ee. La r´eponse d’un neurone de sortie est calcul´ee `

a partir d’une sigmo¨ıde: Sks= 1/(1 + e−Es k).

La phase d’apprentissage (ou d’entraˆınement) du r´eseau de neurones consiste `a ajuster les param`etres contrˆolant les connexions entre les neurones (Wijecet Wjkcs) et les seuils d’activation des neurones (Tjc et Tks) afin que le r´eseau donne la r´eponse souhait´ee. Dans notre cas, on veut qu’un des noeuds de sortie prenne la valeur 1 pour des ´ev´enements de signal et 0 pour des ´ev´enements de fonds. Les diff´erents param`etres sont donc initialis´es al´eatoirement et les valeurs des noeuds de sortie du r´eseau sont calcul´ees pour des ´ev´enements simul´es signals et fonds. Durant cette phase, le r´eseau neuronal connaˆıt la nature (0 ou 1) de chaque ´ev´enement.

0 0.2 0.4 0.6 0.8 1 -10 -8 -6 -4 -2 0 2 4 6 8 10

Fig. 5.9 – (a) Visualisation de la structure d’un r´eseau de neurone. (b)Une sigmo¨ıde est utilis´ee comme fonction d’activation des neurones: f (x) = 1/(1 + e−x).

Un algorithme de r´etro-propagation [13] est alors appliqu´e pour ajuster les param`etres et obtenir la r´eponse connue. Les lots d’´ev´enements sont donn´es un certain nombre de fois `a cet algorithme, ce qui correspond `a un nombre de cycles. A chaque cycle, un χ2est calcul´e `a partir de la r´eponse obtenue et de la r´eponse souhait´ee. Les valeurs des param`etres sont alors ajust´ees afin de minimiser ce χ2. La phase d’entraˆınement s’ach`eve lorsque le χ2 a converg´e. Afin de contrˆoler l’apprentissage, on utilise un lot ind´ependant d’´ev´enements qui va servir `a valider la phase d’entraˆınement. Au bout d’un certain nombre de cycles, ces nouveaux ´ev´enements sont pr´esent´es au r´eseau et le χ2 est calcul´e. L’augmentation de ce χ2 alors que le χ2 de la phase d’apprentissage a converg´e est le signe d’un sur-entraˆınement du r´eseau de neurones.

Une fois entraˆın´e, les param`etres du r´eseau de neurones sont sauvegard´es. Les valeurs de sortie du r´eseau de neurones sont alors calcul´es pour les ´ev´enements r´eels et simul´es utilis´es dans les analyses. La r´eponse du r´eseau prend des valeurs comprises entre 0 et 1.

5.5.2 Structure desr´eseaux de neurones utilis´es

La structure des r´eseaux de neurones utilis´es pour isoler les signaux squarks sera toujours la mˆeme:

– Une couche d’entr´ee compos´ee de 10 noeuds.

– Une seule couche cach´ee compos´ee ´egalement de 10 noeuds. – Une couche de sortie compos´ee de 3 noeuds.

Le premier noeud de sortie correspondra `a des ´ev´enements de type signal. Le deuxi`eme noeud de cette couche servira `a identifier les fonds hadroniques QCD et 4-fermions. Enfin, le troisi`eme noeud correspondra aux ´ev´enements issus d’interactions γγ aboutissant `a des ´etats finaux hadroniques. Les valeurs de sortie donn´ees aux r´eseaux de neurones lors de la phase d’en-traˆınement seront donc les suivantes: (1,0,0) pour des ´ev´enements signal, (0,1,0) pour des ´

ev´enements QCD et 4-fermions, et (0,0,1) pour les ´ev´enements γγ hadroniques. Le choix de cette structure a ´et´e dict´e par plusieurs conditions. Tout d’abord, on a tent´e de r´eduire au

Documents relatifs