• Aucun résultat trouvé

perspective différente de l’intelligence artificielle, qui permettra de s’affranchir, à tout le moins partiellement, des problèmes rencontrées en logique classique. L’auteur propose de laisser de côté les solutions existantes, de repartir du problème et de le solutionner au moyen de l’intelligence artificielle. Les présents travaux de doctorat tentent donc de confirmer l’hypothèse que ces méthodes alternatives, et c’est là une nouveauté, permettent d’améliorer le traitement des coïncidences Compton en TEP.

3.7. Fondements de la solution

Depuis un demi-siècle, l’intelligence artificielle a développée des approches d’analyse alternatives aux méthodes analytiques ou probabilistes traditionnelles, comme les réseaux de neurones et la logique floue [pour une introduction, voir Wikipedia, 2006a]. L’intelligence artificielle, dans les cas probabilistes ou analytiquement complexes, ainsi que pour des données bruitées, a souvent donné de meilleurs résultats que d’autres méthodes [Sorensen, 1991; Materka et Mizushina, 1996; Wright, 1999].

Il est donc possible de justifier l’emploi de quelques-unes de ces techniques à partir de leurs propriétés fonctionnelles et de leurs applications existantes. La discussion qui suit ne vise qu’à présenter sommairement ces techniques et ne constitue aucunement une description exhaustive de ces méthodes, de leur fondement, de leur fonctionnement ou de leurs applications.

3.7.1. Réseaux de neurones

Même s’ils en sont à des années-lumière en termes de complexité relative, les réseaux de neurones artificiels tentent d’imiter, par le biais d’équations mathématiques, la structure et le fonctionnement des réseaux de neurones biologiques [Fausett, 1994; Stergiou et Siganos, 2014]. Chaque neurone ne possède qu’une sortie, qui est une fonction arbitraire d’une combinaison elle aussi arbitraire des entrées. Chaque neurone dans le réseau peut être différent. Bien que les neurones soient habituellement disposés en couches, les connections entre eux sont elles aussi arbitraires et peuvent provenir des entrées du système ou de n’importe quelle couche du réseau. La figure 3.2 montre une couche simple de trois neurones : les a et p sont les sorties et les entrées, respectivement, les w et les b

Chapitre 3 Paradigme d’efficacité de détection en TEP

sont des paramètres internes du réseau et f, une fonction arbitraire. Le choix de structures est presque illimité [Teuscher, 2001].

À cause de cette structure, les réseaux de neurones sont très flexibles, mais le choix de leur structure reste très empirique. Même s’il existe une grande variété de méthodes pour ce faire, le choix des paramètres internes, autant pour un neurone individuel qu’à l’échelle du réseau entier, n’est déterministe que pour les plus simples des réseaux et des applications. En d’autres mots, il n’existe à l’heure actuelle en général pas d’autre moyen de concevoir un réseau que de l’entraîner itérativement à traiter les données du problème. Cela limite la flexibilité offerte par la structure. L’entraînement peut utiliser une variété de méthodes pour adapter, à partir de ces données, les paramètres du réseau (les wi et les bi de

la figure 3.2, par exemple) et constitue une science en soi [Anthony et Bartlett, 1999]. Les données doivent être judicieusement sélectionnées, formatées et présentées au réseau de manière appropriée, car le succès de l’entraînement peut en dépendre. Les données peuvent faire intervenir ou non la sortie désirée (entraînement supervisé ou non) lorsque l’on peut la calculer ou la mesurer [Hinton et Sejnowski, 1999; Reed et Marks II, 1999].

Figure 3.2 Exemple d’une structure possible montrant une couche de trois neurones

La structure la plus répandue est le perceptron à plusieurs couches connectées en cascade, sans rétroaction [Minsky et Papert, 1969; Wikipedia, 2006b], appelée aussi

feedforward network ou multilayer perceptron, et entraînée au moyen de la

rétropropagation de l’erreur [Werbos, 1994; Chauvin et Rumelhart, 1995]. Ce réseau a été utilisé dans de nombreuses applications.

3.7 Fondements de la solution D’une manière plus générale, les réseaux de neurones ont d’abord été et sont encore utilisés comme classificateurs [Schürmann, 1996]. Ils servent aussi comme mémoires associatives [Kamp et Hasler, 1990], estimateurs et contrôleurs non linéaires [Suykens et coll., 1995], machines de Boltzmann, modèles spatio-temporels, etc. [Haykin, 1999]. En TEP, on a tenté, un peu comme pour la logique floue, de leur faire reconstruire des images, analyser ou fusionner ces mêmes images et même mesurer des moments de détection [Sase et coll., 1994; Comtat et Morel, 1995; Jae Sung et coll., 2000; Bruyndonckx et coll., 2003; Bryundonckx et coll., 2003; Kosugi et coll., 2003; Bruyndonckx et coll., 2004; Junying et coll., 2005; Leroux, 2005].

Leur aptitude à traiter des données bruitées ou incertaines rend leur utilisation particulièrement intéressante ici. Dans la plupart des applications où le bruit et les erreurs de mesures dégradent substantiellement les données, les réseaux de neurones se sont révélés bien meilleurs que la logique traditionnelle, pourvu qu’on ait réussi à les entraîner avec succès. Les réseaux de neurones exhibent aussi des capacités de généralisation meilleures que les méthodes purement analytiques, réussissant à traiter des cas différents des données d’entraînement [Egbert et coll., 1992; Hyeoncheol et LiMin, 1994; Larsen et Hansen, 1994; Musavi et coll., 1994; Helliwell et coll., 1995; Chen et Mills, 1997; Ninomiya et Sasaki, 2002]. Enfin, parce qu’il n’existe généralement dans ces réseaux aucune représentation explicite des données ou des relations qui les sous-tendent, il n’est pas nécessaire d’utiliser de description analytique ou statistique du problème, évitant ainsi l’encombrement inhérent à ces modèles traditionnels pour les problèmes complexes.

Pour toutes ces raisons, les réseaux de neurones permettraient de calculer la LOR appropriée avec une puissance de calcul raisonnable. Ils conduiraient peut-être aussi à la réduction du nombre de scénarios Compton considérés séparément [Ishibuchi et Nii, 1998].

3.7.2. Prétraitement

Les réseaux de neurones constituent donc potentiellement une alternative aux méthodes analytiques et aux mathématiques traditionnelles, pouvant les remplacer au besoin, mais ils offrent les meilleures performances lorsque ces mathématiques deviennent incertaines, complexes, ou encore lorsque la description mathématique du problème n'est

Chapitre 3 Paradigme d’efficacité de détection en TEP

pas disponible ni universelle, reconnaître une pomme dans une photo ou garder une automobile sur la route par exemple.

Dans un scanner TEP, il existe une multitude de symétries connues, simples à identifier et à calculer. Il apparaît donc logique de prétraiter et de normaliser les données pour y enlever au préalable ces redondances, de sorte que chacune des parties de la solution, prétraitement et réseau, opèrent à l'optimum de leurs capacités fonctionnelles. Si l’on schématise les coïncidences triples par des triangles comme à la figure 3.3, la finalité du prétraitement vise à les enligner dans un référentiel unique et normalisé.

Documents relatifs