• Aucun résultat trouvé

Approche Tensorielle

2.6.1 Introduction aux tenseurs . . . 59 2.6.2 Décomposition tensorielle et séparation de sources . . . 59 2.6.3 Application à l’imagerie nucléaire . . . 62 2.6.4 Conclusion sur l’approche tensorielle . . . 66

2.7 Conclusion . . . . 67

Ce chapitre introduit progressivement la séparation de sources et son application à l’ima-gerie nucléaire. Après un tour d’horizon des applications de la séparation de sources, le modèle

de mélange linéaire est présenté. La sous-détermination du problème est abordée ainsi que les différents a priori utilisés classiquement pour contrer cette indétermination. L’insuffisance de ces méthodes et leur inadéquation au cadre de l’imagerie nucléaire nous amènent à présenter les spécificités de ce dernier puis à insister sur l’utilité des contraintes de positivité. Un histo-rique et un état de l’art des méthodes de séparation de sources dédiées à l’imagerie nucléaire sont ensuite détaillés. En fin de chapitre, une partie est consacrée aux modèles tensoriels et à la décomposition tensorielle. Leur utilité pour la séparation de sources est précisée, et des utilisations potentielles pour l’imagerie nucléaire sont également proposées.

2.1 Généralités

Le problème de séparation de sources est un problème inverse classique en traitement du signal. Étant donnée une série d’observations composées chacune de mélanges de sources, l’ob-jectif est de retrouver les signatures des sources à la base de ces mélanges, ainsi que leur poids dans chaque observation. La séparation de sources est nécessaire lorsque les sources d’intérêt sont mélangées et ne sont donc pas directement accessibles. Ces sources doivent avoir des si-gnatures différentes, ainsi que des poids différents dans les observations, afin d’être séparables. La sous-section suivante présente quelques-unes des nombreuses applications pratiques de la séparation de sources.

2.1.1 Applications présentant des problèmes de séparation

Le problème de séparation de sources est un enjeu important dans de nombreux domaines, présentant chacun leures spécificités, liées à la nature du mélange, des données et à leur méthode d’acquisition. En voici quelques-uns :

• Une des applications bien connues est celle de la soirée cocktail en traitement du son. Dans une ambiance bruyante, où plusieurs conversations ont lieu en même temps, notre cerveau a la faculté de focaliser son attention sur les paroles d’une personne : c’est ce qu’on appelle en psychoacoustique l’effet cocktail party [Che53]. Nous réalisons ainsi une séparation de sources. Sous certaines conditions il est donc possible de séparer les paroles d’une personne d’un ensemble de bruits quelconques. En traitement du signal, le problème de la soirée cocktail est donc de reproduire cette capacité, en séparant les paroles de chaque personne de manière automatique grâce à l’enregistrement des conversations à l’aide de plusieurs microphones [Ped+08].

• L’imagerie hyperspectrale est une technique qui permet de photographier une scène sui-vant un grand nombre de bandes spectrales [SR85]. Cette technique d’imagerie présente de nombreuses applications de séparation de sources [KM02] ; [BD+12], notamment, en télédétection, où des images de surface terrestre à différentes longueurs d’ondes sont prises depuis un satellite. Chaque matériau à la surface de la Terre possède une signa-ture spectrale spécifique. Ainsi les signasigna-tures spectrales de l’eau, de la végétation et du goudron sont différentes. Sur un même pixel, différents matériaux peuvent coexister du

2.1. Généralités 25

fait de la résolution spatiale limitée des instruments de mesure. Le spectre de chaque pixel est donc composé d’un mélange des spectres des différents matériaux présents sur ce pixel. Tout l’enjeu est donc de séparer les spectres des pixels. Cette séparation permet la connaissance de la composition du terrain photographié.

• En astrophysique, toujours à l’aide d’imagerie hyperspectrale, ce n’est pas la Terre mais l’espace qui est imagé (depuis la Terre [Bac+10] ou depuis un satellite [Fre+01]). La séparation de sources permet de séparer les signatures spectrales des étoiles ou des galaxies proches dans les images [Meg+11]. L’analyse de ces spectres donne ensuite des informations sur les objets observés comme leur distance ou leur composition chimique [Bac+15].

• En chimiométrie, la composition de mélanges chimiques peut être estimée grâce à la séparation de sources [SBG05]. Pour cela, ces mélanges sont excités à différentes lon-gueurs d’ondes et les spectres de leurs réponses sont enregistrés. Pour chaque longueur d’onde d’excitation, le spectre réponse des mélanges dépend du spectre réponse de leurs composants. Les méthodes de séparation de sources permettent d’estimer la composition des mélanges ainsi que les réponses spectrales de chaque composant à chaque longueur d’onde [Bro97].

• De nombreuses applications existent également dans le domaine médical. On peut ci-ter notamment les applications pour la séparation de signaux électrophysiologiques de différentes entités [KAS07]. Ainsi la séparation de sources peut s’appliquer à des don-nées issues d’électrocardiogramme (ECG) afin de séparer l’activité du foetus et de la mère [DLDMV95], ou pour corriger le bruit dû à la respiration [Wis+98]. Elle peut aussi s’appliquer en électromyographie (EMG) [Far+04] afin de diagnostiquer certains syndrômes ou d’évaluer la coordination musculaire. Ou encore à des signaux électroen-céphalographiques (EEG ou MEG) pour supprimer les artefacts dûs aux clignements des yeux [Vig97]. L’imagerie multispectrale a aussi été utilisée dans le domaine médical pour détecter précocement des cancers de la peau [Dha+09] ; [DD10].

• Comme évoqué dans le premier chapitre, la séparation de sources est aussi nécessaire en imagerie nucléaire afin d’isoler proprement les courbes d’activité des organes et des tissus d’intérêt [DP+82]. Ces organes et tissus sont mélangés à cause du volume partiel, ou bien de la superposition pour l’imagerie planaire. Les travaux de cette thèse sont axés sur les applications de ce domaine.

2.1.2 Modèle de mélange linéaire

Afin de résoudre le problème de séparation de sources, une modélisation mathématique des données et du mélange est faite au préalable. Cette modélisation s’appuie sur la physique des phénomènes étudiés. Dans le cas le plus simple, on utilise le modèle de mélange linéaire [KM02]. Ce modèle stipule que chaque observation est, au bruit près, la somme des sources pondérées par leur poids dans l’observation. Dans le cas où les données possèdent deux diversités (par exemple spatiale et temporelle, le cas où 3 diversités ou plus sont présentes est traité dans la section 2.6 sur les tenseurs), et sont composées deK sources, ceci se traduit par le modèle de

=

Y + + + ε

A

:,1

A

:,2

A

:,3

F

1,:

F

2,:

F

3,:

Figure 2.1 – Représentation graphique du modèle de mélange linéaire avec K = 3 sources. La matrice des donnéesY est expliquée, au bruit près, par 3 matrices de rang 1 représentant chacune une source. La matrice A est composée des matrices colonnesA:,k. La matrice F est composée des matrices lignesFk,:. Les matrices de rang 1 sont construites à l’aide du produit matriciel entre une colonne de Aet une ligne de F.

mélange linéaire suivant :

Yi,t =

K X

k=1

Ai,k×Fk,t+i,t (2.1)

et de manière plus compacte :

Y =A×F + (2.2)

Dans ces équations, Y est la matrice des données observées, chacune de ses lignes contenant le signal d’une observation. La matrice F contient les signaux purs (i.e non-mélangés) des sources sur ses lignes. La matrice A contient quant à elle dans chacune de ses lignes le poids de chaque source pour une observation donnée. Le bruit, ainsi que les erreurs de modélisation sont contenus dans la matrice . Les matricesY etsont de tailleN×P, où N est le nombre d’observations, etP la taille des signaux. Les matricesA etF sont de taille respectiveN×K

etK×P. Le signal de chaque observation est donc, au bruit près, une combinaison linéaire de signaux purs (i.e non mélangés) contenus dans la matrice F, et dont les poids se retrouvent dans la matrice A. Autrement dit, la matrice des donnéesY peut s’exprimer, au bruit près, comme une somme de K matrices de rang 1. Chacune de ces matrices de rang 1 représente une source et est construite à l’aide du produit matriciel entre une colonne de A et une ligne de F (cf Figure 2.1).

A titre d’exemple, pour un problème decocktail party, chaque ligne deY contient le signal sonore reçu par un capteur, chaque ligne deF contient le signal sonore non-mélangé émis par une personne et la colonne de A correspondante représente l’intensité reçue de ce signal par chacun des capteurs. Selon les domaines, les matrices A etF ont des noms différents. Dans la suite, on appellera "facteur" le signal pur d’une source. La matrice F sera alors appelée la "matrice des facteurs". Comme la matrice A contient les cartes d’intensité des facteurs dans les observations, elle sera appelée "matrice des images factorielles". Ces termes sont ceux utilisés en imagerie nucléaire.

Dans le cas d’un mélange linéaire, les matricesAetFcaractérisent entièrement chacune des sources. L’objectif des méthodes de séparation de sources est alors de retrouver les matrices

2.1. Généralités 27

majorité des cas.

Remarque 2.1

Bien qu’elles aient des significations très différentes en pratique, les matrices A et F ont en fait un rôle symétrique dans le modèle. En appliquant simplement l’opérateur transposé à l’équation (2.2), on obtient :

YT =FT ×AT +T (2.3)

Il est donc possible d’appliquer une méthode de séparation de sources à Y ou bien à sa trans-posée.

Généralement, le nombre de sources (K) est faible devant le nombre d’observations (N) et la taille des signaux (P). La séparation de sources permet ainsi de réaliser une compression des données. Cette compression est possible car les observations peuvent être presque entièrement expliquées par un petit nombre de sources. L’information utile contenue dans les données est résumée dans les matrices A etF qui sont de petite taille comparativement àY. Le taux de compression atteint est donc deK×(N1 +P1).

Dans certaines applications, le mélange n’est pas linéaire. Cette non-linéarité peut pro-venir par exemple de l’interaction de la lumière avec les mélanges de matières en imagerie hyperspectrale [NC74]. D’autres modèles de mélange ont donc été proposés en conséquence [BD+12]. Le modèle de mélange linéaire reste très utilisé car il constitue une bonne approxi-mation de la réalité dans de nombreux domaines, et la résolution du problème est facilitée par sa simplicité. Les erreurs de modélisation sont contenues dans la matrice de bruit. Une modélisation plus fine nécessite une très bonne connaissance des phénomènes physiques mis en jeu, et complexifie généralement le processus de séparation.

Alors que le modèle de mélange linéaire suggère qu’il suffit d’une simple factorisation matricielle de Y pour séparer les sources, la réalité est elle bien plus complexe à cause de la non-unicité de cette factorisation.

2.1.3 Un problème sous-déterminé

Reprenons le modèle de mélange linéaire de l’équation (2.2) et négligeons le terme de bruit. On obtient alors :

Y =A×F (2.4)

Le problème de séparation de sources devient un problème de factorisation de la matrice

Y en deux matrices A etF. Selon le rang de la matrice des données Y et le nombre supposé de sourcesK, cette factorisation n’est pas toujours possible. Rappelons que K est le nombre de colonnes deA et le nombre de lignes de F. La condition rang(Y) ≤K est une condition nécessaire et suffisante d’existence d’une factorisation de la matrice Y en deux matrices A

matrice carrée inversibleR, de tailleK×K. Si il existe un couple de matrices (A,F) de taille respectiveN×K etK×P vérifiant l’équation (2.4), alors le couple (A×R,R1×F) vérifie lui aussi l’équation (2.4). Ainsi, si une factorisation existe, il en existe une infinité et donc plusieurs mélanges de sources différents peuvent conduire aux mêmes observations. Autrement dit, la matriceY seule ne caractérise pas le couple (A,F). Le problème de séparation de sources est donc sous-déterminé, non-identifiable. Trouver une solution au modèle, c’est à dire trouver une factorisation, ne garantit aucunement que cette factorisation soitla solution du problème de séparation de sources. D’un point de vue applicatif, cette sous-détermination est problématique car le couple de matrices (A,F) trouvé qui est censé caractériser les sources pures n’a plus le sens recherché, car l’information qu’il contient n’est vraisemblablement toujours pas séparée. Il existe cependant deux causes de non-unicité qui n’ont pas d’impact sur l’interprétation de la séparation des sources [HS14]. NotonsA et F un couple de matrices solution qui contient les sources pures. Lorsque la matrice R est une matrice de permutation, alors (AR,R1F) contient aussi les sources pures mais dans un ordre différent. De même si R est une matrice diagonale inversible, (AR,R1F) contient aussi les sources pures mais les matricesAetF sont estimées à un facteur d’échelle près. Ces indéterminations de permutations et d’échelle n’ont que peu de conséquences en pratique, car elles ne mélangent pas les sources. En revanche, les autres formes d’indétermination, que l’on peut assimiler à des indéterminations de rotation grâce à la décomposition en valeurs singulières (SVD en anglais) ne sont pas sans conséquences puisqu’elles mettent en échec la séparation de sources.

Dans le contexte pratique de la séparation de sources, il n’est pas envisageable de chercher une factorisation exacte, car le modèle est bien souvent une approximation de la réalité. De plus, les données sont généralement bruitées et la matriceY de rang plein, invalidant ainsi la condition rang(Y) ≤ K. Le modèle comportant un terme d’erreur (2.2) est donc préféré au modèle exact (2.4). La factorisation est recherchée en minimisant une norme de cette erreur. Les remarques précédentes sur la sous-détermination du problème sont évidemment toujours présentes avec ce modèle si le critère est uniquement de maximiser la fidélité aux données, c’est à dire minimiser une norme de l’erreur résiduelle(Y −A×F).

La sous-détermination dans le contexte de l’imagerie nucléaire est abordée plus en détail dans la section 2.4.2, en prenant en compte des contraintes de positivité sur les coefficients des matricesA etF. La solution au problème sera considérée unique si elle l’est à une matrice de permutation et/ou d’échelle près.

2.1.4 Principales méthodes de séparation de sources

À cause de la sous-détermination, les méthodes de séparation de sources ne peuvent pas se contenter de maximiser la fidélité aux données. Afin de trouver la solution au problème de séparation, il est nécessaire d’injecter des informations supplémentaires sur les sources re-cherchées, des informations a priori. Il n’existe donc pas de méthode de séparation de sources universelle car les informations ajoutées dépendent de l’application et des données. Les in-formations a priori ajoutées peuvent cependant être communes à plusieurs applications. Les

2.2. Modèle de mélange linéaire en imagerie nucléaire 29

méthodes les plus courantes de séparation sont décrites ci-dessous.

• L’analyse en composantes principales [Jol02] (ACP, ou PCA en anglais) minimise la norme euclidienne de l’erreur résiduelle ||Y −A×F||2, tout en cherchant des facteurs (lignes de F) orthogonaux entre eux. Elle permet de trouver des facteurs qui expliquent au mieux la variance des données. Bien que n’étant pas à la base une méthode de séparation de sources, elle peut être vue comme telle dans le cas où les sources recherchées sont décorrélées. La recherche d’une solution avec des facteurs orthogonaux n’est pas un problème sous déterminé et la solution se calcule analytiquement. Cependant l’hypothèse d’orthogonalité est une hypothèse forte sur les facteurs, qui n’est pas vérifiée dans tous les domaines d’application. L’ACP est néanmoins à la base de nombreuses autres méthodes de séparation de sources, car elle permet de réduire la dimension de l’espace de recherche en conservant au maximum la variance des données, et est souvent utilisée comme une étape de débruitage [Bar80].

• L’analyse en composantes indépendantes (ACI, ou ICA en anglais) est une généralisation de l’ACP aux ordres statistiques supérieurs [Com94]. Tandis que l’ACP cherche des sources qui sont mutuellement décorrélées (orthogonales), l’ACI cherche des sources qui sont mutuellement indépendantes. L’ACI est très utilisée pour la séparation de sources sonores [Ped+08] et de signaux électrophysiologiques [KAS07].

• L’analyse en composantes parcimonieuses regroupe des méthodes qui traitent le problème de séparation de sources en ajoutant un critère de parcimonie [GL06]. Les facteurs sont recherchés avec comme contrainte d’avoir une représentation parcimonieuse sur un dictionnaire de signaux.

• La factorisation en matrices non-négatives (NMF en anglais) est une famille de méthodes cherchant à minimiser une norme de l’erreur résiduelle=Y −A×F, en imposant aux matrices A et F d’avoir des coefficients positifs [PT94] ; [LS01]. Ces méthodes sont décrites en détail dans la section 2.4.3.

Ces méthodes générales ne sont toutefois pas adaptées à l’imagerie nucléaire. Les sections suivantes explicitent le modèle de mélange linéaire dans le cadre de l’imagerie nucléaire. Les spécificités de ce cadre sont ensuite détaillées afin de trouver les contraintes adéquates pour résoudre le problème de séparation de sources dans ce contexte.

2.2 Modèle de mélange linéaire en imagerie nucléaire

Dans le cadre de l’imagerie nucléaire, les données prennent la forme d’une séquence tempo-relle d’images de la radioactivité (cf annexes D). Cette dernière provient d’un traceur injecté au patient. Les différents organes et tissus d’intérêt présents dans la séquence d’images qui ont une courbe d’activité propre constituent les sources. Nous nommerons compartiments physiologiques ces sources. En reprenant les notations de la section 2.1.3,K est le nombre de compartiments physiologiques présents dans la séquence d’images,N est le nombre de pixels dans chaque image, et P est le nombre d’images dans la séquence. En pratique, le nombre

de pixelsN est de l’ordre de quelques centaines à quelques milliers, et le nombre d’imagesP

ne dépasse que rarement la centaine. Le nombre de compartiments physiologiquesK est lui généralement compris entre 2 et 4.

2.2.1 Modélisation du problème

Reprenons le modèle de mélange linéaire de l’équation (2.2),Y =A×F+, et explicitons chacun de ces termes dans le cadre de l’imagerie nucléaire. Une illustration de l’équation est fournie dans la Figure 2.2.

• La matrice Y est la matrice des données initiales. Elle contient une séquence d’images décrivant l’évolution de la radioactivité dans le corps du patient au cours du temps. Les images de cette séquence sont vectorisées. Chacune des N lignes de la matrice Y

représente la dynamique de la radioactivité mesurée sur un pixel. Chacune desPcolonnes deY est une image vectorisée, représentant la radioactivité perçue par la caméra pendant un intervalle de temps.

• La matrice des images factorielles A contient les informations spatiales des comparti-ments physiologiques. Chaque colonne de A représente la carte de présence vectorisée d’un des compartiments physiologiques. On retrouve donc sur une ligne de A les poids des différents compartiments physiologiques sur le pixel correspondant. Un coefficient nul dans cette matrice à la ieme` ligne et j`eme colonne signifie que lej`eme compartiment physiologique n’est pas présent dans le ieme` pixel. A l’inverse une valeur forte signifie que ce compartiment physiologique est fortement présent dans ce pixel.

• La matrice des facteurs F contient les informations temporelles des compartiments phy-siologiques. Chacune des lignes de la matrice des facteursF contient la courbe temporelle d’activité d’un des compartiments physiologiques. Cette matrice possède donc autant de lignes que de compartiments physiologiques dans le modèle, et autant de colonnes que d’images dans la séquence initiale.

• La matriceest de même taille que la matrice des donnéesY, et contient les différentes erreurs (erreurs de modélisation, bruit de comptage, bruit de mesure).

2.2.2 Signification et hypothèses du modèle de mélange linéaire

La modélisation des données d’imagerie nucléaire sous la forme d’un modèle de mélange linéaire entraîne de nombreuses hypothèses et approximations. Le modèle de mélange linéaire (2.2) suggère que la radioactivité contenue dans la séquence d’images peut être expliquée presque entièrement (à l’erreurprès) par la radioactivité d’un petit nombre de compartiments physiologiques [NB88]. Comme vu précédemment, les informations temporelles et spatiales des compartiments physiologiques sont séparées dans le modèle, les informations spatiales sont contenues dans la matriceA, et les informations temporelles dans la matriceF. Si bien que l’on pourrait réécrire le modèle sous la forme d’une fonction à variables séparables :

2.2. Modèle de mélange linéaire en imagerie nucléaire 31

Y A F

Figure2.2 – Un exemple en imagerie nucléaire de matricesY,AetF suivant le modèle décrit dans l’équation (2.4), avec K = 3 et aucun bruit. Les quatre premières colonnes (à lire de gauche à droite puis de haut en bas) contiennent quelques images du début de la séquence de données Y, aux temps t=1,3,5,7,...,31. La cinquième colonne contient les images factorielles

Documents relatifs