• Aucun résultat trouvé

10.4 Modèle linéaire général

10.4.1 Spécification du modèle

Principe général

Pour chaque voxel du cerveau, notons Y le signal BOLD acquis au cours du temps, c’est-à-dire la réponse hémodynamique mesurée dans ce voxel. Y est une fonction du temps comprenant autant de mesures que de volumes d’acquisition (notons q ce nombre de mesures). Y ne représente pas le signal mesuré brut mais les données prétraitées.

On fait classiquement l’hypothèse que la réponse hémodynamique est li-néaire. Cela signifie que si le protocole expérimental comprend n types d’évène-ments (par exemple l’apparition d’un stimulus), si la réponse mesurée dans un voxel pour les événements de type j est Yj, alors le signal Y acquis dans ce voxel est : Y = Y1+ Y2+ ... + Yn.

Spécifier un modèle signifie traduire sous forme mathématique les hypo-thèses quant à la forme des réponses Y1, Y2,. . .,Yn associées à chacun des types d’évènements. On connaît donc les valeurs du signal Y en q points, et spécifier le modèle consiste à définir la forme théorique de la réponse hémodynamique pour ces mêmes q points.

Il faut donc choisir pour chaque type d’évènement j une forme théorique pour la réponse Yj. Cette forme est modélisée par une ou plusieurs fonctions temporelles, qu’on appelle des régresseurs, et qui sont, comme Y, des vecteurs de taille q. Ces régresseurs sont regroupés dans une matrice X qu’on appelle la matrice de dessin expérimental. X comporte q lignes et autant de colonnes que de régresseurs.

10.4. MODÈLE LINÉAIRE GÉNÉRAL 143 la visualisation d’un bref stimulus visuel), on peut considérer que le signal BOLD a une forme proche de la fonction hémodynamique dite canonique (hrf ). La hrf atteint son maximum 5 secondes après l’événement qui l’a induite.

Si on suppose que le signal BOLD est plus complexe (par exemple, le maxi-mum n’est pas atteint exactement en 5 secondes dans tous les voxels), on peut considérer que la forme du signal est plus complexe que la hrf seule, et est plus proche de la combinaison linéaire de plusieurs fonctions, par exemple une hrf et sa dérivée. On choisit alors de modéliser la condition avec deux "fonctions de base".

Dans notre cas, nous avons choisi de modéliser le signal avec la hrf seule. Par ailleurs, dans le cas où un type d’évènement est répété plusieurs fois à différents instants du paradigme, on fait l’hypothèse que, à chaque occurrence, ce type d’événement apporte une contribution identique au signal BOLD mesuré. Autrement dit, la réponse au stimulus est invariante dans le temps.

Chaque régresseur est donc une fonction temporelle constituée d’une suite de fonctions élémentaires hrf synchronisées avec les instants de présentation des évènements. Ils traduisent ainsi la forme attendue de la variation du signal BOLD induite par chaque type évènement.

SPM construit alors un modèle statistique appelé modèle linéaire général, qui est une généralisation du modèle de régression linéaire, et qui a pour but de décomposer le signal mesuré Y comme une combinaison linéaire de régresseurs. Le même modèle est appliqué à tous les voxels du cerveau.

Le modèle statistique décompose le signal mesuré comme suit : Y = M + β1R1 + β2R2 + . . . + βnRn + E

E est appelée l’erreur résiduelle, et correspond à la partie des données non ex-pliquée par le modèle. C’est un vecteur de taille q. M est la valeur moyenne du signal, qu’on décrit classiquement sous la forme M = β0R0, où R0 est un vecteur qui vaut "1" pour tous les points de mesure (on l’appelle le régresseur "constant", il est défini automatiquement).

Autrement dit, SPM caractérise la réponse Yj (contribution des évènements de type j au signal Y total mesuré dans le voxel) par :

- sa forme théorique, représentée par le régresseur Rj;

- un coefficient multiplicatif associé β, que l’on appelle coefficient de régres-sion ou paramètre.

Régresseurs

L’ensemble des régresseurs que nous avons modélisés est récapitulé dans le tableau 10.1.

10.4. MODÈLE LINÉAIRE GÉNÉRAL 145

Numéro Nom Onset Durée

1 à 40 Contexte Apparition box-car

du contexte (toute la durée d’affichage)

41 Essai non-réponse Stimulus event

42 Essai non-réponse Feedback event

43 3 premiers essais d’un run Stimulus event

44 3 premiers essais d’un run Feedback event

45 Apparition d’un contexte ancien Stimulus event

46 Apparition d’un contexte nouveau Stimulus event

47 Effet de l’apparition Stimulus boxcar

d’un contexte ancien (durée d’un essai)

48 Effet de l’apparition Stimulus boxcar

d’un contexte nouveau (durée d’un essai)

49 Exploitation Stimulus event

50 Exploration Stimulus event

51 Creation de probe proactive Stimulus event

52 Creation de probe réactive Stimulus event

53 Creation de probe secondaire Stimulus event

54 Récupération réactive, contexte ancien Stimulus event

55 Récupération réactive, contexte nouveau Stimulus event

56 Récupération réactive secondaire Stimulus event

57 Récupération proactive, contexte ancien Stimulus event

58 Récupération proactive, contexte nouveau Stimulus event 59 Récupération directe a posteriori Stimulus event 60 Récupération directe a posteriori secondaire Stimulus event

61 Consolidation Stimulus event

62 Consolidation secondaire Stimulus event

63 Stimulus Stimulus event

64 Feedback positif Feedback event

65 Feedback négatif Feedback event

66 Stimulus au feedback Stimulus box-car

Modulations paramétriques : (du stimulus au feedback)

67 Valeur de l’action

68 dummy λ

69 λ de la meilleure alternative

70 λ de la seconde meilleure alternative

71 Feedback au stimulus Feedback box-car

Modulations paramétriques : (du feedback au stimulus)

72 γ acteur

73 γ de la meilleure alternative 74 γ de la seconde meilleure alternative

75 dummy µ

76 µ de la meilleure alternative

77 µ de la seconde meilleure alternative

78 à 82 Runs boxcar (durée d’un run)

83 à 88 Mouvements

Table 10.1 – Régresseurs. Les régresseurs en vert correspondent à ceux qui apparaissent par la suite dans les résultats présentés.

Régresseurs de non intérêt.

- Runs : ce régresseur modélise les six runs d’IRM fonctionnelle (trois runs par session).

- Mouvements : ce régresseur modélise les mouvements du sujet dans le scanner dans les trois rotations possibles de la tête.

- Non réponse : ce régresseur modélise tous les essais où aucune réponse n’a été enregistrée.

- Premiers essais d’un run : nous avons modélisé séparément les premiers essais d’un run qui correspondent à la reprise de la tâche juste après une pause, lorsque le signal n’est pas encore stabilisé.

Effets du contexte. Nous avons modélisé individuellement chacun des 40 contextes (4 anciens et 36 nouveaux) qui apparaissent lors des sessions d’IRM afin de retirer leurs effets spécifiques non désirés (saillance visuelle, valeur émo-tionnelle, etc.). Nous avons également modélisé les changements de contextes en dissociant l’apparition des contextes anciens et nouveaux. Ces changements sont modélisés à la fois en event, modélisant ainsi l’effet brusque et saillant du chan-gement de contexte ; et en box-car afin de modéliser un potentiel effet durable du changement (tel que l’attention visuelle du sujet).

Régresseurs définis par le modèle PROBE. A chaque essai, le modèle PROBE reçoit, maintient ou actualise plusieurs variables : le stimulus présenté, l’action réalisée, la récompense obtenues, les valeurs de chaque action, les prédic-tions de récompense, les signaux de fiabilité, les transiprédic-tions d’état (exploitation et exploration). Nous avons modélisé l’ensemble des évènements que nous souhai-tons étudier.

Les essais d’exploitation correspondent aux derniers essais de chaque épi-sode où le sujet, selon la prédiction du modèle, est en état d’exploitation du task-set courant. Les essais d’exploration correspondent quant à eux aux essais au milieu de la première période d’exploration de chaque épisode. Ces deux ré-gresseurs représentent des évènements stay et nous fournissent une ligne de base pour comparer avec les évènements de transition d’état.

On s’intéresse aux premiers évènements de transition d’état de chaque épi-sode. C’est pourquoi on modélise les premiers évènements d’une part et les évè-nements secondaires d’autre part, pour chacune des transitions d’état possibles (création de probe, récupération et consolidation). On dissocie également les dif-férents types de transition en fonction de leur moment d’apparition : soit dès le premier essai de l’épisode (au moment du changement de contexte), c’est à dire de façon proactive ; soit un à plusieurs essais après le changement de contexte, de façon réactive. On dissocie également en fonction du type de contexte (ancien ou nouveau). Ces diverses dissociations nous permettent de dégager des évènements "purs". Par exemple, dans les épisodes où le contexte est nouveau, les récupéra-tions sont nécessairement fondées sur les feedbacks. On est donc pratiquement certains qu’ils s’agit de récupérations réactives où le contexte n’a pas d’effet.

10.4. MODÈLE LINÉAIRE GÉNÉRAL 147 Enfin, les régresseurs "stimulus" et "feedback" possèdent des modulations paramétriques issues des variables du modèle PROBE.

Au moment du stimulus, on modélise : la valeur de l’action choisie (selon le module sélectif), la fiabilité du task-set aléatoire (dummy), la fiabilité ex-ante (λ) du meilleur task-set alternatif dans la mémoire de travail et la fiabilité ex-ante du second meilleur task-set alternatif.

Au moment du feedback, on modélise : la prédiction (γ) de la récompense pour le task-set acteur (selon le module prédictif), la prédiction de la récompense pour le meilleur et second meilleur task-sets alternatifs et la fiabilité ex-post (µ) pour le meilleur et second meilleur task-set alternatif.

Notons que ces régresseurs sont modélisés en box-car. En effet, il est difficile de déterminer avec précision le moment de mise à jour de ces variables. Pour les capturer, cette modélisation s’est avérée préférable à une modélisation en event. Par ailleurs, nous n’avons pas pu modéliser les signaux de confiance du task-set acteur avec les alternatives car, par construction, leur corrélation est trop élevée. En effet, dans le modèle PROBE, lorsque la fiabilité de l’acteur chute, les fiabilités des task-sets alternatifs ont tendance à augmenter simultanément. Ces interdépendances entre variables sont le fruit de la structure même du modèle et peuvent difficilement être évitées. Nous les avons donc modélisés dans des mo-dèles séparés. Les résultats présentés dans cette thèse sont ceux du GLM incluant les alternatives uniquement1.

Enfin, il est à noter que SPM implémente par défaut une orthogonalisation des régresseurs dans l’ordre défini par l’utilisateur. Le premier régresseur intègre toute la variance commune, le deuxième est orthogonalisé par rapport au premier et exclut donc la variance commune avec le premier. Le troisième est orthogo-nalisé par rapport au deuxième et exclut donc la variance des deux premiers, et ainsi de suite. Pour le dernier régresseur dans l’ordre d’orthogonalisation, SPM ne calcule que la variance spécifique, en soustrayant toute variance partagée avec les autres. Nous avons donc veillé à déclarer nos régresseurs d’intérêt en fin de chaîne d’orthogonalisation afin de ne capturer que leur effet individuel, en excluant tous les effets communs.