• Aucun résultat trouvé

Analyse des données

Chapitre 2 : État de l’art

3.3 Étude expérimentale : Expérience de juin 2009

3.3.4 Analyse des données

3.3.4.1 Traitement de données électro-physiologiques

Un traitement hors ligne (Off-line) de données GSR, BVP et EEG a été effectué à l’aide du logiciel BioGraph Infiniti. Il regroupe un ensemble de techniques qui permettent d’améliorer la qualité du signal. Nous avons suivi les étapes suivantes dans le traitement de données électro-physiologiques :

1. Les données EEG ont été ré-référencées à la moyenne de l’activité sur les deux mastoïdes (A1 et A2). La méthode de ré-référencement est destinée à rehausser les caractéristiques informatives du signal EEG. En fait, le changement de référence du signal EEG à une référence moyenne commune permet de rehausser les oscillations du cortex moteur par rapport au bruit (Dien 1998). Pour chaque site EEG (Fz, F3, C3 ou Pz) mesuré, le signal corrigé est calculé en utilisant la formule suivante :

é= −

( + )

2

2. Quatre participants (2 femmes et 2 hommes) ont été exclus de l’analyse cérébrale à cause de problèmes techniques au moment de l’enregistrement. Un autre problème technique d’enregistrement dans le site Fz avec beaucoup de

53

participants nous a amené aussi à exclure toutes les données relatives au site Fz dans notre analyse.

3. Un traitement visuel des signaux enregistrés a été effectué pour éliminer les données contaminées par des artefacts suite à une grande activité musculaire ou des clignements excessifs d’yeux. Cette étape utilise les enregistrements vidéo faits avec les deux webcams durant l’expérience. Un filtrage des signaux EEG corrigés a été aussi fait en appliquant des filtres passe-bande dans la plage de fréquence de 2 à 48 Hz. D’après Robert Horlings et ses collègues (Horlings, et al. 2008), l’utilisation de ces filtres permet la détection du clignement des yeux nettement présent dans les fréquences faibles (1-2 Hz), tandis que les fréquences supérieures à 48 Hz ne contiennent que peu d’activité cérébrale, et sont essentiellement polluées par des interférences électriques (50 ou 60 Hz).

4. La durée d’une époque (epoch) était de 1 seconde avec un échantillonnage à 256 Hz. La transformation rapide de Fourier (FFT) a été réalisée sur des époques d’une seconde pour générer des spectres de fréquences sous la forme d’un histogramme de l’amplitude ou de la phase en fonction des fréquences étudiées. Le résultat graphique d’une FFT est affiché sous la forme d’un histogramme d’une amplitude (μV) ou d’une puissance (μV2) versus une fréquence (Hz). A partir de ce spectre et afin d’obtenir une analyse quantitative et simplifiée de l’EEG, cinq bandes de fréquences comprises entre 2 et 48 Hz ont été extraites : Gamma (32-48 Hz), Bêta (12-32 Hz), Alpha (8-12Hz), Thêta (4-8 Hz) et Delta (<4 Hz). Nous avons aussi calculé la densité spectrale de puissance (DSP) d’EEG pour chacune des bandes de fréquences extraites. La DSP peut être utilisée comme indice informatif (Bagrova, et al. 1984) et elle représente la répartition de la puissance d’un signal suivant les fréquences. Nous rapporterons dans la section de résultats obtenus les valeurs DSP absolues ayant subies une transformation logarithmique pour normaliser la distribution des données (Halliday, et al. 1995).

5. Nous avons prélevé des mesures du capteur cutané BVP qui est considéré comme moyen non-invasif et sûr pour mesurer le rythme cardiaque (RC). Le calcul du RC est réalisé par la détection des maxima du signal BVP et en

54

utilisant l’intervalle inter-battements (IBI) à chaque battement. Le RC est mesuré en battements par minute (B/min. ou Bm).

6. La conductivité de la peau (CP) a été calculée à partir du capteur cutané GSR. La CP est une mesure qui permet de déterminer le niveau de conductibilité électrique de la peau. Il s’agit de l’inverse de la résistivité de la peau. Par définition, le capteur GSR donne une évaluation de la résistivité de la peau. La CP est tout simplement l’inverse du signal GSR et elle est mesurée en micro- Siemens (μS).

7. Une technique de normalisation a été aussi appliquée aux données physiologiques (RC et CP) en utilisant les données de la ligne de base (Baseline). En effet, la normalisation des données conserve les caractéristiques physiologiques pour chaque sujet et établit une unité de mesure commune pour pouvoir comparer les sujets entre eux. La normalisation effectue une transformation linéaire sur les données originaires. Elle a aussi l’avantage de conserver exactement toutes les relations entre les données. Nous avons normalisé chacune des données physiologiques RC et CP en utilisant la formule suivante (Lin, et al. 2008) :

é=

− × 100

où et représentent les signaux minimal et maximal durant la période d’interaction avec le jeu et correspond au signal enregistré avant le début du jeu. Ces données physiologiques normalisées reflètent les changements des signaux par rapport à une référence (la ligne de base).

3.3.4.2 Étude statistique

Dans cette première expérience, plusieurs types de données quantitatives (scores des questionnaires de motivation IMMS ou pré-test et post-test de performance) et qualitatives (données électro-physiologiques) ont été obtenus. L’application de quelques méthodes statistiques et quelques filtres est nécessaire pour mieux comprendre les données collectées et les utiliser dans la validation notre

55

première hypothèse de recherche H1 (certaines caractéristiques dans les données collectées déterminent le niveau de la motivation de l’apprenant pendant son interaction avec Food-Force).

Dans notre étude statistique, nous avons opté pour l’utilisation de tests statistiques non-paramétriques. En effet, l’application des tests paramétriques requiert essentiellement la satisfaction de la contrainte de normalité de la distribution de données. Cette hypothèse est d’autant plus difficile à vérifier que l’échantillon de population étudié est plus réduit. Dans le cas de notre expérience, l’échantillon était faible (seulement 29 participants après l’analyse précédente) et aucune hypothèse n’a été justifiée en ce qui concerne la distribution normale de données. Ainsi, l’emploi des tests non-paramétriques se justifie alors dans notre analyse de données, même après les transformations faites aux variables étudiées. Les tests non-paramétriques sont des tests de comparaison de moyennes. Ils ne nécessitent pas d’estimation de la moyenne et de la variance. En fait, ils n’utilisent même pas la valeur réelle recueillie dans les échantillons, mais seulement le rang de cette valeur dans la liste ordonnée de toutes les valeurs. Lorsque les échantillons peuvent être considérés indépendants, on applique le test de Mann et Whitney pour 2 échantillons et celui de Kruskal et Wallis pour un nombre quelconque d’échantillons. Dans l’autre cas où on a des échantillons appariés, on applique le test de Wilcoxon pour 2 échantillons et celui de Friedman pour un nombre quelconque d’échantillons. Dans la section suivante, les résultats d’un test sont toujours déclarés comme étant statistiquement significatifs au niveau de significativité à 1% ou 5%. Nous avons utilisé le logiciel SPSS (version 20) pour conduire les différents tests statistiques.