• Aucun résultat trouvé

2.3.2.5 Analyse des données

Dans le document en fr (Page 196-200)

sur le contrôle postural

II. 2.3.2.5 Analyse des données

L’analyse des données posturales (i.e. plateformes de force) et cognitives (i.e. réponses des participants) a été réalisée à l’aide du logiciel MATLAB version 2017 (Mathworks®).

Données posturales. Chaque série temporelle issue de l’enregistrement des déplacements du CdP en AP et ML a été sous-échantillonnée à 40 Hz, puis filtrée à l’aide d’un filtre passe-bas avec une fréquence de coupure de 10 Hz (ordre : 2). Le contenu fréquentiel de chacune des séries temporelles a été vérifié à l’aide d’une analyse spectrale, réalisée avant et après la procédure de sous- échantillonnage, ainsi qu’après la procédure de filtration. Cette analyse nous a permis de vérifier la validité des données, et d’éliminer d’éventuels bruits matériels.

Paramètres stabilométriques standards. A partir des séries temporelles des déplacements du CdP, les paramètres stabilométriques standards (i.e. mesures linéaires) suivants ont été calculés : la vitesse moyenne (Vit-AP/Vit-ML, mm.s-1), la moyenne quadratique (RMS-AP/ RMS-ML, mm),

et l’ellipse de confiance correspondant à l’aire contenant 95% des positions du CdP (ECA, mm2 ;

Prieto et al. 1996).

Analyse de l’entropie. La valeur de l’entropie échantillonnée (Sample Entropy – SampEn) a été utilisée pour évaluer la régularité des séries temporelles de vitesse du déplacement du CdP

(Roerdink et al. 2006 ; Richman et Moorman 2000). Toutefois, comme recommandé par Ramdani

et al. (2009),cette mesure a été calculée à partir des séries temporelles de vitesse du CdP afin de

pallier la non stationnarité des séries temporelles de positions du CdP et, par là même, les artefacts statistiques dans l’estimation de la mesure.

Afin de calculer la SampEn, la série temporelle originale de longueur N est standardisée pour obtenir une moyenne de zéro et une variance unitaire. Puis, à partir de cette série, des vecteurs de longueur m sont créés comme illustré dans l’équation (1) (la série temporelle qui en résulte est également appelée modèle vectoriel) :

𝑦 𝑚 = 𝑥 , 𝑥 + , … , 𝑥 + 𝑚 − Avec i = 1, 2, . . . , N − m+ 1 (1)

𝐵 𝑟 = ∑ , ⊝ 𝑟 − ‖𝑦 𝑚 − 𝑦 𝑚 ‖ (2)

Au sein de cet équation, ⊝ représente la fonction Heaviside, ‖. ‖ est la norme maximum définie par ‖𝑦 𝑚 − 𝑦 𝑚 ‖ = 𝑚𝑎𝑥 𝑥 − 𝑥 . Dans l’équation (2), la somme correspond au nombre total de vecteurs yj (m) similaires à yi (m) dans le modèle vectoriel, et ce,

avec une distance r tolérée entre les deux vecteurs. Le cas pour lequel j=i est exclu afin d’éviter de compter l’auto-comparaison. L’étape suivante correspond au calcul de la densité :

𝐵 𝑟 = 𝑁 − 𝑚 − 𝐵 𝑟 (3)

Les mêmes étapes de calcul sont alors effectuées pour le modèle vectoriel de taille m+1 :

𝐴 𝑟 = 𝑁 − 𝑚 − ⊝ 𝑟 − ‖𝑦 𝑚 + − 𝑦 𝑚 + ‖

,

𝐴 𝑟 = 𝑁 − 𝑚 𝐴 𝑟 (5) Sont ensuite calculés 𝐵 𝑟 et 𝐴 𝑟 , correspondant au nombre total de similarités présentes entre les vecteurs au sein des modèles vectoriels respectivement de longueur m et m+1 :

𝐵 𝑟 = 𝑁 − 𝑚 − 𝑁 − 𝑚 𝐵 𝑟 (6)

𝐴 𝑟 = 𝑁 − 𝑚 − 𝑁 − 𝑚 𝐴 𝑟

(7)

A partir des résultats obtenus, l’entropie échantillonnée est alors calculée de la façon suivante :

𝑆𝑎𝑚𝑝𝐸𝑛 𝑚, 𝑟, 𝑁 = −𝑙𝑜𝑔 𝐵 𝑟𝐴 𝑟 (8)

Pour cette étude, la longueur de la fenêtre m sélectionnée pour l’analyse de l’entropie était de 3 ( Ramdani et al. 2009 ; Pincus et Goldberger 1994).Comme la dynamique du CdP diffère en AP et ML, nous avons choisi, pour le paramètre de tolérance r, deux valeurs différentes : 0,15 pour les séries temporelles de vitesse du CdP en ML, et 0,2 pour celles en AP. L’ensemble des valeurs sélectionnées pour r et m ont démontré leur sensibilité à la manipulation des informations visuelles

(Ramdani et al. 2009).

Analyses fractales. Nous avons effectué une analyse DFA aux séries temporelles de vitesse du CdP en appliquant les différentes étapes de la méthode utilisée par Delignières (2007). Dans une première étape, la série originale x(i) est intégrée. Pour cela on remplace chaque donnée par la somme cumulée des écarts à la moyenne :

𝑦 𝑘 = [𝑥 𝑖 − 𝑥̅]

La série temporelle résultante, y(k), est alors divisée en différentes fenêtres de longueur n.

Dans chaque fenêtre de longueur n, une droite des moindres carrés est estimée, représentant la tendance de cette fenêtre. La série intégrée est ensuite redressée en retranchant la tendance locale, dans chaque fenêtre (y(k)- yn(k)). L’analyse porte donc sur les résidus de la régression. Pour une longueur de fenêtre

donnée, la grandeur caractéristique des fluctuations pour cette série intégrée et redressée est :

𝐹 𝑛 = 𝑁 [𝑦 𝑘 − 𝑦 𝑘 ] (2)

F(n) peut être considéré comme un écart-type, calculé par rapport à la moyenne redressée. Ce calcul est répété pour toutes les tailles de fenêtre pour produire une relation entre n et F(n). Les valeurs quadratiques moyennes sont ensuite moyennées pour connaitre la valeur moyenne des fluctuations pour l’ensemble des intervalles de longueur n. L’ensemble des étapes présentées précédemment est fait pour des fenêtres de tailles diverses (ici pour un intervalle allant de nmin = 4 à nmax = N/4 ; Peng

et al. 1993).

𝐹 ∝ 𝑛 (3)

De manière typique, F(n) croît avec n. Une relation linéaire, sur le graphique bilogarithmique, représentant F(n) en fonction de la longueur de l’intervalle n, révèle la présence d’autosimilarité. Les paramètres extraits de cette analyse ont été : la pente à court terme (αCT), la pente à long terme

(αLT), le crossover en f(n) entre αCT et αLT, (Crf), le crossover en n entre αCT et αLT (Crn ; Figure 34).

Figure 34. Graphique bilogarithmique des fluctuations de vitesse f(n) en fonction de la taille de la fenêtre temporelle nissus du DFA illustrant le phénomène de point d’inflexion et les différents indices (αCT, αLT, Crf et Crn) calculés

Méthode de substitution. Nous avons utilisé la méthode de substitution (i.e. surrogate data method) afin d’évaluer si la dynamique présente dans les séries temporelles analysées était générée par un processus Gaussien de nature stochastique. Ce test permet de comparer les valeurs statistiques de la série originale à celles de séries substituées produites mathématiquement selon la procédure proposée par Theiler et al. (1992), à savoir la transformée de fourrier à amplitude ajustée (Amplitude Adjusted Fourier Transform - AAFT). Les séries temporelles substituées préservent l’amplitude de la distribution, les corrélations linéaires entre les données, et le spectre de puissance, contenus dans la série temporelle originale. L’objectif de ce test a donc été de mettre à l’épreuve l’hypothèse nulle selon laquelle la série originale est significativement similaire aux séries substituées. Pour cette étude, 20 séries temporelles substituées ont été calculées pour chaque série temporelle originale. Ensuite, les exposants à court et long terme et la SampEn ont été calculés à partir des séries temporelles substituées. Puis la valeur minimale de chacun des calculs effectués sur chacune des 20 séries a été sélectionnée. 50 de ces séries temporelles substituées ont été sélectionnées au hasard au sein des groupes et des différentes conditions, et comparées aux séries temporelles originales correspondantes (cf. section II.2.3.2.6. Analyses statistiques), pour tester la nature non linéaire du processus mesuré (Ramdani et al. 2009).

Figure 35. Séries temporelles des positions du CdP de 2400 points (A) originale et (B) de substitution calculée à l’aide de l’algorithme AAFT.

Dans le document en fr (Page 196-200)

Outline

Documents relatifs