• Aucun résultat trouvé

Chapitre 2 Concepts de base de l'analyse non linéaire des

2.7 Les entropies

2.7.1 L’entropie approximative

Le concept de l’entropie a été originellement utilisé dans le domaine de la thermodynamique dans le but de quantifier le désordre dans un système donné.

Ce concept a été adopté par Shannon [28] pour analyser les séries temporelles. L’entropie quantifie la perte de l’information contenue dans l’état initiale du système. Ceci implique qu’autant la série temporelle contient des valeurs redondantes autant que la perte sera faible et par conséquence l’entropie a une valeur faible. A l’opposé, la valeur de l’entropie sera élevée lorsque la série temporelle contient des informations non redondantes. Par conséquent, le concept de l’entropie est fortement lié à la régularité et la prédictibilité d’une série temporelle. Pour un signal périodique, il est facile de prévoir les états futurs d’un système à partir de la connaissance de ces états précédents. Dans ce cas, l’entropie est nulle. Par contre, pour un signal aléatoire il est difficile ou impossible de deviner l’état futur allant de la connaissance des états précédents , et par conséquence l’entropie atteint une valeur infinie. Malheureusement, une mesure correcte et précise de l’entropie peut se faire seulement si on dispose d’une série temporelle assez longue. Plus précisément, une mesure correcte de l’entropie des signaux physiologiques est presque impossible car la plus part de ces signaux sont construits à partir d’une faible quantité des données

expérimentales. Afin de surmonter cette limitation, Pincus [30] a introduit un nouveau concept mathématique : l’entropie approximative.

En fait, l’entropie approximative quantifie le dégrée de régularité et de complexité d’une série temporelle. Pour une temporelle régulière, l’entropie approximative à une valeur faible tandis que pour un système complexe elle prend une valeur plus élevée. Cette technique semble très utile pour décrire la complexité des signaux physiologiques. Son importance peut se résumer en trois points fondamentaux [31] :

Elle peut être mesurée pour des courtes séries temporelles.cet avantage permet de manipuler les signaux physiologiques sachant qu’il est difficile d’avoir des enregistrements longs de ces derniers.

Elle est robuste à la présence des bruits. En effet, un bon choix de la distance r et suffisant pour éliminer l’effet des bruits.

Elle peut être estimée à partir des signaux déterministes et aléatoires.

L’entropie approximative de la série temporelle ݔ = {ݔ, ݔ, ݔ, … , ݔ}se calcule en suivant la procédure suivante : On forme m vecteurs ܺ(1), ܺ(2), … . . , ܺ(ܰ − ݉ − 1) définis par : ܺ(݅) = [ݔ(݅), ݔ(݅+ 1), … . , ݔ(݅+ ݉ − 1)] avec ݅= 1, ܰ − ݉ + 1. On mesure la distance entre les deux séquences ܺ(݅) et ܺ(݆) donnée par : ݀[(ܺ(݅), ܺ(݆)] = max୩ୀ଴,୫ ିଵ[|ݔ(݅+ ݇) − ݔ(݆+ ݇)|]

70

Analyse non linéaire des différents intervalles du signal ECG en vue d’une reconnaissance de signatures de pathologies cardiaques

Pour chaque séquence ܺ(݅), on calcule ܰ(݅) , le nombre des séquences ܺ(݆) (ܽݒ݆݁ܿ= 1 : ܰ − ݉ + 1) qui vérifie que ݀[(ܺ(݅), ܺ(݆)] < ݎ

On détermine par la suite l’intégrale de corrélationܥ(݅) =

ே೘(௜)

ேି௠ ିଵ. En effet, cette intégrale est définie comme étant le nombre des séquences ܺ(݆) similaires ; à une distance r ; à ܺ(݅) sur le nombre total des séquences.

on calcule ܥ(݅), pour chaque séquence X(i). Autrement dit, on répète l’étape (4), pour i=1 :N-m+1.

On définie : ∅ =୒ି୫ ାଵ୒ି୫ ାଵl݊C(݅)

୧ୀଵ

On incrémente la valeur de m et on répète les étapes (1) à (6). Autrement dit, on calcule ܥ௠ ାଵ(݅) et ∅௠ ାଵ

L’entropie approximative est définie par :

ApEn(m, r, N) = ∅ − ∅௠ ାଵ (2.20) ApEn(m, r, N) =୒ି୫ ାଵ ∑୒ି୫ ାଵlog C୫(r) −

୧ୀଵ ୒ି୫ ∑୒ି୫log C୫ ାଵ(r)

୧ୀଵ (2.21)

Afin de mieux assimiler cette procédure, prenant l’exemple suivant1[32]:

1

Dans cette référence, il y a des erreurs de calcul de l’intégrale de corrélation. Ces erreurs ont été corrigées dans l’exemple cité dans notre thèse.

On considère la série des intervalles RR comme une série temporelle. Elle refléte le rythme cardiaque d’un patient et est donnée par :

ܴܴ = {85,80,89,85,80,89,85,80,89,85,80,89, … . ,85,80,89,85,80,89,85,80, 89} On prend fixant ݉ = 2 et ݎ= 3 [32].

Etape 1 : on construit les vecteurs ܺ(݅) ܺ(1) = [85,80] ܺ(2) = [80,89] ܺ(3) = [89,85] ܺ(4) = [85,80] . . . . ܺ(50) = [80,89] Etape 2 fixant ݅= 1 et ݆= 1 : 50 [32]

On mesure les distances ݀[(ܺ(1), ܺ(݆)] et on compte les nombre des séquences ܺ(݆) qui vérifient ݀[(ܺ(1), ܺ(݆)] < ݎ:

݆=1 ݀[(ܺ(1), ܺ(1)] = max [|ܺ(1,1) − ܺ(1,1)|,|ܺ(1,2) − ܺ(1,2)| max [|85 − 85|,|80 − 80|= 0 < ݎ ݆=2 ݀[(ܺ(1), ܺ(2)] = max [|ܺ(1,1) − ܺ(2,1)|,|ܺ(1,2) − ܺ(2,2)| max [|85 − 80|,|80 − 89|= 9 > ݎ ݆=3 ݀[(ܺ(1), ܺ(3)] = max [|ܺ(1,1) − ܺ(3,1)|,|ܺ(1,2) − ܺ(3,2)| max [|85 − 89|,|80 − 85|= 5 > ݎ

72

Analyse non linéaire des différents intervalles du signal ECG en vue d’une reconnaissance de signatures de pathologies cardiaques ݆=4 ݀[(ܺ(1), ܺ(4)] = max [|ܺ(1,1) − ܺ(4,1)|,|ܺ(1,2) − ܺ(4,2)|

max [|85 − 85|,|80 − 80|= 0 < ݎ

Jusqu’à présent nous avons trouvé deux séquences qui vérifient que݀[(ܺ(1), ܺ(݆)] < ݎ. ces deux séquences sont ܺ(1) et ܺ(4). On continue à comparer ܺ(1) avec le reste des séquencesܺ(5), … . . , ܺ(50). Le nombre total ܰ(1) des séquences ܺ(݆) qui vérifient que ݀[(ܺ(1), ܺ(݆)] < ݎ est égal à 17.

Etape 3 : on calcule l’intégrale de corrélation ܥ(݅= 1) =

ேమ(ଵ) ேି௠ ିଵ=ଵ଻ହ଴

Etape 4 : on reprend les étapes de 1 à 3, pour les autres valeurs de i ; (ܿ− à − ݀݌݋ݑݎ݅= 2 : ܰ − ݉ + 1) ; afin de calculer ܥ(2), ܥ(3), … … , ܥ(50) Etape 5 : on calcule ∅ =୒ି୫ ାଵ୒ି୫ ାଵl݊C(݅) ୧ୀଵ =50 ෍1 ୒ି୫ ାଵln (ܥଶ(1) + ܥଷ(2) + ܥଷଶ(3), … … + ܥଷଶ(50)) ୧ୀଵ ≈ −0.0210445495652794

Étape 6 : on incrémente la valeur de m. (m=3). Autrement dit, on va construire les séquences X(i) suivantes :

ܺ(1) = [85,80,89] ܺ(2) = [80,89,85] ܺ(3) = [89,85,80] ܺ(4) = [85,80,89] . . . . ܺ(49) = [85,80,89]

On répète les étapes (2) à (5) dans le but de calculer ∅. Après calcul, on trouve que ∅≈ −0.0214967719704817.

Etape 7 : on calcule l’entropie approximative : ApEn(m, r, N) = ∅− ∅≈ 0.0004

On constate que la valeur de l’entropie approximative est très faible ce qui traduit effectivement la régularité de la série temporelle étudiée. En effet, pour avoir une valeur faible de l’entropie approximative, il faut que ∅ et ∅aient des valeurs très proches. Ceci est vrai si la probabilité d’avoir des séquences de m points similaires à une distance r, reste presque la même pour des séquences de m+1 points. En réalité cette propriété est vérifiée si la série temporelle est régulière.

Une mesure correcte de l’entropie approximative nécessite un choix adéquat des deux paramètres m et r. Dans l’analyse des signaux physiologiques, le paramètre m est souvent fixé à 2 (m=2). Selon Pincus et al. [33], le paramètre r peut prendre une des valeurs de l’intervalle [0.1ߪ, 0.25ߪ] ou ߪ représente la variance de la série temporelle. En réalité, le paramètre r est souvent fixé à 0.25ߪ [34]. D’autres auteurs [35] suggèrent de choisir r qui maximise l’entropie approximative. En réalité, le choix de r dépend énormément de l’application.

74

Analyse non linéaire des différents intervalles du signal ECG en vue d’une reconnaissance de signatures de pathologies cardiaques

Documents relatifs