• Aucun résultat trouvé

Mesure de la variabilité dans un système biologique

Dans le document en fr (Page 86-88)

P OINTS CLES DE LA PARTIE 1 :

I.2.2. Introduction à la variabilité

I.2.2.2. Mesure de la variabilité dans un système biologique

La variabilité observable d’un système découle de deux sources primaires : i) des fluctuations stochastiques (aléatoires), et ii) des fluctuations déterminées chaotiques (en apparence aléatoire, mais mathématiquement prédictible lorsque les conditions initiales sont connues). Classiquement la variabilité est mesurée au travers de mesures linéaires telles que l’écart-type standard. Or, ces mesures fournissent une description de la quantité ou de la magnitude globales des variations autour d’un point central. L’utilisation de ces mesures pour décrire la variabilité d’un système présuppose toutefois que les variations présentes dans la répétition d’une tâche soient aléatoires et indépendantes les unes des autres dans le temps (Stergiou et Decker 2011). Deux signaux présentant des valeurs linéaires (moyenne et écart-type) identiques peuvent en réalité cacher une structure extrêmement différente. Bien que complémentaire ces mesures doivent donc être complétées par des approches permettant de tenir compte de l’interdépendance des valeurs au cours du temps (Newell et Slifkin 1998).

Les mesures issues de la TSD ont montré que la variabilité exprimée par un système biologique présente un caractère déterministe. Or, la présence de ce déterminisme implique nécessairement une relation temporelle entre les variations, relation qui ne peut être prise en compte par une description aussi globale que celle de la magnitude des variations. Newell et Slifkin

(1998) ont donc développé une méthode permettant d’analyser rapidement la nature des variations

présentes dans le signal. Cette méthode a pour objectif de donner une couleur au signal, couleur indicatrice de la structure de sa variabilité. La description de la couleur du signal repose sur le profil des fréquences qu’il émet. Plus spécifiquement, pour décrire la couleur du signal on utilise la formule de la loi de puissance inversée 1/f, ou f représentent les fréquences émises par le signal. Parmi les signaux émis par des systèmes biologiques le bruit blanc est sans conteste le plus connu. Le bruit blanc ou 1/f0, indique qu’il n’y a pas de structure dans le signal. En effet, le bruit blanc

émet à parts égales l’ensemble des fréquences possibles, par conséquent lorsque l’on représente sur un graphique bilogarithmique sa puissance en fonction de la fréquence émise on obtient une droite de régression dont la pente (β) tend vers 0. A l’inverse, plus les fréquences émises sont spécifiques plus la droite possédera une pente tendant vers des valeurs, oscillant entre -1, -2, et -3 correspondant respectivement à du bruit rose 1/f1, brun 1/f2, ou noir 1/f>2 (Figure 12). Ce qui

distingue le bruit blanc, des bruits rose ou brun est le degré de déterminisme présent dans le signal mesuré. Là où, au sein d’un signal exprimant du bruit blanc un état passé peut induire l’ensemble des états futures avec d’égales probabilités, dans les bruits roses et brun la présence d’un état passé donné renforcera la probabilité de rencontre de certains états futurs.

Figure 12. Séries temporelles de bruit blanc, rose et brun, le graphique correspondant à leur spectre de puissance, ainsi qu’à l’analyse de la densité de ce dernier permettant de calculer la valeur de β qui leur est spécifique. Cette figure

illustre les différents degrés d’organisation structurelle, et par conséquent le caractère plus ou moins déterministe relatif aux signaux émis par un système dynamique.

Plus qu’une différence de nature entre systèmes déterministes et stochastiques, on observe une différence de degré allant des systèmes exprimant des variations parfaitement périodiques (forte prédictibilité), à ceux présentant variations totalement aléatoires (absence de prédictibilité) ; la structure chaotique se trouvant à mi-chemin entre les deux (Figure 12). Les fluctuations du signal issu d’un système biologique, et d’apparence aléatoire, possèdent donc une origine déterministe ; pour décrire ce signal, plus que de chaos, on parlera alors de complexité. En effet, dans la description des systèmes biologiques, la complexité renvoie aux fluctuations exprimées par un processus physiologique, possédant des propriétés mathématiques chaotiques, mais aussi, possiblement, fractales (i.e. corrélations à long terme entre les données successives). Cette complexité, caractéristique des systèmes biologiques, émerge de la présence au sein du système de nombreux éléments en interaction, et est étroitement liée à son organisation et sa coordination. Les interactions entre les composantes d’un système non-linéaire sont, si ce n’est autant, probablement plus importantes que les composants eux même, puisque l’une des propriétés de la non-linéarité est que l’ensemble est plus grand que la somme des parties. Ainsi, deux grandes familles de techniques ont été développées pour étudier la complexité du système : les techniques basées sur la reconstitution de l’espace des phases, et, les techniques basées sur la quantification des autosimilarités.

Les techniques basées sur la reconstruction de l’espace des phases cherchent à distinguer le comportement chaotique du comportement aléatoire. Pour ce faire cette technique reconstitue la dynamique du signal dans un espace multidimensionnel abstrait au sein duquel les coordonnées

représentent les valeurs des différents états exprimés par le système. La séquence des états sur l’échelle de temps définit une courbe appelée trajectoire. A mesure que le temps augmente, la trajectoire converge vers un sous-ensemble de basse dimension : l’attracteur. La représentation de cet attracteur nous permet donc de connaitre la quantité d’états organisationnels stables exprimés par un système dont le signal apparait initialement comme aléatoire. Ainsi grâce à cette famille de mesure il est possible de fournir une description de la nature des variations présentes dans le système (périodiques, chaotiques ou aléatoires).

Un autre panel de techniques est basé sur la mesure d’autosimilarité. L’autosimilarité renvoi à la notion de patrons récurrents présents au sein de la série temporelle, et qui par conséquent, constitueraient une signature fonctionnelle spécifique au système mesuré. Différentes mesures permettent de quantifier la présence et les caractéristiques de ces autosimilarités dans une série temporelle, telles que : la mesure de l’entropie et les mesures fractales. L’entropie permet de mesurer la régularité statistique, et ainsi de quantifier la prédictibilité résultant d’une série temporelle. En d’autres termes plus la série temporelle contient des patrons répétitifs plus cette dernière sera prédictible, à l’inverse moins les patrons se répéteront au sein de la série, moins elle sera prédictible. Les fractales, elles, évaluent la présence de corrélations à court et long terme entre les données successives de la série temporelle. Ces corrélations correspondent à une dépendance statistique entre fluctuations à une échelle de temps donnée et celles présentes sur les autres échelles de temps.

Ainsi, par le biais de différentes méthodes, ces deux familles de technique cherchent à détecter les marqueurs de la présence d’un comportement auto-organisé au sein du système, ainsi que ses déterminants.

Dans le document en fr (Page 86-88)

Outline

Documents relatifs