• Aucun résultat trouvé

CHAPITRE VI CONCLUSIONS ET PERSPECTIVES

N/A
N/A
Protected

Academic year: 2021

Partager "CHAPITRE VI CONCLUSIONS ET PERSPECTIVES"

Copied!
10
0
0

Texte intégral

(1)

CHAPITRE VI

CONCLUSIONS ET PERSPECTIVES

1. CONCLUSIONS GÉNÉRALES

Ce travail se compose de trois volets principaux : la détection des stades de développement et des perturbations (chapitre III), les classifications de profils d’expression (chapitre IV) et la modélisation de réseaux de régulation (chapitre V). Cette dernière partie constitue le cœur et l’objectif principal de cette thèse de doctorat et fut la première à être traitée dans ce travail. Dans cette étude, des modèles linéaires et non linéaires ainsi que des méthodes d’estimation et de réduction paramétrique ont été développées pour reproduire les données d’expression du développement de la drosophile (Arbeitman et al. 2002). Au cours de cette étude, les limites de la méthode de classification de profils utilisée ayant été atteintes, de nouvelles méthodes de classification de profils, décrites au chapitre IV, ont été développées. Enfin, l’observation des données d’expression de la drosophile nous a conduits à aborder l’étude des phénomènes survenant aux changements de stades de développement.

Dans cette optique, deux méthodes de détection automatique de ces changements de stades ont été développées. Par la suite, cette dernière étude a été étendue aux données relatives à des organismes sujets à des perturbations externes.

Détection des stades de développement et des perturbations (chapitre III)

Dans le but de savoir s’il était possible de détecter, à partir des profils d’expression issus de puces à ADN, les instants auxquels survenaient soit un changement de stade de développement d’organismes multicellulaires supérieurs, soit une perturbation externe, telle qu’un stress thermique ou une diauxie, deux approches ont été proposées.

La première approche représente des profils d’expression par une série de polynômes successifs et définit les limites des stades de manière à optimiser cette représentation. Cette première approche a été appliquée aux données du développement de la drosophile et de la cione et s’est avérée relativement peu efficace pour détecter les instants de leurs changements de stade de développement.

La seconde approche consiste à comparer de petits segments des profils d’expression couvrant quelques instants successifs de la série temporelle, entre les différents gènes, et à identifier automatiquement les instants où ces segments diffèrent le plus. Pour ce faire, une

(2)

distance simple D, symétrique et indépendante à la fois de la valeur moyenne des profils et de facteurs d’échelle a été définie. Cette méthode a été appliquées à trois types de données : (1) le développement d’organismes eucaryotes supérieurs, du stade embryonnaire au stade adulte ; (2) la réponse d’un organisme procaryote unicellulaire à une perturbation externe et (3) le cycle cellulaire d’un organisme eucaryote unicellulaire. Cette approche s’est montrée particulièrement efficace pour retrouver les instants expérimentaux où un changement de stade ou d’environnement était observé, ce qui démontre que la distance symétrique D est une mesure pertinente pour détecter ces changements à partir des profils d’expression. Notons qu’aucun changement brusque dans l’expression des gènes n’est observé dans le cas du cycle cellulaire. Celui-ci ne peut donc pas être assimilé à une perturbation.

Par ailleurs, cette étude mène à deux constatations. Premièrement, elle a mis en évidence l’existence de régions clairement différenciées au niveau de l’expression des gènes dans le développement des organismes eucaryotes supérieurs et la correspondance de ces régions avec les stades de développement. Deuxièmement, elle a montré que sans l’information des instants réels des changements de stade de développement ou des perturbations, aucune différence n’était visible entre la détection d’un changement de stade de développement et une perturbation externe de l’organisme. La seule différence observée entre ces processus est que les pics de distances suivent les perturbations alors qu’ils surviennent généralement aux mêmes instants que, ou légèrement avant, les changements de stades. Cette constatation vient corroborer l’idée que, dans chaque stade de développement des organismes eucaryotes supérieurs, le système tend à approcher un point fixe et qu’ensuite, une perturbation, interne ou externe, vient affecter le réseau de régulation de l’expression des gènes et ainsi modifier la trajectoire du système en définissant un nouvel attracteur. Cette dernière hypothèse offre une explication simple et élégante à la grande robustesse des systèmes cellulaires aux perturbations stochastiques de toutes sortes. Dans le futur, l’application de notre méthode de détection à d’autres séries temporelles issues de puces à ADN permettra de raffiner ces résultats.

Classifications de profils d’expression (chapitre IV)

La classification des profils temporels d’expression en échelle logarithmique a d’abord été effectuée avec la méthode SSC (Ma et.al. 2006). Toutefois, il est apparu que cette méthode échouait lors de la classification d’un grand nombre de données en échelle non logarithmique et ce, en raison de leur grande variabilité. Dès lors, des méthodes de classification classiques, notamment une classification hiérarchique ascendante, ont été appliquées à ces profils. En se basant sur les résultats obtenus lors de la détection des stades de développement, la démarche suivie est ici de regrouper les gènes qui présentent des profils temporels d’expression aux comportements similaires non seulement au cours de la série temporelle complète, mais également dans chacun des stades de développement. Dans cette optique, trois distances ont été proposées et appliquées dans la classification des données d’Arbeitman et al. (2002) : (1)

(3)

la distance Λ entre les polynômes modélisant les profils d’expression, indépendamment de leur translation verticale, (2) la distance euclidienne Ω entre les coefficients de ces polynômes (à l’exception du terme indépendant) et (3) la distance symétrique D entre les profils d’expression, indépendamment de leur translation verticale et de leurs facteurs d’échelle (ajout d’un terme constant aux profils et multiplication des profils par un facteur constant).

Les résultats de ce travail ont mis en lumière le côté arbitraire entourant le choix du nombre de classes à former ainsi que la difficulté de quantifier la qualité des résultats obtenus par des distances et méthodes de classification différentes et, a fortiori, de comparer leur efficacité. En gardant à l’esprit le caractère non optimal des méthodes étudiées, – en effet, le développement de méthodes de classification est un point secondaire de ce travail – notre choix s’est porté sur une classification hiérarchique agglomérative simple, basée sur la distance D, décrite ci-dessus. Cette méthode a été appliquée aux profils d’expression du développement de la drosophile, exprimés en échelle non logarithmique. Les profils moyens issus de cette classification ont alors été utilisés dans la modélisation du réseau de régulation génique de la drosophile.

Notons qu’une limitation de la méthode de classification hiérarchique utilisée est que, lors de la construction « agglomérative » de l’arbre (voir section 2.2.3), la réunion de deux classes est une opération irréversible (Déjean et al. 2007). Dès lors, les classes formées à chaque itération sont optimales compte tenu des itérations précédentes et non de manière absolue. Pour cela, l’utilisation d’autres algorithmes de classification constitue une perspective digne d’intérêt. Par contre, la distance D, symétrique, avec multiplication par un facteur d’échelle des profils à comparer et autorisant le regroupement de profils en opposition de phase, semble tout à fait pertinente pour quantifier la similarité entre les profils d’expression. Nous proposons donc de la conserver dans l’utilisation de nouveaux algorithmes.

Signalons ensuite que les choix de la formulation mathématique des distances entre les profils à classifier et des profils auxquels les appliquer sont étroitement à l’historique de ce travail. Ainsi, il serait intéressant de poursuivre cette étude en appliquant, par exemple, la distance D aux profils polynomiaux étudiés plus tôt dans ce chapitre, au lieu de la distance Λ qui ne présente pas d’invariance aux facteurs d’échelle.

De même, nous avons pu constater que l’expression des gènes variait beaucoup moins dans les stades larvaire et adulte que dans le stade embryonnaire et le stade de pupe. Par ailleurs, deux gènes présentant un certain comportement dans un des stades de développement peuvent différer dans un autre stade. Il serait dès lors intéressant de classifier les profils soit en regroupant les stades embryonnaire et larvaire, soit en combinant les classifications dans chacun de ces stades de développement. Ainsi, la dépendance temporelle des profils d’expression sera prise en compte lors de la classification et le nombre réduit de stades considérés maintiendra un nombre final de classe réduit donc exploitable en modélisation.

(4)

Ensuite, il serait intéressant de réaliser une étude de validation croisée des résultats de classification. Celle-ci consisterait, par exemple, à comparer les résultats sur toutes les données à ceux obtenus sur un sous-ensemble de ces données.

Enfin, depuis le début de ce travail, de nombreuses nouvelles méthodes d’analyses des données issues de puces à ADN ont paru dans la littérature ainsi que de nouvelles procédures de classification de profils temporels issus de puces à ADN. Déjean et al. (2007), par exemple, ont proposé une méthode de classification qui utilise la représentation continue des profils d’expression, l’estimation de leurs dérivées temporelles et un algorithme hiérarchique affiné par un k-means. Magni et al. (2007) ont développé le logiciel TimeClust, permettant l’utilisation de méthodes classiques de classification (hiérarchique, bayésienne, SOMs) adaptées aux séries temporelles ainsi que la méthode Temporal abstraction clustering, qui simplifie les profils d’expression en les décomposant en intervalles dans lesquels seule la pente moyenne est considérée. Son & Baek (2007) ont proposé un nouveau coefficient de corrélation pour quantifier la ressemblance entre deux profils d’expression et l’ont utilisée dans un algorithme hiérarchique classique. Hestilow & Huang (2009) ont proposé un algorithme bayésien basé sur la forme des profils d’expression normalisés plutôt que sur leurs valeurs absolues. Zhao et al. (2009) ont suggéré de prétraiter les profils temporels à classer par une méthode de décomposition spectrale avant de la classifier de manière classique (k- means et SOMs) et ce, afin de capturer l’information dynamique qu’ils contiennent. Enfin, Krishna et al. (2010) ont proposé une méthode de classification basée sur le test de causalité de Granger, lequel permet de quantifier la dépendance statistique entre deux profils temporels.

Il serait dès lors intéressant de tester toutes ces nouvelles méthodes et, si elles s’avèrent pertinentes, de les utiliser, si possible avec la distance D développée dans ce travail (si la méthode complète ou le code source est disponible), dans le contexte de la modélisation de réseaux de régulation génique.

Modélisation de réseaux de régulation (chapitre V) Modèle linéaire

Les résultats de la modélisation dynamique des profils d’expression des gènes de la drosophile, exprimés en échelle logarithmique, ont montré qu’avec une structure de modèle linéaire très simple, la reproduction des profils expérimentaux était excellente. On a également pu constater la puissance de l’estimation paramétrique en 2 étapes : la première étape est analytique et rapide mais souffre d’erreurs dues à l’estimation des dérivées temporelles ; les valeurs des paramètres obtenues lors de cette première étape sont alors utilisées comme valeurs initiales d’une seconde estimation paramétrique, non linéaire et donc nécessitant plus de temps de calcul, dans laquelle tous les paramètres sont libérés et optimisés.

L’application de plusieurs procédures de réduction paramétrique a alors montré que le

(5)

(en moyenne 3 connexions par classe de gènes) et ce, sans hypothèse a priori, et qu’il présentait des connexions d’auto-régulation. Par la suite cependant, les modèles linéaires ont sérieusement été remis en question par les analyses de robustesse aux perturbations paramétriques et de stabilité des profils après extrapolation dans le temps. En effet, les modèles linéaires se sont avérés extrêmement sensibles à de faibles perturbations paramétriques. Or, de telles perturbations surviennent in vivo étant donné la nature stochastique des processus moléculaires à l’origine des interactions entre gènes. Par ailleurs, en extrapolant les profils estimés après la période de mesure, il s’est avéré que les profils estimés par ces modèles présentaient des comportements divergents et des valeurs non plausibles d’un point de vue biologique. C’est pourquoi les modèles linéaires développés ne sont pas acceptables pour modéliser les réseaux de régulation génique.

Dès lors, le développement de modèles non linéaires est apparu comme une suite logique pour concilier, d’une part, une bonne qualité de reproduction des données et, d’autre part, les caractéristiques de robustesse paramétrique et de stabilité inhérentes au système biologique de régulation génique. Par ailleurs, pour se rapprocher de la modélisation d’un système chimique classique et faciliter l’interprétation des paramètres obtenus, les données ont ensuite été considérées comme des concentrations relatives et non plus en échelle logarithmique.

Modèles non linéaires

Quatre structures de modèles non linéaires ont été proposées, toutes composées d’un terme de transcriptionRc( )X , soit constant soit dépendant de l’état X des concentrations relatives de tous les classes de gènes, et un terme de dégradation composé d’un facteur

c( )

X , constant ou non, proportionnel à la concentration relative X tc( ) équation V.13).

Si ces quatre modèles se sont montrés robustes aux perturbations paramétriques et présentaient des profils stables après extrapolation dans le temps, le modèle pour lequel le terme de transcription est de type polynomial (sans exponentielle) et le facteur de dégradation est constant (voir équation V.19), s’est avéré nettement moins apte que les autres à reproduire les profils d’expression. Les trois autres structures de modèles, , et , définis en (V.20 à V.22) et comprenant un ou deux terme sous forme d’exponentielle, se sont montrées plus flexibles pour reproduire les profils d’expression.

(voir

NCpol

m

NNe

m meNC mCNe

Cinq méthodes de réduction paramétrique ont ensuite été appliquées pour identifier les connexions principales des réseaux modélisés. Les solutions obtenues ont révélé que ces modèles pouvaient, comme le modèle linéaire, se contenter d’une connectivité limitée jusqu’à un certain point et qu’ils présentaient également des connexions d’auto-régulation. Toutefois, les connectivités obtenues sont ici moins limitée que dans l’approche linéaire et ce, en raison de la mauvaise initialisation des paramètres dans l’approche non linéaire. En effet, cette seconde approche étant dépourvue d’une résolution analytique du problème, les deux étapes de l’estimation paramétrique sont ici moins performantes que dans l’approche linéaire.

(6)

Par ailleurs, ces résultats ont permis de discuter les méthodes de réduction paramétrique développées. Tout d’abord, nous avons pu constater que l’élimination des paramètres à faible valeur absolue (réduction ) ou de ceux qui influencent le moins la reproduction des données (réduction

rv

r ) permet d’identifier les solutions les plus réduites tout en satisfaisant généralement les exigences de reproduction des données, de robustesse paramétrique et de stabilité. Ensuite, l’élimination des paramètres les plus sensibles aux perturbations (réduction ) a donné les plus mauvais résultats dans la plupart des cas. Cette méthode est donc à éliminer. Enfin, l’élimination des paramètres les plus sensibles ou les moins sensibles au sens de Fisher (réductions

rp

rF et rF) a mené généralement à des solutions fortement réduites, plus robustes et/ou plus stables mais souvent au détriment de la qualité de reproduction des profils expérimentaux. En outre, on constate que selon le modèle et la série temporelle étudiée, ces deux méthodes mènent à tour de rôle à une solution plus robuste et plus stable. Or, les paramètres éliminés sont choisis de manière opposée, par définition (voir section 3.2.5). On en conclut que le critère de sensibilité au sens de Fisher, défini vis-à-vis de perturbations infinitésimales des paramètres, ne permet pas ici de quantifier la sensibilité des paramètres vis-à-vis de perturbations plus importantes.

Sous-réseau du développement musculaire

Ensuite, l’application des méthodes de modélisation développées au sous-ensemble de gènes impliqués dans le développement musculaire de la drosophile, pour lequel 36 connexions ont été validées expérimentalement, a montré que le modèle développés étaient capables de retrouver près de la moitié des connexions (non orientées) validées expérimentalement mais qu’ils échouaient généralement à reproduire ces profils d’expression et ce, en raison de leur grande variabilité. Néanmoins, on constate que la méthode de réduction paramétrique r permet de libérer la recherche paramétrique des minima locaux de fonction de coût pour le modèle et mène à une solution apte à reproduire correctement les profils expérimentaux.

NNe

m

Données synthétiques

Enfin, l’application de nos modèles à des données synthétiques, différentes pour chaque modèle, montre que nos modèles reproduisent très bien ces données avant réduction paramétrique et ce malgré le bruit introduit sur les profils d’expression. De plus, ils retrouvent près de la moitié des connexions (non orientées) et non-connexions « réelles ».

(7)

2. PERSPECTIVES GÉNÉRALES

Cette étude ouvre diverses perspectives, immédiates d’une part et à plus long terme d’autre part :

Perspectives immédiates

 Si un grand nombre de structures de modèles peuvent être testées, seules certaines sont dignes d’intérêt. Tout d’abord, les modèles dits « physiques », pour lesquelles chaque élément de la formulation mathématique représente un processus physique, permettent une interprétation plus aisée et plus exploitable des résultats obtenus, a fortiori lorsque le but de la modélisation n’est pas simplement de reproduire les données mais bien de comprendre les interactions moléculaires survenant entre les gènes et leurs produits.

Notons que cette optique vaut surtout pour la modélisation de réseaux de régulation où interviennent des gènes individuels, qui permet une interprétation directe des résultats.

En revanche, lorsqu’on modélise les interactions entre classes de gènes, lesquelles correspondent à une combinaison des interactions entre les gènes des différentes classes, tous les modèles deviennent purement mathématiques, ou « boîtes noires », car la formulation mathématique de la combinaison des interactions n’est en pratique pas réalisable.

 Le nombre de paramètres est, dans ce type de problème, un élément clé de l’efficacité de la modélisation. Il convient donc de définir des structures comprenant suffisamment de paramètres, de manière à reproduire les données de manière satisfaisante, sans toutefois dépasser le seuil de surparamétrisation propre à chaque structure et à chaque ensemble de données.

 Des techniques sont actuellement développées, d’une part pour intégrer les mesures de concentrations en protéines et autres molécules impliquées dans la régulation génique (Hall et al. 2007) et, ce faisant, fournir des données supplémentaires et, d’autre part, pour accéder aux valeurs de concentrations absolues en ARNm dans les techniques de puces à ADN (Zhao et al. 2007). En s’intéressant à ce nouveau type de données, les modèles chimiques classiques deviennent particulièrement adaptés pour la modélisation de sous-réseaux de gènes isolés et il devient, entre autres, envisageable d’étudier la cinétique des réactions entre les molécules impliquées dans la régulation.

 L’application des modèles développés, linéaires ou non, a mis en lumière les limitations de notre approche d’estimation paramétrique : le choix d’une fonction de coût basée sur une distance entre les profils expérimentaux et estimés implique de devoir intégrer les équations différentielles à chaque itération de l’estimation paramétrique et augmente donc significativement le temps de calcul. Les

(8)

conséquences de ce problème sont que l’utilisation d’algorithmes de recherche paramétrique globale, i.e. qui parcourent l’ensemble ou une grande partie de l’espace des paramètres afin d’identifier la solution correspondant au minimum global de la fonction de coût, est limitée dans les problèmes différentiels à des problèmes de très petites dimensions, ce qui est loin d’être le cas dans la modélisation de réseaux de régulation génique. C’est pourquoi seules des recherches paramétriques locales peuvent en pratique être réalisées dans ce type de problème. Dès lors, l’efficacité de l’optimisation paramétrique locale est fortement liée à la qualité de l’initialisation de la recherche. Pour identifier la meilleure initialisation possible, l’optimisation paramétrique a ici été précédée par une étape d’estimation rapide approximative, basée sur les dérivées temporelles des profils d’expression. Ainsi, la recherche paramétrique est initialisée en un point de l’espace des paramètres aussi proche que possible du minimum global de la fonction de coût. Néanmoins, malgré cette première étape, les procédures d’optimisation paramétrique se sont avérées très longues. C’est pourquoi il serait utile de chercher à améliorer l’estimation préliminaire des paramètres dans les modèles non linéaires et l’efficacité de l’algorithme de recherche locale, notamment en l’intégrant dans une procédure itérative dont le critère de sortie est une valeur seuil minimale de diminution de la fonction de coût.

 Il est apparu que le choix d’une valeur seuil pour l’écart moyen m q r, , pouvait être équivoque en ce sens que sa satisfaction n’implique pas toujours une bonne reproduction des profils de toutes les classes. La formulation d’un critère basé sur l’écart maximum, parmi toutes les classes de gènes, entre les profils estimés et expérimental pourrait lever cette incertitude. Ainsi, une solution dont un des profils s’éloignerait trop des données arrêterait la procédure de réduction paramétrique.

 Nous avons pu constater combien il pouvait être difficile de concilier les critères de reproduction des données, de robustesse et de stabilité, à partir de solutions optimisés sur le premier critère uniquement. Il serait donc intéressant d’envisager une fonction de coût permettant d’optimiser ces trois critères simultanément. Toutefois, dans ce cas, un algorithme d’identification des paramètres plus rapide est à envisager car le temps de calcul élevé risque de rendre la méthode impraticable.

 L’étude des relations entre le développement des organismes et l’expression de leurs gènes apparaît comme une perspective très intéressante. Par exemple, les réseaux de régulation génique ont ici été étudiés sur la série temporelle complète du développement de la drosophile et indépendamment à l’intérieur de chacun de ses stades développement. Dans chaque cas, les profils ont été classifiés indépendamment des autres stades. En 2007, Guo et al. ont développé un modèle de réseau de régulation et l’ont appliqué à un sous-ensemble de gènes également impliqués dans le développement musculaire de la drosophile et ce, dans chacun des stades de

(9)

développement. Ils ont alors observé l’évolution de ce réseau de régulation avec le développement de l’organisme. Il serait donc utile de suivre cette voie avec les modèles développés dans ce travail en les appliquant à un même ensemble de données dans chacun des stades de développement. Ceci peut se faire en considérant soit un ensemble de gènes isolés, tel que le sous-ensemble de gènes impliqués dans le développement musculaire de la drosophile, soit des données classifiées. Toutefois, cette démarche implique d’utiliser une classification unique des profils d’expression à travers tous les stades de développement, contrairement a ce qui a été fait dans ce travail lorsqu’on a étudié les stades séparément. En effet, il est apparu que des profils d’expression qui suivaient des comportements similaires dans certains stades pouvaient évoluer de manière très différente dans d’autres stades. Dans cette optique, poursuivre le développement de méthodes de classification basée sur la ressemblance des profils dans chaque stade de développement, initié au chapitre IV de ce travail lorsque les profils d’expression ont été modélisés par une succession de polynômes (un dans chaque stade) constitue une option digne d’intérêt.

Perspectives à long terme

En marge des perspectives immédiates énumérées au point précédent, ce travail présente également des perspectives d’ordre plus général. Cette thèse de doctorat s’inscrit dans le cadre dans la modélisation de la régulation de l’expression des gènes des organismes eucaryotes supérieurs. L’objectif poursuivi dans cette démarche est tout d’abord une meilleure compréhension des processus biologiques gouvernant le contrôle de l’expression des gènes, en particulier lors du développement de l’organisme. Un long chemin est encore à parcourir avant que la modélisation des réseaux régulation génique ne soit maîtrisée. Toutefois, à terme, cette approche devrait contribuer à améliorer les techniques de biologie synthétique et permettre, par exemple, la modification contrôlée de la régulation génique de manière à optimiser la synthèse de molécules d’intérêt industriel ou à modifier l’évolution de cellules malades et la prédiction de l’effet de substances thérapeutiques sur l’expression des gènes, comme décrit au chapitre I (section 2).

Dans ce contexte, les travaux réalisés peuvent être poursuivis selon différents axes.

Tout d’abord, si la disponibilité des données d’expression des gènes croît chaque jour, elles restent encore souvent difficilement exploitables en raison, notamment, de la variabilité des protocoles de laboratoire et des formats non standardisés des données. Pour pallier ce problème, de nombreux projets ont vu le jour afin de standardiser à la fois les protocoles et l’implémentation des données. La poursuite sur cette voie est un élément capital pour l’exploitation des données disponibles.

Dans la même optique, le rapprochement des disciplines mathématiques et informatiques avec les disciplines biologiques est un élément indispensable pour élucider les

(10)

mécanismes à la base de la vie cellulaire. En effet, le dialogue entre ces différentes communautés, de moins en moins nettement délimitées, permettra d’optimiser, d’une part, le choix des expériences à réaliser pour fournir des données riches en informations sur la dynamique des systèmes à modéliser et, d’autre part, d’appliquer aux données qui en résultent des traitements et méthodes en accord avec les connaissances biologiques actuelles (Cho et al.

2005). L’interdisciplinarité sera donc indispensable pour poursuivre dans cette voie.

Par ailleurs, le développement de la capacité de calcul et de nouveaux algorithmes plus efficaces font partie intégrante du domaine et permettent de repousser chaque jour les limites de la modélisation mathématique des processus biologiques et d’aborder de mieux en mieux la complexité biologique.

Enfin, la validation biologique des résultats obtenus, à peine abordée dans ce travail dans le cadre de la classification des opérons et du sous-réseau du développement musculaire, constitue une tâche très importante dans la poursuite de cette étude. Pour cela, une recherche approfondie des données actuellement disponibles et des connaissances biologiques supplémentaires sur les organismes étudiés sont nécessaires. Plus particulièrement, l’accumulation d’expériences sur les interactions entre les gènes et leurs produits permet de vérifier et de quantifier de plus en plus d’interactions, ce qui fournira une base solide à la validation des interactions estimées par les modèles mathématiques. Finalement, la réalisation d’expériences sur le développement d’autres organismes modèles permettra de progresser dans l’interprétation des résultats obtenus avec l’ensemble des méthodes développées.

Références

Documents relatifs

The task of predicting if a sequence of words in a document is an anchor text linking to another document can be seen as a link prediction task in a network of documents.. To

Caractérisation physique et chimique de nouveaux matériaux particulaires dérivés de Fe4N pour l’enregistrement magnétique de haute densité.

Notre zone d’étude se caractérise par une végétation d’halophytes, se sont généralement des plantes qui se développent naturellement dans des sols salés selon Flower

The valley is filled with quaternary sediment formations whose shear-wave velocity structure has been determined by geophysical campaigns performed duringformer

Ce travail concerne la mod´ elisation des incertitudes dans les syst` emes num´ eriques lin´ eaires pour lesquels s’applique le principe de causalit´ e, en particulier avec prise

measures priorities. Additionally, each one of the participating companies, along with SDC, undertook social and environmental responsibility actions related to

• On dit qu’un processus stochastique est stationnaire, au sens strict ou stationnarité forte, lorsque l’on réalise un même déplacement dans le temps de toutes les variables

• La solution générales est valable pour n’importe quelles valeurs des constantes arbitraires. Mais en pratique, on leur donne des valeurs obtenues à partir des