• Aucun résultat trouvé

III. Analyse dynamique du réseau de régulation ComCDE

5. Optimisation des paramètres du modèle

L’optimisation est au cœur de nombreux problèmes rencontrés en modélisation et dans la conception de systèmes biologiques (Banga, 2008). Cela implique que soient définis quelques concepts fondamentaux : les variables décisionnelles (ce sont les variables qui peuvent être modifiées lors de la recherche de la meilleure solution), une fonction objectif (l’indice de performance qui quantifie la qualité d’une solution définie par un ensemble de variables de décision et qui peut être minimisée ou maximisée) et des contraintes à l’optimisation (exigences qui doivent être satisfaites lors de l’estimation, généralement exprimées sous la forme d’égalités et d’inégalités). Les variables décisionnelles peuvent être continues (générant des problèmes d’optimisation dits continus) ou discrètes (représentées par des nombres entiers). Ces dernières, également appelées optimisations combinatoires, sont souvent utilisées lors de la conception in silico de réseaux de régulation de gènes ou lors d’optimisation de modèles par rapport à des données expérimentales (Saez-Rodriguez et al., 2009, Schreiber et al., 2016).

Ainsi, l’inférence des paramètres des équations différentielles ordinaires peut être formulée comme un problème d’optimisation avec une fonction objective qui doit être minimisée par l’ajustement des valeurs des paramètres du modèle. Un choix couramment fait pour calculer cette fonction objective est de calculer la somme des carrés des résidus entre mesures expérimentales et simulations du modèle. Pour un vecteur de paramètre 𝑃, la valeur de la fonction objective est donnée par la formule suivante (Hoops et al., 2006) :

𝐸(𝑃) = ∑ ∑ 𝜔𝑗(𝑥𝑖,𝑗− 𝑦𝑖,𝑗(𝑃))2 𝑘

𝑗=1 𝑛

𝑖=1

où 𝑛 est le nombre de points de mesures expérimentales, 𝑘 le nombre de variables, 𝑦𝑖,(P) sont

les données simulées correspondants aux données expérimentales 𝑥𝑖,𝑗. 𝜔𝑗 est un poids

permettant de normaliser l’importance de chaque variable afin que toutes aient la même importance dans l’ajustement des paramètres. En effet, les variables ayant les valeurs moyennes les plus élevées contribuent plus fortement à l’accroissement de la fonction objective et peuvent ainsi être mieux ajustées par l’algorithme d’optimisation au détriment des autres variables du modèle. Afin que toutes les variables possèdent une même importance, il

est nécessaire de pondérer chacune d’elles. La méthode mean square, implémentée dans COPASI (Hoops et al., 2006), a été utilisée et consiste à diviser chaque résidu par la moyenne de la variable considérée élevée au carré (𝜔𝑗).

La fonction d’optimisation appliquée est la méthode de Particle Swarm Optimization (PSO), implémentée dans le logiciel COPASI, qui a été originalement proposée par Kennedy et Eberhart (1995). Cette méthode d’optimisation stochastique est inspirée des comportements sociaux et des mouvements dynamiques des essaims comme ceux observés chez les insectes, les oiseaux et les poissons. Chaque particule de l’essaim correspond à un vecteur de paramètres et parcourt l’espace des paramètres afin d’identifier le vecteur de paramètres reproduisant au mieux les résultats expérimentaux. Une particule est décrite par une position dans l’espace des paramètres, par une vitesse et enfin par une direction. Chaque particule possède une mémoire de ses précédentes valeurs de fonctions objectives et garde aussi en mémoire sa meilleure valeur de fonction objective. La particule conserve également la meilleure solution atteinte par les particules voisines. Chaque particule de l’essaim a une position initiale fixée de façon aléatoire dans l’espace des paramètres. Ces particules parcourent alors l’espace des paramètres et ajustent leurs positions et leurs vitesses à partir de leur propre meilleure valeur de fonction objective et à partir de celles atteintes par leurs voisins. La taille de l’essaim est fixée à 50 particules, valeur par défaut de COPASI.

Ainsi, chaque itération de l’algorithme nécessite pour chaque particule de l’essaim une procédure de mise à jour en trois étapes. D’abord, le positionnement des particules dans l’espace des paramètres se fait par rapport aux valeurs courantes des paramètres du modèle. Puis, le modèle est simulé avec les valeurs de paramètres du modèle. Enfin, les simulations sont comparées avec les données expérimentales en utilisant la fonction objective décrite précédemment et de nouveaux vecteurs de paramètres sont générés grâce à l’algorithme d’optimisation. Le processus itératif s’arrête si le changement de la valeur de la fonction objective devient plus faible qu’une valeur seuil ou si un nombre spécifié d’itération est atteint. Des informations supplémentaires sur cette méthode d’optimisation peuvent être trouvées dans l’article de Poli et collaborateurs (2007).

La méthode d’optimisation Particle Swarm (PSO) a été utilisée avec les paramètres par défaut proposés dans COPASI, à l’exception du nombre d’itérations qui a été augmenté de 2000 à 10 000 itérations afin d’obtenir le vecteur de paramètres le plus optimisé possible. Les performances des méthodes d'optimisation les plus populaires (programmation évolutive, algorithme génétique, recuit simulé et PSO) ont été en effet comparées par Baker et collaborateur pour retrouver les paramètres cinétiques des enzymes impliquées dans la

glycolyse (Baker et al., 2010). Ce travail a montré que la méthode PSO était la méthode la plus performante pour minimiser la fonction objective.

L’algorithme Particle Swarm, implémenté dans le logiciel COPASI (Hoops et al., 2006), a donc été utilisé comme algorithme d’optimisation pour minimiser les résidus entre les cinétiques des concentrations protéiques calculées à partir des données de luminescence de ComD/ComE, ComX et SsbB et les cinétiques de [ComD]total, [ComE]total, [ComX]total et

[SsbB] obtenues à partir du modèle (voir Tableau 2). Les simulations du réseau sont réalisées par intégration numérique des équations différentielles ordinaires avec la méthode LSODA (Petzold, 1983). Pendant l’estimation des paramètres du modèle, pour générer les cinétiques protéiques dans un mutant dprA-, le paramètre vmaxdprA correspondant à la vitesse maximale de synthèse de dprA prend la valeur 0 et, dans le mutant clpP-, les constantes de dégradation de ComX et ComW (comX et comW) sont respectivement fixées à 0.