• Aucun résultat trouvé

Méthodes d’évaluation de la précision de l’estimation des paramètres

Partie I : Notions fondamentales de modélisation

I.3 Optimisation des paramètres d’un modèle

I.3.3 Méthodes d’évaluation de la précision de l’estimation des paramètres

Une fois les paramètres du modèle estimés, grâce à l’utilisation d’un critère et d’un algorithme d’optimisation. La procédure n’en est pas pour autant terminée. Il est à ce stade très important d’évaluer la confiance que l’on peut mettre dans la valeur estimée de ces paramètres. En effet, un certain nombre d’éléments limitent la précision d’estimation.

 La modélisation est un processus stochastique ; la part aléatoire, due entre autre aux erreurs expérimentales, a des répercussions directes sur l’estimation des paramètres, qu’il faut évaluer.

 L’ajustement d’un modèle aux réponses continues est effectuée à partir d’un nombre fini, et souvent réduit, de données expérimentales.

 Le nombre de variables expérimentales mesurables est souvent réduit, certains paramètres du modèle, associés aux variables non mesurées, seront donc évalués avec moins de précision.

Par la suite, les différentes méthodes permettant une évaluation quantitative de la qualité de l’estimation paramétrique vont être présentées.

I.3.3.1 Région et intervalle d’indifférence

La région d’indifférence est définie comme le lieu des paramètres tel que le critère d’estimation évalué en soit presque identique à la valeur du critère en , à un seuil près. Cela se définit mathématiquement par l’équation (47).

* | ( ) ( )| + (47)

Où ( ) désigne le critère d’estimation évalué en et l’estimé de (la valeur optimisant ).

Plus concrètement, cela représente la région des paramètres dans laquelle le critère reste inchangé. Cela signifie que l’ajustement du modèle sur les données expérimentales reste sensiblement le même dans ce domaine. Il s’agit donc d’un indicateur de la sensibilité du modèle par rapport à ses paramètres.

Ensuite, l’intervalle d’indifférence sur chaque paramètre individuel du vecteur de paramètres , peut être défini par l’ensemble (48).

{ ( ( , ))

, } (48)

Où les ( , ) sont les termes diagonaux du Hessien du critère d’estimation des paramètres, évalué en .

Il nécessite l’évaluation, en , du Hessien du critère d’estimation. Ce calcul est peu contraignant puisqu’un grand nombre d’algorithmes d’optimisation inclut le calcul numérique de ce dernier (A. T. V Elzhov et al., 2015).

I.3.3.2 Région et intervalles de confiance

La confiance sur l’estimation des paramètres est le plus souvent représentée par une région autour de dans laquelle à une certaine probabilité de se trouver. est appelé le niveau de confiance et est généralement arbitrairement fixé à 95% ou 99%, en fonction du niveau de précision recherché. Les régions de confiance ellipsoïdales sont les plus courantes et les plus faciles à représenter (Issanchou et al., 2005). Pour construire ces ellipsoïdes, le modèle est linéarisé autour des estimés , la région de confiance est alors définie à partir de cette approximation par la relation (49).

{ ( ) ( ) } (49)

Où la valeur est une constante dépendant de la loi de distribution des erreurs de mesure, souvent considérée normale centrée.

Quant aux intervalles de confiance, il s’agit de la projection des régions de confiance sur chaque paramètre individuel du vecteur de paramètres . Ils permettent d’exprimer de manière plus explicite un intervalle autour de chaque dans lequel se situerait chaque . Dès lors que l’on

suppose que les lois de distribution de , et des erreurs de mesure sont normales et centrées, les intervalles de confiance peuvent alors être exprimés par la relation (50).

, ( )√ ( , ) , - (50) Où les ( , ) sont les termes de la matrice de variance-covariance des paramètres. ( ) désigne un élément de la loi de distribution de Student, de confiance et de degrés de liberté égal au nombre de mesure soustrait du nombre de paramètres. Pour , , ( ) .

Il reste maintenant à calculer la matrice de variance-covariance. Cette dernière n’est pas aisée à calculer sauf moyennant un certain nombre d’approximations. Il existe divers familles de méthodes pour estimer une valeur de la matrice de variance-covariance. Deux familles sont considérées ici : les méthodes de « Monte-Carlo » et une méthode dite statistique.

a. Les méthodes de Monte-Carlo

Le principe de ces méthodes est de déterminer une population d’estimés puis d’en déduire les caractéristiques statistiques (moyenne, covariance, etc.), et ce à partir de la création répétée de données expérimentales fictives. L’enchainement des étapes est le suivant :

 est estimé à partir des expériences réelles.

 A partir de cet estimé, les expériences sont répétées par une génération fictive des données expérimentales.

 Un bruit de mesure est ajouté à ces données fictives. Cette erreur expérimentale doit être la plus représentative possible des erreurs de mesure réelles.

 Ces données fictives sont utilisées pour estimer une seconde fois la valeur des paramètres .

 Ce processus est répété un très grand nombre de fois pour avoir une population de .  La variance de cette population est calculée.

Cette méthode nécessite de mettre en place un très nombre grand de calculs et de simulations et de disposer d’une distribution connue et précise du bruit de mesure. Des dérivés de la méthode de Monte-Carlo existent aussi. Les plus répandues sont les méthodes du Bootstrap et du Jackknife (DiCiccio and Romano, 1988; Efron, 1982, 1981), mais elle ne seront pas détaillées ici.

b. Les méthodes d’estimation statistique

I.3.1), elle est liée à la matrice de variance-covariance des paramètres qui traduit directement la répartition des estimés autour des vraies valeurs des paramètres. Un estimateur non biaisé (tel que ceux de Gauss-Markov ou du maximum de vraisemblance) vérifie l’inégalité de Cramer-Rao (relation (33)) qui postule que la matrice d’information de Fisher est la borne inférieure de la matrice de variance-covariance. Lorsque l’estimateur est dit efficace (voir section I.3.1), la borne est même atteinte, ce que fait asymptotiquement l’estimateur du maximum de vraisemblance.

La matrice d’information de Fisher est donc une estimation approchée de la matrice de variance- covariance, moyennant les hypothèses suivantes :

( ) est assimilée à ( ), signifiant que c’est la valeur estimée des paramètres * qui est utilisée plutôt que leur vraie valeur V.

 Le bruit de mesure (i.e. la distribution des erreurs expérimentales) suit une loi normale. L’équation (51) est généralement utilisée même si cette hypothèse est fausse (distribution homogène de l’erreur par exemple)

 On considèrera que ( ). Cette égalité n’est qu’asymptotiquement vraie, puisque MF-1 n’est en réalité que la borne inférieure de (elle ne peut être exacte avec un nombre fini de mesures).

L’équation (51) permet finalement de calculer la matrice d’information de Fisher. La notation désignant l’ensemble des conditions expérimentales d’une expérience (concentrations initiale, température, temps de prélèvement par exemple) sera très utilisée par la suite.

( , ) ∑ ∑ ( ( , , ) | * ( ( , , ) | * (51)

Où est la matrice de variance des erreurs de mesure, le nombre d’expériences et le nombre de points de mesure d’une expérience

c. Approximation par le Hessien du critère d’estimation

Pour le cas particulier d’un estimateur du maximum de vraisemblance et d’une distribution normale, la matrice de variance-covariance peut être approximée par l’inverse du Hessien du critère en . Encore une fois, le calcul numérique du Hessien par certains algorithmes d’optimisation en facilite l’obtention.