• Aucun résultat trouvé

Critères de planification basés sur la divergence

Partie II : Méthodes de stratégie expérimentale

II.3 Planification expérimentale optimale pour la discrimination de modèles

II.3.1 Critères de planification basés sur la divergence

Ces critères sont présentés ici par ordre chronologique, depuis le premier critère de Hunter et Reiner, jusqu’aux dernières versions modifiées, proposées indépendamment par Schwaab et al. (2008) et Donckels et al. (2009).

II.3.1.1 Critère de Hunter and Reiner (1965)

Figure 5 – Critère de Hunter and Reiner (1965). (a) Représentation de la réponse de deux modèles (courbes) estimés à partir d’une réponse expérimentale (points noirs). (b) Recherche de nouveaux points expérimentaux (points blanc) Ce premier critère développé fonctionne sur le principe illustré sur la Figure 5.

La Figure 5a montre des points expérimentaux et la réponse de deux modèles, m1 et m2, en compétition dont les paramètres ont été estimés et la réponse ajoutée au graphique. On observe bien sur ce graphe que les valeurs expérimentales existantes ne permettent pas de discriminer les modèles. De plus, il apparait clairement que le meilleur moyen de déterminer le bon modèle est d’avoir de nouveaux points expérimentaux là où la différence de réponse entre les deux modèles est la plus important : les temps courts et les temps long dans cette exemple. Cela est illustré dans la Figure 5b où les nouveaux points expérimentaux (en blanc) aux temps longs invalident clairement le modèle m2.

( ) ∑ ( ( , ) ( , )) ( ( , ) ( , ))

(64)

Où désigne les estimés des paramètres du modèle i, un protocole expérimental. Chaque valeur de la réponse du modèle m1, pour des conditions expérimentales données et un temps de prélèvement donné, est comparée à son équivalent du modèle m2.

Le terme reste ici général : il peut s’agir des concentrations initiales en réactifs, de température d’entrée/initiale, de la température du fluide caloporteur assurant la chauffe du système, du choix des temps de prise d’échantillons, etc.

II.3.1.2 Critère modifié de Hunter and Reiner (1965)

Le principe du critère modifié de Hunter and Reiner (1965) est illustré par la Figure 6.

Figure 6 – Critère modifié de Hunter and Reiner (1965) : représentation de la réponse de deux modèles (courbes) estimés à partir d’une réponse expérimentale (points noirs). Recherche de nouveaux points expérimentaux (points blanc)

La Figure 6a montre de nouveaux points expérimentaux dont la précision de mesure est très faible (points très dispersés). Ceci illustre le fait qu’il ne suffit pas que les modèles aient une réponse très différente pour être discernés ; il faut aussi s’assurer que les nouvelles mesures expérimentales soient suffisamment précises pour permettre la discrimination. Ainsi de nouvelles mesures telles que celles indiquées sur la Figure 6b (points blancs) permettent de conclure sur le choix du modèle, contrairement aux mesures du graphe 6a.

Le critère modifié de Hunter et Reiner (JHRm) prend en compte la précision sur les mesures en

( ) ∑ ( ( , ) ( , )) ( ( , ) ( , ))

(65)

II.3.1.3 Critère de Atkinson and Fedorov (1975)

Le critère d’Atkinson et Fedorov se base sur l’hypothèse qu’un modèle, sur les deux modèles en compétition, est le vrai modèle. De là, le modèle « vrai » est utilisé pour simuler la prochaine expérience, et les paramètres du second modèle sont ré-estimés à partir des données simulées, en utilisant un critère des moindres carrés. Cette prochaine expérience devra conduire à un résidu le plus élevé possible pour discriminer le modèle. Le problème établi pour trouver l’expérience optimale est donc une optimisation « minmax » du critère des moindres carrés, puisque le critère à maximiser en fonction des variables expérimentales, défini dans l’équation (66), est un minimum en fonction des paramètres du modèle supposé faux. Le formalisme des conditions expérimentales optimales illustre bien le caractère minmax du processus.

. ∑ ( ( , ) ( , )) ( ( , ) ( , ))

/ (66)

( * (67)

Le principe de ce critère est donc de trouver les expériences prouvant que le second modèle est faux. Considérer a priori qu’un modèle est vrai, et l’autre faux, est le principal défaut de cette méthode. Pour pallier ce défaut, les auteurs proposent une approche à deux scenarii: un dans lequel le premier modèle est le vrai, un second dans lequel le second modèle est le vrai. Il y a donc deux critères et

pour chaque hypothèse. Le critère de plus petite valeur est alors sélectionné. Les relations (68) à (70) formalisent le critère. . ( ), ( )/ (68) ( ) . ∑ ( ( , ) ( , )) ( ( , ) ( , )) / (69) ( ) . ∑ ( ( , ) ( , )) ( ( , ) ( , )) / (70)

II.3.1.4 Critère de Buzzi-Ferraris and Forzati (1983)

Le principe du critère de Buzzi-Ferraris and Forzati (1983) est illustré par la Figure 7.

Figure 7 – Critère de Buzzi-Ferraris and Forzati (1983) : représentation de la réponse de deux modèles (courbes pleines) estimés à partir d’une réponse expérimentale. Ajout des incertitudes sur la réponse des modèles (courbes discontinues) Le critère de Buzzi-Ferraris and Forzati (1983) prend en compte un paramètre supplémentaire. En effet, il est certes important de considérer l’incertitude sur les mesures, mais les paramètres des modèles sont estimés avec une certaine incertitude, incertitude qui se transmet dans la réponse calculée par le modèle. Le terme d’incertitude sur la prédiction des modèles est généralement quantifiée par une matrice notée  et calculée à partir de la relation (73). Si des points expérimentaux sont fournis dans une région où l’incertitude sur les modèles est grande (comme dans la deuxième moitié du graphe de la Figure 7), le manque de précision ne permet pas de conclure sur la validité des modèles. Ou pire, si l’incertitude n’est pas quantifiée, un mauvais modèle peut être sélectionné car il semblera correspondre aux données expérimentales.

Le critère de Buzzi-Ferraris est défini par l’équation (71) et nécessite le calcul de la matrice d’incertitude sur la différence de prédiction entre les modèles m1 et m2, notée (72), de la matrice d’incertitude de prédiction de chaque modèle, notée (73) et de la matrice d’information de Fisher, MF, de chaque modèle (74).

( ) ∑( ) ( ) (71) (72) ∑ ( | * ( | * (73) ∑ ( | * ( | * (74)

II.3.1.5 Critère d’anticipation (2008, 2009)

Les critères dits « d’anticipation » ont été développées par Buzzi-Ferraris and Forzati (1990) puis repris par Schwaab et al. (2008b) et Donckels et al. (2009). En fait, il s’agit du critère de Buzzi-Ferraris, décrit précédemment, auquel est ajoutée à la procédure de planification une étape supplémentaire d’ « estimation» des résultats que va fournir la future expérience. Concrètement, le critère classique utilise la matrice de variance-covariance qui nécessite le calcul de la matrice d’information de Fisher MF(n) (voir les équations (71) à (74)), matrice dépendant du modèle et des estimés des paramètres après les n expériences déjà effectuées. Dans le cas du critère anticipé, un nouveau terme MF(n+1), associé à la future expérience (n+1) est ajouté suivant la relation (75) :

( ) ( ) (75)

Pour calculer le nouveau terme, une prévision des résultats de la nouvelle expérience (n+1) est faite, en utilisant le modèle et les estimés des paramètres après les n expériences précédentes et en simulant les futures réponses expérimentales avec le modèle. Ensuite cette prévision de l’expérience n+1ème est utilisée pour re-estimer les paramètres et calculer la matrice de Fisher associée MF(n+1).

En conclusion le critère anticipé prend en considération les effets de la nouvelle expérience planifiée sur la future précision de prédiction du modèle. Ainsi l’optimiseur ne recherche pas une zone du domaine expérimental où la précision de la prédiction est la meilleure, avec ce dont on dispose comme données, mais une zone où la précision de la prédiction sera la meilleure, avec les nouvelles données potentielles (Figure 8). C’est pour cela que le terme « anticipé » est utilisé.

Figure 8 – Critère anticipé. (a) Représentation de la réponse de deux modèles (courbes pleines) estimés à partir d’une réponse expérimentale. Ajout des incertitudes sur la réponse des modèles (courbes discontinues). (b) Le 2nd graphe

représente la réduction des incertitudes après la phase d’anticipation.

La plus-value de ce critère est que les nouvelles expériences qu’il permet de déterminer vont dans le sens de la discrimination entre modèles mais aussi dans le sens de l’amélioration de la

précision sur les paramètres. Ainsi ce critère tente de concilier les deux types de planifications expérimentales développées actuellement.