τ de 1 ∗104. Les mesures de l’apprentissage sont indiqu´ees dans les figures 3.16 et 3.17.
L’apprentissage est correcte pour cette base.
RMSE R2
0.062 0.798
Table 3.16: ´Evaluation de l’estimation du plateau lors d’une validation crois´ee `a partir du
mod`ele g´en´er´e par le set de 80 cas.
RMSE R2
0.009 1
Table 3.17: ´Evaluation de l’estimation du plateau lors d’une autopr´ediction `a partir du
mod`ele g´en´er´e par le set de 80 cas.
Figure 3.14: Autopr´ediction du plateau `a partir du mod`ele g´en´er´e par le set de 80
configu-rations. En abscisse : valeur de plateau normalis´ee mesur´ee, en ordonn´ee : valeur de plateau
normalis´ee pr´edite.
Base de 32 configurations
Le mod`ele final est compos´e de cinq neurones en couche cach´ee et poss`ede une valeur deτ de
0.1. Les mesures de l’apprentissage sont indiqu´ees dans les figures3.18et3.19. L’apprentissage
est correcte pour cette base.
RMSE R2
0.237 0.661
Table 3.18: ´Evaluation de l’estimation du plateau lors d’une validation crois´ee `a partir du
mod`ele g´en´er´e par le set de 32 cas.
RMSE R2
0.15 0.8
Table 3.19: ´Evaluation de l’estimation du plateau lors d’une autopr´ediction `a partir du
mod`ele g´en´er´e par le set de 32 cas.
Figure 3.15: Autopr´ediction du plateau `a partir du mod`ele g´en´er´e par le set de 32
configu-rations.En abscisse : valeur de plateau normalis´ee mesur´ee, en ordonn´ee : valeur de plateau
normalis´ee pr´edite.
Base de 12 configurations
Cinq neurones en couche cach´ee sont affect´es au mod`ele final. Le taux d’apprentissage,τ, a
´
et´e fix´eτ a 1∗104. Les mesures de l’apprentissage sont indiqu´ees dans les figures 3.18et3.19.
L’apprentissage est correcte pour cette base.
RMSE R2
0.135 1
Table 3.20: ´Evaluation de l’estimation du plateau lors d’une validation crois´ee `a partir du
mod`ele g´en´er´e par le set de 12 cas.
RMSE R2
0.001 1
Table 3.21: ´Evaluation de l’estimation du plateau lors d’une autopr´ediction `a partir du
mod`ele g´en´er´e par le set de 12 cas.
Figure 3.16: Autopr´ediction du plateau `a partir du mod`ele g´en´er´e par le set de 12
configu-rations.En abscisse : valeur de plateau normalis´ee mesur´ee, en ordonn´ee : valeur de plateau
normalis´ee pr´edite.
Validation
Base de 80 configurations
RMSE R2
0.602 0.724
Table3.22: ´Evaluation de l’estimation du plateau lors de la phase de validation `a partir du
mod`ele g´en´er´e par le set de 80 cas.
Figure3.17: Validation du mod`ele g´en´er´e par la base de 80 configurations pour la pr´ediction
du plateau. En abscisse : valeur de plateau normalis´ee mesur´ee, en ordonn´ee : valeur de
plateau normalis´ee pr´edite.
Base de 32 configurations
RMSE R2
0.358 0.92
Table 3.23: ´Evaluation de l’estimation du plateau lors de la phase de validation `a partir du
mod`ele g´en´er´e par le set de 32 cas.
Figure3.18: Validation du mod`ele g´en´er´e par la base de 32 configurations pour la pr´ediction
du plateau. En abscisse : valeur de plateau normalis´ee mesur´ee, en ordonn´ee : valeur de
plateau normalis´ee pr´edite.
Base de 12 configurations
RMSE R2
0.353 0.86
Table3.24: ´Evaluation de l’estimation du plateau lors de la phase de validation `a partir du
mod`ele g´en´er´e par le set de 12 cas.
Figure3.19: Validation du mod`ele g´en´er´e par la base de 12 configurations pour la pr´ediction
du plateau. En abscisse : valeur de plateau normalis´ee mesur´ee, en ordonn´ee : valeur de
plateau normalis´ee pr´edite.
Les pr´edictions du plateau restent correcte selon les valeurs de RMSE et R2. N´eanmoins
comme pour la base de 65536 configurations, les valeurs RMSE et R2 sont moins int´eressantes
que celle des pr´edictions de la pente. La dispersion des points sur les scatterplots est aussi
plus importante que ceux ´etablis pour pr´edire pr´edire la pente `a t=0. Le mod`ele demeure
plus difficile `a identifier pour le plateau.
Dans l’ensemble, ces r´eseaux de neurones utilisant les bases minimalistes, faciles `a construire,
sont assez robustes pour la pr´ediction du mod`ele d’apr`es les crit`eres de mesures. Mˆeme avec
la base de 12 configurations, bien que qu’ayant peu de donn´ees, nous obtenons un mod`ele
pr´edictif correcte selon le RMSE et le R2. L’utilisation des concentrations des 3 enzymes
limitantes et des substrats de d´epart comme entr´ees du syst`eme semble correcte pour bˆatir
une base d’apprentissage.
Cependant, il faut nuancer les r´esultats obtenus. Lors de l’identification des mod`ele `a partir
de la base d’apprentissage, le r´eseau de neurones a rencontr´e des configurations de syst`eme
donnant des valeurs d’hydrog`ene dont le maximum mesur´e et le minimum mesur´e sont 1 et
-1 apr`es une normalisation. Le maximum mesur´e et le minimum mesur´e d’hydrog`ene produit,
rencontr´es dans la base de validation sont diff´erents et sont respectivement proche de 2 et
de -1,5 apr`es normalisation. Ainsi, les mod`eles doivent pr´edire des sorties de configurations
qui sont en dehors de la zone couverte par la base d’apprentissage. Alors, la pr´ecision des
pr´edictions en dehors des zones couvertes par la base d’apprentissage d´epend de la capacit´e
de g´en´eralisation du mod`ele.
En observant les figures 3.11,3.12,3.13, nous avons constat´e que la base de 80
configura-tions est meilleure pour pr´edire en dehors de sa zone d’apprentissage au niveau de la borne
sup´erieur, par rapport aux deux autres de taille inf´erieure. Il faudra ˆetre prudent lors de
pr´edictions s’´eloignant des bornes de la zone d’apprentissage. N´eanmoins dans leur zone
d’apprentissage les mod`eles sont relativement pr´ecis.
Dans le document
Modélisation de système synthétique pour la production de biohydrogène
(Page 109-116)