• Aucun résultat trouvé

Calcul des régions de confiance

4 Approche fonctionnelle

4.2 Estimation des paramètres cinétiques

4.2.3 Calcul des régions de confiance

Les prédictions de l’approche 3 sont proches de celles obtenues par l’approche 1, puisqu’on obtient un IMSE de 0.1007 pourHC et de 0.0156 pourCO, proches de ceux obtenus par l’approche 1 (respectivement de 0.0958 et 0.0111).

Ces faibles valeurs sont représentatives des bonnes prédictions obtenues. En revanche, les valeurs des paramètres cinétiques que nous avons estimés dans l’approche 3, ont un sens du point de vue expérimentateur. En cela, cette méthode est très pertinente pour notre cas puisqu’elle allie performance de prédiction et validité des valeurs estimées.

Nous avons développé un outil qui est performant en terme de prédiction et censé d’un point de vue expéri-mentateur. Nous sommes donc maintenant à même de prédire pour n’importe quel nouvel essai, la sortie des polluants. La prise en compte du modèle cinétique apporte une légitimité des résultats, et la méthode d’estima-tion des paramètres cinétiques par KRR en foncd’estima-tion de [HC]0 et [CO]0 contraint leur valeur dans un domaine raisonnable.

4.2.3.1 Bootstrap fonctionnel

Le but de cette partie est d’introduire la méthode de bootstrap fonctionnel développée afin d’estimer la loi des paramètres de la modélisation par KRR mise en place. Cette méthode s’apparente à un bootstrap des résidus mais dans un cadre fonctionnel avec un modèle non-linéaire. Afin de mieux comprendre la méthode mise en place, nous présentons dans un premier temps une introduction générale du bootstrap avant de présenter en détail dans le cas d’un modèle de régression la procédure de bootstrap des résidus. Enfin, nous terminons par la présentation de l’application de la méthode dans notre cas pratique.

Principe du bootstrap

L’article de Efron, [43] présente la méthode dans le cas de variables aléatoires identiquement distribuées (i.i.d).

D’importants travaux ont par la suite vu le jour de sorte qu’aujourd’hui les applications comme les ouvrages sur le bootstrap sont nombreux, nous pouvons citer entre autres ceux de Efron et Tibshirani [44], Shao et Tu [143]

ou encore Davison et Hinkley [39].

Depuis, la méthode a été étendue aux cas des variables non i.i.d. dans divers contextes comme dans les modèles ARMA (Hardleet al[77]), le block bootstrap (Lahiri, [93]) ou encore le bootstrap autorégressif non-paramétrique (Franke et al [65]). Dans le cadre fonctionnel, cette approche peut se justifier grâce aux résultats de Bickel et Freedman [13] et Freedman [66].

Le principe de la méthode du bootstrap est de générer une série d’échantillons aléatoires et simples avec remise denobservations dans l’échantillon initial. Ces échantillons successifs seront notés :

x1,x2,· · ·,xB, (4.37) oùB est le nombre de rééchantillonages effectués.

On considère ˆθ un estimateur d’un paramètre θ0 de la distribution de l’échantillon par exemple la moyenne, la médiane ou la variance. On s’intéresse alors à la distribution de ˆθθ0. Pour cela, on calcule pour chaque échantillon généréxi, l’estimateur ˆθi de la même manière que l’on a estimé ˆθ. Au final, on s’attend à ce que la distribution de ˆθiθˆapproche la distribution de ˆθθ0.

Les deux cas les plus classiques reposent sur la connaissance d’appartenance ou non de la distribution à une famille de lois paramétriques. Si par exemple, on sait que la loi de l’échantillon initiale suit une loi paramétrique, on parle alors de bootstrap paramétrique, sinon on parle de bootstrap non-paramétrique ou empirique.

D’autres choix existent, l’article de Horowitz [87] en donne quelques exemples. Il est à noter que si le bootstrap paramétrique fournit une meilleure approximation que le bootstrap empirique lorsque l’on est assuré que la loi de l’échantillon appartient à une famille paramétrique, ce n’est plus le cas si l’on n’a aucune connaissance a priori sur cette loi (auquel cas l’hypothèse d’appartenance à une famille paramétrique peut donner de mauvais résultats si l’on choisit cette famille éloignée de la loi de l’échantillon).

La méthode dans le cas non paramétrique peut se résumer de la manière suivante :

1. On génère un échantillonx= (x1,· · ·, xn), en tirant aléatoirement avec remise dans l’échantillon initiale x= (x1,· · ·, xn)

2. On calcule ˆθ à partir dex

3. On répète cette opérationB fois, avecB grand, afin d’obtenir un échantillon

θˆ1,· · · ˆB

de l’estimateur bootstrap

Bootstrap des résidus

La technique de rééchantillonnage présentée ci-dessus est la plus simple et la plus courante. Des méthodes un peu différentes sont utilisées pour des applications particulières. Ainsi, dans les problèmes de régression lorsque les valeurs des variables explicatives sont fixées a priori par l’utilisateur, le rééchantillonnage d’individus peut difficilement se justifier. Dans une telle situation, on peut remplacer le bootstrap des individus par le bootstrap des résidus.

Soit y le vecteur de la variable à expliquer et X la matrice des variables explicatives. Soit ˆθ le vecteur des coefficients estimés par une méthode donnée d’ajustement. On peut calculer le vecteur des valeurs estimées de la variable à expliquer et en déduire le vecteur des résidus :

e=yy.ˆ (4.38)

Dans le cas du modèle linéaire, on a :

yˆ =Xθ,ˆ (4.39)

mais, de manière plus générale,yi peut être une fonction quelconque des valeurs observées des variables expli-catives et des paramètres estimés :

ˆ y=f

X,θˆ

. (4.40)

Soitekun échantillon aléatoire prélevé avec remise dans le vecteure. En additionnant,ekà la partie déterministe du modèlef

X,θˆ

, on obtient le vecteuryk : yk =f

X,θˆ

+ek. (4.41)

Ce vecteur est un rééchantillonnage à partir duquel on estime ˆθk, par la même méthode utilisée pour estimer ˆθ.

Comme précédemment, on réitère cette étape B fois.

La méthode de bootstrap des résidus peut donc se résumer de la manière suivante :

1. On génère un échantillon e = (e1,· · · , en), en tirant aléatoirement avec remise dans l’échantillon initiale e= (e1,· · ·, en)

2. On calculey=f X,θˆ

+e 3. On estime ˆθ à partir dey

4. On répète cette opérationsBfois, avecB grand, afin d’obtenir un échantillon

θˆ1,· · ·,θˆB

de l’estimateur bootstrap

Bootstrap fonctionnel

Dans notre cas d’étude, les observations sont des courbes. De plus, les valeurs des variables explicatives sont fixées a priori par l’utilisateur. Ainsi, nous avons dû développer une méthode de bootstrap des résidus applicable lorsque les sorties étudiées sont des courbes.

Soit y = (y1(T),· · · , yn(T)) la matrice des variables étudiées, où T est la variable fonctionnelle et yi(T) un vecteur de taillem, correspondant à l’expériencei. On pose le modèle :

yˆi(T) =f(xi, T,β(xˆ i)), i= 1,· · ·, n. (4.42) avec ˆβobtenu par KRR.

Le vecteur des résidusei(T) pour l’expérienceiest donc donné par ˆyi(T)−yi(T). Pour chaque expérience, on obtient donc une courbe de résidus.

Basée sur le bootstrap des résidus dans le cas de modèle de régression, notre méthode consiste à répéterB fois les étapes suivantes :

1. On génère un échantillon e = (e1(T),· · ·, en(T)), en tirant aléatoirement avec remise dans l’échantillon initialee= (e1(T),· · ·, en(T))

2. On calculeyi(T) =f

xi, T,β(xˆ i)

+ei(T) pour i= 1,· · ·, n 3. On estime ˆβ à partir dey= (y1(T),· · · , yn(T))

Au final, on obtient un échantillon

βˆ1,· · ·,βˆB

de l’estimateur bootstrap.

4.2.3.2 Estimation de la loi des paramètres de la modélisation par KRR

Nous avons n= 20 expériences à disposition. À partir de ces essais, la procédure d’optimisation nous permet d’estimer la matrice ˆb de la modélisation par KRR des paramètres cinétiques. Lors de cette estimation nous avons également déterminé le paramètre de lissage du KRR, λet le paramètre de portée du noyauh. Dans la suite,λet hsont fixes.

Il est également à noter que dans notre cas, nous avons deux sorties pour chaque expérience, la sortieCOetHC en fonction de la températureT. Ainsi, dans la procédure de bootstrap fonctionnel que nous voulons tester, deux choix s’offrent à nous quant à la génération à chaque étape des nouveaux yi(T), pour i = 1,· · ·, n. Soit nous déterminons aléatoirement et indépendamment le vecteur des résidus pour chaque sortie et chaque expérience, soit nous fonctionnons avec des paires de courbes de résidus lors du tirage aléatoire avec remise. C’est cette option qui a été choisie, puisque les résidus des deux sorties pour une expérience donnée sont corrélés.

100 150 200 250 300 350 400

−0.1

−0.05 0 0.05 0.1 0.15

Température (°C) eCO

Résidus CO

(a) RésidusCO

100 150 200 250 300 350 400

−0.25

−0.2

−0.15

−0.1

−0.05 0 0.05 0.1 0.15 0.2 0.25

Température (°C) eHC

Résidus HC

(b) RésidusHC

Figure 4.26 – Résidus entre résultats expérimentaux et prédits

Les figures 4.26 exposent les résidus pourCO et HC que nous avons obtenus suite à la méthode d’estimation avec utilisation de la KRR. Ce sont ces résidus dans lesquels nous tirons aléatoirement pour générer à chaque étapeyi(T).

Nous avons réaliséB= 1000 boucles de bootstrap. À chaque étape, nous avons donc une base de calibration de n= 20 expériences obtenues en rééchantillonnant les résidus par paires (CO etHC) aléatoirement avec remise.

La démarche se résume de la façon suivante :

1. On estime la matrice ˆb de la modélisation par KRR et des hyperparamètres associés à partir desn= 20 essais à disposition

2. On calcule les paramètres cinétiques optimaux ˆβi pouri= 1,· · ·, n

3. On calcule les paires de courbes de résidusei(T) (sortiesCOetHC) entre modèles numériques et résultats expérimentaux, pour chaque essai avec les paramètres cinétiques optimaux estimés.

4. On réaliseB boucles de bootstrap fonctionnel des résidus de la manière suivante

(a) On génère un échantillone = (e1(T),· · ·, en(T)), en tirant aléatoirement avec remise dans l’échan-tillon initialee= (e1(T),· · ·, en(T))

(b) On calculeyi(T) =f

xi, T,β(xˆ i)

+ei(T) pouri= 1,· · · , n

(c) On estime la matrice ˆb par notre procédure d’optimisation à partir dey= (y1(T),· · · , yn(T)) (d) On construit ˆβ par KRR avec ˆb

4.2.3.3 Calcul de la région de confiance

Afin d’illustrer le calcul de la région de confiance, nous avons généré 1000 jeux de paramètres cinétiques, à partir de 100 générations de ˆb, pour un de nos essais à disposition. Les 1000 prédictions ainsi obtenues, délimitent la région de confiance.

La figure 4.27 expose les résultats pour les deux sortiesHCetCO. Les courbes rouges correspondent aux résultats expérimentaux lissés (choix pour une meilleure visibilité), les courbes vertes représentent les prédictions obtenues à l’aide de notre méthode d’estimation et les courbes pointillées délimitent la région de confiance à 95%.

50 100 150 200 250 300 350 400

0 200 400 600 800 1000 1200

CO n°essai4

T(°C)

(a) Région de confiance pourCO

50 100 150 200 250 300 350 400

0 100 200 300 400 500 600 700 800 900 1000

HC n°essai4

T(°C)

(b) Région de confiance pourHC

Figure 4.27 – Région de confiance de la prédiction relative à l’essai 14

On voit donc sur cet exemple que la région de confiance, qui est centrée sur la prédiction, est relativement resserrée. On constate que pour la sortieCO, le résultat expérimental est compris dans cette région, ce qui est très intéressant. En revanche, pour leHC, cette observation n’est pas totalement vérifiée.

Nous avons donc pu voir que l’approche mise en place dans son ensemble, c’est-à-dire la modélisation par kernel ridge regression des paramètres cinétiques et le calcul des régions de confiance à l’aide du bootstrap fonctionnel est une approche pertinente pour la modélisation du phénomène physique étudiée. Les résultats de prédiction sont proches des résultats expérimentaux comme nous avons pu le constater sur les essais à disposition.

Il est important de signaler, que la procédure de calcul de la région de confiance mise en place, fournit de très bons résultats et permet donc d’avoir un critère de qualité et de robustesse des prédictions. Du point de vue des expérimentateurs, ces résultats sont relativement pertinents, et laissent entrevoir des possibilités d’application sur d’autres cas, du fait du caractère général de la méthode.