R EVUE DE STATISTIQUE APPLIQUÉE
G. C IUPERCA
Influence de la matrice des covariances dans des modèles décrits par un système d’équations différentielles
Revue de statistique appliquée, tome 46, n
o2 (1998), p. 59-81
<http://www.numdam.org/item?id=RSA_1998__46_2_59_0>
© Société française de statistique, 1998, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les condi- tions générales d’utilisation (http://www.numdam.org/conditions). Toute uti- lisation commerciale ou impression systématique est constitutive d’une in- fraction pénale. Toute copie ou impression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
INFLUENCE DE LA MATRICE DES COVARIANCES
DANS DES MODÈLES DÉCRITS PAR UN SYSTÈME
D’ÉQUATIONS DIFFÉRENTIELLES
G.
Ciuperca
Laboratoire de Modélisation
Stochastique
etStatistique
Bât. 425, Univ. Paris XI
Orsay,
91405Orsay
Cedex, FranceRÉSUMÉ
Dans ce travail on
présente
quatre types d’estimateurs pour la matrice de covariances d’un modèlestatistique paramétrique
non linéaire. La formeanalytique
de la fonction nonlinéaire n’est pas connue. On calcule des estimateurs des
paramètres
dans chacun des cas et onpropose des tests pour les
paramètres
et pour la matrice de covariances.L’application
étudie le métabolisme duglucose
chez la chèvre.Mots-clés : modèle
paramétrique
non linéaire, estimateurs de la matrice de covariances, testsur
paramètres,
test sur covariances.ABSTRACT
In this paper we present four types of estimators for the covariance matrix of a non linear
parametrical
statistical model. Theanalytical
form of the non linear fonction is unknown. We compute some parameters estimators in any of the cases and we propose some tests for the parameters and for the covariance matrix.The
application
is made on theexample
ofglucose
metabolism for the goats.Keywords :
non linearparametrical
model, estimatorsof
the covariance matrix, test on parameters, test on covariance.1. Introduction
Il est
important
de modéliser le métabolisme duglucose
parce que ce processusphysiologique
consiste en un ensemble de transformations des substances de l’or-ganisme
animal maintenant descaractéristiques plasmatiques
constantes. Parmi cessubstances,
il y a : leglucose, l’insuline,
leglucagon,
les acides gras et le0-OH- butyrate.
Leglucose
estproduit
dansl’organisme
par trois voies : parsynthèse (sous
l’influence du
glucagon
et del’insuline),
par le foie et par le tubedigestif.
Il est utilisépour
l’oxydation qui
a lieu dansl’organisme animal,
pour l’entretien de la mamelle et pour l’entretien des tissuspériphériques
non mammaires.Pour modéliser le métabolisme du
glucose,
onpeut
utiliser les modèles àcompartiments, qui
sont décritsmathématiquement
par dessystèmes d’équations
différentielles non linéaires :
Les variables
X1,X2,...,Xm
sont des concentrations de différentes sub- stances(qui
interviennent dans cemétabolisme) qui
se trouvent dans le sang :glucose, insuline,
acides gras,/3-hydroxy-butyrate
etglucagon.
Lesystème
différentieldépend
des
paramètres
03B8. Pourpouvoir
résoudre lesystème
différentiel(1)
il est nécessairede connaître les valeurs de toutes les variables au
point
initialto.
Pour estimer lesparamètres 03B8
on mesure unepartie
des variablesXk.
Sans réduire lagénéralité,
on sup- pose que l’on mesure les npremières variables, n
m, auxpoints tj, j
=1,..., N,
mesures notées yij, i =
1,
..., n. Onpeut
considérer alors le modèlestatistique :
On suppose que les vecteurs
aléatoires 03B5(j)
=(03B51i,
03B52j, ... ,03B5nj)T
suivent uneloi Normale centrée et de matrice de variances-covariances
03A3j, j = 1, 2,...,
N.Dans ce
modèle, Xi (tj; 0)
est la solution dusystème d’équations
différentielles(1)
au
point tj
pour leparamètre
03B8. Cette solution est non linéaireen tj
et6,
et on nepeut
pas calculer sa formeanalytique.
On utilise alors une méthode de résolution dessystèmes d’équations différentielles,
comme celle deRunge-Kutta,
pour calculerune estimation de la solution du
système (1)
aupoint ta,
et pour une valeur 03B8 desparamètres (voir l’Annexe).
On mesure les variables
Xk, k
=1,...,
n, auxtemps
t1t2
...tN,
pour 24 chèvres. On fait uneinjection
deglucose, pendant
uneminute,
à toutes leschèvres
(après
l’instantto,
avanttl).
On calcule la moyenne des concentrations deglucose, d’insuline,
d’acides gras et de0-hydroxy-butyrate
des 24 chèvres auxpoints tj, j
=1, 2, ... ,
N. On considèrequ’avec chaque
individu on obtient des mesuresrépétées
de ces concentrations moyennes.Dans cet article on étudie comment
l’hypothèse
de ladépendance
dutemps
de la matrice de covariancesEj
influence l’estimation desparamètres
etl’ajustement
desconcentrations. On donne
quatre types
d’estimateurs pour cette matrice : un estimateur du maximum de vraisemblance et trois estimateursempiriques.
Pour chacun de cesquatre
cas on calcule les estimations de 03B8. On compare lesquatre
estimations obtenuespour 03B8
etEj
en utilisant desstatistiques
de testappropriées, parmi lesquelles
lastatistique
de test de Wald pour E. La sensibilité des estimations desparamètres
estétudiée pour des
petites
variations des données.Avant toute
chose,
il a fallu résoudre leproblème
du nombre insuffisant d’observations parrapport
au nombre desparamètres
à estimer : la solution choisie aconsisté en
l’ajout
d’observations artificielles entre les vraiesobservations,
en utilisantune
interpolation
linéaire bruitée.Pour le métabolisme du
glucose,
modélisé par unsystème
différentiel dutype
(1),
Sauvant et Grizard([7])
ont considéré unsystème plus simple,
où lesparamètres
interviennent de
façon linéaire,
mais cesparamètres
n’ont pas été déterminés d’une manièreoptimale. Donc,
ils n’ont pas pu étudier l’influence de ladépendance
dutemps
de la matriceEj
sur lesparamètres
du modèle.2.
Support théorique
2.1. Notations et
hypothèses
un vecteur
ligne
de n colonnes,
0 compactl’espérance
de la variable aléatoire Vla
statistique
de Fischer à m et ndegrés
de libertéla
statistique ~2 à q degrés
de libertéPour N on définit les vecteurs colonne :
Pour Eij on définit les mêmes vecteurs colonne :
Notons les variables d’état
Xi, X2,..., Xm.
Elles satisfont ausystème d’équa-
tions différentielles :
où :
= fonctions non linéaires en 03B8 et en X.
+, deux fois continûment différentiable par
rapport
à 03B8L’ensemble Q
C
RP est l’ensemble des B pourlesquels
il existe une solutionau
systéme d’équations (3).
On connaît les valeurs de n variables
(n m)
auxpoints (temps) t1, t2,
...,tN
et de toutes les m variables au
point
initialto.
2.2. Estimation des
paramètres
et de la matrice 03A3Etant donné un ensemble de valeurs yij, i =
1,..., n; j
=1,..., N
nous nousproposons d’estimer dans le sens des moindres carrés la valeur 03B8* du
paramètre 03B8,
telle que :
Xi(tj;03B8*)
est la solution dusystème (3)
pour la variableXi
aupoint tj
deparamètre
0*. Le modèlestatistique (4)
est unerégression
multidimensionnelle non linéaireparamétrique,
pourlaquelle
on ne connaît pas la formeanalytique
de lafonction non linéaire
Xi (tj; 0),
mais pourlaquelle
onpeut
calculer une estimation enchaque point tj
et pour unparamètre 03B8
donné.La notation 03B8 est utilisée pour
indiquer
que le vecteurparamètre
est traité commeune
variable;
03B8* est la vraie valeur inconnue de 03B8.On suppose que les erreurs 03B5ij sont des variables aléatoires Normales :
, indépendantes
la matrice Ç2 étant la matrice
diagonale
par blocs des03A3j.
On va
distinguer
deux cas :-
Ej dépend
dutemps (E
fonction detj);
-
Ej
nedépend
pas dutemps .
2.2.1. Matrices03A3j indépendantes
du tempsOn pose alors :
Ej - E, j
=1, 2, ... ,
N.Supposons que E
soit un estimateur consistant de E etn = E
0IN.
L’estimateur des moindres carrés
généralisés MCG
est la valeur de 03B8qui
minimise la fonction :
où :
X(tj; 0)
est le vecteur de dimension n des seules variablesqu’on
mesure autemps tj j = 1, 2,...,N.
Pour trouver
numériquement
une estimation deMCG
on utilise la méthodede
Marquardt ([8]).
Achaque
pas de cetalgorithme,
il faut calculer une solution dusystème (3)
en utilisant une méthode de résolution dessystèmes d’équations
différentielles comme celle de
Runge-Kutta (voir l’Annexe).
Notations :
La matrice
Z(0)
a pour dimension(nN, p).
Théorème 1
([10]).
Sous conditions derégularité pour la fonction X(t; 0) (voir [10]),
page
582-584), MCG
etMCG
sont desestimateurs fortement
consistants de 0* etde
03A3, respectivement,
et :) approximativement,
pour Ngrand
avec
Les estimateurs :
étant des estimateurs consistants de V.
Choix
de Ê :
1)
Estimateurempirique
L’estimateurempirique 03A31
de E est obtenu en considérant les individus comme desrépétitions,
relatives aux vraies observations : pourchaque
terme de variance ou de covariance il faut cumuler les
(N +1)
sommes de carrés duesaux
répétitions
enchaque
instant et diviser cette somme totale(somme intra-classe)
par le nombre de
degrés
de libertécorrepondant : 1 = 1 N+ 1 · j, avec Êj
estimateur
empirique
usuel deEj = E
àl’instant j,
estimateur basé sur lesrépetitions
à
l’instant j.
Notation: 1 = 1
0IN
On
prendra
dans ce cas comme estimateur pour0*,
l’estimateur des moindres carrésgénéralisés,
avect1
comme estimateur de E.2)
Estimateur du maximum de vraisemblance Pour déterminer l’estimateur du maximum de vraisemblance pour 03B8* etE,
onpeut
utiliser unetechnique
itérative([6]
et
[3]).
On
part
avec unparamètre () (1)
et on calcule :On calcule :
Pour le
pas h
on trouve :Donc,
nous avons une chaîne dutype :
Ce processus itératif converge
indépendamment
du vecteur initial03B8(1)
~ 0398([6]).
Théorème
([3])
Sous les mêmes conditions deregularité du
Théorème1 pour X (t ; 03B8),
les valeurs :
sont des estimateurs du maximum de vraisemblance
pour 03A3
et 03B8* · est aussi unestimateur des moindres carrés
généralisés
pour 03B8.Test des
hypothèses
. Pour le
paramètre
03B8Pour tester une
hypothèse
de la forme :où g :
0~ Rq,
avec le Jacobien continu :on
peut
utiliser lastatistique
de test de Wald([3]) :
avec :
On
rejette l’hypothèse
H si W estplus grand
queF1-a(q,
nN -p), quantile
d’ordre 1 - a de la loi de Fisher-Snédécor à q et nN - p
degrés
de liberté. Le nombre entierpositif q représente
le nombre de contraintesimposées
auparamètre
B.Pour tester
l’ hypothèse
H onpeut
utiliser aussi lastatistique
de test durapport
de vraisemblance([4]).
Soit(, Ê)
l’estimateur du maximum de vraisemblance obtenusans contrainte et
(,)
l’ estimateur obtenu sousl’ hypothèse
H.Alors,
lastatistique
de test du rapport de vraisemblance est :
On
rejette l’hypothèse
H si L 1 estplus grande
que q ·F1-a(q,
nN -p).
e Pour la matrice de covariances E Notations :
o- un vecteur de
longueur n(n
2
+ 1)
composé
dutriangle supérieur
de 03A3 :et on écrit
que E
est fonction de upar : 03A3 (03C3).
Soit vece un
n2-vecteur
obtenu àpartir
des colonnes de E :Alors:
où
L 2 n(n + 1) est
une matrice formée de 0 et de 1.Sous la condition de normalité de 6’, pour tester
l’hypothèse :
avec g une
fonction g : Rn(n+1)/2
~Rq,
on utilise lastatistique
de test de Wald([3]) :
avec :
On
rejette l’hypothèse
Hquand
W estplus grand
queX2(q).
2.2.2. Matrices
03A3j dépendantes
du tempsOn
peut prendre
comme estimateur de la matriceL; j,l’ estimateur empirique.
Le modèle
statistique
est :avec6
Soit n la matrice de covariances pour le modèle :
L’estimateur des moindres carrés
Be,
est la valeur de 03B8 E 0qui
minimise la fonction :où,
la matrice 03A9 est,rappelons le,
la matricediagonale
par blocs desEj.
Laminimisation de
T(03B8)
se fait enremplaçant
lesEj
par leurs estimateursempiriques j.
Si on veut tester
l’hypothèse (13) :
où : g :
0398 ~Rq,
q p, onpeut utiliser,
parexemple
lastatistique
de test durapport
de vraisemblance.Pour le cas
Ej dépendantes
dutemps,
on n’est pascapable
de donner unestimateur du maximum de vraisemblance de
Ej.
3.
Application
au métabolisme duglucose
On considère 24 chèvres de même
poids (60 kg).
Pour chacune de ces chèvreson mesure au
temps
zéro les concentrations duglucose,
del’insuline,
duglucagon,
des acides gras et du
/3-hydroxy butyrate (noté BHB), qui
se trouvent dans lesang. Dans l’intervalle de
temps [10-2, 1
+10-2)
minutes oninjecte
à chacunedes 24 chèvres la même
quantité
deglucose (12 g).
Pour toutes leschèvres,
on amesuré les concentrations de
glucose, d’insuline,
d’acides gras et de BHB aux dixtemps
suivants :2, 6, 10, 14, 18, 22, 30, 46, 62,
88 minutes.On utilise un modèle à six
compartiments. (voir figure
pagesuivante)
Notations :
Xi -
la concentration duglucose
dans le sangX2 - la
concentration de l’insuline dans le sangX3 -
la concentration des acides gras dans le sangX4 -
la concentration du BHB dans le sangX5 - la
concentration duglucagon
du 1 ercompartiment
X6 - la
concentration duglucagon
du2ème compartiment
FIGURE 1
Schéma
simplifié de
larégulation
du métabolisme duglucose.
~ pour symboliser le flux de la matière j - ’ - > pour symboliser une régulation
Légende.
+ on a un phénomène d’activation
- on a un phénomène d’ inhibation
Le
système
différentiel est(les
coefficients ont étépris
de l’article[7]) :
où :
Les
paramètres
à estimer sont :Ces
paramètres représentent :
- soit des taux d’écoulement de la matière d’un
compartiment
vers un autre(k2)
ou vers l’extérieur(k01, k02, k03);
- soit des
paramètres
d’une relation dutype hyperbolique (h1, h2, h3, h4, k1, n1).
On va travailler sur les moyennes des concentrations pour les 24 chèvres.
Avec les notations
précédentes,
nous avons :Le nombre des observations est
petit
parrapport
au nombre desparamètres
àestimer. On introduit alors des
points
artificiels : entre deux mesures consécutives on considère troispoints
obtenus parinterpolation
linéaireplus
une variable aléatoire Normale([1]
et[2]).
Cette variable aléatoire Normale a commeespérance
zéro et2
comme variance
400’
où03C32i
est la variance de la variableXi,
sousl’hypothèse
queXi
a une varianceindépendante
dutemps.
On a considérél’écart-type
de la variable aléatoire fonction del’écart-type empirique
dechaque
variableXi
pourprendre
encompte
le facteur échelle mais divisé parvingt (un
nombre choisiarbitrairement,
nitrop grand,
pour tenircompte
du facteuréchelle,
nitrop petit,
pourqu’on
n’ait pas desgrands
écarts de la valeur obtenue parinterpolation).
On estimera alors leparamètre
03B8 en considérant connues
quarante
valeurs pour chacune desquatre
concentrations moyennes duglucose,
del’insuline,
des acides gras et du BHB.3.1. Matrice de covariances
indépendante
dutemps
Estimationempirique
obtenue sur les onze vraies mesures :pour
laquelle
l’estimation de 03B8 est donnée dans le Tableau 1.Estimation du maximum de vraisemblance
pour 03B8
et E(Tableau 1).
Dans la
procédure
itérativepermettant
de calculer E etqui
ne fait intervenir àchaque
instant que les concentrations moyennes des variables(cf. 2.2.1 ),
on calculeces concentrations pour les
points
intermédiaires parinterpolation
des concentrations moyennes obtenues auxpoints
de vraie mesure. On obtient :Puisque 1
etÊ2
sont deux estimations de la matrice E on se pose laquestion
de savoir si elles ne sont pas
égales,
et dans ce cas s’il n’était pas inutile d’utiliser tout leprocédé
itératif(6)-(7) qui,
dupoint
de vuenumérique, prend plus
detemps
et est
plus
difficile à réaliser. On testel’hypothèse :
TABLEAU 1
Estimations/écart-types (ET)
de,
pour les estimations suivantes de 03A3:maximum de vraisemblance
2, empirique 1,
etdépendant
du tempsÊ 5j
(par interpolation).
Données enajoutant
despoints artificiels
sur les moyennes des concentrations.
Soit la fonction gl
Hl :
gl(03C3) =
0 contreHl :
g1(u) ~
0La valeur de la
statistique
de test deWald, qui
sousl’hypothèse Hl
suit une loi de~2(10),
est W = 2790764.3 etl’hypothèse Hl
estrejetée.
Les
écart-types
des estimations desparamètres
sontplus petits
pour l’estimation2
quepour 1.
Les erreurs d’estimation des concentrationsX2, X3, X4
ont unécart-type plus grand
pour1
que pourÊ2.
Par contre,Xl
est mieuxajustée quand
on considère
1 (voir
Tableau2).
Ces raisons nous incitent àprendre 2
commeestimation pour
03A3,
sousl’hypothèse d’indépendance
dutemps.
TABLEAU 2
Ecart-types (Et)
et moyennes des valeurs absolues deserreurs(ABS (ERR))
de
prédiction
pour les estimations suivantes de 03A3 :maximum
vraisemblance, empirique
etdépendant
du temps(par interpolation).
Données en
ajoutant
despoints artificiels
sur les moyennes des concentrations.
3.2. Matrice Q
dépendante
dutemps
Comme on a construit des observations artificielles pour les concentrations moyennes, pour calculer l’estimation
empirique
deEj
en cespoints,
ondispose
dedeux
possibilités :
- soit en chacune des trente observations
supplémentaires
on calcule àpartir
desvaleurs obtenues pour les 24 individus la matrice de covariances
empirique associée;
- soit :
- en
chaque point
de vraie mesure, on calcule l’estimationempirique Êj;
- aux
points intermédiaires,
on calcule l’estimation de S parinterpolation
linéaire entre deux
Êj
vraies([1]).
On utilise d’abord la
première procédure
et on construit dans unpremier temps
pourchaque
chèvre trentepoints supplémentaires.
On calcule la moyenne enchaque
instant
t j , j
=1,...,
40 des 24individus,
pourchaque
concentration. Dans ce cas, les moyennes des valeurs intermédiairespeuvent
être sensiblement différentes des valeurs obtenues parinterpolation
des concentrations moyennes auxpoints
vrais(cf.
calculs du
3.1).
C’est la raison pourlaquelle
on aégalement
refait l’estimation du modèle par la méthode du maximum de vraisemblance ensupposant E indépendante
du
temps.
Dans le Tableau3,
nous avons donné les estimations desparamètres
surces nouvelles données avec :
- E estimée par le
procédé
itératif(6)-(7),
notéeÊ3 (E indépendante
dutemps);
-
Ej dépendantes
dutemps, Êj
estimationsempiriques j == 1, 2, ... , 40,
notées4j.
TABLEAU 3
Estimations/écart-types (ET)
de,
estimateurempirique
de la matrice E
dépendant
du temps et du maximum de vraisemblance(Données
enajoutant
despoints artificiels
pourchaque individu).
L’hypothèse
que les estimations de 03B8 obtenues pour le modèle(13)
sontégales
aux estimations obtenues par le
procédé
itératif(6)-(7)
estrejetée.
Lesécart-types plus petits
des estimations desparamètres correspondant
à3
sont favorables pour cetype
d’ estimateur de 03A3. Enrevanche,
les erreurs deprédiction
ne favorisent aucunede ces deux
prédictions (Tableau 4).
TABLEAU 4
Ecart-types (Et)
et moyennes des valeurs absolues des erreurs(ABS (ERR))
de
prediction
pour les estimations suivantes de 03A3 :dépendant
du temps et du maximum de vraisemblance(Données
enajoutant
des donnéessupplémentaires
pourchaque individu)
On utilise ensuite la deuxième
procédure
pour estimerEj,
estimation notéeL;5j.
Dans le Tableau1,
on a les estimations et lesécart-types
desparamètres
obtenusen calculant les estimations de la matrice
03A3j
auxpoints
artificiels parinterpolation
des matrices de covariances
empiriques
auxpoints
vrais. Les courbesd’ajustement
sont
représentées
sur laFigure
2. Sur cesdonnées,
c’est l’estimateur du maximum de vraisemblancequi
est le meilleur dupoint
de vue des erreurs, face à l’estimateur de Edépendant
dutemps (voir
le Tableau2).
Dans la
Figure
2 on areprésenté
avec uneligne continue, marquée
avec untriangle,
l’estimation desquatre
concentrationscorrespondant
à2,
avec uneligne
continue
simple,
l’estimationcorrespondant à 1
et avec uneligne
enpointillés,
l’estimation
correspondant
à5j.
4. Discussion
Dans cet
article,
pour un modèledynamique qui
décrit le métabolisme duglucose,
on aétudié,
sur des donnéesréelles, quatre types
d’estimationspossibles
pour la matrice de covariances
03A3j.
Danschaque
cas, on a calculé les estimations desparamètres
et lesajustements
des concentrations : duglucose,
del’insuline,
des acides gras et du BHB.Globalement,
les estimations desparamètres
différent en fonctiondu
type
d’estimation pour la matriceEj.
Mais certainsparamètres
ont à peuprès
lamême
estimation, quelle
que soit l’estimation deEj :
le taux de transformation des acides gras en BHB et le taux d’élimination de BHB vers l’extérieur.Le meilleur
ajustement
desquatre
concentrations est obtenu sousl’ hypothèse
que
Ej
estindépendante
dutemps
en utilisant l’estimation du maximum de vraisem- blance.FIGURE 2
Sous
l’hypothèse
dedépendance
dutemps
deEj,
on nepeut prendre
que desestimations
empiriques
ou des combinaisons linéaires des estimationsempiriques,
cequi pourrait expliquer
les résultatsplus
mauvais :- soit il y a une
grande
variabilitéindividuelle,
- soit il y a
quelques
chèvresqui
ont uncomportement
très différent de la moyenne.Ces résultats ont été obtenus sur des données fournies par des
biologistes,
et àl’heure actuelle ce sont les seules données réelles dont l’on
dispose.
Onrépond
ainsià la demande du
biologiste qui
nousparait
satisfait des résultats. Si on veut faire uneétude
plus approfondie
dupoint
du vuestatistique
en cequi
concerne lagénéralité
deces résultats et de la stabilité des
paramètres,
il faudrait faire une étude de simulation.Le
plus probant
serait de faire 100 ou 1000 simulationsqui permettraient :
- de comparer les méthodes et de déterminer la meilleure du
point
de vue deserreurs
d’approximations;
- de comparer les
écart-types
des estimateurs desparamètres;
- de voir si 24 est un effectif suffisamment
grand
pour calculer l’estimateurempirique.
Mais faire ne serait-ce que 100
simulations,
sur lescinq
méthodes entraineraitun coût de calcul
trop grand,
surtout pour déterminer l’estimateur du maximum de vraisemblance pourlequel,
dansl’algorithme (6)-(7),
il faut s’assurer que l’on n’a pas trouvé un extrêmum local. Biensûr,
lestemps
d’exécution sont fonction de laproximité
de03B8(1) (la
valeur de 03B8 initiale danschaque algorithme)
avec la vraie valeur 0*. Pourchaque simulation,
il faut s’assurer que les données obtenues ont un sens réel cequi
demande l’assistance d’unbiologiste.
On a choisi une solution
plus simple
d’étudier au moinspartiellement
la stabilité des résultats. Dans ce but nous bruitons les données dont ondispose :
où :
les valeurs réelles mesurées
03C32iest
la variance de yi -(yi1,
Yi2, ... ,yiN),
supposée indépendante de j
Un début d’étude a été faite
quand
on a introduit des observations artificielles pourchaque
individu et calculé l’estimation du maximum de vraisemblance de 03B8 surla moyenne des données
(Tableau 3) :
ces estimationsappartiennent
aux intervalles de confiance des estimateurs du maximum de vraisemblance déterminés sur les concentrations moyennes avec les observations artificielles construites sur la moyenne(Tableau 1).
Les
estimations,
lesécart-types
desparamètres
et lesécart-types
des erreursd’ajustement par
lescinq
méthodes pour les valeurs k~ {5, 10, 15}
sont données dans les Tableaux 5-8. Seuls lesparamètres k1
et nul sontinstables,
dans le cadre dechaque type
d’estimateur deE,
sous l’effet depetites
variations de données. Cette instabilité vient du faitqu’il
y a une relation linéaireapprochée
entre ces deuxparamètres.
Pourl’estimateur
Ê2
cette relation est :En ce
qui
concerne les erreursd’ajustement, Xl
est de manièregénérale plus
malapproximée
pour2
que par toutes les autres méthodes. Les concentrationsX2, X3
sont mieux
ajustées
pour2
alors que pourX4
on a la mêmequalité d’ajustement
pour toutes les méthodes.
TABLEAU 6
Ecart-types
des erreursd’ajustement
deX l , X2, X3, X4,
pour les estimations suivantes de 03A3 : maximumvraisemblance, empirique
etdépendant
dutemps
(par interpolation).
Données enajoutant
despoints artificiels
sur les moyennes des concentrations.
TABLEAU 8
Ecart-types
des erreursd’ajustement
deXl, X2, X3, X4,
pour les estimations suivantes de 03A3 : maximum vraisemblance etdépendant
du temps(Données
enajoutant
des donnéessupplémentaires
pourchaque individu).
5. Annexe
1)
La méthode deRunge-Kutta
utilisée pour résoudre lesystème :
t est le
temps
v : R
~ Rn1,
est itérative([5]) :
avec :
où :
2) Numériquement,
pour trouver les dérivéespartielles
des variables d’état parrapport
auxparamètres
on résout lesystème
des(p
+1)n équations
différentielles :par
rapport
aux(p
+1)n
inconnues :Références
[1]
CIUPERCAG., (1996),
ModélisationStatistique
du Metabolisme du Glucose chez laChèvre,
Thèse Institut NationalAgronomique Paris-Grignon.
[2]
CIUPERCAG., (1996), A
method to treat thedynamical
statisticalmodels,
soumis à Journal ofBiological Systems.
[3]
GALLANTA.R., (1987),
Nonlinear StatisticalModels,
JohnWiley
&Sons,
Inc.[4]
GARDT.C., (1987),
Introduction to StochasticDifferential Equations,
MarcelDekker, Inc.
[5]
MINOUXM., (1983), Programmation mathématique,
théorie etalgoritmes, Dunod,
Paris.[6]
PHILIPSP.C.B., (1976),
The Iterated Minimum Distance Estimator and theQuasi-
maximum Likelihood