• Aucun résultat trouvé

Les méthodes d’erreur d’équation sont basées sur la régression linéaire des signaux d’entrée-sortie (adaptées à la structure ARX ou FIR). Leur avantage principal r é- side dans la linéarité de la fonction d’erreur d’estimation par rapport au vecteur de paramètre, ce qui permet l’utilisation des techniques d’optimisation linéaires simples, comme la méthode des moindres carrés simples pour minimiser le critère d’optimisation.

Ainsi, la simplicité de calcul et la nature non-itérative (une seule étape de calcul sans besoin de conditions initiales) favorisent l’utilisation de ces méthodes comme méthodes d’initialisation dans le processus d’identification. L’optimisation de la fonction de l’erreur de prédiction selon un critère con vexe est considérablement aisée et donne toujours un voisinage proche au minimum global, | l’opposé des méthodes OEM qui peuvent confronter des minimums locaux.

Toutefois, en présence du bruit de mesure, l’estimation est asymptotiquement bia i- sée, incohérente et perdent leur efficacité [8] (et voir ainsi [28]). La figure suivante montre le principe de formulation de l’erreur d’estimation par ces méthodes :

Fig. 2.7 Formalisation de l’erreur de prédiction par l’EEM

Suivant la méthode d’EEM, l’erreur d’estimation prend la forme suivante :

( , )k  A q( , ) ( ) y kB q( , ) ( )u k (2.29)

b) Méthode d’Erreur de Sortie (OEM)

Les méthodes d’erreur de sortie est probablement les méthodes les plus utilisées dans l’estimation paramétrique d’un système. Ces méthodes sont basées sur la si- mulation d’un modèle initial et de ses fonctions de sensibilité | partir de la seule connaissance de l’excitation. Gr}ce | cette procédure, la sortie simulée (estimée) est indépendante de la perturbation affectant le système. Par conséquent, le résidu est l’image de cette perturbation, d’ou l’appellation erreur de sortie. La minimisation du critère d’optimisation se faite d’une manière itérative, et nécessite une technique de programmation non-linéaire. La propriété fondamentale de ces méthodes est qu’elle fournit une estimation asymptotiquement non biaisée des paramètres. Par contre, la non-linéarité du critère par rapport aux paramètres nécessite l’utilisation des techniques d’optimisation non-linéaire.

Le problème principal des méthodes d’erreur de sortie est l’existence possible de plusieurs minimums locaux vers lesquels l’algorithme d’optimisation peut conver- ger. Ce problème est lié directement au choix des conditions initiales. Ce qui sign i- fie que la convergence de ces méthodes vers un minimum global n’est pas garantie en général, et nécessite des bonnes conditions initiales. Pour cela, l’initialisation se fait souvent par une méthode d’erreur d’équation *9+. Le principe de formulation de l’erreur d’estimation par ces méthodes est montré sur la figure suivante :

Fig. 2.8 Formalisation de l’erreur de prédiction par l’OEM

Suivant la méthode d’OEM, l’erreur d’estimation prend la forme suivante :

      ( , ) ( , ) ( ) ( ) ( , ) B q k y k u k A q (2.30)

2.6.2 Formulation du critère d’optimisation des fonctions d’erreur

Etant donné un ensemble de N couples de mesures entrées/sorties réalisées sur le système : 1 1 2 2 {( , ),( , ),...,( , )} N N N Zu y u y u y (2.31) et soit 

 ( , )k

une fonction de l'erreur d'estimation. il s'agit de chercher une estimation, notée ˆ du vecteur paramètre inconnu , permettant de minimiser la moyenne des mesures des erreurs d'estimation [3] :

   

   

   1 1 1 1 ˆ arg min ( , N) N ( ) ˆ( | ) N ( | ) k k Z y k y k k N N  (2.32)

La notation « arg min

 » désigne l'argument minimisant. Le critère  à minimiser

prend plusieurs formes selon la méthode d’estimation utilisée.  Structure au sens des moindres carrées (Least Squares, LS)

Cette méthode utilise, pour l’estimation, la norme quadratique de l'erreur des sorties 

    ( , )k

( , )k 22, le critère à minimiser représente la moyenne quadra - tique des erreurs d'estimation (critère quadratique) [3]:

   

  2 

  2 1 1 1 1 ˆ ( , ) ( ) ( | ) ( | ) N N N k k Z y k y k k N N  (2.33) ˆ( ) y k

 Structure au sens du Maximum Likelihood (ML)

Dans ce cas, la fonction utilisée pour l'estimation est une fonction logarithmique de la fonction de l’erreur. Cette méthode est recommandée lorsque le critère d’optimisation possède des proprités statistiques observables, comme le bruit de forme gaussien, la valeur signeficative de la variance du vecteur de paramères, etc. Dans ce cas, la fonction 

 

 est choisie comme suit [1]:

( ) log ( ) 

f

e

(2.34) où

f

e

( )

est la fonction de densité de probabilité (PDF) du signal de bruit e k( ). En général, on peut utiliser n'importe quelle fonction scalaire ( ) positive arbi- traire en tant que mesure et de la minimiser. Si ce critère atteint son minimum, cela veut dire que ce vecteur de paramètres est l’optimum pour la méthode d’estimation utilisée, parmi un ensemble infini de vecteurs candidats. Le problème de la recherche de l’optimum repose donc sur l’efficacité de la méthode utilisée.

2.6.3 Techniques d’optimisation des fonctions d’erreur

Les méthodes d’estimation paramétrique sont classées en méthodes linéaires et méthodes non linéaires et suivent la linéarité et la non-linéarité des modèles par rapport au vecteur de paramètres. L’objectif principal de ces méthodes est la r e- cherche d’un minimum global du vecteur de paramètres qui minimise l’erreur d’estimation dans une direction optimale. Dans ce sens les méthodes d’est imation paramétrique sont des techniques d’optimisation selon un critère donné.

Définition 2.1 (minimum global) [10]: Soit f : une fonction. f x( )est le mini- mum global defsi et seulement si :

 x , ( )f xf x( ) (2.35) xest un minimiseur global def.

Définition 2.2 (minimum local) [10]: Soit f : une fonction.f x( ) est le mini-

mum local de f si et seulement si :

, x ]x*  x* [, ( )f xf x( ) (2.36)

Théorème 01 (condition suffisante de minimalité locale) [10] : Soit f : une fonctionC2. Si x vérifie les conditions :

* * ( ) 0 ( ) 0 f x f x         (2.38) Alors f x( )est un minimum local strict de f.

Définition 2.3 (moindres carrés non linéaires) [10] : Soit une fonction, tel que

  ( 12 ... m) :Tn m. Les problèmes des moindres carrés non linéaires visent à minimiser la fonction objective de la forme :

       

 2 1 1 1 ( ) ( ) ( ) ( ) 2 2 m T i i (2.39) Où les fonctionsi sont des fonctions non linéaires par rapport au vecteur.

2.6.3.1 Optimisation linéaire au sens des moindres carrés simples

Dans le cas de modèles linéaires par rapport aux paramètres, le minimum du critère peut être calculé et est unique [3]. La minimisation du critère (2.33) par rapport au vecteur paramètre conduit alors à une formule bien connue des moindres carrés. Cette méthode s'applique en temps différé car elle nécessite l'inversion d'une matrice de taille importante.