• Aucun résultat trouvé

John Mc Donald (1973), propose d’analyser les caractéristiques de l’erreur résiduelle (divergence ou discrepancy dans la littérature anglosaxonne) obtenue par la différence entre le PIB anglais estimé par l’approche demande (income) et celui estimé par l’approche dépenses (expenditures). Il calcule trois séries trimestrielles issues de trois versions différentes (révisions) de l’erreur résiduelle comme étant le rapport entre l’erreur résiduelle et le PIB exprimée en pourcentage. Il applique pour cela l’approche Box et Jenkins (1970) en formalisant une modélisation ARIMA des trois erreurs résiduelles. En analysant les fonctions d’auocorrélation et d’autocorrélation partielle des processus afin d’identifier les modèles ARIMAadéquats pouvant exprimer les séries, il constate deux résultats importants :

qu’elle soit préliminaire, la révisions des données na pas d’effet significatif sur l’erreur résiduelle. La modification de la divergence n’est pas fortement affectée selon que l’on choisisse telle ou telle version du PIB ;

2. l’erreur résiduelle ne se comporte pas comme un bruit blanc et est plutôt affectée d’une saison-nalité avec des coefficients de corrélation significatifs correspondant à la périodicité trimestrielle de la série (toutes les périodes multiples de 4). La saisonnalité présente dans l’erreur résiduelle s’explique selon l’auteur par la génération d’un comportement saisonnier des comptables na-tionaux qui ont tendance à ne disposer d’information complète selon l’approche d’estimation. Autrement dit, des inconsistances dans les méthodes d’estimation ayant un timing systématique car ne disposant pas d’information trimestrielle disponible à ce moment-là pour estimer le PIB et ses composantes.

Agustin Maravall (1986), effectue une extraction de signal du processus de révisions en supposant qu’il suit un processus ARMA. La relation reliant les séries préliminaires et les révisions sont associées à des erreurs d’écart entre les deux. L’application mensuelle sur un indicateur d’activité, le General Index of the Madrid Stock Exchange de 1980 à 1985, montre que l’erreur possède de bonnes propriétés de bruit blanc, conduisant à conclure sur la bonne estimation des séries finales par les préliminaires, en supposant que ces dernières suivent un processus ARMA.

Richard Ashley et David Vaughan (1986), analysent les propriétés statistiques des erreurs entre les séries préliminaires et les vraies valeurs publiées plus tardivement par analyse spectrale. La stationnari-sation des séries ainsi que le traitement des valeurs atypiques sont traitées par modélistationnari-sation ARIMA. Les séries concernées sont l’agrégat monétaire M1, le PNB réel et l’indice des prix à la consommation de l’économie américaine. Des autocorrélations positives ont été rencontrées dans l’analyse des erreurs. Les propriétés de bruit blanc des erreurs sont remises en cause sur des échantillons relativement importants.

Edward Gbur (1987), propose une autre alternative aux estimations des révisions des séries des importations mensuelles américaines du Bureau of the Census. Outre la méthode de révision standard utilisée par le Bureau Of the Census, qui consiste en un ajustement des séries à mesure que les données issues des Douanes sont disponibles, l’auteur propose deux méthodes alternatives d’estimation pouvant améliorer l’anticipation des corrections des données par manque d’informations. La première méthode utilisée est une méthode de lissage exponentiel de Holt-Winters et la seconde concerne un processus

au-torégressif, où l’on estime les valeurs à réviser compte tenu de valeurs retardées des données antérieures.

L’auteur compare ensuite les erreurs relatives absolues en niveau et en variation mensuelle de quatre séries, la première non révisée, la seconde celle résultant de l’estimation par ajustement du Bureau of the Census, et les deux dernières concernent le lissage et la régression sur les retards. La série non révisée donne la plus mauvaise statistique et celles qui donnent de meilleurs résultats concernent la méthode du Bureau of the Census ainsi que le lissage exponentiel.

Bernard Lefrançois (1988), montre dans son étude comment les séries chronologiques peuvent être un bon outil pour l’analyse des révisions. Ceci permet à la fois d’analyser les propriétés statistiques des révisions, pouvant amener à conclure sur la possibilité de les améliorer ou non ainsi qu’au préalable nous renseigne d’une manière intéressante sur la qualité des données au préalable. Après avoir décrit les études traitant du sujet, l’auteur précise qu’aucune d’entre elles ne peuvent répondre au souci de l’amé-lioration du processus de révisions. Elles sont essentiellement descriptives, et les statistiques calculées ne permettent pas de conclure sur l’aspect séries chronologiques afin d’interpréter et conclure sur leur évolution. Les autres études citées sont coûteuses et ne permettent donc pas d’aboutir à une finalisation des analyses. De ce fait, l’analyse des séries chronologiques serait une méthode qui permet à la fois d’identifier les aspects indésirables dans la qualité des données et s’avère être d’un coût négligeable, et leur mise en œuvre est assez aisée.

Lefrançois cite les équations déjà mentionnées dans des études comme celles de Mankiw et Shapiro (1986) :

Rt = Ft− Pt

Si en prenant en compte le comportement de séries chronologiques des données provisoires et révi-sées et si ces données révirévi-sées sont imprévisibles alors :

E(Rt) = 0 pour tout t et Cov(Rt, Rt−k) = 0 pour toutes valeurs de t et k, t 6= k

Ainsi les révisions suivent un processus Bruit Blanc. Si c’est le cas, il sera possible d’améliorer les révisions.

La seconde équation concerne la modélisation temporelle des révisions. C’est dans cette relation que le groupe d’études comme celle de LeFrançois est mise en œuvre. Il s’agit d’une relation entre les données provisoires et les données révisées. La relation directe s’interprète de sorte à ce que les données provisoires sont les prédicteurs des données révisées. Elle s’écrit de la manière suivante :

Ft = α + β Pt+ εt

Si α = 0 et β = 1, nous retrouvons la première équation et ε sera interprété comme étant la révision. Un biais sera présent dans l’estimation provisoire et son amplitude lorsqu’alpha et beta seront différents respectivement de 0 et de 1.

La relation est ensuite reprise en introduisant des décalages temporels prenant en compte les révi-sions successives ainsi que les origines différentes possibles induisant les révirévi-sions des données. Nous retombons ainsi sur une fonction de transfert, sous la forme d’une modélisation séries temporelles, re-liant les données provisoires et les données révisées. Ainsi, il sera possible d’estimer les différents coef-ficients de la relation et conclure sur la présence ou non de biais dans les révisions des données, compte tenu de l’évolution de leurs révisions successives, au cours du temps.

δ (B)Ft = α + β (B)Pt+Θ(B)εt Φ(B)

Où B est un opérateur retard (BXt = Xt−1)

Les conditions optimales d’un processus de révisions non biaisé se reformulent en ayant pris l’aspect décalage temporel et fonction de transfert sous ces conditions, à savoir :

1. δ (B) = β (B) = 1, absence de biais d’amplitude,

2. α = 0, absence de biais de niveau,