• Aucun résultat trouvé

Approximation stochastique en analyse factorielle multiple

N/A
N/A
Protected

Academic year: 2021

Partager "Approximation stochastique en analyse factorielle multiple"

Copied!
20
0
0

Texte intégral

(1)

HAL Id: hal-00109529

https://hal.archives-ouvertes.fr/hal-00109529

Preprint submitted on 24 Oct 2006

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires

Approximation stochastique en analyse factorielle multiple

Jean-Marie Monnez

To cite this version:

Jean-Marie Monnez. Approximation stochastique en analyse factorielle multiple. 2006. �hal-00109529�

(2)

Approximation stochastique en analyse factorielle multiple

Jean-Marie Monnez Institut Elie Cartan UMR 7502 Nancy-Université, CNRS, INRIA

Abstract

We study the multiple factorial analysis of a random vectorX in Rpas a principal component analysis ofX with a particular choice of the inner product inRp. We use a stochastic approximation process to estimate recursively the principal components of this analysis by means of a sequence of i.i.d. observations ofX. Stochastic approximations of the symmetrical positive de nite matrixM de ning the inner product in Rpand of the principal components are made simultaneously.

Key Words and Phrases :Stochastic approximation, principal com- ponent analysis.

AMS A1991 Subject Classi cations : primary :62; secondary : H25, L20.

1 Estimation récursive en analyse des données

1.1 Cadre d'application

Dans (MacGregor 1997), l'auteur fait remarquer que de nos jours, des volumes énormes de données portant sur des variables de procédé, comme par exemple des températures, des pressions, des débits dans des processus industriels, sont collectés en ligne par des ordinateurs chaque heure, chaque minute, chaque seconde et souvent non exploités par manque de méthodes adaptées. Ce cas de données obtenues par une collecte élec- tronique est un cas particulier de ux de données (Aguilar-Ruiz 2006) : on a un ux continu, rapide, illimité de données qui sont lues une fois et pour lesquelles on souhaite faire une analyse en temps réel, sachant que l'on dispose d'une mémoire limitée. Le type de méthode d'estimation récursive étudié dans cet article dans le cadre général de l'approximation stochastique et dans le prolongement des travaux de Benzécri (1969), Krasulina (1970), Lebart (1974), permet de traiter des données qui arrivent en ligne.

En outre, on sait que, par exemple dans l'industrie chimique, le nombre de variables de procédé mesurées peut être de plusieurs milliers. On se trouve alors confronté à un double problème : des données nombreuses, ici arrivant en ligne, et de grande dimen- sion (D'Aubigny 2001). Dans la mesure où l'on utilise des métriques diagonales (que

(3)

l'on a à inverser), le type de méthode étudié permet l'utilisation d'un grand nombre de variables.

1.2 Modélisation probabiliste

On observe des caractères (ou variables) quantitatifs ou qualitatifs sur n individus. On obtient des vecteurs de mesures ou de valeurs d'indicatricesz1; z2; :::; zndansRp. On peut effectuer une analyse de ces données à l'aide de diverses méthodes, dépendant de la nature des données, d'analyse factorielle, de classi cation, d'analyse discriminante, par exemple. On note ici cette analyse ADO (analyse des données observées).

Supposons maintenant quez1; z2; :::; znconstituent un échantillon i.i.d. d'un vec- teur aléatoireZ dansRpdé ni sur un espace probabilisé( ;A;P): représente une population d'où on a extraitnindividus. On peut alors dé nir une analyse des données de ce vecteur aléatoire, notée ici ADVA, qui représente l'analyse des données effectuée sur la population, dont on va chercher à estimer les résultats. Soit un résultat de cette ADVA, par exemple une valeur propre, un facteur, un centre de classe, appartenant à un espace .

On peut estimer par un résultat n de l'ADO faite sur l'échantillon deZ, réali- sation d'une variable aléatoire n, estimateur d'ordrende , dont on établit alors les propriétés.

On peut aussi effectuer une estimation récursive, en supposant que l'on dispose d'une suite d'observations i.i.d. (zn): à partir den 1observationsz1; z2; :::; zn 1, on détermine une estimation nde ( 1est quelconque, mais peut être une estimation a priori de ) ; on introduit alors l'observationznet on actualise l'estimation de . n+1

est déterminée récursivement par une équation du type suivant, oùfnest une fonction de Rpdans :

n+1=fn( n;zn): (1)

Un exemple simple est l'estimation récursive d'une moyenne. Si l'on estime = E(Z)par la moyennezn 1d'un échantillon(z1; z2; :::; zn 1)deZet si l'on introduit une nouvelle observationzn, la nouvelle estimation estzn, que l'on peut écrire

zn=zn 1

1

n(zn 1 zn):

Un avantage de l'estimation récursive est que l'on n'a pas besoin de conserver les observationsz1; z2; :::; zn 1 ; au pasn, il suf t de disposer de l'estimation n et de zn. Cette méthode est donc particulièrement adaptée aux données qui arrivent de façon séquentielle dans le temps. Elle est aussi adaptée aux données dont l'observation est coûteuse : une fois que l'on a constaté que l'algorithme récursif converge, on peut ar- rêter l'introduction des données. Elle est également utilisable dans le cas de très grands tableaux de données : ainsi, pour effectuer l'analyse d'un tableau de données observées sur un ensemble d'individus de cardinalN très grand, on peut faire une succession de tirages au hasard dans cet ensemble ; pour chaque individu tiré, l'observationzest alors la réalisation d'un vecteur aléatoireZ dé ni sur l'ensemble desN individus muni de l'équiprobabilité. L'ADVA deZn'est autre que l'ADO sur cet ensemble, dont on peut estimer les résultats par des méthodes récursives.

Le processus récursif (1) peut être modi é dans les sens suivants.

(4)

Au pasn, on peut utiliser au lieu d'une seule observation zn un paquet de mn

observations. On peut aussi utiliser toutes les observations faites jusqu'au pasn, à con- dition de ne pas avoir à les conserver, ce qui annulerait un avantage de la méthode. Par exemple, si l'on cherche un vecteur propre d'une matrice de covariance d'un vecteur aléatoire, on peut utiliser dans la dé nition du processus une matrice de covariance empirique, mais calculée de façon récursive, sans avoir à la déterminer à chaque pas en fonction de toutes les observations effectuées jusqu'à ce pas.

Dans les arguments de la fonctionfnpeuvent intervenir des éléments aléatoiresyn

fonctions des observationsz1; z2; :::; zn 1et eux-mêmes calculés de façon récursive.

On a alors :

n+1 = fn( n; zn; yn) (2)

yn = gn 1(yn 1;zn 1)

Par exemple, dans l'ACP normée du vecteur aléatoire Z, on utilise dans Rp la métriqueM des inverses des variances des composantes deZ ; lorsque l'on dispose de n observations z1; z2; :::; zn, on peut l'estimer par la métrique Mn des inverses des variances empiriques calculées à partir de ces observations, elle-même calculée de façon récursive. On effectue ainsi une estimation récursive simultanée deM et de .

1.3 Cas de l'analyse factorielle multiple

Comme exemple d'application, on présente ici l'estimation des facteurs d'une ana- lyse factorielle multiple (AFM) d'un vecteur aléatoireZ. On présente d'abord dans le paragraphe 2 l'analyse en composantes principales (ACP) deZ. La présentation classique de cette ACP peut être trouvée dans (Anderson 1958) et une présentation plus générale faisant intervenir un choix de métriqueMdans l'espaceRpdes réalisations de Zdans (Caussinus 1984). L'AFM étant une ACP avec un choix particulier de métrique, c'est l'esprit de cette formulation qui est utile ici ; cependant, on en présente d'abord l'aspect géométrique, puis l'interprétation statistique complétée par un résultat utilisé pour expliquer le choix de la métrique en AFM. La présentation de l'AFM qui suit celle de l'ACP est une extension dans un cadre probabiliste de celle faite par Esco er et Pagès (1988) dans le cadre de l'analyse des données classique.

Les facteurs d'une AFM sont vecteurs propres d'une matrice M 1-symétrique.

L'étude de processus récursifs d'estimation de vecteurs propres de ce type de matrices fait partie de la théorie de l'approximation stochastique, initialisée par les travaux de Robbins et Monro (1951) et qui a connu un très grand développement depuis. Cepen- dant, le premier article consacré à ce problème particulier (Benzécri 1969) ne fait pas référence aux techniques utilisées classiquement en approximation stochastique, con- trairement à celui de Krasulina (1970), qui se place dans le cadre des processus de gradient stochastique. Divers processus ont été proposés depuis par différents auteurs.

On pourra consulter une bibliographie dans les articles de Bouamaine et Monnez (1997, 1998), qui ont effectué l'étude d'une classe contenant plusieurs de ces processus, aux résultats de laquelle on fera référence ici.

On présente le principe de l'approximation stochastique de vecteurs propres dans le paragraphe 3. On présente l'approximation stochastique des facteurs de l'AFM et

(5)

des valeurs propres dans le paragraphe 4, on conclut dans le paragraphe 5 et on donne les démonstrations dans le paragraphe 6.

On noteA0la transposée d'une matriceAetIune matrice-identité. L'abréviation p.s.signi e “presque sûrement”.

2 ACP et AFM d'un vecteur aléatoire

2.1 ACP d'un vecteur aléatoire

Soit un vecteur aléatoireZ dans Rp, dé ni sur un espace probabilisé ( ;A; P), de composantesZ1; Z2; :::; ZP de carré intégrable. On noteCovar(Z)ouCla matrice de covariance deZ.

On munitRp d'une métriqueM ; on notek:kla norme associée : kZ(!)k2 = Z0(!)M Z(!). A partir de M est dé nie la distance entre deux réalisations Z(!) etZ(!0)deZ qui est la mesure de la différence vis-à-vis deZ entre les éléments, ou individus,!et!0. Le choix de cette métrique est primordial et conditionne les résultats de l'ACP. Nous en verrons un exemple en AFM.

On désigne parFr un sous-espace af ne deRp de dimensionrauquel appartient l'espérance mathématiqueE(Z)deZ. On note Z le vecteur aléatoire dansRpqui, à tout! 2 , fait correspondre la projection orthogonale, au sens de la métriqueM,

Z(!)deZ(!)surFr. On aE(Z) =E( Z)et :

E(kZ E(Z)k2) =E(kZ Zk2) +E(k Z E(Z)k2):

2.1.1 Etude géométrique

L'ACP du vecteur aléatoireZconsiste à déterminer un sous-espaceFrqui restitue au mieux en dimensionrla dispersion deZmesurée parE(kZ E(Z)k2), donc qui soit tel queE(k Z E(Z)k2)soit maximale ouE(kZ Zk2)minimale. Si l'on note (u1; u2; :::; ur)une baseM-orthonormée deFr, on a

E k Z E(Z)k2 = Xr k=1

u0kM CM uk:

Pourk = 1;2; :::; r, on recherche alors un vecteuruk qui rend maximale la forme quadratiqueu0M CM usous les contraintes d'êtreM-unitaire et M-orthogonal aux vecteursuj,j = 1; :::; k 1; uk est vecteur propre de la matriceCM associé à la kieme plus grande valeur propre k ; on au0kM CM uk = k ; l'axe(E(Z); uk)est appelé lekiemeaxe principal de l'ACP deZ.

2.1.2 Interprétation statistique

La formulation statistique, équivalente à la géométrique, est le cadre usuel de présen- tation de l'ACP d'un vecteur aléatoire. Soit l'élémentak = M uk du dual Rp de Rp, appelé kieme facteur principal de l'ACP deZ. A partir du critère de détermi- nation deuk, on obtient queak rend maximale la forme quadratique a0Casous les

(6)

contraintesa0Caj = 0; j = 1;2; :::; k 1eta0M 1a= 1; la combinaison linéaire des composantes centrées deZ,Ck = a0k(Z E(Z)), appeléekieme composante principale, est donc de variance maximale sous les contraintes d'être non corrélée aux composantes précédentes et queak soitM 1-unitaire. ak est vecteur propre associé à lakieme plus grande valeur propre k de la matriceM 1-symétrique M Cet on a a0kCak= k.

On a en outre le résultat suivant : vk = pak

k rend maximale la forme quadratique v0CM Cvsous les contraintesv0Cvj = 0,j= 1;2; :::; k 1etv0Cv= 1. En effet, une solution de ce problème est vecteur propre deC 1CM C = M Cassocié à sakieme plus grande valeur propre, commeak; maisa0kCak= k; on peut prendrevk =pak

k. 2.1.3 Cas où l'espace fondamental est ni

On constate que, lorsque est un ensemble ni de cardinalN, la probabilité duieme élément, ou individu, de étant notéepi, l'ACP du vecteur aléatoireZest l'ACP clas- sique, ou descriptive, du tableau des réalisations despvariables aléatoiresZ1; :::; Zp pour lesN individus de affectés respectivement des poidsp1; :::; pN, la métrique dansRpétantM.

2.2 AFM d'un vecteur aléatoire

On suppose maintenant que l'ensemble des composantes du vecteur aléatoireZ dans Rpest partitionné enqgroupes de variables aléatoires réelles

Zk1; Zk2; :::; Zkmk ; k= 1;2; :::; q; m1+m2+:::+mq=p:

On noteZkle vecteur aléatoire de composantesZk1; Zk2; :::; Zkmk.

Le but de l'analyse factorielle multiple est de réaliser une ACP deZdans laquelle les vecteurs aléatoiresZkaient un rôle équilibré. On veut éviter que les composantes principales de cette ACP soient principalement déterminées à partir de certains vecteurs Zk, donc à partir de certaines composantes deZ au détriment des autres. Ceci est réalisé en faisant un choix particulier de la métriqueM dansRp:

Pourk = 1;2; :::; q, on munit l'espace Rmk d'une métrique Mk. Il paraît alors naturel de prendre dansRpla métrique diagonale par blocs

M = 0 BB BB

@ M1

M2 :

: Mq

1 CC CC A:

Le carré de la distance entre les points représentatifs de deux individus dansRp est alors égal à la somme surkdes carrés des distances entre les points représentatifs de ces individus dansRmk.

On noteCk la matrice de covariance deZk, k1 la plus grande valeur propre de MkCk, à laquelle est associé le premier facteur de l'ACP de Zk, et C la matrice de covariance deZ que l'on suppose de plein rang. On a le résultat suivant dont la démonstration est faite dans le paragraphe 6.

(7)

Théorème 1 Pour un élémentvde l'ensembleA =fv2Rp :v0Cv= 1g, on a v0CM Cv Pq

k=1 k 1.

On notea11le premier facteur de l'ACP deZ1, élément deRm1 ,w11le vecteur de Rp obtenu en complétanta11par des composantes nulles (on plongeRm1 dansRp ) etv11le vecteurw11C-normé. On a d'après la démonstration du théorème précédent :

1

1 (v11)0CM Cv11 Xq k=1

k 1:

Si l'on suppose la valeur propre 11très grande par rapport à 21; :::; q1, telle que la somme des k1soit peu différente de 11, la valeur maximale dev0CM Cvest presque atteinte en prenant v = v11. Les composantes de Z1 jouent dans ce cas un rôle prépondérant dans la détermination de la première composante principale de l'ACP deZ : c'est ce que l'on veut éviter.

Pour remédier à ceci, on peut prendre dansRpla métrique diagonale par blocs

M1= 0 BB BB B@

M1

1 1

: :

:

Mq

q 1

1 CC CC CA :

Pour toutk, la plus grande valeur propre de l'ACP deZkavec la métriqueMkk

1 est alors égale à 1. Aucune plus grande valeur propre n'est prépondérante. L'ACP deZavec la métriqueM1est appelée analyse factorielle multiple deZ.

Pour effectuer l'estimation récursive des facteurs de cette analyse, on effectuera parallèlement l'estimation récursive des valeurs propres k1des ACP desZk.

3 Approximation stochastique de vecteurs propres

On reprend des éléments de l'étude effectuée par Bouamaine et Monnez (1998). On utilise des notations spéci ques à ce paragraphe.

Soit B une matriceM-symétrique d'ordrepqui dé nit un endomorphisme dans Rp . On veut estimer r vecteurs propres correspondant respectivement aux r plus grandes valeurs propres deB. On suppose que la matriceBest inconnue, de même que la métriqueM dansRp , mais que l'on dispose au tempsnd'une matrice symétrique dé nie positiveMnet d'une matriceBnqui véri ent certaines hypothèses.

3.1 Dé nition du processus d'approximation stochastique

On note< :; : >n, respectivementk:kn, le produit scalaire, respectivement la norme, induits dansRp par la métriqueMn. On dé nit pouri= 1; :::; r, le processus récursif

(8)

d'approximation stochastique(Xni)dansRp de type Krasulina tel que, au tempsn: Fn(Xni) = BnXni; Xn ni 1

hXni; Xniin 1

(3) Yn+1i = Xni +an(Bn Fn(Xni)I)Xni

Xn+1i = orthMn(Yn+1i ):

Xn+1i = orthMn(Yn+1i )signi e que(Xn+11 ; :::; Xn+1i )est obtenu en orthogonalisant par rapport àMnau sens de Gram-Schmidt(Yn+11 ; :::; Yn+1i ).

3.2 Discussion des hypothèses

Les pas positifsansont tels que X1

1

an=1; X1

1

a2n<1: La suite(Mn)véri e les hypothèses

Mn !M p:s:;

X1 1

ankMn Mk<1 p:s:

Par exemple, dans le cas de l'ACP normée,M est la matrice diagonale des variances des composantes deZ,Mn la matrice diagonale des variances empiriques calculées à partir des observations faites jusqu'au tempsn; en particulier, pouran = n1, on a P1

1 anE(kMn Mk)<1; les hypothèses sur(Mn)sont donc véri ées.

On suppose que la suite(Bn) véri e en particulier l'hypothèse suivante, oùTn

désigne la tribu du passé au tempsn: X1

1

ankE(Bn=Tn) Bk<1 p:s:

Dans l'application à l'analyse factorielle, on a souvent la décomposition multiplicative B =CD(par exemple, dans l'ACP du vecteur aléatoireZ, siN désigne la métrique choisie dansRp, les facteurs de l'ACP sont vecteurs propres deB =N Covar(Z)) et la décomposition correspondanteBn =CnDn. Alors :

Bn B =CnDn CD=Cn(Dn D) + (Cn C)D:

Si(Cn)converge presque sûrement versCet si X1

1

ankE(Dn=Tn) Dk<1; X1

1

ankE(Cn=Tn) Ck<1 p:s:;

alors l'hypothèse sur(Bn)est véri ée.Cn(ouDn) peut être lui-même obtenu au temps n 1par un processus d'approximation stochastique et êtreTn-mesurable ; alors, la conditionP1

1 ankCn Ck<1 p:s:peut être éventuellement véri ée en utilisant un résultat de comportement asymptotique du processus(Cn). Cette façon de procéder peut être étendue au cas oùBest la résultante multiplicative de plus de deux matrices.

(9)

3.3 Principe de l'étude de la convergence

3.3.1 Algèbre extérieure d'ordre j de Rp

On note^le produit extérieur de vecteurs deRp et pourj = 1; :::; p,j^Rp l'algèbre extérieure d'ordrej deRp : (e1; :::; ep)étant une base deRp , l'ensemble desCpj produits extérieursei1^:::^eij pour1 i1< ::: < ij pest une base dej^Rp .

On dé nit un produit scalaire dansj^Rp à partir de celui dansRp induit par la métriqueM; dans cette dé nition,Gjest l'ensemble des permutations defk1; :::; kjg, s( )est le nombre d'inversions de la permutation et"( ) = ( 1)s( ):

ei1^:::^eij; ek1^:::^ekj = X

2Gj

"( ) ei1; e (k1) M::: eij; e (kj) M: On suppose que lesrplus grandes valeurs propres de l'endomorphismeBdansRp sont différentes : 1 > ::: > r. On dé nit pourj = 1; :::; r, l'endomorphismej1B dansj^Rp par :

j1B(x1^::::::^xj) = Xj h=1

x1^:::^Bxh^:::^xj; xl2Rp ; l= 1; :::; j:

SiV1; :::; Vjsont des vecteurs propres deBcorrespondant respectivement à 1; :::; j, V1^:::^Vj est vecteur propre de j1B correspondant à la plus grande valeur propre

1j =Pj

l=1 l. On notejS1le sous-espace propre correspondant à 1jet(jS1)?son supplémentaire orthogonal.

3.3.2 Convergence du processus

On effectue la démonstration de la convergence en deux étapes.

Soit jXn = Xn1^:::^Xnj. On démontre d'abord que, pour j = 1; :::; r, kjjXXnnk

convergep:s:dans un ensemblejE versV1^:::^Vj 2 jS1(on suppose les vecteurs Vl normés). On démontre ensuite que, pourl = 1; :::; r, kXXnll

nk converge p:s:dans

\lj=1jEversVl. On donne ci-dessous la dé nition de l'ensemblejE.

Dans le cas où l'on connaîtBetM, on dé nit hj(jx) =

j1Bjx;jx

hjx;jxi ;jx2 j^Rp ; et le processus jUn dansj^Rp par

jUn+1= I+an j1B hj(jUn)I jUn: Dans ce cas, jE est l'ensemble n

jX12= jS1 ?o

; X11; :::; X1j ne doivent pas être orthogonaux au sous-espace engendré par les vecteurs propres deB correspondant à sesjplus grandes valeurs propres.

(10)

Le processus(jXn) = (Xn1^:::^Xnj)peut être considéré comme une perturbation stochastique du processus jUn . On note :

nj = 1 +an( 1j hj(jXn)) Qj = jX1+

X1 n=1

jXn+1 I+an j1B hj(jXn)I jXn

Qn i=1 ij

: L'ensemblejE est Qj 2= (jS1)? . On remarque que Qj = jX1 pour (jXn) =

jUn .

4 Approximation stochastique des facteurs de l'AFM

On noterle nombre de facteurs de l'AFM deZque l'on veut estimer.

Soit (Z1; Z2; :::; Zn; :::) une suite de vecteurs aléatoires constituant un échantil- lon i.i.d. deZ. Zn a pour composantes les variables aléatoires réelles Znkj, j = 1;2; :::; mk; k = 1;2; :::; q ; pourk xé, les vecteurs aléatoires Znk de composantes Znkj,j= 1;2; :::; mk, constituent un échantillon i.i.d. deZk. On noteZnk = 1nPn

i=1Zik la moyenne d'ordrendesZiketZncelle desZi.

Soit pourk= 1;2; :::; q,(Mnk)une suite de matrices symétriques dé nies positives d'ordremk.

On considère les hypothèses suivantes.

(H1)Zadmet des moments d'ordre4r.

(H2a)Pourk= 1;2; :::; q; Mnk !Mkp.s.

(H2b)Pourk= 1;2; :::; q;P1

1 an Mnk 1 Mk <1p.s.

(H3)an>0;P1

1 an=1;P1

1 an

pn <1;P1

1 a2n<1.

4.1 Dé nition et convergence d'un processus d'estimation du premier facteur de l'ACP de Zk

Le premier facteur dansRmk de l'ACP du vecteur aléatoireZkdansRmkmuni de la métriqueMkest vecteur propre associé à la plus grande valeur propre de

Bk =MkCk=Mk(E(ZkZk0) E(Zk)E(Zk0)):

On suppose que l'on dispose d'un estimateur convergent(Mnk)deMk. Par exemple, siMkest l'inverse de la matrice diagonale des variances des composantes deZk(c'est le cas de l'ACP normée), on peut l'estimer à partir de l'échantillon(Z1k; :::; Znk 1)de Zkpar l'inverse de la matrice diagonale des variances empiriques ; on démontre alors que l'hypothèse H2 est véri ée (Bouamaine 1996, VI, lemme 1.1.b).

Pour tout n, on note h:; :ikn le produit scalaire dans Rmk muni de la métrique (Mnk) 1etk:kknla norme associée. On dé nit la matriceBnkcarrée d'ordremk:

Bnk=Mnk 1(ZnkZnk0 Znk 1Znk 10): (4)

(11)

On dé nit le processus (Vnk)dans Rmk de type Krasulina (cf (3)) d'estimation d'un vecteur propre associé à la plus grande valeur propre de la matriceBk:

Vn+1k =Vnk+an(Bnk BknVnk; Vnk kn 1 hVnk; Vnkikn 1

I)Vnk: (5) On noteSk1 le sous-espace propre associé à la plus grande valeur propre k1 deBket (Sk1)?l'orthogonal deS1k. M désignant une métrique quelconque dansRmk , A un vecteur deRmk etBune matrice carrée d'ordremk, on note ci-dessous

f(A; B; M) = hBA; AiM

hA; AiM

: On note également :

Wk = V1k+ X1 n=1

Vn+1k (I+an(Ck f(Vnk; Ck;(Mk) 1)I))Vnk Qn

i=1(1 +ai( k1 f(Vik; Ck;(Mk) 1))) Ek = n

Wk 2= S1k ?o :

Lemme 2 Sous H1, H2, H3,Wkconverge presque sûrement,Vnkconverge presque sûrement dansEkvers un vecteur propreU1kdeBk =MkCkassocié à la plus grande valeur propre k1 et l'on a presque sûrement dansEk

X1 n=1

an k1 BkVnk; Vnk kn 1 hVnk; Vnkikn 1

<1:

On détaille les calculs à effectuer à chaque pas.

BnkVnk = Mnk 1(ZnkZnk0 Znk 1Znk 10)Vnk =Mnk 1(Znk kn Znk 1 kn)

k

n = Znk0Vnk; kn=Znk 10Vnk 2R Fnk(Vnk) = BnkVnk; Vnk kn 1

hVnk; Vnkikn 1

=

knZnk0 knZnk 10 Vnk Vnk0 Mnk 1 1Vnk

=

k n

2 k

n 2

Vnk0 Mnk 1 1Vnk

Vn+1k = Vnk+an Mnk 1 knZnk knZnk 1 Fnk(Vnk)Vnk :

A condition que les matricesMnksoient diagonales, on peut facilement mettre en oeu- vre le processus précédent dans le cas d'un nombre élevé de composantes deZ(cas du

éau de la dimension).

(12)

4.2 Dé nition et convergence d'un processus d'estimation de Bk

On dé nit pourk= 1;2; :::; qle processus(Wnk):

Wnk=Mnk(1 n

Xn i=1

ZikZik0 ZnkZnk0): (6) On peut calculer la matrice symétrique d'ordremk, n1Pn

i=1ZikZik0, de façon récur- sive, ainsi queZnk.

Lemme 3 Sous H1, H2, H3,Wnkconverge presque sûrement versBket X1

n=1

an Wnk 1 Bk <1 p:s:

4.3 Dé nition et convergence d'un processus d'estimation de k1

On dé nit pourk= 1;2; :::; qle processus réel( kn) :

k

n = Wnk 1Vnk; Vnk kn 1 hVnk; Vnkikn 1

: (7)

Lemme 4 Sous H1, H2, H3, pourk = 1;2; :::; q, kn converge presque sûrement vers k1et

X1 n=1

an kn k1 <1 p:s:dansEk:

4.4 Dé nition et convergence d'un processus d'estimation de M1

On dé nit pour toutnla matrice diagonale par blocs symétrique dé nie positiveM1n qui, pourk= 1;2; :::; qa pourkiemebloc diagonal Mknk

n+1.

Lemme 5 Sous H1, H2, H3, dans\qk=1Ek,M1nconverge presque sûrement vers M1et

X1 n=1

ankM1;n 1 M1k<1 p:s:

4.5 Dé nition et convergence de processus d'estimation des facteurs de l'AFM de Z

Références

Documents relatifs

par Alexander Alvarez, Fabien Panloup, Monique Pontier et Nicolas savy Dans ce travail, nous nous intéressons à l'estimation de la volatilité instanta- née dans un modèle à

Le principe de notre ap- proche pour ce calcul consiste simplement ` a simuler un nombre suffisant de trajectoires de la dynamique des cellules T actives ` a l’aide du mod`

On établit dans ce cadre un résultat de convergence presque sûre d’un processus d’approximation stochastique des facteurs de l’ACP de ce vecteur aléatoire..

L’approche historique privilégiée dans certains chapitres révèle aussi la façon dont les relations concurrentielles sont remodelées en différentes occasions, ainsi que le

L’accès aux archives de la revue « Annales scientifiques de l’Université de Clermont- Ferrand 2 » implique l’accord avec les conditions générales d’utilisation (

On considère une suite aléa- atoire { A (i)} d'éléments indépendants distribués suivant la même loi ^.; de l'espérance mathématique £ (A) (qui est une application linéaire de

Prenons un deuxième problème, qui comme le calcul d'une moyenne, peut être décrit dans le formalisme mathématique, mais offre une réelle difficulté: l'analyse d'un tableau

Plus minutieuse, parce que l'histologie, la biochimie,1'électrophysiologie cellulaire ou macroscopique, l'ima- gerie dynamique (R.M.N.) ont fortement accru la connaissance du