• Aucun résultat trouvé

Robust equivariant nonparametric regression estimators for functional ergodic data

N/A
N/A
Protected

Academic year: 2021

Partager "Robust equivariant nonparametric regression estimators for functional ergodic data"

Copied!
99
0
0

Texte intégral

(1)N° d’ordre : REPUBLIQUE ALGERIENNE DEMOCRATIQUE & P OPULAIRE MINISTERE DE L ’ENSEIGNEMENT SUPERIEUR & DE LA RECHERCHE SCIENTIFIQUE. UNIVERSITE DJILLALI LIABES FACULTE DES SCIENCES EXACTES SIDI BEL ABBÈS. THESE DE DOCTORAT Présentée par LOUHAB HAYAT. Spécialité : Statistiques Mathématiques Appliquées à l’Economie et à la Finance Option :. PROBABILITES STATISTIQUE. Intitulée Régression Robuste pour des Données Fonctionnelles Ergodiques. « …………………………………………………………………… ». Soutenue le …. Devant le jury composé de : Président : MECHAB Aboubakr (MCA à l’Université Djillali Liabès). Examinateurs : LAKSACI Ali (Professeur à l’Université Djillali Liabès) CHIKR El Mezouar Zoaoui (Professeur à l’Université de Bechar). Directeur de thèse : ATTOUCH Mohamed Kadi (Professeur Université Djillali Liabès). Année universitaire : 2018/2019.

(2) 1. ==================================================================.

(3) Remerciements. Nous tenons tout d’abord à remercier ALLAH le tout puissant et miséricordieux, qui nous a donné la force et la patience d’accomplir ce modeste travail. Nous tenons à remercier très chaleureusement Monsieur le Professeur Mohammed Kadi Attouch qui nous a permis de bénéficier de son encadrement. La patience, la confiance qu’il nous a témoignés ont été déterminants dans la réalisation de notre travail de recherche, le temps qu’ils m’ont consacré et pour son suivie, ainsi que sa rigueur scientifique, son enthousiasme et ses précieux conseils. Je tiens à exprimer de toute mon estime et de ma profonde gratitude à Monsieur le Professeur Ali Laksaci. Votre aide et vos remarques pertinentes m’ont beaucoup aidé à améliorer la qualité de ce travail. Je voudrais également remercier les membres de jury pour l’honneur qu’ils m’a fait pour avoir accepter d’examiner cett thèse : Dr. MECHAB Aboubakr , Professeur à l’université Djillali Liabes de Sidi Bel -Abbés et Dr. Chikr El Mezouar Zoauoui, Professeur à l’ université de Béchar je tiens à les remercier vivement et je leur en suis très reconnaissante.. Je remercie aussi l’ensemble des enseignants du laboratoire de statistiques-probabilités de l’université de Sidi Bel-Abbés qui, tout au long de mon cursus universitaire, m’ont appris du mieux qu’ils pouvaient, tout ce que je sais aujourd’hui, ainsi que mes collègues de la faculté des sciences Exactes de l’unversité de Sidi Bel-Abbés.. 2.

(4) Remerciements. 3. Enfin, je tiens à remercier vivement tout ma famille pour leur soutien constant : mes parents, mon mari, ma chère soeur et sa petite famille, ma belle mère, mes deux frères Azzedine et sa petite famille et Zouaoui. Je les remercie tous de m’avoir supportée et encouragée pendant les moments de doute. Je n’aurai jamais pu faire cette thèse sans eux. Sidi Bel-Abbes, le 8 septembre 2019..

(5) Table des matières Table des matières. 4. Liste des figures. 5. Liste des tableaux. 6. 1 Introduction. 1. Contexte bibliographique . . . . . . . . . . . . . . . . . . .. 2. 1.1.1. Données et variables fonctionnelles . . . . . . . . . . . .. 2. 1.1.2. Théorie ergodique : . . . . . . . . . . . . . . . . . . . . .. 5. 1.2. Analyse non paramétrique robuste. . . . . . . . . . . . .. 6. 1.3. Brève présentations des résultats existants. . . . . . . .. 8. 1.3.1. Convergence presque complète. . . . . . . . . . . . . . .. 8. 1.3.2. Normalité assymptotique . . . . . . . . . . . . . . . . .. 11. Plan de la thèse . . . . . . . . . . . . . . . . . . . . . . . . .. 13. 1.1. 1.4. Bibliographie. 14. 2 Robust equivariant nonparametric regression estima16. tors for functional ergodic data 2.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . .. 18. 2.2. Basic definitions and notation . . . . . . . . . . . . . . .. 20. 2.2.1. Kolmogorov’s entropy . . . . . . . . . . . . . . . . . . .. 20. 2.2.2. Conditional cumulative distribution. . . . . . . . . . . .. 20. 2.3. The robust equivariant estimators and its related functional . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 21. 2.4. Main Results . . . . . . . . . . . . . . . . . . . . . . . . . . .. 22. 2.5. A simulation study . . . . . . . . . . . . . . . . . . . . . . .. 25. 2.6. Appendix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 27. Bibliographie. 35. 4.

(6) 3 Asymptotic normality of a robust kernel estimator of the regression function for functional ergodic data : Case of unknown scale parameter 3.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . .. 3.2. The robust equivariant estimators and its related. 38 39. functional . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 41. 3.3. Notations, hypotheses and comments . . . . . . . . . . .. 42. 3.4. Main Results . . . . . . . . . . . . . . . . . . . . . . . . . . .. 44. 3.5. Application . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 47. 3.5.1. Application to functional times series prediction . . . . .. 47. 3.5.2. Conditional confidence curve . . . . . . . . . . . . . . .. 47. Appendix . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 51. 3.6. Bibliographie. 61. 4 Asymptotic normality of kernel estimator of ψx regression function for functional nonparametric models 4.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . .. 4.2. The robust equivariant estimators and its related. 65 67. functional . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 69. 4.3. Notation, hypotheses and comments . . . . . . . . . . . .. 69. 4.4. Main results . . . . . . . . . . . . . . . . . . . . . . . . . . .. 71. 4.5. Application . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 72. 4.6. Appendix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 75. Bibliographie. 84. Conclusion générale. 88. 4.7. Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . .. 90. Liste des figures 2.1. A sample of 100 curves, for dρ = (0.45, 0.90, 0.34, 0.45) . . . .. 26. 5.

(7) 3.1. A sample of 100 curves, for dρ = (0.45, 0.90, 0.34, 0.45) . . . .. 49. 3.2. Histograms and density curves. . . . . . . . . . . . . . . . . .. 49. 3.3. Extremities of the predicted values versus the true values and the confidence bands (simulation data without outliers).. 3.4. 50. Extremities of the predicted values versus the true values and the confidence bands (simulation data with outliers). .. 50. 4.1. Histograms and density curves. . . . . . . . . . . . . . . . . .. 74. 4.2. Extremities of the predicted values versus the true values and the confidence bands (simulation data without outliers). The black curve connects the true values. The red curve connects the crossed points which give the predicted values. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 4.3. 74. Extremities of the predicted values versus the true values and the confidence bands (simulation data with outliers). The black curve connects the true values. The red curve connects the crossed points which give the predicted values.. 75. Liste des tableaux 2.1. MSE Results. . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 3.1. Comparison between the both methods in the presence of outliers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 4.1. 27. 51. Comparison between the both methods in the presence of outliers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 74. 6.

(8) Introduction. 1. 1.

(9) Liste des tableaux. 1.1. Contexte bibliographique. 1.1.1 Données et variables fonctionnelles L’étude des données fonctionnelles est trés développée ces derniers temps. Les données fonctionnelles provenant de diverses branches des sciences (économétrie, biologie, environnement) sont de plus en plus collectées sous forme de courbes. Cela s’explique par le perfectionnement des outils de mesure et le progrès des outils informatiques. La statistique des données fonctionnelles qui traite ce genre de donnée est donc un sujet d’études de plus en plus important. La preuve de cet intérêt est la publication de nombreuses publications scientifiques ainsi que des nombreuses applications. Mathématiquement, une définition trés générale des données fonctionnelles, voir les monographies de Ramsay et Silvermann (2005) et de Ferraty et Vieu (2006) pour de nombreux exemples. Historiquement, les premiers résultats considérant des observations sous forme de trajectoires ont été obtenus par Obukhov (1960), Holmstrom (1963) en climatologie, Deville (1974) en démographie, Molenaar et Boomsma (1987) puis Kirkpatrick et Heckman (1989) en génétique. En statistique, le modèle de régression (paramétrique ou non-paramétrique) a une place trés importante dans ces dernières années. Par ailleurs, dans le contexte paramétrique, la contribution de Ramsay et Silverman (1997, 2002) présente un ouvrage qui a remporté un grand succès sur la modélisation statistique pour données fonctionnelles, tandis que Bosq (2000) a traité des modèls fonctionnels linéaires tel le processus d’autorégression puis s’intéresse à la prédiction dans des modèls en grande dimension (Bosq (2005)). Cardot et al. (1999) ont construit un estimateur pour le modèle de régression linéaire Hilbertien en utilisant l’analyse des composantes principales aux variables fonctionnelles. Cet estimateur est fait à l’aide des propriétés spectrales de la version empirique de l’opérateur de variance-covriance de la variable explicative fonctionnelle. Ils ont atteint la convergence presque complète ainsi que la convergence en norme L2 de cet estimateur pour une version régularisée. Cardot et al. (2004), ont introduit un estimateur pour les quantiles conditionnels en appliquant toujours la méthode de la régularisation, vu comme forme linéaire continue définie sur un espace d’ Hilbert. Récemment Crambes et al. (2010) ont introduit l’étude de la prédiction dans le modèle linéaire fonctionnel lorsque la variable d’intérêt est fonction2.

(10) Liste des tableaux. nelle. Concernant les problèmes du test, nous renvoyons à Cardot et al. (2003) et à Cuevas et al. (2004), Horvàth et Reeder (2011) proposent dans le modèle fonctionnel de régression quadratique de tester l’importance du terme non linéaire dans le modèle en utilisant l’analyse en composantes principales fonctionnelles. Plusieurs auteurs se sont intéressés au cas où la variable réponse est qualitative. Nous en citons par exemple, Hastie et al. (1995), Hall et Heckman (2002). La régression non paramétrique s’est développée considérablement ces dernières décennies, les premiers résultats ont été réalisés par Ferraty et Vieu (2000), et ils ont établi la convergence presque complète d’un estimateur à noyau de ce modèle non paramétrique dans le cas i.i.d. Ces résultats ont été prolongés par Ferraty et al. (2002) aux problèmes non-standards de la régression telle la prévision dans le contexte des séries chronologiques. En reprenant l’estimateur de Ferraty et Vieu (2003) et en utilisant la propriété de concentration sur des petites boules pour la variable explicative. La convergence en norme Lp de l’estimateur de la régression a été obtenue par Dabo-Niang et Rhomari (2003). Une application dans la discrimination des courbes a été présentée par ces auteurs. Masry (2005) a montré la normalité asymptotique de l’estimateur de la régression dans le cas dépendant. Ferraty et al. (2006) ont montré, sous des conditions de régularités de la densité conditionnelle, la convergence presque complète de l’estimateur à noyau de la densité conditionnelle ainsi que pour le mode conditionnel, et ont établi la vitesse de convergence. Dans le même contexte, Dabo-Niang et al. (2004) ont étudié un estimateur non paramétrique du mode de la densité d’une variable explicative à valeurs dans un espace vectoriel semi-normé, de dimension infinie. Ils ont établi la convergence presque sûre avec une application de ce résultat au cas où la mesure de probabilité de la variable explicative vérifie une condition de concentration. Récemment, J. Demongeot et al. (2013) ont introduit une nouvelle méthode d’estimation locale linéaire de la densité conditionnelle des données fonctionnelles dans un espace semimétrique, ils ont obtenu, sous des conditions standard, la convergence ponctuelle et uniforme presque complète ainsi que les vitesses de convergence. Une méthode d’estimation des quantiles conditionnels à partir de l’estimation à noyau de la fonction de répartition conditionnelle a également été proposée et étudiée par Ferraty, Rabhi et al. (2005), Ferraty et al. (2006), Ferraty et Vieu (2006a) et Ezzahrioui (2007). Ali Laksaci et Fouzia 3.

(11) Liste des tableaux. Maref (2009) ont prouvé la convergence presque complète (avec taux ) de l’estimateur à noyau de quantiles conditionnels pour des variables fonctionnelles spatialement dépendantes. On trouve aussi La convergence en moyenne quadratique qui a été établie par Ferraty et al. (2007). Plus précisément, ils ont explique le terme asymptotique exacte de l’erreur quadratique. On pourra consulter ce résultat qui a été utilisé dans les articles de Rachdi et Vieu (2007) pour déterminer le choix du paramètre de lissage global par validation croisée et Benhenni et al. (2007) en ce qui concerne le choix du paramètre de lissage local. Dans un article récent, Burba et al. (2008) s’intéressent à la méthode des k plus proches voisins dans le cadre de l’estimation à noyau de l’opérateur de régression, et ils ont obtenu la convergence presque complète de l’estimateur construit. Dans le même contexte, Attouch et Benchikh (2012), sous les propriétés de concentration sur les petites boules de la mesure de probabilité, ils ont établi la normalité asymptotique de l’estimateur non paramétrique robuste de la fonction de régression avec la méthode des k plus proches voisins lorsque les variables sont fonctionnelles. D’autres méthodes d’estimation ont été proposées, la propriété de robuste. En effet, la méthode robuste utilisée dans ce travail appartient à la classe de M-estimations introduites par Huber (1964 ). La littérature sur cette méthode d’estimation est très importante, lorsque les données sont réelles (voir par exemple Robinson (1984 ), Collomb et Hardle (1986) et Boente et Fraiman ( 1989, 1990)). Pour le cas fonctionnel, Cadre ( 2001) a étudié l’estimation de L1-médiane d’une variable aléatoire dans un espace de Banach. Cardot et al . ( 2004) ont utilisé cette approche robuste pour étudier le modèle de régression linéaire sur les quantiles avec les valeurs des variables explicatives prise dans un espace d’ Hilbert. Ils ont établi le taux de convergence L 2. Nous constatons aussi, Azzeddine et al. (2008) sur l’estimation de la régression non paramétrique robuste pour une variable explicative fonctionnelle, Attouch et al. (2009) ont étudié la convergence presque complète d’une famille d’estimateurs robustes basée sur la méthode du noyau, lorsque des observations sont indépendantes. La vitesse de convergence en norme Lp fait l’objet d’un travail de Crambes et al. (2008) en considérant les deux types d’observations indépendantes et α−mélangeantes. Nous renvoyons, Attouch et al. (2011) ont proposé une famille d’estimateurs robustes non paramétrique pour la régression spatiale fonctionnelle basée sur la méthode du noyau. 4.

(12) Liste des tableaux. Nous voyons aussi, la littérature de la statistique non paramétrique fonctionnelle pour le cas ergodique est très restreinte a l’exception des articles, dans ce contexte, Laib et Ould-Said (2000) ont adapté l’estimateur de Collomb et Hardle (1986) pour le modèle d’auto-régression d’un processus stationnaire ergodique. Ils ont obtenu la convergence uniforme de cet estimateur même lorsque la fonction objective est non bornée. Récemment, Laib et Louani (2010) ont étudié les propriétés asymptotiques de l’estimation de la régression du noyau quand des données fonctionnelles sont ergodiques stationnaires, et ont établi l’uniformité de probabilité, avec un taux, ainsi que la normalité asymptotique. Ainsi, Laib et Louani (2011 ) ont examiné le problème de l’estimation non paramétrique des opérateurs de régression fonctionnelles sous structure de dépendance moins restrictive qui est la condition de l’ergodicité. Ils ont étudié la forte cohérence d’un estimateur de la fonction de régression classique construite par la méthode du noyau.. 1.1.2 Théorie ergodique : Branche de la mécanique statistique née au début du siècle de l’étude de systèmes dynamiques constitués par un grand nombre de particules (mouvement brownien). Son cadre naturel devient aujourd’hui la théorie de la mesure. L’un de ses principes de base revient à substituer à la notion de "mesure instantée" du physicien une certaine moyenne. Les applications de la théorie ergodique maintenant diverses vont des mathématiques appliquées jusqu’à la théorie des nombres. En outre, comme nous le verrons par Laib et Louani (2011), les variables aléatoires générées par les modèles autorégressifs fonctionnels sont des exemples particuliers de variables aléatoires ergodiques fonctionnels. Nous nous référons au livre de Krengel (1985) pour un compte de détails et les résultats de la théorie ergodique. Données ergodiques : Historiquement, ergodique vient du mot grec qui signifie (travail, énergie), reflète l’idée, due à Boltzmann, que, le plus souvent, un système physique décrit au cours du temps un chemin sur l’hypersurface à énergie constante, chemin qui est dense sur cette hypersurface. De nos jours, le concept mathématique d’ergodicité ne fait plus référence à la physique 5.

(13) Liste des tableaux. ou à la topologie. Les phénomènes d’ergodicité et les hypothèses, postulats, principes, théorèmes et théories qui s’y rattachent sont d’abord apparus en physique. Débarrassé de son appareil mathématique formel, on peut définir l’ergodicité comme la propriété d’un système qui tend, aux divers sens possibles du calcul des probabilités, vers un état limite indépendant de la situation initiale. Un exemple simple d’ergodicité est fourni par le battage d’un paquet de cartes à jouer, problème qui a été étudié par H. Poincaré. Un battage peut être considéré comme une suite de permutations ; la probabilité de passage d’un état du paquet à un autre état apparaît comme une  matrice M = pij où pij est la probabilité pour qu’après une opération de battage la carte qui était à la i-ème place vient occuper la j-ème. Si M (n). satisfait à des conditions très générales, la probabilité pij pour qu’après n opérations la carte initialement à la i-ème place vient occuper la j-ième tend vers une limite w j , indépendante de i. Autrement dit la probabilité pour qu’après un battage assez long une carte occupe une place donnée est indépendante de la position qu’elle occupait initialement. C’est parce qu’ils admettent cette ergodicité que les joueurs font confiance au battage (sans tricherie) des cartes pour rétablir une situation de "hasard" avant de commencer une nouvelle partie.. 1.2. Analyse non paramétrique robuste. La robustesse d’une procédure statistique usuelle (estimation, test) est une question très importante en statistique. Elle permet de contrôler la stabilité de cette procédure relativement à la déviation du modèle et/ou des observations. Notons que ce problème a fait l’objet d’un long débat à la fin du XIX siècle, plusieurs scientifiques avaient déjà une idée relativement claire de cette notion de robustesse. En faite, le premier travail mathématique sur l’estimation robuste semble remonté en 1818 avec le travail de Laplace P. S. dans son deuxième supplément de la théorie analytique des probabilités. Plus exactement, le terme "robuste" a été introduit en 1954 par G. E. P. Box. Mais cette notion ne fut reconnue comme champ de recherche qu’au milieu des années soixante. C’est surtout avec les travaux de Huber P.J. (1964), Hampel F.R. (1971) qu’une théorie cohérente de la statistique robuste a été développée en se basant sur des critères de type min-max et 6.

(14) Liste des tableaux. utilise essentiellement des arguments de convexité. D’un autre point de vu d’autres auteurs Huber (1973 et 1981), Andrews (1974), Krasker et Welsh (1982), ont développé des méthodes automatiques d’ajustement robuste, qui ont l’avantage d’être aussi efficaces que la méthode des moindres carrés lorsqu’il n’y a pas de points aberrants, mais plus efficaces en présence d’observations atypiques ou encore lorsque la distribution de l’erreur dans le modèle suit une distribution á queues lourdes. L’estimation robuste, et en particulier l’estimation robuste de la fonction de régression est un thème ayant eu un grand intérêt en statistiques non paramétrique. Il s’agit d’un domaine dans lequel les premiers résultats furent établis au début des années soixante par Huber (1964), dont il a obtenu la consistance et la normalité asymptotique d’une classe d’estimateurs pour cette fonction. Robinson (1984), Hardle (1984) et Hardle et Tsybakov (1989) ont établi sous des conditions de mélange la normalité asymptotique d’une famille d’estimateurs à pondération issue de la méthode à noyau pour la fonction de régression. Parallèlement, Boente et Fraiman (1989, 1990) ont utilisé l’estimateur de Robinson (1984) pour étudier simultanément les deux paramètres de position et d’échelle. La consistance des estimateurs construits a été obtenue sous des conditions générales et dans les deux cas indépendants et dépendants. La convergence uniforme de l’estimateur robuste de la fonction de régression a été obtenu par Collomb et Hardle (1986), en considérant des observations ϕ-Mélangeantes. Une méthode alternative d’estimation robuste de la fonction de régression a été proposé par Fan et al. (1994). Cette méthode permet d’englober plusieurs modèles non paramétriques et de robustifier la régression classique. Laïb et Ould-Saïd (2000) ont adapté l’estimateur de Collomb et Hardle (1986) pour le modèle d’autorégression d’un processus stationnaire ergodique. Ils ont obtenu la convergence uniforme de cet estimateur même lorsque la fonction objective est non bornée. Cai et Ould-Saïd (2003) ont utilisé une version robuste de l’estimation par la méthode des polynômes locaux pour la fonction de régression Ils ont établi, sous des conditions standard et lorsque les observations sont α mélangeantes, la normalité asymptotique et la convergence presque sûre de ces estimateurs.. 7.

(15) Liste des tableaux. 1.3. Brève présentations des résultats existants.. 1.3.1 Convergence presque complète. Nous visons à généraliser les résultats de Boente et al. (2015) qui sont obtenus dans le cas i.i.d à celui ergodique. Précisément, nous prouvons la convergence uniforme presque complète du même estimateur construit dans des conditions standard permettant d’explorer différents axes structurels du sujet telles que la robustesse de la fonction de régression et la corrélation entre l’observation. Nous soulignons que, contrairement au cas habituel où le paramètre d’échelle est fixe, il doit être estimé ici, ce qui rend plus difficile l’établissement de la convergence uniforme presque complète de l’estimateur. Mais, bien que cette différence soit plus importante dans le cadre de ce travail, nous avons pu la surmonter. Modèle : Considérons un processus ergodique stationnaire fonctionnel ( X, Y ) dans F × R, où F est un espace semi-métrique. On note d la semi-métrique sur F . Pour x ∈ F , on considère une fonction réelle, mesurable, notée ψx . Le paramètre fonctionnel étudié dans cette Note, noté θ ( x ), est solution de l’équation suivante : Ψ( x, a, t) = E[ψx (. Y−a )| X = x ] = 0, σ. où σ est une mesure robuste de l’échelle conditionnelle et on suppose que cette équation admet θ ( x ) comme solution unique (voir, par exemple, Boente et Fraiman (1989)) pour des conditions suffisantes sur l’existence et l’unicité de θ ( x ). Le paramètre θ ( x ), appelé ψx −regression dans Laib et Ould-Said (2000), est une généralisation de la fonction de régression classique. En effet, il suffit de prendre ψx (t) = t pour retrouver la fonction de régression classique. Lorsque le paramètre d’échelle est inconnu, l’estimateur robuste peut être construit en suivant les deux étapes. Tout d’abord, nous estimons le paramètre d’échelle σ par la médiane locale de l’écart b MED ( x ) absolu par rapport à la médiane conditionnelle (MED), m de la distribution conditionnelle de Y donné X = x, dénotée   F (y| X = x ) = IE I(−∞,y] (Y ) | X = x , pour toute y ∈ R où I A indique la fonction de l’indicateur sur l’ensemble A. Ensuite, pour x ∈ F , l’estimateur du noyau b s( x ) de σ( x ) est le zéro de l’équation. 8.

(16) Liste des tableaux. suivante 1 Fb (s| X = x ) = , 2 où Fb (y| X = x ) est donné par n.   −1 K h d x, X I(−∞,y] (Yi ) ( ) i ∑. Fb (y| X = x ) =. i =1. n. ∑K. . h. −1. d ( x, Xi ). . ,. i =1. où K est une fonction du noyau et h = hn est une suite de nombres positifs qui va à zéro comme n va à l’infini. Ensuite, l’estimateur du noyau θb( x ), de la régression robuste θ ( x ), est le zéro, par rapport à a, de l’équation b ( x, a, b Ψ s) = 0, où. n. b ( x, a, b Ψ s) =. ∑K. . h. −1. . . d ( x, Xi ) ψx. i =1. n.  K ∑ h−1 d (x, Xi ).  Yi − a b s . . i =1. L’objectif principal est d’obtenir le taux de convergence presque complète pour x. Certains simulations ont été données pour montrer comment mettre en oeuvre notre méthodologie pour les données fonctionnelles et le comportement de notre estimateur. Hypothèses : Dans ce qui suit, x est un point fixe en F , N x désigne un voisinage fixe de x, et nous présentons les hypothèses suivantes : (H1) le processus ( Xi , Yi )i∈N satisfait : (i) La fonction φ (h) = P ( X ∈ B ( x, h)) > 0,. ∀h > 0.. (ii) ∀i ∈ 1, . . . , n il existe une fonction déterministe φi (h) tel que 0. 0 < Cφi (h) < P ( Xi ∈ B ( x, h) /Fi−1 ) ≤ C φi (h) < ∞, (iii) ∀h > 0. 1 nφ(h). ∀h > 0.. n. ∑ P (Xi ∈ B (x, h) /Fi−1 ) → 1. a.co.. i =1. (H2) ∀ ( a1 , a2 ) ∈ [θ ( x ) − δ, θ ( x ) + δ] × [θ ( x ) − δ, θ ( x ) + δ] , ∀ ( x1 , x2 ) ∈. Nx × Nx. | λ ( x1 , a1 , s ( x )) − λ ( x2 , a2 , s ( x )) |≤ Cdη1 ( x1 , x2 ) + |. a1 − a2 |η2 , η1 > 0, η2 > 0.. 9.

(17) Liste des tableaux. (H3) Pour chaque fixe a ∈ [θ ( x ) − δ, θ ( x ) + δ] , ∀ j ≥ 2, h   i h   i j j E ψx Ysi(−x)a /Bi−1 = E ψx Ysi(−x)a /Xi < δ ( x ) < Cj! < ∞, a.s. avec δ (.) continue sur SF . (H4) K est une fonction continue à support [0, 1) telle que 0. 0 < CI[0,1] (u) < K (u) < C I[0,1] (u) < +∞. (H5) Les fonctions φ et ΓSF sont tels que : 0. (i) ∃C > 0, ∃η0 > 0, ∀η < η0 , φ (η ) < C, et si K (1) = 0, la fonction φ (.) doit remplir la condition supplémentaire : Z η. ∃C > 0, ∃η0 > 0, ∀0 < η < η0 ,. 0. φ (u) du > Cηφ (η ) ,. (ii) pour n assez grand, (log(n))2 nφ(h). < Γ SF. . log(n) n. . <. nφ(h) . log(n). (H6) L’entropie de Kolmogorov de SF satisfait ∞. ∑ exp {(1 − β) ΓSF (log (n) /n)} < ∞,. for some. β > 1.. n =1. (H7) Soit SF un ensemble compact de F tel que i) pour chaque y fixe F (y| X = x ) est une fonction uniformément continue de x dans un voisinage de SF ii) la condition d’équicontinuité suivante est vérifiée :. ∀e > 0 ∃δ > 0 : | u − v |< δ =⇒ sup | x ∈ SF. F (u| X = x ) − F (v| X = x ) |< e. Lemma 1.3.1. Soit Fn (y| X = x ) une séquence de fonctions de distribution conditionnelle vérifiant sup sup | Fn (y| X = x ) − F (y| X = x ) |→ 0.. x ∈ SF y ∈R. (1.3.1). Ensuite, si F vérifie l’hypothèse (H7), il existe des constantes positives A ≤ B tel que sn ( x ) = MADc ( Fn (.| X = x )) vérifie A ≤ sn ( x ) ≤ B pour tous x ∈ SF et n ≥ n0 . Theorem 1.3.2. Supposons que (H1) − (H7) sont satisfaites ; puis θb ( x ) existe et est unique p.co. pour tout n suffisamment grand, et nous avons

(18)

(19)

(20)

(21) sup

(22) b λ ( x, a, b s ( x )) − λ ( x, a, b s ( x ))

(23) = x ∈ SF s ! Γ log n /n ( ( ) ) S F . Oa.co. (hη1 ) + Oa.co. nφ (h). 10.

(24) Liste des tableaux. 1.3.2 Normalité assymptotique Résultat : Cas des données ergodiques fonctionnelles Dans ce paragraphes, on considéres le cas où les données sont ergodiques fonctionnelles à la fois, on présente la normalité asymptotique de cet estimateur. Si la fonction objective vérifie certaines conditions de régularité, et si, la propriété de concentration de la mesure de probabilité de la variable fonctionnelle est telle que P ( X ∈ B ( x, r ) |Fi−1 ) = φ ( x, r ) avec B ( x, r ) = n 0   o 0 x ∈ F /d x, x < r , sous des hypothèses techniques assez générales on établit la normalité asymptotique de notre estimateur sur l’ensemble des x appartenant á l’ensemble. A = {z ∈ F , λ2 (z, θ (z) , σ) Γ1 (z, θ (z) , σ) 6= 0} avec, Γ1 ( x, θ ( x ) , σ) =. ∂Ψ( x,θ ( x ),σ) , ∂t.  λ2 (., t, σ) = E ψx2. Y −t σ. .  | X = . . Le ré-. sultat suivant exploite aussi bien la robustesse de notre modèle que la dimentionnalité de la variable fonctionnelle et/ou la dimensionnalité du paramètre fonctionnel. En effet, comme toute étude de la normalité asymptotique en statistique robuste, la quantité. λ2 ( x,θ ( x ),σ) (Γ1 ( x,θ ( x ),σ))2. appelée variance. asymptotique est qui apparaît dans la variance, et l’un des outils le plus importants permettant le contrôle de la robustesse. Theorem 1.3.3. Sous des hypothèses de concentration de la mesure de probabilité de la variable fonctionnelle et des conditions techniques standards le noyau et la fenêtre, on a pour tout x ∈ A,  1/2  nφ( x,h). σ2 ( x,θ ( x )).  θb ( x ) − θ ( x ) − Bn ( x ) →D N (0, 1) lorsque n → ∞. où 0. Bn ( x ) = hΦ (0, θ ( x )). β0 β1. + o (h) and σ2 ( x, θ ( x )) =. β 2 λ2 ( x,θ ( x ),σ) β21 (Γ1 ( x,θ ( x ),σ))2. avec. β0 = −. Z 1 0. 0. (sK (s)) β x (s) ds, β j = −. Z 1 0. Kj. 0. (s) β x (s) ds, pour, j = 1, 2 (1.3.2). 11.

(25) Liste des tableaux. Γ1 ( x, θ ( x ) , σ) =. ∂Ψ ( x, θ ( x ) , σ) et A = { x ∈ F , λ2 ( x, θ ( x ) , σ) Γ1 ( x, θ ( x ) , σ) 6= 0(1.3.3) } ∂t. et →D symbolise la convergence en distribution. Les épreuves des résultats auxiliaires seront présentées au chapitre 3. Résultat : Cas des données fonctionnelles Dans ce paragraphes, on considéres le cas où les données sont fonctionnelles, on présente la convergence du paramètre de l’echelle σ et la normalité asymptotique de cet estimateur. Lemma 1.3.4. Sous certaines hypothèses portant sur l’estimateur, s’il existe une constante C > 0 et une fonction" croissante φ (h) tel que #. (nφ (h))−1 E. n. ∑ Wni2 (x, X1 , ..., Xn ). ≤ C, avec Wni ( x ) =. i =1. n. Ki. ∑ Ki. , nous avons. i =1. h i n (nφ (h))1/2 ∑ Wni ( x ) ψσn (x) (Yi − θ ( x )) − ψσ (Yi − θ ( x )) → P 0 i =1. pour toute séquence σn = σn ( x ) tel que σn ( x ) → σ ( x ) = σ > 0 en probabilité. Theorem 1.3.5. Sous certaines hypothèses portant sur l’estimateur, nous aurons pour la normalité asymptotique . nφ (h) 2 σ ( x, θ ( x )). 1/2 .  θb ( x ) − θ ( x ) − Bn ( x ) −→D N (0, 1) as n −→ ∞ (1.3.4). où Bn ( x ) =. h φ(h)α1 Γ1 ( x,θ ( x ),σ). σ2. Z 1 0. 0. K (t) ϕσ,x (th) φ (th) dt + o (1) ,. ( x, θ ( x )) =. α2 λ2 ( x,θ ( x ),σ) α21 g( x )(Γ1 ( x,θ ( x ),σ))2. avec h. 0. ϕσ,x (t) = E ψx. . Y −θ ( x ) σ. . i. |d ( X, x ) = t , α j = −. Z 1 0. Kj. 0. (z) β (z) dz for. j = 1, 2.. A = {z ∈ F , g (z) λ2 (z, θ (z) , σ) Γ1 (z, θ (z) , σ) 6= 0} La démonstration et les hypothèses nécessaires de cette résultat, sont détaillées au chapitre 4. 12.

(26) Liste des tableaux. 1.4. Plan de la thèse Ce travail est présenté essentiellement en quatre chapitres et ils organisées comme suit : Le premier chapitre est consacré à le contexte bibliographique sur les données et variables fonctionnelles, données ergodiques. Puis, la présentation des résultats asymptotiques obtenus. Dans ce contexte, nous traitons la convergence et la normalité asymptotique dans le cas i.i.d. Le second chapitre, on a étudié la régression robuste dans le cas ou la variable éxplicative est fonctionnelle et les observations sont ergodique. L’objectif principal de cet travail est de prouver la convergence presque complète (avec taux) pour l’estimateur proposé. Ce résultat est obtenu sous une hypothèse processus stationaire ergodique, sans l’aide de conditions de mélange traditionnels. Le toisième chapitre traitons le problème de la normalité asymptotique d’une famille d’estimateurs robustes basée sur la méthode du noyau quand les données fonctionnels sont ergodiques stationnaires. Le quatrième chapitre traite de la normalité asymptotique pour des données fonctionnels. Nous utilisons un résultat de Attouch et al. (2010) pour établir la normalité asymptotique sous des conditions de régularités et sous l’hypothèse de concentration de la mesure de probabilité de la variable fonctionnelle sur des petites boules. Ceci nous permet d’en déduire un intervalle de confiance. Enfin, on donne une conclusion du travail effectué et nous présentons quelques perspectives présumables de nos travaux de recherche dans la fin de cette thèse.. 13.

(27) Bibliographie. [1] Aerts, M., Claeskens, G., Hens, N. and Molenberghs, G. (2002). Local multiple imputation. Biometrika regressor, 89, 375-388. [2] Attouch, M., Laksaci, A. and Ould Said E. (2009). Asymptotic distribution of robust estimator for functional nonparametric models. Comm. Statist. Theory and Methods, 45, 230-287. [3] Attouch, M., Laksaci, A. and Ould Said E. (2010). Asymptotic normality of a robust estimator of the regression function for functional time series data. J. of the Korean Statist. Soc., 39, 489-500. [4] Attouch, M., Laksaci, A. and Ould Said E. (2012). Strong uniform convergence rate of a robust estimator of the regression function for functional and dependent processes, Journal of Japan Statistical Society. [5] Azzedine, N., Laksaci, A. and Ould-Said, E. (2008). On the robust nonparametric regression estimation for functional regressor. Statistics & Probability Letters, 78, 3216-3221. [6] Boente, G., Fraiman, R. (1989). Robust nonparametric regression estimation for dependent observations. Ann. Statst., 17, 1242-1256. [7] Boente, G., Fraiman, R. (1991). Strong order of convergence and asymptotic distribution of nearest neighbor density estimates from dependent observations. Sankhya¨ : The Indian Journal of Statistics, 53, 194-205. [8] Boente, G., Rodriguez, D. (2006). Robust estimators of high order derivatives of regression function. Statist. Probab. Lett., 7, 1335-1344. [9] Boente, G., Vahnovan, A. (2015). Strong convergence of robust equivariant nonparametric functional regression estimators. Statistic and Probability Letters, 100, 1-11.. 14.

(28) Bibliographie. [10] Gheriballah, A. Laksaci, A. and Sekkal, S. (2013). Nonparametric Mregression for functional ergodic data. Statistics and Probability Letters, 83, 902-908. [11] Huber, P.J.(1964). Robust estimation of a location parameter. Annals of Mathematical Statistics, 35, 73-101. [12] Laib, N. and Louani, D. (2010). Nonparametric kernel regression estimation for functional stationary ergodic data : Asymptotic properties. Journal of Multivariate Analysis, 101, 2266-2281. [13] Laib, N. and Louani D. (2011). Rates of strong consistencies of the regression function estimator for functional stationary ergodic data. J. Statist. Plann. Inference, 141, 359-372. [14] Laib, N. and Ould-Said, E. (2000). A robust nonparametric estimation of the autoregression function under ergodic hypothesis. Canad. J. Statist., 28, 817-828. [15] Stone, C. (1977). Consistent nonparametric regression. Ann. Stat. 5, 595-645.. 15.

(29) Robust equivariant. 2. nonparametric regression estimators for functional ergodic data. Ce chapitre fait l’objet d’une publication dans le Journal Theory and Methods.. 16.

(30) Bibliographie. Sommaire 2.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 18. 2.2. Basic definitions and notation . . . . . . . . . . . . . . . . .. 20. 2.2.1. Kolmogorov’s entropy . . . . . . . . . . . . . . . . . . . . .. 20. 2.2.2. Conditional cumulative distribution . . . . . . . . . . . . .. 20. 2.3. The robust equivariant estimators and its related functional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 21. 2.4. Main Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 22. 2.5. A simulation study . . . . . . . . . . . . . . . . . . . . . . . . .. 25. 2.6. Appendix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 27. 17.

(31) Bibliographie. Robust equivariant nonparametric regression estimators for functional ergodic data Ibrahim Almanjahie 1 , Mohammed Kadi Attouch 2 Zoulikha Kaid 3 et Hayat Louhab 4. 2 auteur. Correspondant : Department of Mathematics, Colleg of Science,. King Khalid University, PO. Box 9004, Abha, Saudi Arabia. attou_kadi@yahoo.fr 1,3. Department of Mathematics, Colleg of Science, King Khalid. University, PO. Box 9004, Abha, Saudi Arabia. 4 Laboratoire de Statistique et Processus Stochastiques, Université Djillali Liabes, Sidi Bel Abbes( ou ˙ hayatlouhab@yahoo.fr). Abstract This paper deals with the equivariant nonparametric robust regression estimation for stationary ergodic processes valued in F × R, where F is a semi-metric space. We consider a new robust regression estimator when the scale parameter is unknown. The principal aim is to prove the almost complete convergence (with rate) for the proposed estimator. Unlike in standard multivariate cases, the gap between pointwise and uniform results is not immediate. So, suitable topological considerations are needed, implying changes in the rates of convergence which are quantified by entropy considerations. keywords Functional data ; Ergodic data ; Scale parameter ; Kernel estimate ; Almost complete convergence ; Entropy.. 2.1. Introduction A common problem in statistics is to study the relationship between a random variable Y and a set of covariates X. These variables are usually called functional variables in the literature. Recall that the robustification 18.

(32) Bibliographie. method is an old topic in statistics. This latter was investigated first by Huber (1964) who studied an estimation of a location parameter (see also Collomb and Härdle (1986), Laïb and Ould-Saïd (2000) for some results including the multivariate time series case under a mixing or an ergodic condition). Motivated by its flexibility when data are affected by outliers, the robust regression was widely studied in nonparametric functional statistics. Indeed, It was firstly introduced by Azzedine et al. (2008) who proved the almost-complete convergence of this model in the independent and identically distributed (i.i.d.) case. Since this work, several results on the nonparametric robust functional regression were realized (see, for instance, Crambes et al. (2008), Chen and Zhang (2009), Attouch et al. (2009, 2010 and 2012), Gheriballah et al. (2013), Boente et al. (2015) and references therein for some key references on this topic). Notice that all these results are obtained when the scale parameter is fixed. In this paper, we consider the more general case when the scale parameter is unknown and data come from an ergodic functional time series. It should be noticed that the ergodicity hypothesis is less restrictive than the mixing condition which is usually assumed in functional time series studies. The literature on ergodic functional time series data is still limited and the few existing results are due to Laïb and Louani (2010 and 2011), Gheriballah et al. (2013, and 2014), Benziadi et al. (2014 and 2015) and references therein. Then, we aim to generalize results of Boente et al. (2015) which are obtained in the i.i.d case to the ergodic one. Precisely, we prove the uniform almost complete convergence of the same constructed estimator under standard conditions allowing to explore different structural axes of the topic. We emphasize that, contrary to the usual case where the scale parameter is fixed, it must be estimated here, which makes it more difficult to establish the uniform almost complete convergence of the estimator. But, although this difference is more important in the context of this work, we have been able to overcome it. The outline of this paper is as follows : In section 2.2, we state our basic definitions and notation. Section 2.3 is devoted to the presentation of the robust estimator. Then, the main results are given in section 2.4. A simulation study is given in Section 2.5. The proofs of the auxiliary. 19.

(33) Bibliographie. results are relegated to the Appendix. Finally, the interpretations and some research documents are given in the last section.. 2.2. Basic definitions and notation. 2.2.1 Kolmogorov’s entropy The purpose of this subsection is to emphasize the topological components of our study. Indeed, as indicated in Ferraty and Vieu (2006), all the asymptotic results in nonparametric statistics for functional variables are closely related to the concentration properties of the probability measure of the functional variable X. Here, we have moreover to take into account the uniformity aspect. Definition 2.2.1. Let S be a subset of a semi-metric space F , and let e > 0 be given. A finite set of points x1 , x2 , . . . , xn in F is called an e-net for S if S ⊂ ∪nk=1 B ( xk , e) . The quantity ΓSF (e) = log ( Ne (SF )) , where Ne (SF ) is the minimal number of open balls in F of radius e which is necessary to cover S, is called Kolmogorov’s e−entropy of the set S. This concept was introduced by Kolmogorov in the mid-1950’s (see, Kolmogorov and Tikhomirov, 1959) and it represents a measure of the complexity of a set, in sense that, high entropy means that much information is needed to describe an element with an accuracy e. Therefore, the choice of the topological structure (with other words, the choice of the semi-metric) will play a crucial role when one is looking at uniform (over S) asymptotic results. More precisely, a good semi-metric can increase the concentration of the probability measure of the functional variable X as well as minimize the e-entropy of the subset SF .. 2.2.2 Conditional cumulative distribution The conditional cumulative distribution function of Y given X = x is defined, for each x ∈ F , as F (y| X = x ) = FXY ( x, y) = P (Y ≤ y| X = x ) , for any y ∈ R. As in Ferraty et al. (2010), we will assume that there is a regular version of the conditional distribution.   Noting that F (y| X = x ) = E I(−∞,y] (Y ) | X = x , an estimator Fb (Y ≤ y| X = x ) of F (Y ≤ y| X = x ) can be defined as. 20.

(34) Bibliographie. Fb (y| X = x ) =. n. n. i =1. i =1. ∑ Ki ( x ) ∑ Ki ( x ). ! −1 I(−∞,y] (Yi ) ,. (2.2.1). where Ki ( x ) = K (d ( x, Xi ) /h). The estimate of the conditional cumulative distribution function has been investigated, in the real case, by several authors (see, Roussas, 1969, Samanta, 1989, among others). In the functional case, Ferraty et al. (2006) established the almost complete convergence of a double kernel estimator of the conditional cumulative distribution function.. 2.3. The robust equivariant estimators and its related functional In this Section, we consider the problem of the estimation of a generalized regression function defined as follows :. . λ ( x, a, σ ( x )) = E ψx. . Yi − a σ (x). .  /Xi = x ,. (2.3.2). where ψx is a real-valued function, We denote by θ ( x ) the unique solution of λ ( x, a, s ( x )) = 0 where s ( x ) is a robust measure of the conditional scale. When ψx is an strictly increasing function, the unique solution of. (2.3.2) is the so-called robust conditional location functional (see, Boente and Fraiman, 1989). The conditional scale measure can be taken as the conditional median of the absolute deviation from the conditional median, that is, s ( x ) = MED (|Y − m ( x ) |/X = x ) = MADc ( FYx (.)) ,. (2.3.3). where m ( x ) = MED (Y/X = x ) is the median of the conditional distribution. On the other hand, not that s ( x ) which corresponds to a robust measure of the conditional scale, usually equals σ ( x ) . To obtain estimators of θ ( x ) we plug-into (2.2.1) an estimator of FYx (y) , wich will be taken as Fb (y| X = x ) . Denote by b s ( x ) a robust estimator of. 21.

(35) Bibliographie.   the conditional scale, for instance, b s ( x ) = MADC Fb (.| X = x ) , the scale measure defined in (2.3.3) evaluated in Fb (y| X = x ) . With this notation, the robust nonparametric estimator of θ ( x ) is given by the solution θb ( x ) of b λ ( x, a, b s ( x )) = 0, where. n. ∑ Ki ( x ) ψx. b λ ( x, a, b s ( x )) =. . i =1. Yi − a b s (x).  .. n. (2.3.4). ∑ Ki ( x ). i =1. 2.4. Main Results Our aim is to establish the uniform almost complete (a.co.) 5 conver0 λ on some subset SF of F . To do that we denote by C and C gence of b some real generic constants supposed strictly positive and we assume that (H1) The processes ( Xi , Yi )i∈N satisfies : (i) The function φ (h) = P ( X ∈ B ( x, h)) > 0,. ∀h > 0.. (ii) ∀i ∈ 1, . . . , n there exists a deterministic function φi (h) such that 0. 0 < Cφi (h) < P ( Xi ∈ B ( x, h) /Fi−1 ) ≤ C φi (h) < ∞, (iii) For all h > 0. 1 nφ(h). ∀h > 0.. n. ∑ P (Xi ∈ B (x, h) /Fi−1 ) → 1. a.co.. i =1. (H2) ∀ ( a1 , a2 ) ∈ [θ ( x ) − δ, θ ( x ) + δ] × [θ ( x ) − δ, θ ( x ) + δ] , ∀ ( x1 , x2 ) ∈. Nx × Nx. | λ ( x1 , a1 , s ( x )) − λ ( x2 , a2 , s ( x )) |≤ Cdη1 ( x1 , x2 ) + |. a1 − a2 |η2 , η1 > 0, η2 > 0. h   i j (H3) For each fixed a ∈ [θ ( x ) − δ, θ ( x ) + δ] , ∀ j ≥ 2, E ψx Ysi(−x)a /Bi−1 =  h  i j E ψx Ysi(−x)a /Xi < δ ( x ) < Cj! < ∞, a.s. with δ (.) continuous on SF . (H4) K is a function with support [0, 1) such that 0. 0 < CI[0,1] (u) < K (u) < C I[0,1] (u) < +∞. (H5) The functions φ and ΓSF are such that : 5. Let (zn )n∈N be a sequence of real r.v.’s ; we say that zn converges almost completely (a.co.) to zero if, and only if, ∀e > 0, ∑∞ n=1 P (| zn | > e ) < ∞. Moreover, we say that the rate of almost complete convergence of zn to zero is of order un (with un → 0) and we write zn = Oa.co. (un ) if, and only if, ∃e > 0, ∑∞ n=1 P (| zn | > eun ) < ∞. This kind of convergence implies both almost sure convergence and convergence in probability.. 22.

(36) Bibliographie. 0. (i) ∃C > 0, ∃η0 > 0, ∀η < η0 , φ (η ) < C, and if K (1) = 0, the function φ (.) has to fulfill the additional condition : Z η. ∃C > 0, ∃η0 > 0, ∀0 < η < η0 ,. 0. φ (u) du > Cηφ (η ) ,. (ii) for n large enough, (log(n))2 nφ(h). < Γ SF. . log(n) n. . <. nφ(h) . log(n). (H6) The Kolmogorov’s e−entropy of SF satisfies ∞. ∑ exp {(1 − β) ΓSF (log (n) /n)} < ∞,. for some. β > 1.. n =1. (H7) Let SF be a compact set of F such that i) for each y fixed F (y| X = x ) is a uniformly continuous function of x in a neighborhood of SF ii) the following equicontinuity condition holds :. ∀e > 0 ∃δ > 0 : | u − v |< δ =⇒ sup | x ∈ SF. F (u| X = x ) − F (v| X = x ) |< e. Comments on the hypotheses Our assumptions are fairly mild in this context of nonparametric statistics in functional time series. On the ergodicity of functional data : The latter is exploited together with condition (H1) which is less restrictive than conditions imposed by Laib and Louani (2011) because, here, it is not necessary to write the concentration function P ( Xi ∈ B ( x, r )) and the conditional concentration function P ( Xi ∈ B ( x, r ) |Fi−1 ) as products of two independent nonnegative functions of the center and of the radius. Conditions (H2) − (H4) are very standard in the nonparametric setting. Concerning (H5)(i), the boundness of the derivative of φ around zero allows to consider φ as a Lipschitzian function. Hypothesis (H5)(ii) deals with topological considerations by controlling the entropy of SF . For a   logn radius not too large, one requires that ΓSF is not too small and n   logn not too large. Moreover, (H5)(ii) implies that ΓSF / (nφ (h)) tends n to 0 when n tends to +∞. In a different way, Assumption (H6) acts on Kolmogorov’s e−entropy of SF . Assumption (H7)(i) implies that there exists real numbers a, b such that, for all x ∈ SF , F (b| X = x ) > 1 − e and F ( a| X = x ) < e which will be used to show that s ( x ) = MADC ( FYx (.)) is bounded and bounded away from 0 for any x ∈ SF .. 23.

(37) Bibliographie. Lemma 2.4.1. Let Fn (y| X = x ) be a sequence of conditional distribution functions verifying sup sup | Fn (y| X = x ) − F (y| X = x ) |→ 0.. (2.4.5). x ∈ SF y ∈R. Then, if F verifies Assumption (H7), there exist positive constants A ≤ B such that sn ( x ) = MADc ( Fn (.| X = x )) verifies A ≤ sn ( x ) ≤ B for all x ∈ SF compact and n ≥ n0 . Theorem 2.4.2. Under the hypotheses (H1) − (H6), we have s

(38)

(39)

(40)

(41) sup

(42) b λ ( x, a, b s ( x )) − λ ( x, a, b s ( x ))

(43) = Oa.co. (hη1 ) + Oa.co.. x ∈ SF. ΓSF (log (n) /n) nφ (h). ! .. Démonstration. (Proof of Theorem 2.4.2) We consider the decomposition : h i b b λ ( x, a, b s ( x )) − λ ( x, a, b s ( x )) = 1 λ N ( x, a, b s ( x )) − λ¯ N ( x, a, b s ( x )) b λD (x). +. i λ ( x, a, b  h s ( x )) λD (x) λ¯ N ( x, a, b s ( x )) − λ ( x, a, b s ( x )) + 1 − b (2.4.6) , b b λD (x) λD (x) 1. . where   n 1 −1 d x, X K h , ( ) i ∑ nE [K (h−1 d ( x, X1 ))] i=1 h  i n 1 F i −1 −1 d x, X E K h , λ¯ D ( x ) := ( ) i nE [K (h−1 d ( x, X1 ))] i∑ =1   Y − a n 1 i −1 b K h d ( x, Xi ) ψx λ N ( x, a, b s ( x )) := , b s nE [K (h−1 d ( x, X1 ))] i∑ (x) =1     Y − a  n 1 i F i −1 −1 ¯λ N ( x, a, b s ( x )) := E K h d ( x, Xi ) ψx . b s nE [K (h−1 d ( x, X1 ))] i∑ (x) =1 b λ D ( x ) :=. Therefore, Theorem 2.4.2 is a consequence of the following intermediate results. Lemma 2.4.3. Under hypotheses (H1) and (H4)-(H6), we have s

(44)

(45)

(46)

(47) sup

(48) b λ D ( x ) − 1

(49) = Oa.co.. x ∈ SF. Corollary 2.4.4. ΓSF (log (n) /n) nφ (h). ! .. Under the hypotheses of Lemma 2.4.3, we have ∞. ∑. n =1. P. . 1 inf b λD (x) < 2 x ∈ SF. . < ∞.. 24.

(50) Bibliographie. Lemma 2.4.5. Under the hypotheses (H1), (H2) and (H4)-(H6), we have

(51)

(52) sup

(53) λ¯ N ( x, a, b s ( x )) − λ ( x, a, b s ( x ))

(54) = O (hη1 ) .. x ∈ SF. Lemma 2.4.6. Under the assumptions of Theorem 2.4.2, we have s

(55)

(56)

(57)

(58) sup

(59) b λ N ( x, a, b s ( x )) − λ¯ N ( x, a, b s ( x ))

(60) = O. x ∈ SF. 2.5. ΓSF (log (n) /n) nφ (h). ! a.co.. A simulation study In this short section we present the results of a simulation study of evaluating the finite sample performance of the proposed procedure. More precisely, our main aim is to compare the robust regression with scale parameter and without scale parameter. To do that, we consider the following functional nonparametric model : Yi = r ( Xi ) + ei. f or. i = 1, ..., n,. where the ei ’ s are generated independently according to a normal distribution with mean 0. Let us now describe how our functional ergodic data are generated. Firstly, We use the R-routine simul.far of far package in R to generate the functional explanatory variables ( Xi )i=1,...,n . This routine simulates a functional autoregressive process white Wiener noise. For this simulation experiments, we have considered sinusoidal basis, with five functional axis, of the continuous functions from [0, 1] to R. Recall that, it is shown in Laib and Louani (2011) that this kind of process satisfies the ergodicity condition. The curves Xi ’s are discretized in the same grid composed by 100 points and are plotted in Figure 2.1. Secondly, the scalar response Yi is computed by considering the following operator : r (x) = 5. Z 1 0. exp { x (t)} dt.. It is clear that, the conditional distribution of Y given X = x is explicitly given by the distribution of ei shifted by r ( x ) , which permits to. 25.

(61) Bibliographie. Figure 2.1 – A sample of 100 curves, for dρ = (0.45, 0.90, 0.34, 0.45). determine the theoretical conditional mode θ ( x ) . The efficiency of the predictors is evaluated by the empirical mean square error : n. MSE ( X ) = n−1 ∑ θ ( Xi ) − θ˜ ( Xi ) i =1 n. MSE ( X, b s) =. n −1. . . ∑. . 2. θ ( Xi ) − θb ( Xi ). 2. i =1. where n. θb ( x ) =. ∑. i =1. K. . d( x,Xi ) h  n. ∑K. i =1.  ψx. Yi − a b s( x ). d ( x, Xi ) h. . and θ˜ ( x ) =. n. ∑. i =1. K. . d( x,Xi ) h. n. ∑K. i =1. . . ψx (Yi , a)  . d ( x, Xi ) h. For this comparison study, we treat both estimators in the same conditions. Now, in order to explore the two structural axes of our study, such as the correlation of data and the robustness of the estimate, we compare the performance of both estimates with various values of n and various parameters of the functional autoregressive Xi . Typically, we consider three values of n. (n = 100, n = 200 and n = 500) and three matrix dρ =. (0.45, 0.90, 0.34, 0.45), dρ = (0.22, 0.45, 0.17, 0.22), dρ (0.90, 1.80, 0.68, 0.90). We emphasize that, the results of our simulation study are evaluated over 60 independent replications. We note, MSEH ( X ) when using the robust function "Huber" and MSE A ( X ) when using the robust function "Andrew", in both cases we realized our work without a robust estimator of the scale parameter. On 26.

(62) Bibliographie. s) when using the robust the other hand, the MSEH ( X, b s) and MSE A ( X, b functions "Huber" and "Andrew" respectively withe a robust estimator of the scale parameter. The most significant results are gathered in the table "2.1".. dρ (0.22, 0.45, 0.17, 0.22) k ρ k= 0.19. (0.45, 0.90, 0.34, 0.45) k ρ k= 0.31. (0.90, 1.80, 0.68, 0.90) k ρ k= 0.59. n. MSEH ( X ). MSEH ( X, b s). MSE A ( X ). MSE A ( X, b s). n = 100 n = 200 n = 500. 0.16 0.19 0.23. 0.10 0.14 0.21. 0.17 0.20 0.23. 0.11 0.16 0.20. n = 100 n = 200 n = 500. 0.31 0.37 0.40. 0.25 0.30 0.39. 0.28 0.30 0.35. 0.23 0.26 0.30. n = 100 n = 200 n = 500. 0.45 0.47 0.56. 0.41 0.46 0.50. 0.39 0.42 0.45. 0.35 0.39 0.41. Table 2.1 – MSE Results.. It is clear that the performance of the two estimates is closely related to the degree of correlation expressed by k ρ k. In sense that the values of MSE increases significantly with respect to the value of k ρ k. Moreover, the most important result in this paper is that the robust scale parameter gives better results than the robust without scale parameter.. 2.6. Appendix The proof of Lemma 2.4.1 is very close to that of Lemma A.4. in Boente et al. (2015). According to (H1) and (H4), it is clear that if K (1) > C > 0,. ∀ x ∈ SF ,. 0. ∃0 < C < C < ∞,. 0. Cφ (h) < EFi−1 [K1 ( x )] < C φ (h) . (2.6.7). In the situation when K (1) = 0, the combination of (H1) and (H5)(i) allows to get the same result. From now on, in order to simplify the notation, we set e =. log n n .. Proof of Lemma 2.4.3. Let x1 , . . . , x Ne (SF ) be an e−net for SF and for. 27.

(63) Bibliographie. all x ∈ SF , one sets k ( x ) = arg. min. k∈{1,...,Ne (SF )}. d ( x, xk ) . One considers the. following decomposition :.

(64)

(65)

(66) b

(67) ¯ sup

(68) λ D ( x ) − λ D ( x )

(69) ≤ sup. x ∈ SF. x ∈ SF.

(70)  

(71)

(72)

(73) b b

(74) λ D ( x ) − λ D xk(x)

(75) + sup. x ∈ SF. |. {z. |. }. F1.

(76)    

(77)

(78)

(79) b ¯

(80) λ D xk( x) − λ D xk( x)

(81) {z. }. F2.

(82) 

(83) 

(84)

(85) + sup

(86) λ¯ D xk(x) − λ¯ D ( x )

(87) . x ∈ SF. |. {z. }. F3. • Let us study F1 . By using (2.6.7) and the boundness of K, one can write

(88)

(89)

(90)

(91)  

(92)

(93) 1 1 1

(94) h  i Ki ( x ) − Ki xk(x)

(95)

(96) F1 ≤ sup ∑

(97)

(98) x ∈SF n i =1

(99) E [ K1 ( x )] E K1 x k ( x )  

(100) C 1 n

(101)

(102)

(103) ≤ sup ∑

(104) Ki ( x ) − Ki xk(x)

(105) IB(x,h)∪ B( x ,h) ( Xi ) . k( x) φ ( h ) x ∈ SF n i =1 n. Let us first consider the case K (1) = 0. Because K is Lipschitz on. [0, 1] in this case, it comes C n with F1 ≤ sup ∑ Zi x ∈ SF n i =1 with, uniformly on x, Z1 = O. . e hφ(h). . ,. E [ Z1 ] = O. Zi =. e h. . e I hφ(h) B( x,h)∪ B( xk( x) ,h). ( Xi ) ,. . e2 h2 φ ( h ). Var ( Z1 ) = O. and. . .. A standard inequality for sums of bounded random variables with (H5)(ii) allows to get F1 = O. e h. . + Oa.co.  q e h. log n nφ(h). . ,. and it suffices to combine (H5)(i) and (H5)(ii) to get s F1 = Oa.co. Γ SF ( e ) nφ (h). ! .. Now, let K (1) > C > 0. In this situation K is Lipschitz on [0, 1) .. 28.

(106) Bibliographie. One has to decompose F1 into three terms as follows : F1 ≤ C sup ( F11 + F12 + F13 ) , x ∈ SF. with. F11 =.  

(107) n

(108) 1

(109)

(110)

(111) Ki ( x ) − Ki xk(x)

(112) IB(x,h)∩ B( xk(x) ,h) ( Xi ) , ∑ nφ (h) i=1. n 1 Ki ( x ) IB(x,h)∩ B¯ ( x ,h) ( Xi ) , k( x) nφ (h) i∑ =1   n 1 K x F13 = i k ( x ) I B¯ ( x,h)∩ B( xk( x) ,h) ( Xi ) . nφ (h) i∑ =1. F12 =. One can follow the same steps (i.e. case K (1) = 0) for studing F11 and one gets the same result : s F11 = Oa.co.. Γ SF ( e ) nφ (h). ! .. Following same ideas for studing F12 , one can write F12 ≤. C n. n. ∑ Wi. Wi =. with. i =1. 1 I φ(h) B( x,h)∩ B¯ ( xk( x) h). ( Xi ) ,. and by using again (H5)(i) and the same inequality for sums of bounded random variables, one hase  F12 = O. e φ (h). s. . + Oa.co. e log n nφ (h)2. ! .. Similarly, one can state the same rate of convergence for F13 . To end the study of F1 , it suffices to put together all the intermediate results and to use (H5)(ii) for getting s F1 = Oa.co. Γ SF ( e ) nφ (h). ! .. • Now, concerning F! 2 , we have, for all η > 0, r ΓS (e) P F2 > η nφF(h). 29.

(113) Bibliographie. s. ! Γ SF ( e ) =P max nφ (h) k ∈{1,...,Ne (SF )} s !

(114)

(115) e Γ ( )

(116) b

(117) S F . max P

(118) λ D ( xk ) − λ¯ D ( xk )

(119) > η ≤ Ne (SF ) nφ (h) k ∈{1,...,Ne (SF )}

(120)

(121)

(122) b

(123)

(124) λ D ( xk ) − λ¯ D ( xk )

(125) > η. b λ D ( xk ) − λ¯ D ( xk ) =. n 1 i ∑ Λki ( xk ) , h  d( x,X1 ) nE K i =1 h. with Λki ( xk ) = Ki ( xk ) − EFi−1 [Ki ( xk )] . Using the fact that Λki ( xk ) is a trinagular array of martingale differences according to the σ-fields (Fi−1 )i to apply the inequality of Lemma 1 in Laib and Louani (2011). To do that, we must evaluate   p the quantity EFi−1 Λki ( x ) . Indeed, under (H1) and (H4) we have, for p ≥ 2.     p EFi−1 Λki ( x ) < CEFi−1 Λ2ki ( x )   ≤ CEFi−1 Ki2 ( x ). < CP ( Xi ∈ B ( x, h) |Fi−1 ) ≤ Cφi (h) . Hence, s

(126)

(127)

(128)

(129) P

(130) b λ D ( xk ) − λ¯ D ( xk )

(131) > η. Γ SF ( e ) nφ (h). !. s

(132)

(133) !

(134)

(135) n Γ SF ( e ) 1

(136)

(137) =P

(138) Λki

(139) > η

(140) n

(141) i∑ nφ (h) =1 . ≤ 2 exp −Cη 2 ΓSF (e) .. Thus, by using the fact that ΓSF (e) = log Ne (SF ) and by choosing η such that Cη 2 = β, we have s Ne (SF ). max. k ∈{1,...,Ne (SF )} ∞. Because.

(142)

(143)

(144)

(145) P

(146) b λ D ( xk ) − λ¯ D ( xk )

(147) > η. Γ SF ( e ) nφ (h). ∑ Ne (SF )1−β < ∞, we obtain that F2 = Oa.co. n =1. !. r. 0. ≤ C Ne (SF )1− β . (2.6.8) !. Γ SF ( e ) nφ(h). .. 30.

(148) Bibliographie. • For F3 , it is clear that F3 ≤. E F i −1.

(149)

(150)

(151)

(152) sup

(153) b λD (x) − b λ D ( xk )

(154). ! and by. x ∈ SF. following a similar proof to the one used for studying F1 , it comes s F3 = Oa.co. Γ SF ( e ) nφ (h). ! .. Proof of Corollary 2.4.4. It is easy to see that

(155)

(156) 1

(157) b

(158) x ⇒ ∃ x ∈ SF such that 1 − b λD (x) ≥ inf

(159) λ ( )

(160) ≤ D 2 x ∈ SF

(161)

(162) 1

(163)

(164) sup

(165) 1 − b λ D ( x )

(166) ≥ . 2 x ∈ SF We deduce from Lemma 4.4.1 that . 

(167)

(168) 1

(169)

(170) b ≤P P inf

(171) λ D ( x )

(172) ≤ 2 x ∈ SF Consequently,. ∞. ∑. n =1. P. .

(173)

(174) 1

(175)

(176) sup

(177) 1 − b λ D ( x )

(178) ≥ 2 x ∈ SF. 1 2. ⇒. ! .. 

(179)

(180) 1

(181) b

(182) inf

(183) λ x ≤ < ∞. ( )

(184) D 2 x ∈ SF. Proof of Lemma 2.4.5. One has

(185)

(186)

(187) λ¯ N ( x, a, b s ( x )) − λ ( x, a, b s ( x ))

(188).

(189)

(190) "  #

(191)

(192) n 1 Yi − a

(193)

(194) F i −1 b E K =

(195) x ψ − λ x, a, s x ( ) ( ( ))

(196) x ∑ i

(197) nE [K1 ( x )]

Références

Documents relatifs

To this end, we propose in Section 5 a functional version of the wild bootstrap procedure, and we use it, both on simulated and on real functional datasets, to get some automatic

A late phase II clinical study of RP56976 (docetaxel) in patients with advanced or recurrent gastric cancer: a Cooperative Study Group trial (group B). Roth AD, Maibach R, Martinelli

In this work we consider the problem of statistical analysis of time series, when nothing is known about the underlying process generating the data, except that it is

L’analyse de sensibilit´e globale se propose de s´electionner les param`etres d’entr´ee dont l’incertitude a le plus d’impact sur la variabi- lit´e d’une

The paper considers the problem of robust estimating a periodic function in a continuous time regression model with dependent dis- turbances given by a general square

Inspired both by the advances about the Lepski methods (Goldenshluger and Lepski, 2011) and model selection, Chagny and Roche (2014) investigate a global bandwidth selection method

In this case we chose the weight coefficients on the basis of the model selection procedure proposed in [14] for the general semi-martingale regression model in continuous time..

Sous l’hypothèse d’indépendance entre variables, les valeurs propres (non triviales) résultant de l’Analyse des Correspondances Multiples sont théoriquement toutes