• Aucun résultat trouvé

Étude de la Convergence Presque Complète des Estimateurs à Noyaux pour les Fonctions de Densité et de Régression

N/A
N/A
Protected

Academic year: 2021

Partager "Étude de la Convergence Presque Complète des Estimateurs à Noyaux pour les Fonctions de Densité et de Régression"

Copied!
67
0
0

Texte intégral

(1)

Université Mohammed Seddik Ben Yahia - Jijel

Faculté des Sciences Exactes et Informatique Département de Mathématiques

№ d’ordre : ...

№ de séries : ...

Mémoire de fin d’études

Présenté pour l’obtention du diplôme de

Master

Spécialité : Mathématiques.

Option : Probabilités et Statistique.

Thème

Étude de la Convergence Presque Complète des Estimateurs à Noyaux pour les

Fonctions de Densité et de Régression

Le : 08/07/2019 Présenté par :

- Boukahoul Hassina.

– Sioual Rima.

Devant le jury :

Président : Chraitia Hassan M. C. B Université de Jijel Encadreur : Madi Meriem M. A. A Université de Jijel Examinateur : Gherda Mebrouk M. A .A Université de Jijel

Promotion 2018/2019

(2)

Introduction vi

1 Estimation non paramétrique 1

1.1 Estimation de la fonction de répartition . . . . 2

1.1.1 Estimation par la fonction de répartition empirique . . . . 2

1.1.2 Estimation à noyau de la fonction de répartition . . . . 5

1.2 Estimation de la densité . . . . 8

1.2.1 Histogramme . . . . 8

1.2.2 Estimateur simple . . . 10

1.2.3 Méthode du noyau . . . 12

1.2.4 Estimation de la densité de probabilité par un système trigonomé- trique . . . 14

1.3 Estimation de la fonction de régression . . . 17

1.3.1 Estimateurs à noyau de la fonction de régression . . . 18

1.3.2 La méthode des k-plus proches voisins . . . 24

1.3.3 la méthode des polynômes locaux . . . 27

2 la convergence presque complète des estimateur à noyaux 29 2.1 Définitions et propriétés . . . 29

2

(3)

2.1.1 Liens entre la convergence complète et la convergence presque sure

et en probabilité . . . 30

2.1.2 Taux de convergence . . . 32

2.1.3 Opération de calcul . . . 33

2.2 Exemples . . . 36

2.3 Convergence presque complète de l’estimateur de la fonction de répartition 37 2.4 Convergence presque complète de l’estimateur de la densité . . . 40 2.5 Convergence presque complète de l’estimateur de la fonction de régression . 46

Conclusion 55

Bibliographie 56

(4)

N ous remercions le Dieu pour le courage, la patience et la volonté qui nous ont été utiles tout au long de notre parcours.

N ous tenons à remercier M

me

M. Madi pour la proposition du thème, l’encadrement de ce travail, pour ses précieux conseils et orientations.

N ous remercions également les membres du jury M

r

M. Gharda & M

r

H. Chraitia pour avoir accepté d’examiner et d’évaluer notre travail.

N os sincères remerciements s’adressent enfin à tous ceux qui nous ont soutenu de près ou de loin.

Hassina & Rima

(5)

Je dédie ce travail : A `

mes très chers parents . Vous vous êtes dépensés pour moi sans compter. En reconnais- sance de tous les sacrifices consentis par vous, pour me permettre d’atteindre cette étape de ma vie, vous avez toute ma tendresse.

A `

mes frères et sœurs : Mohammed , yacine , Hicham , Hanane , Nassima , Siham , Kha- didja Pour votre profonde passion et soutien tout au long de mes études. Affectueuse reconnaissance.

A `

Les enfants de mes frères et Les enfants de mes sœurs qui leur souhaitent une carrière d’apprentissage réussie.

A `

mes amis : Najiba , Iman , Rania , Ghada , Hafida , Amina , Karima ceux avec qui j’ai parcouru un long chemin avec tant de peine et de joie, inquiétude et espoir.

A `

mon ami proche Ammar pour son soutien continu et ses conseils.

tous ceux dont les noms n’y figurent pas pour une raison ou une autre trouve l’expression de ma profonde gratitude.

Hassina

(6)

Je dédie ce travail :

A ` ceux qui m’ont tout donné sans rien en retour A ceux qui m’ont encouragée et soutenue dans les moments les plus difficiles A vous mes chers parents , le plus beau cadeau que Dieu puissent faire à un enfant, pour leur amour et leur support continu. Que ce travail soit le témoignage sincère et affectueux de ma profonde reconnaissance pour tout ce que vous avez fait pour moi.

A ` mes chers grands-parents et grand-mères.

A ` mes chers frères tadjdinne et hichame . A ` mes soeurs Nadjma , Zineb et Afaf . A ` mon mari Ishak et sa famille.

A ` tous les membres de ma famille, en particulier mes oncles A ` mon ami Newal , que a toujours été avec moi.

A ` tous mes amis et collègues.

Rima

(7)

La théorie de l’estimation est une des branches les plus basiques de la statistique. Cette théorie est habituellement divisée en deux composantes principales, à savoir, l’estimation paramétrique et l’estimation non paramétrique. Le problème de l’estimation non para- métrique consiste, dans la majeur partie des cas, à estimer, à partir des observations, une fonction inconnue, élément d’une certaine classe fonctionnelle. Plus particulièrement, on parle d’estimation non paramétrique lorsque celle-ci ne se ramène pas à l’estimation d’un nombre fini de paramètres réels associés à la loi de l’échantillon. Un des plus vieux problèmes de la statistique non paramétrique consiste à estimer la densité é de proba- bilité f (.) , la fonction de répartition F (.) et la régression r(.) à partir d’un échantillon des variables aléatoires indépendantes et identiquement distribuées X

1

, X

2

, ..., X

n

. Il s’agit d’un problème fondamental qui a connu, durant ces dernières années, des développements théoriques et pratiques à la fois rapides et nombreux. Le problème de l’estimation de la densité de probabilité, la fonction de répartition et la fonction de régression est important pour plusieurs raisons :

1. La densité de probabilité permet d’avoir un aperçue très rapide des principales caractéristiques de la distribution (pics, creux, symétries,...), ce qui explique le volume important de littérature qui lui est consacré.

2. C’est en terme de comportement local de la fonction de répartition que s’explique plus facilement le comportement des estimateurs fonctionnels (vitesse de conver- gence, normalité asymptotique) et c’est par un estimateur de la fonction de ré- partition que l’on passe pour estimer des probabilités d’ensembles : la probabilité qu’une variable soit dans un intervalle donné ou qu’une observation au moins d’un nouvel échantillon dépasse un seuil fixée.

3. La régression non paramétrique est devenue une méthode populaire pour analyser la relation entre une variable dépendante Y et une variable indépendante X . Son objet, est d’estimer cette relation de dépendance sans faire d’hypothèses paramé-

v

(8)

triques sur la forme de cette dépendance.

Il existe plusieurs méthodes non paramétriques pour l’estimation de la densité, la fonction de répartition et de la régression. Dans ce mémoire nous étudierons quelques méthodes comme : la méthode d’estimation par histogramme, la méthode d’estimation par noyau, La méthode des k-plus proches voisins et la méthode des Polynômes locaux ,..., mais nous concentrons particulièrement sur la méthode d’estimation par noyau. Par définition la méthode du noyau est une méthode statistique non-paramétrique d’estimation de la densité de probabilité d’une variable aléatoire. Elle se base sur un échantillon d’une po- pulation statistique et permet d’estimer la densité en tout point du support. En ce sens, cette méthode généralise astucieusement la méthode d’estimation par un histogramme.

Les estimateurs obtenus par la méthode à noyau (ainsi que les estimateurs des autres) sont consistants, et notre objectif est d’étudier leur convergence presque complète. Cette dernière est un mode de convergence de variables aléatoires plus forte que la convergence presque sûre, introduite par H. Robbins en 1947.

Ce mémoire est composé d’une introduction, de deux chapitres et d’une conclusion.

Dans le chapitre un nous concentrons sur les méthodes d’estimation, de la fonction de répartition ( fonction de répartition empirique, Estimation à noyau ), de la densité (His- togramme, Estimateur simple, Méthode du noyau et par un système trigonométrique) et de la régression (Estimateurs à noyau, méthode des k-plus proches voisins et mé- thode des polynômes locaux), et nous présentons également, les propriétés statistiques des estimateurs (variance, biais, erreur moyenne quadratique...) et les propriétés asymp- totique(convergence en moyenne quadratique et la convergence en moyenne quadratique intégrée) pour chaque méthode d’estimation.

Dans le deuxième chapitre, nous étudions la convergence presque complète sa définition,

relation entre ce mode de convergence et d’autres modes et propriétés de base. On s’in-

téresse à l’étude de la convergence presque complète des estimateurs non paramétrique à

noyau.

(9)

Estimation non paramétrique

Dans ce chapitre, nous rappelons quelques méthodes d’estimation non paramétrique, et nous concentrons sur les méthodes d’estimation de la fonction de répartition, de densité et de régression, en donnant les propriétés statistique des estimateurs de chaque méthode d’estimation.

on s’intéresse à l’estimation non paramétrique à noyaux, et surtout à la convergence de ses estimateurs.

Le problème de l’estimation non paramétrique consiste à estimer, à partir des observations, une fonction inconnue, élément d’une certaine classe fonctionnelle assez large, notons cette classe fonctionnelle par F , la fonction inconnue d’échantillon par f et l’échantillon des observations par (x

1

, x

2

, ..., x

n

) . On peut poser le problème de l’estimation de f comme suit : soit (Ω, A, P ) un espace de probabilité sur lequel est définie une famille de variables aléatoires (X

1

, X

2

, ..X

n

) indépendantes suivant la même loi.

La question est : Que peut on dire de f à partir de (x

1

, x

2

, ..., x

n

) avec (x

1

, x

2

, ..., x

n

) une réalisation de (X

1

, X

2

, ..X

n

) ?

Définition 1.1.

Un estimateur de la fonction f est une fonction :

f ˆ

n

: x −→ f

n

(x) = f

n

(x

1

, x

2

, ..., x

n

), mesurable par rapport à l’observation (X

1

, X

2

, ..., X

n

).

Définition 1.2.

Le biais d’un estimateur f ˆ

n

de la fonction f est la quantité définie par : Biais( ˆ f

n

) = E( ˆ f

n

) − f.

1

(10)

1. On dit qu’un estimateur f ˆ

n

de f est sans biais si : Biais( ˆ f

n

) = 0.

c-à-d :

E( ˆ f

n

) = f.

2. On dit qu’un estimateur f ˆ

n

de f est asymptotiquement sans biais si :

n→+∞

lim E( ˆ f

n

) = f.

Définition 1.3.

L’erreur moyenne quadratique d’un estimateur f ˆ

n

, notée M SE, est définie comme suit : M SE( ˆ f

n

(x)) = E(f (x) − f ˆ

n

(x))

2

.

Remarque.

On peut écrire M SE en fonction du biais et de la variance comme suit : M SE( ˆ f

n

(x)) = Biais( ˆ f

n

(x))

2

+ V ar( ˆ f

n

(x)).

Définition 1.4.

L’erreur moyenne quadratique intégrée d’un estimateur f ˆ

n

, qui est notée M ISE, est donné par l’expression suivante :

M ISE( ˆ f

n

(x)) = Z

M SE( ˆ f

n

(x))dx = Z

Biais( ˆ f

n

(x))

2

dx + Z

V ar( ˆ f

n

(x))dx.

1.1 Estimation de la fonction de répartition

L’objectif de cette section est d’estimer la fonction de répartition F qui caractérise la loi de probabilité d’une variable aléatoire, d’abord par la fonction de répartition empirique, en suite par la méthode du noyau.

1.1.1 Estimation par la fonction de répartition empirique

On observe X

1

,..., X

n

variables aléatoires réelles indépendantes et identiquement distri- buées de fonction de répartition F, définie comme suit :

F (x) = P (X 6 x).

(11)

Définition 1.5.

Un estimateur de la fonction de répartition F est la fonction empirique F ˆ

n

définie par : F ˆ

n

(x) = 1

n X

n

i=1

1

{Xi≤x}

, ∀x ∈ R.

=

 

 

 

 

0, x ≤ X

(1)

k

n

, X

(k)

≤ x ≤ X

(k+1)

si k = 1, ..., n − 1 1, x ≥ X

(n)

,

avec :

X

(1)

6 ... 6 X

(n)

, et 1

A

est la fonction indicatrice de l’événement A.

Voici quelques propriété de la F ˆ

n

: Propriété 1.6.

L’estimateur F ˆ

n

possède les propriétés suivantes : 1) ∀ x∈ R, n F ˆ

n

(x) est de loi binomiale B(n, F (x)).

2) ∀x∈ R, F ˆ

n

(x) est un estimateur sans biais et convergent en moyenne quadratique.

3) ∀x ∈ R, F ˆ

n

(x) converge presque sûrement vers F (x).

∀x ∈ R, F ˆ

n

(x) −−−−−→

P. S

n−→+∞

F (x).

4) ∀x ∈ R, F ˆ

n

(x) converge en probabilité vers F (x).

∀x ∈ R, F ˆ

n

(x) −−−−−→

P

n−→+∞

F (x).

Démonstration.

1) On a :

F ˆ

n

(x) = 1 n

X

n

i=1

1

{Xi≤x}

= ⇒ n F ˆ

n

(x) = X

n

i=1

1

{Xi≤x}

c’est la somme de n variables aléatoires indépendantes de même loi de Bernoulli de paramètre P (X

i

≤ x) = F (x) , alors

n F ˆ

n

(x) B(n, F (x)).

(12)

2) Calculons le biais et la variance :

E ( ˆ F

n

(x)) = E( 1

n (n F ˆ

n

(x)))

= 1

n E(n F ˆ

n

(x))

= 1 n nF (x)

= F (x).

Donc F ˆ

n

(x) est un estimateur sans biais.

V ar( ˆ F

n

(x)) = V ar( 1

n (n F ˆ

n

(x)))

= ( 1

n )

2

V ar(n F ˆ

n

(x))

= 1

n

2

(nF (x)(1 − F (x))

= F (x)(1 − F (x))

n ,

en remarque que lim

n−→∞

var( ˆ F

n

(x)) = 0 et puisque F ˆ

n

(x) est non biaisé, alors F ˆ

n

(x) −−−−−→

MQ

n−→+∞

F (x), ∀x.

3) F ˆ

n

(x) =

1n

P

n

i=1

1

{Xi≤x}

.

En appliquant la loi forte de grand nombres sur la suite indépendante de variables aléatoires de Bernoulli 1

{Xi≤x}

, on obtient :

F ˆ

n

(x) = 1 n

X

n

i=1

1

{Xi≤x}

−−−−−→

P. S

n−→+∞

E(1

{Xi≤x}

) = P (X

i

≤ x) = F (x).

D’où la convergence presque sûrement.

4) D’après l’inégalité de Bienaymé-Tchebychev.

∀ε > 0, P (| F ˆ

n

(x) − F (x)| ≥ ε) ≤ V ar( ˆ F

n

(x)) ε

2

≤ F (x)(1 − F (x))

2

−−−−−→

n−→+∞

0.

Alors on a : F ˆ

n

(x) −−−−−→

P

n−→+∞

F (x) .

(13)

1.1.2 Estimation à noyau de la fonction de répartition

Dans ce partie, on cherche à estimer la fonction de répartition F par la méthode du noyau qui a était introduite par Rosenblatt en 1956, puis amélioré par Parzen en 1962 (pour l’estimation de la densité de probabilité).

Un noyau est une fonction de pondération utilisée dans l’estimation non paramétrique de la densité de probabilité, la fonction de répartition, la fonction de régression...

Définition 1.7.

Soit k une fonction à valeurs réelle, positive et intégrable, telle que : R

R

k(u)du = 1, la fonction k est dite noyau.

Définition 1.8.

Un noyau k est dit symétrique si pour tout u dans l’ensemble de définition de k, on a k(u) = k(−u) ce qui implique

Z

R

uk(u)du = 0.

– k est dit de carré intégrable si Z

R

k

2

(u)du < +∞.

Exemple 1.9.

Les noyau symétriques les plus utilisées sont : – Le noyau rectangulaire k(u) =

12

1

[−1,1]

(u).

– Le noyau parabolique d’Epanechnikov k(u) =

435

(1 −

U52

)1

]−5,5[

(u).

– Le biweight de tukey k(u) =

1516

(1 − u

2

)

2

1

]−1,1]

(u).

– Noyau sinusoïdal k(u) =

Π4

cos(

Π2

u)1

]−1,1]

(u).

– Le noyau gaussien k(u) =

1

2√

Π

exp(

−u22

).

Définition 1.10.

Un estimateur à noyau H de la fonction de répartition F , noté F ˆ

hn

, est définie par : F ˆ

hn

(x) = 1

n X

n

i=1

H

x − X

i

h

n

,

où h

n

est le paramètre de lissage appelé fenêtre de l’estimateur.

(14)

Remarque.

H est appelé noyau intégré, c’est à dire : H(u) =

Z

u

−∞

k(t)dt,

tel que :

Z

k(t)dt = 1.

Propriété 1.11.

L’estimateur F ˆ

hn

possède les propriétés suivantes :

1) F ˆ

hn

est un estimateur asymptotiquement sans biais.

2) L’estimateur à noyau F ˆ

hn

(x) converge en moyenne quadratique vers F (x).

Démonstration.

1) L’objectif est de vérifier que E( ˆ F

hn

(x)) −→ F (x) . Quand n −→ ∞ E( ˆ F

hn

(x)) = 1

n E

n

X

i=1

H

x − X

i

h

n

!

= E

H

x − X h

n

(car X

1

, .., X

n

sont de même loi que X )

= Z

+∞

−∞

H

x − z h

n

f (z)dz,

Une intégration par parties, nous donne : E( ˆ F

hn

(x)) =

H

x − z h

F (z)

+∞

−∞

+ 1 h

n

Z

+∞

−∞

H

0

x − z h

n

F (z)dz

= 0 + 1 h

n

Z

+∞

−∞

H

0

x − z h

n

F (z)dz

= Z

+∞

−∞

H

0

(y)F (x − hy)dy, en posant y = x − z h ,

en utilisant le développement de Taylor à l’ordre 1 de F au voisinage de x on obtient :

F (x − yh

n

) = F (x) − h

n

yf (x) + O(h

2n

).

(15)

Alors

E( ˆ F

hn

(x)) = Z

+∞

−∞

H

0

(y)[F (x) − h

n

yf(x)]dy

= Z

+∞

−∞

[H

0

(y)F (x) − h

n

yH

0

(y)f(x)]dy + O(h

2n

)

= F (x) Z

+∞

−∞

H

0

(y)dy − h

n

Z

+∞

−∞

yH

0

(y)f (x)dy + O(h

2n

) car H

0

(u) = k(u) , alors

E( ˆ F

hn

(x)) = F (x) − h

n

f (x) Z

+∞

−∞

yH

0

(y)dy + O(h

2n

),

car le noyau est symétrique. au passage à la limite quand n −→ ∞ , h −→ 0 E( ˆ F

hn

(x)) −→ F (x).

D’ou F ˆ

hn

est un estimateur asymptotiquement sans biais.

2) L’objectif est de vérifier que lim

n−→∞

E( ˆ F

hn

(x) − F (x))

2

= 0.

On a :

var( ˆ F

hn

(x) − F (x)) = E[( ˆ F

hn

(x) − F (x))

2

] − (E( ˆ F

hn

(x) − F (x))

2

. Il suffit donc de vérifie : var( ˆ F

hn

(x)) −→ 0 quand n −→ ∞ .

var[ ˆ F

hn

(x)] = var 1 n

n

X

i=1

k

x − X

i

h

n

!

= 1 n

2

n

X

i=1

var

k

2

x − X

i

h

n

= 1 n

"

E

k

2

x − X

i

h

n

− (E

k

X

i

− x h

n

2

#

E

"

k

x − X

i

h

n

2

#

= Z

+∞

−∞

k

2

x − z h

n

f (z)dz.

=

k

2

x − z h

n

F (x)

+∞

−∞

+ 1 h

n

Z

+∞

−∞

´ k

2

x − z h

n

F (z)dz.

= F (x) Z

+∞

−∞

´ k

2

(y)dy, donc

var[ ˆ F

hn

(x)] = 1 n [F (x)

Z

−∞

(´ k

2

)(y)dy−(F (x)−h

n

f(x)(

Z

−∞

y k(y)dy)) ´

2

+O(h

2n

)] −−−−−→

n−→+∞

0.

Puis que F ˆ

hn

(x) est non biaisé alors

F ˆ

hn

(x) −−−−−→

MQ

n−→+∞

F (x), ∀x.

(16)

1.2 Estimation de la densité

Dans cette section, on suppose que la loi de l’échantillon (X

1

, ..., X

n

) est continue et on cherche à estimer sa densité f .

Par définition f est la dérivée de la fonction de répartition F . Mais la fonction de répar- tition empirique F ˆ

hn

n’est pas dérivable, car c’est une fonction en escalier, on ne peut pas donc utiliser directement les résultats sur la fonction de répartition empirique pour estimer la densité. On peut se demander quelle est l’utilité d’estimer la densité alors que l’on a déjà un très bon estimateur de la fonction de répartition ? La principale raison est que la forme d’une densité est beaucoup plus facile à interpréter que celle d’une fonction de répartition.

1.2.1 Histogramme

L’estimation de f par histogramme, consiste à estimer f en un point x par la proportion de variables aléatoires (X

1

, ..., X

n

) qui se trouve dans un intervalle de longueur h

n

, et qui contient x .

Un histogramme est définit a partir d’une suite double de valeurs croissantes

{., ., a

i−1

, ..., a

−1

, a

0

, a

1

, ..., a

i

} , consistant un découpage, en intervalles ]a

k

, a

k+1

] de la droite réelle.

Soit n

k

la fréquence des observations situées dans l’intervalle [a

k

, a

k+1

] pour un échantillon de taille n , alors l’histogramme est la fonction constante par morceaux f n ˆ définie pour tout k ∈ Z par :

f ˆ

n

(x) = n

k

/n

(a

k+1

− a

k

) , pour x ∈]a

k

, a

k+1

] qui nous donne la représentation graphique en rectangles.

Pour estimer f par un histogramme, on fixe d’abord une borne inférieure de l’échan-

tillon a

0

< x

1

et une borne supérieure a

k

> x

n

, puis on partitionne l’intervalle ]a

0

, a

k

] conte-

nant toutes les observations en k classes ]a

k−1

, a

k

] , dont la largeur de la classe j est

h

j

= a

j

− a

j−1

.

(17)

Définition 1.12.

L’estimateur de f sur ]a

k

, a

k+1

], de type histogramme, noté f ˆ

hn

, est définie par : f ˆ

hn

(x) = n

k

nh

n

, pour x ∈]a

k

, a

k+1

]

= P

n

k=1

1

]ak,ak+1]

(x) nh

n

= N

k

nh

n

,

où N

k

est le nombre aléatoire de valeurs tombant dans ]a

k

, a

k+1

], telle que N

k

B(n, p

k

), où p

k

est la probabilité estimer par

nnk

.

Propriété 1.13.

L’estimateur f ˆ

n

de la densité par histogramme possède les propriétés suivantes : 1. L’espérance : on a :

N

j

B(n, p

j

), on déduit que :

E( ˆ f

hn

(x)) = E(n

j

) nh

n

= p

j

h

n

. 2. La variance :

var( ˆ f

hn

(x)) = p

j

(1 − p

j

) nh

2n

.

L’expression de la variance montre que plus le paramètre h

n

est petit, plus var( ˆ f

hn

(x)) est grand c’est à dire moins efficace, inversement, plus h

n

est grand, plus f ˆ

hn

(x) est efficace.

Maintenant, le comportement asymptotique du biais, variance, M SE et M ISE : en fai- sant le développement de Taylor à l’ordre 1, on obtient les propriétés suivantes :

– Le biais de l’estimateur f ˆ

hn

(x) :

Biais( ˆ f

hn

(x)) = E( ˆ f

hn

(x)) − f (x)

= 1

2 f

0

(x)[h

n

− 2(x − a

k

)] + O(h

2n

).

– La variance de l’estimateur f ˆ

hn

(x) :

V ar( ˆ f

hn

(x)) = E ( ˆ f

hn

(x)

2

) − (E( ˆ f

hn

(x)))

2

= f (x)

nh

n

+ O(n

−1

).

Si nh

n

−→ ∞ quand n −→ ∞ alors V ar( ˆ f

hn

(x)) −→ 0.

(18)

– La convergence en moyenne quadratique de l’estimateur f ˆ

hn

(x) : M SE( ˆ f

hn

(x)) = V ar( ˆ f

hn

(x)) + Biais( ˆ f

hn

(x))

2

= f (x)

nh

n

+ f

0

(x)

2

4 (h

n

− 2(x − a

k

))

2

+ O(n

−1

) + O(h

2n

).

Si h −→ 0 et nh −→ ∞ quand n −→ ∞ alors M SE( ˆ f

h

(x)) −→ 0.

– La convergence en moyenne quadratique intégrée de l’estimateur f ˆ

hn

(x) M ISE( ˆ f

hn

(x)) = 1

nh

n

+ h

2n

R

f

02

(t)dt

12 + O(n

−1

) + O(h

3n

).

Si h −→ 0 et nh −→ ∞ quand n −→ ∞ alors M ISE( ˆ f

hn

(x)) −→ 0.

1.2.2 Estimateur simple

Rappelons que la densité de probabilité f est égale à la dérivée de la fonction de répartition F (si cette dérivée existe). On peut donc écrire

f

hn

(x) = F

0

(x) = lim

h→0

P (x − h

n

≤ X

i

≤ x + h

n

) 2h

n

= lim

h→0

F (x + h

n

) − F (x − h

n

) 2h

n

c’est à dire que

f

hn

(x) ' F (x + h

n

) − F (x − h

n

)

2h

n

.

Si on remplace F par l’estimateur F ˆ

hn

, on obtient :

f ˆ

hn

(x) = F ˆ (x + h

n

) − F ˆ (x − h

n

) 2h

n

,

où f ˆ

hn

est l’estimateur de f appelé estimateur de Rosemblanlt.

Définition 1.14. L’estimateur de Resonblatt, de la fonction de densitie f est defnie par : f ˆ

hn

(x) = F ˆ (x + h

n

)) − F ˆ (x − h

n

)

2h

n

= 1

2nh

n

X

n

i=1

1

{−1≤x−Xi hn <+1}

. Remarque.

Notons que cet estimateur peut encore s’écrire comme f ˆ

hn

(x) = 1

n X

n

i=1

1

h

n

w( x − X

i

h

n

),

(19)

où w(y) =

 

 

1, si y ∈ [1, −1[

0, sinon.

Propriété 1.15.

1. Le biais : Nous savons que n F ˆ

hn

(x) =

n

X

i=1

1(X

i

≤ x) B(n, F (x)), et

2nh

n

f ˆ

hn

(x) = n F ˆ (x + h

n

) − n F ˆ (x − h

n

) B(n, F (x + h

n

) − F (x − h

n

)),

= ⇒ E(2nh

n

f ˆ

n

(x)) = n(F (x + h

n

) − F (x − h

n

)).

Par conséquence :

E( ˆ f

hn

(x)) = 1

2h

n

(F (x + h

n

) − F (x − h

n

)), si n −→ ∞ et h −→ 0 alors

E( ˆ f

hn

(x)) −→ f

hn

(x).

2. La variance :

var(2nh

n

f ˆ

hn

(x)) = n(F (x + h

n

) − F (x − h

n

))(1 − F (x + h

n

) + F (x − h

n

))

= ⇒ var( ˆ f

hn

(x)) = 1

4nh

2n

(F (x + h

n

) − F (x − h

n

))(1 − F (x + h

n

) + F (x − h

n

)), et

nh

n

var( ˆ f

hn

(x)) −→ 1

2 f

hn

(x).

3. Le M SE :

si nh

n

−→ ∞ et h

n

−→ 0 quand n −→ ∞ on a que Le risque quadratique moyen de l’estimateur

M SE( ˆ f(x)

h

n

) = E( ˆ f

hn

(x) − f

hn

(x))

2

−→ 0,

pour tout point x.

(20)

1.2.3 Méthode du noyau

La méthode du noyau est une généralisation de la méthode d’estimation par histogramme.

l’estimateur f ˆ

n

reste une fonction en escalier, pour obtenir quelque chose de plus lisse. On a d’après l’estimateur simple de la densité

f ˆ

hn

(x) = 1 2nh

n

X

n

i=1

1

]x−hn,x+hn]

(X

i

)

= 1

nh

n

X

n

i=1

1

2 1

{x−hn<Xi<x+hn}

= 1

nh

n

X

n

i=1

1 2 1

]−1,1[

x − X

i

h

n

.

On pose k(u) =

12

1|

]−1,1[

(u) , la méthode du noyau consiste à généraliser cette approcher à d’autres fonction k .

Définition 1.16.

Un estimateur à noyau de la densité f est une fonction f ˆ

hn

définie par : f ˆ

hn

(x) = 1

nh

n

X

n

i=1

k

x − X

i

h

n

,

où {h

n

}

n≥1

est une suite de réels positifs appelées paramètres de lissage ou largeurs de la fenêtre qui tend vers 0 quand n tend vers l’infini et k est une densité de probabilité appelée noyau.

Propriété 1.17.

Soit x fixe dans R :

1.) Biais( ˆ f

hn

(x)) =

h22n

f

00

(x) R

+∞

−∞

u

2

k(u)du + O(h

2n

).

2.) var( ˆ f

hn

(x)) =

nh1

n

f(x) R

+∞

−∞

k

2

(u)du + O(

nh1

n

).

3.) M SE( ˆ f

hn

(x)) =

nh1

n

f(x) R

+∞

−∞

k

2

du + O(

nh1

n

) +

h44n

f

00

(x)

2

[ R

+∞

−∞

u

2

k(u)du]

2

+ O(h

4n

).

Démonstration.

Sous les hypothèses : (K. 1) R

R

k(u)du = 1 , (K. 2) R

R

uk(u)du = 0 , (K. 3) R

R

u

2

|k(u)|du ≤ ∞ .

On a :

(21)

1)

E( ˆ f

hn

(x)) = 1 nh

n

E

n

X

i=1

k

X

i

− x h

n

!

= 1 h

n

Z

+∞

−∞

k

y − x h

n

f (y)dy

= Z

+∞

−∞

k(u)f(x + uh

n

)du, en posant u = y − x h

n

. En utilisant le développement de Taylor de f au voisinage de x on obtient :

f(x + uh

n

) = f(x) + h

n

uf

0

(x) + (uh

n

)

2

f

00

(x)

2 + O(h

2n

) E( ˆ f

hn

(x)) =

Z

+∞

−∞

k(u)[f (x) + f

0

(x)uh + 1

2 f

00

(x)(uh

n

)

2

+ O(h

2n

)]du

= f(x) Z

+∞

−∞

k(u)du + h

n

f

0

(x) Z

+∞

−∞

uk(u)du + f

00

(x) h

2n

2

Z

+∞

−∞

u

2

k(u)du

= f(x) + h

2n

2 f

00

(x)

Z

+∞

−∞

u

2

k(u)du + O(h

2n

), alors :

Biais( ˆ f

hn

(x)) = E( ˆ f

hn

(x)) − f (x)

= h

2n

2 f

00

(x)

Z

+∞

−∞

u

2

k(u)du + O(h

2n

).

Alors :

lim Biais( ˆ f

hn

(x)) = 0, lorsque n −→ ∞ et h −→ 0 .

2)

var( ˆ f

hn

(x)) = var 1 nh

n

n

X

i=1

k

X

i

− x h

n

!

= 1 n

( 1 h

2n

E

"

k

X − x h

n

2

#

− 1 h

n

E

2

k

X − x h

n

)

= 1

nh

n

Z

+∞

−∞

(k(u))

2

f(x + uh

n

)du − 1 n [

Z

+∞

−∞

k(u)f(x + uh

n

)du]

2

, le terme h

1 n

[ R

+∞

−∞

k(u)f (x + uh

n

)du i

2

7−→ 0 lorsque n 7−→ +∞ . Donc :

var( ˆ f

hn

(x)) = 1 nh

n

f(x)

Z

+∞

−∞

k

2

(u)du + O 1

nh

n

.

(22)

D’où :

n−→∞

lim var( ˆ f

hn

(x)) = 0, quand nh

n

−→ ∞.

3)

M SE( ˆ f

hn

(x)) = E( ˆ f

hn

(x) − f(x))

2

= E( ˆ f

hn

(x) − f ˆ

hn

(x) + ˆ f

hn

(x) − f (x))

2

= var( ˆ f

hn

(x)) + Biais( ˆ f

hn

(x))

2

= 1

nh

n

f (x) Z

+∞

−∞

k

2

du + O 1

nh

n

+ h

4n

4 f

00

(x)

2

Z

+∞

−∞

u

2

k(u)du

2

+ O(h

4n

).

Remarque.

M ISE( ˆ f

hn

(x)) = 1 nh

n

Z

+∞

−∞

f (x)

Z

+∞

−∞

k

2

(u)du

+ O 1

nh

n

dx

+ h

4n

4

Z

+∞

−∞

(f

00

(x))

2

Z

+∞

−∞

u

2

k(u)du

2

+ O(h

4n

)du

! dx.

h = h

n

7−→ 0 et nh

n

7−→ ∞ quand n 7−→ ∞ alors M SE( ˆ f

hn

(x)) 7−→ 0. On dit que f ˆ

hn

(x) converge en probabilité vers f (x).

1.2.4 Estimation de la densité de probabilité par un système tri- gonométrique

Soit (X

1

, .., X

n

) une suite de variables aléatoires indépendantes et identiquement distri- buées de densité de probabilité inconnue f sur [−π, +π] . Il s’agit d’estimer f(x) a partir des observations (x

1

, .., x

n

) , Pour cela on considère la base donnée par :

e

k

(x) = 1

√ 2π (cos(kx) + sin(kx))1

[−π,+π]

, k = 0, 1, 2, ..., (1.1) la base donnée par (1. 1) est orthogonale dans [−π, +π] , c’est-a-dire :

Z

1 0

e

k

(x)e

j

(x)dx =

 

 

1 j = k

0 sinon.

(23)

La densité de probabilité f (x) peut se mettre sous la forme : f (x) =

X

k=0

a

k

e

k

(x), x ∈ [−π, +π], où

a

k

= Z

1

0

e

k

(x)f(x)dx = E(e

k

(x)).

Les coefficients a

k

peuvent être estimées par : ˆ

a

k

= 1 n

X

k=0

e

k

(X

i

) = 1

√ 2π2

n

X

i=1

(cos k(X

i

) + sin k(X

i

)) . Définition 1.18.

L’estimateur f ˆ

dn

(x) de f (x) est donnée par : f ˆ

dn

(x) =

dn

X

k=0

ˆ a

k

e

k

(x)

= 1 n

n

X

i=1 dn

X

k=0

a

k

(X

i

)e

k

(x)

= 1

4πn

n

X

i=1

 sin

(2dn+1)(Xi+x) 2

sin

(Xi+x) 2

 +

n

X

i=1

 sin

(2dn+1)(Xi−x) 2

sin

Xi2−x

 , où d

n

est une suite des nombres réels positifs tels que d

n

−→ ∞ quand n −→ ∞.

Propriété 1.19.

1. R

π

−π

f ˆ

dn

(x) = 1 et | f ˆ

dn

(x)| ≤

2dn+1

. 2. Biais( ˆ f

dn

(x)) = P

k=dn+1

a

k

e

k

(x).

3.

var( ˆ f

dn

(x)) = d

n

+ 1

2

n + 1 2π √

2πn

dn

X

k=0

β

2k

− 1 2πn

dn

X

k=0

a

2k

+ 1 4π

2

n

dn

X

k=0

sin(2kx)

+ 1

2nπ √ 2π

dn

X

k=0

sin(2kx)β

2k

− 1 2πn

dn

X

k=0

a

2k

sin(2kx)+

dn

X

k=0 dn

X

j=0

1 n

1

√ 2π γ

k−j

+ 1

√ 2π β

k+j

− a

k

a

j

e

k

(x)e

j

(x), avec

γ

k

= 1

√ 2π Z

π

−π

f(x) cos(kx)dx = 1

√ 2π E (cos(kX)), et

β

k

= 1

√ 2π Z

π

−π

f (x) sin(kx)dx = 1

√ 2π E(sin(kX )).

(24)

4.

M SE( ˆ f

dn

(x)) = d

n

+ 1

2

n + 1 2π √

2πn

dn

X

k=0

β

2k

− 1 2πn

dn

X

k=0

a

2k

+ 1 4π

2

n

dn

X

k=0

sin(2kx)

+ 1

2nπ √ 2π

dn

X

k=0

sin(2kx)β

2k

− 1 2πn

dn

X

k=0

a

2k

sin(2kx)+

dn

X

k=0 dn

X

j=0

1 n

1

√ 2π γ

k−j

+ 1

√ 2π β

k+j

− a

k

a

j

e

k

(x)e

j

(x) +

"

X

k=dn+1

a

k

e

k

(x)

#

2

.

5. M SIE( ˆ f

dn

(x)) = R

π

−π

f

2

(x)dx +

d2πnn+1

+

1

2πn

P

dn

k=0

β

2k

n+1n

P

dn

k=0

a

2k

. Démonstration.

voir [4]

propriété asymptotique Théorème 1.20.

1. Si d

n

−→ ∞, f ˆ

dn

(x) est asymptotiquement sans biais :

n−→∞

lim E( ˆ f

dn

(x)) = f (x).

2. Si d

n

= o( √

n) et d

n

−→ ∞ lorsque n −→ ∞, alors

n−→∞

lim var( ˆ f

dn

(x)) = 0.

3. Si d

n

= o( √

n) et d

n

−→ ∞ lorsque n −→ ∞, alors

n−→∞

lim M SE( ˆ f

dn

(x)) = 0.

4. Si d

n

= o( √

n) et d

n

−→ ∞ lorsque n −→ ∞, alors

n−→∞

lim M SIE( ˆ f

dn

(x)) = 0.

Démonstration.

Voir [4]

(25)

1.3 Estimation de la fonction de régression

Supposons que l’on dispose de n couples de variables aléatoires (X

1

, Y

1

), ..., (X

n

, Y

n

) in- dépendantes et de même loi que le couple (X, Y ) telles que :

Y = r(X) + ε.

où la variable aléatoire ε est la variation de Y autour de X , vérifie E(ε) = 0 et indépen- dante de X . r est une fonction de [0, 1] à valeurs réelle, dite fonction de régression, est inconnue. Le problème de régression non paramétrique est d’estimer r , lorsque l’on sait à priori que cette fonction appartient à un ensemble non paramétrique (de dimension infi- nie) F , qui peut être l’ensemble de toutes les fonctions continues sur [0, 1] où l’ensemble des fonctions convexe,...

On cherche dans cette famille de fonctions F , quelle est celle pour laquelle les Y sont les plus proches de r(X) , c’est à dire on déterminera la fonction r(X) qui rendra l’erreur quadratique moyenne la plus petite possible i. e :

E(r(X) − Y )

2

= min

r

E(r(X) − Y )

2

, ce minimum est donnée par :

ˆ

r(X) = E(Y /X = x),

la fonction r exprime la valeur moyenne de la variable aléatoire à expliquer Y en fonction de la variable explicative X .

Le couple (X, Y ) est à valeur dans R

2

, donc il admet une densité jointé f (x, y) sur R

2

et une densité marginale f(x) > 0 par rapport à la mesure de Lebesgue sur R .

On suppose que la variable aléatoire Y est intégrable par conséquent on peut définir la fonction de régression r(x) par :

r(x) = E(Y /X = x) = Z

R

yf

Y /X

(y/X = x)dy (1.2)

= R

R

yf

X,Y

(x, y)dy

f(x) . (1.3)

(1.4) Remarque.

r(x) est la fonction qui donne la meilleure approximation de Y sachant X = x au sens

des moindres carrés.

(26)

1.3.1 Estimateurs à noyau de la fonction de régression

Dans ce paragraphe, on représente la construction de l’estimateur à noyau de Nadaraya Watson (1964) basé sur l’idée de Tukey (1961), qui a introduit un estimateur à noyau de type régressogramme de la fonction de régression définie par :

r

hn

(x) = P

n

i=1

Y

i

1

[tk,tk+1[

(X

i

) P

n

i=1

1

[tk,tk+1[

(X

i

) pour x ∈ [t

k

, t

k+1

[,

où [t

k

, t

k+1

[ , k ∈ N est une partition de support de x . Bosq (1969) fût le premier à donner une étude des propriétés statistiques de cet estimateur, il a montré la convergence uniforme presque sûre du regressogramme sur l’intervalle [a, b] , quand

h

n

= O(n

−α

), 0 < α < 1.

Sabry (1978) a montré la convergence uniforme presque sûre sur [0,

q

logn

log logn

] et Lecoultre (1982) a procédé à l’extension de tous ces résultants à R . (pour une étude plus approfondie de cet estimateur on se réfère au livre de Bosq et Lecoutre (1987)). Pour éviter le problème de positionnement des bornes dans intervalles de la partition, un autre estimateur a été construit comme suit :

∀x, r ˆ

h

(x) = P

n

i=1

Y

i

1

[x−h,x+h[

(X

i

) P

n

i=1

1

[x−h,x+h[

(X

i

) , où h ∈ R

+

.

L’inconvenant de ce nouveau estimateur est sa discontinuité. Sa généralisation a été in- troduite et étudiée par Nadaraya (1964) et Watson (1964).

Une façon de construire l’estimateur de Nadaraya-Watson et l’utiliser les estimateurs de f (x, y ) et de f (x) dans (1. 3) comme suit :

r(x) = R

R

yf

X,Y

(x, y)dy f (x) .

un estimateur à noyau de la densité joint f

(X,Y)

, noté f ˆ

(X,Y)

peut être obtenu en suivant les mêmes étapes utilisés pour obtenir f (x) ˆ estimateur de f (x) , et on obtient :

f ˆ

X,Y

(x, y) = 1 nh

2

n

X

i=1

k

X

i

− x h

k

Y

i

− y h

,

(27)

d’où l’estimateur de Nadaraya-Watson (1964) de la fonction r est :

ˆ

r

hn

(x) =

1 nhn

P

n

i=0

Y

i

k

X−x hn

1 nhn

P

n i=0

k

X−x hn

.

Définition 1.21.

L’estimateur à noyau, de Nadaraya-Watson (1964)notée r ˆ

hn

(x) de la fonction de régres- sion r est donnée par :

ˆ

r

hn

(x) =

 

 

Pn

i=0Yik

(

x−hnXi

)

Pn

i=0k

(

x−hnXi

) =

φˆˆhn(x)

fhn(x)

, si 1 P

n

i=0

k

x−Xi

hn

6= 0

1 n

P

n

i=0

Y

i

, sinon,

φ ˆ

hn

(x) = 1 nh

n

n

X

i=0

Y

i

k

x − X

i

h

n

.

Remarque.

L’estimateur r ˆ

hn

dépend de deux paramétrés le paramètre de lissage h

n

et noyau k Définition 1.22.

Un estimateur r ˆ

hn

(x) de r(x) est dit estimateur linéaire de la régression non-paramétrique si :

ˆ

r

hn

(x) =

n

X

i=0

Y

i

w

i

,

où la fonction de poids w

i

(.) ne dépend pas des observations Y

i

. Définition 1.23.

L’estimateur à noyau introduit par Watson Nadaraya, de la fonction de régression évaluée au point x

0

, noté r ˆ

hn

(x

0

), est défini par :

ˆ

r

hn

(x) =

n

X

i

Y

i

w

i

(x

0

), avec

w

i

(x

0

) =

k

x0−Xi hn

P

n

i=0

k

x0−Xi hn

,

où k(.) désigne une fonction noyau, h

n

> 0 un paramètre de lissage.

(28)

Les propriétés de l’estimateur de la fonction de régression 1. Étude asymptotique de la variance :

Proposition 1.24.

Sous les hypothèses : (k. 1)

(k. 4) k est bornée, c’est à dire ∃M ≥ 0, ∀u ∈ R, |k(u)| < M, (k. 5) lim |u|k(u) = 0, quand |x| −→ ∞,

(k. 6) k ∈ L

1

(R), c’est à dire R

R

|k(u)|du < ∞,

et si E(Y

2

) < ∞, alors en chaque point de continuité des fonctions r(x), f(x) et σ

2

(x) = V ar(Y /X = x). On a

var(ˆ r

hn

(x)) = 1 nh

n

σ

2

(x) f(x)

Z

R

k

2

(u)du

(o(1) + 1), où

f(x) > 0.

Démonstration.

Soit la fonction ψ(x) = R

R

y

2

f(x, y)dy , en se basant sur le lemme de Bochner suivant :

Lemme 1.25. {Bochner}

Soit K : (R

m

, β

m

) 7−→ (R, β ) une fonction mesurable, où β

p

est la tribu borélienne de R

p

, vérifiant :

∃M (constante) telle que, ∀z ∈ R

m

, |k(z)| ≤ M, Z

Rm

|k(z)dz < ∞, et

kzk

m

|k(z)| 7−→ 0 quand kzk 7−→ ∞.

Par ailleurs, soit

g : (R

m

, β

m

) 7−→ (R, β) une fonction telle que Z

Rm

|g(z)|dz < ∞,

Si g est continue, et si 0 < h

n

7−→ 0, quand n 7−→ ∞ alors :

n7−→∞

lim 1 h

mn

Z

Rm

k z

h

n

g(x − z)dz = g(x) Z

Rm

k(z)dz.

(29)

on a

var( ˆ φ

hn

(x)) = 1 nh

2n

( E

Y

2

k

2

x − X h

n

− E

Y k

x − X h

n

2

)

= 1

nh

n

( Z

R

k

2

(u)ψ(x − h

n

u)du − h

n

Z

R

k(u)f (x − h

n

u)(x − h

n

u)du

2

)

= 1

nh

n

ψ(x) Z

R

k

2

(u)du(1 + o(1)).

on a

cov( ˆ f

hn

(x), φ ˆ

hn

(x)) = E[{ f ˆ

hn

(x) − E( ˆ f

hn

(x))}{ φ ˆ

hn

(x) − E ( ˆ φ

hn

(x))}]

= 1

nh

n

φ(x) Z

R

k

2

(u)du(1 + o(1)), et

var( ˆ f

hn

(x)) = 1 nh

n

f(x)

Z

R

k

2

(u)du(1 + o(1)).

Posons

B

n

(x) =

f ˆ

hn

(x) φ ˆ

hn

(x)

 et

A(x) =

−r(x) f(x)2

,

f(x)1

La matrice de variance covariance de B

n

(x) est alors donnée par l’expression sui- vante :

Σ := 1 nh

n

f (x) φ(x) φ(x) ψ(x)

 Z

R

k

2

(u)du(1 + o(1)) En remarquant, que :

var( ˆ f

hn

(x)) = AΣA

t

= 1 nh

n

f(x)

ψ(x)

(f(x)

2

) − (φ(x))

2

(f (x)

3

)

Z

R

k

2

(u)du(1 + o(1)), où A

t

désigne la transposée de A , on obtient alors :

var( ˆ f

hn

(x)) = 1 nh

n

σ

2

(x) f(x)

Z

R

k

2

(u)du

(1 + o(1)).

2. Étude asymptotique du biais : l’étude asymptotique du biais repose sur la

proposition suivante : Proposition 1.26.

Sous les hypothèses de la proposition (1. 16) et

(30)

a) Si |Y | ≤ C

1

< ∞ P .S et si nh

n

−→ ∞, quand n −→ ∞, alors : E(ˆ r

hn

(x)) = E( ˆ φ

hn

(x))

E( ˆ f

hn

(x)) + O 1

nh

n

.

b) Si E(Y

2

) < ∞, nh

2n

−→ ∞, quand n −→ ∞, alors : E(ˆ r

hn

(x)) = E( ˆ φ

hn

(x))

E( ˆ f

hn

(x)) + O 1

√ nh

n

.

Démonstration. En multipliant les deux expressions de l’identité suivante : 1

f ˆ

hn

(x) = 1

E( ˆ f

hn

(x)) − f ˆ

hn

(x) − E( ˆ f

hn

(x))

E( ˆ f

hn

(x))

2

+ [ ˆ f

hn

(x) − E( ˆ f

hn

(x))]

2

f ˆ

hn

(x)E( ˆ f

hn

(x))

2

. Par φ ˆ

hn

(x) et en passant à l’espérance nous obtenons :

E(ˆ r

hn

(x)) = E( ˆ φ

hn

(x))

E( ˆ f

hn

(x)) − (E( ˆ f

hn

(x))

−2

E( ˆ φ

hn

(x)) − E( ˆ φ

hn

(x)))( ˆ f

hn

(x))E( ˆ f

hn

(x)) (1.5) + (E( ˆ f

hn

(x))

−1

(E ( ˆ f

hn

(x)))

−2

E( ˆ φ

hn

(x))[ ˆ f

hn

(x) − E( ˆ f

hn

(x))] (1.6)

= E( ˆ φ

hn

(x))

E( ˆ f

hn

(x)) + [c

1n

(x) − c

2n

(x)](E( ˆ f

hn

(x))

−2

, (1.7) où

c

(1)n

(x) = E[( ˆ φ

hn

(x) − E( ˆ φ

hn

(x)))[ ˆ f

hn

(x) − E( ˆ f

hn

(x))]], (1.8) c

(2)n

(x) = E[( ˆ f

hn

(x)

−1

− E( ˆ φ

hn

(x)))[ ˆ f

hn

(x) − E( ˆ f

hn

(x))]]. (1.9) Comme var( ˆ f

hn

(x)) ∼

nh1

n

f(x) R

R

k

2

(t)dt et var( ˆ φ

hn

(x)) ∼

nh1

n

R

R

y

2

f (x, y)dy R

R

k

2

(t)dt , alors

|c

1n

(x)| ≤ var( ˆ φ

hn

(x))

12

var( ˆ f

hn

(x))

12

= O 1

nh

n

. (1.10)

Nous constatons aussi que l’hypothèse a) implique l’inégalité suivante

|c

2n

(x)| ≤ C

1

var( ˆ f

hn

(x)) ∼ 1 nh

n

f (x)

Z

R

k

2

(t)dt = O 1

nh

n

. (1.11)

En combinant les relations (1. 5), (1. 10), (1. 11) nous obtenons le résultat a). Pour

montrer le cas b) il suffit de remarquer que la relation (1. 10) est toujours valable

(31)

mais la relation (1. 11) devient

|c

2n

(x)| ≤ E

1≤i≤n

max |Y

i

|

E h

f ˆ

hn

(x) − E( ˆ f

hn

(x)) i

2

(1.12)

"

n

X

i=1

E(Y

i2

)

#

12

h

E[ ˆ f

hn

(x) − E( ˆ f

hn

(x))]

4

i

12

(1.13)

= √

nE(Y

2

)

12

O 1

nh

n

(1.14)

= O 1

√ nh

n

(1.15) Les relations, (1. 10), (1. 11) et (1. 12) donnent le résultat b).

Maintenant nous sommes en mesure d’énoncer le résultat suivant.

Proposition 1.27.

Si les hypothèses (K. 1), (K. 2) et (K. 3) sont vérifiées et si f (.) et r(.) sont de classe C

2

(R) et si |y| est borné.

Alors :

E(ˆ r

hn

(x)) − r(x) = h

2n

2

r

00

(x) + 2r

0

(x) f

0

(x) f(x)

Z

R

u

2

k(u)du

(1 + o(1)). (1.16) Remarque.

(a) (K. 1), (K. 2) et (K. 3) peuvent être remplacées par le noyau k est d’ordre 2 au sens de Gasser et Müller.

(b) o(1)dans la relation (1. 16) est égale à O(h)O((nh)

−1

) Démonstration.

On a E( ˆ φ

hn

(x))

E( ˆ f

hn

(x)) − r(x) = [E(k

x − t h

n

)]

−1

Z

R

1 h

n

k

x − t h

n

φ(t)dt − r(x) Z

R

1 h

n

k

x − t h

n

f(t)dt

=

(f(x))

−1

h

n

2 φ

00

(x) − h

n

2 f

00

(x)

Z

R

k(u)du + φ(x) − r(x)f(x)

(1 + o(1)) Comme φ(x) = r(x)f(x) . L’équation précédente peut s’écrire :

E(ˆ r

hn

(x)) − r(x) = h

n

2

r

00

(x) − 2r

0

(x) f

0

(x) f(x)

Z

R

k(u)du

(1 + o(1)), D’où

n7−→∞

lim E(ˆ r

hn

(x)) = r(x).

Références

Documents relatifs

RESUME. Dans le cas de l’estimateur du noyau de Parzen-Rosenblatt, ou de l’histogramme, ce choix se limite essentiellement à la détermination de la fenêtre

Pour le lissage automatique dans Li, considérons comme nous l'avons fait pour les estimateurs combinés l'ensemble de toutes les densités et, dans cet ensemble, deux

[r]

Estimation de moyennes et fonctions de répartition de suites d’échantillonnage.. Annales

P^(e) est une mesure aléatoire; lorsque la suite {Xj} est d'un type convenable, par exemple : suite d'éléments indépendants, en chaîne strictement stationnaire, etc., l'étude de

N´eanmoins c’est en terme de comportement local de la fonction de r´epartition que s’explique le plus facilement le comportement des estimateurs fonctionnels (vitesse de

C'est ainsi que nous avons constaté que, dans certains départements tels que Basses- Alpes, Côte-d'Or, Creuse, Dordogne, Doubs, Eure-et-Loir, Gers, Lozère, Tarn-et-

Les régions qui comportent une densité supé- rieure à la moyenne générale (partie rose de la carte), n'occupent que le 22 cen- tième de la superficie totale de la France. Comme