• Aucun résultat trouvé

Apprentissage statistique - TD3

N/A
N/A
Protected

Academic year: 2022

Partager "Apprentissage statistique - TD3"

Copied!
5
0
0

Texte intégral

(1)

Apprentissage statistique - TD3

Lucie Le Briquer 15 février 2018

Exercice 5.1

1. Proposition5.2 : (a)

(supp(µ))C ={x∈Rd | ∃ voisinageUx µ(Ux) = 0}

= [

Oouvert tqµ(O)=0

O

(b) A∈ B(Rd),A⊂(supp(µ))C alorsµ(A) = 0

Il suffit de montrer que µ(supp(µ)C) = 0. µ mesure finie sur Rd donc de Radon. Alors

∀A∈ B(Rd):

µ(A) = sup

K⊂Acpct

µ(K) Donc :

µ((supp(µ))C) = sup

K⊂(supp(µ))C cpct

µ(K)

On montre que ∀K ⊂(supp(µ))C compactµ(K) = 0. Soit un tel K. ∀x∈K ∃Ux tel que µ(Ux) = 0.

K= [

x∈K

Ux =

compacité n

[

i=1

Uxi

Doncµ(K)6Pn

i=1µ(Uxi) = 0.

2. On veut montrer que : P

Å

n→+∞lim kX(kn)(x)−xk= 0 ã

= 1 Cela revient à :

P Ñ

\

ε∈Q

[

N∈N

\

n>N

kX(kn)(x)−xk>ε é

= 1 Il suffit de montrer que∀ε∈Q:

P Ñ

[

N∈N

\

n>N

kX(kn)(x)−xk>ε é

= 0

(2)

Soitn∈N,

kX(kn)(x)−xk>ε ⊂ (1

n

n

X

i=1

1B(x,ε)(Xi)6 kn

n )

Alors, comme knn →0, [

N∈N

\

n>N

(1 N

n

X

i=1

1B(x,ε)(Xi)6 kn

n )

⊂ (

n→+∞lim 1 n

n

X

i=1

1B(x,ε)(Xi) = 0 )

=A Or par hypothèse x∈supp(µ), alors par la LFGN :

P Å

n→+∞lim 1 n

n

X

i=1

1B(x,ε)(Xi) =P(B(x, e))

| {z }

B

ã

= 1

A∩B=∅ etP(B) = 1. Donc :

P(A)6P(A∩B)

| {z }

=0

+P(A∩BC

| {z }

=0

) = 0

Remarque. La convergence en probabilité est beaucoup plus simple. Soitε >0.

P(kX(kn)(x)−xk>ε)6P 1 n

n

X

i=1

1B(x,ε)(Xi)6 kn n

!

6P 1 n

n

X

i=1

[PX(B(x, ε)−1B(x,e)(Xi)]>PX(B(x, ε))−kn

n

!

BT6

1

PX(B(x, ε))−knn2Var ï1

n

X1B(x,ε)(Xi) ò

6 1 n2

nP(B(x, ε)) 1−PX(B(x, ε))

PX(B(x, ε))−knn2 −−−−−→

n→+∞ 0 3. On supposekn=kpour toutn. Soitε >0.

P(kX(kn)(X)−Xk>ε) =E ï

1X∈supp(PX)E

î1kX(kn)(X)−Xk>ε|Xó

| {z }

ψn(X)

ò

D’après (1), on a pour tout x ∈ supp(PX), limn→+∞ψn(x) = 0. Par le TCD on a donc que :

P(kX(kn)(X)−Xk>ε)−−−−−→

n→+∞ 0 kX(kn)(X)−X)k −−−−−→

n→+∞ 0 enP (∗). Si kn = alors{kX(k)−Xk}n∈N est décroissante et minorée donc converge P−p.s. vers Z. Par(∗),Z = 0.

Maintenant(kn)peut varier.

Zn(X) = sup

m>n

kX(kn)(X)−X)k

On montre de même queZn converge en probabilité vers 0 et est décroissante minore donc convergeP−p.s. vers 0.

(3)

Exercice 5.2 1.

n(x) =1η(x)>12}

avec :

ˆ

ηn(x) = 1 kn

kn

X

j=1

y(j)(x) >1

2 ⇔

kn

X

j=1

y(j)(x)−kn

2

| {z }

ψn

>0

La règle NN est donc bien locale.

2. On suppose pour la suite queYi=1{Ui6η(Xi)}. Remarque. Si(Xi, Yi)i.i.d., on définit :

i=1{Ui6η(Xi)}

Xi∼PX,Y˜i|Xi ∼ B(η(Xi)). Donc les(Xi, Yi)et(Xi,Y˜i)ont même loi.

Yi0(X)|X ∼ B(η(X)). Comme lesUi sont i.i.d. et indépendantes deX,Yi0(X)|X sont aussi i.i.d.

P Å

ψn(x, Y(1)(x), . . . , Y(kn)(x))6=ψn(x, Y(1)0 (x), . . . , Y(k0

n)(x)) ã

6

kn

X

i=1

P Y(i)(x)6=Y(i)0 (x)

6

kn

X

i=1

P {η(Xi(x))6Ui6η(x)} ∪ {η(x)6Ui6η(X(i)(x))}

6

kn

X

i=1

E[P(. . .|(Xi)]

=

kn

X

i=1

E[|η(X(i)(x))−η(x)|]

Alors :

P(fn(X)6= ˆfn(X)) =E[P( ˆfn(X)6= ˆfn0(X)|X)]

6E

P ψn(X, Y(1)(X), . . .)6=ψn(X, Y(1)0 (X), . . .)|X 6

kn

X

i=1

E[|η(X(i)(x))−η(x)|]

3. E[[f[(X)]<+∞, knn −−−−−→

n→+∞ 0. Montrons que : 1

kn kn

X

j=1

E[|f(X)−f(X(j)(X))|]−−−−−→

n→+∞ 0

(4)

Si µest une mesure sur (Rd,B(Rd)), pour toutf ∈ L1(µ), ∃fε uniformément continue et bornée telle que :

Z

|f −fε|(x)µdx6ε Lemme de Stone :

1 kn

kn

X

j=1

E[|f(X(j)(x)|]6γdE[|f|(X)]

4. Soitε >0, fε,Aassocié à l’UC defε. 1

kn kn

X

j=1

E

|f(X)−f(X(j)(X))|

6 1 kn

kn

X

j=1

E

|f(X)−fε(X)|

| {z }

6ε

+E

|fε(X)−f(X(j)(X))|

| {z }

Bj

+E

|fε(X)−fε(X(j)(X))|

| {z }

Cj

On a

1 kn

kn

X

j=1

BjdE[|f−fε|(X)] par le lemme de Stone

Cj 6E

|fε(X)−fε(X(j)(X))|1|X−X(j)(X)|>A+|fε(X)−fε(X(j)(X))|1|X−X(j)(X)|<A

6ε+E

|fε(X)−fε(X(j)(X))|

| {z }

borné

1|X−X(j)(X)|>A

| {z }

−→0P−p.s.

6ε+un

Alors,

∀ε, lim

n

1 kn

kn

X

j=1

E[. . .]6(2 +γd)ε 5. Montrons que :

E

Ä|1fˆn0(X)6=Y −1fˆn(X)6=Y

ä−−−−−→

n→+∞ 0 E

Ä|1fˆn0(X)6=Y −1fˆn(X)6=Y

ä=P( ˆfn0(X)6= ˆfn(X)) 6

k

X

j=1

E(|η(X)−η(X(j)−X))|)−−−−−→

n→+∞ 0

Exercice 5.3

1. fˆest locale donc d’après l’exercice précédent :

n→+∞lim E îRDn

P ( ˆf)ó

= lim

n→+∞P fˆn0(X)6=Y

(5)

Soitn>k.

P( ˆfn0(X)6=Y) =P(Y(1)0 (X)6=Y)

=E î

P(Y(1)0 (X)6=Y|X)ó

Or sachantX, on a Y(1)0 (X)⊥Y et les deux sont des Bernouilli de paramètreη(X). Donc P(Y(1)0 (X)6=Y|X) = 2η(X)(1−η(X))

2. Z v.a. dansI⊂Rf, g:I−→Rcroissantes. Montrons que : E[f(Z)g(Z)]−E[f(Z)]E[g(Z)]>0 Z

f(z)g(z)Pz(dz)− Z

f(˜zPZ(d˜z) Z

g(z)Pz(dz) = Z Z

(f(z)−f(˜z))g(z)PZ(dz)Pz(d˜z)

= Z Z

1z<z˜ (f(z)−f(˜z))g(z)PZ(dz)PZ(d˜z) +

Z Z

1˜z>z(f(z)−f(˜z))g(z)Pz(dz)Pz(d˜z) =B B=

Z Z

1z>˜z(f(˜z)−f(z))g(˜z)PZ(d˜z)PZ(dz) Finalement,

= Z

1z>˜z(f(z)−f(˜z))(g(z)−g(˜z))dPZ(z)dPZ(˜z)>0 3.

RNNP = 2E[f(η(X))g(η(X))]

f(p) = min(p,1−p)et g= 1−min(p,1−p). Alors par 2) :

RPNN62E[f(η(X))]E[1−η(X)]62RP(1−RP)

Exercice 5.4 kimpair.

n→+∞lim E[RDn

P ( ˆf)] =Rk−NN

P n→+∞lim P(Y 6= ˆfn0(X)) =Rk−NNP P(Y 6= ˆfn0(X)) =E

P(Y 6=fn0(X)|X)

=E ï

P Å

Y = 1,X

Y(j)0 >k 2 |X

ã +P

Å

Y = 0,X

Y(j)0 6k 2 |X

ãò

SachantX,Y,(Y(j)(X))i.i.d.∼ B(η(X)), on obtient :

=E ï k

X

e=k+12

P(Y = 1|X)

| {z }

η(X)

P(X

Y(j)0 (X) =e|X)

| {z }

Åk e ã

η(X)e(1−η(X))k−e

ò +

k−1 2

X

e=1

P(Y = 0|X). . .

Références

Documents relatifs

enfin il existe une masse médiastinale postérieure en communication avec l'infiltration pré et péri rachidienne.. le contenu est faiblement hypodense par rapport aux

Les choix de méthodes, de modèles, sont complexes à opérer et se dé- clinent en sous-objectifs qui restreignent où précisent les classes de modèles à considérer. L’objectif

Université de Caen M1.

q  L’intérêt de telle méthode est de répéter la procédure et d’utiliser chaque ensemble de données pour construire un modèle et le tester. q  On dispose alors

Ajouter à ce modèle à une co-variable la co-variable qui fait baisser le plus le SSE. Continuer jusqu’à un critère d’arrêt (par exemple sur la p-value

Les choix de méthodes, de modèles, sont complexes à opérer et se dé- clinent en sous-objectifs qui restreignent où précisent les classes de modèles à considérer. L’objectif

Dorénavant on suppose que l’on a une famille convexe de classifieurs

[r]