• Aucun résultat trouvé

C.Tuleau-Malot Probabilit´esetobservations´economiques

N/A
N/A
Protected

Academic year: 2022

Partager "C.Tuleau-Malot Probabilit´esetobservations´economiques"

Copied!
81
0
0

Texte intégral

(1)

Probabilit´es et observations ´economiques

C. Tuleau-Malot

Universit´ e de Nice - Sophia Antipolis

(2)

Plan

1 Estimation ponctuelle

2 Estimation par intervalle de confiance

(3)

Vocabulaire

Etude statistique :

on ´etudie en g´en´eral ce que l’on appelle un caract` ere not´e

g´en´eralement X

(4)

Vocabulaire

Etude statistique :

on ´etudie en g´en´eral ce que l’on appelle un caract` ere not´e g´en´eralement X

ce caract`ere est associ´ee ` a une population qui est l’ensemble

des individus statistiques concern´es par l’´etude

(5)

Vocabulaire

Etude statistique :

on ´etudie en g´en´eral ce que l’on appelle un caract` ere not´e g´en´eralement X

ce caract`ere est associ´ee ` a une population qui est l’ensemble des individus statistiques concern´es par l’´etude

dans la pratique, on ne dispose que d’un ´ echantillon dont la

taille est g´en´eralement not´ee n

(6)

Vocabulaire

Etude statistique :

on ´etudie en g´en´eral ce que l’on appelle un caract` ere not´e g´en´eralement X

ce caract`ere est associ´ee ` a une population qui est l’ensemble des individus statistiques concern´es par l’´etude

dans la pratique, on ne dispose que d’un ´ echantillon dont la taille est g´en´eralement not´ee n

Exemple :

On veut connaˆıtre le % de fumeurs chez les plus de 18 ans.

La population est l’ensemble des personnes de plus de 18 ans.

L’´echantillon est l’ensemble des personnes sond´ees.

(7)

Vocabulaire (2)

A cette population, on associe une loi de probabilit´e P :

si on prend un individu tir´e au hasard dans la population, alors

le caract`ere X ´etudi´e est une variable al´eatoire suivant cette

loi P

(8)

Vocabulaire (2)

A cette population, on associe une loi de probabilit´e P :

si on prend un individu tir´e au hasard dans la population, alors le caract`ere X ´etudi´e est une variable al´eatoire suivant cette loi P

pour l’individu i , on note X i cette variable al´eatoire

(9)

Vocabulaire (2)

A cette population, on associe une loi de probabilit´e P :

si on prend un individu tir´e au hasard dans la population, alors le caract`ere X ´etudi´e est une variable al´eatoire suivant cette loi P

pour l’individu i , on note X i cette variable al´eatoire l’´echantillon de taille n est alors l’ensemble des variables X 1 , . . . , X n qui sont suppos´ees ind´ependantes et de mˆeme loi.

On parle de n variables al´eatoires iid (ind´ependantes et

identiquement distribu´ees)

(10)

Vocabulaire (2)

A cette population, on associe une loi de probabilit´e P :

si on prend un individu tir´e au hasard dans la population, alors le caract`ere X ´etudi´e est une variable al´eatoire suivant cette loi P

pour l’individu i , on note X i cette variable al´eatoire l’´echantillon de taille n est alors l’ensemble des variables X 1 , . . . , X n qui sont suppos´ees ind´ependantes et de mˆeme loi.

On parle de n variables al´eatoires iid (ind´ependantes et identiquement distribu´ees)

Exemple :

Dans l’´etude sur le % de fumeurs chez les plus de 18 ans, X i est

alors le fait que la personne sond´ee num´ero i soit fumeur ou non

(11)

Estimation

En g´en´eral, cette loi est inconnue.

(12)

Estimation

En g´en´eral, cette loi est inconnue.

Objectifs de l’estimation :

d´eterminer certaines caract´eristiques de cette loi, et ce ` a partir

de donn´ees sur l’´echantillon

(13)

Estimation

En g´en´eral, cette loi est inconnue.

Objectifs de l’estimation :

d´eterminer certaines caract´eristiques de cette loi, et ce ` a partir de donn´ees sur l’´echantillon

param`etres classiques : esp´erance et variance

(14)

Estimation (2)

Exemples :

si on reprend l’exemple du % de fumeurs, les variables X i

suivent une loi de Bernoulli p

⇒ comment estimer p?

(15)

Estimation (2)

On s’int´eresse au temps d’arriv´ee d’un client dans une file d’attente. On peut obtenir des observations en se rendant ` a un guichet et en relevant le temps entre l’arriv´ee de deux clients successifs.

Histogram of a

Density 0.20.40.60.81.01.2

(16)

Estimation (2)

On s’int´eresse au temps d’arriv´ee d’un client dans une file d’attente. On peut obtenir des observations en se rendant ` a un guichet et en relevant le temps entre l’arriv´ee de deux clients successifs.

Histogram of a

a

Density

0 1 2 3 4

0.00.20.40.60.81.01.2

(17)

Estimateur

Estimer une quantit´e a revient `a d´eterminer un estimateur de a ` a savoir une quantit´e construite ` a partir des donn´ees et qui

approchera a.

Cette quantit´e est g´en´eralement not´ee : A ˆ n := ˆ A(X 1 , . . . , X n )

Comme X 1 , . . . , X n sont des variables al´eatoires, ˆ A n est encore une

variable al´eatoire.

(18)

Estimateur (2)

Diff´erentes questions surviennent :

1

Comment construire un estimateur?

(19)

Estimateur (2)

Diff´erentes questions surviennent :

1

Comment construire un estimateur?

2

Quelle est la pr´ecision de cet estimateur?

(20)

Estimation de l’esp´erance

Loi des Grands Nombres :

Soit X 1 , . . . , X n des variables al´eatoires iid dont on note m l’esp´erance.

Avec probabilit´e 1, on a :

X 1 + . . . + X n

n −→

n−→ + ∞ m

(21)

Estimation de l’esp´erance

Loi des Grands Nombres :

Soit X 1 , . . . , X n des variables al´eatoires iid dont on note m l’esp´erance.

Avec probabilit´e 1, on a :

X 1 + . . . + X n

n −→

n−→ + ∞

m

Ainsi, une fa¸con d’estimer m est de consid´erer X

1

+...+ n X

n

.

(22)

Estimation de l’esp´erance

Loi des Grands Nombres :

Soit X 1 , . . . , X n des variables al´eatoires iid dont on note m l’esp´erance.

Avec probabilit´e 1, on a :

X 1 + . . . + X n

n −→

n−→ + ∞ m

Ainsi, une fa¸con d’estimer m est de consid´erer X

1

+...+ n X

n

.

X

1

+...+ X

n

n : variable al´eatoire

⇒ on appelle cela un estimateur

⇒ une observation d’un estimateur est appel´e estimation

(23)

Estimation de l’esp´erance (2)

Exemple :

On reprend l’exemple des fumeurs. Nous avons vu que pour

chaque individu i , on consid`ere une variable X i qui n’est autre

qu’une variable de Bernoulli de param`etre p.

(24)

Estimation de l’esp´erance (2)

Exemple :

On reprend l’exemple des fumeurs. Nous avons vu que pour chaque individu i , on consid`ere une variable X i qui n’est autre qu’une variable de Bernoulli de param`etre p.

Or :

p = E (X 1 ) = . . . = E (X n )

(25)

Estimation de l’esp´erance (2)

Exemple :

On reprend l’exemple des fumeurs. Nous avons vu que pour chaque individu i , on consid`ere une variable X i qui n’est autre qu’une variable de Bernoulli de param`etre p.

Or :

p = E (X 1 ) = . . . = E (X n ) Un estimateur ˆ P n est X

1

+...+ n X

n

.

Si l’on note x 1 , . . . , x n un jeu de donn´ees associ´e ` a X 1 , . . . , X n , une

estimation est alors x

1

+...+ n x

n

.

(26)

Estimation de l’esp´erance (2)

Exemple :

On reprend l’exemple des fumeurs. Nous avons vu que pour chaque individu i , on consid`ere une variable X i qui n’est autre qu’une variable de Bernoulli de param`etre p.

Or :

p = E (X 1 ) = . . . = E (X n ) Un estimateur ˆ p n est X

1

+...+ n X

n

.

Si l’on note x 1 , . . . , x n un jeu de donn´ees associ´e ` a X 1 , . . . , X n , une estimation est alors x

1

+...+ n x

n

.

Jeu de donn´ees : 0 0 0 1 0 0 1 1 1 0 0 0 1 0 0 0 0 1 0 0 0 0 0 1 0

1 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1 1 0 0 0 1 0 0 0 0

(27)

Estimation de l’esp´erance (2)

Exemple :

On reprend l’exemple des fumeurs. Nous avons vu que pour chaque individu i , on consid`ere une variable X i qui n’est autre qu’une variable de Bernoulli de param`etre p.

Or :

p = E (X 1 ) = . . . = E (X n ) Un estimateur ˆ p n est X

1

+...+ n X

n

.

Si l’on note x 1 , . . . , x n un jeu de donn´ees associ´e ` a X 1 , . . . , X n , une estimation est alors x

1

+...+ n x

n

.

Jeu de donn´ees : 0 0 0 1 0 0 1 1 1 0 0 0 1 0 0 0 0 1 0 0 0 0 0 1 0

1 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1 1 0 0 0 1 0 0 0 0

(28)

Estimation sur un exemple

Autre exemple :

Je prends le bus chaque matin et chaque matin je me demande quel temps je vais attendre au maximum.

Pour tenter de r´epondre ` a cela, je vais relever des donn´ees, ` a savoir, je note pour chacun des matins le temps que j’ai attendu.

Je dispose ainsi d’observations t 1 , . . . , t n des variables al´eatoires T 1 , . . . , T n qui sont ind´ependantes et de mˆeme loi.

Je sais que T i suit une loi uniforme sur [0, a].

a est donc le temps d’attente maximum du bus et constitue donc le param`etre inconnu que je cherche ` a estimer.

⇒ Comment?

(29)

Estimation sur un exemple (2)

M´ethode 1 :

a n’est pas le param`etre d’esp´erance

(30)

Estimation sur un exemple (2)

M´ethode 1 :

a n’est pas le param`etre d’esp´erance

E (T i ) = a 2

(31)

Estimation sur un exemple (2)

M´ethode 1 :

a n’est pas le param`etre d’esp´erance E (T i ) = a 2

T

1

+...+ T

n

n est un estimateur de a 2

(32)

Estimation sur un exemple (2)

M´ethode 1 :

a n’est pas le param`etre d’esp´erance E (T i ) = a 2

T

1

+...+ T

n

n est un estimateur de a 2

un estimateur de a est donc ˆ A n ,1 = 2. T

1

+...+ n T

n

(33)

Estimation sur un exemple (3)

M´ethode 2 :

a repr´esente le temps d’attente maximum

(34)

Estimation sur un exemple (3)

M´ethode 2 :

a repr´esente le temps d’attente maximum

on dispose de T 1 , . . . , T n

(35)

Estimation sur un exemple (3)

M´ethode 2 :

a repr´esente le temps d’attente maximum on dispose de T 1 , . . . , T n

A ˆ n ,2 = max (T 1 , . . . , T n )

(36)

Comparaison d’estimateur

Question : Comment dire si ˆ A n ,1 est meilleur ou non que ˆ A n ,2 ?

(37)

Comparaison d’estimateur

Question : Comment dire si ˆ A n ,1 est meilleur ou non que ˆ A n ,2 ?

R´eponse : On calcule l’erreur quadratique de ˆ A n ,1 et de ˆ A n ,2 et

l’estimateur qui a la plus petite erreur quadratique est d´eclar´e ˆetre

le meilleur.

(38)

Comparaison d’estimateur

Question : Comment dire si ˆ A n ,1 est meilleur ou non que ˆ A n ,2 ? R´eponse : On calcule l’erreur quadratique de ˆ A n ,1 et de ˆ A n ,1 et l’estimateur qui a la plus petite erreur quadratique est d´eclar´e ˆetre le meilleur.

Question : Qu’est ce que l’erreur quadratique d’un estimateur?

(39)

Comparaison d’estimateur

Question : Comment dire si ˆ A n ,1 est meilleur ou non que ˆ A n ,2 ? R´eponse : On calcule l’erreur quadratique de ˆ A n ,1 et de ˆ A n ,1 et l’estimateur qui a la plus petite erreur quadratique est d´eclar´e ˆetre le meilleur.

Question : Qu’est ce que l’erreur quadratique d’un estimateur?

R´eponse : L’erreur quadratique d’un estimateur ˆ A n d’un param`etre a est d´efini par :

EQ ( ˆ A n ) = E h

( ˆ A n − a) 2 i

(40)

Comparaison d’estimateur (2)

Propri´et´e de l’erreur quadratique :

EQ( ˆ A n ) = V [ ˆ A n ] + (b( ˆ A n )) 2 o` u :

b( ˆ A n ) = E [ ˆ A n ] − a : biais de ˆ A n

(41)

Comparaison d’estimateur (3)

Retour sur notre exemple du temps d’attente du bus.

(42)

Comparaison d’estimateur (3)

Retour sur notre exemple du temps d’attente du bus.

Calculons EQ( ˆ A n ,1 ) et EQ( ˆ A n ,2 ).

(43)

Comparaison d’estimateur (3)

E [ ˆ A n ,1 ] = E

2. T 1 + . . . + T n

n

(44)

Comparaison d’estimateur (3)

E [ ˆ A n ,1 ] = E

2. T 1 + . . . + T n

n

= 2. E

T 1 + . . . + T n

n

lin´earit´e de l’esp´erance

(45)

Comparaison d’estimateur (3)

E [ ˆ A n ,1 ] = E

2. T 1 + . . . + T n

n

= 2. E

T 1 + . . . + T n

n

= 2. E [T 1 ] + . . . + E [T n ]

n

(46)

Comparaison d’estimateur (3)

E [ ˆ A n ,1 ] = E

2. T 1 + . . . + T n

n

= 2. E

T 1 + . . . + T n

n

= 2. E [T 1 ] + . . . + E [T n ] n

= 2. E [T 1 ] + . . . + E [T 1 ]

n car de mˆeme loi

(47)

Comparaison d’estimateur (3)

E [ ˆ A n ,1 ] = E

2. T 1 + . . . + T n

n

= 2. E

T 1 + . . . + T n

n

= 2. E [T 1 ] + . . . + E [T n ] n

= 2. n. E [T 1 ]

n

(48)

Comparaison d’estimateur (3)

E [ ˆ A n ,1 ] = E

2. T 1 + . . . + T n

n

= 2. E

T 1 + . . . + T n

n

= 2. E [T 1 ] + . . . + E [T n ] n

= 2 E [T 1 ]

(49)

Comparaison d’estimateur (3)

E [ ˆ A n ,1 ] = E

2. T 1 + . . . + T n

n

= 2. E

T 1 + . . . + T n

n

= 2. E [T 1 ] + . . . + E [T n ] n

= 2 E [T 1 ]

= a

(50)

Comparaison d’estimateur (3)

V [ ˆ A n ,1 ] = V

2. T 1 + . . . + T n

n

(51)

Comparaison d’estimateur (3)

V [ ˆ A n ,1 ] = V

2. T 1 + . . . + T n

n

= 4

n 2 .V [T 1 + . . . + T n ]

(52)

Comparaison d’estimateur (3)

V [ ˆ A n ,1 ] = V

2. T 1 + . . . + T n

n

= 4

n 2 .V [T 1 + . . . + T n ]

= 4

n 2 .(V [T 1 ] + . . . + V [T n ]) car ind´ependance

(53)

Comparaison d’estimateur (3)

V [ ˆ A n ,1 ] = V

2. T 1 + . . . + T n

n

= 4

n 2 .V [T 1 + . . . + T n ]

= 4

n 2 .(V [T 1 ] + . . . + V [T n ])

= 4

n 2 .(V [T 1 ] + . . . + V [T 1 ]) car de mˆeme loi

(54)

Comparaison d’estimateur (3)

V [ ˆ A n ,1 ] = V

2. T 1 + . . . + T n

n

= 4

n 2 .V [T 1 + . . . + T n ]

= 4

n 2 .(V [T 1 ] + . . . + V [T n ])

= 4

n 2 .(V [T 1 ] + . . . + V [T 1 ])

= 4

n 2 .n.V [T 1 ]

(55)

Comparaison d’estimateur (3)

V [ ˆ A n ,1 ] = V

2. T 1 + . . . + T n

n

= 4

n 2 .V [T 1 + . . . + T n ]

= 4

n 2 .(V [T 1 ] + . . . + V [T n ])

= 4

n 2 .(V [T 1 ] + . . . + V [T 1 ])

= 4

n 2 .n.V [T 1 ]

= 4 a 2

(56)

Comparaison d’estimateur (3)

V [ ˆ A n ,1 ] = V

2. T 1 + . . . + T n

n

= 4

n 2 .V [T 1 + . . . + T n ]

= 4

n 2 .(V [T 1 ] + . . . + V [T n ])

= 4

n 2 .(V [T 1 ] + . . . + V [T 1 ])

= 4

n 2 .n.V [T 1 ]

= a 2 3.n

⇒ EQ( ˆ A n ,1 ) = 3. a

2

n

(57)

Comparaison d’estimateur (3)

Pour calculer E [ ˆ A n ,2 ] et V [ ˆ A n ,2 )], nous devons commencer par

d´eterminer la loi de ˆ A n ,2 .

(58)

Comparaison d’estimateur (3)

Pour calculer E [ ˆ A n ,2 ] et V [ ˆ A n ,2 ], nous devons commencer par d´eterminer la loi de ˆ A n ,2 .

Pour d´eterminer cette loi, nous allons regarder la fonction de

r´epartition.

(59)

Comparaison d’estimateur (3)

Pour calculer E [ ˆ A n ,2 ] et V [ ˆ A n ,2 ], nous devons commencer par d´eterminer la loi de ˆ A n ,2 .

Pour d´eterminer cette loi, nous allons regarder la fonction de r´epartition.

Pour rappel, la fonction de r´epartition se d´efinit par :

pour tout t r´eel, F (t) = P ( ˆ A n ,2 ≤ t)

(60)

Comparaison d’estimateur (3)

F (t ) = P ( ˆ A n ,2 ≤ t)

= P (max (T 1 , . . . , T n ) ≤ t )

(61)

Comparaison d’estimateur (3)

F (t ) = P ( ˆ A n ,2 ≤ t)

= P (max (T 1 , . . . , T n ) ≤ t )

= P (T 1 ≤ t, . . . , T n ≤ t)

(62)

Comparaison d’estimateur (3)

F (t) = P ( ˆ A n ,2 ≤ t)

= P (max (T 1 , . . . , T n ) ≤ t)

= P (T 1 ≤ t, . . . , T n ≤ t)

= P (T 1 ≤ t). . . . .P (T n ≤ t) car ind´ependance

(63)

Comparaison d’estimateur (3)

F (t) = P ( ˆ A n ,2 ≤ t)

= P (max(T 1 , . . . , T n ) ≤ t )

= P (T 1 ≤ t, . . . , T n ≤ t)

= P (T 1 ≤ t). . . . .P (T n ≤ t )

= P (T 1 ≤ t). . . . .P (T 1 ≤ t) car de mˆeme loi

= (P (T 1 ≤ t)) n

(64)

Comparaison d’estimateur (3)

Or la fonction de r´epartition pour une loi uniforme sur [0; a] est :

P (T 1 ≤ t ) =

 

 

0 si t ≤ 0

t

a si 0 ≤ t ≤ a

1 si t ≥ a

(65)

Comparaison d’estimateur (3)

Donc :

F (t) =

 

 

0 si t ≤ 0

t

n

a

n

si 0 ≤ t ≤ a

1 si t ≥ a

(66)

Comparaison d’estimateur (3)

D’o` u : La fonction de densit´e de ˆ A n ,2 est : f (t) =

( n

. t

n−1

a

n

si 0 ≤ t ≤ a

0 sinon

(67)

Comparaison d’estimateur (3)

On en d´eduit :

E [ ˆ A n ,2 ] =

Z + ∞

−∞

t .f (t).dt

= Z a

0

t. n.t n− 1 a n .dt

= Z a

0

. n.t n

a n .dt

= 1

a n [ n

n + 1 .t n +1 ] a 0

= n

n + 1 a

(68)

Comparaison d’estimateur (3)

Par ailleurs :

V [ ˆ A n ,2 ] = E [ ˆ A 2 n ,2 ] − ( E [ ˆ A n ,2 ]) 2

E [ ˆ A 2 n ,2 ] =

Z + ∞

−∞

t 2 .f (t ).dt

= Z a

0

t 2 . n.t n− 1

a n .dt

= Z a

0

. n.t n +1

a n .dt

= 1

a n [ n

n + 2 .t n +2 ] a 0

= n

n + 2 .a 2

(69)

Comparaison d’estimateur (3)

Au final :

EQ( ˆ A n ,2 ) = n n + 2 a 2

n n + 1 a

2

+ 1

n + 1 a 2

= 2

(n + 2).(n + 1) a 2

On doit donc comparer ( n +2).( 2 n +1) .a 2 ` a 6 2 n .a 2 .

(70)

Comparaison d’estimateur (3)

10 20 30 40 50

05001000150020002500

n

10 20 30 40 50

05001000150020002500

n (n+1).(n+2) 6.n

(71)

Comparaison d’estimateur (3)

Donc ( n +2).( 2 n +1) .a 2 est plus petit que 6 2 n .a 2

⇒ A ˆ n ,2 est meilleur que ˆ A n ,1 .

(72)

Comparaison d’estimateur : illustration

Donn´ees Jeu 1 Jeu 2 Jeu 3 Jeu 4 Jeu 5 Jeu 6 A ˆ n ,1 9.30 9.20 9.72 9.43 11.12 10.41 A ˆ n ,2 9.43 9.83 9.88 9.84 9.99 9.84 Donn´ees Jeu 7 Jeu 8 Jeu 9 Jeu 10

A ˆ n ,1 10.23 10.45 10.13 10.07 A ˆ n ,2 9.98 9.98 9.99 9.76 estimateur A ˆ n ,1 A ˆ n ,2

variance 0.36 0.03

(73)

Estimateur de la variance

Qu’en est-il pour la variance?

(74)

Estimateur de la variance

Qu’en est-il pour la variance?

On sait que :

V [X ] = E

(X − E [X ]) 2

(75)

Estimateur de la variance

Qu’en est-il pour la variance?

On sait que :

V [X ] = E

(X − E [X ]) 2 Donc, on peut estimer V [X ] par :

V ˆ n ,1 = 1

n (X 1 − X ¯ n ) 2 + . . . + (X n − X ¯ n ) 2

o` u ¯ X n = 1 n (X 1 + . . . + X n ).

(76)

Estimateur de la variance (2)

Il existe un second estimateur de la variance qui est d´efini par : V ˆ n ,2 = 1

n − 1 (X 1 − X ¯ n ) 2 + . . . + (X n − X ¯ n ) 2 soit

V ˆ n ,2 = n

n − 1 V ˆ n ,1

(77)

Estimateur de la variance : illustration

Donn´ees Jeu 1 Jeu 2 Jeu 3 Jeu 4 Jeu 5 Jeu 6 V ˆ n ,1 9.38 8.61 8.05 9.62 6.75 8.2 V ˆ n ,2 9.57 8.79 8.22 9.82 6.89 8.36 Donn´ees Jeu 7 Jeu 8 Jeu 9 Jeu 10

V ˆ n ,1 7.26 7.97 6.45 9.2 V ˆ n ,2 7.41 8.13 6.58 9.4 estimateur V ˆ n ,1 V ˆ n ,2

moyenne 8.15 8.32

(78)

Estimateur : conclusion

Un estimateur est une variable al´eatoire, et donc poss`ede une loi de probabilit´e

on veut que quand n est grand il devienne pr´ecis : sa densit´e doit ˆetre tr`es piqu´ee autour de la valeur du param`etre que l’on cherche ` a estimer

l’esp´erance de l’estimateur doit ˆetre proche de la quantit´e cherch´ee

la variance de l’estimateur doit ˆetre aussi faible que possible

(79)

Introduction

Ce que l’on a pˆ u voir, avec les 10 jeux de donn´ees, c’est que mˆeme lorsque l’on simule des observations qui suivent la mˆeme loi, les estimations changent d’un jeu de donn´ees ` a un autre.

⇒ fluctuation d’´echantillonnage

(80)

Introduction

Ce que l’on a pˆ u voir, avec les 10 jeux de donn´ees, c’est que mˆeme lorsque l’on simule des observations qui suivent la mˆeme loi, les estimations changent d’un jeu de donn´ees ` a un autre.

⇒ fluctuation d’´echantillonnage

Comment quantifier cela?

(81)

Introduction

Ce que l’on a pˆ u voir, avec les 10 jeux de donn´ees, c’est que mˆeme lorsque l’on simule des observations qui suivent la mˆeme loi, les estimations changent d’un jeu de donn´ees ` a un autre.

⇒ fluctuation d’´echantillonnage

Comment quantifier cela?

En construisant un intervalle de confiance!

Références

Documents relatifs

Si, au cours de l’´ epreuve, vous rep´ erez ce qui vous semble ˆ etre une erreur d’´ enonc´ e, vous le signalez sur la copie et poursuivez l’examen en expliquant les raisons

il poursuit activement ses travaux sur la chaleur 1817 : Fourier est ´elu membre de l’Acad´emie des Sciences 1822 : publication de la “Th´eorie Analytique de la Chaleur”... La vie

Gilbert Demengel, Transformations de Fourier g´ en´ eralis´ ees : s´ eries et transformations de Fourier et de Walsh, leurs extensions,. transformations discr` etes et rapides :

Si f est une fonction ind´ efiniment d´ erivable dans un intervalle autour de a, son d´ eveloppement limit´ e ` a l’ordre n en a n’est autre que son polynˆ ome de Taylor d’ordre

Recherchons une droite (L) coupant AB en M, AC en N et telle que les polygones AMN et BMNC aient mˆ eme aire et mˆ eme p´ erim` etre.. Soit P le point de contact du cercle inscrit

Perdre ses photos de vacances : ¸ca n’a pas de

Alors comme k = 2, cela nous conduit au fait que x apparaˆıt une fois appliqu´e, et une fois non

D´emontrer que l’ensemble des fonctions born´ees d’un espace m´etrique ` a valeurs dans un espace m´etrique complet est un espace m´etrique complet pour la distance de la