• Aucun résultat trouvé

Lois de probabilité issues de gaussiennes réitérées

N/A
N/A
Protected

Academic year: 2021

Partager "Lois de probabilité issues de gaussiennes réitérées"

Copied!
6
0
0

Texte intégral

(1)

HAL Id: inria-00386745

https://hal.inria.fr/inria-00386745

Submitted on 22 May 2009

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de

Lois de probabilité issues de gaussiennes réitérées

Souad Elotmani, Armand Maul

To cite this version:

Souad Elotmani, Armand Maul. Lois de probabilité issues de gaussiennes réitérées. 41èmes Journées de Statistique, SFdS, Bordeaux, 2009, Bordeaux, France, France. �inria-00386745�

(2)

Lois de probabilit´ e issues de gaussiennes r´ eit´ er´ ees

Souad El Otmani & Armand Maul

Universit´e Paul Verlaine-Metz, LMAM, CNRS UMR 7122, Ile du Saulcy, METZ, F-57045, France

R´esum´e

Probability distributions arising from nested Gaussians. We consider a random sample X1, . . . , Xn of size n≥1 from an N(µ, σ21) Gaussian law. Then, conditionnaly on eachXi, i= 1, . . . , n, we define a new random sampleXi,1, . . . , Xi,n

from theN(Xi, σ22) normal distribution (N(Xi, σ22) is notation introduced for conve- nience). Assuming that the so obtained n new random samples are conditionnaly independent, we get a second step randomly generated set of points. The ques- tion is to investigate the properties of this set. We give a theorem precising the limiting density obtained whenn approaches infinity, and we generalize this theo- rem by studying what occurs when repeating this process until, conditionnaly on each Xi1,i2,...,ip

1, i1 = 1, . . . , n1, i2 = 1, . . . , n2, . . . , ip−1 = 1, . . . , np−1, we get new random samples Xi1,i2,...,ip, ip = 1, . . . , np, from the N(Xi1,i2,...,ip1, σ2p) normal distribution.

On consid`ere un ´echantillon al´eatoireX1, . . . , Xnsuivant la loi normaleN(µ, σ21), de taille n ≥ 1. Conditionnellement `a chaque Xi, i= 1, . . . , n, on d´efinit un nou- vel ´echantillon al´eatoireXi,1, . . . , Xi,n suivant la loi normaleN(Xi, σ22) (N(Xi, σ22) est une notation introduite par commodit´e). Sous l’hypoth`ese que les n nouveaux

´echantillons al´eatoires ainsi obtenus sont conditionnellement ind´ependants, on ob- tient un ensemble de points al´eatoires de seconde g´en´eration. La question est d’´etudier les propri´et´es de cet ensemble. On donne un th´eor`eme pr´ecisant la densit´e limite obtenue lorsquentend vers l’infini, et on g´en´eralise ce th´eor`eme en ´etudiant ce qui se produit lorsque que l’on r´ep`ete cette proc´edure jusqu’`a obtenir, conditionnelle- ment `a chaqueXi1,i2,...,ip1, i1= 1, . . . , n1, i2 = 1, . . . , n2, . . . , ip−1= 1, . . . , np−1, de nouveaux ´echantillons al´eatoires Xi1,i2,...,ip, ip = 1, . . . , np suivant la loi normale N(Xi1,i2,...,ip−1, σp2).

Mots cl´es : M´elanges gaussiens, lois limites, densit´es limites, loi normale.

1 Un r´ esultat pr´ eliminaire

Soient µ∈ R et σ1 > 0, σ2 > 0. On consid`ere un ´echantillon al´eatoire X1, . . . , Xn de taillen≥1 issu d’une loi gaussienneN(µ, σ12). Conditionnellement `a chaqueXi, i= 1, . . . , n, d´efinissons un nouvel ´echantillon al´eatoireXi,1, . . . , Xi,nissu d’une loi gaussienneN(Xi, σ22).

(3)

Si nous supposons que lesnnouveaux ´echantillons al´eatoires ainsi obtenus sont condition- nellement ind´ependants, nous obtenons un ensemble de n2 points de seconde g´en´eration.

Nous prouvons le r´esultat suivant, relatif `a ce nouvel ensemble de points.

Theorem 1 Notons xi une r´ealisation de Xi, i = 1, . . . , n. L’ensemble g´en´er´e `a la seconde g´en´eration est, conditionnellement `a l’´echantillon initial, un m´elange Gaussien (Arora et Kannan (2001), Dasgupta (1999), Everitt et Hand (1981), McLachlan et Peel (2000)) dont la densit´e conditionnelle, X1, . . . , Xn ´etant donn´es, est de la forme

hn(x) = 1 n

√ 1 2πσ2

n

X

i=1

e

(x−xi)222 , et on a

nlim→∞

hn(x) = lim

n→∞

h1 n

√ 1 2πσ2

n

X

i=1

e

(x−xi)222

i = 1

p2π(σ1222)e

(x−µ)2 2(σ2122), qui est la densit´e au point x de la gaussienne de moyenne µet de variance σ1222.

Preuve du Th´eor`eme 1 Par souci de simplicit´e, nous prouvons ce r´esultat pour µ= 0 et σ12 = 1. Pour des valeurs quelconques de µ, σ1 et σ2, la d´emonstration est identique avec des changements de variables ´evidents dans les int´egrales ci-dessous.

Ainsi, consid´erons des r´ealisations x1, . . . , xn de X1, . . . , Xn (X suit la gaussienne N(0,1)) et, pourxfix´e, d´efinissonsyi = 1

√2πe

(xi−x)2

2 . Alors, lesyisont des r´ealisations

de la variable al´eatoire ϕ(X), o`u ϕ(t) = 1

√2πe

(t−x)2

2 .

Posons yn = (y1 +. . .+yn)/n. En vertu de la loi des grands nombres, on a lim

n→∞

yn = E(ϕ(X)).

Calculons E(ϕ(X)). on aE(ϕ(X)) = Z

R

ϕ(t)f(t)dt = 1 2π

Z

R

e−(t−x)2

2 e

t2 2dt.

Posant s=t− x

2, on obtient

nlim→∞

yn= 1 2π

Z

R

e

(s− x2)2

2 e

(s+ x2)2

2 ds= 1 2π

Z

R

e

(−s2+sx−x2/4−s2−sx−x2/4)

2 ds,

= 1

2π Z

R

e−s2ex

2

4 ds= 1

2πe

x2 4

Z

R

es2ds= 1

√2π

√2 2 e

x2 4 .

En cons´equence, nous venons de prouver que lorsque n tend vers ∞, l’ensemble g´en´er´e `a la seconde g´en´eration peut ˆetre consid´er´e comme constitu´e de r´ealisations d’une variable al´eatoire qui suit la distribution gaussienneN(0,2).

(4)

2 Un th´ eor` eme g´ en´ eral

Soient µ∈R et σ1 >0, . . . , σp >0. Consid´erons un ´echantillon al´eatoire X1, . . . , Xn1

de taillen1 ≥1, et issu d’une distribution gaussienneN(µ, σ12). Alors, conditionnellement

`a chaque Xi1, i1 = 1, . . . , n1, d´efinissons un nouvel ´echantillon al´eatoire Xi1,1, . . . , Xi1,n2

issu de la gaussienne N(Xi1, σ22) (avec les mˆemes notations que pr´ec´edemment). Sup- posant que les n1 nouveaux ´echantillons al´eatoires ainsi obtenus sont conditionnelle- ment ind´ependants, on obtient un ensemble de seconde g´en´eration, compos´e de n1n2 points g´en´er´e al´eatoirement. Nous r´ep´etons cette op´eration jusqu’`a ce que, conditionnel- lement `a chaque Xi1,i2,...,ip

1, i1 = 1, . . . , n1, i2 = 1, . . . , n2, . . . , ip−1 = 1, . . . , np−1, nous ayons d´efini un nouvel ´echantillon al´eatoire Xi1,i2,...,ip, ip = 1, . . . , np, issu de la gaus- sienneN(Xi1,i2,...,ip1, σp2). Supposant que lesn1n2. . . np−1nouveaux ´echantillons al´eatoires sont conditionnellement ind´ependants, nous obtenons un ensemble de pi`eme g´en´eration, constitu´e de n1n2. . . np points g´en´er´es al´eatoirement. Nous prouvons le r´esultat suivant, relatif `a cet ensemble de points.

Theorem 2Si xd´esigne une r´ealisation de X, l’ensemble g´en´er´e al´eatoirement apr`es l’´etape pest un m´elange gaussien de densit´e conditionnelle

hn1,n2,...,np1(x) = 1 n1n2. . . np−1

√ 1 2πσnp

n1

X

i1=1 n2

X

i2=1

. . .

np1

X

ip1=1

e

(x−xi1,i2,...,ip−1)22p .

Faisons tendren1, n2, . . . , np−1 vers ∞. On a

n1,n2,...,nlimp1→∞

hn1,n2,...,np1(x) = 1 v u u t2π

p

X

i=1

σ2i e

(x−µ)2 2

p

X

i=1

σi2 .

Preuve du th´eor`eme 2 L’expression de la densit´e conditionnelle est claire dans la mesure o`u l’ensemble de nombres de pi`eme g´en´eration est un m´elange gaussien. Aussi nous employons-nous `a prouver la seconde ´equation du th´eor`eme 2.

Si p= 3, la densit´e conditionnelle du m´elange gaussien est

hn1,n2(x) = 1 n1n2

√ 1 2πσ3

n1

X

i=1 n2

X

j=1

e

(x−xi,j)223 .

(5)

Lorsque n1 et n2 tendent vers ∞, on a

n1,nlim2→∞

hn1,n2(x) = lim

n1→∞

1 n1

n1

X

i=1

h

nlim2→∞

1 n2

√ 1 2πσ3

n2

X

j=1

e

(x−xi,j)223

i .

D’apr`es le th´eor`eme 1, cette ´equation s’´ecrit

n1,nlim2→∞

hn1,n2(x) = lim

n1→∞

1 n1

n1

X

i=1

h 1

p2π(σ2232)e

(x−xi)2 2(σ2232)i

= 1

p2π(σ122232)e

(x−µ)2 2(σ212223) En cons´equence, pour tout p∈N, on a

n1,n2,...,nlimp1→∞

hn1,n2,...,np1(x) =

= lim

n1→∞

1 n1

n1

X

i1=1

h lim

n2→∞

1 n2

n2

X

i2=1

h. . . 1 np−2

np−2

X

ip−2=1

h lim

np−1→∞

1 np−1

√ 1 2πσp

np−1

X

ip−1=1

e

(x−xi1,i2,...,ip1)2p2 i

= lim

n1→∞

1 n1

n1

X

i1=1

h lim

n2→∞

1 n2

n2

X

i2=1

h. . . 1 np−2

np2

X

ip2=1

h 1

q2π(σp2−1p2) e

(x−xi1,i2,...,ip−2)2 2(σ2p−12p) i

= lim

n1→∞

1 n1

n1

X

i1=1

h lim

n2→∞

1 n2

n2

X

i2=1

h. . . 1 np−3

np

3

X

ip

3=1

h 1

q2π(σp2−2p2−1p2) e

(x−xi1,i2,...,ip3)2 2(σp2−2p2−1p2)i

= . . .

= 1

v u u t2π

p

X

i=1

σi2 e

(x−µ)2 2

p

X

i=1

σ2i .

Remarque Faisons tendre p vers ∞.

– Si lesσisont tels que

X

i=1

σi2 =β <∞,alors la densit´e est h(x) = 1

√2πβe−(x−µ)2 2β , c’est-`a-dire la densit´e au point x d’une gaussienne de moyenne µet de variance β.

– Si les σisont tels que

X

i=1

σ2i =∞, alors l’expression limite de h(x)est nulle.

(6)

3 Conclusion

Cette ´etude a ´et´e fortement motiv´ee par des observations pratiques. Dans le domaine de la botanique, nous nous sommes int´eress´es au mode de reproduction du chlorophytum (ou plante araign´ee), une plante qui se d´eveloppe dans les forˆets naturelles indiennes, de l’est de l’Assam au Gujarat. Elle produit de nouvelles petites plantes situ´ees au bout de longues tiges arc´ees, dont la localisation peut ˆetre vue comme ob´eissant `a une loi gaussienne (la plupart des plantelettes se disposent au voisinage imm´ediat de la plante d’origine). En parvenant `a maturit´e, chaque plantelette produit `a son tour de nombreuses nouvelles plantelettes, dont la distribution est conforme `a notre mod`ele. Dans le domaine militaire, nous avons ´etudi´e les impacts des bombes `a fragmentations. En explosant, ces bombes

´ejectent de multiples petites bombes, dites bombelettes. La distribution des impacts des bombelettes autour du point d’explosion de la bombe originale peut ˆetre vue comme une gaussienne. En frappant le sol, chaque bombelette explose `a son point d’impact, ´ejectants des ´eclats qui se r´epandent `a leur tour sur le sol environnant suivant une distribution gaussienne. Comme on le voit sur ces exemples, notre ´etude peut donc ˆetre utilis´ee pour mod´eliser certains ph´enom`enes naturels ou artificiels.

Bibliographie

[1] S. Arora, R. Kannan (2001) Learning Mixtures of Arbitrary Gaussians, Symposium on Theory of Computing (STOC).

[2] S. Dasgupta (1999) Learning Mixtures of Gaussians, Proc. of Symposium on Founda- tions of Computer Science (FOCS).

[3] S. El Otmani, A. Maul (2009) Probability distributions arising from nested Gaussians, C. R. Acad. Sci. Paris, Ser. I 347.

[4] B. S. Everitt, D. J. Hand (1981) Finite Mixture Distributions, Chapman and Hall, New York.

[5] R. J. Herrnstein, C. Murray (1994) The Bell Curve : Intelligence and Class Structure in American Life, Free Press. ISBN 0-02-914673-9.

[6] G. J. McLachlan, D. Peel (2000) Finite Mixture Models, Wiley, New York.

[7] J. K. Patel, C. B. Read (1982) Handbook of the Normal Distribution, New York : Dekker.

[8] M. R. Sheldon (2003) Introduction to Probability Models, 8th ed., Academic Press, San Diego.

Références

Documents relatifs

(59%) of these studies combined RDS samples with sam- ples collected using other sampling techniques; five (16%) failed to generate a minimum of three referral waves, four (13%)

Dans un second temps, nous nous efforce- rons de nous lib´ erer de la contrainte d’exploiter un mod` ele num´ erique d’´ el´ evation – sources disponibles gratuitement mais avec

Dans cette partie, nous allons utiliser ce qui a ´ et´ e pr´ esent´ e dans les parties pr´ ec´ edentes en r´ ealisant une application client fonctionnant sur la carte FOX permettant

Mat´ eriel Interface sous Qt Google Maps Google Earth Geoportail Photographies num´ eriques Conclusion et bibliographie.. Acquisition, exploitation et diffusion de donn´ ees issues

On dispose d’une urne contenant un très grand nombre de boules rouges et bleues. On ignore quelle est la proportion

Puisque le temps d’ex´ ecution d’un algorithme sur une entr´ ee de taille constante est une constante, les r´ ecurrences sous-jacentes au calcul du temps d’ex´ ecution

[r]

D´ eterminer les estimateurs de la densit´ e par la m´ ethode de l’histogramme, de l’ASH et du polygˆ one des fr´ equences en utilisant diff´ erentes tailles de fenˆ etre (ou