• Aucun résultat trouvé

Séparation bayésienne de sources spectrales sous contraintes de positivité et d'additivité

N/A
N/A
Protected

Academic year: 2021

Partager "Séparation bayésienne de sources spectrales sous contraintes de positivité et d'additivité"

Copied!
5
0
0

Texte intégral

(1)

HAL Id: hal-00455608

https://hal.archives-ouvertes.fr/hal-00455608

Submitted on 14 Feb 2010

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Séparation bayésienne de sources spectrales sous contraintes de positivité et d’additivité

Nicolas Dobigeon, Saïd Moussaoui, Jean-Yves Tourneret

To cite this version:

Nicolas Dobigeon, Saïd Moussaoui, Jean-Yves Tourneret. Séparation bayésienne de sources spectrales

sous contraintes de positivité et d’additivité. XXIième Colloque GRETSI sur le Traitement du Signal

et des Images, Sep 2007, Troyes, France. pp.CDROM. �hal-00455608�

(2)

S´ eparation bay´ esienne de sources spectrales sous contraintes de positivit´ e et d’additivit´ e

Nicolas Dobigeon 1 , Sa¨ıd Moussaoui 2 , Jean-Yves Tourneret 1

1 IRIT/ENSEEIHT/T´eSA

2 rue Charles Camichel, BP 7122, 31071 Toulouse cedex 7, France

2 IRCCyN – CNRS UMR 6597

1 rue de la No¨e, BP 92101, 44321 Nantes Cedex 3, France

{Nicolas.Dobigeon, Jean-Yves.Tourneret}@enseeiht.fr, Said.Moussaoui@irccyn.ec-nantes.fr

R´ esum´ e – Cet article d´ecrit une m´ethode d’analyse de m´elanges de sources spectrales lorsque des contraintes d’additivit´e et de positivit´e sont impos´ees sur les coefficients du m´elange. Nous d´efinissons un mod`ele bay´esien hi´erarchique permettant de traduire ces contraintes qui sont alors prises en compte par m´ethode d’estimation bay´esienne coupl´ee `a un ´echantillonneur de Gibbs.

L’algorithme r´esultant est illustr´e sur un m´elange synth´etique.

Abstract – This paper addresses the problem of spectral unmixing under positivity and additivity constraints for the mixing coefficients. A hierarchical Bayesian model is introduced to satisfy these positivity and additivity constraints. A Gibbs sampler is then studied to simulate samples distributed according to the posterior of the unknown parameters associated to this Bayesian model. Simulation results conducted with synthetic data illustrate the performance of the proposed algorithm.

1 Introduction

Nous consid´erons dans cet article un probl`eme de s´epa- ration de sources spectrales qui est rencontr´e en :

1. chimie analytique o` u le spectre d’absorbance d’une substance multicomposantes est d’apr`es la loi de Beer- Lambert un m´elange lin´eaire des signatures spec- trales des composantes pond´er´e par les concentra- tions de ces composantes ;

2. imagerie hyperspectrale o` u le spectre de r´eflectance issu d’un pixel de l’image est interpr´et´e comme un m´elange lin´eaire des r´eflectances de diff´erents consti- tuants de la zone g´eographique correspondant `a ce pixel. La pond´eration de chaque spectre dans le m´e- lange correspond `a l’abondance du constituant.

Ainsi, sous hypoth`ese de lin´earit´e du m´elange, le mod`ele d’observation s’´ecrit :

y i,j = X M

m=1

c i,m s m,j + e i,j , (1) o` u y i,j est le spectre du m´elange observ´e `a l’instant i (i = 1, . . . , N ) dans la j i` eme bande spectrale (j = 1, . . . , L), N est la taille de l’´echantillon, M est le nombre de compo- sants dans la substance observ´ee et L est le nombre de longueurs d’onde (ou le nombre de bandes spectrales). Le coefficient c i,m est la contribution du m i` eme composant chimique `a l’instant i et e i,j est un bruit additif mod´eli- sant les erreurs de mesure et du mod`ele. Les s´equences de bruit e i = [e i,1 , . . . , e i,L ]

T

sont suppos´ees ind´ependantes, identiquement distribu´ees (i.i.d.) suivant une loi normale centr´ee de variance σ 2 e,i . Des notations matricielles stan- dard permettent d’´ecrire pour les N observations dans les

L bandes spectrales :

Y = CS + E, (2)

o` u Y = [y i,j ] i,j R N×L , C = [c i,m ] i,m R N×M , S = [s m,j ] m,j R M

×L

et E = [e i,j ] i,j R N×L . En vertu de consid´erations physiques ´evidentes, les vecteurs de concen- trations c i = [c i,1 , . . . , c i,M ]

T

et les spectres s m = [s m,1 , . . . ,

s m,L ]

T

, pour m = 1, . . . , M , doivent v´erifier des contraintes de positivit´e. De plus, certaines analyses comme les ci- n´etiques chimiques [1] n´ecessitent que les coefficients de concentration [c i,1 , . . . , c i,M ] soient soumis ´egalement `a des contraintes d’additivit´e. Le probl`eme de d´emixage spectral

´etudi´e dans cet article consiste donc `a estimer conjointe- ment la matrice des concentrations C et la matrice des spectres S sous les contraintes de positivit´e et d’additivit´e suivantes :

½ s m,j > 0 et c i,m > 0, ∀(i, m, j), P M

m=1 c i,m = 1 ∀i. (3)

Dans [2], une m´ethode d’inf´erence bay´esienne est propo- s´ee pour r´ealiser la s´eparation de sources sous la contrainte de positivit´e des sources et des coefficients de m´elange.

Nous pr´esentons dans ce papier, une m´ethode permettant d’inclure ´egalement la contrainte d’additivit´e dans le mo- d`ele bay´esien, en proposant une loi a priori ad´equate. De plus, la prise en compte de cette contrainte d’additivit´e va permettre de lever l’ind´etermination d’´echelle (point

´evoqu´e dans [3]).

(3)

2 Mod` ele bay´ esien hi´ erarchique

2.1 Fonction de vraisemblance

Les propri´et´es statistiques du vecteur de bruit e i ainsi que le mod`ele de m´elange lin´eaire (1) nous permettent d’´ecrire y i ∼ N ¡

S

T

c i , σ 2 e,i I L

¢ , avec y i = [y i,1 , . . . , y i,L ]

T

, o` u N (·, ·) repr´esente la loi normale et I L est la matrice identit´e de taille L×L. En supposant l’ind´ependance entre les vecteurs e 1 , . . . , e N , la vraisemblance des observations Y est :

f ¡

Y|C, S, σ 2 e ¢

1

Q N

i=1 σ L e,i exp

" N X

i=1

° ° y i Sc

T

i °

° 2e,i 2

# , (4) o` u σ 2 e = £

σ e,1 2 , . . . , σ 2 e,N ¤

T

, kxk 2 = x

T

x est la norme L 2 et

signifie “proportionnel `a”.

2.2 Lois a priori des param` etres

2.2.1 Coefficients de concentration

En utilisant les contraintes d’additivit´e introduites dans (3), les vecteurs de r´egression peuvent ˆetre d´ecompos´es sous la forme c i = £

a

T

i , c i,M

¤

T

avec a

T

i = [c i,1 , . . . , c i,M

−1

] et c i,M = 1 P M

−1

m=1 c i,m . La loi a priori naturelle pour les vecteurs a i , i = 1, . . . , N , est une loi uniforme sur le simplex suivant 1 :

S = (

a i

¯ ¯

¯ ¯

¯ a i,m 0, ∀m = 1, . . . , M 1,

M−1 X

m=1

a i,m 1 )

. (5) En supposant l’ind´ependance a priori entre les vecteurs a i , la loi a priori pour la matrice d’abondance A = [a 1 , . . . , a N ]

T

s’´ecrit f (A) = Q N

i=1 1

S

(a i ), o` u 1

S

(·) est la fonction indi- catrice d´efinie sur le simplex S.

2.2.2 Spectres des sources

Plusieurs lois `a support positif peuvent ˆetre envisag´ees comme lois a priori du spectre de chaque source. Pour des raisons de simplifications calculatoires, il apparaˆıt tout de mˆeme judicieux de choisir une loi qui soit conjugu´ee.

Comme nous le verrons au paragraphe 3, il est en ef- fet int´eressant que la loi conditionnelle f ¡

S|σ 2 s , A, σ 2 e , Y ¢ soit simple `a simuler. Nous nous limiterons dans les para- graphes 2.4 et 3 `a d´ecrire un mod`ele bas´e sur une loi nor- male tronqu´ee. En revanche, au paragraphe 4, nous com- parerons des r´esultats de d´em´elange aveugle obtenus grˆace

`a ce mod`ele et des r´esultats obtenus lorsqu’une loi expo- nentielle est choisie comme loi a priori pour les sources.

Une loi normale tronqu´ee `a support positif est donc choisie comme loi a priori pour chaque source s m :

s m

¯ ¯ σ 2 s,m ∼ N + (0 L , σ s,m 2 I L ), (6) o` u 0 L est le vecteur de L z´eros et N + (u, V ) est une loi normale tronqu´ee positive de vecteur moyenne u et de ma- trice de covariance V . La densit´e de probabilit´e de cette loi

1

Nous remarquons que ce choix est ´equivalent ` a choisir des lois de Dirichlet D

M

(1, . . . , 1) comme lois a priori pour c

i

(i = 1, . . . , N ).

multivari´ee tronqu´ee not´ee φ + (·|θ, Σ) v´erifie la relation : φ + (x|θ, Σ) φ(x|θ, Σ)1

RL

+

(x), (7)

o` u φ(·|θ, Σ) est la densit´e de probabilit´e de la loi normale multivari´ee usuelle sur R L de vecteur moyenne θ et de ma- trice de covariance Σ. En supposant l’ind´ependance entre les spectres s m (m = 1, . . . , M ), la loi a priori de S s’´ecrit :

f ¡ S ¯

¯ σ 2 s ¢

= Y M

m=1

φ + (s m |0 L , σ s,m 2 I L ), (8) avec σ 2 s = £

σ s,1 2 , . . . , σ 2 s,M ¤

T

. 2.2.3 Variance du bruit

Des lois a priori conjugu´ees inverse Gamma sont choi- sies pour σ 2 e,i :

σ 2 e,i | ρ e , ψ e ∼ IG µ ρ e

2 , ψ e

2

, (9)

o` u IG ³

ρ

e

2 , ψ 2

e

´

d´esigne la loi inverse Gamma de para- m`etres ρ 2

e

et ψ 2

e

. En supposant l’ind´ependance entre les variances du bruit σ e,i 2 , i = 1, . . . , N , la loi a priori de σ 2 e s’´ecrit :

f ¡

σ 2 e e , ψ e ¢

= Y N

i=1

f ¡

σ e,i 2 e , ψ e ¢

. (10)

L’hyperparam`etre ρ e est fix´e `a ρ e = 2 tandis que ψ e est un hyperparam`etre ajustable comme dans [4].

2.3 Lois a priori des hyperparam` etres

Une loi conjugu´ee inverse Gamma est choisie comme loi a priori pour chaque variance σ s,m 2 . En supposant l’ind´e- pendance a priori entre les diff´erentes variances, la loi a priori de l’hyperparam`etre σ 2 s s’´ecrit :

f ¡

σ 2 s s , ψ s

¢ = Y M

m=1

IG µ

σ 2 s,m ; ρ s

2 , ψ s

2

. (11)

Les param`etres ρ s et ψ s sont fix´es de mani`ere `a obtenir une loi a priori non informative.

La loi a priori de ψ e est une loi non-informative de Jeffrey qui traduit l’absence de connaissance concernant cet hyperparam`etre :

f (ψ e ) = 1

ψ e 1

R+

(ψ e ). (12)

L’ind´ependance entre les diff´erents hyperparam`etres per- met d’exprimer la loi a priori du vecteur d’hyperpara- m`etres Φ = ©

σ 2 s , ψ e

ª :

f (Φ) Y M

m=1

· 1 σ ρ s,m

s

+2

exp µ

ψ s

s,m 2

¶¸ 1

ψ e 1

R+

(ψ e ). (13)

2.4 Loi a posteriori de Θ

La loi a posteriori du vecteur de param`etres inconnus Θ = ©

A, S, σ 2 e ª

peut ˆetre calcul´ee `a partir de la structure hi´erarchique suivante :

f (Θ|Y) Z

f (Y|Θ) f (Θ|Φ) f (Φ) dΦ, (14)

(4)

o` u f ¡ Y ¯

¯ Θ ¢

et f (Φ) ont ´et´e d´efinies dans (4) et (13). De plus, en supposant l’ind´ependance entre A, S et σ 2 e , le r´esultat suivant peut-ˆetre obtenu :

f ¡ Θ ¯

¯ Φ ¢

= f (A) f ¡ S ¯

¯ σ 2 s ¢ f ¡

σ 2 e ¯

¯ ρ e , ψ e

¢ , (15) o` u f (A), f ¡

S ¯

¯ σ 2 s ¢ et f ¡

σ 2 e ¯

¯ ρ e , ψ e

¢ ont ´et´e d´efinies pr´ec´e- demment. Cette structure hi´erarchique nous permet d’in- t´egrer le vecteur d’hyperparam`etre Φ = ©

ψ e , σ 2 s ª

de la loi jointe f (Θ, Φ|Y) :

f ¡

A, S, σ 2 e ¯

¯ Y ¢

Y M

m=1

·h

ψ s + ks m k 2 i

L+ρs

2

1

RL

+

(s m )

¸

× Y N

i=1

1

S

(a i ) Y N

i=1

 Ã

1 σ e,i 2

!

L

2

+1

exp

"

° ° y i Sc

T

i °

° 22 e,i

#

.

3 M´ ethodes MCMC

L’estimation des param`etres d’int´erˆet est effectu´ee en utilisant des m´ethodes de Monte Carlo par chaˆınes de Mar- kov (MCMC). Compte tenu du nombre important d’in- connues, nous utilisons l’algorithme de Gibbs pour la g´e- n´eration d’´echantillons distribu´es suivant la loi a posteriori f ¡

A, S, σ 2 e ¯

¯ Y ¢

. Les ´echantillons simul´es sont ensuite uti- lis´es pour estimer les sources et les concentrations. Les

´etapes principales de cet ´echantillonneur sont d´etaill´ees ci-dessous.

3.1 Echantillonnage suivant ´ f (A|S, σ 2 e , Y)

D’apr`es le mod`ele d’observation et de la loi a priori sur les coefficients de m´elange, nous pouvons ´ecrire :

f ¡ a i

¯ ¯ S, σ e,i 2 , y i

¢

exp

"

(a i µ i )

T

Λ

−1

i (a i µ i ) 2

#

1

T

(a i ), (16) o` u

 

 

 

 

 

  Λ i =

"

1 σ 2 e,i

¡ S s M u

T

¢

T

¡

S s M u

T

¢ #

−1

,

µ i = Λ i

"

1 σ e,i 2

¡ S s M u

T

¢

T

(y i s M )

# ,

(17)

avec u = [1, . . . , 1]

T

R M

−1

. Par cons´equent, a i

¯ ¯ S, σ e,i 2 , y i

est distribu´e suivant une loi multivari´ee normale tronqu´ee d´efinie sur le simplex S :

a i |S, σ e,i 2 , y i ∼ N

S

i , Λ i ) . (18) Lorsque le nombre de composants chimiques est relative- ment faible, la g´en´eration des vecteurs a i |S, σ 2 e,i , y i peut s’effectuer grˆace `a une ´etape classique de Metropolis Has- tings (M-H). Pour des probl`emes de dimensions plus im- portantes, le taux d’acceptation de l’algorithme de M-H peut devenir tr`es petit, conduisant `a de mauvaises pro- pri´et´es de m´elanges. Dans ce cas, une strat´egie alternative bas´ee sur un ´echantillonneur de Gibbs peut ˆetre utilis´ee (voir [5] et [6]).

3.2 Echantillonnage suivant ´ f ¡ σ 2 e ¯

¯ A, S, Y ¢

La simulation suivant cette loi conditionnelle s’effectue en deux ´etapes :

– Simulation suivant f ¡ ψ e

¯ ¯ σ 2 e ¢

qui est exprim´ee selon : ψ e

¯ ¯ σ 2 e ∼ IG Ã

N ρ e

2 , 1 2

X N

i=1

1 σ 2 e,i

!

, (19)

– Simulation suivant f ¡ σ 2 e ¯

¯ ψ e , A, S, Y ¢

. En regardant attentivement la loi jointe f ¡

σ 2 e , ψ e , A ¯

¯ S, Y ¢ , la loi conditionnelle de σ 2 e,i |c i , ψ e , S, y i est, pour i ∈ {1, . . . , N}, la loi inverse Gamma suivante :

σ e,i 2 e , c i , S, y i ∼ IG Ã

L + ρ e

2 , ψ e + °

° y i Sc

T

i °

° 2 2

! . (20)

3.3 Echantillonnage suivant ´ f (S|A, σ 2 e , Y)

Pour g´en´erer des ´echantillons distribu´es suivant la loi conditionnelle des sources f ¡

S ¯

¯ A, σ 2 e , Y ¢

, il est tr`es pra- tique d’´echantillonner suivant f ¡

σ 2 s , S ¯

¯ A, σ 2 e , Y ¢

de la ma- ni`ere suivante :

– Simulation suivant f ¡

σ 2 s |S, A, σ 2 e , Y ¢

. La loi condi- tionnelle de la variance de chaque spectre source est une loi inverse Gamma (m = 1, . . . , M ) :

σ 2 s,m ¯

¯ s m ∼ IG Ã

L + ρ s

2 , ψ s + ks m k 2 2

!

. (21)

– Simulation suivant f ¡

S|σ 2 s , A, σ 2 e , Y ¢

. La loi condi- tionnelle de chaque spectre source f ¡

s m

¯ ¯ σ 2 s , A, σ 2 e , Y ¢ est une loi normale `a support positif (m = 1, . . . , M ) :

s m

¯ ¯ σ 2 s , A, σ 2 e , Y ∼ N +

¡ λ m , δ 2 m I L

¢ , (22) o` u

 

 

 

 

 

λ m = δ 2 m hP N

i=0

²i,m

η

2i,m

i

T

, δ 2 m = hP N

i=0 1 η

i,m2

i

−1

,

² i,m =

yi−S

c

−mcTi,−m

i,m

,

et

 

 

η 0,m 2 = σ s,m 2 , η i,m 2 = c σ

2e,i2

i,m

,

² 0,m = 0 L , (23) et o` u S

−m

(respectivement c i,−m ) repr´esente la ma- trice S (respectivement le vecteur c i ) dans laquelle la m i` eme colonne (respectivement dans lequel le m i` eme coefficient) a ´et´e supprim´ee.

4 Illustration et discussion

4.1 M´ elange synth´ etique

Afin d’illustrer la m´ethode propos´ee, nous consid´erons le

cas d’une cin´etique chimique faisant intervenir trois com-

posantes (M =3). Afin d’obtenir une forme de ces sources

similaire `a celle des spectres d’absorption, celles-ci sont

simul´ees comme une superposition de motifs gaussiens et

lorentziens de param`etres (position, amplitude et largeur)

choisis de fa¸con al´eatoire. La r´eaction est observ´ee `a N =

15 instants sur L = 1000 longueurs d’onde (fr´equences).

(5)

Nous avons ´egalement consid´er´e que les coefficients de m´e- lange ont les mˆeme profils d’´evolution qu’une cin´etique chimique avec un seul interm´ediaire r´eactionnel [3]. Un bruit i.i.d. gaussien de moyenne nulle et de variance ad´e- quate est ajout´e `a chaque spectre de m´elange de sorte `a obtenir un rapport signal `a bruit de 20dB. La figure 1 illustre une r´ealisation du m´elange `a l’aide de ce mod`ele synth´etique.

10 20 30 40 50

0 0.2 0.4 0.6 0.8 1

temps (min)

abondance

source 3 source 2 source 1

400 600 800 1000 1200 0

2 4

observation # 5

λ (nm) 400 600 800 1000 1200

0 2 4

source 1

400 600 800 1000 1200 0

2 4

source 2

400 600 800 1000 1200 0

2 4

source 3

λ (nm)

Fig. 1 – Exemple de m´elange synth´etique simul´e La figure Fig. 2-a montre une comparaison entre les co- efficients de m´elange simul´es et les estimateurs MMSE ob- tenus pour une chaˆıne de Markov de longueur N MC = 1000 incluant N b-i = 500 it´erations de chauffage. Les coeffi- cients du m´elange sont estim´es correctement par la m´e- thode propos´ee tout en satisfaisant les contraintes de po- sitivit´e et d’additivit´e et permet ´egalement de lever l’in- d´etermination d’´echelle.

10 20 30 40 50

0 0.2 0.4 0.6 0.8 1

temps (min)

abondance

(a)

10 20 30 40 50

0 0.2 0.4 0.6 0.8 1

temps (min)

abondance

(b)

Fig. 2 – Coefficients de m´elange simul´es (croix) et estim´es (cercles) avec un a priori gaussien positif (a) ou exponen- tiel (b) sur les sources.

4.2 Choix de la loi a priori sur les sources

Un second point de la discussion concerne le choix de la loi a priori sur les sources. Comme signal´e pr´ec´edemment, plusieurs choix de lois a priori sont possibles, pourvu que ces lois soient `a support positif et permettent de traduire des informations disponibles sur les sources. Le premier mod`ele propos´e est fond´e sur une loi normale tronqu´ee comme loi a priori des sources. Une analyse similaire est

men´ee en choisissant une loi exponentielle E (·) de para- m`etre σ s,m 2 :

f ¡ s m

¯ ¯ σ 2 s,m ¢

= Y L

j=1

1 σ 2 s,m exp

·

s m,j

σ 2 s,m

¸

1

R+

(s m,j ).

En comparaison, sont repr´esent´es sur la Fig. 2-b les esti- mateurs MMSE des concentrations fournis par le mod`ele bay´esien bas´e sur cette alternative. Nous remarquons alors que les r´esultats sont sensiblement meilleurs que ceux ob- tenus avec une loi normale tronqu´ee. Concernant la qualit´e de l’estimation des sources, le tableau 1 r´ecapitule le r´esul- tat d’une simulation de Monte Carlo, avec 100 r´ealisations, en conservant la mˆeme matrice de concentrations mais en g´en´erant al´eatoirement des sources. Les performances sont exprim´ees en terme d’erreur quadratique moyenne norma- lis´ee, d´efinie selon :

EQMN = X

m,j

(s m,j ˆ s m,j ) 2 ± X

m,j

(s m,j ) 2 .

gaussien positif exponentiel

sources 0.0395 0.0117

concentrations 0.0355 0.0047

Tab. 1 – Erreur quadratique moyenne d’estimation des sources et des concentrations pour deux lois a priori.

Cette am´elioration de la qualit´e de l’estimation `a la fois des sources et des concentrations montre une meilleur ad´e- quation de la loi exponentielle pour des signaux de spectro- scopie d’absorption, compar´ee `a une loi normale `a support positif.

R´ ef´ erences

[1] A. de Juan and R. Tauler, “Chemometrics applied to un- ravel multicomponent processes and mixtures : Revisiting latest trends in multivariate resolution,” Analytica Chimica Acta, vol. 500, no. 1–2, pp. 195–210, Dec. 2003.

[2] S. Moussaoui, D. Brie, A. Mohammad-Djafari, and C. Car- teret, “Separation of non-negative mixture of non-negative sources using a Bayesian approach and MCMC sampling,”

IEEE Trans. Signal Processing, vol. 54, no. 11, pp. 4133–

4145, Nov. 2006.

[3] S. Moussaoui, C. Carteret, D. Brie, and A. Mohammad- Djafari, “Bayesian analysis of spectral mixture data using Markov chain Monte Carlo methods,” Chemometrics and Intelligent Laboratory Systems, vol. 81, no. 2, pp. 137–148, April 2006.

[4] E. Punskaya, C. Andrieu, A. Doucet, and W. Fitzgerald,

“Bayesian curve fitting using MCMC with applications to signal segmentation,” IEEE Trans. Signal Processing, vol. 50, no. 3, pp. 747–758, March 2002.

[5] N. Dobigeon and J.-Y. Tourneret, “Efficient sam- pling according to a multivariate Gaussian distribu- tion truncated on a simplex,” IRIT/ENSEEIHT/T´eSA, Tech. Rep., March 2007. [Online]. Available : http ://www.enseeiht.fr/˜dobigeon

[6] C. P. Robert, “Simulation of truncated normal variables,”

Statistics and Computing, vol. 5, no. 2, pp. 121–125, June

1995.

Références

Documents relatifs

fac¸on suivante : on prend une feuille rectangulaire de carton de c ˆot´es a et b puis on d´ecoupe de chaque coin un carre de c ˆot´e x puis on rabat les morc¸eau ainsi obtenus

On dit que la partie A admet un plus grand ´ el´ ement s’il existe un ´ el´ ement de A qui majore tous les autres ´ el´ ement, dans ce cas il est unique et on le note max

C’est une propri´ et´ e dont l’exactitude est induscutable, et sur la- quelle se fonde toute les math´ ematiques, ou au moins une partie, il y’en a 7 au total dont les plus

D’une fa¸con pareille on peut d´efinir les notions de minorants, borne inf´erieure et minimum d’une partie de

Tout entier pair suffisamment grand est somme d’un nombre premier et d’un entier qui est soit premier, soit produit de deux nombres premiers.. Ivan

Concernant les invariants, nous avons donc montr´ e que ceux-ci sont ´ etudiables, contrai- rement ` a ce que laissait croire leur r´ eputation ; nous avons mis en ´ evidence

Dans ce travail, nous proposons des algorithmes rapides pour r´esoudre ces probl`emes, par minimisation de la va- riation totale sous contraintes.. Les algorithmes propos´es

FORMALISATION 14 Une ´ equation d’´ etat est une ´ equation qui lie l’ensemble des variables d’´ etat, par exemple T(V,N,S) est une ´ equation d’´ etat qui caract´ erise