• Aucun résultat trouvé

TP de MATLAB du mercredi 14 juin 2006 Introduction à l’algorithme EM et SEM

N/A
N/A
Protected

Academic year: 2022

Partager "TP de MATLAB du mercredi 14 juin 2006 Introduction à l’algorithme EM et SEM"

Copied!
1
0
0

Texte intégral

(1)

INSA-GMM

Simulation Stochastique 2005-2006

TP de MATLAB du mercredi 14 juin 2006 Introduction à l’algorithme EM et SEM

Dans ce TP on va mettre en place deux algorithmes permettant la classification et l’estimation dans un modèle de mélange à deux composantes. Le modèle est le suivant. On considère les trois suites indépendantes de variables aléatoires i.i.d.

(X n ), (Y n ) (T n ). X n a pour densité f θ et Y n a pour densité g η où θ et η sont des paramètres réels. On suppose que lorsque l’on observe la suite (X n ) (resp. (Y n )) jusqu’à l’instant N on dispose de l’estimateur du maximum de vraisemblance θ b N de θ (resp. η b N de η). T n est une variable de loi de Bernoulli de paramètre 0 < p < 1.

On observe la suite Z n = T n X n + (1 − T n )Y n jusqu’à l’instant N . Il s’agit alors d’estimer les paramètres p, θ, η et de prédire les valeurs de T 1 , . . . , T N .

1. Algorithme EM Initialisation

On choisit arbitrairement p b 0 (par exemple 1/2). Soit n 0 = [N p b 0 ] On pose X i 0 = Z i , i = 1, . . . , n 0 et Y i 0 = Z n

0

+i , i = 1, . . . , N − n 0 .

Etape j

Estimation des paramètres

On calcule θ b n j (resp. b η j n ) à partir de l’échantillon X i j , i = 1, . . . , n j (resp. Y i j , i = 1, . . . , N − n j ). On pose p b j = n j /N.

Reclassement des variables

Pour chacune des observation Z i on calcule u j+1 i = f

θ b

jn

(Z i ) f θ b

jn

(Z i ) + g

η b

nj

(Z i ) .

n j+1 est alors le nombre de Z i tels que u j+1 i > 0.5. Ces Z i permettent alors de construire l’échantillon X i j+1 , i = 1, . . . , n j+1 , alors que les Z i qui ne vérifient pas la condition précédente conduisent à l’échantillon Y i j+1 , i = 1, . . . , N − n j+1 . On arrête l’algorithme lorsque les estimateurs ont convergé.

2. Algorithme SEM

On procède comme dans l’algorithme EM sauf que la phase de ré-assignation des variables devient aléatoire on effectue un tirage au sort : à l’étape j + 1, on affecte Z i à la population des X avec probabilité u j+1 i .

3. Le TP

Expérimenter les deux algorithmes dans le cas de deux gaussiennes de même variance mais de moyennes différentes, pour des lois exponentielles de paramètres différents, puis pour des lois de Pareto.

1

Références

Documents relatifs

une estimation correcte de cette variance commune pourra être faite à partir de l’ensemble des deux. échantillons :

— Cet exposé présente deux algorithmes permettant de ramener un programme mathématique de maximisation d'une fonction numérique concave ou quasi concave dans un convexe C de R n à

Or cela est évident géométriquement; au cycle considéré dans la durée correspond un mouvement fermé à un paramètre de la sphère mobile ; il suffit de prendre à chaque instant

Cette fonction renverra deux tableaux des temps moyens, suivant la taille du tableau à trier (un tableaupour le tri par sélection et un tableau pour le tri par insertion). On

Comparez les indications lues sur les voltmètres avec les valeurs théoriques calculées (tableau 2 ci-dessous), et complétez les phrases ci-dessous, en utilisant les termes

– Une moyenne observée « m » à une moyenne théorique « μ » – Deux moyennes observées « m1 » et « m2 ».. Comment aborder le problème de comparaison de

Nous supposons que la variable X 1 (respectivement X 2 ) qui prend pour valeur la quantité en matière protéique, pour un fromage prélevé au hasard dans la premiére

Dans cette présentation, nous considérons un estimateur de la variance simplifié qui a l’avan- tage de ne pas dépendre des probabilités d’inclusion jointes de deuxième phase et