• Aucun résultat trouvé

Mélange de lois multinomiales pour des données génétiques

N/A
N/A
Protected

Academic year: 2022

Partager "Mélange de lois multinomiales pour des données génétiques"

Copied!
25
0
0

Texte intégral

(1)

Mélange de lois multinomiales pour des données génétiques

Dominique Bontemps Wilson Toussile

Laboratoire de Mathématiques, Univ. Paris-Sud 11

Jeunes Probabilistes et Statisticiens

Mont-Dore 2010

(2)

Introduction

Notre objectif est d’estimer le nombre de composantes et les variables pertinentes dans un mélange de lois multinomiales. Ce problème surgit dans le traitement de données génétiques. Nous utilisons la sélection de modèle pour traiter le problème.

Au niveau théorique, nous obtenons une inégalité oracle.

Nos méthodes sont implémentées dans l’algorithme MixMoGenD, disponible sur http://www.math.u-psud.fr/~toussile/.

Bontemps, Toussile (Orsay) Mélange de multinomiales JPS 2010 2 / 15

(3)

Plan de l’exposé

1 Cadre et Outils

2 Résultat théorique

3 En pratique

L’heuristique de pente

Simulations

(4)

Les Données

On dispose de données génétiques : n individus X 1:n = (X 1 , . . . , X n ) ; L loci X i = (X i 1 , . . . , X i L ) ;

2 allèles par locus X i l = n X i l,1 , X i l,2 o ; chaque allèle X i l,j est à valeurs dans {1, . . . , A l }.

Structure des données : K populations (clusters) ;

S : ensemble des loci qui différencient les clusters.

Bontemps, Toussile (Orsay) Mélange de multinomiales JPS 2010 4 / 15

(5)

Les Données

On dispose de données génétiques : n individus X 1:n = (X 1 , . . . , X n ) ; L loci X i = (X i 1 , . . . , X i L ) ;

2 allèles par locus X i l = n X i l,1 , X i l,2 o ; chaque allèle X i l,j est à valeurs dans {1, . . . , A l }.

Structure des données : K populations (clusters) ;

S : ensemble des loci qui différencient les clusters.

(6)

Modélisation

Pour K et S fixés, le modèle M (K ,S) est défini par les hypothèses suivantes :

sachant la population, les loci sont indépendants ; sachant la population, les 2 allèles d’un même locus sont indépendants ;

pour l/ S, X l est identiquement distribué entre les clusters.

Forme générale de la densité :

P (K,S,θ) (x) =

K

X

k=1

π k

 Y

l∈S

(2 − 1 x l,1 =x l,2 ) α k,l,x l,1 α k,l,x l,2

× Y

l∈S c

(2 − 1 x l,1 =x l,2 ) β l,x l,1 β l,x l,2

π k est la probabilité d’être dans la population k, α k,l,j est la probabilité de l’allèle j au locus l dans la population k, et β l,j est la probabilité de l’allèle j au locus l dans toutes les populations. θ = (π, α, β).

Bontemps, Toussile (Orsay) Mélange de multinomiales JPS 2010 5 / 15

(7)

Modélisation

Pour K et S fixés, le modèle M (K ,S) est défini par les hypothèses suivantes :

sachant la population, les loci sont indépendants ; sachant la population, les 2 allèles d’un même locus sont indépendants ;

pour l/ S, X l est identiquement distribué entre les clusters.

Forme générale de la densité :

P (K,S,θ) (x) =

K

X

k=1

π k

 Y

l∈S

(2 − 1 x l,1 =x l,2 ) α k,l,x l,1 α k,l,x l,2

× Y

l ∈S c

(2 − 1 x l,1 =x l,2 ) β l,x l,1 β l,x l,2

π k est la probabilité d’être dans la population k, α k,l,j est la probabilité

de l’allèle j au locus l dans la population k, et β l,j est la probabilité de

l’allèle j au locus l dans toutes les populations. θ = (π, α, β).

(8)

Maximum de vraisemblance pénalisé

Dans chaque modèle M (K,S) , on considère l’estimateur du maximum de vraisemblance (MLE) P b (K,S) = P (K,S,

b θ) , qui minimise le contraste

γ n (P) = − 1 n

n

X

i=1

ln P (X i )

Sélection de modèle par pénalisation : On prend pour estimateur final P b

K b n , b S n , où

K b n , S b n

= arg min

(K,S)

n

γ n P b (K ,S) + pen n (K , S ) o . Pénalités classiques :

AIC : pen n (K , S ) = D (K ,S) /n

BIC : pen n (K , S ) = D (K ,S) (ln n)/(2n)D (K,S) = K − 1 + K X

l ∈S

(A l − 1) + X

l ∈S /

(A l − 1).

Bontemps, Toussile (Orsay) Mélange de multinomiales JPS 2010 6 / 15

(9)

Maximum de vraisemblance pénalisé

Dans chaque modèle M (K,S) , on considère l’estimateur du maximum de vraisemblance (MLE) P b (K,S) = P (K,S,

b θ) , qui minimise le contraste

γ n (P) = − 1 n

n

X

i=1

ln P (X i )

Sélection de modèle par pénalisation : On prend pour estimateur final P b

K b n , b S n , où

K b n , S b n

= arg min

(K,S)

n

γ n P b (K ,S) + pen n (K , S ) o .

Pénalités classiques :

AIC : pen n (K , S ) = D (K ,S) /n

BIC : pen n (K , S ) = D (K ,S) (ln n)/(2n)D (K,S) = K − 1 + K X

l ∈S

(A l − 1) + X

l ∈S /

(A l − 1).

(10)

Maximum de vraisemblance pénalisé

Dans chaque modèle M (K,S) , on considère l’estimateur du maximum de vraisemblance (MLE) P b (K,S) = P (K,S,

b θ) , qui minimise le contraste

γ n (P) = − 1 n

n

X

i=1

ln P (X i )

Sélection de modèle par pénalisation : On prend pour estimateur final P b

K b n , b S n , où

K b n , S b n

= arg min

(K,S)

n

γ n P b (K ,S) + pen n (K , S ) o . Pénalités classiques :

AIC : pen n (K , S) = D (K ,S) /n

BIC : pen n (K , S) = D (K ,S) (ln n)/(2n)D (K,S) = K − 1 + K X

l ∈S

(A l − 1) + X

l ∈S /

(A l − 1).

Bontemps, Toussile (Orsay) Mélange de multinomiales JPS 2010 6 / 15

(11)

Motivation : Comportement typique de BIC et AIC

0 200 400 600 800

0.0 0.2 0.4 0.6 0.8 1.0

Number of clusters versus n

Sample size n

Propor tion of K=5

AIC BIC

0 200 400 600 800

0.0 0.2 0.4 0.6 0.8 1.0

0 200 400 600 800

0.0 0.2 0.4 0.6 0.8 1.0

Figure : Proportion de K b n = K 0 en fonction de n, pour une simulation avec

K 0 = 5 populations, L = 10 loci différemment différentiés, et 10 allèles par locus.

(12)

Objectifs

Obtenir des résultats non-asymptotiques (inégalité oracle) ;

En déduire un critère performant aussi bien pour n petit que pour n grand.

Bontemps, Toussile (Orsay) Mélange de multinomiales JPS 2010 8 / 15

(13)

Théoreme (Bontemps, Toussile 2010)

Pour ρ > 0, on suppose qu’on dispose d’estimateurs P b (K,S) vérifiant γ n P b (K,S) ≤ inf

Q∈M (K,S) γ n (Q) + ρ.

Sous des hypothèses faibles, il existe des constantes absolues κ et C telles que, si

pen n (K , S ) ≥ κ

 5 + s

1

2 ln n + 1 2 ln L

2

D (K,S) n alors, quelque soit P 0 , le choix de K b n , S b n

maximisant γ n P b (K,S) + pen n (K , S ) vérifie

E P 0

h 2

P 0 , P b

K b n , b S n

C inf

(K,S)

KL(P 0 , M (K,S) ) + pen n (K , S ) + ρ + (3/4) L n

!

.

(14)

Commentaires

Découle de la théorie de Massart basée sur l’entropie métrique ; Travaux semblables de (Genovese et Wasseman 1998) et (Maugis et Michel 2008) pour des mélanges gaussiens.

Estimation de densité plutôt que classification.

Pas de majorations fines de κ et C , et de toutes façons la pénalité est trop prudente.

En pratique on va s’intéresser à des critères dérivés, du type

pen n (K , S) = λ D (K ,S) n

λ est un paramètre à calibrer, qui dépend de n et de la collection des modèles en compétition. L’heuristique de pente est utilisée en pratique : voir (Birgé et Massart 2006) et (Arlot et Massart 2009).

Bontemps, Toussile (Orsay) Mélange de multinomiales JPS 2010 10 / 15

(15)

Commentaires

Découle de la théorie de Massart basée sur l’entropie métrique ; Travaux semblables de (Genovese et Wasseman 1998) et (Maugis et Michel 2008) pour des mélanges gaussiens.

Estimation de densité plutôt que classification.

Pas de majorations fines de κ et C , et de toutes façons la pénalité est trop prudente.

En pratique on va s’intéresser à des critères dérivés, du type

pen n (K , S) = λ D (K ,S) n

λ est un paramètre à calibrer, qui dépend de n et de la collection

des modèles en compétition. L’heuristique de pente est utilisée en

pratique : voir (Birgé et Massart 2006) et (Arlot et Massart 2009).

(16)

Commentaires

Découle de la théorie de Massart basée sur l’entropie métrique ; Travaux semblables de (Genovese et Wasseman 1998) et (Maugis et Michel 2008) pour des mélanges gaussiens.

Estimation de densité plutôt que classification.

Pas de majorations fines de κ et C , et de toutes façons la pénalité est trop prudente.

En pratique on va s’intéresser à des critères dérivés, du type

pen n (K , S) = λ D (K ,S) n

λ est un paramètre à calibrer, qui dépend de n et de la collection des modèles en compétition. L’heuristique de pente est utilisée en pratique : voir (Birgé et Massart 2006) et (Arlot et Massart 2009).

Bontemps, Toussile (Orsay) Mélange de multinomiales JPS 2010 10 / 15

(17)

Commentaires

Découle de la théorie de Massart basée sur l’entropie métrique ; Travaux semblables de (Genovese et Wasseman 1998) et (Maugis et Michel 2008) pour des mélanges gaussiens.

Estimation de densité plutôt que classification.

Pas de majorations fines de κ et C , et de toutes façons la pénalité est trop prudente.

En pratique on va s’intéresser à des critères dérivés, du type

pen n (K , S) = λ D (K ,S) n

λ est un paramètre à calibrer, qui dépend de n et de la collection

des modèles en compétition. L’heuristique de pente est utilisée en

pratique : voir (Birgé et Massart 2006) et (Arlot et Massart 2009).

(18)

Heuristique de pente

On considère des familles de pénalités du type

pen λ (K , S) = λ f (n, K , S ).

Conjecture : Il existe un paramètre minimal λ min en dessous duquel les modèles les plus grands sont sélectionnés :

I pour λ < λ min , D

K b

n

, b S

n

est très grand ;

I pour λ > λ min , D

K b

n

, b S

n

est “raisonnablement petit”.

La pénalité “optimale” dans la famille est

pen opt (K , S) = 2λ min f (n, K , S).

En pratique, λ min peut être évalué en détectant le plus grand saut dans la fonction qui donne D

K b n , b S n en fonction de λ.

Pour le choix des modèles explorés, on utilise l’algorithme

backward-stepwise pour chaque valeur de λ dans une grille exponentielle couvrant l’intervalle [1/2, ln n].

Bontemps, Toussile (Orsay) Mélange de multinomiales JPS 2010 11 / 15

(19)

Heuristique de pente

On considère des familles de pénalités du type

pen λ (K , S) = λ f (n, K , S ).

Conjecture : Il existe un paramètre minimal λ min en dessous duquel les modèles les plus grands sont sélectionnés :

I pour λ < λ min , D

K b

n

, b S

n

est très grand ;

I pour λ > λ min , D

K b

n

, b S

n

est “raisonnablement petit”.

La pénalité “optimale” dans la famille est

pen opt (K , S) = 2λ min f (n, K , S).

En pratique, λ min peut être évalué en détectant le plus grand saut dans la fonction qui donne D

K b n , b S n en fonction de λ.

Pour le choix des modèles explorés, on utilise l’algorithme

backward-stepwise pour chaque valeur de λ dans une grille exponentielle

couvrant l’intervalle [1/2, ln n].

(20)

Heuristique de pente

On considère des familles de pénalités du type

pen λ (K , S) = λ f (n, K , S ).

Conjecture : Il existe un paramètre minimal λ min en dessous duquel les modèles les plus grands sont sélectionnés :

I pour λ < λ min , D

K b

n

, b S

n

est très grand ;

I pour λ > λ min , D

K b

n

, b S

n

est “raisonnablement petit”.

La pénalité “optimale” dans la famille est

pen opt (K , S) = 2λ min f (n, K , S).

En pratique, λ min peut être évalué en détectant le plus grand saut dans la fonction qui donne D

K b n , b S n en fonction de λ.

Pour le choix des modèles explorés, on utilise l’algorithme

backward-stepwise pour chaque valeur de λ dans une grille exponentielle couvrant l’intervalle [1/2, ln n].

Bontemps, Toussile (Orsay) Mélange de multinomiales JPS 2010 11 / 15

(21)

L’heuristique de pente illustrée

● ●

● ●

200 400 600 800

−39000−38500−38000−37500

Dimension

Log_likelihood

Model containing the true one True model Other competing models

y= −38180+0.881x

●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●●

●●

●●

●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●

0 1 2 3 4 5 6 7

200400600800

λ

Dimension of selected model

X X

0 1 2 3 4 5 6 7

200400600800

Selected dimension

Figure : L’heuristique de pente, sur un jeu de 1000 individus, 8 loci pertinents

sur 10, et 5 populations. Une fenêtre glissante de pas 0.15 est utilisée pour la

détection du plus grand saut.

(22)

Quelques simulations

Figure : Pour chaque valeur de n, 10 jeux de données ont été simulés. Un paramètre commun : 5 clusters ; 6 loci bien différentiés entre les clusters, 2 loci faiblement différentiés, 2 loci identiquement distribués ; 10 allèles par locus.

Bontemps, Toussile (Orsay) Mélange de multinomiales JPS 2010 13 / 15

(23)

Conclusion et perspectives

Nos objectifs sont atteints :

Sur le plan théorique, une inégalité oracle non asymptotique a été obtenue ;

Sur le plan pratique, on dispose d’un critère qui se comporte bien pour différentes valeurs de n.

Ce qu’on souhaite approfondir :

Rapprocher davantage les deux aspects ?

Techniques de réduction de la dimension ?

Gestion des données manquantes ?

(24)

Conclusion et perspectives

Nos objectifs sont atteints :

Sur le plan théorique, une inégalité oracle non asymptotique a été obtenue ;

Sur le plan pratique, on dispose d’un critère qui se comporte bien pour différentes valeurs de n.

Ce qu’on souhaite approfondir :

Rapprocher davantage les deux aspects ? Techniques de réduction de la dimension ? Gestion des données manquantes ?

Bontemps, Toussile (Orsay) Mélange de multinomiales JPS 2010 14 / 15

(25)

Merci de votre attention.

Références

Documents relatifs

Mots cl´ es : Plan d’exp´erience pour m´elange, m´elange de m´elanges, composants principaux et secondaires, mod`eles identifiables, bases de

Localement, le champ de pesanteur terrestre ⃗ conserve en tout point, la même direction, le même sens et la même valeur : on parle de « champ uniforme ».. Quel est le

Dans l'onglet Titres indiquer le titre du graphe puis les grandeurs des deux axes et leurs unités.. Pour ajouter une courbe de tendance, sélectionner le graphique, cliquer sur

Cliquer sur l’icône ci-dessous pour ouvrir le clip vidéo précédemment enregistré :.. Il apparaît une fenêtre nommée Ouverture d’un

Le traitement de données artificielles (5 individus et 4 variables) permet de visualiser comment la méthode RV utilise la structure de Y2 pour estimer la

Soit X un vecteur gaussien de matrice de covariance C et d’espérance µ.. Nous supposons de plus que C est

Nous supposons de plus que C est d´

La question des usages pédagogiques du numérique en contexte universitaire : comment accompagner les enseignants ?.. Revue Internationale des Technologies en Pédagogie Univer-