• Aucun résultat trouvé

Modèles PLDA

Dans le document The DART-Europe E-theses Portal (Page 67-71)

2.5 Le concept de i-vectors

2.6.5 Modèles PLDA

12w1tW1w112w2tW1w2+wt1W1w2

(2.72)

=−14(w1w2)tW1(w1w2) (2.73) où l’on retrouve, à un facteur multiplicatif près, l’expression de l’équation2.58.

LDA et modèles précédents

Les modèles de Mahalanobis et Two-covariance peuvent être précédés d’une LDA.

Ces deux modèles et cette technique de réduction de dimensionnalité s’appuient en ef-fet sur les mêmes estimations matricielles déterministes de variabilitéBetW. Les scores des deux modèles mesurent des distances suivant les métriques deW1 etB1, favo-risant les observations proches au sens de la première (similarité intra-locuteur) et pé-nalisant les observations lointaines au sens de la seconde (dissimilarité inter-locuteur).

La LDA ne conserve que les axes prédominants de ces variabilités et concentre ainsi la mesure de similarité sur ses axes les plus significatifs.

2.6.5 Modèles PLDA

2.6.5.1 PLDA gaussienne (G-PLDA)

Introduite par S. Prince dans le cadre de la reconnaissance faciale (Prince and El-der,2007), l’analyse discriminante linéaire probabiliste (Probabilistic Linear Discriminant Analysis, PLDA) élargit le modèle double-covariance, qui en est un cas particulier, au cas probabiliste et à celui de la décomposition en facteurs. Proposée par P. Kenny en reconnaissance du locuteur (Kenny,2010), elle peut être vue comme un équivalent de la Joint Factor Analysis dans l’espace des i-vectors, c’est à dire dans un espace mono-gaussien.

Ce modèle est génératif. Il ignore le mécanisme d’extraction des i-vectors pour les considérer comme des observations d’un modèle génératif probabiliste. Il fait l’hypo-thèse que tout i-vectorwde dimensionppeut être décomposé comme :

w=µ+Φys+Γz+ε (2.74)

Ce modèle est formé de deux parties :

(i) la composanteµ+Φysne dépend que du locuteur,

(ii) la composanteΓz+εdiffère pour chaque session de voix et représente la "varia-bilité" intra-locuteur.

La matriceΦest rectangulaire, àrvoixcolonnes (rvoix< p) fournissant une base pour le sous-espace locuteur des voix propres (eigenvoices). De même,Γest rectangulaire, à

2.6. Modèles décisionnels et scorings avec les i-vectors

rcanalcolonnes (rcanal< p) fournissant une base pour le sous-espace "canal". des canaux propres (eigenchannels). Les facteursysetzsuivent des lois normales standards. Enfin, le terme résiduelεest supposé être gaussien avec une moyenne de 0 et une matrice de covariance diagonaleΣ.

Le cas particulierrcanal= p(Γcarrée de plein rang) est équivalent à la version de la PLDA proposée par (Kenny,2010). Leseigenchannelssont retirées de l’équation2.74et le bruit résiduelσest supposé avoir une matrice de covariance pleine. Le modèle PLDA devient :

w=µ+Φys+ε (2.75)

Φ est une matrice p×r (r < p) et ε est un vecteur de dimension p avec une matriceΣde covariance pleine.

Après estimation des métaparamètres de la PLDA, le score log-ratio de vraisem-blance appliqué sur ce modèle est le résultat d’une proposition de S. Prince, qui consi-dère le sur-vecteur concaténé de deux vecteursw1etw2à comparer. L’équation généra-tive2.75sous l’hypothèseθtars’écrit :

w1

w2

= µ

µ

+

Φ Γ 0 Φ 0 Γ

 y z1

z2

+ ε1

ε2

(2.76) et sous l’hypothèseθnon :

w1

w2

= µ

µ

+

Φ 0 Γ 0 0 Φ 0 Γ

 y z1

z2

+ ε1

ε2

(2.77)

Le modèle PLDA est illustré sur la figure2.7. Le sous-espace locuteur (une droite vectorielle engendrée parΦsur la figure) est distribué suivant une loi de moyenne µ et covariance ΦΦt. Pour un facteur-locuteur y, les vraisemblances de deux vecteurs w1,w2, sous l’hypothèse qu’ils sont issus de ce locuteur, sont évaluées par la loi de moyenneyet covarianceΓΓt.

Dans le cas de la PLDA gaussienne (Gaussian-PLDA), les vraisemblances marginales sont supposées gaussiennes et le score peut être évalué analytiquement (Prince and Elder, 2007). L’élégance de l’expression obtenue tient au fait qu’elle n’inclut pas les variables cachéesysetz, qui n’ont donc pas besoin d’être calculées. Le numérateur du ratio de l’équation2.33est égal à :

P(w1,w2|θtar) =N

w1

w2

| µ

µ

,

ΦΦt+ΓΓt+Σ ΦΦt ΦΦt ΦΦt+ΓΓt+Σ

(2.78) et son dénominateur à :

w1

w2

G

F

m

y

P (

w1 , w2 |

y , GG t )

´

P ( y

|

m , FF t )

FIGURE2.7 –Illustration du modèle PLDA. Le sous-espace locuteur est distribué suivant une loi µ,ΦΦt

et la distribution intra-locuteur suivant.une loi y,ΓΓt .

P(w1,w2|θnon) =N

w1

w2

| µ

µ

,

ΦΦt+ΓΓt+Σ 0 0 ΦΦt+ΓΓt+Σ

(2.79)

Le score log-ratio de vraisemblance s’écrit donc (en retirant une constante) :

score(w1,w2) =−

w1µ w2µ

t

Mtar1Mnon1 w1µ w2µ

(2.80) où

Mtar=

ΦΦt+ΓΓt+Σ ΦΦt ΦΦt ΦΦt+ΓΓt+Σ

(2.81) Mnon =

ΦΦt+ΓΓt+Σ 0 0 ΦΦt+ΓΓt+Σ

(2.82)

Dans le cas simplifié de l’équation2.75, le score s’écrit

score(w1,w2) =−

w1µ w2µ

t

Ntar1Nnon1 w1µ w2µ

(2.83) où

2.6. Modèles décisionnels et scorings avec les i-vectors

Ntar=

ΦΦt+Σ ΦΦt ΦΦt ΦΦt+Σ

(2.84) Nnon =

ΦΦt+Σ 0 0 ΦΦt+Σ

(2.85)

Φest une matrice rectangulaire et la matrice carréeΣcontient la variabilité rési-duelle non-informative.

Des écritures simplifiées de cette formule ont été proposées (Burget et al., 2006) (Garcia-Romero and Espy-Wilson,2011). Mais notons que la nature non inversible, en général, de la matriceΦΦt (si Φ n’est pas carrée) n’est pas prise en compte dans les calculs de (Garcia-Romero and Espy-Wilson,2011).

Lien avec le modèle two-covariance

Comme l’indique l’équation2.65, le modèle two-covariance est un cas particulier de la PLDA gaussienne, dans lequel :

- les matrices locuteur et résidu sont estimées de manière déterministe, - la matriceΦΦtest égale àBet de plein rang,

- la matriceΓΓtest égale àWet de plein rang,

- la matriceΣest nulle, la variabilité nuisible étant entièrement estimée parW.

Il est à noter que le score issu du modèle PLDA peut également être obtenu par une voie mathématique analogue à celle de l’équation2.66du modèle two-covariance :

scorePLDA(w1,w2) =log R

y

i=1,2P(wi|µ+Φy,Λ)P(y|0,I)dy

i=1,2

R

yP(wi|µ+Φy,Λ)P(y|0,I)dy (2.86) Ce score, apparemment distinct de celui de l’équation2.83, aboutit strictement au même résultat, les intégrations pouvant être interprétées comme des convolutions de gaussiennes.

2.6.5.2 PLDA "heavy-tailed" (HT-PLDA)

Kenny a proposé (Kenny, 2010) une nouvelle approche de la PLDA en reconnais-sance du locuteur par i-vectors. Il constate un certain manque d’adéquation de ces vec-teurs au postulat gaussien et tente de le prendre en compte dans la modélisation. La distribution des i-vectors d’apprentissage présente une queue de distribution plus im-portante que sous hypothèse gaussienne (excès de valeurs extrêmesoutliers). L’alterna-tive à la PLDA gaussienne consiste à supposer les facteurs locuteur et résiduels comme

Estimation de la variabilité intra-locuteur

Estimation de la variabilité inter-locuteur Par maximum

de vraisemblance Rang (évent.) réduit

Par maximum de vraisemblance Rang (évent.) réduit

Déterministe (W) Plein rang

Déterministe (W) Plein rang

Déterministe (B) Plein rang

Aucune (précision = 0)

PLDA

Two-covariance

Mahalanobis

FIGURE2.8 –Hiérarchie des modèles suivant leur niveau de sophistication probabiliste.

distribués suivant une loi dut de Student. Ces lois présentent une queue de distribu-tion plus forte et permettent une meilleure représentadistribu-tion des valeurs extrêmes. Les facteursysetzde l’équation2.74sont représentés par :

ys∼ N 0,u11I

oùu1Gn21,n21 z∼ N 0,vr1Λ1

oùvrGν2,ν2 (2.87) où n1 et ν sont les degrés de liberté, u1 et νr sont les facteurs de la distribution Gamma etG(a,b)est la distribution Gamma de paramètres de formeaet d’échelleb.

Il est à noter que l’estimation des paramètres de la HT-PLDA est beaucoup plus gourmande en complexité que celle des paramètres de la G-PLDA.

Dans le document The DART-Europe E-theses Portal (Page 67-71)