• Aucun résultat trouvé

Modèle bayésien pour le codage

2.3.3 Mélange des chaînes de Marko

0 20 40 60 temps 0 0.2 0.4 0.6 0.8 1 autocorrélation 0 20 40 60 temps 0 0.2 0.4 0.6 0.8 1 autocorrélation (a) (b) (c) 0 20 40 60 temps 0 0.2 0.4 0.6 0.8 1 autocorrélation 0 20 40 60 temps 0 0.2 0.4 0.6 0.8 1 autocorrélation 0 20 40 60 temps 0 0.2 0.4 0.6 0.8 1 autocorrélation (d) (e) (f) 0 20 40 60 temps 0 0.2 0.4 0.6 0.8 1 autocorrélation F 2.10 : 100 premiers temps de la fonction d’autocorrélation empirique pour haut :N=50et bas :N=100,

approchés avec les algorithmes (a & d) BAC Gibbs, (b & e) P-MALA et (c & f) P-MYULA.

La igure2.10aiche les 100 premiers temps de l’autocorrélation empi- rique pour la loi p(x|y)pourN=50etN=100approchés en utilisant

les algorithmes (a & d) BAC Gibbs, (b & e) P-MALA et (e & f) P-MYULA. En dimensionN=50, l’algorithme BAC Gibbs admet la décroissance la

plus rapide de la fonction d’autocorrélation tandis que P-MYULA est la méthode la plus eicace en dimensionN=100. Dans les deux cas, P-

MALA est la méthode aichant la décroissance la plus lente. Notons que ce défaut était prévisible en raison de l’étape d’acceptation-rejet à chaque itération.

Pour améliorer la capacité de mélange des algorithmes, nous augmen- tons le nombre d’échantillons générés entre chaque itération : c’est le paramètre de thinning en anglais. On utilise pour P-MALA et P-MYULA un thinning de 10 échantillons.

2.3.4 Calibration du paramètre µ

On rappelle la déinition de (V∞β) b x =arg min z∈RN J∞β(z) Jβ∞(z) ≜1 2∥y−Hz∥2+β∥z∥∞.

Par construction du modèle bayésien, l’estimateur MAP coïncide avec la solution du problème variationnel (V∞β) pour β = (N+1)µσ2lorsque

les paramètres σ2et µ sont ixés. Comme seule la valeur du produit

β=σ2(N+1)µ importe, la valeur de l’un des deux paramètres µ ou σ2est libre, et l’on peut s’atendre à des diférences dues à l’eicacité

On ixe la valeur du produit β ≜ (N+1)µσ2, et l’on fait varier la

valeur de µ. On s’appuie toujours sur le protocole expérimental décrit dans la partie2.3.1, mais nous n’allons décrire les résultats qu’en termes de SNRyet de PAPR pour l’algorithme BAC P-MYULA.

10-2 100 102 104 106 10-2 10-1 100 J(x, 0.01) FITRA MMSE MAP 1 2 3 4 5 6 PAPR 0 20 40 60 80 100 120 140 SNR y (a) (b) FITRA MMSE MAP solution de FITRA pour =0.01

F 2.11 : Performances des esti- mateurs MAP et MMSE vis-à-vis de la fonction de coût J∞

β, à β ixé en fonction

de µ.

La igure2.11-a aiche la valeur de J∞

0.01(xb)6en fonction du paramètre 6. Voir (2.1) pour la déinition de J∞β et la

note précédente.

µ sur une réalisation de y pour les estimateurs MAP et MMSE,i.e., pour β = 0.01, M = 30 et N = 50. Les prochains commentaires sont qua- litativement indépendants du choix de β, N et de la réalisation. La droite horizontale est la valeur de J∞

0.01(xb)obtenue avec FITRA, qui joue ici le

rôle de solution de référence. On rappelle que FITRA est un algorithme de type forward-backward, qui cherche un minimum du problème variation- nel (V∞β) et étudié en1.4.4.

Les performances augmentent avec µ. Comme l’estimateur MAP ne dé- pend que de β, la courbe de J

0.01en fonction de µ devrait être une droite

confondue avec la droite associée à FITRA. On constate pourtant que les estimateurs MAP et MMSE sont d’autant plus proches de FITRA que le paramètre µ est grand, ou de manière équivalente lorsque σ2est petit. On

note l’existence d’une valeur seuil, environ égale à√N/∥y∥2, à partir

de laquelle on peut numériquement considérer que les estimateurs sont les mêmes. Ce résultat positif montre qu’en réglant correctement les pa- ramètres du modèle, il est possible d’ateindre les mêmes performances numériques qu’un algorithme déterministe. Néanmoins, ces résultats sont surprenants dans le sens où surestimer la valeur de µ, même d’un facteur 100 ne semble pas avoir de conséquence sur les performances.

La igure2.11-b représente les estimateurs MAP (points bleus clairs) et MMSE (points bleus foncés) dans le plan (PAPR, SNRy) lorsque µ varie. La

courbe noire correspond aux solutions proposées par FITRA pour toutes les valeurs du paramètre de régularisation β. On constate que les chemins des deux estimateurs obtenus en faisant varier µ convergent vers le point correspondant à la solution proposée par FITRA pour β=0.01.

Vers des méthodes SVA. Coupler les paramètres de nuisance σ2et µ à

travers une variable auxiliaire β et faire tendre la variance de l’erreur ré- siduelle σ2vers 0 ressemble aux méthodes dites desmall variance asymp-

y x 67

k-moyennes comme l’asymptotique d’un modèle probabiliste (Kulis et Jordan,2012), les méthodes SVA sont des algorithmes déterministes ra- pides obtenus à partir d’un modèle bayésien pour chercher rapidement les modes d’une loi a posteriori (Jiang et al.,2012a).

Chemin empruntés par les estimateurs successifs. Par construction de l’expérience, tous les points correspondant à l’estimateur MAP sur la igure2.11-b devraient être superposés et correspondre à un point de la courbe FITRA. Les variations de performances de l’estimateur MAP résultent de l’eicacité numérique de l’algorithme. En revanche, on ne peut pas certiier que l’estimateur MMSE déinie par

b xMMSE = E[x|y] = ( 1 πβ )M 2 ()N− M 2 2NN!

xexp ( −µNβ ∥yHx∥22−µN∥x∥∞ ) d x, ne dépend que de la valeur de β et surtout soit confondu avec l’estimateur

MAP. Notons que plusieurs travaux, consacrés à l’étude des diférences entre les estimateurs MAP et MAPm amène à penser le contraire. Par exemple, Gribonval (2011) a montré que dans le cas d’une tâche de débrui- tage avec bruit Gaussien, l’estimateur MMSE correspond à l’estimateur MAP d’un modèle diférent. Plus récemment, Pereyra (2016b) interprète les deux estimateurs MAP et MMSE en terme de géométrie diférentielle. Ces résultats sont cependant inapplicables ici car les théorèmes néces- sitent que la loi a posteriori du modèle soitC1, ce qui n’est pas le cas ici.

Pour conclure, on ne sait pas expliquer le comportement de l’estimateur MMSE.

2.4 R

(PAPR)

L notéPAPRen anglais, est une mesure de l’éta- lement d’un signal. C’est une grandeur fondamentale dans de nombreuses applications en télécommunication, telles que le dimensionnement d’am- pliicateurs, cf. partie1.1.5. Nous étudions numériquement dans cete partie la capacité du modèle BAC-1 proposé dans la partie2.2à identiier des codes à faible PAPR, sans avoir à régler de paramètres.

Les parties2.4.1et2.4.2font le lien entre la réduction de PAPR et le co- dage antiparcimonieux. La partie2.4.3compare numériquement nos estimateurs bayésiens avec FITRA et PFA, deux algorithmes issus de la litérature. La partie2.4.4étudie le comportement des estimateurs lorsque le rapport N/M des dimensions augmente. Ces résultats sont présentés dans Elvira et al. (2016,2017a).