• Aucun résultat trouvé

2.4 Identification de la loi de probabilité adéquate

2.4.1 Cas d’une seule loi candidate

2.4.1.2 Qualité de l’estimation

Méthode de Kolmogorov–Smirnov . . . 51 Méthode Kullback–Leibler . . . 52 2.4.2 Cas de plusieurs lois candidates . . . 56

2.4.2.1 Principe . . . 56

2.4.2.2 Mise en œuvre . . . 56

2.4.2.3 Étude paramétrique . . . 59

Influence des histogrammes . . . 60 Influence des divergences . . . 62 Influence des lois statistiques . . . 62

2.5 Conclusion . . . 66

44 Chapitre 2 : Identification d’une loi par estimation statistique

2.1

Introduction

Dans ce chapitre, on s’intéresse à la modélisation des variations rapides d’un signal reçu à travers un canal de propagation multitrajets. Il a été montré dans le chapitre 1 qu’elles peuvent être modélisées par des lois statistiques. Celles-ci peuvent traduire efficacement le comportement des multitrajets qui régissent l’évolution de ces évanouissements plutôt que d’essayer de les estimer de façon déterministe. Le calcul des évanouissements rapides revient alors à produire un générateur aléatoire paramétré selon la loi statistique choisie. Cette méthode permet de réduire considérablement le temps de simulation par rapport à une approche déterministe. De nombreux modèles statistiques ont été proposés et testés, au cours de ces dernières années, et confrontés à des données mesurées comme indiqué dans le chapitre 1 [Ric48, Skl97, TC02, Zha02, SKZC04].

Certains ont l’avantage d’être rapides, d’autres sont plus généraux et plus compliqués à mettre en place.

La sélection et le paramétrage de la loi statistique adéquate selon les conditions de propa- gation est donc un sujet d’étude important dans le cadre de cette thèse. L’objectif principal est d’étudier la qualité de modélisation de différentes lois statistiques afin de retenir celle qui est capable de modéliser correctement les évanouissements rapides. Cette procédure, présentée dans ce chapitre, est appelée “identification d’une loi statistique”. Notons qu’elle est un sujet de re- cherche actif depuis une vingtaine d’années en lien direct avec le domaine des mathématiques appliquées.

Ce chapitre est organisé de la façon suivante : on présente d’abord le principe global de l’identification. Ensuite, les différentes étapes nécessaires sont décrites. Enfin, en utilisant cette procédure sur des données disponibles, on retient la loi statistique identifiée qui sera utilisée dans la suite de la thèse pour modéliser les évanouissements rapides.

2.2

Principe global

Disposant d’un jeu de données acquises (simulées ou mesurées), l’objectif d’une identifica- tion consiste à choisir la loi qui traduit au mieux le comportement statistique de ces données. Tout d’abord, il est nécessaire de mettre en forme ces données pour qu’elles soient analysables. Il s’agit de les représenter sous la forme d’une fonction de répartition empirique, ou d’un his- togramme. Dans les deux cas, notons qu’elles correspondent à des représentations statistiques discrètes.

Ensuite, on suppose que ces données correspondent à une loi statistique. Il faut estimer ses paramètres. Ce processus d’estimation statistique s’appuie sur la technique du maximum de vrai- semblance (MLE).

Enfin, il est indispensable de déterminer la qualité de cette estimation. Cette évaluation s’ap- puie sur une mesure de distance entre la fonction de répartition empirique ou l’histogramme des données et la fonction de répartition ou la densité de probabilité alors produites par la loi sta- tistique paramétrée. Cette mesure est fournie par le test de Kolmogorov–Smirnov si on travaille

2.3 Mise en forme des données 45 avec les fonctions de répartition, ou par le test de Kullback–Leibler si l’histogramme et la densité de probabilité sont considérés.

Cependant, plusieurs lois statistiques peuvent potentiellement modéliser la même donnée acquise. Il faut donc étendre la procédure précédente à plusieurs lois candidates. En s’appuyant sur de bons paramétrages des lois réalisés par la technique du maximum de vraisemblance, il faut choisir celle qui traduit le mieux les données. Cette similarité peut être quantifiée soit par la divergence de Kolmogorov–Smirnov, soit par celle de Kullback–Leibler.

Les paragraphes suivants présentent les différentes étapes de ce raisonnement.

2.3

Mise en forme des données

Il faut noter que dans ce chapitre, on suppose les données disponibles ; le chapitre 3 indiquera comment les acquérir.

Afin de comparer ces données à une loi statistique, il est nécessaire de les mettre sous la forme d’une représentation statistique. Une donnée peut être présentée sous la forme d’une fonction de répartition F .x/ ou d’une densité de probabilité P.x/. Dans la pratique, compte tenu du nombre fini d’échantillons de la donnée, on utilise la fonction de répartition empirique dans le premier cas et l’histogramme dans le deuxième. Intéressons nous à ces deux représentations.

2.3.1

Définition et construction d’une fonction de répartition

En statistique, une fonction de répartition empirique Fn.x/ est une fonction de répartition

F .x/ pour laquelle il est donné la probabilité 1=n à chacune des n réalisations d’une variable aléatoire. Soit X1; : : : ; Xndes variables iid (indépendantes et identiquement distribuées) à valeur

dans R dont la fonction de répartition est F .x/. La fonction de répartition empirique Fn.x/ est

une fonction discrète qui s’écrit :

Fn.x/D 1 n n X i D1 I.Xi 6x/ (2.1)

avec I.A/ la fonction indicatrice de l’événement A.

Pour donner un exemple, une simulation est réalisée sur une distance de 1,3 km pour l’en- vironnement “Toulouse Arènes” avec un satellite géostationnaire travaillant à 1500MHz et la puissance à l’émission de 30 W. La figure 2.1(b) montre la fonction de répartition empirique construite à partir du signal simulé présenté sur la figure 2.1(a). La puissance reçue est exprimée en dBW.

Nous observons globalement trois intervalles sur la fonction de répartition. Un premier de - 204 dBW à -187 dBW, puis un deuxième de -187 dBW à -168 dBW où la fonction est quasiment horizontale autour d’une probabilité de 0,5 environ. La courbe se terminé par un saut brutal à partir de -168 dBW pour atteindre rapidement la probabilité 1.

Le premier intervalle contient environ 50% des valeurs des puissance reçues. La dispersion des puissances est importante. En faisant le lien avec le chapitre 1, cela correspond à une récep- tion en NLOS où le signal est très atténué et varie beaucoup.

46 Chapitre 2 : Identification d’une loi par estimation statistique 0 200 400 600 800 1000 1200 1400 -205 -200 -195 -190 -185 -180 -175 -170 -165 -160 Distance parcourue (m) Puissance (dBW) (a) -2050 -200 -195 -190 -185 -180 -175 -170 -165 -160 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Probabilité cumulée Puissance (dBW) (b)

Figure 2.1:Exemple représentatif d’une fonction de répartition (b) construite à partir d’un signal simulé pour environnement “Toulouse Arènes” (a)

Ensuite, le deuxième intervalle est quasiment constant, traduisant ainsi qu’il n’existe que très peu d’échantillons sur cet intervalle de puissance reçue. Cela signifie donc des passages brusques entre des réception en NLOS et en LOS, conformément à la définition d’un canal ON/OFF [PRG03].

Le troisième intervalle est très court mais contient environ 50% des puissances reçues. Il correspond aux points de réception en LOS. Le signal a une dynamique très faible avec une puissance reçue comprise entre -168 dBW et -166 dBW. En fait, les variations rapides sont né- gligeables et le niveau du signal est quasiment constant. Cela signifie que le trajet direct est ex- trêmement prédominant et possède une puissance constante. Ce phénomène sera expliqué dans le chapitre 3.

Cet exemple montre que la fonction de répartition est donc un moyen intéressant d’analyser un signal reçu.

2.3.2

Définition et construction d’un histogramme

En statistique, un histogramme est une représentation de la répartition d’une suite de données. Il peut être considéré comme une représentation discrète permettant d’approcher la densité de probabilité continue.

Soit X D X1; : : : ; Xnune variable aléatoire à n échantillons issue d’une densité de probabi-

lité inconnue f dont le support est un intervalle I  R. Soit également P D .Ij/j 2J1; mK une

partition de I en m intervalles. L’estimée au sens du maximum de vraisemblance de f par une fonction constante par morceaux sur P est donnée par l’histogramme [CLAC09a] :

O fP D m X j D1 nj n`j1 Ij (2.2)

2.3 Mise en forme des données 47 où `j est la longueur de l’intervalle Ij et nj le nombre d’échantillons contenus dans Ij, 1X la

fonction indicatrice d’un ensemble X.

Le choix de la partition P sur laquelle est construit cet histogramme est crucial lors d’une telle estimation et donne lieu à différents types d’histogrammes. Le plus simple à mettre en place est l’histogramme à taille de classe fixe. Il peut être défini par un nombre de classes et l’occurrence des échantillons dans chaque classe. Afin de construire cet histogramme à partir d’une donnée X, on détermine d’abord l’intervalle Œmin.X/; max.X/ dans lequel sont compris tous les échantillons de X. Ensuite, avec un nombre de classes k donné, on définit la taille de classe :

w D max.X/ min.X/

k (2.3)

Ainsi, l’abscisse d’un histogramme à taille de classe fixe est un ensemble d’intervalles : Œmin.X/; min.X/ C wŒ Œmin.X/ C w; min.X/ C 2wŒ :: : Œmin.X/ C .k 1/w; max.X/ (2.4)

Enfin, la hauteur de chaque classe correspond au nombre d’occurrences des échantillons ayant une valeur comprise dans l’intervalle défini par cette classe.

La figure 2.2 montre un exemple représentatif d’un histogramme construit à partir du même signal simulé (figure 2.1(a)) et réparti en 50 classes.

0 200 400 600 800 1000 1200 1400 -205 -200 -195 -190 -185 -180 -175 -170 -165 -160 Distance parcourue (m) Puissance (dBW) (a) -2050 -200 -195 -190 -185 -180 -175 -170 -165 -160 500 1000 1500 2000 2500 3000 3500 4000 4500 5000 k=50 Occurrence Puissance (dBW) (b)

Figure 2.2:Exemple représentatif d’un histogramme (b) construit à partir du signal simulé (fi- gure 2.1(a))

L’analyse d’un histogramme est moins pratique que la fonction de répartition. Sur cette fi- gure, il est possible de constater une grande concentration des valeurs entre -166 dBW et -168

48 Chapitre 2 : Identification d’une loi par estimation statistique

dBW et un étalement des puissances reçues entre -187 dBW et -204 dBW comme pour la fonc- tion de répartition, mais la probabilité d’apparition dans chaque cas n’est pas directement lisible. Par ailleurs, lors d’un calcul d’histogramme, le nombre de classes k est le paramètre décisif car il influence la précision du calcul mais aussi la rapidité d’obtention de l’histogramme : lorsque ktend vers l’infini, la forme de l’histogramme devient la densité de probabilité continue mais le temps de calcul tend vers l’infini. Réciproquement, un k très petit minimise le temps de calcul mais l’histogramme s’éloigne de la densité continue. La figure 2.3 montre deux histogrammes construits avec 100 et 10 classes à partir du même signal de la figure 2.1(a).

-2050 -200 -195 -190 -185 -180 -175 -170 -165 -160 500 1000 1500 2000 2500 3000 3500 4000 4500 k=100 Puissance (dBW) Occurrence (a) k D 100 -2050 -200 -195 -190 -185 -180 -175 -170 -165 -160 1000 2000 3000 4000 5000 6000 7000 8000 9000 k=10 Occurrence Puissance (dBW) (b) k D 10

Figure 2.3:Influence du nombre de classes k sur un histogramme

Nous constatons que même si l’histogramme du signal avec 100 classes (figure 2.3(a)) de- vient plus lisse, la différence n’est pas très importante si nous le comparons à celui avec 50 classes (figure 2.2(b)) : il y a toujours deux classes majeures en visibilité et l’évolution en non visibilité n’est que légèrement différente. Par contre, avec 10 classes, le détail de classement peut être masqué. Par exemple, les deux classes en visibilité de la figure 2.2(b) fusionnent (figure 2.3(b)). Dans ce cas, l’histogramme est une représentation nettement moins précise.

Plusieurs critères ont été proposés pour déterminer k. On trouve classiquement l’histogramme empirique avec [Rud82] :

k D b2pn 1c (2.5)

Cependant, la description par histogramme empirique n’est pas optimale par rapport à la densité continue. Il est d’ailleurs possible de considérer aussi une taille variable de classe.

Afin d’optimiser la mise en forme des données dans le cadre de cette thèse, nous proposons d’étudier deux types d’histogrammes optimaux : l’histogramme régulier (histogramme à taille de classe fixe mais optimisée) et l’histogramme dynamique (histogramme à taille de classe va- riable). Ils sont construits à l’aide d’un critère d’information lors d’une sélection de modèle non- paramétrique. Nous nous appuyons sur les travaux de Rissanen et al [BRY98, Ris86, RSY92] et

2.4 Identification de la loi de probabilité adéquate 49 de Coq et al [Coq08, COAA07]. Les détails de conception de ces deux histogrammes se trouvent dans l’annexe B.

La figure 2.4 montre un exemple de ces trois histogrammes (empirique, dynamique et régu- lier). Ils ont été construits à partir d’une donnée constituée de 100 échantillons, générée par la loi de Nakagami-m avec m D 2 et  D 1. Pour l’histogramme empirique, nous avons utilisé b2p100 1c D 19 comme nombre de classes. Les intervalles sont calculés automatiquement pour les histogrammes dynamique (3 classes) et régulier (4 classes). La courbe théorique de densité de probabilité de Nakagami-m est superposée aux trois histogrammes.

0 0.5 1 1.5 2 2.5 0 0.5 1 1.5 2

Amplitude de la variable Nakagami généré

D en si té d e pr ob ab

ilité Histogramme empiriqueNakagami théorique

0 0.5 1 1.5 2 2.5

0 0.5 1 1.5

Amplitude de la variable Nakagami généré

D en si té d e pr ob ab

ilité Histogramme dynamique

Nakagami théorique 0 0.5 1 1.5 2 2.5 0 0.5 1 1.5

Amplitude de la variable Nakagami généré

D en si té d e pr ob ab

ilité Histogramme régulierNakagami théorique

Figure 2.4:Histogrammes empirique, dynamique et régulier comparés à la densité de probabilité théorique de Nakagami-m

Cette figure montre des résultats intéressants qui seront analysés en détail dans la suite.

2.4

Identification de la loi de probabilité adéquate

Nous avons présenté jusqu’ici les méthodes permettant de mettre en forme des données. Maintenant, l’objectif est de déterminer une loi statistique qui correspond au mieux à cette don- née. Cette procédure est appelée “identification d’une loi statistique” et fait l’objet de la suite du chapitre.

50 Chapitre 2 : Identification d’une loi par estimation statistique

Nous commençons par l’étude d’une seule loi candidate pour ensuite généraliser la démarche à plusieurs lois.

2.4.1

Cas d’une seule loi candidate

Dans le paragraphe 1.3.2 du chapitre 1, nous avons présenté 4 lois statistiques généralement utilisées pour étudier les variations rapides d’un signal centré sur 0, à savoir Rayleigh, Rice, Weibull et Nakagami-m. Chacune de ces lois nécessite un paramétrage qu’il faut estimer. Pour une donnée X, cette estimation est réalisée par le maximum de vraisemblance (MLE).

2.4.1.1 Méthode du maximum de vraisemblance

L’estimation du maximum de vraisemblance, proposée par Fisher [Fis25], est une méthode statistique générale pour calculer les paramètres d’un modèle statistique à partir d’une donnée empirique. Cette méthode est robuste pour la plupart des modèles statistiques et pour différents types de données (continues ou discrètes) [SV94].

Considérons une variable aléatoire X qui, dans le cadre de cette thèse, est un signal simulé contenant n échantillons discrets indépendants et identiquement distribués. Supposons que X suive une loi discrète A avec un paramétrage . On peut définir une fonction f telle que :

f .xI / D P.X D x/ (2.6)

avec P.X D x/ la probabilité discrète.

La vraisemblance L de  peut être définie, à partir des n observations (x1; : : : ; xn) distribuées

selon la loi A, comme

L.xI / D f .x1I /  f .x2I /  : : :  f .xnI / D n

Y

i D1

f .xiI / (2.7)

On cherche alors à maximiser cette vraisemblance afin que les probabilités des réalisations observées soient aussi maximum. Pour cela, on peut avoir recours à la dérivée de L : si L admet un maximum global en un point  D O, la dérivée première s’annule en ce point et la dérivée seconde est négative. Soulignons que la réciproque n’est pas vraie : si la dérivée première s’an- nule et la dérivée seconde est négative en  D O, il peut s’agir d’un maximum local. Il faut donc vérifier si le maximum est global.

Le fait que la vraisemblance soit positive conduit à préférer le logarithme naturel car il s’agit d’une fonction croissante. Ensuite, il est souvent plus simple de maximiser le logarithme pour le- quel le produit se transforme en somme. Ainsi, pour trouver  D O maximisant la vraisemblance, on utilise :

@ln L.xI /

@ D 0 (2.8)

 D O est un maximum local si la condition suffisante est remplie : @2ln L.xI /

2.4 Identification de la loi de probabilité adéquate 51 Il faut souligner qu’il existe plusieurs méthodes pour l’estimation du maximum de vraisem- blance. Elles utilisent toutes des approximations pour palier la difficulté mathématique du calcul de la dérivée de L. Nous y reviendrons dans le chapitre 3 dans le cas de la loi de Nakagami-m. 2.4.1.2 Qualité de l’estimation

Une fois calculé le paramétrage  de la loi A, il est nécessaire d’évaluer la qualité de cette es- timation, aussi appelée validité de l’ajustement. Pour cela, il faut comparer l’évolution théorique de la loi A avec la présentation statistique de la donnée X.

Or, nous avons présenté deux méthodes permettant de mettre en forme X : la fonction de répartition empirique et l’histogramme. S’il s’agit de la fonction de répartition, la méthode de Kolmogorov–Smirnov est utilisée pour laquelle deux courbes de répartition sont comparées. Si- non, on doit comparer l’histogramme de X avec la densité de probabilité théorique de A, ce qui

donne lieu à la méthode de Kullback–Leibler. Méthode de Kolmogorov–Smirnov

La méthode de Kolmogorov–Smirnov (KS) [LR05, SV94] est un test non paramétrique qui estime la distance minimale entre deux distributions. Dans notre étude, nous avons une fonction de répartition théorique F .x/ de A et une fonction de répartition empirique de la donnée X,

Fn.x/. Afin de déterminer si ces deux fonctions sont semblables, on introduit la statistique de

Kolmogorov–Smirnov DKSqui correspond à la distance maximale entre ces deux fonctions :

DKS D sup

x jF

n.x/ F .x/j (2.10)

avec sup S la borne supérieure de l’ensemble S. Selon le théorème de Glivenko–Cantelli [vdV00], si les échantillons X1; : : : ; Xn proviennent de la distribution F .x/, DKS convergera

presque certainement vers 0.

Ensuite, pour que le test de Kolmogorov–Smirnov soit valide, il faut que la valeur de DKS

soit inférieure à une valeur critique pour un seuil de probabilité ˛. La correspondance entre ˛ et la valeur critique est donnée par le tableau de Kolmogorov–Smirnov. En pratique, on utilise ˛ D 5% comme seuil pour que le résultat soit statistiquement significatif : si on a moins de 5% de chance d’obtenir un faux résultat par hasard, ce résultat est jugé significatif. Dans ce cas, l’estimation du paramétrage  est validé par la méthode de Kolmogorov–Smirnov.

Il existe plusieurs versions de tableaux de valeurs critiques de Kolmogorov–Smirnov, avec une légère différence entre elles. Un exemple est montré dans le tableau 2.1.

Ces tableaux sont construits pour un nombre d’échantillons n inférieur ou égal à 35, si n > 35, pour un seuil de 5%, la valeur critique est donnée par la relation suivante [Lew04].

D D 1;358p

n (2.11)

Pour illustrer nos propos, montrons un exemple d’application de la méthode de Kolmogorov– Smirnov. On considère deux intervalles du signal simulé pour l’environnement “Arènes”, chacun constitué de 60 échantillons. On fait l’hypothèse que cette donnée suit la loi de Nakagami-m.

52 Chapitre 2 : Identification d’une loi par estimation statistique n D n D n D 1 0,975 13 0,361 25 0,264 2 0,842 14 0,349 26 0,259 3 0,708 15 0,338 27 0,254 4 0,624 16 0,328 28 0,250 5 0,565 17 0,318 29 0,246 6 0,521 18 0,309 30 0,242 7 0,486 19 0,301 31 0,238 8 0,457 20 0,294 32 0,234 9 0,432 21 0,287 33 0,231 10 0,410 22 0,281 34 0,227 11 0,391 23 0,275 35 0,224 12 0,375 24 0,269 n > 35 1;358=pn

Tableau 2.1:Tableau des valeurs critiques en fonction du nombre d’échantillons pour le test de Kolmogorov–Smirnov, avec le seuil ˛ D 5%

On utilise ensuite l’estimation par maximum de vraisemblance pour calculer les paramètres m et  de Nakagami-m. Avec ce paramétrage, il devient alors possible de tracer la fonction de répartition théorique et de la comparer à la fonction de répartition empirique comme le montre la figure 2.5.

Pour la figure 2.5(a), les paramètres estimés sont : Om D 0;345, O D 40;299. On trouve DKS D 0;169 selon l’équation (2.10) et la valeur critique D D 1:358=p60D 0;175. Dans ce cas,

le test de Kolmogorov–Smirnov est valide.

Au contraire, pour la figure 2.5(b), d’après l’estimateur MLE, Om D 0;520, O D 65;565. Cela donne DKS D 0;268 alors que la valeur critique reste inchangée pour le même nombre

d’échantillons selon l’équation (2.11). Ainsi, le test de Kolmogorov–Smirnov est rejeté. Ce résultat est satisfaisant par rapport à l’observation de ces deux figures.

Par ailleurs, lorsque le nombre d’échantillons augmente, la valeur critique diminue, condui- sant à un test de KS de plus en plus sévère. Dans ce cas, il est possible que le test de KS soit rejeté plus souvent. Néanmoins, un autre critère peut être employé. Appelée “la valeur p” [Ros04], il s’agit d’une probabilité P.DKS < D/ pour laquelle la divergence DKS est inférieure à la va-

leur critique D. Cette valeur traduit alors la qualité globale du test. Nous y reviendrons dans le chapitre 4.

Méthode Kullback–Leibler

Une autre méthode de mesure de distance s’appuie cette fois sur la densité de probabilité. Il s’agit de la divergence de Kullback–Leibler [KL51, Kul78] issue de la théorie de l’information. Cette divergence DKL mesure la différence entre deux densités de probabilité fx et fy. En pra-

2.4 Identification de la loi de probabilité adéquate 53 0 1 2 3 4 5 -205 -200 -195 -190 -185 Distance parcourue (m) Puissance (dBW) Signal -2050 -200 -195 -190 -185 0.2 0.4 0.6 0.8 1 Test de KS Puissance (dBW) Probabilité cumulé

e Répartition théoriqueRépartition empirique

(a) Test de KS valide

0 1 2 3 4 5 -204 -202 -200 -198 -196 -194 -192 -190 Distance parcourue (m) Signal -2040 -202 -200 -198 -196 -194 -192 -190 0.2 0.4 0.6 0.8 1 Test de KS Probabilité cumulé

e Répartition théoriqueRépartition empirique

Puissance (dBW)

Puissance (dBW)

(b) Test de KS rejeté

Figure 2.5:Exemple d’application du test de Kolmogorov–Smirnov sur deux signaux simulés supposés modélisés par la loi de Nakagami-m

la densité théorique d’une loi statistique. Selon la théorie de l’information, DKL peut être inter-

prétée comme la différence moyenne du nombre de bits nécessaires pour coder les échantillons provenant de fx selon fy. Si fx et fysont des densités de probabilité continues, on a :

DKL.x; y/D 1 2 Z .fx fy/log  fx fy  dv (2.12)

avec v la mesure de Lebesgue [Leb02].

Or dans la pratique, une donnée est définie par échantillonnage et correspond à un nombre fini d’échantillons. Elle se présente de façon discrète. Comme indiqué dans le paragraphe 2.3.2,

Documents relatifs