• Aucun résultat trouvé

Représentation de signaux robuste aux bruits -Application à la détection et l'identification des signaux d'alarme

N/A
N/A
Protected

Academic year: 2021

Partager "Représentation de signaux robuste aux bruits -Application à la détection et l'identification des signaux d'alarme"

Copied!
163
0
0

Texte intégral

(1)

UNIVERSITÉ DE REIMS CHAMPAGNE-ARDENNE

ÉCOLE DOCTORALE SCIENCES DU NUMÉRIQUE ET DE L’INGÉNIEUR

THÈSE

Pour obtenir le grade de

DOCTEUR DE L’UNIVERSITÉ DE REIMS CHAMPAGNE-ARDENNE Discipline : AUTOMATIQUE, SIGNAL, PRODUCTIQUE, ROBOTIQUE

Spécialité : Traitement du Signal

Présentée et soutenue publiquement par

FATIMETOU EL JILI

Le 17 décembre 2018

Représentation de signaux robuste aux bruits - Application à la détection et l'identification des signaux d'alarme

Thèse dirigée par MAMADOU MBOUP

JURY

M. Frédéric MORAIN-NICOLIER, Professeur, Université de Reims Champagne Ardenne, Président

Mme Régine LE BOUQUIN JEANNÈS , Professeur, Université de Rennes 1, Rapporteur

Mme Meriem JAIDANE, Professeur, École Nationale d'Ingénieurs de Tunis , Rapporteur

M. Alban GOUPIL, Maître de Conférences, Université de Reims Champagne Ardenne, Examinateur

M. Mamadou MBOUP, Professeur, Université de Reims Champagne Ardenne, Directeur de thèse

M. Gaël MAHÉ, Maître de Conférences, Université Paris Descartes, Co-encadrant

(2)

A MES PARENTS

qui m’ont toujours ´ eclair´ e mon chemin et qui m’ont encourag´ e et soutenu durant toutes mes ´ etudes.

A MES SOEURS ET FR` ERE

qui n’ont jamais cess´ e de m’encourager durant ma th` ese, et qui m’ont toujours apport´ e la

joie et le bonheur.

(3)

Remerciements

Je tiens ` a exprimer ma profonde gratitude ` a Monsieur Mamadou MBOUP et Monsieur Ga¨el MAH´ E mes encadrants de th` ese qui ont ´ et´ e toujours attentifs et disponibles malgr´ e leurs nombreuses charges et responsabilit´ es. Leurs comp´ etences et leur rigueur scientifique m’ont beaucoup appris, travailler sous leur direction ´ etait une exp´ erience humaine et pro- fessionnelle tr` es enrichissante.

Je remercie l’ensemble des membres de mon jury : Messieurs Fr´ ed´ eric MORAIN- NICOLIER et Alban GOUPIL et Mesdames R´ egine LE BOUQUIN JEANN` ES et Meriem JAIDANE.

Je souhaite ´ egalement remercier Monsieur Bernard RIERA le directeur du labora-

toire CReSTIC et Monsieur Petar M.DJURIC. Je tiens ´ egalement ` a remercier mon p` ere

Mohamed el Bechir EL JILI qui m’a toujours soutenu.

(4)

Table des mati` eres

Remerciements 3

Introduction 15

I Concepts g´ en´ eraux et ´ etat de l’art 17

I.1 Transform´ ees temps-fr´ equence . . . . 17

I.1.1 La transform´ ee de Fourier . . . . 17

I.1.2 La MDCT . . . . 18

I.2 La quantification vectorielle . . . . 19

I.3 Le Matching Pursuit . . . . 20

I.4 Le codage correcteur d’erreurs . . . . 22

I.4.1 Les codes BCH . . . . 23

I.4.2 Les Turbo codes . . . . 26

I.5 Detection et identification . . . . 29

I.5.1 Classifieurs Probabilistiques . . . . 29

I.5.2 D´ etection de pitch . . . . 34

I.5.3 Le r´ eseau artificiel de neurones . . . . 36

II D´ etection et identification d’alarme des v´ ehicules prioritaires par ´ etude du sonagramme 41 II.1 Recherche de la signature d’une alarme . . . . 42

II.1.1 Recherche de la signature fr´ equentielle . . . . 43

II.1.2 Recherche de la signature temporelle . . . . 46

II.1.3 Identification de la bande de fr´ equence la moins bruit´ ee . . . . 48

II.1.4 Algorithme de d´ etection et d’identification conjointes d’alarmes . . 50

II.2 Application ` a la d´ etection et l’identification d’un signal d’alarme d’une voiture de pompiers . . . . 53

II.2.1 Signal peu bruit´ e . . . . 53

II.2.2 Signal bruit´ e . . . . 57

II.3 ´ etude de performance (Courbe COR) . . . . 61

(5)

II.4 Conclusion . . . . 65

III Quantification correctrice d’erreurs 67 III.1 Quantification fond´ ee sur le codage correcteur d’erreurs . . . . 67

III.1.1 Principe . . . . 68

III.1.2 Application du principe de la modulation cod´ ee en bloc ` a la quan- tification . . . . 70

III.1.3 Comparaison avec la quantification vectorielle . . . . 71

III.2 Choix des codeurs . . . . 71

III.2.1 Probabilit´ e d’erreur binaire avant d´ ecodage . . . . 71

III.2.2 Probabilit´ e d’erreur binaire apr` es d´ ecodage . . . . 78

III.2.3 Choix des codeurs . . . . 80

III.3 Application ` a la r´ eduction du bruit . . . . 83

III.3.1 Application aux signaux ` a distribution uniforme . . . . 83

III.3.2 Application aux signaux d’alarmes . . . . 84

III.3.3 Distorsion introduite par la quantification . . . . 86

III.4 Conclusion . . . . 87

IV Matching Pursuit pour la quantification 91 IV.1 Algorithme du matching pursuit modifi´ e pour la quantification . . . . 93

IV.1.1 Minimisation du r´ esidu ` a chaque it´ eration . . . . 95

IV.1.2 Minimisation de l’erreur finale de quantification : approche empi- rique . . . . 97

IV.1.3 Minimisation de l’erreur finale de quantification : approche th´ eorique100 IV.2 Comparaison des codes BCH avec des turbo-codes . . . 106

IV.3 Choix des dictionnaires de mots de code . . . 108

IV.3.1 Probl´ ematique . . . 108

IV.3.2 Application aux signaux ` a distribution uniforme . . . 111

IV.4 Comparaison avec la m´ ethode du chapitre III . . . 112

IV.5 Application aux signaux d’alarme . . . 116

IV.5.1 Quelques caract´ eristiques des signaux d’alarme et du bruit de trafic 117 IV.5.2 Probabilit´ e d’erreurs introduites par le bruit de trafic . . . 119

IV.5.3 Application de l’algorithme du Matching Pursuit modifi´ e pour la quantification des signaux d’alarme . . . 120

IV.6 Conclusion . . . 125

V D´ etection et identification des signaux 127

V.1 Mod` ele de d´ etection et identification des signaux dans le domaine temporel 128

(6)

V.2 Mod` ele de d´ etection et identification des signaux dans le domaine fr´ equentiel130 V.3 Processus de d´ etection et d’identification . . . 133 V.4 Application ` a la d´ etection et l’identification des signaux d’alarme . . . 138 V.4.1 D´ etection et identification des signaux d’alarme . . . 139 V.4.2 Analyse de la d´ etection et de l’identification dans le domaine tem-

porel : Signal quantifi´ e avant transmission . . . 140 V.4.3 Analyse de la d´ etection et de l’identification dans le domaine fr´ e-

quentiel : signal quantifi´ e avant transmission . . . 142 V.4.4 Analyse de la d´ etection et de l’identification dans le domaine tem-

porel : signal non quantifi´ e avant transmission . . . 145 V.4.5 Analyse de la d´ etection et de l’identification dans le domaine fr´ e-

quentiel : signal non quantifi´ e avant transmission . . . 147 V.4.6 Analyse de la d´ etection et de l’identification des signaux : compa-

raison avec la m´ ethode de corr´ elation . . . 150 V.5 D´ etection et identification des signaux d’alarme quantifi´ es par recherche de

signature . . . 153 V.6 Conclusion . . . 155

Conclusion 157

(7)

Table des figures

I.1 Turbo Codes : codeur . . . . 27

I.2 Turbo Codes : d´ ecodeur . . . . 28

I.3 Le r´ eseau artificiel de neurones : perceptron multicouche . . . . 36

II.1 A gauche, repr´ esentation dans le plan temps-fr´ equence du sonagramme d’un signal d’alarme, ` a droite la projection sur le plan fr´ equence-puissance du sonagramme de l’alarme . . . . 42

II.2 A gauche sonagramme d’un signal d’alarme. ` ` A droite zoom sur le sona- gramme . . . . 43

II.3 Signature fr´ equentielle : ` a gauche Φ(f, t), ` a droite sa d´ eriv´ ee, t=0 s . . . 44

II.4 Signature temporelle : p(t) et sa d´ eriv´ ee . . . . 47

II.5 Sonagramme d’un signal d’alarme de sapeurs-pompiers, d’une dur´ ee de 78 s, de fr´ equences fondamentales f 1 =435 Hz, f 2 =488 Hz, de dur´ ees res- pectives T 1 = 1.1 s et T 2 = 1.2 s . . . . 53

II.6 A gauche la projection Φ(f, t). ` ` A droite la d´ eriv´ ee de Φ(f, t)), t=0 s. Les lignes verticales de couleur rouge indiquent les positions de f 1 =435 Hz et de ses harmoniques et ceux de couleur verte indiquent les positions de f 2 =488 Hz et de ses harmoniques . . . . 54

II.7 En haut : ` a droite p(t), ` a gauche la d´ eriv´ ee de p(t). En bas : zoom sur p(t) et sa d´ eriv´ ee, signal de sapeurs-pompiers . . . . 55

II.8 Estimation de T 1 et T 2 dans le temps . . . . 56

II.9 D´ etection de l’algorithme . . . . 56

II.10 Sonagramme du signal enregistr´ e, signal tr` es bruit´ e . . . . 58

II.11 Φ(f, t) et sa d´ eriv´ ee pour t = 0 s et ∆ ´ egal ` a la taille du signal . . . . 58

II.12 p(t) d’un signal de sapeurs-pompier enregistr´ e, signal tr` es bruit´ e . . . . . 59

II.13 Estimation de T 1 et T 2 dans le temps . . . . 60

II.14 D´ etection de l’algorithme . . . . 60

II.15 Probabilit´ e de d´ etection vs probabilit´ e de fausse d´ etection . . . . 62

(8)

II.16 Probabilit´ e de d´ etection vs probabilit´ e de fausse d´ etection, 0 =[0.1 s ; 0.2 s ; 0.3 s ; 0.35 s ; 0.4 s ; 0.45 s] , epsilon ici est une erreur relative epsilon= || f

1

s’il s’agit de l’estimation de f 1 et epsilon= || f

2

s’il s’agit de l’estimation de f 2 . . . . 63 II.17 Probabilit´ e de d´ etection vs probabilit´ e de fausse d´ etection : d´ etection d’un

signal de sapeurs pompier en pr´ esence d’un autre signal d’alarme. . . . . 64 III.1 Principe de la modulation cod´ ee en bloc. . . . 70 III.2 Probabilit´ e d’erreur th´ eorique P e i en fonction de i, pour plusieurs SNR,

pour un signal ` a distribution uniforme bruit´ e par un bruit blanc gaussian, repr´ esent´ e sur L + 1=16 bits. . . . . 78 III.3 Nombre d’erreurs apr` es d´ ecodage correcteur d’erreurs vs nombre d’erreurs

avant d´ ecodage correcteur d’erreur, pour des codes BCH de longueur n = 31. . . . . 79 III.4 Probabilit´ e d’erreur avant et apr` es d´ ecodage correcteur d’erreurs pour

plusieurs poids de bit vs capacit´ es de correction des codeurs, pour un SNR=30 dB. Sous l’hypoth` ese que les signaux suivent une loi de dis- tribution uniforme et sont bruit´ es par un bruit blanc Gaussien, signaux repr´ esent´ es sur L + 1=16 bits. . . . 81 III.5 Capacit´ es de correction minimales t i en fonction du poids de bit pour

plusieurs valeurs du SNR du canal de transmission et pour des mots de code de longueur n = 31. Sous l’hypoth` ese que les signaux suivent une loi de distribution uniforme et sont bruit´ es par un bruit blanc Gaussien, signaux repr´ esent´ es sur 16 bits. . . . . 82 III.6 Chaˆıne de transmission propos´ ee. . . . 83 III.7 Rapport signal ` a bruit (SNR) apr` es d´ ecodage, en fonction du SNR avant

d´ ecodage. R´ esultats sur 10 6 simulations effectu´ ees sur des signaux de taille n = 31 g´ en´ er´ es al´ eatoirement suivant une loi de distribution uniforme sur l’intervalle entier [−2 L + 1 + 1, 2 L − 1] . . . . 85 III.8 SNR dB apr` es d´ ecodage, en fonction du SNR dB avant d´ ecodage. R´ esultats

des simulations sur un signal d’alarme de sapeurs-pompiers. . . . 86 III.9 A gauche histogramme du signal temporel de sapeurs-pompiers, ` ` a droite

histogramme de la MDCT du signal. . . . . 87 III.10 SNR dB de l’erreur du codage, en fonction du SNR dB du canal de transmis-

sion. R´ esultats des simulations sur un signal d’alarme de sapeurs-pompiers. 88

(9)

III.11 Spectrogramme d’un signal d’alarme de sapeurs-pompiers : Signal original

`

a gauche et signal quantifi´ e ` a droite (quantification dans le domaine temporel). . . . 89 III.12 Spectrogramme du signal original ` a gauche et signal quantifi´ e ` a droite

(quantification dans le domaine fr´ equentiel) . . . . 89 IV.1 La norme du r´ esidu ` a chaque it´ eration de l’algorithme ; l’erreur de quan-

tification est ´ egale au r´ esidu ` a la derni` ere it´ eration. Simulations effectu´ ees sur un nombre N = 10 5 de trames de longueur n et de distribution uni- forme dans A n . . . . . 95 IV.2 La norme E λ de l’erreur de quantification en fonction de λ. . . . . 98 IV.3 La norme E l du r´ esidu par it´ eration en fonction de λ, 0 ≤ l ≤ L − 1. . . . 99 IV.4 Diagramme d’´ etat sch´ ematisant la formation des erreurs au cours de l’al-

gorithme du matching pursuit. . . 103 IV.5 R´ esidu du codage et du d´ ecodage par it´ eration : f l vs J 1,l , pour un bruit

gaussien et un SNR=20 dB. . . 105 IV.6 Probabilit´ es d’erreur apr` es d´ ecodage : d´ ecodage utilisant f l vs d´ ecodage

utilisant J 1,l , signaux ` a distribution uniforme, bruit gaussien. . . 106 IV.7 R´ esidu du codage du Matching pursuit : dictionnaire de Turbo Code

ζ(n = 72, k = 20, R = k/(3k + 12)) et dictionnaire de codes BCH ζ(n = 31, k = 11). . . . 107 IV.8 R´ esidu du d´ ecodage du Matching pursuit : dictionnaire de Turbo Code

ζ(n = 72, k = 20, R = k/(3k + 12)) et dictionnaire de codes BCH ζ(n = 31, k = 11). . . . 108 IV.9 Probabilit´ e d’erreur du d´ ecodage par le Matching pursuit, dictionnaire de

Turbo codes ζ(n = 72, k = 20, R = k/(3k + 12)) et dictionnaire de codes BCH ζ(n = 31, k = 11). . . 109 IV.10 Moyenne du nombre d’erreurs apr` es d´ ecodage vs nombre d’erreurs avant

d´ ecodage : ` a gauche d´ ecodage par l’algorithme du matching pursuit modifi´ e pour la quantification utilisant des dictionnaires de codes BCH,

`

a droite d´ ecodage correcteur d’erreur par les codes BCH de capacit´ e de correction t =2,3,5,7. . . 110 IV.11 Moyenne du nombre d’erreurs apr` es d´ ecodage par poids de bit : ` a gauche

d´ ecodage du matching pursuit vs d´ ecodage correcteur d’erreur, ` a droite

d´ ecodage du matching pursuit utilisant plusieurs codes BCH de dimension

k =6,11,16. . . 110

(10)

IV.12 Probabilit´ e d’erreur apr` es d´ ecodage par poids de bit : simulations effec- tu´ ees sur un signal de distribution uniforme et pour un SNR=10 dB, i indice de poids de bit. . . . 112 IV.13 Capacit´ es de correction n´ ecessaire pour corriger les erreurs introduites

par un bruit blanc gaussien sur une trame de longueur n=31 d’un signal de distribution uniforme. . . 113 IV.14 R´ esidu du codage du Matching pursuit et du codage classique : diction-

naire de codes BCH et Codeurs BCH, simulations effectu´ ees pour un rapport signal ` a bruit de 20 dB . . . 114 IV.15 R´ esidu du codage et d´ ecodage de la quantification fond´ ee sur le Matching

pursuit et du codage correcteur d’erreur : dictionnaire de codes BCH et Codeurs BCH, exp´ erience effectu´ ee sur des signaux de distribution uniforme perturb´ es par un bruit gaussien, pour un rapport signal bruit de 30 dB . . . 115 IV.16 Erreur relative du codage (` a gauche) et SNR du codage (` a droite) par

le Matching pursuit et par le codage correcteur d’erreurs. Exp´ erience ef- fectu´ ee sur des signaux de distribution uniforme perturb´ es par un bruit blanc gaussien. . . . 116 IV.17 Erreur relative du d´ ecodage (` a gauche) et SNR du d´ ecodage (` a droite)

par le Matching pursuit et par le d´ ecodage correcteur d’erreurs. Exp´ e- rience effectu´ ee sur des signaux de distribution uniforme perturb´ es par un bruit blanc gaussien. . . . 117 IV.18 Spectre de la MDCT d’un signal d’alarme de sapeurs-pompiers . . . 118 IV.19 Spectre de la MDCT du bruit de trafic . . . 118 IV.20 Probabilit´ e d’erreur par poids de bit : ` a gauche probabilit´ e d’erreurs

temporelles, ` a droite probabilit´ e d’erreurs fr´ equentielles, simulations ef- fectu´ ees sur un signal de sapeurs-pompiers. . . 120 IV.21 Probabilit´ e d’erreur apr` es d´ ecodage par poids de bit : probabilit´ e d’er-

reurs temporelles, simulations effectu´ ees sur un signal de sapeurs-pompiers et pour un SNR=10 dB, i indice de poids de bit. . . . 121 IV.22 Probabilit´ e d’erreur apr` es d´ ecodage par poids de bit : probabilit´ e d’erreurs

fr´ equentielles, simulations effectu´ ees sur un signal de sapeurs-pompiers et pour un SNR=10 dB, i indice de poids de bit. . . 122 IV.23 Capacit´ es de correction n´ ecessaire pour corriger les erreurs du bruit in-

troduites sur une trame de longueur n=31 du signal de sapeurs-pompiers. 123

(11)

IV.24 R´ esidu du d´ ecodage du Matching pursuit et du codage classique : dic- tionnaire de codes BCH, exp´ erience effectu´ ee sur un signal d’ambulance, pour un rapport signal ` a bruit de 30 dB. . . . 123 IV.25 SNR et erreur relative de quantification utilisant le codage de l’algorithme

du Matching pursuit modifi´ e et du codage classique : dictionnaire de codes BCH, exp´ erience effectu´ ee sur un signal d’ambulance. . . 124 IV.26 SNR et erreur relative du d´ ecodage par le Matching pursuit et du d´ e-

codage par le d´ ecodage correcteur d’erreur : dictionnaire de codes BCH.

exp´ erience effectu´ ee sur un signal d’ambulance. . . 124 IV.27 SNR global et erreur relative globale du d´ ecodage par le Matching pursuit

et du d´ ecodage par le d´ ecodage correcteur d’erreur : dictionnaire de codes BCH. exp´ erience effectu´ ee sur un signal d’ambulance. . . 125 V.1 Chaˆıne de transmission : cas des signaux quantifi´ es avant transmission

(domaine temporel). . . . 129 V.2 Chaˆıne de transmission : cas des signaux transmis sans quantification

(domaine temporel). . . . 129 V.3 Chaˆıne de transmission : cas des signaux quantifi´ es avant transmission (

domaine fr´ equentiel). . . 132 V.4 Chaˆıne de transmission : cas des signaux transmis sans quantification

(domaine fr´ equentiel). . . 132 V.5 Courbes COR param´ etr´ ees par , pour plusieurs valeurs de η, pour un

SNR=-1 dB, signal quantifi´ e avant transmission, domaine temporel. . . . 140 V.6 Courbes COR param´ etr´ ees par , pour plusieurs valeurs de η, pour un

SNR=5 dB, signal quantifi´ e avant transmission, domaine temporel. . . 141 V.7 Courbes COR param´ etr´ ees par , η = 2,pour plusieurs SNR, signal quan-

tifi´ e avant transmission, domaine temporel. . . . 141 V.8 Courbes COR param´ etr´ ees par , η = 4,pour plusieurs SNR, signal quan-

tifi´ e avant transmission, domaine temporel. . . . 142 V.9 Courbes COR param´ etr´ ees par , pour plusieurs valeurs de η, pour un

SNR=-1 dB, signal quantifi´ e avant transmission, domaine fr´ equentiel. . . 143 V.10 Courbes COR param´ etr´ ees par , pour plusieurs valeurs de η, pour un

SNR=5 dB, signal quantifi´ e avant transmission, domaine fr´ equentiel. . . . 143 V.11 Courbes COR param´ etr´ ees par , η = 2,pour plusieurs SNR, signal quan-

tifi´ e avant transmission, domaine fr´ equentiel. . . . 144 V.12 Courbes COR param´ etr´ ees par , η = 4, pour plusieurs SNR, signal quan-

tifi´ e avant transmission, domaine fr´ equentiel. . . . 144

(12)

V.13 Courbes COR param´ etr´ ees par , pour plusieurs valeurs de η, pour un SNR=5 dB, signal non quantifi´ e avant transmission, domaine temporel. . 145 V.14 Courbes COR param´ etr´ ees par , pour plusieurs valeurs de η, pour un

SNR=10 dB, signal non quantifi´ e avant transmission, domaine temporel. 145 V.15 Courbes COR param´ etr´ ees par , η = 2, pour plusieurs SNR, signal non

quantifi´ e avant transmission, domaine temporel. . . 146 V.16 Courbes COR param´ etr´ ees par , η = 4, pour plusieurs SNR, signal non

quantifi´ e avant transmission, domaine temporel. . . 146 V.17 Courbes COR param´ etr´ ees par , pour plusieurs valeurs de η, pour un

SNR=5 dB, signal non quantifi´ e avant transmission, domaine fr´ equentiel. 148 V.18 Courbes COR param´ etr´ ees par , pour plusieurs valeurs de η, pour un

SNR=10 dB, signal non quantifi´ e avant transmission, domaine fr´ equentiel. 148 V.19 Courbes COR param´ etr´ ees par , η = 2, pour plusieurs valeurs du SNR,

signal non quantifi´ e avant transmission, domaine fr´ equentiel. . . 149 V.20 Courbes COR param´ etr´ ees par , η = 4, pour plusieurs valeurs du SNR,

signal non quantifi´ e avant transmission, domaine fr´ equentiel. . . 149 V.21 Courbes COR param´ etr´ ees par pour les algorithmes propos´ es et par s d

pour la corr´ elation, pour un SNR=−1 dB, η = 2, signal quantifi´ e avant transmission, domaine fr´ equentiel. . . 151 V.22 Courbes COR param´ etr´ ees par pour les algorithmes propos´ es et par s d

pour la corr´ elation, pour un SNR=−1 dB, η = 4, signal quantifi´ e avant transmission, domaine fr´ equentiel. . . 151 V.23 Courbes COR param´ etr´ ees par pour les algorithmes propos´ es et par s d

pour la corr´ elation, pour un SNR=5 dB, η = 2, signal quantifi´ e avant transmission, domaine temporel. . . 152 V.24 Courbes COR param´ etr´ ees par pour les algorithmes propos´ es et par s d

pour la corr´ elation, pour un SNR=5 dB, η = 4, signal quantifi´ e avant transmission, domaine temporel. . . 152 V.25 Courbes COR param´ etr´ ees par , signal d’alarme de sapeurs-pompiers

non quantifi´ e. . . 154 V.26 Courbes COR param´ etr´ ees par , signal d’alarme de sapeurs-pompiers

quantifi´ e avant et apr` es transmission (chaˆıne V.1). . . 155 V.27 Courbes COR param´ etr´ ees par , signal d’alarme de sapeurs-pompiers

quantifi´ e apr` es transmission (chaˆıne V.2). . . 156 V.28 Courbes COR param´ etr´ ees par , signal d’alarme de sapeurs-pompiers,

µ=3. . . 156

(13)

Représentation de signaux robuste aux bruits - Application à la détection et l'identification des signaux d'alarme

Ces travaux ont pour application la détection l'identification des signaux audio et particulièrement les signaux d'alarmes de voitures prioritaires. Dans un premier temps, nous proposons une méthode de détection des signaux d'alarme dans un environnement bruité, fondée sur des techniques d'analyse temps-fréquence des signaux. Cette méthode permet de détecter et d'identifier des signaux d'alarmes noyés dans du bruit, y compris pour des rapports signal à bruit négatifs. Puis nous proposons une quantification des signaux robuste aux bruits de transmission. Il s'agit de remplacer chaque niveau de bit d'un vecteur d'échantillons temporels ou fréquentiels par un mot binaire de même longueur fourni par un codeur correcteur d'erreur. Dans une première approche, chaque niveau de bits est quantifié indépendamment des autres selon le critère de minimisation de la distance de Hamming. Dans une seconde approche, pour réduire l'erreur de quantification à robustesse égale, les différents niveaux de bits sont quantifiés successivement selon un algorithme de type matching pursuit. Cette quantification donne aux signaux une forme spécifique permettant par la suite de les reconnaitre facilement parmi d'autres signaux. Nous proposons donc enfin deux méthodes de détection et d'identification des signaux fondées sur la quantification robuste, opérant dans le domaine temporel ou dans le domaine fréquentiel, par minimisation de la distance entre les signaux reçus restreints à leurs bits de poids fort et les signaux de référence. Ces méthodes permettent de détecter et d'identifier les signaux dans des environnements à rapport signal à bruit très faible et ceci grâce à la quantification. Par ailleurs, la première méthode, fondée sur la signature temps-fréquence, s'avère plus performante avec les signaux quantifiés .

Mots-clés : signaux audio, alarmes, détection, identification, quantification robuste, analyse temps-fréquence, quantification vectorielle, codage de canal, matching pursuit.

Signals representation robust to noise - Application to the detection and identification of alarm signals This work targets the detection and identification of audio signals and in particular alarm signals from priority cars.

First, we propose a method for detecting alarm signals in a noisy environment, based on time-frequency signal analysis. This method makes it possible to detect and identify alarm signals embedded in noise, even with negative signal-to-noise ratios. Then we propose a signal quantization robust against transmission noise. This involves replacing each bit level of a vector of time or frequency samples with a binary word of the same length provided by an error- correcting encoder. In a first approach, each bit level is quantized independently of the others according to the Hamming distance minimization criterion. In a second approach, to reduce the quantization error at equal robustness, the different bit levels are quantized successively by a matching pursuit algorithm. This quantization gives the signals a specific shape that allows them to be easily recognized among other signals. Finally, we propose two methods for detecting and identifying signals based on robust quantization, operating in the time domain or in the frequency domain, by minimizing the distance between the received signals restricted to their high-weight bits and the reference signals. These methods make it possible to detect and identify signals in environments with very low signal-to-noise ratios, thanks to quantization. In addition, the first method, based on the time-frequency signature, is more efficient with quantized signals.

Key-word : audio signals, alarm, detection, identification, robust quantization, time-frequency analysis, vectorial quantization, channel coding, matching pursuit.

Discipline : AUTOMATIQUE, SIGNAL, PRODUCTIQUE, ROBOTIQUE Spécialité : Traitement du Signal

Université de Reims Champagne-Ardenne CRESTIC - EA 3804

Moulin de la Housse, 51897 Reims

(14)
(15)

Introduction

Ce travail s’inscrit dans le projet ICityForAll. L’objectif du projet est de d´ evelopper des m´ ethodes de traitement du signal pour des syst` emes embarqu´ es destin´ es ` a rendre la cit´ e plus accessible aux personnes souffrant de la presby-acousie, notamment les personnes ˆ

ag´ ees.

Dans les zones urbaines, les personnes atteintes de d´ eficience auditive ont, en effet, beaucoup de mal ` a reconnaˆıtre rapidement et surtout ` a localiser dans l’espace les signaux d’alarme tels que sir` enes de police, d’ambulance, de voiture de pompiers. Ces difficult´ es affectent leur ind´ ependance et repr´ esentent une menace pour leur s´ ecurit´ e et pour la s´ ecu- rit´ e routi` ere, plus g´ en´ eralement. Il s’agit d’´ etudier et de proposer des m´ ethodes robustes et conjointes de d´ etection et d’identification de signaux audio environnementaux, plus pr´ ecis´ ement les signaux d’alarmes des voitures prioritaires.

L’objectif est de proposer des techniques qui d´ etectent et identifient ces signaux parmi d’autres signaux environnementaux, bruit de trafic, klaxons, musique, parole etc.... Ces signaux sont p´ eriodiques contrairement aux signaux environnementaux et disposent d’une forme sp´ ecifique qui les diff´ erencie des autres signaux. Ainsi dans un premier temps on s’est inspir´ e de la forme de ces signaux afin de proposer une m´ ethode de d´ etection de ces signaux.

L’environnement de transmission de ces signaux est en g´ en´ eral trop bruit´ e (rues).

Contrairement aux signaux transmis via les canaux de transmissions habituels, ces si-

(16)

gnaux ne sont pas prot´ eg´ es contre le bruit de transmission. Le niveau ´ elev´ e du bruit d´ eforme le signal et rend la forme de ces signaux indiscernable du bruit.

Nous nous sommes inspir´ es de la quantification [27], [3], [33], [41] et du codage cor- recteur d’erreurs [50] afin de donner ` a ces signaux une nouvelle forme sp´ ecifique robuste aux bruits de transmission et facile ` a identifier. Apr` es une pr´ esentation des techniques utilis´ ees et de l’´ etat de l’art dans le chapitre I, nous proposons dans le chapitre II des m´ ethodes de d´ etection d’alarme de v´ ehicules de secours (voitures prioritaires comme le SAMU, voiture de police, ambulance etc ...) par l’analyse du spectrogramme (analyse temps-fr´ equence).

La d´ etection et l’identification des signaux est confront´ ee ` a des niveaux du bruit am- biant tr` es ´ elev´ es de l’environnement dans lequel les signaux sont transmis. Ainsi un grand besoin de rendre ces signaux robustes au bruit s’impose.

Pour rendre les algorithmes de d´ etection efficaces, nous proposons une m´ ethode de

quantification robuste des signaux bas´ ee sur le codage correcteur d’erreur dans le chapitre

III. Une am´ elioration de cette quantification est propos´ ee dans le chapitre IV. Ainsi les

signaux quantifi´ es seront robustes au bruit ambiant, de telle sorte qu’on soit capable

d’identifier et de d´ etecter ces signaux dans des environnements de rapports signal ` a bruit

tr` es faibles. Des algorithmes de d´ etection et d’identification des signaux fond´ es sur cette

quantification sont propos´ es dans le chapitre V.

(17)

Chapitre I

Concepts g´ en´ eraux et ´ etat de l’art

Ce chapitre rassemble les travaux ant´ erieurs qui sont ` a la base des contributions propos´ ees au cours de cette th` ese.

I.1 Transform´ ees temps-fr´ equence

I.1.1 La transform´ ee de Fourier

D´ efinition I.1.1. : Soit x(t) un signal temporel. Sa transform´ ee de Fourier (TF) est une fonction complexe de la variable r´ eelle f d´ efinie par :

X(f ) = T F (x(t)) =< x(t), e −j2πf t >=

Z +∞

−∞

x(t)e −j2πf t dt.

D´ efinition I.1.2. : On appelle transform´ ee de Fourier inverse la fonction inverse de la transform´ ee de Fourier X(f) donn´ ee par :

x(t) = T F −1 (X(f )) =< X (f ), e j2πf t >=

Z +∞

−∞

X(f)e j2πf t df.

D´ efinition I.1.3. : Soit x(n) un signal discret, pour n ∈ [0, N − 1], la transform´ ee de Fourier discr` ete (TFD) de ce signal est donn´ ee par :

X(k) =

N−1

X

n=0

x(n)e −j2π

nkN

,

(18)

avec k l’indice fr´ equentiel, k ∈ [0, N − 1].

D´ efinition I.1.4. : La transform´ ee de Fourier discr` ete (TFD) inverse est donn´ ee par :

x(n) =

N −1

X

k=0

X(k)e j2π

nkN

.

I.1.2 La MDCT

D´ efinition I.1.5. : (Modified Discrete Cosine Transform) Soit x(n) une portion d’un signal discret, n = 0, 1, ..., N − 1, la MDCT est une transform´ ee temps-fr´ equence[42], [43], initialement con¸cue pour la suppression du ph´ enom` ene de repliement caus´ e par l’interpo- lation. La MDCT du signal x est donn´ ee par :

X(k) = 2

√ N

N−1

X

n=0

x(n)w(n) cos 2π

N (n + N 4 + 1

2 )(k + 1 2 )

.

0 ≤ n ≤ N −1, l’indice temporel et 0 ≤ k ≤ N 2 −1, l’indice fr´ equentiel. w(n) est une fenˆ etre sym´ etrique satisfaisant la condition de la reconstitution parfaite : w 2 (n) + w 2 (n + N 2 ) = 1.

La fenˆ etre w(n) utilis´ ee dans ce manuscrit est la fenˆ etre de Kaiser Bessel [26] donn´ ee par :

w(n) = I 0 β

r

1 − n−N/2

N/2

2 !

I 0 (β) .

Le param` etre β permet de r´ ealiser un compromis entre la largeur du lobe principal et l’amplitude des lobes secondaires. I 0 est la fonction de Bessel de premi` ere esp` ece donn´ ee par :

I 0 (x) =

X

m=0

(−1) m (x/2) 2m m!Γ(m + 1) , avec Γ(m) = (m − 1)!.

D´ efinition I.1.6. : La transform´ ee inverse de la MDCT est donn´ ee par :

x(n) = 2

√ N

N 2

−1

X

k=0

X(k) cos 2π

N (n + N 4 + 1

2 )(k + 1 2 )

.

(19)

I.2 La quantification vectorielle

L’id´ ee de la quantification vectorielle est le r´ esultat des travaux de Claude Shannon sur le codage de source et la compression [51], [50] qui avait montr´ e que les performances de la quantification peuvent s’am´ eliorer en appliquant le syst` eme de quantification sur des vecteurs au lieu des scalaires. En 1956, Stuart P.Lloyd a propos´ e une optimisation de la quantification scalaire [41] qui a ´ et´ e ` a la base de l’am´ elioration de la quantification vec- torielle et du d´ eveloppement de certains algorithmes de quantification vectorielle comme celui de LBG (Linde, Buzo et Gray) [27] propos´ e en 1980 par Joseph Linde, Andr´ e Buzo et Robrt Gray.

La quantification vectorielle est une extension de la quantification scalaire aux espaces multidimensionnels qui est un op´ erateur sur les vecteurs au lieu des scalaires. La quanti- fication scalaire initialement prend en entr´ ee un signal analogique discretis´ e, alors que la quantification vectorielle prend en g´ en´ eral comme entr´ ee des signaux qui sont d´ ej` a nu- m´ eriques, la sortie ´ etant une version compress´ ee du signal original.

La quantification vectorielle peut ˆ etre consid´ er´ ee comme une forme de reconnaissance de motif, o` u un motif d’entr´ ee sera approch´ e par un motif appartenant ` a un ensemble pr´ ed´ efini.

La quantification vectorielle de dimension k et de longueur N est une projection d’un vecteur appartenant ` a un espace euclidien de dimension k dans un ensemble D de cardinal N appel´ e dictionnaire de mots de code :

Q : R k −→ D ⊂ R k

D est donn´ e par D = { y 1 ; y 2 ; ... ; y i ; ... ; y N }, N = card D . La r´ esolution est donn´ ee

par r = (log 2 N )/k. La quantification est associ´ ee ` a une partition de R k en N cellules R i ,

i ∈ I={1 ; 2 ; 3 ;... ; N }, chaque R i est associ´ e ` a un ´ el´ ement y i de D :

(20)

R i = {x ∈ R k : Q(x) = y i } = Q −1 (y i ), (I.1) Cette partition et les repr´ esentants y i des classes R i sont construits de telle sorte que l’erreur quadratique moyenne de quantification, || x − Q(x) || 2 , soit minimale.

Dans cette th` ese nous nous sommes inspir´ es de l’id´ ee de quantification afin de pro- poser une quantification correctrice d’erreur utilisant des dictionnaires de mots de codes (g´ en´ er´ es par des codeurs correcteur d’erreur), qui servira dans la suite ` a la d´ etection et l’identification des signaux.

I.3 Le Matching Pursuit

Le Matching Pursuit [17], [12] est un algorithme it´ eratif qui permet de r´ ealiser une d´ ecomposition parcimonieuse d’un signal ` a l’aide d’un dictionnaire D. Le signal est ´ ecrit comme une combinaison lin´ eaire d’atomes g γ

n

(t) appartenant ` a un sous-ensemble de D.

x(t) =

+∞

X

n=0

a n (g γ

n

(t)).

Les coefficients a n d´ ependent des atomes g γ

n

(t) choisis. Ces coefficients portent des informations sur la structure du signal x(t). Ce sont ces coefficients que l’algorithme doit d´ eterminer en plus des indices γ n des atomes g γ

n

(t), γ n ∈ Γ, o` u Γ d´ esigne l’ensemble des indices des atomes constituant le dictionnaire D.

A chaque it´ eration, l’algorithme doit choisir un atome (g γ ) γ∈Γ qui correspond le mieux

(au sens d’une corr´ elation maximale), ` a un facteur pr` es, au r´ esidu du signal (signal moins

la combinaison des atomes choisis aux it´ erations pr´ ec´ edentes), o` u le r´ esidu ` a la premi` ere

it´ eration correspond au signal lui-mˆ eme. Ce facteur d´ efinit le coefficient associ´ e ` a l’atome

choisi.

(21)

Le Matching Pursuit initialement propos´ e par Mallat et Zhang [17] utilise le produit scalaire comme corr´ elation. R n , le r´ esidu du signal x ` a la n-i` eme it´ eration, est donn´ e par :

R n = x −

n−1

X

i=0

a i (g γ

n

(t)),

avec R 0 = x. Le coefficient a n est donn´ e par :

a n =< R n , g γ

n

>

tel que

| < R n , g γ

n

> | = Sup| < R n , g γ > | γ∈Γ .

On obtient alors le r´ esidu d’ordre n + 1 :

R n+1 = R n − a n g γ

n

.

Apr` es m it´ erations le signal x s’´ ecrit sous la forme suivante :

x =

m

X

n=0

< R n , g γ

n

> g γ

n

+ R m+1 =

m

X

n=0

a n g γ

n

+ R m+1 .

Dans la plupart des cas l’algorithme s’arrˆ ete ` a l’it´ eration M , telle que la norme du r´ esidu ||R M +1 || 2 2 soit inf´ erieure ` a une certaine erreur d´ esir´ ee. Le nombre d’it´ erations n´ ecessaire pour atteindre cette erreur d´ epend du taux de d´ ecroissance de la norme du r´ esidu. Ainsi le signal x est approch´ e par :

x ≈

M

X

n=0

a n g γ

n

.

(22)

I.4 Le codage correcteur d’erreurs

Le codage correcteur d’erreurs est une branche des math´ ematiques li´ ee la th´ eorie de l’information d´ ecouverte par Claude Shannon en 1948 dans son papier [50]. Shannon a montr´ e que chaque canal de communication poss` ede une capacit´ e c, mesur´ e en bits par seconde, et que tant que le taux de transmission R est inf´ erieur ` a c, il est possible de concevoir un syst` eme de communication sans erreurs utilisant le codage correcteur d’er- reurs.

La contribution de Shannon ´ etait de prouver l’existence de ces codes, mais il n’a pas dit comment trouver ces codes.

Apr` es la publication de [50], les chercheurs se sont lanc´ es dans la recherche de ces codes produisant une faible probabilit´ e d’erreurs que Shannon a pr´ edit. Le progr` es dans la recherche de ces codes n’a pas abouti ` a des r´ esultats importants dans les ann´ ees 50 o` u uniquement des codes de faible capacit´ e de correction ont ´ et´ e trouv´ es.

Dans les ann´ ees 60 le domaine a ´ et´ e divis´ e en deux parties entre les alg´ ebristes qui se sont focalis´ es sur la classe des codes appel´ ee codes en blocs et les probabilistes qui se sont concentr´ es sur la compr´ ehension du codage et du d´ ecodage comme processus al´ eatoire.

Parmi les codes en blocs, on peut citer les codes cycliques [38], les codes BCH [6], les codes Reed-solomon [55].

Les probabilistes ont d´ ecouvert la seconde classe des codes appel´ ee les codes convo- lutifs, initialement d´ ecouverte par P.Elias, mais le premier ` a formuler ces codes est Ha- gelbarger [18], ensuite Peterson a pr´ esent´ e une version raffin´ ee de ces codes dans [37].

Fourney a donn´ e une structure alg´ ebrique de ces codes dans son papier [15]. Ainsi les probabilistes ont d´ evelopp´ e des algorithmes de d´ ecodage probabiliste efficaces.

Dans les ann´ ees 70 les chercheurs des deux domaines probabilistes et alg´ ebristes se

(23)

sont r´ eunis et ont fourni plusieurs algorithmes efficaces de d´ ecodage. En 1993 Claude Berrou, Alain Glavieux et Punya Thitimajshima ont invent´ e les turbo codes ` a partir des codes convolutifs [2], ces codeurs approchent la limite de Shannon. Cette d´ ecouverte a ouvert de nombreuses pistes de recherche dans le domaine du codage correcteur d’erreur.

Et par cons´ equent la d´ ecouverte des codes LDPC (Low density Parity-check), initialement d´ ecouverts par Gallager en 1962 [16], mais qui n’ont pas ´ et´ e utilis´ es jusqu’a 1996 ; motiv´ es par l’apparition des turbo codes, Mackay et al [31] red´ ecouvrent les codes de Gallager.

I.4.1 Les codes BCH

Les codes BCH[6], [23] sont des codes de la classe des codes cycliques, l’appellation BCH provient des noms initiales de leurs inventeurs Bose, Chaudhuri et Hocquenghem.

Soit n = q m − 1 un entier premier avec q et β une racine primitive n ieme de l’unit´ e, β ∈ F q

m

. β est d’ordre n (β n = 1), les ´ el´ ements β, β 2 , ...,β n−1 sont distincts et forment l’ensemble des racines de X n − 1 dans F q

m

, X n − 1 = Q n−1

i=0 (X − β i ).

X n − 1 peut ˆ etre factoris´ e en produit de polynˆ omes irr´ eductibles dans F q [X]. Soit Σ j une partie de {0,1, ..., n − 1 } stable par multiplication par 2 modulo n d´ efinie par Σ j ={j , qj, q 2 j , ..., q r−1 j }, tel que j = 2 r j mod n. Σ j est appel´ ee classe cyclotomique engendr´ ee par j.

A chaque classe cyclotomique est associ´ e un polynˆ ome irr´ eductible dans F q [X]. Ce polynˆ ome est le polynˆ ome minimal de β j donn´ e par :

P β

j

(X) = Y

i∈Σ

j

(X − β i ).

Ainsi, X n − 1 peut ˆ etre factoris´ e en produit de polynˆ omes irr´ eductibles dans F q [X] :

X n − 1 =

n−1

Y

i=0

(X − β i ) = Y

j∈J

P β

j

(X),

(24)

o` u J d´ esigne l’ensemble des indices des classes cyclotomiques.

Soit P β

k

(X) le polynˆ ome minimal de β k , 1 k ≤ n − 1. En application du th´ eor` eme I.4.1 ci-apr` es, Bose, Chaudhuri et Hocquenghem ont propos´ e d’utiliser comme polynˆ ome g´ en´ erateur d’un code, le polynˆ ome g(X) donn´ e par :

g(X) = ppcm(P β

k

(X), P β

k+1

(X), ..., P β

k+s+1

(X)).

Th´ eor` eme I.4.1. Soit C un code cyclique de longueur n et de polynˆ ome g´ en´ erateur g ∈ F q [X] avec n et q premiers entre eux (pgcd(n, q) = 1) et soit β une racine n ieme primitive de l’unit´ e. S’il existe deux entiers l et s tels que g(β l ) = g(β l+1 ) = ... = g(β l+s ) = 0, alors la distance minimale δ(C) de C v´ erifie δ(C) ≥ s + 1. La capacit´ e de correction de ce codeur est t = b δ(C)−1 2 c, le code C est donc au moins bs/2c correcteur (b.c d´ esigne la partie enti` ere).

D´ efinition I.4.1. (Code BCH) Un code BCH de distance construite d 0 = s + 1, est un code cyclique de polynˆ ome g´ en´ erateur le produit des polynˆ omes minimaux des racines β l , β l+1 ,..., β l+s ; le polynˆ ome g(X) de degr´ e n − k + 1 = s + 1, k la dimension du code et n sa longueur. La distance minimale δ du code est sup´ erieure ou ´ egale ` a d 0 , δ ≥ d 0 .

I.4.1.1 D´ ecodage des codes BCH

Les codes BCH disposent de plusieurs algorithmes de d´ ecodage dont on peut citer : l’algorithme de Berlekamp-Massey [23], [32], [5], l’algorithme du d´ ecodage euclidien de Sugiyama et l’algorithme du d´ ecodage de Peterson, Gorenstein et Zierler [39]. Tous ces algorithmes sont fond´ es sur l’id´ ee du polynˆ ome localisateur d’erreurs dont les racines permettent de localiser les erreurs. Dans cette partie nous pr´ esentons l’algorithme de d´ e- codage de Peterson, Gorenstein et Zierler.

Supposons que y soit le vecteur binaire re¸cu et Q(X) le polynˆ ome associ´ e ` a ce vecteur, alors Q(X) peux s’´ ecrire :

Q(X) = q(X)g(X) + e(X), (I.2)

(25)

avec g(X) le polynˆ ome g´ en´ erateur du code BCH, q(X) un polynˆ ome de degr´ e k − 1, (k la dimension du code) et e(X) le reste de la division euclidienne de Q(X) par g(X) de degr´ e inf´ erieur au degr´ e de g (X). Notons α i , i = 1...s (s = 2t, t la capacit´ e de correction) les racines de g(X), α = β l , alors les syndromes sont donn´ es par :

S 1 = Q(α) S 2 = Q(α 2 )

. .

S i = Q(α i ) = e(α i ) .

.

S 2t = Q(α 2t ) = e(α 2t )

Posons S la matrice form´ ee par les syndromes donn´ ee par :

S =

S 1 ... S t S 2 ... S t+1

. . .

. . .

S t ... S 2t−1

Alors le polynˆ ome localisateur d’erreur est donn´ e par :

L(X) = ς ν X ν + ... + ς 1 X + 1, (I.3) avec ν le rang de la matrice S et ς ν , ς ν−1 , ..., ς 1 les solutions du syst` eme d’´ equation :

S =

S 1 ... S ν S 2 ... S ν+1

. . .

. . .

S t ... S 2ν−1

×

 ς ν ς ν−1

. . ς 1

=

 S t+1 S t+2

. . S 2t

Soit α −i

1

, ..., α −i

ν

les racines du polynˆ ome localisateur d’erreur L(X) donn´ e par l’´ equa-

tion (I.3), alors les erreurs sont localis´ ees aux positions −i 1 , ..., −i ν . Pour corriger ces er-

reurs chaque bit est remplac´ e par son oppos´ e (les bits 0 sont remplac´ es par 1 et vice-versa).

(26)

I.4.2 Les Turbo codes

En 1993 Claude Berrou, Alain Glavieux et Punya Thitimajshima ont invent´ e les turbo codes [2]. Les turbo codes correspondent ` a une concat´ enation en parall` ele de deux codeurs convolutifs [18], [37], [15], en g´ en´ eral pris identiques. Toutefois le d´ ecodage des turbo codes utilise une concat´ enation des d´ ecodeurs en s´ erie. Le d´ ecodage en s´ erie est utilis´ e parce qu’il est plus performant que le d´ ecodage utilisant des d´ ecodeurs concat´ en´ es en parall` ele. En effet le d´ ecodage en s´ erie a la particularit´ e de partager l’information entre les d´ ecodages ce qui am´ eliore les performances du syst` eme contrairement au d´ ecodage en parall` ele o` u chaque d´ ecodeur fait son d´ ecodage ind´ ependamment de l’autre. Le codeur est sch´ ematis´ e par la figure I.1.

Les turbo codes sont constitu´ es de deux codes convolutifs C 1 et C 2 de type sp´ ecifique ; codes convolutifs r´ ecursifs et syst´ ematiques, RSC[54]. En plus de ces codeurs, une permu- tation π est mise ` a l’entr´ ee du codeur C 2 . Un multiplexeur et un troncateur sont plac´ es

`

a la sortie des codeurs permettant ainsi de combiner (et en tronquant s’il s’agit d’un code tronqu´ e) les sorties des deux codeurs pour obtenir le rendement souhait´ e.

Plusieurs param` etres jouent un rˆ ole important sur la performance des turbo codes comme : le nombre d’it´ erations du d´ ecodage, les polynˆ omes g´ en´ erateurs des codes convo- lutifs et le nombre d’´ etats du registre.

La r´ ecursivit´ e des codes convolutifs augmente le poids de Hamming des mots de codes

par rapport aux codes non r´ ecursifs. Un codeur de poids de Hamming faible produit un

faible pouvoir de correction. Si l’un des codeurs a une sortie de faible poids de Hamming,

la permutation de la s´ equence binaire ` a l’entr´ ee du codeur C 2 produit ` a la sortie de ce

codeur un mot de code de poids de Hamming ´ elev´ e pour garantir une am´ elioration du pou-

voir de correction. Les permutations pseudo-al´ eatoires ont ´ et´ e vues comme les meilleures

permutations. Ces permutations assurent des performances sup´ erieures ` a celles assur´ ees

par les autres types de permutations (permutation en blocs, permutation diagonale etc...).

(27)

Permutation π

Code RS Convolutif C 2

Multiplexeur et troncateur X

X Y (1)

Y (2)

Y Code RS Convolutif C 1

Figure I.1 – Turbo Codes : codeur

Les performances des turbo codes sont d’autant meilleurs que le rapport signal ` a bruit est faible.

I.4.2.1 D´ ecodage des Turbo codes

Le d´ ecodage des turbo codes utilise les algorithmes comme l’algorithme du MAP (maximum a posteriori), l’algorithme du Log MAP ou l’algorithme du Max-Log-MAP.

Le d´ ecodage des turbo codes utilise un d´ ecodage it´ eratif et une information logique cor- respondante aux valeurs a priori et a posteriori des bits d’information et des bits de redondances. Le d´ ecodage s’arrˆ ete apr` es un certain nombre d’it´ erations ` a partir du mo- ment o` u le d´ ecodage converge. L’ensemble des op´ erations effectu´ ees par le d´ ecodage des turbo codes sont repr´ esent´ ees dans la figure I.2.

Soit X = (x 1 x 2 ...x k ) la s´ equence des bits d’information ` a l’entr´ ee du codeur,

soit Y (1) = (y 1 (1) y 2 (1) ...y k (1) ) la s´ equence de sortie du codeur C 1 et soit Y (2) = (y 1 (2) y 2 (2) ...y k (2) ) la sortie du codeur C 2 .

Pour un turbo code de rendement R = 1/3, le mot de code ` a la sortie du codeur est de

la forme Y = (x 1 y 1 (1) y 1 (2) , x 2 y (1) 2 y (2) 2 , ..., x k y k (1) y k (2) ). Soit r = (r 1 (0) r (1) 1 r (2) 1 , r 2 (0) r (1) 2 r (2) 2 , ..., r (0) k r k (1) r (2) k ),

(28)

la s´ equence re¸cue par le d´ ecodeur apr` es transmission, alors cette s´ equence est divis´ ee en trois s´ equences r (0) = (r (0) 1 r 2 (0) ...r k (0) ), r (1) = (r (1) 1 r 2 (1) ...r k (1) ) et r (2) = (r (2) 1 r 2 (2) ...r k (2) ) corres- pondant respectivement aux bits d’information erron´ es, aux bits erron´ es de redondances de la sortie du codeur C 1 et aux bits erron´ es de redondances de la sortie du codeur C 2 . Les s´ equences r (0) et r (1) sont donn´ ees au d´ ecodeur D 1 et les s´ equences r (0) et r (1) sont donn´ ees au d´ ecodeur D 2 .

L 2

D´ ecodeur D 2 π

π −1

π −1 r (0)

r (0) r (1)

r (2) L 1 L 1

L 2

X ˆ D´ ecodeur D 1

Figure I.2 – Turbo Codes : d´ ecodeur

A la premi` ere it´ eration, le d´ ecodeur D 1 re¸coit les s´ equences r (0) et r (1) et une pro- babilit´ e a priori de bits d’information (en g´ en´ eral ´ egale ` a 0 ` a la premi` ere it´ eration, ceci provient du fait que les bits ` a la sortie du canal de transmission sont consid´ er´ es

´

equiprobables). Ainsi le d´ ecodeur produit des probabilit´ es a posteriori des bits d’informa- tion sachant la s´ equence r 1 = (r (0) r (1) ), ensuite il calcule des probabilit´ es extrins` eques L 1 (L 1 est une s´ equence de probabilit´ es extrins` eque dont chacune correspond ` a celle d’un bit d’information) qui seront transmises au d´ ecodeur D 2 apr` es permutation et qui seront utilis´ ees comme probabilit´ es a priori des bits d’information ` a l’entr´ ee du d´ ecodeur D 2 . De mˆ eme le d´ ecodeur D 2 re¸coit la s´ equence r 2 = (r (0) r (2) ) puis calcule des probabilit´ es extrins` eques L 2 (L 2 est une s´ equence de probabilit´ es extrins` eque dont chacune correspond

`

a celle d’un bit d’information) ` a partir des probabilit´ es a posteriori des bits d’informa-

tion sachant la s´ equence r 2 et les probabilit´ es a priori des bits d’information L 1 . Apr` es

inversion de la permutation, ces probabilit´ es sont fournies au d´ ecodeur D 1 comme proba-

bilit´ es a priori des bits d’information. La s´ equence ˆ X ` a la sortie du d´ ecodeur correspond

(29)

`

a une estimation de la s´ equence d’information X, si le d´ ecodage converge la s´ equence X ˆ sera ´ egale ` a la s´ equence X. Pour plus de d´ etails sur le d´ ecodage des turbo code voir [2].

I.5 Detection et identification

La majorit´ e des travaux r´ ealis´ es sur la d´ etection et l’identification des signaux s’est servie des classifieurs statistiques comme le mod` ele de Markov cach´ e (Hidden Markov Mo- del) [13], le mod` ele de m´ elange de gaussiennes (Gaussian Mixture Model) [47]. D’autres m´ ethodes pour la d´ etection et la reconnaissance des signaux utilisent les r´ eseaux artifi- ciels de neurones (Artificial Neural Network) et la pr´ ediction lin´ eaire. D’autres ont utilis´ e l’autocorrection et la d´ etection de pitch pour la d´ etection des signaux ou la d´ etection de p´ eriodicit´ e des signaux p´ eriodiques comme les signaux d’alarmes.

I.5.1 Classifieurs Probabilistiques

La majorit´ e des classifieurs probabilistiques calculent la probabilit´ e conditionnelle P(C i | x) pour d´ eterminer la classe la plus probable sachant l’observation x, 1 ≤ i ≤ N , avec N le nombre de classes C i .

P(C i | x) = P(x | C i )P(C i )

P(x) (I.4)

L’estimation de P(C i ) est en g´ en´ eral facile (en g´ en´ eral est connue) ` a l’encontre de l’estimation de P(x | C i ).

Le classifieur ainsi d´ ecide la classe v´ erifiant : C ˆ = arg max

1≤i≤N

P(C i | x)

= arg max

1≤i≤N

P(x | C i )P(C i ) P(x)

= arg max

1≤i≤N

P(x | C i )P(C i ).

(I.5)

(30)

Un mod` ele de classifieur est compos´ e principalement de deux ´ etapes :

— L’extraction des attributs les plus signifiants des donn´ ees de telle sorte que les classes des donn´ ees peuvent ˆ etre identifi´ ees.

— Un classifieur dont le rˆ ole est de d´ esigner une classe ` a chaque donn´ ee repr´ esent´ ee par ses attributs.

I.5.1.1 Mod` ele de m´ elange de gaussiennes pour la classification

Le mod` ele de m´ elange de gaussiennes (GMM : Gaussian Mixture Model) [48], [47] est une densit´ e de probabilit´ e param´ etrique repr´ esent´ ee comme somme de gaussiennes donn´ ee par l’´ equation suivante :

p(x | λ) =

K

X

i=1

w i p(x | µ i , Σ i ) (I.6)

o` u x est un vecteur de dimension d, w i est le poids du m´ elange, v´ erifiant P K

i=1 w i = 1 et p(x | µ i , Σ i ) la densit´ e de probabilit´ e de loi normale multidimensionnelle. Ce mod` ele est param` etr´ e par λ = {w i , µ i , Σ i }, l’ensemble des poids w i , des moyennes µ i et des matrices de covariance Σ i des diff´ erentes gaussiennes, 1 ≤ i ≤ K.

Les param` etres {w i , µ i , Σ i } du mod` ele sont estim´ es ` a partir de l’apprentissage des don- n´ ees utilisant l’algorithme it´ eratif de maximisation de l’esp´ erance [11] (EM : Expectation- Maximization algorithm) et du maximum de vraisemblance (Maximum likelihood).

Pour la classification chaque classe C j est repr´ esent´ ee par un mod` ele de m´ elange de gaussiennes (GMM) de param` etre λ j , 1 ≤ j ≤ N , N le nombre de classes. Pour l’appren- tissage du mod` ele de chaque classe C j , le param` etre λ j de chaque mod` ele est d´ etermin´ e

`

a partir des donn´ ees de la classe correspondante ` a ce mod` ele.

Pour l’extraction de l’information (sur la classe des donn´ ees observ´ ees), le mod` ele de

m´ elange de gaussiennes fait les hypoth` eses suivantes :

(31)

— Les donn´ ees proviennent d’un nombre N de classes connues.

— La probabilit´ e P(C j ) est connue.

— Les param` etres λ j = [w ij , µ ij , Σ ij ] de chaque classe sont connus.

Consid´ erons le vecteur X = [x 1 , x 2 , ..., x m ] de m observations de d attributs. En sup- posant que les observations sont ind´ ependantes et identiquement distribu´ ees, alors la pro- babilit´ e que l’ensemble d’observation X soit produit par la classe C j est donn´ ee par :

P(X | C j ) =

m

Y

k=1

p(x k | C j ), (I.7)

o` u la probabilit´ e p(x k | C j ) est suppos´ ee un m´ elange de K multidimensionnelles gaus- siennes de la forme de l’´ equation (I.6) donn´ ee par :

p(x k | C j ) = p(x k | λ j ) =

K

X

i=1

P (x k | µ ij , Σ ij )P(µ ij , Σ ij )

=

K

X

i=1

P (x k | µ ij , Σ ij )w ij .

(I.8)

Pour des classes ´ equiprobables, P (C j ) = N 1 , 0 ≤ j ≤ N , le classifieur choisit la classe v´ erifiant l’´ equation :

C ˆ = arg max

1≤j≤N

P(X | C j )P (C j ) = arg max

1≤j≤N

P(X | C j )

= arg max

1≤j≤N m

Y

k=1

p(x k | C j )

= arg max

1≤j≤N m

X

k=1

log p(x k | C j ).

(I.9)

I.5.1.2 Mod` ele de Markov cach´ e pour la classification

Un processus de Markov est une s´ equence d’´ ev´ enements al´ eatoires S i (processus de

Markov ` a temps discret) appel´ es ´ etats qui suivent la propri´ et´ e de Markov permettant de

mod´ eliser l’´ evolution du processus dans le temps, 1 ≤ i ≤ N . Soit q n l’´ etat du processus

(32)

`

a l’instant n alors on a :

P (q n+1 = S j | q n = S i , q n−1 = S l , ..., q 0 = S k )

= P (q n+1 = S j | q n = S i )

(I.10)

Le processus subit un changement dans le temps d’un ´ etat ` a un autre, suivant une probabilit´ e appel´ ee probabilit´ e de transition. A l’instant n le passage du processus de l’´ etat q n ` a l’´ etat q n+1 d´ epend uniquement du pr´ esent. L’expression de la probabilit´ e de transition est donn´ ee par :

a ij = P (q n+1 = S i | q n = S j ) (I.11) Un mod` ele cach´ e de Markov repr´ esente un processus stochastique comme un processus de Markov dont les ´ etats ne sont pas observables directement mais qui ` a chaque ´ etat associe une probabilit´ e ` a partir des observations qui ne sont pas forc´ ement Markoviennes [45], [13], [25]. Un mod` ele cach´ e de Markov est caract´ eris´ e par :

— Le nombre N des ´ etats cach´ es du mod` ele, on note S = [S 1 , ...S N ], l’ensemble des

´

etats du processus.

— Le nombre M des diff´ erents symboles d’observations possibles, la taille de l’alphabet.

— La probabilit´ e de transition a ij donn´ ee par l’´ equation I.11 et la matrice de transition A associ´ ee donn´ ee par A = {a ij }

— La probabilit´ e que le symbole o k d’observation soit ´ emis par l’´ etat j ` a l’instant n, soit b j (k) cette probabilit´ e et B la matrice associ´ ee, B = {b j (k)}. Cette probabilit´ e est appel´ ee probabilit´ e d’´ emission et est donn´ ee par :

b j (k) = P(o k | q n = S j ) (I.12)

— La distribution π = {π i } des ´ etats initiaux est donn´ ee par :

π i = P(q 1 = S i ) (I.13)

(33)

Les ´ el´ ements A, B et π sont appel´ es les param` etres du mod` ele en g´ en´ eral combin´ es dans une variable λ = {A, B, π} pour des raisons pratiques.

Pour le probl` eme de classification fond´ ee sur le mod` ele cach´ e de Markov, un mo- d` ele de param` etre λ l est cr´ e´ e pour chaque classe C l du classifieur, 1 ≤ l ≤ L, L le nombre de classes. L’apprentissage de chacun de ces mod` eles est effectu´ e ` a partir des donn´ ees de la classe correspondante o` u les param` etres du mod` ele sont ajust´ es pour maximiser la probabilit´ e des s´ equences observ´ ees appartenant ` a cette classe sachant ces param` etres.

Pour une s´ equence d’observation O = o 1 , ..., o T et la s´ equence Q = q 1 , ..., q T d’´ etats inconnus associ´ ee ` a cette observation, le classifieur calcule la probabilit´ e P(O | λ l ) que la s´ equence d’observation O soit produite par le mod` ele de la classe C l de param` etre λ l , 1 ≤ l ≤ M . Cette probabilit´ e est donn´ ee par :

P(O | λ l ) = X

Q

P(O | Q, λ l )P(Q | λ l ), (I.14)

Le classifieur d´ ecide la classe ˆ C de mod` ele de param` etre ˆ λ ayant la plus grande probabilit´ e de produire l’observation O, ˆ λ est donn´ ee par :

ˆ λ = arg max

1≤l≤L

P(O | λ l ) (I.15)

Les auteurs des papiers [29], [1] ont propos´ e une technique de d´ etection et de re- connaissance des signaux acoustiques fond´ ee sur ces classificateurs (Mod` eles de Markov cach´ e et Gaussian Mixture Models), o` u des tests ont ´ et´ e effectu´ es sur une base de don- n´ ees contenant six classes des signaux ´ eventuellement compress´ es. Dans le contexte de [29]

(surveillance), le niveau du bruit ambiant n’est pas tr` es ´ elev´ e par rapport au bruit de trafic.

La plupart des classifieurs statistiques donnent des r´ esultats statistiquement accep-

tables. Cependant les performances de ces classifieurs se d´ egradent quand ils sont appli-

qu´ es aux cas r´ eels, o` u les signaux sont bruit´ es.

(34)

Les auteurs du papier [49] ont utilis´ e des techniques de r´ eduction du bruit fond´ ee sur l’estimation de la densit´ e spectrale du bruit et sur la suppression du bruit, propos´ ee dans [46], [14], afin d’am´ eliorer leur m´ ethode de classification des signaux fond´ ee sur le mod` ele de Markov cach´ e.

Des techniques de d´ etection et de reconnaissance des signaux impulsifs adapt´ ees aux changements environnementaux ont ´ et´ e propos´ ees dans [30]. La d´ etection de ces signaux dans ce papier est fond´ ee sur un filtre m´ edian. La reconnaissance de ces signaux est ef- fectu´ ee ` a l’aide du mod` ele de Markov cach´ e et du mod` ele de m´ elange de gaussiennes. En pr´ esence du bruit certains attributs des signaux sont masqu´ es, ainsi, pour r´ esoudre ce probl` eme, des techniques de r´ eduction du bruit fond´ ees sur la soustraction spectrale ont

´

et´ e propos´ ees pour am´ eliorer les performances des syst` emes de reconnaissance fond´ es sur les mod` eles statistiques (HMM et GMM), voir [53].

I.5.2 D´ etection de pitch

La d´ etection de pitch ou fr´ equence fondamentale a ´ et´ e particuli` erement utilis´ ee pour

´

etudier des signaux p´ eriodiques ou quasip´ eriodiques comme les signaux de musique, de la parole ou des signaux d’alarme. Il existe plusieurs m´ ethodes de d´ etection de pitch dont certaines sont effectu´ ees dans le domaine fr´ equentiel et d’autres dans le domaine temporel ou bien les deux ensemble. Un nombre minimum de p´ eriodes du signal est n´ ecessaire pour une bonne estimation du pitch. L’une des plus anciennes m´ ethodes utilis´ ees pour la d´ etection de pitch est la fonction d’autocorr´ elation donn´ ee par l’´ equation (I.16) (fonction d’autocorr´ elation pour des signaux discrets).

R xx (k) =

N+k−1

X

n=k

x(n)x(n − k) (I.16)

(35)

Le maximum de la fonction d’autocorr´ elation est obtenu quand le retard k est ´ egal ` a z´ ero.

La localisation L du prochain maximum donne une estimation de la p´ eriode T = LT s du signal, ainsi la fr´ equence fondamentale f 0 est donn´ ee par :

f 0 = 1

T , (I.17)

avec T s la p´ eriode d’´ echantillonnage.

D’autre m´ ethodes comme l’algorithme On-The-Fly [10] utilisant la fonction diff´ erence

`

a l’´ equation (I.18) ont ´ et´ e utilis´ ees pour l’estimation du pitch o` u f 0 doit ˆ etre localis´ ee au minimum global de la fonction diff´ erence. Il a ´ et´ e montr´ e que cet algorithme est plus efficace que la m´ ethode de corr´ elation.

d(k) =

N+k−1

X

n=k

(x(n) − x(n − k)) 2 (I.18)

Si τ est le retard minimisant la fonction diff´ erence d(k), alors τ T s est ´ egal ` a la p´ eriode du pitch et la fr´ equence fondamentale f 0 est donn´ ee par :

f 0 = 1

τ T s , (I.19)

Dans le papier [34] les auteurs ont propos´ e un algorithme de d´ etection des signaux p´ eriodiques en pr´ esence du bruit, plus pr´ ecis´ ement, les signaux produits par des sir` enes et alarmes de voitures prioritaires. Cet algorithme est fond´ e sur la d´ etection des pitchs.

D’autres papiers comme [28] et [7] ont utilis´ e ces techniques pour la d´ etection des si-

gnaux. Dans le papier [28] deux m´ ethodes de d´ etection des signaux d’alarmes dans quatre

types de bruit de fond ont ´ et´ e propos´ ees ; le bruit de trafic, de musique, des parcs et des

caf´ et´ erias. La premi` ere m´ ethode utilise la technique d’auto-corr´ elation des signaux et la

deuxi` eme est fond´ ee sur le changement du niveau sonore. Les r´ esultats ont montr´ e que la

combinaison de ces deux m´ ethodes peut am´ eliorer la performance des syst` emes de d´ etec-

tion des signaux d’alarme pour les personnes qui ont des difficult´ es d’audition. Les auteurs

du papier indiquent un taux de 80% de d´ etection pour un taux de 25 % de fausse d´ etection.

Références

Documents relatifs

Exercice n°3: valeur moyenne et efficace (7 points) Soit la tension périodique u ci-contre:. 1- Calculez sa valeur moyenne&lt;u&gt;, en expliquant bien la

On peut alors lire le pH de la solution à partir de la mesure de la tension électrique aux bornes de ce voltmètre et en déduire la concentration en ions oxonium donnée par :..

D´ eterminer le point D tel que ABCD soit un pa-

[r]

Remarque : Ces résultats sont notamment utilisés en mécanique pour le travail exercé par une force lors d’un déplacement.. On dit que deux vecteurs

Un des problèmes essentiels de toute reconnaissance est celui de la classification, c'est à dire de la partition judicieuse de l'ensemble des données à traiter en

Le plus simple pour le prouver est de calculer son rang qui est

(D) Alors toutes les trois propri´ et´ es. pr´ ec´ edentes