• Aucun résultat trouvé

Les représentations et l'analyse statistique des signaux

N/A
N/A
Protected

Academic year: 2021

Partager "Les représentations et l'analyse statistique des signaux"

Copied!
148
0
0

Texte intégral

(1)

HAL Id: tel-00557247

https://tel.archives-ouvertes.fr/tel-00557247

Submitted on 18 Jan 2011

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Les représentations et l’analyse statistique des signaux

Michel Barret

To cite this version:

Michel Barret. Les représentations et l’analyse statistique des signaux. Mathématiques [math]. Uni-versité Paris Sud - Paris XI, 2010. �tel-00557247�

(2)

Mémoire d’habilitation à diriger des recherches

de l’UNIVERSITÉ PARIS-SUD XI

présenté par

Michel BARRET

Équipe Information, Multimodalité & Signal

SUPELEC

SUR LES REPRÉSENTATIONS ET L’ANALYSE

STATISTIQUE DES SIGNAUX

Soutenu le 4 juin 2010 devant le jury composé de :

M. Pierre DUHAMEL

Président

M. Marc ANTONINI

Rapporteur

M. Christian JUTTEN

Rapporteur

M. Jean-Christophe PESQUET

Rapporteur

M. Jacques OKSMAN

(3)
(4)

Table des matières

Table des matières 2

1 Introduction 5

2 Sur la stabilité des filtres récursifs bi-dimensionnels 13

2.1 Introduction . . . 13

2.2 Optimalité des critères de stabilité 2-D . . . 15

2.2.1 Domaine des polynômes 1-D stables . . . 15

2.2.2 Application aux tests de stabilité des filtres numériques récursifs 2-D . . . 21

2.3 Deux algorithmes rapides pour tester la stabilité de filtres numériques récursifs 2-D . 24 2.4 Comparaison des algorithmes face aux erreurs d’arrondi . . . 26

2.4.1 Robustesse des quatre algorithmes testés . . . 27

2.4.2 Analyse des différences de comportement . . . 31

2.4.3 Conclusion . . . 33

3 Bancs de filtres adaptés, application au codage sans perte d’images 35 3.1 Introduction . . . 35

3.2 Choix du critère pour une transformation réversible optimale en compression sans perte 36 3.3 Résultats obtenus et perspectives . . . 40

4 Banc de filtres hybride et conversion analogique/numérique 41 5 Analyse en composantes indépendantes et compression de données 43 5.1 Introduction . . . 43

5.2 Gain de codage généralisé . . . 45

5.2.1 Distorsion . . . 45

5.2.2 Allocation optimale de débits entre quantificateurs . . . 46

5.2.3 Expression asymptotique de la réduction de débit . . . 47

5.2.4 Lien avec l’analyse en composantes indépendantes . . . 49

6 ACI appliquée au codage des images multicomposantes 51 6.1 Introduction . . . 51

6.2 Description de trois schémas de compression . . . 52

6.2.1 Conventions et notations . . . 52

6.2.2 Schéma séparable . . . 52

6.2.3 Deux variantes non séparables du schéma séparable . . . 53

6.3 Expressions de la distorsion . . . 54

(5)

6.5 Minimisation du critère dans le cas séparable . . . 57

6.6 Résultats expérimentaux . . . 57

6.7 Des transformations spectrales de moindre complexité . . . 61

6.8 Des transformations spectrales d’entiers en entiers . . . 62

7 Conclusion et perspectives 63 A Éléments de la théorie de l’information et de la quantification 69 A.1 Courbes débit vs distorsion d’une source d’information sans mémoire . . . 69

A.2 Quantificateur vectoriel à haute résolution . . . 70

A.3 Quantificateur scalaire à haute résolution . . . 71

A.4 Entropies, entropies jointes et information mutuelle . . . 72

A.4.1 Débit d’entropie . . . 75

A.5 Distorsion d’un quantificateur à haute résolution . . . 76

A.5.1 Cas d’un quantificateur vectoriel . . . 76

A.5.2 Cas d’un quantificateur scalaire . . . 76

A.6 Distorsion et entropie d’ordre V . . . 77

A.6.1 Cas de la quantification vectorielle en réseau . . . 77

A.6.2 Cas de la quantification scalaire . . . 77

A.7 Codage entropique d’ordre V . . . 79

B Articles récents parus 81

(6)

Chapitre 1

Introduction

Dans l’introduction de son livre Extrapolation, interpolation and smoothing of stationary time series, Wiener écrivait :

« This book represents an attempt to unite the theory and practice of two fields of work which are of vital importance in the present emergency, and which have a complete natural methodological unity, but which have up to the present drawn their inspiration from two entirely distinct traditions, and which are widely different in their vocabulary and the training of their personnel. These two fields are those of time series in statistics and of communication engineering. »

Ainsi, dès son origine, le traitement statistique du signal se situe au carrefour des mathématiques et des sciences pour l’ingénieur. C’est probablement pour cela que ce domaine n’a cessé de me passionner depuis que je l’ai découvert avec Bernard Picinbono il y a une vingtaine d’années [12].

L’objet de ce mémoire est de présenter les principales contributions que j’ai pu apporter en traitement statistique du signal grâce à diverses collaborations. Une première partie porte sur la sta-bilité des filtres et des systèmes linéaires, en particulier celle des filtres numériques bi-dimensionnels. Une deuxième partie expose des résultats en compression d’images, en particulier sur les espaces de représentations bien adaptés à leur codage.

En suivant Shannon, les pionniers de la théorie du codage ont délimité un cadre mathématique très général, distinguant la compression sans perte de celle avec pertes. Pour cette dernière, ils ont étudié en détails les propriétés qui découlaient de l’hypothèse de données gaussiennes. Les méthodes développées par les ingénieurs, qui sont basées en général sur des résultats théoriques utilisant cette hypothèse, n’ont cessé de s’améliorer tout en offrant de plus en plus de souplesse aux utilisateurs, approchant aujourd’hui des limites théoriques. Notre objectif est d’étendre quelques propriétés ma-thématiques utiles aux ingénieurs en communication en relâchant l’hypothèse de données gaussiennes. La suite de l’introduction donne un résumé des différents chapitres du mémoire et une cohérence entre eux. Elle se termine par une présentation rapide de mes activités d’enseignement et des contrats industriels auxquels j’ai participé.

L’étude de la stabilité des filtres récursifs bi-dimensionnels est le sujet de ma thèse [48], dirigée par Messaoud Benidir et soutenue en décembre 1993. Les publications relatives à ma thèse sont les suivantes : [10, 11, 31, 32, 33, 34, 35] (2 revues et 5 congrès). J’ai également été invité à trois séminaires mathématiques [54, 53, 52] pour présenter les résultats de ma thèse.

Après ma thèse, j’ai continué à travailler sur la stabilité des filtres récursifs 2D (voire N D), aussi bien sous l’angle historique de l’étude de la localisation des zéros d’un polynôme que sous celui de l’efficacité des algorithmes de test de stabilité, en particulier de leur robustesse face aux erreurs d’arrondis. Ces recherches ont donné lieu aux publications suivantes : [1, 2, 3, 8, 9, 47] (1 livre, 2

(7)

chapitres de livre traduits en anglais, 2 revues et 1 pré-publication). J’ai évalué et critiqué plus d’une dizaine d’articles sur le sujet soumis pour publication dans diverses revues internationales.

Les filtres récursifs mono-dimensionnels trouvaient dans les années 80 de nombreuses applications, par exemple en codage de la parole avec le codage par prédiction linéaire, grâce à la théorie de la prédiction à passé fini ou infini (voir par exemple le livre de cours [55]) et à la représentation en treillis des filtres récursifs, qui permet un très bon contrôle des erreurs d’arrondi. Dans le cas bi-dimensionnel, les filtres récursifs trouvaient très peu d’applications. À l’époque de ma thèse cela pouvait être dû aux difficultés pratiques que l’on rencontrait pour tester leur stabilité. Mais dans la décennie qui a suivi, ils n’ont pas trouvé beaucoup d’applications nouvelles. Les bancs de filtres et les décompositions en ondelettes ont eu beaucoup plus de succès.

Dès la fin des années 80, de nouvelles représentations des signaux, issues des décompositions en ondelettes de Mallat, Meyer et Daubechies, ou des lapped transforms de Malvar ou encore des bancs de filtres à reconstruction parfaite de Smith & Barnwell, Vaidyanathan, Vetterli, . . . , commencent à être appliquées pour du codage d’images. Elles remplaceront le codage par transformée (transformée en cosinus discrète de JPEG) qui a le défaut, aux faibles débits, de rendre visible le découpage par blocs (blocking effect ) de l’image. En 1992, Antonini, Barlaud, Mathieu et Daubechies (IEEE Trans. Image Processing, IP-1, 2, 1992) publient un article de référence sur l’emploi des ondelettes à support compact pour du codage d’images et montrent les bonnes performances de l’ondelette dite 9/7 de Daubechies. Au milieu des années 90, Sweldens introduit la représentation en lifting scheme des ondelettes bi-orthogonales (Proc. SPIE, 2569, septembre 1995) et montre avec Daubechies (J. Fourier Anal. Appl., 4, 3, 1998) que toute décomposition en ondelettes bi-orthogonale utilisant des filtres RIF admet une représentation en lifting scheme. Cette représentation permet de construire très facilement des transformations réversibles (d’entiers en entiers) approximant les décompositions en ondelettes (integer to integer wavelets) et donnant de bonnes performances en codage sans perte des images (voir l’article de Calderbank, Daubechies, Sweldens et Yeo, Applied and Computational Harmonic Analysis, 5, 3, 1998). Le lifting scheme associe décomposition multi-résolution et prédiction1. Il est

alors naturel d’étudier des structures en lifting scheme dans lesquelles les étapes de prédiction à coefficients fixes sont remplacées par des étapes d’estimations linéaires en moyenne quadratique. À la fin des années 90, pour du codage avec pertes et aussi sans perte des images, Gerek et Çetin (IEEE Trans. on Image Processing, 9, 10, 2000) ont appliqué l’algorithme du gradient stochastique pour que l’étape dite de prédiction de la structure en lifting scheme s’adapte au signal à coder.

En utilisant le vocabulaire de la théorie de l’estimation, Gerek et Çetin n’ont étudié que l’estima-tion linéaire adaptative, estimant la valeur d’un signal de sous-bande, disons J2 à la position (m, n)

comme combinaison linéaire des échantillons du signal de l’autre sous-bande (J1) uniquement, ils

n’ont pas utilisé l’information disponible portée par les valeurs du signal J2 dans un voisinage causal

ou semi-causal de la position (m, n). En d’autres termes, avec le vocabulaire de la théorie de l’estima-tion, ils ont appliqué l’estimation linéaire seule, sans l’associer à de la prédiction linéaire et en termes d’informations, ils n’ont pas utilisé toute l’information disponible pour adapter l’étape de prédiction de la structure en lifting scheme au signal à coder. C’est ce que nous avons voulu faire au début des années 2000 en encadrant (80% d’encadrement) la thèse de H. Bekkouche, dirigée par J. Oksman (20% d’encadrement), sur la synthèse de bancs de filtres adaptés avec des applications en codage

1Attention au vocabulaire, qui n’a pas le même sens en théorie de la décision et en filtrage numérique. Dans une

structure en lifting scheme il est d’usage d’appeler “prédiction” l’étape d’estimation : après avoir partagé le signal original en deux signaux de sous-bandes, l’étape dite de prédiction consiste à prédire la valeur d’un de ces signaux comme combinaison linéaire des échantillons de l’autre signal, mais dans la théorie de l’estimation, le terme “prédiction” est réservé au cas où la valeur d’un signal à l’instant n (ou la position (m, n)) est estimée à partir d’un voisinage causal du même signal.

(8)

sans perte des images. En recherchant pour le banc d’analyse des filtres prédicteurs bi-dimensionnels optimaux, les filtres du banc de synthèse sont récursifs bi-dimensionnels. Nous espérions ainsi trouver une application de ces filtres dans le cas non séparable (c’est-à-dire quand ils ne se réduisent pas à des filtres mono-dimensionnels). Ces travaux ont fait l’objet des publications suivantes :

– un article long dans une revue internationale [6] ;

– quatre congrès internationaux avec actes et comité de lecture [27, 28, 29, 30] ; – un congrès national avec actes, sans comité de lecture [41].

Après avoir rencontré des difficultés personnelles qui l’ont retardé, Hocine Bekkouche a soutenu sa thèse de l’Université Paris-Sud, spécialité Traitement du Signal, intitulée “Synthèse de bancs de filtres adaptés, application à la compression des images”, le 18 juin 2007.

Grâce aux travaux réalisés avec H. Bekkouche et J. Oksman, j’ai pu approfondir mes connaissances sur les bancs de filtres à reconstruction parfaite et le codage sans perte des images. L’étude des bancs de filtres à reconstruction parfaite a également donné lieu à la rédaction d’un polycopié de Supélec sur le sujet [57]. De plus, en collaboration avec J.-L. Collette, J. Oksman, P. Duhamel et d’autres membres de l’équipe de recherche Signaux et Systèmes Électroniques de Supélec (EA-2523), j’ai participé à l’étude des bancs de filtres hybrides pour la conversion analogique/numérique très large bande et j’ai contribué à la rédaction de trois articles présentés dans des congrès internationaux à comité de lecture ([19, 24, 25]).

En 2000, le nouveau standard en codage d’images, JPEG2000 part 1, fixait les règles de codage avec pertes ou quasi sans perte pour les images naturelles. À cette époque, nous avons choisi de travailler sur la compression sans perte en cherchant des partenaires utilisateurs d’un tel codage en imagerie satellitaire ou médicale. Nous avons alors pris contact avec Catherine Lambert Nebout, ingénieur docteur du CNES.

Comme j’enseignais à des élèves de troisième année de Supélec le cours de traitement statistique du signal [55], pour réduire l’écart entre mon enseignement et mes recherches, je souhaitais pour-suivre ces dernières en les orientant vers l’analyse statistique des données multi-dimensionnelles (2-D essentiellement) non gaussiennes.

Or, depuis un peu plus d’une décennie, la séparation aveugle de sources (blind source separation), puis l’analyse en composantes indépendantes étaient apparues et s’étaient développées, offrant divers algorithmes efficaces dans plusieurs domaines d’applications, comme les télécommunications. De plus, en analyse multispectrale, Nuzillard et Bijaoui avaient appliqué différentes méthodes de séparation de sources sur quatre images de la galaxie 3C120 prises par le télescope Hubble (D. Nuzillard et A. Bijaoui, Astronomy and Astrophysics, septembre 2000). Ils avaient montré qu’avec une interpré-tation subjective des résultats fournis par des algorithmes de séparation de sources et en modifiant ces derniers (en particulier en imposant aux matrices de mélange d’avoir des coefficients positifs), on pouvait obtenir quatre images très différentes entre elles à l’œil (contrairement aux résultats de l’analyse en composantes principales ou des décompositions en ondelettes). De plus, les quatre images qu’ils avaient obtenues représentaient des sources différentes, qui avaient toutes un sens en astrophy-sique. Ce qui n’est pas très étonnant, car c’était le critère d’arrêt choisi par Nuzillard et Bijaoui dans leur démarche itérative d’adaptation des algorithmes de séparation de sources et d’interprétation des résultats.

Enfin, le caractère non gaussien des coefficients d’ondelettes associés aux images naturelles, l’effi-cacité d’algorithmes de codage exploitant la redondance entre coefficients d’ondelettes inter-bandes (SPIHT de Said et Pearlman, IEEE Trans. Circuits and Systems for Video Technology, 6, 3, 1996) ou intra-bande (EBCOT de Taubman, IEEE Trans. Image Processing, IP-9, 7, 2000)—malgré la faible corrélation statistique entre ces coefficients—, et la publication dans des revues de traitement d’images d’analyses de l’information mutuelle entre coefficients d’ondelettes (Liu et Moulin, IEEE

(9)

Trans. Image Processing, 10, 11, 2001) ont été à l’origine du sujet de thèse de M. Narozny : Analyse en composantes indépendantes et compression de données. C’est une thèse de l’Université Paris-Sud en spécialité du traitement du signal, pour laquelle j’ai été directeur, grâce à une dérogation me dispensant de l’habilitation à diriger des recherches. J’ai réalisé 80% de l’encadrement, J. Oksman et P. Duhamel en ayant chacun réalisé 10% également. La thèse a été soutenue le 12 décembre 2005. Elle a donné lieu aux publications suivantes :

– un article long dans une revue internationale [7] ;

– quatre congrès internationaux avec actes et comité de lecture [18, 22, 23, 26] ; – trois ateliers avec actes sans comité de lecture [40, 39, 37] ;

– et deux rapports de recherche [45, 46].

Avec M. Narozny, nous avons commencé par étudier l’ajout, dans une structure en lifting scheme, d’une étape réduisant l’information mutuelle entre sous-bandes avec des applications en codage sans perte d’images en niveaux de gris ou en couleur. Cela a fait l’objet d’une publication dans un congrès international avec comité de lecture [26], où nous avons rencontré Dinh-Tuan Pham. Grâce au soutien de l’Action Concertée Incitative ACI2M décrite ci-dessous, nous avons étudié le codage par trans-formée et la quantification scalaire ou vectorielle pour généraliser la notion de gain de codage d’une transformation sans l’hypothèse de données gaussiennes. Cela a fait l’objet de deux rapports de re-cherche ([45, 46]) et d’une présentation des avancées du projet aux Journées ACI Masse de données des 16 et 17 septembre 2004 [40], et aux Journées Pari-STIC des années 2005 et 2006 [39, 37]. À partir de l’expression du gain de codage généralisé, nous avons modifié l’algorithme ICAinf (D. T. Pham, IEEE Trans. Signal Processing, 52, 10, 2004) pour construire deux algorithmes maximisant le gain de codage, l’un (OrthICA pour Orthogonal Independent Component Analysis) en imposant à la ma-trice de séparation d’être orthogonale et l’autre (GCGsup pour Generalized Coding Gain Supremum) sans cette contrainte. Appliqués à des signaux synthétiques, décorrélés et non gaussiens, ces algo-rithmes donnent des gains de codage importants par rapport à ceux obtenus avec la transformation de Karhunen-Loève2. Ces travaux ont fait l’objet de publications dans trois congrès internationaux avec actes [18, 22, 23], et dans une revue internationale [7].

Dans le cadre de l’Action Concertée Incitative (ACI) Masse de Données du Ministère de l’Éduca-tion Nal’Éduca-tionale et de la Recherche, suite aux contacts pris avec Catherine Lambert Nebout du CNES, et grâce—entre autres—aux soutiens de Pierre Duhamel et de Dinh-Tuan Pham, nous avons sou-mis en 2003 un projet intitulé Analyse en composantes indépendantes appliquée au codage d’images multicomposantes, avec quatre laboratoires partenaires :

– le CNES, centre spatial de Toulouse, avec C. Lambert Nebout (remplacée en cours de projet par C. Thiebaut),

– l’I3S (Informatique, Signaux et Systèmes de Sophia-Antipolis), avec P. Comon,

– le LMC (Lab. de Modélisation et Calcul) de l’IMAG (Grenoble), devenu aujourd’hui le Labo-ratoire Jean Kuntzmann, avec D. T. Pham,

– le L2S (Lab. des Signaux et Systèmes) (Gif-sur-Yvette), avec P. Duhamel et A. Mohammad-Djafari,

qui a été accepté. C’est le projet ACI2M, dont j’ai été le coordinateur de 2003 à 2006. Voici une description courte du projet :

« Les quantités de données transmises ou stockées en imagerie satellitale sont consi-dérables. Nous étudions le problème du codage d’une famille d’images (appelée image multi-composante). Un codage progressif et pouvant aller jusqu’au sans perte trouve des

2C’est le nom utilisé en codage d’images pour désigner le changement de repère de l’analyse en composantes

(10)

applications potentielles, aujourd’hui, en imagerie multi-composante satellitale ou mé-dicale. Pour des images fixes, les décompositions multi-résolutions réversibles sont bien adaptées à des codeurs entropiques par arbre de zéros (du type SPIHT) et permettent un codage progressif et sans perte. Par ailleurs, l’analyse en composantes indépendantes (ACI) a atteint un grand degré de maturité théorique et des algorithmes performants, qui couvrent un large éventail de situations, sont disponibles. Il est généralement admis que les algorithmes d’ACI diminuent l’information mutuelle (donc la redondance d’infor-mation) entre les composantes d’un vecteur.

Nous proposons d’améliorer les codeurs d’images satellitales multi-composantes, embar-qués et au sol, par l’étude de transformations inversibles ou réversibles, basées sur des décompositions multi-résolutions et l’ACI. Un des objectifs est d’évaluer l’utilité d’un codage progressif multirésolution allant jusqu’au sans perte, en regard des contraintes que cette propriété pourrait introduire. Globalement, les problèmes à résoudre sont di-vers : étendre l’ACI à des données discrètes ; construire une “bonne” transformation ré-versible d’images multi-composantes ; étendre le codage par “arbres de zéros” aux images multispectrales ; construire un “bon” codeur entropique. Pour atteindre l’objectif, nous réunissons différentes équipes de recherche dont les compétences sont complémentaires et recouvrent tous les domaines concernés. »

Ce projet a permis le financement d’une allocation de recherche pour la thèse en mathématiques appliquées d’I. P. Akam Bita, intitulée Sur une approche de l’analyse en composantes indépendantes à la compression des images multicomposantes, soutenue en février 2007 à l’Université Joseph Fourier de Grenoble, et dont j’étais co-directeur (50% d’encadrement), avec D. T. Pham (50% d’encadrement). Elle a donné lieu aux publications suivantes :

– deux articles, un long et un court, dans la revue interbationale Signal Processing [4, 5] ; – quatre congrès internationaux avec actes et comité de lecture [17, 20, 21, 23] ;

– trois ateliers avec actes sans comité de lecture [37, 38, 39].

Avec I. P. Akam Bita et D.-T. Pham, nos travaux de recherche ont porté dans un premier temps sur les expressions du gain de codage généralisé quand les transformations sont appliquées après (ou avant) des décompositions en ondelettes bi-dimensionnelles, et sur la recherche d’images multi-spectrales ou hypermulti-spectrales satellitaires pour lesquelles les gains de codage des transformations retournées par les algorithmes OrthICA et GCGsup sont sensiblement supérieurs à celui de la trans-formation de Karhunen-Loève. C’est par exemple le cas d’images hyperspectrales AVIRIS, comme cela a été présenté à une conférence internationale avec comité de lecture [20], à un atelier organisé par le CNES [38] et aux journées PaRI-STIC 2005 [39]. Il s’avère que les algorithmes OrthICA et GCGsup doivent être modifiés pour donner la transformation (orthogonale ou non) qui maximise le gain de codage généralisé associé à un schéma de compression compatible avec le standard JPEG2000 Partie 2. Ces résultats ont fait l’objet d’une publication dans un congrès international avec comité de lecture [17] et d’un papier long [5] accepté pour publication dans la revue Signal Processing. Puis nos travaux se sont poursuivis par la recherche de l’expression du gain de codage généralisé associé à un mélange convolutif (c’est-à-dire une opération de filtrage), étendant ainsi l’expression du gain de codage généralisé associé à un mélange instantané (autrement dit une simple transformation linéaire), et à la mise au point d’un algorithme de maximisation de ce gain de codage par une méthode quasi Newton de descente de gradient dite BFGS. Ces résultats ont fait l’objet d’une présentation dans un workshop [21], d’un poster aux journées Pari-STIC 2006 [37] et d’un papier long en préparation à soumettre pour publication dans une revue internationale [49].

Les codecs obtenus avec les transformations spectrales optimales font mieux que l’état de l’art [5], mais au prix d’une plus grande complexité. Nous avons alors cherché à réduire la complexité du calcul

(11)

de la transformation optimale. Une première approche, consiste à modifier le critère d’optimalité en supposant les données gaussiennes (donc seuls les moments d’odres 1 et 2 sont à estimer), tout en gardant le schéma de compression compatible avec le standard JPEG2000 Partie 2, où la redondance spatiale est réduite par des décompositions en ondelette 2D et la redondance spectrale au moyen d’une transformation linéaire. Un algorithme de diagonalisation jointe amélioré par D. T. Pham (JADO) permet alors de retourner une transformation spectrale orthogonale qui minimise ce critère. Cette étude a donné lieu à la publication d’un article court dans la revue Signal Processing [4].

Suite au projet ACI2M, le CNES a financé le post-doc de Mohamed Hariti d’une durée de deux ans (2007–2008), pour étudier un codeur par arbres de zéros 3-D bien adapté aux transformations à base d’ACI. J’ai co-encadré (35% d’encadrement) ce post-doc avec Carole Thiebaut (10% d’encadrement) et Emmanuel Christophe (10% d’encadrement) du CNES, Pierre Duhamel (10% d’encadrement) du LSS, et Jean-Louis Gutzwiller (35% d’encadrement) de Supélec. Les résultats obtenus ont fait l’objet d’un rapport de recherche [43], de deux présentations orales, l’une à un séminaire du CNES [36] et l’autre à une conférence avec actes et comité de lecture [15], et d’un papier long [50] soumis pour publication dans une revue.

Toujours en continuité du projet ACI2M, et grâce à Michel Narozny qui a monté et proposé avec la société LUXspace un dossier accepté par l’ESA (European Space Agency) pour financer une Innova-tion Triangle Initiative (ITI) de type DemonstraInnova-tion of Feasibility & Use, nous avons été partenaires de cette ITI, c’est le projet HyperComp, dont le but était de développer et de prouver la faisabilité et l’utilisation — dans un environnement de laboratoire — d’un démonstrateur pour un système de com-pression d’images multi-composantes satellitaires embarqué utilisant les transformations optimales à base d’ACI. Le projet HyperComp réunissait trois partenaires :

– la société luxembourgeoise LUXspace, avec MM Jochen Harms, Florio Dalla Vedova et Isidore Paul Akam Bita ;

– la société allemande OHB System AG ;

– Supélec avec Jean-Louis Gutzwiller et moi-même.

Pour qu’un codeur basé sur les transformations spectrales optimales puisse être embarqué à bord d’un satellite, nous devions réduire significativement la complexité du calcul de la transformation spectrale. Nous avons adopté une autre approche que celle mentionnée ci-dessus et qui consiste à calculer une fois pour toutes une transformation spectrale quasi-optimale sur une base d’apprentissage constituée d’images multicomposantes issues d’un seul capteur et à l’appliquer sur d’autres images provenant du même capteur. Ce projet HyperComp a donné lieu à trois présentations dans des conférences internationales avec actes et comité de lecture [13, 14, 16] et à la préparation d’un article [51] soumis pour publication dans la revue électronique Journal of Applied Remote Sensing. De plus, compte-tenu des bons résultats obcompte-tenus, une demande de co-financement par l’ESA de la phase 3 (i.e., de l’implantation d’un prototype de codeur embarqué) de l’ITI HyperComp a été envoyée par LUXspace. Cette étape ne correspondant plus à de la recherche, même appliquée, Supélec n’est plus partenaire, mais nous pouvons avoir la satisfaction de voir que, sous réserve de l’acceptation par l’ESA de la proposition, nos recherches vont se matérialiser dans un prototype de système de compression embarqué à bord d’un satellite. Un article regroupant les résultats obtenus avec le post-doc CNES et le projet HyperComp est en préparation pour être soumis dans une revue internationale avec comité de lecture.

Mes charges d’enseignement à Supélec portent essentiellement sur le traitement statistique du signal en 2ème et 3ème année (voir CV joint), le cours de 3ème année est commun à Supélec, au Master Recherche de mathématiques fondamentales et appliquées cohabilité par Supélec et l’Université Paul Verlaine de Metz et au Master of Science de Georgia Tech Lorraine. Pendant la vingtaine d’années que j’ai passée comme enseignant-chercheur à Supélec, j’ai participé à beaucoup d’enseignements

(12)

(travaux dirigés, cours ou travaux de laboratoires) portant sur les mathématiques appliquées, j’ai rédigé un livre [55], quelques polycopiés ([62, 59, 61, 60, 58]), quelques dossiers pour l’épreuve de TIPE (Travaux d’Initiative Personnelle Encadrés) aux concours d’entrées aux Grandes Écoles (après avoir été examinateur, je suis responsable pédagogique en mathématiques et informatique depuis octobre 2006) et de nombreux sujets d’examens, de travaux de laboratoires et de travaux dirigés. J’ai également encadré ou co-encadré des élèves de troisième année en conventions d’études industrielles (CEI) sur les sujets suivants :

– “Étude de la séparation des signaux en sismique simultanée” pour Total avec Mle Leclercq (élève) et MM. J.-L. Collette et J.-L. Boelle pour le co-encadrement, 2010.

– “Étude et mise au point d’un procédé de calibration pour un imageur matriciel”, pour Sagem Defense Sécurité avec M. Derouvroy (élève) et M. Gardette pour le co-encadrement, 2010. – “Analyse statistique du bruit de détecteurs matriciels dédiés à l’imagerie infrarouge”, pour

Sagem Défense Sécurité avec Mlle Tondriaux et M. de Torres Garcia (élèves), et MM. Gardette et Genty pour le co-encadrement, 2009.

– “Détection des sursauts gamma”, pour le CEA (centre de Saclay) avec MM. Courtois et Seurrat de la Boulaye (élèves) et MM. Schanne et Pietquin pour le co-encadrement, 2008.

– “Étude des dispersions des données sur une chaîne de production d’acier Dual Phase”, pour la société ARCELOR MITTAL-RESEARCH SA, avec MM. Maugey et Abbas-Turki (élèves), et MM. Fricout et Pietquin pour le co-encadrement, 2007.

– “Simulateurs de jeux basés sur les prévisions de marchés boursiers” pour la société LUSIS SA avec MM Badouin (élève) et Popineau (co-encadrant), 2006 ;

– “Augmentation de la bande passante d’un moyen de mesure” pour la société MICHELIN avec MM. Froger et Lemercier (élèves) et Collette (co-encadrant), 2006 ;

– “Traitement des signaux de fluctuations de pression issus de simulations numériques” pour la société RENAULT avec MM. Apostolou et Mauger (élèves) et MM. Morosini et Illy (co-encadrants), 2006 ;

– “Traitement des signaux de fluctuations de pression en paroi générées par un écoulement tur-bulent” pour la société RENAULT avec Mme Bouquet, MM. Bitton et Riahi (élèves) et Mlle Arguillat, MM. Ricot et Morosini (co-encadrants), 2005 ;

– “Recherche de représentations optimales pour l’interception de signaux radar” pour la société THALES Systèmes Aéroportés avec MM. Bect, Bloch, Bondier et Huygen (élèves) et Mlle

Chevaillier et M Delabbaye (co-encadrants), 2003 ;

– “Validation d’une méthode d’identification par analyse en composantes principales” pour la société MICHELIN, avec Mlle Neyme et MM. Artault, Bailloeul, Mérit et Moratal y Perez (élèves) et MM. Biesse et Collette (co-encadrants), 2001.

J’ai réalisé des études industrielles :

– “Analyse statistique de données pour les applications Galvallia et Skin pass” pour la société ARCELOR (en collaboration avec C. Mailhan, J.-L. Collette et M. Ianotto) 2004 ;

– étude confidentielle pour un équipementier automobile, 2002 ;

– “Estimation des intervalles de confiance dans un perceptron multi-couches” pour la société IRSID (en collaboration avec M. Ianotto) 2002 ;

et j’ai co-encadré une dizaine de stagiaires du Master Recherche (ou DEA) de mathématiques appli-quées.

(13)
(14)

Chapitre 2

Sur la stabilité des filtres récursifs

bi-dimensionnels

2.1

Introduction

Mon travail de thèse, sous la direction de M. Benidir, a porté sur le test de la stabilité des filtres numériques récursifs bi-dimensionnels avec l’objectif d’apporter une solution pratique qui soit plus satisfaisante que celles existantes. Pour cela, nous avons naturellement découpé mes investigations en deux parties. La première, dont les résultats sont exposés au chapitre II du mémoire de thèse [48] et résumés à la section suivante, a consisté en la recherche d’un critère, c’est-à-dire une condition nécessaire et suffisante, de stabilité, et la deuxième, objet du chapitre III de [48] et résumée deux sections plus loin, a porté sur l’algorithme proprement dit qui est une traduction du critère précédent en langage informatique.

Plus précisément, un nouveau critère de stabilité a été établi, puis comparé à ceux existants. Après avoir proposé une définition objective et précise de la notion intuitive de complexité d’un tel critère, il a été montré que celui introduit dans la thèse a la même que d’autres classiques (Huang-Goodman, Strintzis) et qu’il est impossible de trouver un critère de complexité moindre. Ces résultats reposent sur l’étude, dans l’espace des polynômes complexes à une variable et de degré limité, du domaine de stabilité 1-D, qui consiste en l’ensemble des polynômes apparaissant aux dénominateurs des fonctions de transfert des filtres dynamiques causaux et stables. L’équation—dont l’irréductibilité est démontrée—de la plus petite hypersurface contenant la frontière de ce domaine est donnée [10]. Il est également observé que cette hypersurface ne pénètre pas à l’intérieur du domaine. Ces résultats apportent un tout autre éclairage au problème de la stabilité des filtres numériques récursifs bi- ou multi-dimensionnels et redonnent en particulier les critères classiques.

Un autre résultat de la thèse, établi au chapitre II de [48], est que tout algorithme, décidant en un nombre fini de pas si un filtre numérique récursif causal bi-dimensionnel quelconque (qu’il soit réel ou complexe) est stable—entrée bornée-sortie bornée—, requiert le test de nullité d’un résultant particulier (c’est inévitable). L’examen des algorithmes existants montre qu’ils commencent tous par calculer cette expression—ou une autre équivalente—avant de tester si elle s’annule.

Il est également proposé dans [48] deux procédures permettant de décider, en un nombre fini de pas, si un filtre numérique récursif tri-dimensionnel est stable ou non et si tous les polynômes d’une famille convexe, engendrée par un nombre fini de polynômes à une indéterminée, ont tous leurs zéros à l’intérieur strict du cercle unité [31].

Le chapitre III du rapport de thèse est consacré à la présentation d’un algorithme de test de stabilité pour les filtres numériques récursifs bi-dimensionnels. Le nombre d’opérations requises par

(15)

cet algorithme “rapide” diffère d’un—voire plusieurs—ordre de grandeur par rapport aux autres algorithmes connus en 1993. Les filtres traités sont supposés réels, dépourvus de toute singularité non essentielle de la deuxième espèce sur le bi-cercle unité, quart-plans causals ou demi-plans non symétriques semi-causals. L’algorithme est basé sur la condition nécessaire et suffisante mentionnée ci-dessus. Cette dernière fait intervenir le calcul du résultant de deux équations à deux indéterminées, obtenu en éliminant entre elles une des deux inconnues. Le résultant est une expression “classique”, il est défini et étudié dans la théorie de l’élimination et dans les cours élémentaires d’algèbre. Il s’exprime sous différentes formes de déterminants (résultant de Sylvester, résultant de Bézout). Comme résultat de la thèse, il a été établi, que dans le cas qui intéresse l’étude de la stabilité, le résultant à calculer est égal au déterminant d’une matrice proche de Toeplitz, dont le rang de déplacement vaut 2. Cela a autorisé l’usage, pour la première fois à notre connaissance dans un test de stabilité [11], d’un algorithme rapide d’inversion de matrices, celui de Levinson-Szegö généralisé.

L’étude de la stabilité des filtres numériques récursifs bi- ou multi-dimensionnels est grande-ment facilitée par une bonne connaissance des résultats relatifs à la stabilité de tels filtres mono-dimensionnels, non seulement parce que les chercheurs en ce domaine ont souvent étudié au préalable le cas 1-D et que leurs articles y font référence, mais surtout parce que ces problèmes sont intrin-sèquement liés, comme le montre, par exemple, l’éclairage du chapitre II de [48] (voir également [2] ou [1]). La littérature sur le sujet est très volumineuse. Elle s’étale dans le temps depuis environ 1830 (Cauchy-Sturm) jusqu’à aujourd’hui et recoupe différentes disciplines des sciences de l’ingé-nieur (automatique, traitement du signal) et des mathématiques pures (algèbre, analyse, géométrie algébrique) et appliquées (équations différentielles, valeurs propres, informatique). Un gros travail de synthèse a été réalisé [47] avec M. Benidir pour rédiger le livre [1].

Il est d’usage en traitement du signal ou en automatique de proposer des programmes informa-tiques dont les calculs sont faits avec une arithmétique à virgule flottante et l’algorithme présenté au chapitre III de [48] (voir également [11] ou [3]) est de ce type. L’une de ses étapes consiste à vérifier si un polynôme réel de degré important (≥ 20) s’annule sur le segment réel [−2; 2]. Il est d’ailleurs mon-tré, que cette vérification est inévitable dans tout test de stabilité de filtres récursifs bi-dimensionnels, soit sous cette forme, soit sous une autre équivalente. Il est bien connu que la localisation des zéros d’un polynôme peut être très sensible à de minimes fluctuations de ses coefficients, ceci d’autant plus que son degré est élevé. Cela a pour conséquence, du fait des erreurs d’arrondi inévitables en dehors du calcul formel, que l’algorithme établi au chapitre III de [48], comme tous ceux équivalents proposés en traitement du signal, n’est pas fiable à cent pour cent. La question suivante se pose alors naturellement : étant donné un polynôme développé en série entière, est-il possible de mesurer à quel point la localisation de ses zéros est sensible à de petites fluctuations de ses coefficients ? Ce problème est un cas particulier de celui de la localisation des valeurs propres d’une matrice dont les coefficients sont soumis à de faibles perturbations : il suffit d’associer au polynôme sa matrice compagnon. Ce fut l’objet d’importantes recherches en mathématiques pures et appliquées depuis le début du siècle et il existe d’excellents ouvrages de synthèse allant jusqu’aux années 60 (Wilkinson, Parodi). Après la thèse, nous avons comparé différents algorithmes de test de stabilité de filtres 2-D, face aux erreurs d’arrondis [9] (voir également [1, 3] et une section ci-après), il apparaît que la quasi totalité des algorithmes sont très sensibles aux erreurs d’arrondi dès que le plus petit des degrés du polynôme est supérieur strictement à deux, sauf un que nous avons proposé dans [3] (voir aussi [1] pp. 231–235) et qui ne marche que sous certaines conditions peu restrictives en pratique (voir l’avant dernière section de ce chapitre).

(16)

2.2

Optimalité des critères de stabilité 2-D

Cette section présente les résultats obtenus pendant ma thèse, afin de faciliter la lecture des sections suivantes qui portent, elles, sur des résultats obtenus après ma thèse. Cette section commence par l’étude du domaine de stabilité des filtres numériques récursifs mono-dimensionnels dans l’espace des polynômes apparaissant au dénominateur de leur fonction de transfert. Il est établi que pour des filtres à coefficients complexes, ce domaine est connexe, et l’équation de la plus petite hypersurface contenant sa frontière est donnée. Il est également montré que cette hypersurface ne pénètre pas à l’intérieur du domaine de stabilité.

Les propriétés géométriques du domaine de stabilité—dans l’espace affine des polynômes com-plexes de degré n’excédant pas n—que nous avons révélées [10], offrent un nouvel éclairage au pro-blème de la stabilité des filtres numériques récursifs bi- ou multi-dimensionnels. Elles permettent en particulier de retrouver les critères classiques (nous nous focaliserons sur le cas 2-D) et nous ont permis d’en construire un nouveau en 1993.

Après avoir précisé la notion intuitive de complexité d’un tel critère, il est montré dans la thèse que celui que nous avions introduit a une complexité minimale : aucun critère de test de stabilité 2-D ne peut avoir une complexité moindre.

2.2.1

Domaine des polynômes 1-D stables

Frontière du domaine de stabilité

Considérons un polynôme complexe général, i. e., dont les coefficients sont des indéterminées,

P = a0xn+ a1xn−1+ · · · + an (2.1)

de degré au plus n. Dans la suite, le coefficient a0 pourra s’annuler. Soit P∗ le polynôme déduit de

P par la relation

P∗ = anxn+ an−1xn−1+ · · · + a0, (2.2)

où ak désigne le conjugué du nombre complexe ak. Si P est de degré n (a0 6= 0), P∗ est le polynôme

réciproque de P . Par convention, quand le degré k de P est inférieur à n, nous disons que l’infini (∞) est un zéro de P avec un ordre de multiplicité (odm) de n − k. Avec cette convention, tout polynôme P , défini par la relation (2.1), non identiquement nul, admet exactement n zéros comptés suivant leurs odm, ∞ compris.

Au polynôme P ci-dessus, associons le point de Cn+1, encore noté P , admettant (a0, a1, . . . , an)

comme coordonnées dans le repère canonique. Au moyen de cette bijection, l’espace vectoriel Cn[x]

des polynômes complexes de degré au plus n est identifié à l’espace affine Cn+1. Pour tout entier

p (0 ≤ p ≤ n), construisons le sous-ensemble Dp de Cn+1 constitué de tous les polynômes ayant

exactement p zéros à l’intérieur ou sur le cercle unité (CU) et n − p (dont éventuellement ceux situés en ∞) à l’extérieur strict de ce cercle. Les sous-ensembles D0, D1, . . . , Dn forment une partition de

Cn+1\{0}. Les premières propositions donnent quelques propriétés topologiques et géométriques de ces sous-ensembles, nous omettons les démonstations qui peuvent être trouvées dans le rapport de thèse ou dans [1].

Proposition 1 Les sous-ensembles D0, D1, . . . , Dn sont connexes.

Introduisons encore quelques définitions et notations. Soit ak = αk+ iβk (0 ≤ k ≤ n)

(17)

la décomposition suivant ses parties, réelle ou imaginaire, du k-ème coefficient du polynôme (2.1). Identifions le plan complexe C avec l’espace affine réel R2

, et l’espace Cn+1des coefficients (a

0, . . . , an)

du polynôme (2.1) avec l’espace affine réel R2n+2 de leurs parties réelles et imaginaires (α

0, . . . , αn,

β0, . . . , βn). Si F est un polynôme réel aux 2n + 2 variables α0, . . . , αn, β0, . . . , βn, et si F n’est pas

constant, alors le sous-ensemble de R2n+2 contenant tous les zéros réels de F est appelé l’hypersurface d’équation

F(α0, . . . , αn, β0, . . . , βn) = 0.

Dans la suite, deux types de polynômes seront utilisés : certains complexes et à une seule variable, comme P et P∗, d’autres réels et aux 2n + 2 variables α0, . . . , αn, β0, . . . , βn, comme F. Ces derniers

seront toujours désignés par des majuscules en caractères gras.

Pour 0 ≤ p ≤ n, soit ∂Dp la frontière de Dp, constituée de l’ensemble des points de Cn+1

appartenant à la fermeture de Dp, sans être en son intérieur. Un résultat de la thèse est d’avoir

donné l’équation de la plus petite hypersurface contenant ∂D0 et d’avoir montré qu’elle ne pénètre

pas à l’intérieur de D0. Pour cela, trois résultats intermédiaires ont été établis. Le premier indique

que l’union B1 des frontières ∂Dp, pour 0 ≤ p ≤ n, est égale à l’ensemble des polynômes P ∈ Cn+1qui

s’annulent sur le cercle unité. Le deuxième révèle que cette union B1 est incluse dans l’hypersurface

B2 d’équation

R(P, P∗) = 0, (2.3)

où R(P, P∗) est le résultant des polynômes P et P∗et que l’hypersurface B2ne pénètre ni à l’intérieur

de D0 ni à l’intérieur de Dn, mais qu’elle coupe l’intérieur de tous les autres sous-ensembles Dp

(0 < p < n). Enfin, le troisième montre que l’équation (2.3) est irréductible, c’est-à-dire qu’elle ne peut pas être factorisée, dans le cas général où les coefficients de P sont indéterminés.

-2 -1 1 α2 D D D D D D D D D 0 0 2 2 2 2 3 1 1 -3 -2 -1 1 2 α3 Fig. 1 P = x3+ (α 2+ 0.5i)x + α3

(18)

-6 -4 -2 2 α α 2 3 D D D D D D D 0 0 2 2 1 1 3 -4 -2 2 4 Fig. 2 P = x3 + α 2x + α3

Il est bien connu que les zéros d’un polynôme sont des fonctions continues de ses coefficients et inversement (cela reste vrai avec la convention adoptée ci-dessus sur les zéros à l’infini). Il résulte d’une telle continuité, que pour 0 ≤ p ≤ n, le sous-ensemble D0p, formé de tous les polynômes P ∈ Cn+1 admettant exactement p zéros à l’intérieur (strict) du CU et n − p à l’extérieur strict de

ce cercle, est ouvert. D’autre part, tout point de Dp est la limite d’une suite de points appartenant

à Dp0, donc Dp0 est l’intérieur de Dp. D’après les définitions, il est évident que D0 est ouvert, donc

D0

0 = D0.

Proposition 2 L’union B1 de toutes les frontières ∂Dp, pour 0 ≤ p ≤ n, est égale à l’ensemble des

polynômes P ∈ Cn+1 qui s’annulent sur le cercle unité.

Un résultat classique d’algèbre affirme que quand a0 6= 0 ou an6= 0, les polynômes P et P∗ ont un

zéro en commun, si et seulement si, leur résultant R(P, P∗) s’annule. Dans ce cas, le zéro en commun est fini. Avec la convention adoptée pour les zéros à l’infini, l’hypothèse a0 6= 0 ou an6= 0 précédente

est inutile. L’expression R(P, P∗) est un polynôme réel des variables α0, . . . , αn, β0, . . . , βn (voir la

proposition 5 ci-dessous), ainsi, l’équation (2.3) définit bien une hypersurface B2. Enfin, si P s’annule

sur le cercle unité en ω, alors P∗(ω) = 0 puisque 1/ω = ω et que les zéros de P∗ s’obtiennent à partir de ceux de P par passage à l’inverse du conjugué. Donc B2 contient B1. Nous venons de trouver une

hypersurface, B2, contenant ∂D0 ainsi que toutes les autres frontières ∂Dp, (0 ≤ p ≤ n).

Proposition 3 Pour 0 ≤ p ≤ n, B2∩ Dp0 = ∅, si et seulement si, p = 0 ou p = n.

Par conséquent, B2 “reste” sur la frontière de D0 et sur celle de Dn. Nous en déduisons alors

im-médiatement, que restreints au sous-ensemble fermé ∆0 = D0 ∪ ∂D0, les trois domaines B2, B1 et

∂D0 coïncident exactement, i. e., B2 ∩ ∆0 = B1 ∩ ∆0 = ∂D0. De même, si ∆n = Dn∪ ∂Dn, alors

B2∩ ∆n = B1∩ ∆n= ∂Dn. Il en résulte la proposition suivante qui trouve d’intéressantes applications

(19)

Proposition 4 Partant d’un point P0 dans D00 (resp. D0n), si P varie continûment1, alors il

inter-secte ∂D0 (resp. ∂Dn), si et seulement s’il coupe l’hypersurface B2, si et seulement s’il intersecte

B1.

Preuve. On a ∂D0 ⊂ B1 ⊂ B2. Considérons une fonction continue f d’un sous-ensemble non vide

connexe I ⊂ Rr, (r ≥ 1 fixé), dans Cn+1, telle que pour t0 ∈ I fixé, f (t0) = P0 ∈ D00. Supposons qu’il

existe t1 ∈ I vérifiant f (t1) ∈ B2. I étant connexe, il existe une fonction continue g de [0; 1] dans I,

telle que g(0) = t0 et g(1) = t1. L’ensemble

{µ ∈ [0; 1] : ∀x ∈ [0; µ], f ◦ g(x) ∈ D00}

est non vide (il contient 0) et majoré par 1. Il admet donc une borne supérieure τ ≤ 1, qui vérifie f ◦ g(τ ) ∈ ∂D0. Le même raisonnement s’applique à Dn.

-2 -1 1 α2 -3 -2 -1 1 2 α3 Fig. 3 P = x3+ (α 2+ 0.5i)x + α3

Exemple 2 Les figures 3 et 4 montrent deux sections planes de B2 quand n = 3. En comparant

entre-elles les figures de même parité : 1 avec 3 et 2 avec 4, remarquons que la parabole de Fig. 4 pénètre à l’intérieur de D01. Toutefois, B2 ne peut couper ni D00, ni D0n.

1

c’est à dire s’il existe un sous-ensemble non vide connexe I ⊂ Rr(r ≥ 1 fixé), t

0∈ I, et une application continue

f de I dans Cn+1, tels que pour t ∈ I, P = f (t) et P

(20)

-6 -4 -2 2 α α 2 3 -4 -2 2 4 Fig. 4 P = x3 + α2x + α3

Pour terminer l’étude du domaine de stabilité 1-D, énonçons l’irréductibilité de l’équation (2.3), dans le cas général où les coefficients du polynôme P , défini par la relation (2.1), sont indéterminés. Il est bien connu que le résultant de Sylvester de deux polynômes généraux indépendants, f et g, est un polynôme irréductible dont les variables sont les coefficients de f et de g. Dans le cas qui nous intéresse, les coefficients de P∗ pouvant s’exprimer en fonction de ceux de P , il n’est pas évident que R(P, P∗), polynôme en α0, . . . , αn, β0, . . . , βn, soit irréductible, c’est cependant le cas.

Proposition 5 Quand les coefficients ak = αk + iβk (0 ≤ k ≤ n) du polynôme P défini en (2.1)

sont des indéterminées complexes décomposées suivant leurs parties, réelle ou imaginaire, le résultant R(P, P∗) de P et P∗, défini en (2.2), est un polynôme réel irréductible, aux variables α0, . . . , αn,

β0, . . . , βn.

Exemple 3 Quand n = 2,

R(P, P∗) = |a0|4− |a0|2|a1|2+ a0a2a21+

a0a2a21− 2|a0|2|a2|2− |a1|2|a2|2+ |a2|4.

Cette expression visiblement réelle, se développe en un polynôme à coefficients entiers en α0, . . . , αn,

β0, . . . , βn dont l’écriture demanderait plusieurs lignes.

Quand le polynôme P est réel, le résultant de P et de P∗ n’est plus irréductible, comme l’avait remarqué Cohn et d’autres avant lui. La proposition précédente n’est alors plus valide. Ce résultat peut se retrouver par transformation homographique : l’équation

(1 + x)nP(1 − x)/(1 + x)= f (x2) + xg(x2) définit deux polynômes réels f et g qui vérifient

(−1)n(n+1)/2P (1)P (−1) 

R(f, g) 2

= 2n(n−1)R(P, P∗). Cette équation redonne un résultat de Liénard et Chipart.

(21)

Proposition 6 Pour tout entier p (0 ≤ p ≤ n), B2 est la plus petite hypersurface contenant ∂Dp.

Cette dernière proposition peut s’exprimer ainsi : il n’existe pas de famille finie d’équations polynomiales, aux indéterminées α0, . . . , αn, β0, . . . , βn et ayant chacune un degré inférieur à celui de

l’équation (2.3), qui définisse une hypersurface contenant ∂Dp.

Applications aux critères de stabilité

Nous supposons dans ce paragraphe que chaque coefficient ak du polynôme P , défini en (2.1), est

une fonction continue de variables réelles v = (v1, . . . , vr) ∈ I, où I = I1× I2× · · · × Ir est le produit

cartésien d’intervalles réels non vides. Notons (Pv)v∈I la famille de tous les polynômes obtenus avec

ces fonctions continues quand v ∈ I. Nous dirons d’une telle famille de polynômes qu’elle est continue. Puisque I est un sous-ensemble connexe de Rr, la famille continue de polynômes (Pv)v∈I forme un

sous-ensemble connexe de Cn+1.

Proposition 7 Soit (Pv)v∈I une famille continue de polynômes complexes de degré n’excédant pas

n. Soit, pour v ∈ I, Pv∗ défini par la relation (2.2) quand Pv est écrit sous la forme (2.1).

(i) Tout polynôme Pv de la famille est dans D0, si et seulement s’il existe v0 ∈ I tel que Pv0 ∈ D0 et le résultant R(Pv, Pv∗) de Pv et Pv∗ ne s’annule pas pour tout v ∈ I.

(ii) S’il existe v0 ∈ I tel que Pv0 ∈ D0 et si le résultant R(Pv, P

v) de Pv et Pv∗ s’annule pour v ∈ I,

alors il existe v1 ∈ I tel que le polynôme Pv1 s’annule sur le cercle unité. Ces résultats restent valides si D0 est remplacé par l’intérieur D0n de Dn.

Preuve. Cela résulte directement de la proposition 4.

L’assertion (i) de la proposition précédente peut être interprétée en termes d’algorithmes. Fixons à la fois r ≥ 1, le pavé I ⊂ Rr d’intérieur non vide, v0 ∈ I et n > 0 un entier naturel. Notons P

l’ensemble de toutes les familles continues (Pv)v∈I de polynômes complexes dont le degré n’excède

pas n et P1 le sous-ensemble de P des familles (Pv)v∈I pour lesquelles Pv0 ∈ D0. Nous considérons trois algorithmes A, B et C, finissant chacun en un nombre fini de pas2. Les deux premiers admettent comme entrée tout élément de P, alors que toutes les entrées admises par le dernier forment le sous-ensemble P1. Ces trois programmes répondent par oui ou par non aux questions respectives suivantes,

où (Pv)v∈I est une de leurs entrées admissibles quelconque.

A : est-ce-que tous les éléments de la famille (Pv)v∈I sont dans D0?

B : est-ce-que Pv0 appartient à D0?

C : est-ce-que le résultant R(Pv, Pv∗) s’annule pour v ∈ I ?

Pour ces algorithmes, leur complexité est, par définition, égale au nombre d’opérations qu’ils effectuent pour traiter une donnée arbitraire. C’est une fonction de n. Par abus de langage, nous appelons encore complexité l’ordre de grandeur de cette fonction quand n tend vers l’infini.

Il existe des algorithmes B déduits de la règle de Cohn ou de ses dérivées (Marden3, Jury4 , . . . )

ou encore du critère de Routh par transformation homographique et il est clair que tout programme A ne peut pas avoir une complexité inférieure à celle de B. Il résulte de la proposition précédente,

2Nous excluons donc tout algorithme reposant sur un échantillonnage du pavé I.

3The geometry of polynomials, 2ème édition, Providence, American Mathematical Society, 1966.

(22)

que disposant d’un algorithme B, tout algorithme A devient un algorithme C et inversement, deux algorithmes B et C quelconques forment ensemble un algorithme A. Autrement dit,

(A et B) ⇔ (C et B) .

Les algorithmes A et C les plus performants ont donc la même complexité et, à l’algorithme B près, de complexité négligeable, les algorithmes A et C sont équivalents.

Intéressons-nous à l’algorithme C. D’après la proposition 5, les coefficients des polynômes Pv

pouvant a priori prendre n’importe quelles valeurs complexes quand v ∈ I, le résultant R(Pv, Pv∗) ne

peut pas être factorisé a priori.

2.2.2

Application aux tests de stabilité des filtres numériques récursifs

2-D

L’application des résultats précédents au problème de la stabilité des filtres numériques récursifs quart-plan causaux, dépourvus de toute singularité non essentielle de la deuxième espèce, permet de retrouver les critères de Huang, Goodman, Shanks, Strintzis, De Carlo, Anderson, Jury . . . (voir les livres de Huang5 ou Dudgeon, Russel et Mersereau6).

Soit P (z1, z2) un polynôme général complexe à deux variables

P (z1, z2) = n X h=0 m X k=0 ah,kzn−h1 z m−k 2 = m X k=0 ak(z1)z2m−k (m ≤ n). (2.4)

Il résulte de la proposition 7 (i), avec

r = 2, I = [0; 1] × [0; 1], v = (ρ, θ) ∈ I et Pv(z2) = P (ρe2iπθ, z2),

que P (z1, z2) 6= 0 sur le bi-disque unité fermé |z1| ≤ 1 et |z2| ≤ 1, si et seulement si, P (0, z2) ∈ D0 et

le résultant R(z1) obtenu par élimination de z2 entre les deux équations :

P (z1, z2) = 0 et P∗(z1, z2) = m

X

k=0

ak(z1)z2k= 0 (2.5)

ne s’annule pas sur le dique unité fermé |z1| ≤ 1. Il découle également de la proposition 7 (ii) (avec

Pv(z1) = P (z1, ρe2iπθ) et les mêmes r, v et I que ci-dessus) que P (z1, z2) 6= 0 sur le bi-disque unité

fermé, si et seulement si, les deux conditions suivantes sont satisfaites (Huang-Goodman) :

P (z1, 0) 6= 0 pour tout z1 tel que |z1| ≤ 1 (2.6)

P (z1, z2) 6= 0 pour tout z1, z2 tels que |z1| = 1 et |z2| ≤ 1. (2.7)

De la même façon, avec r = 1, I = [0; 1], et Pv(z2) = P (e2iπv, z2), la condition (2.7) est valide, si et

seulement si, les deux conditions suivantes sont vérifiées (Strintzis) :

P (1, z2) 6= 0 pour tout z2 tel que |z2| ≤ 1 (2.8)

P (z1, z2) 6= 0 pour tout z1, z2 tels que |z1| = |z2| = 1. (2.9)

5Two-dimensional digital signal processing I, Topics in applied physics, 42, Springer-Verlag, New-York, 1981. 6Multidimensional digital signal processing, Prentice Hall, 1984.

(23)

Dans la relation (2.6) (respectivement (2.8)), le chiffre 0 de “P (z1, 0)” (respectivement le chiffre 1 de

“P (1, z2)” peut être remplacé par tout autre point du disque unité fermé (respectivement du cercle

unité |z1| = 1).

Nous pouvons facilement étendre ces justifications aux filtres multi-dimensionnels de toute di-mension N , pour retrouver le théorème de Strintzis, De Carlo et al.

La proposition suivante résulte de la proposition 7 (i).

Proposition 8 Soit P (z1, z2) un polynôme complexe défini par la relation (2.4). La condition (2.7)

est valide, si et seulement si, la condition (2.8) est satisfaite et si le résultant R(z1), obtenu en

éliminant z2 entre les deux équations (2.5), ne s’annule pas sur le cercle unité.

Nous en avons déduit un critère de stabilité nouveau en 1993, c’est un résultat de ma thèse.

Proposition 9 (critère de stabilité 2-D) Soient P (z1, z2) un polynôme complexe défini par la

relation (2.4) et R(z1) le résultant obtenu en éliminant z2 entre les deux équations (2.5). P (z1, z2)

ne s’annule pas sur le bi-disque unité fermé |z1| ≤ 1 et |z2| ≤ 1, si et seulement si, les trois conditions

suivantes sont satisfaites.

P (z1, 0) 6= 0 pour tout z1 tel que |z1| ≤ 1,

P (1, z2) 6= 0 pour tout z2 tel que |z2| ≤ 1,

R(z1) 6= 0 pour tout z1 tel que |z1| = 1.

Remarque 1 Sur le cercle unité, z1 = z−11 , le résultant R(z1), obtenu en éliminant z2 entre les deux

équations (2.5), peut alors être remplacé par celui obtenu en éliminant z2 entre les deux équations :

P (z1, z2) = 0 et P (z˜ 1, z2) ∆ = n X h=0 m X k=0 ah,kz1hz k 2 = 0.

Remarque 2 Le résultant R(z1), obtenu en éliminant z2 entre les deux équations (2.5), est égal,

au signe près, au déterminant de la matrice de Schur-Cohn apparaissant dans les tests de Jury, Anderson, et Siljak. Quand le polynôme P (z1, z2) est réel, pour |z1| = 1, le résultant R(z1) est un

polynôme réel de la partie réelle de z1. Le carré de ce polynôme divise le résultant apparaissant dans

le premier test de Bose7, et dans une version simplifiée8, on retrouve ce polynôme au signe près. Dans

le test de Maria et Fahmy, qui construit la table de Marden-Jury associée au polynôme (2.4) en z2

dont les coefficients dépendent de z1, l’unique élément de la dernière ligne de cette table est divisible

par le résultant R(z1).

Comme cela a déjà été remarqué par Fujiwara, le résultant R(z1), obtenu en éliminant z2 entre les

deux équations (2.5), est égal, au signe près, au discriminant de la forme quadratique hermitienne de Schur-Cohn. Il est donc réel, quel que soit z1 ∈ C. Étant également une fonction polynôme complexe,

7“Implementation of a new stability test for two-dimensional filters”, IEEE Trans. Acoust., Speech, Signal Processing,

ASSP-25, 117–120, 1977.

(24)

F , des deux variables z1 et z1, il existe un polynôme réel R à deux indéterminées, tel que pour tout

nombre complexe z1 = x + iy décomposé suivant ses parties, réelle ou imaginaire,

R(z1) = F (z1, z1) = R(x, y).

La division euclidienne du polynôme R(x, y) par le polynôme y2+ x2− 1 assure l’existence et l’unicité

du polynôme réel S, aux deux indéterminées x, y et celles des deux polynômes réels Q et T en x, tels que :

R(z1) = R(x, y) = (y2+ x2− 1)S(x, y) + yT (x) + Q(x). (2.10)

Les polynômes R, S, Q et T dépendent évidemment des coefficients du polynôme P . Quand ce dernier est réel, on a

F (z1, z1) = F (z1, z1),

donc R(x, y) = R(x, −y) et T est identiquement nul.

Nous voyons sur l’équation (2.10), qu’il est plus simple de calculer le résultant R(z1) quand z1

est sur le cercle unité—ou sur une autre courbe algébrique— que quand z1 est dans le disque unité

fermé—ou dans un autre domaine de surface non nulle—. En effet, quand |z1| = 1, il suffit de

connaître les polynômes réels T et Q à une seule variable, pour évaluer R(z1).

Comparons la complexité des différents critères de stabilité aux lumières de la proposition 7 et du point de vue exposé à sa suite, p. 20.

Tester si P (z1, z2) s’annule sur le bi-disque |z1| ≤ 1 et |z2| ≤ 1, revient à examiner si R(z1)

s’annule sur le disque |z1| ≤ 1. Cela demande le calcul du polynôme réel R(x, y) et le test de sa

nullité sur le disque x2+ y2 ≤ 1.

Tester si P (z1, z2) s’annule sur le domaine |z1| = 1 et |z2| ≤ 1, revient à vérifier si R(z1) s’annule

sur le cercle unité |z1| = 1. Cela demande le calcul des polynômes réels Q et T qui n’ont qu’une

indéterminée, et le test de nullité de yT (x) + Q(x) sur le cercle x2+ y2 = 1, test que l’on sait faire en

un nombre fini de pas. Pour cela, on élimine y entre les équations yT (x) + Q(x) = 0 et x2+ y2− 1 = 0, pour obtenir l’équation algébrique en x :

(1 − x2) T (x)2− Q(x)2

= 0, (2.11)

dont on sait calculer le nombre de racines réelles sur le segment [−1; 1] grâce au théorème de Sturm. Tester si P (z1, z2) s’annule sur le bi-cercle |z1| = 1 et |z2| = 1, revient à examiner, si quand z1

parcourt le cercle unité, le polynôme en z2, P (z1, z2), s’annule sur le cercle unité, c’est-à-dire s’il

est sur la frontière de l’un des domaines Dp pour 0 ≤ p ≤ n ou autrement dit dans B1, d’après

la proposition 2. Pour vérifier cette condition, il faut tester si R(z1) s’annule sur le cercle unité,

puis dans le cas où R(z1) s’y annulerait, il faut s’assurer que ce n’est pas en des points de B2 \ B1.

Vu sous cet angle, il apparaît que le critère de Strintzis n’est pas plus facile à tester que celui de Huang-Goodman.

Nous venons de voir que le test de nullité du résultant R(z1) = R(x, y) sur le disque unité

x2 + y2 ≤ 1, peut se simplifier en se ramenant au test de nullité de R modulo y2+ x2− 1 :

R(x, y) ≡ yT (x) + Q(x) (y2+ x2− 1)

sur le cercle unité. Nous nous sommes alors posé la question de savoir si l’on peut encore réduire le domaine du plan sur lequel on teste la nullité du résultant R(x, y) et nous avons démontré que cela est impossible (voir le chapitre II du rapport de thèse).

(25)

Nous avons vu au paragraphe précédent que tout algorithme, qui décide en un nombre fini de pas si le polynôme P (z1, z2) s’annule sur le bi-disque unité fermé, revient, à un simple test de stabilité 1-D

près, à décider si le résultant R(z1) s’annule sur un domaine du plan. Tous les critères de stabilité que

nous venons d’examiner reviennent à tester si le résultant R(z1) = R(x, y), où z1 = x + iy, s’annule

sur un sous-ensemble ∆ du plan, qui vaut soit le disque unité y2+ x2 ≤ 1, soit le cercle unité.

Nous avons défini la complexité de ces critères comme étant égale au nombre de coefficients du polynôme R qu’il faut connaître pour calculer R(x, y) sur ∆. Avec cette définition, nous n’avons pas pris en compte la complexité du test de nullité de R, car elle dépend de l’algorithme utilisé et rien ne dit qu’il n’en existe pas de bien meilleurs que ceux connus aujourd’hui. Toutefois, nous avons admis que pour tester en un nombre fini de pas la nullité de R(x, y) sur ∆, il faut connaître ses coefficients. Si P est de degré n en z1 et m en z2, alors R est de degré nm en x et en y. Tester si R s’annule

sur le disque y2 + x2 ≤ 1 a une complexité de (nm + 1)2. Tester si R s’annule sur le cercle unité

a une complexité de 2(nm + 1) dans le cas complexe (coefficients de T et Q), et de nm + 1 dans le cas réel. Cette complexité est minimale, aucun critère de stabilité vérifiable en un nombre fini de pas ne peut avoir une complexité moindre. Notre critère, comme celui de Huang-Goodman, est de complexité minimale.

Intéressons-nous maintenant au cas où le polynôme P , défini en (2.1), est réel. Remarquons d’abord, qu’en vertu de la proposition 5, le résultant R(z1) associé ne se factorise pas en général, car

tout polynôme réel P , défini en (2.1) et considéré comme un polynôme en z2, a des coefficients, qui

peuvent a priori prendre n’importe quelle valeur complexe, quand z1 est sur le cercle unité. Quand

P est réel, de degré n en z1 et m en z2, nous avons vu que le reste de la division du résultant R(x, y)

par y2+ x2− 1 se réduit à un polynôme réel Q en x, de degré nm.

Remarque 3 Les résultats de cette section, relatifs à la stabilité de filtres bi-dimensionnels quart-plans causals, peuvent s’étendre sans aucune difficulté aux filtres demi-quart-plans semi-causals.

2.3

Deux algorithmes rapides pour tester la stabilité de filtres

numériques récursifs 2-D

Un algorithme rapide pour tester la stabilité de filtres numériques récursifs bi-dimensionnels quart-plans causaux et dépourvus de toute singularité non essentielle de la deuxième espèce est décrit dans cette section, c’est un résultat de ma thèse. Pour traiter des filtres, dont le dénominateur de la fonction de transfert est un polynôme réel

P (z1, z2) = n X h=0 m X k=0 ah,kz1n−hzm−k2 = m X k=0 ak(z1)z2m−k (m ≤ n) (2.12)

de degré n en z1 et m en z2, il demande (21/2)m2n2+ 36m3n + O(mn2) opérations arithmétiques.

Parmi les algorithmes équivalents connus en 1993, les plus rapides requéraient, quand m = n, O(n5) opérations soit un ordre de grandeur de plus que celui présenté ici.

Ce dernier utilise le résultat suivant (apparaissant dans la thèse et publié avec l’algorithme complet dans [11]). La matrice de Shur-Cohn9 construite à partir du polynôme complexe de degré n

P = a0xn+ · · · + an (2.13)

9définie par

T = A•H

(26)

a un rang de déplacement10 égal à deux en général. Il en résulte que l’algorithme de Levinson-Szegö généralisé11peut être employé pour calculer, en O(n2) opérations, la signature de la forme quadratique

hermitienne associée à cette matrice et, en particulier, le résultant de P et de P∗, défini à la relation (2.2). Calculer le résultant de deux polynômes de degré n en O(n2) opérations n’est pas nouveau. La table de Routh (par exemple) permet de le faire. Utiliser à cet effet le programme de Levinson-Szegö généralisé—qu’il est très facile d’étendre à des matrices hermitiennes complexes—n’avait toutefois encore jamais été fait.

Il a été indiqué à la section précédente que tout algorithme décidant si un polynôme (2.12) admet des zéros dans le bi-disque |z1| ≤ 1 et |z2| ≤ 1, doit nécessairement tester si le résultant R(z1), obtenu

en éliminant z2 entre les deux équations (2.5), s’annule sur le cercle unité |z1| = 1. Effectivement, les

tests classiques de Maria et Fahmy, Anderson Jury et Siljak, Kanellakis Tzafestas et Theodorou (voir la bibliographie de [48] pour trouver les articles associés), dérivés de la table de Schur-Cohn-Jury, calculent explicitement ce résultant (ou un polynôme divisible par ce résultant) sous la forme d’une fonction polynôme en z1 et z1; et le programme le plus rapide, selon O’Connor et Huang, nécessite

O[mn(nm2+ m3)] opérations arithmétiques.

Plus récemment, toujours basé sur la table de Shur-Cohn-Jury, la méthode de Hu12 évalue, en

O(4mmn2) opérations, le résultant R(z1) ci-dessus, uniquement sur le cercle unité (z1 = z1−1).

L’algorithme de Gu et Lee13 calcule R(z1) sur le cercle |z1| = 1 par interpolation, en donnant à

z1, nm + 1 valeurs particulières ζk (0 ≤ k ≤ mn) sur ce cercle. Il évalue, pour chacun de ces points,

R(ζk) avec l’algorithme de factorisation de Cholesky en O(m3) opérations. Cette étape est la plus

complexe de leur programme et requiert O(m4n) opérations.

La méthode que nous avons proposée calcule, pour un polynôme (2.12) réel, le reste Q(x)—défini à la relation (2.10)—de la division de R(x, y) = R(z1) (où z1 = x+iy est décomposé suivant ses parties,

réelle ou imaginaire) par y2+ x2− 1. Les coefficients de Q, dont le degré vaut nm, sont obtenus par interpolation—comme dans le test de G. Gu et E. B. Lee—après avoir évalué R(z1) en nm + 1 points

du cercle unité, au moyen de l’algorithme de Levinson-Szegö généralisé et en O(m2) opérations. Cette

étape du programme a une complexité en O(nm3) et le calcul de Q demande O(n2m2) opérations, tout comme le test complet. Elle est décrite dans le rapport de thèse ou le livre [1] pages 226–231.

Après la thèse, j’ai développé un autre algorithme, il est décrit dans [1] aux pages 231–235 (ou dans [3], pp. 372–376). Il suppose que le polynôme (2.12) est réel et que le plus petit des degrés n ou m est inférieur ou égal à 4, le plus grand étant quelconque. Ce dernier algorithme se révèle être très robuste face aux erreurs d’arrondi comme nous allons le voir à la section suivante.

où pour une matrice X, sa matrice transposée conjuguée est notée XH, et

A =      an an−1 · · · a1 0 an · · · a2 .. . . .. . .. ... 0 · · · 0 an      et A• =      a0 a1 · · · an−1 0 a0 · · · an−2 .. . . .. . .. ... 0 · · · 0 a0      .

10Voir l’article de Kailath, Kung et Morf, “Displacement ranks of a matrix”, Bull. of the Amer. Math. Soc., 1, 5,

769–773, 1979.

11Voir l’article de Friedlander, Kailath, Morf et Ljung, “Extended Levinson and Chandrasekhar equations for general

discrete-time linear estimation problems”, IEEE Trans. on Aut. and Cont., AC-23, 4, 653–659, 1978.

12“2-D Filter Stability Tests Using Polynomial Array for F (z

1, z2) on |z1| = 1”, IEEE Tran. on Circuits and Systems,

38, 9, 1092–1095, 1991.

13“A Numerical Algorithm for Stability Testing of 2-D Recursive Digital Filters”, IEEE Trans. on Circ. and Syst.,

Références

Documents relatifs

The first step decomposes Raman data X into a linear combination of the reference spectra (known components) plus a remainder, or X ¼ ASþR, where the columns of matrix A are

L’objectif est d’améliorer la sensibilité de la chaine de traitement afin de pourvoir prendre en compte les signaux d’EA de très faible amplitude, condérérés comme

Problème traité – Nous présentons une méthode de débruitage par transformée en ondelettes de signaux d’émission acoustique (EA) utilisée pour la caractérisation des

– Réflexion sur un miroir plan : position de l’image d’un point, construction des rayons réfléchis, première approche du stigmatisme

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des

Le codage arithmétique, comme toute autre technique de compression statistique, dépend uniquement de la distribution probabiliste des symboles à coder, toutefois, grâce à

Dans le cas où E est de dimension finie, la sphère S est compacte et l'existence d'un arc d'accumulation est assurée ; mais, faute d'un analogue de la proposition 4 du § 2.2, nous

PROPOSITION 1.4: Soient (A, B)de ffl x 3~, avec A Hessenberg supérieure non réduite, B de premier terme diagonal b xl nul, alors il existe un indice p unique et une