• Aucun résultat trouvé

Projet scientifique de l’équipe TIPIC

L’équipe TIPIC approfondira son implication en recherche en maintenant un équilibre, au niveau des objectifs, entre la haute qualité académique, les liens avec l’enseignement, et les collaborations industrielles à un niveau relativement amont. La production de savoirs de haut niveau attesté par des publications en revues internationales continuera à être l’objectif principal. L’équipe poursuivra ses collaborations actuelles, et prévoit de renforcer ses collaborations nationales du fait de sa future appartenance à l’université Paris Saclay. Si chacune des thématiques qui structurent actuellement son activité est amenée à se développer, l’émergence des projets collaboratifs entre membres de TIPIC, ou entre TIPIC et les autres équipes de SAMOVAR, sera également favorisée.

Les projets de l’équipe TIPIC dans les domaines des modèles markoviens, du traitement statistique du signal, de l’apprentissage statistique et des algorithmes rapides pour l’électromagnétisme sont les suivants :

8.7.1 Inférence et restauration bayésienne dans des modèles markoviens

1. Inférence dans les modèles à variables cachées.

Nous envisageons dans un premier temps d’explorer les méthodes inférentielles pour les chaînes bivariées partiellement observées. La thèse de Tepmony Sim (codirigée par R. Douc et F. Roueff, Telecom ParisTech) porte en particulier sur cette problématique. Des résultats sont déjà obtenus et permettent d’établir des conditions d’identifiabilité sous des conditions très générales, couvrant aussi bien les chaînes de Markov cachées, les modèles autorégressifs à régime markovien, que les séries temporelles de comptage dirigées par des observations.

D’autres résultats permettent de mieux comprendre les méthodes de Quasi Maximum Likelihood en spé-cifiant les conditions sous lesquelles elles permettent d’obtenir des estimateurs consistants. Ce travail en cours a permis d’initier une collaboration internationale avec Konstantinos Fokianos (université de Chypre), particulièrement reconnu dans le domaine des séries temporelles dirigées par les observations.

2. Méthodes de Monte Carlo séquentielles en grande dimension.

L’ordre de Peskun permet de comparer deux chaînes de Markov homogènes visant la même loi. Récemment nous avons généralisé cet ordre aux chaînes de Markov inhomogènes. Ce résultat nous a permis de comparer certains algorithmes MCMC par augmentation de données (dont les algorithmes pseudo-marginaux proposés par C. Andrieu et G. Roberts en 2010), puis, dans un deuxième temps, de proposer un nouvel algorithme de type "pseudo-marginal" faisant partie des algorithmes exacts (au sens où ils visent la bonne distribution cible) et de variance asymptotique plus faible que le "Group Independent Metropolis Hasting" analysé par Andrieu et Roberts. Nous nous proposons désormais de continuer à développer ces outils prometteurs et de les appliquer à la comparaison d’algorithmes particulaires.

3. Modèles de Markov Couple et Triplet.

Sur un plan méthodologique, les algorithmes de calcul rapide et exact de l’espérance conditionelle a posteriori, initialement proposés dans des modèles markoviens à sauts [1538] [1723], pourraient être étendus à d’autres modèles, et en particulier aux chaines de Markov cachées non linéaires et/ou non gaussiennes. La recherche de procédures efficientes d’estimation des paramètres de tels modèles, permettant la mise en place des traitements non supervisés, constitue également une des perspectives les plus intéressantes.

Parmi les projets plus théoriques, mentionnons la recherche des conditions de la markovianité des processus cachés. Explicitées dans le cas des chaînes [1576], ces dernières n’ont pas été précisées dans le cas des champs.

La compréhension des liens avec la théorie de l’évidence, en particulier l’intérêt de cette dernière en situations non stationnaires, constitue un autre axe d’intérêt. L’extension aux modèles de Markov triplet des premiers résultats de la convergence de la méthode "estimation conditionnelle" (ICE) obtenus dans le cas i.i.d. [1607]

aurait un intérêt non négligeable dans la compréhension des traitements non supervisés.

La construction de modèles de Markov triplet adaptés à des applications particulières est également amenée à se développer, entraînant dans certains cas des interactions avec les autres axes de recherche de TIPIC. Les travaux [1548] pourraient être étendus aux arbres de Markov, modèles plus robustes en matière de segmen-tation d’images que les chaînes de Markov. Nous nous proposons également de poursuivre le développement d’un nouveau modèle triplet, la chaîne de Markov phasique, qui permet de reconnaître des suites de "mots" de longueur fixe dont les caractères sont séparés par un nombre aléatoire de caractères issus du même alphabet ; ce modèle est particulièrement bien adapté à la modélisation des séquences biologiques, mais trouve aussi de nombreuses applications en traitement du signal ou en réseau. Dans le domaine de la séparation de sources, les résultats déjà obtenus en [1541] pourraient être élargis en supposant une markovianité du processus ca-ché sous-jacent. Par ailleurs, les premiers résultats obtenus dans l’utilisation des champs de Markov triplets en biométrie (reconnaissance de l’iris) [1617, 1728] seront poursuivis dans le cadre de la thèse de Meriem Yahiaoui démarrant en septembre 2013.

8.7.2 Traitements statistiques de signaux multisources et multicapteurs

1. Analyse de performances statistiques d’algorithmes, bornes de performance.

Les recherches en cours sur l’exploitation de la non circularité en traitement d’antennes et sur l’optimisation de réseaux d’antennes vont se poursuivre dans trois directions :

– Exploitation de la cyclostationnarité en estimation et détection :Dans le cadre de la lutte contre les interférences au sein des réseaux cellulaires du futur, nous avons été amené à considérer dans une

précédente thèse CIFRE [1804] la nécessité d’exploiter conjointement cyclostationnarité et noncircularité.

Pour permettre d’obtenir des récepteurs optimaux, nous devons nous confronter à des questions génériques d’estimation et de détection en environnement cyclostationnaire, et donc dans ce cadre nous intéresser à la vraisemblance asymptotique gaussienne qui devrait déboucher en particulier sur des extensions de la formule de Whittle.

– Détection du caractère rectiligne ou quasirectiligne dans un mélange bruité :

À travers nos divers travaux précédents [1603] [1530] [1565], nous avons démontré qu’il y avait dans les mé-langes bruités additivement par du bruit gaussien circulaire, un gap en terme de performances en présence de composantes rectilignes ou quasirectilignes. Cela démontre que la détection de composantes rectilignes, non abordée jusqu’ici, est au moins aussi importante que celle de la noncircularité qui elle a été abondam-ment étudiée.

– Optimisation d’antenne en champ proche : Après avoir fait une analyse complète de la borne de Cramer Rao en distance/azimut/élévation du réseau circulaire uniforme [1621], nous allons nous attaquer à des réseaux linéaires et plans centrosymmétriques. Nous tâcherons aussi d’aborder la difficile problématique d’optimisation de positionnement de capteurs en y intégrant la contrainte de non ambiguïté qui n’a encore jamais été abordée en champ proche.

2. Filtrage non linéaire, application au RADAR et aux communications numériques – Codage de Réseau pour les Antennes Relais dans un contexte multi-utilisateurs :

Le codage de réseau permet par exemple à deux utilisateurs d’échanger leurs messages par l’intermédiaire d’une antenne relais en moins de slots temporels que ne le ferait un protocole de routage classique. Un grand nombre de travaux ont été publiés sur le sujet. Cependant, la plupart d’entre eux, soit ignorent complètement la présence du canal radio, soit le modélisent par un simple gain complexe constant dans le temps et supposé connu du récepteur. Il demeure donc une incertitude quant à la possibilité d’appliquer le codage de réseau dans des conditions réelles pour les réseaux mobiles sans fil, où le canal est affecté par des variations temporelles potentiellement rapides, des évanouissements, des trajets multiples, etc.

Nous proposons d’étudier le problème de l’estimation bayésienne conjointe du canal et des messages en provenance des différents utilisateurs au niveau du relais à l’aide d’une modélisation d’état mixte discrète-continue. Une collaboration avec le L2S (Dr. P. Duhamel) et avec Supelec (Pr. A. Berthet) est prévue sur ce sujet.

– Détection et poursuite de cibles dans les systèmes multi-radar :

L’utilisation de plusieurs plateformes radar permet d’améliorer les performances en termes de détection et de précision de localisation de cibles. Cependant, dans les systèmes multi-statiques, les techniques classiques de type multilatération font apparaîtres des cibles fictives (dites fantômes). Nous envisageons de résoudre ce problème par fusion de données bayésienne des observations multi-radar. Une postdoctorante (Amina El Gonnouni) travaillera sur ce sujet avec un financement ERASMUS (projet GREENIT) à partir d’octobre 2013.

– Détection cohérente dans les communications par fibre optique :

L’une des solutions envisagées pour augmenter l’efficacité spectrale dans les fibres optiques consiste à rapprocher les canaux portés par des longueurs d’onde différentes sur une même fibre. Il en résulte une interférence 2D (dispersion chromatique et interférence entre canaux) d’autant plus sévère que l’ordre de la modulation employée est élevé. Nous étudierons l’apport du filtrage statistique couplé à un code correcteur d’erreur puissant afin de limiter l’effet de cette interférence. Ces travaux seront effectués en commun avec l’équipe R3S (Yann Frignac).

8.7.3 Apprentissage statistique et reconnaissance des formes

Les travaux envisagés s’inscrivent dans la continuité de nos travaux précédents mais aborderont également de nouvelles thématiques, avec un focus particulier sur des applications liées à la santé.

La prise en compte de la dégradation du signal restera encore au coeur de nos préoccupations en biométrie, aussi bien dans le contexte vidéo que celui des images statiques. Dans cet esprit, et dans la continuité de nos travaux exploratoires précédents, nous souhaitons explorer l’apport d’algorithmes de segmentation statistique pour des données biométriques. Ces algorithmes devront, en particulier, être performants pour le traitement de séquences de données de qualité médiocre au regard des exigences de précision des applications biométriques, et devraient permettre d’améliorer les performances de vérification biométrique au regard de l’état de l’art. Ils seront appliqués

dans un premier temps à la modalité iris de l’oeil (collaboration avec E. Monfrini). Un élément particulièrement important qui doit être considéré pour les systèmes biométriques est la robustesse des systèmes à des attaques potentielles au niveau du capteur. De notre point de vue, l’origine de la faiblesse de la sécurité des capteurs existants réside dans le faible nombre de paramètres physiques qui sont effectivement mesurés pendant la phase de vérification d’identité. Ceci nous a conduit à concevoir un prototype de capteur basé sur la tomographie par cohérence optique avec une architecture originale. Elle est basée sur une technique interférométrique (OCT) qui permet de capturer des images 3D de structures biologiques (comme les tissus), par mesure et analyse du champ électromagnétique diffusé par l’échantillon en cours d’examen. Le but de ce travail est d’évaluer l’apport de cette technique pour différentes biométries telles que les empreintes digitales et l’iris (collaboration avec Yaneck Gottes-man, équipe R3S). Par ailleurs dans le cadre de l’implantation de notre équipe dans les bâtiments de Nano-INNOV, une plateforme collaborative avec le CEA, MobileMii composée d’un espace domestique et professionnel, servira de cadre d’expérimentation à nos travaux futurs en télévigilance et en robotique d’assistance.

Nous allons élargir le périmètre de nos travaux en travaillant sur des flux audio-visuels et ceci tout aussi bien pour les applications biométriques que pour l’indexation audio-visuelle. L’utilisation conjointe des modalités biométriques voix et visages améliore les performances et est aussi plus robuste aux impostures. Le défi à relever est de trouver des solutions qui soient aussi révocables et qui préservent notre vie privée. Relativement à l’indexation (et recherche) audio-visuelle notre approche consistera à combiner nos travaux en résumé automatique des vidéos d’images, en indexation audio et en classification des images pour permettre des applications en classification audio-visuelle ou recherche des séquences pertinentes pour les applications biométriques ou médicales (par exemple pour la constitution d’un dossier médical).

Enfin un nouveau projet de recherche porte sur l’analyse du signal manuscrit "en ligne" en lien avec la santé. Il vise à détecter une dégradation du signal manuscrit, indépendamment de la pathologie qui la cause. Ses objectifs sont la détection précoce de la dégradation et la quantification des effets thérapeutiques, via des outils statistiques, notamment les mesures de qualité à base du concept d’entropie proposées dans le cadre des travaux préalables pour la signature manuscrite "en ligne".

8.7.4 Algorithmes rapides pour l’électromagnétisme

Nous poursuivrons nos travaux visant à généraliser et développer des formulations qui intègrent la décomposition sur des frames de Gabor (1) à des algorithmes de Lancer de Faisceaux Gaussiens (LFG) en présence d’obstacles multiples diffractants, (2) à des transformations champ proche-champ lointain, ou l’inverse.

Le projet ASTRID "Propagation Electromagnétique en Configuration Urbaine par des Méthodes Innovantes Asymptotiques" (PECUMIA), qui a démarré début 2013, réunit notre équipe, une PME innovante (NOVELTIS) et THALES Air Systems, dans le but de développer en parallèle la méthode de LFG à partir de frames de Gabor, et la méthode d’Equation Parabolique 3D (EP3D), pour traiter des problèmes de propagation actuellement mal résolus en milieu urbanisé. Cette recherche nous amènera à résoudre les problèmes les plus critiques pour notre méthode (incidence rasante, coin rentrant) et renouvellera l’intérêt des frames de Gabor dans la résolution d’équations intégrales, en cohérence avec les travaux récents sur l’utilisation de fonctions de base directives [Canning, 2011]1. Elle permettra la formulation de stratégies d’hybridation entre LFG, équations intégrales et EP3D.

Pour surmonter les problèmes de mémoire rencontrés par la méthode d’Optique Physique Multiniveaux (MLPO), nous poursuivrons nos travaux sur sa parallélisation sur une grille de machines à mémoires non partagées (via MPI), dans le cas de très grands systèmes multi-réflecteurs (RATAN 600), de calculs de champs focaux (contact avec l’Observatoire de Nançay), et de systèmes polarimétriques (en relation avec l’IRAP (CNRS)).

Enfin, les développements liés aux métasurfaces (surfaces de métamatériaux) [Minatti et al., 2013]2 offrent de nouvelles possibilités de guidage d’ondes de surface, qui pourrait gagner à être simulé par une méthode paraxiale de type LFG, ce qui nous ouvre une autre direction de recherche possible.

1. Canning, F. X. (2011). Designed basis functions for speed and stability. In Int. Conference on Electromagnetics in Advanced Applications (ICEAA).

2. Minatti, G., Sabbadini, M. and Maci, S. (2013). Anisotropic Surface Boundary Conditions and Their Implementations. In EMTS’13 : 2013 International Symposium on Electromagnetic Theory.