• Aucun résultat trouvé

Diffusion scientifique

Dans le document Analyse faciale dans les flux vidéo (Page 138-140)

1Synthèse de mes activités de recherche,

1.3 Diffusion scientifique

1.3.1 Publications scientifiques

Ma production scientifique en termes de publications sur la période de septembre 2008 à août 2018est synthétisée dans la FigureIV.4et elle comporte :

— 8 articles de journaux internationaux avec comité de lecture ; — 4 communications invitées ;

— 26 articles de conférences internationales avec comité de lecture et actes (dont une concernant mes activités de thèse) ;

— 6 workshops internationaux avec comité de lecture (dont 5 avec actes) ; — 13 articles de conférences nationales avec actes ;

— 3 chapitres de livre (dont un concernant mes activités de thèse).

Figure IV.4 – Synthèse de mes publications

Parmi ces publications, je mets en avant ci-dessous, les 5 publications les plus représentatives liées à mes activités de recherche :

— T. Danisman ; I.M. Bilasco ; J. Martinet - Boosting gender recognition performance with a fuzzy inference system - Expert Systems with Applications, Volume 42, Issue 5, 1 April 2015, pp. 2772-2784. (Facteur d’impact : 3,768 selon Journal Citations Reports 2018) ;

— T. Danisman ; I.M. Bilasco ; J. Martinet ; C. Djeraba - Intelligent pixels of interest selection with application to facial expression recognition using multilayer perceptron - Signal Pro- cessing, Elsevier, 2013, Special issue on Machine Learning in Intelligent Image Processing, 93(6), pp. 1547-1556. (Facteur d’impact : 3,470 selon JCR 2017) ;

— B. Allaert ; J. Mennesson ; I.M. Bilasco ; C. Djeraba - Impact of the face registration techniques on facial expressions recognition - Signal Processing : Image Communication, EURASIP, Elsevier, 2017, 61, pp. 44-53. (Facteur d’impact : 2,073 selon JCR 2018) ;

— A. Dahmane ; S. Larabi ; I.M. Bilasco ; C. Djeraba - Head pose estimation based on face symmetry analysis - Signal, Image and Video Processing (SIViP), 2014, pp 1-10. (Facteur d’impact : 1,643 selon JCR 2018) ;

— T. Danisman ; I.M. Bilasco - In-plane face orientation estimation in still images - Multimedia Tools and Applications, Springer Verlag, 2016, 75 (13), pp.7799-7829. (Facteur d’impact : 1,541 selon JCR 2018).

Ces publications relatent les activités menées dans le domaine de la caractérisation de l’in- dividu (genre, orientation de la tête) et de son comportement (expression faciale). Ces théma-

tiques se retrouvent également dans les projets européens ITEA2 TWIRL (2012-14), ITEA2 EM- PATHIC (2012-15) et ITEA3 PAPUD (2017-2020) auxquels j’ai contribué activement. La liste in- tégrale des publications est disponible en Partie IV, Chapitre 2 et à l’adresse suivante : http: //www.cristal.univ-lille.fr/~bilasco/single_publications.html

Par ailleurs, dans le cadre de mes activités de recherche, j’ai également participé à la conception de 3 corpus de données pour valider les différentes approches d’analyse faciale (estimation de pose et expression : FoxFaces et SNaP-2DFE, genre : Web Gender Dataset). De plus, j’ai contribué à la mise à disposition de nouvelles annotations concernant 4 corpus (GENKI-4K, LFW Pro, Caltech Faces, Youtube Faces) afin de pouvoir valider de manière exhaustive nos réalisations. Ces corpus complètent les corpus existants dans la communauté scientifique internationale. Une description plus détaillée de ces corpus est disponible dans la PartieIV, Chapitre2.

1.3.2 Autres communications

Depuis mon arrivée à CRIStAL (anciennement LIFL), j’ai pu contribuer à de nombreuses acti- vités de vulgarisation et dissémination. Dans ce qui suit, j’introduis ces activités par ordre chro- nologique. Mes premières activités de vulgarisation ont été réalisées, dès 2009, dans le cadre de la Plateforme Interactions, Réalité Virtuelle et Images (PIRVI,http://www.lifl.fr/PIRVI) de l’IRCICA. Mes contributions se sont organisées autour de la présentation de la salle «laboratoire magasin» hébergée par la plateforme et autour de la réalisation de démonstrations portant sur l’analyse des comportements humains (individu et groupe). Je suis notamment intervenu lors des événements organisés localement ou lors de visites d’extérieurs.

En octobre 2010 à Ghent (Belgique), j’ai participé aux activités de dissémination liées au projet ITEA2 CAM4HOME dans le cadre du Joint ITEA2 - Artemis Symposium, où le projet a été récom- pensé avec la médaille d’argent de l’Achievement Award. Dans le cadre de ce projet, j’ai coordonné la modélisation et la mise à disposition d’une plateforme générique de gestion et d’exploitation de métadonnées en vue d’adapter et d’enrichir le déploiement des contenus multimédia.

En mai 2011, j’ai été invité par Leif Hanlen (NICTA, Australia) pour présenter les travaux ré- cents que nous menions sur la thématique Extraction of human behavior from video streams au workshop bilatéral EU-Australia sur la thématique e-Health organisé à Budapest, Hongrie.

Entre décembre 2011 et juin 2012, je me suis fortement impliqué dans la réalisation de l’œuvre interactive Tempo Scaduto1

imaginée par Vincent Ciciliato, docteur en arts plastiques. Cette réalisa- tion a été faite en collaboration avec l’équipe Méthodes et outils pour l’interaction à gestes (MINT) de CRIStAL et l’entreprise INSID Inc. Nous avons mis en place un dispositif visuel interactif im- mergeant un « joueur » dans la réalité sur fond de guerre des mafias à Palerme en Sicile dans les années 80. Le « joueur », en immersion, peut, grâce à une analyse fine des gestes de la main, suivre et tirer sur l’auteur « pressenti » d’un meurtre imminent. L’œuvre a été exposée en France et à l’étranger dans les manifestations suivantes :

— Panorama 14, Studio d’Art Le Fresnoy, Tourcoing (2012) ;

— Journée Recherche : Art, Recherche et Technologie à Polytech Lille (2013) ; — Futur en Seine organisé par pôle de compétitivité Cap Digital à Paris (2013) ;

— Realidad Elastica, Laboral Centro de Arte y Creacion Industrial, Gijon, Asturias, Spain (2013).

En décembre 2012, j’ai participé à la présentation du projet ITEA2 TWIRL lors du Joint ITEA2 - Artemis Symposium. En décembre 2013, j’ai réitéré ma participation au JointITEA2 - Artemis Sym- posium (Stockholm, Suède) en disséminant les résultats du projet ITEA2 Empathic. En marge des démonstrations, j’ai pu échanger avec les visiteurs sur les solutions empathiques à base de vision que nous avons intégrées dans le projet (disponibles sur le portail du projet2

). J’ai renouvelé cette expérience en 2015 lors du Joint ITEA2 - Artemis Symposium (Berlin, Allemagne) et du congrès In- novate, Connect, Transform - ICT 2015 (Lisbon, Portugal). J’ai également organisé une journée de démonstration fin 2014, à l’IRCICA, présentant les résultats du projet ITEA2 EMPATHIC à l’in- tention de Worldline (Atos). Je me suis également impliqué lors de l’inauguration du nouveau laboratoire CRIStAL (2 avril 2015 à Polytech Lille) dans la mise en place de démonstrations issues du projet européen ITEA2 EMPATHIC. Les démonstrations ont été vues par un large panel de per- sonnes incluant également des personnes issues du monde politique et industriel de la Métropole Européenne de Lille (MEL). À l’occasion de l’inauguration de la Métropole Européenne de Lille (MEL) en 2015, les démonstrateurs issus du projet ont été également présentés aux collaborateurs de la MEL (le 16 janvier) et au grand public (le 17 janvier).

De 2012 à 2018, j’ai présenté et coordonné les divers démonstrateurs reflétant les travaux de l’équipe lors de la journée Recherche Innovation Création (RIC). Cette journée est organisée an- nuellement à l’attention des étudiants inscrits en L3, M1 et M2 dans les formations de l’Université de Lille, de l’Ecole Centrale de Lille et de l’Institut Mines Telecom Lille Douai. Elle vise à faciliter l’accès des étudiants aux équipes de recherche du laboratoire CRIStAL. Suite aux démonstrations faites, nous avons été sollicités pour plusieurs stages et projets de fin d’études (L3 et M2). Deux de ces stages se sont poursuivis par la thèse de Benjamin Allaert, qui a soutenu ses travaux, en juin 2018, et celle de Delphine Poux, qui a démarré en octobre 2017.

Dans le document Analyse faciale dans les flux vidéo (Page 138-140)