• Aucun résultat trouvé

Actes de la 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCIT

N/A
N/A
Protected

Academic year: 2021

Partager "Actes de la 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCIT"

Copied!
693
0
0

Texte intégral

(1)Actes de la 6e conférence conjointe Journées d’Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 1 : Journées d’Études sur la Parole Christophe Benzitoun, Chloé Braud, Laurine Huber, David Langlois, Slim Ouni, Sylvain Pogodalla, Stéphane Schneider. To cite this version: Christophe Benzitoun, Chloé Braud, Laurine Huber, David Langlois, Slim Ouni, et al.. Actes de la 6e conférence conjointe Journées d’Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 1 : Journées d’Études sur la Parole. Benzitoun; Christophe and Braud; Chloé and Huber; Laurine and Langlois; David and Ouni; Slim and Pogodalla; Sylvain and Schneider; Stéphane. Jun 2020, Nancy, France. ATALA; AFCP, 2020. �hal-02798507v2�. HAL Id: hal-02798507 https://hal.archives-ouvertes.fr/hal-02798507v2 Submitted on 22 Jun 2020. HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.. Distributed under a Creative Commons Attribution| 4.0 International License.

(2) 6e conférence conjointe Journées d’Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition) (JEP-TALN-RÉCITAL) 1 Actes de la 6e conférence conjointe Journées d’Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 1 : Journées d’Études sur la Parole. Christophe Benzitoun, Chloé Braud, Laurine Huber, David Langlois, Slim Ouni, Sylvain Pogodalla, Stéphane Schneider (Éds.). Nancy, France, 08-19 juin 2020. 1. https://jep-taln2020.loria.fr/.

(3) Crédits : L’image utilisée en bannière est une photographie du vitrail « Roses et Mouettes », visible dans la maison Bergeret à Nancy. La photographie a été prise par Alexandre Prevot, diffusée sur flickr sous la licence CC-BY-SA 2.0. Le logo de la conférence a été créé par Annabelle Arena.. c 2020 ATALA et AFCP.

(4) Avec le soutien de.

(5) Message des présidents de l’AFCP et de l’ATALA. En ce printemps 2020, et les circonstances exceptionnelles qui l’accompagnent, c’est avec une émotion toute particulière que nous vous convions à la 6e édition conjointe des Journées d’Études sur la Parole (JEP), de la Conférence sur le Traitement Automatique des Langues Naturelles (TALN) et des Rencontres des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RECITAL). Après une première édition commune en 2002 (à Nancy, déjà !), et une expérience renouvelée avec succès en 2004, c’est désormais tous les quatre ans (Avignon 2008, Grenoble 2012) que se répète cet événement commun, attendu de pied ferme par les membres des deux communautés scientifiques voisines. Cette édition 2020 est exceptionnelle, puisque dans le cadre des mesures sanitaires liées à la pandémie mondiale de COVID-19 (confinement strict, puis déconfinement progressif), la conférence ne peut avoir lieu à Nancy comme initialement prévu, mais se déroule à distance, sous forme virtuelle, soutenue par les technologies de l’information et de la communication. Nous remercions ici chaleureusement les organisateurs, Christophe Benzitoun, Chloé Braud, Laurine Huber, David Langlois, Slim Ouni et Sylvain Pogodalla, qui ont dû faire preuve de souplesse, d’inventivité, de détermination, de puissance de travail, et de tant d’autres qualités encore, afin de maintenir la conférence dans ces circonstances, en proposant un format inédit. Grâce aux différentes solutions mises en œuvre dans un délai court, la publication des communications scientifiques est assurée, structurée, et les échanges scientifiques sont favorisés, même à distance. Bien entendu, nous regrettons tous que cette réunion JEP-TALN-RECITAL ne permette pas, comme ses prédécesseurs, de nouer ou renforcer les liens sociaux entre les différents membres de nos communautés respectives – chercheurs, jeunes et moins jeunes, académiques et industriels, professionnels et étudiants – autour d’une passionnante discussion scientifique ou d’un mémorable événement social. . . Notre conviction est qu’il est indispensable de maintenir à l’avenir de tels lieux d’échanges dans le domaine francophone, afin bien sûr de permettre aux jeunes diplômés de venir présenter leurs travaux et poser leurs questions sans la barrière de la langue, mais aussi de dynamiser nos communautés, de renforcer les échanges et les collaborations, et d’ouvrir la discussion autour des enjeux d’avenir, qui questionnent plus que jamais la place de la science et des scientifiques dans notre société. Lors de la précédente édition, nous nous interrogions sur les phénomènes et tendances liés à l’apprentissage profond et sur leurs impacts sur les domaines de la Parole et du TAL. Force est de constater que l’engouement pour ces approches dans nos domaines a permis un retour sur le devant de la scène des domaines liés à l’Intelligence Artificielle, animant parfois un débat tant philosophique que technique sur la place de la machine dans la société, notamment à travers le questionnement sur la vie privée de l’utilisateur. Ces questionnements impactent tant la Parole que le TAL, d’une part sur la place de la gestion des données, d’autre part sur les modèles eux-mêmes. Malgré ces questionnements, nous constatons que les acquis et les expertises perdurent, et les nouvelles approches liées à l’apprentissage profond ont permis un rapprochement des domaines de la Parole et du TAL, sans les dénaturer, à la manière des conférences JEP-TALN-RECITAL qui créent un espace plus grand d’échange et d’enrichissement réciproques. Nous terminons ces quelques mots d’ouverture en remerciant l’ensemble des personnes qui ont rendu possible cet événement qui restera, nous l’espérons, riche et passionnant, malgré les circonstances. L’ATALA et l’AFCP tiennent tout d’abord à réitérer leurs remerciements aux organisateurs des JEP, de TALN et de RECITAL, qui sont parvenus à maintenir le cap à travers vents et marées. Nos remerciements vont également à l’ensemble des membres des comités de programme, dont le travail et l’implication ont permis de garantir la qualité et la cohérence du programme finalement retenu. Un grand merci aux relecteurs pour le temps et le soin qu’ils ont dédiés à ce travail anonyme et indispensable. Ils se reflètent dans la qualité des soumissions que chacun pourra découvrir sur le site de la conférence. En conclusion, cette 6e édition conjointe JEP-TALN-RECITAL est exceptionnelle parce qu’elle se tient dans un contexte de crise généralisée — crise sanitaire, économique, voire sociale et politique. Mais nous iv.

(6) formons le vœu qu’elle reste également dans les annales pour la qualité des échanges scientifiques qu’elle aura suscités, et pour le message envoyé à nos communautés scientifiques et à la société dans son ensemble, un message de détermination et de confiance en l’avenir, où la science et les nouvelles technologies restent au service de l’humain.. Véronique Delvaux, présidente de l’Association Francophone de la Communication Parlée Christophe Servan, président de l’Association pour le Traitement Automatique des LAngues. v.

(7) Préface En 2002, l’AFCP (Association Francophone pour la Communication Parlée) et l’ATALA (Association pour le Traitement Automatique des Langues) organisèrent conjointement leurs principales conférences afin de réunir en un seul lieu, à Nancy, les communautés du traitement automatique et de la description des langues écrites, parlées et signées. En 2020, la sixième conférence commune revient à Nancy, après Fès (2004), Avignon (2008), Grenoble (2012) et Paris (2016). Elle est organisée par le LORIA (Laboratoire lorrain de recherche en informatique et ses applications, UMR 7503), l’ATILF (Analyse et traitement informatique de la langue française, UMR 7118) et l’INIST (Institut de l’information scientifique et technique) et regroupe : — les 33es Journées d’Études sur la Parole (JEP), — la 27e conférence sur le Traitement Automatique des Langues Naturelles (TALN), — la 22e Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL). Les circonstances particulières liées à l’épidémie de Covid-19 en France et dans le monde ont conduit à une virtualisation de la conférence. Ainsi, malgré un rassemblement physique qui n’a pu avoir lieu, diffusions, présentations (au gré des auteurs) et discussions des articles acceptés ont lieu sur le site internet de la conférence. Les tutoriels, certains ateliers, et le salon de l’innovation qui accompagnent la conférence ont cependant dû être annulés, mais les ateliers suivants sont maintenus : — Défi Fouille de Textes (DEFT 2020), — Éthique et TRaitemeNt Automatique des Langues (ÉTeRNAL). La conférence accueille également des conférencières et conférenciers invités dont les exposés sont diffusés sur le site : Dirk Hovy (université de Bocconi, Milan, Italie, invité ÉTeRNAL) ainsi que Marie-Jean Meurs (Université du Québec à Montréal, UQAM, Canada) et Hugo Cyr (Faculté de science politique et droit à l’Université du Québec à Montréaln UQAM, Canada). En raison des circonstance particulières, un exposé conjoint de Christine Meunier (Laboratoire Parole et Langage LPL, CNRS, Aix-en-Provence, France) et Christophe Stécoli (police technique et scientifique française) a dû être annulé et reporté à une journée spéciale en septembre 2020. Ces actes regroupent les articles des conférences JEP (volume 1), TALN (volume 2), RÉCITAL (volume 3), les articles décrivant les démonstrations (volume 4), et les articles des ateliers DEFT (volume 5) et ÉTeRNAL (volume 6). Pour la première fois, un appel spécifique à résumés en français d’articles parus dans une sélection de conférences internationales en 2019 était également proposé (volume 4). Un appel spécifique apprenti·e·s chercheur·euse·s destiné aux étudiants de licence, de master, ou en première année de thèse a également été proposé, pour leur proposer des présentations courtes ou sous forme de poster de leurs projets. Pour les JEP, 87 articles ont été soumis, parmi lesquels 74 ont été sélectionnés, soit un taux de sélection de 85%. Pour TALN, 58 articles ont été soumis, parmi lesquels 37 ont été sélectionnés, soit un taux de sélection de 63%, dont 10 comme article longs (17% des soumissions) et 27 comme article courts dont 20 en présentation orale (34% des soumissions) et 7 en présentation poster (12% des soumissions). Pour RÉCITAL, 22 articles ont été soumis, parmi lesquels 16 ont été sélectionnés, soit un taux de sélection de 73%. Nous souhaitons vivement remercier toutes les personnes qui ont participé à ce travail de relecture et de sélection : — l’ensemble des relecteurs (voir page xi), — le comité de programme des JEP (voir page viii), — le comité de programme de TALN (voir page ix), — le comité de programme de RÉCITAL (voir page x). Nous souhaitons également remercier nos sociétés savantes : l’AFCP, assurant la continuité des éditions successives des JEP, et l’ATALA, dont le CPerm (comité permanent) assure la continuité des éditions vi.

(8) successives de TALN. Nous remercions le comité d’organisation et les nombreuses personnes qui ont assuré le soutien administratif et technique pour que cette conférence se déroule dans les meilleures conditions, et en particulier Yannick Parmentier pour son travail pour la diffusion de ces actes sur HAL et les différents sites d’archives ouvertes (anthologie ACL et talnarchives.atala.org/). Nous remercions enfin tous les partenaires institutionnels et industriels qui nous ont fait confiance, en particulier l’université de Lorraine, le CNRS, l’Inria, le LORIA, l’ATILF, l’INIST, le master TAL de l’Institut des Sciences du Digital Management & Cognition (IDMC), le projet OLKI de l’initiative Lorraine Université d’Excellence (LUE), la Région Grand Est, The Evaluations and Language resources Distribution Agency (ELDA), le projet ANR PARSEME-FR, la délégation générale à la langue française et aux langues de France (DGLFLF), l’Association des Professionnels des Industries de la Langue (APIL) et les entreprises Synapse, Yseop et Orange. Bonne conférence à toutes et à tous !. Les présidentes et présidents JEP : David Langlois et Slim Ouni TALN : Chloé Braud et Sylvain Pogodalla RÉCITAL : Christophe Benzitoun et Laurine Huber. vii.

(9) Comités Comité de programme des JEP Martine Adda-Decker (Laboratoire de Phonétique et Phonologie, CNRS) Jean-Francois Bonastre (LIA, Université d’Avignon) Fethi Bougares (LIUM, Le Mans Université) Philippe Boula De Mareüil (LIMSI, CNRS) Hervé Bredin (LIMSI, CNRS) Olivier Crouzet (LLING, Université de Nantes) Elisabeth Delais-Roussarie (LLING, Université de Nantes) Véronique Delvaux ( Laboratoire de Phonétique, IRSTL, Université de Mons) Camille Fauth (LiLPa, Université de Strasbourg) Emmanuel Ferragne (CLILLAC-ARP, Université de Paris) Cecile Fougeron (Laboratoire de Phonétique et Phonologie, CNRS) Corinne Fredouille (LIA, Université d’Avignon) Alain Ghio (LPL, CNRS) Camille Guinaudeau (LIMSI, Université Paris Sud) Anne Guyot Talbot (CLILLAC-ARP, Université de Paris 7) Bernard Harmegnies (Laboratoire de Phonétique, IRSTL, Université de Mons) Nathalie Henrich Bernardoni (Gipsa-lab, CNRS) Bassam Jabaian (LIA, Université d’Avignon) David Langlois (LORIA, Université de Lorraine) Yves Laprie (LORIA, CNRS) Anthony Larcher (LIUM, Université du Maine) Gwénolé Lecorvé (IRISA, Université de Rennes) Benjamin Lecouteux (LIG, Université Grenoble Alpes) Georges Linarès (LIA, Université d’Avignon) Damien Lolive (IRISA, Université Rennes) Julie Mauclair (IRIT) Yohann Meynadier (LPL, Aix-Marseille Université) Slim Ouni (LORIA, Université de Lorraine) Thomas Pellegrini (IRIT, Université de Toulouse) François Portet (LIG, Grenoble INP) Fabian Santiago (Structures Formelles du Langage, Université de Paris 8) Christophe Savariaux (Gipsa-lab, CNRS) Nathalie Vallee (Gipsa-lab, Université Grenoble Alpes) Ioana Vasilescu (LIMSI, CNRS). viii.

(10) Comités de programme TALN Maxime Amblard (LORIA, Université de Lorraine) Chloé Braud (IRIT, CNRS) Caroline Brun (Naver Labs Europe) Nathalie Camelin (LIUM, Université du Maine) Marie Candito (Universtité Paris 7) Vincent Claveau (IRISA, CNRS) Chloé Clavel (Telecom-ParisTech) Mathieu Constant (ATILF, CNRS, Université de Lorraine) Pascal Denis (Inria) Cécile Fabre (Université Toulouse 2) Thomas François (Université catholique de Louvain) Núria Gala (LPL, CNRS, Aix-Marseille Université) Natalia Grabar (STL, CNRS, Université Lille 3) Anne-Laure Ligozat (LIMSI, CNRS, ENSIIE, Université Paris-Saclay) Emmanuel Morin (LINA, Université de Nantes) Sylvain Pogodalla (LORIA, Inria) Solen Quiniou (LINA, Université de Nantes) Corentin Ribeyre (Etermind) Tim van de Cruys (IRIT, CNRS) Pierre Zweigenbaum (LIMSI, CNRS, Université Paris-Saclay). ix.

(11) Comité de programme RÉCITAL Jean-Yves Antoine (Université François Rabelais de Tours) Sonia Badene (Linagora, IRIT) Frédéric Béchet (LIF, Aix Marseille Université) Christophe Benzitoun (ATILF, Université de Lorraine) Maria Boritchev (LORIA, Inria) Léo Bouscarrat (EURA NOVA, Aix-Marseille Université) Manon Cassier (INALCO, Paris) Kevin Deturck (Viseo Technologies) Emmanuelle Esperança-Rodier (GETALP, Université Grenoble Alpes) Kim Gerdes (sorbonne nouvelle) Nicolas Hernandez (LINA, UMR 6241, CNRS, Université de Nantes) Lydia-Mai Ho-Dac (CLLE-ERSS, Université Toulouse Jean Jaurès) Laurine Huber (LORIA, Université de Lorraine) Sylvain Kahane (Modyco, Université Paris Ouest Nanterre) Gwénolé Lecorvé (IRISA, Université de Rennes, CNRS) Joël Legrand (LORIA, Inria, CNRS) Anne-Laure Ligozat (LIMSI, CNRS, ENSIIE, Université Paris-Saclay) Pierre Ludmann (LORIA, Université de Lorraine) Yann Mathet (Université de Caen) Anne-Lyse Minard (IRISA, CNRS) Sandrine Ollinger (ATILF, UMR 7118, CNRS) Yannick Parmentier (LORIA, Université de Lorraine) Justine Reynaud (LORIA, Université de Lorraine) Stella Zevio (LIPN, Université de Paris 13). x.

(12) Relectrices et relecteurs Gilles Adda (LIMSI, CNRS) Salah Ait-Mokhtar (Naver Labs Europe) Charlotte Alazard (Université Toulouse 2 Jean Jaurès) Alexandre Allauzen (LIMSI-CNRS, Université Paris-Sud) Pascal Amsili (Université Paris Diderot) Pierre André Hallé (Laboratoire de Phonétique et Phonologie, CNRS–Université Paris 3) Régine André-Obrecht (Université Paul Sabatier Toulouse III) Jean-Yves Antoine (Université François Rabelais de Tours) Nicolas Audibert (Laboratoire de Phonétique et Phonologie, CNRS–Université Paris 3) Nelly Barbot (IRISA, Université de Rennes 1) Claude Barras (LIMSI, CNRS) Loïc Barrault (University of Sheffield) Katarina Bartkova (ATILF, Université de Lorraine) Frédéric Béchet (LIF, Aix Marseille Université) Nathalie Bedoin (DDL, Université Lyon 2) Patrice Bellot (LSIS, CNRS, Aix-Marseille Université) Asma Ben Abacha (National Library of Medicine, National Institutes of Health) Delphine Bernhard (LiLPa, Université de Strasbourg) Roxane Bertrand (LPL, CNRS, Aix-Marseille Université) Laurent Besacier (Laboratoire d’Informatique de Grenoble) Yves Bestgen (F.R.S-FNRS et Université Catholique de Louvain) Frédéric Bimbot (IRISA, CNRS) Caroline Bogliotti (MODYCO, UMR 7114, CNRS, Université Paris Nanterre) Anne Bonneau (LORIA, CNRS) Stéphanie Borel (Université de Tours) Féthi Bougarès (LIUM, Le Mans Université) Leila Boutora (Laboratoire Parole et Langage, Aix Marseille Université) Paul Caillon (LORIA, Université de Lorraine) Mélanie Canault (DDL, Université Lyon 2) Thierry Charnois (LIPN, CNRS, Université de Paris 13) Chloé Clavel (Telecom-ParisTech) Maximin Coavoux (Université Grenoble Alpes, CNRS). Vincent Colotte (LORIA, Université de Lorraine) Juan Manuel Coria (LIMSI, Université ParisSaclay Paris 13) Benoît Crabbé (Université Paris 7) Lise Crevier Buchman (Laboratoire de Phonétique et Phonologie, CNRS, Hôpital Foch) Béatrice Daille (LINA, Université de Nantes) Géraldine Damnati (Orange Labs) Dan Dediu (Dynamique du Langage, UMR5596, Université Lumière Lyon 2 ) Joseph Di Martino (LORIA, Université de Lorraine) Gaël Dias (Université Caen Normandie) Amazouz Djegdjiga (LPP, Université Sorbonne Nouvelle – Paris 3) Benjamin Elie (IMSIA, ENSTA ParisTech) Iris Eshkol-Taravella (Université d’Orléans) Emmanuelle Esperança-Rodier (GETALP, Université Grenoble Alpes) Yannick Estève (LIA, Université d’Avignon) Dominique Estival (Western Sydney University) Olivier Ferret (CEA LIST) Lionel Fontan (Archean Labs) Karën Fort (Sorbonne Université) Claire Gardent (LORIA, CNRS) Eric Gaussier (LIG, Université Grenoble Alpes) Cédric Gendrot (LPP, Université Sorbonne Nouvelle – Paris 3) James German (Laboratoire Parole et Langage, Aix Marseille Université) Cyril Goutte (National Research Council Canada) Cyril Grouin (LIMSI, CNRS, Université ParisSaclay) Pierre André Hallé (LPP, Université Sorbonne Nouvelle – Paris 3) Olivier Hamon (Syllabs) Thierry Hamon (LIMSI, Université Paris-Saclay, CNRS, Université Sorbonne Paris Nord) Bernard Harmegnies (Institut de Recherche en Sciences et Technologies du Langage, Université de Mons) Nabil Hathout (CLLE, CNRS) Amir Hazem (LS2N, Université de Nantes) Nicolas Hernandez (LS2N, Université de Nantes) Fabrice Hirsch (Praxiling, Université Paul Valéry Montpellier 3) Thomas Hueber (GIPSA-lab, CNRS) Kathy Huet (Institut de Recherche en Sciences et Technologies du Langage, Université de Mons) xi.

(13) Stéphane Huet (LIA, Université d’Avignon) Mathilde Hutin (LIMSI, Université Paris-Saclay, CNRS, Université Sorbonne Paris Nord) Irina Illina (LORIA, Université de Lorraine) Christine Jacquin (LS2N Université de Nantes) Adèle Jatteau (STL, UMR 8163, Université de Lille, CNRS) Denis Jouvet (LORIA, Inria) Sylvain Kahane (Modyco, Université Paris Ouest Nanterre) Takeki Kamiyama (LPP, Université Paris 8 Vincennes-Saint-Denis) Hannah King (CLILLAC-ARP, Université Paris Diderot) Olivier Kraif (Université Grenoble Alpes) Matthieu Labeau (Telecom Paris) Mathieu Lafourcade (LIRMM, Université de Montpellier) Mohamed Lahrouchi (SFL, UMR 7023, CNRS Université Paris 8) Muriel Lalain (LPL, CNRS, Aix-Marseille Université) Joseph Lark (Dictanova) Thomas Lavergne (LIMSI, CNRS, Univ. Paris Sud, Université Paris Saclay) Guillaume Le Berre (LORIA, Université de Lorraine) Gwénolé Lecorvé (IRISA, Université de Rennes, CNRS) Benjamin Lecouteux (Laboratoire Informatique de Grenoble) Claire Lemaire (Université Grenoble Alpes) Yves Lepage (Waseda University) Joseph Le Roux (LIPN, Université de Paris 13) Veronika Lux (ATILF, CNRS) Paolo Mairano (STL, UMR 8163, Université de Lille) Anna Marczyk (LPL, CNRS, Aix-Marseille Université) Denis Maurel (Université François Rabelais de Tours) Christine Meunier (LPL, CNRS, Aix-Marseille Université) Alexis Michaud (LACITO, CNRS) Richard Moot (LIRMM, CNRS) Véronique Moriceau (LIMSI, CNRS) Philippe Muller (IRIT, Université de Toulouse) Alexis Nasr (LIF, Université de la Méditerranée) Sylvain Navarro (CLLE-ERSS, CNRS) Luka Nerima (Université de Genève) Aurélie Névéol (LIMSI, CNRS, Université ParisSaclay). Jian-Yun Nie (Université de Montreal) Damien Nouvel (INaLCO) Nicolas Obin (IRCAM) Yannick Parmentier (LORIA, Université de Lorraine) Sebastian Peña Saldarriaga (Dictanova) Marie Philippart de Foy (Université de Mons) Myriam Piccaluga (Institut de Recherche en Sciences et Technologies du Langage, Université de Mons) Claire Pillot-Loiseau (LPP, UMR 7018, CNRS, Université Sorbonne Nouvelle – Paris 3) Serge Pinto (LPL, CNRS, Aix-Marseille Université) Agnès Piquard (LORIA, CNRS, Université de Lorraine) Thierry Poibeau (LaTTiCe, CNRS) Alain Polguère (ATILF Université de Lorraine) Laurent Prévot (LPL, CNRS, Aix-Marseille Université) Jean-Philippe Prost (LIRMM, Université de Montpellier) Christian Raymond (IRISA, INSA de Rennes) Christian Retoré (LIRMM, Université de Montpellier) Albert Rilliard (LIMSI, CNRS, Université ParisSaclay) Virginie Roland (Institut de Recherche en Sciences et Technologies du Langage, Université de Mons) Sophie Rosset (LIMSI, CNRS, Université ParisSaclay) Véronique Sabadell (LPC, Aix Marseille Université) Stéphane Schneider (INIST, CNRS) Didier Schwab (Université Grenoble Alpes) Pascale Sébillot (IRISA, INSA de Rennes) Djamé Seddah (Almanach, Université Paris la Sorbonne) Gilles Serasset (LIG, Université Grenoble Alpes) Romain Serizel (LORIA, Université de Lorraine) Kamel Smaïli (LORIA, Université de Lorraine) Rudolph Sock (LiLPa, Université de Strasbourg) Ludovic Tanguy (CLLE, CNRS) Xavier Tannier (LIMICS, Sorbonne Université, INSERM) Andon Tchechmedjiev (IMR, Mines Alès) Juan-Manuel Torres-Moreno (LIA, Université d’Avignon) Nicolas Turenne (LISIS, INRA) Béatrice Vaxelaire (LiLPa, Université de Strasbourg) xii.

(14) Anne Vilain (GIPSA-lab, Université de Grenoble Alpes) Coriandre Vilain (GIPSA-lab, Université de Grenoble Alpes) Guillaume Wisniewski (LLF, Université de Paris) Jane Wottawa (LIUM, Le Mans Université). Yaru Wu (LPP, MoDyCo, Université Paris Nanterre) Kossi Seto Yibokou (LiLPa, Université de Strasbourg) François Yvon (LIMSI, CNRS, Université ParisSud). xiii.

(15) Table des matières ’Il était une fois’ les patterns prosodiques des contes de fée Rim Abrougui, Katarina Bartkova. 1. Production de la continuation du français par des apprenants japonophones : gestion de la F0 et de la durée 10 Rachel Albar La pause chez les personnes âgées - une étude exploratoire Betty Appavoo, Camille Fauth, Rudolph Sock, Béatrice Vaxelaire. 19. Reconnaissance automatique de la parole : génération des prononciations non natives pour l’enrichissement du lexique 27 Ismael Bada, Dominique Fohr, Irina Illina La phonotaxe du russe dans la typologie des langues : focus sur la palatalisation Ekaterina Biteeva Lecocq, Nathalie Vallée, Denis Faure-Vincent. 36. Débit et réduction vocalique : effets de la tâche de parole et du locuteur Angélina Bourbon, Daria D’Alessandro, Cécile Fougeron. 45. Voice Onset Time en code-switching anglais-français : une étude des occlusives sourdes en début de mot 54 Marguerite Cameron Où en sommes-nous dans la reconnaissance des entités nommées structurées à partir de la parole ? 64 Antoine Caubrière, Sophie Rosset, Yannick Estève, Antoine Laurent, Emmanuel Morin PTSVOX : une base de données pour la comparaison de voix dans le cadre judiciaire Anaïs Chanclu, Laurianne Georgeton, Corinne Fredouille, Jean-Francois Bonastre. 73. Dis-moi comment tu varies ton débit, je te dirai qui tu es Estelle Chardenon, Cécile Fougeron, Nicolas Audibert, Cédric Gendrot. 82. Caractérisation du locuteur par CNN à l’aide des contours d’intensité et d’intonation : comparaison avec le spectrogramme 91 Gabriele Chignoli, Cédric Gendrot, Emmanuel Ferragne C’est ”mm-hm, oui” ou ”mm-hm, non” ? Propositions pour une grammaire des composantes acoustiques des interactions nasalisées 100 Aurélie Chlébowski, Nicolas Ballier Variation prosodique des styles de parole et interface syntaxe-prosodie : Étude sur corpus à grande échelle 109 George Christodoulides Proximité rythmique entre apprenants et natifs du français Évaluation d’une métrique basée sur le CEFC 118 Sylvain Coulange, Solange Rossato. xiv.

(16) Étude comparative des paramètres d’entrée pour la synthèse expressive audiovisuelle de la parole par DNNs 127 Sara Dahmani, Vincent Colotte, Slim Ouni Rythme et contrôle articulatoire : étude préliminaire du Human Beatbox Alexis Dehais Underdown, Paul Vignes, Lise Crevier-Buchman, Didier Demolin. 136. Unités prosodiques et grammaire intonative du français : vers une nouvelle approche Elisabeth Delais-Roussarie, Brechtje Post, Hiyon Yoo. 145. Quel type de systèmes utiliser pour la transcription automatique du français ? Les HMM font de la résistance 154 Paul Deléglise, Carole Lailler Adaptations sur le F1 et le débit en réponse à diverses perturbations Ivana Didirková, Leonardo Lancia, Cécile Fougeron. 163. Perception des consonnes dans la dysarthrie parkinsonienne : effets du contexte phonémique, prosodique et lexical 172 Danielle Duez, Alain Ghio Alain, François Viallet Statistiques des sons naturels et hypothèse du codage efficace pour la perception de la musique et de la parole : Mise en place d’une méthodologie d’évaluation 181 Agnieszka Duniec, Olivier Crouzet, Elisabeth Delais-Roussarie Adaptation de domaine non supervisée pour la reconnaissance de la langue par régularisation d’un réseau de neurones 190 Raphaël Duroselle, Denis Jouvet, Irina Illina Modifications des flux aérodynamiques de la parole après chirurgie naso-sinusienne Amélie Elmerich, Angélique Amelot, Lise Crevier-Buchman. 199. Reconnaissance de parole beatboxée à l’aide d’un système HMM-GMM inspiré de la reconnaissance automatique de la parole 208 Solène Evain, Adrien Contesse, Antoine Pinchaud, Didier Schwab, Benjamin Lecouteux, Nathalie Henrich Bernardoni Perception et production du trait de nasalité vocalique chez l’enfant porteur d’implants cochléaires 217 Sophie Fagniart, Brigitte Charlier, Véronique Delvaux, Anne Huberlant, Kathy Huet, Myriam Piccaluga, Isabelle Watterman, Bernard Harmegnies Une nouvelle mesure de la réverbération pour prédire les performances a priori de la transcription de la parole 226 Sébastien Ferreira, Jérôme Farinas, Julien Pinquier, Julie Mauclair, Stéphane Rabant Analyse de l’effet de la réverbération sur la reconnaissance automatique de la parole Sébastien Ferreira, Jérôme Farinas, Julien Pinquier, Julie Mauclair, Stéphane Rabant. 235. Représentation du genre dans des données open source de parole Mahault Garnerin, Solange Rossato, Laurent Besacier. 244. Reconnaissance de phones fondée sur du Transfer Learning pour des enfants apprenants xv.

(17) lecteurs en environnement de classe Lucile Gelin, Morgane Daniel, Thomas Pellegrini, Julien Pinquier. 253. Informations segmentales pour la caractérisation phonétique du locuteur : variabilité inter- et intra-locuteurs 262 Cedric Gendrot, Emmanuel Ferragne, Thomas Pellegrini Evaluation de l’intelligibilité de patients avec traitement du cancer des cavités orales et pharyngales 271 Alain Ghio, Muriel Lalain, Marie Rebourg, Corinne Fredouille, Virginie Woisard Apprentissage automatique de représentation de voix à l’aide d’une distillation de la connaissance pour le casting vocal 280 Adrien Gresse, Mathias Quillot, Richard Dufour, Jean-François Bonastre Lénition et fortition des occlusives en coda finale dans deux langues romanes : le français et le roumain 289 Mathilde Hutin, Adèle Jatteau, Ioana Vasilescu, Lori Lamel, Martine Adda-Decker Sur l’utilisation de la reconnaissance automatique de la parole pour l’aide au diagnostic différentiel entre la maladie de Parkinson et l’AMS 299 Imed Laaridh, Julie Mauclair Variation stylistique en français québécois : l’effet de l’identité de l’interlocuteur Mélanie Lancien. 308. De la possibilité d’un relâchement des voyelles hautes dans les troncations finissant par /v, z, Z, K/ en français québécois 317 Mélanie Lancien Paramètres acoustiques et phonétiques dans la parole parkinsonienne avant et après traitement LSVT LOUD R 326 Maëlle Le Cerf, Emmanuel Ferragne Étude comparative de corrélats prosodiques de marqueurs discursifs français et anglais selon leur fonction pragmatique 335 Lou Lee, Denis Jouvet, Katarina Bartkova, Yvon Keromnes, Mathilde Dargnat Phénomènes de proéminence dans les subordonnées en conversation spontanée Manon Lelandais. 344. Une base de données de phrases en français pour l’étude du rôle conjoint des incertitudes sémantique et acoustique dans la perception de la parole 353 Loriane Leprieur, Olivier Crouzet, Etienne Gaudrain Introduction d’informations sémantiques dans un système de reconnaissance de la parole362 Stéphane Level, Irina Illina, Dominique Fohr Production de la parole en réponse à de multiples perturbations du feedback auditif Jinyu Li, Leonardo Lancia. 370. Prédiction continue de la satisfaction et de la frustration dans des conversations de centre d’appels 379 xvi.

(18) Manon Macary, Marie Tahon, Yannick Estève, Anthony Rousseau Production de parole chez l’enfant porteur d’implant cochléaire : apport de la Langue française Parlée Complétée 388 Laura Machart, Anne Vilain, Hélène Lœvenbruck, Geneviève Meloni, Clarisse Puissant Détection de la somnolence par estimation d’erreurs de lecture Vincent P. Martin, Gabrielle Chapouthier, Mathilde Rieant, Jean-Luc Rouas, Pierre Philip. 397. Détection de la somnolence objective dans la voix Vincent P. Martin, Jean-Luc Rouas, Pierre Philip. 406. (Article retiré à la demande des auteurs). 415. Représentation phonologique des signes à deux mains en LSF : faut-il reconsidérer l’orientation absolue dans les modèles phonologiques des langues des signes ? 424 Justine Mertz La mobilisation du tractus vocal est-elle variable selon les langues en parole spontanée ?433 Christine Meunier, Morgane Peirolo, Brigitte Bigi Interaction entre durée et position dans la perception des fricatives voisées chuchotées 442 Yohann Meynadier, Noël Nguyen, Sophie Dufour Analyse d’erreurs de transcriptions phonémiques automatiques d’une langue « rare » : le na (mosuo) 451 Alexis Michaud, Oliver Adams, Séverine Guillaume, Guillaume Wisniewski Comment l’oreille de présentation affecte-t-elle la capacité des francophones à discriminer des contrastes accentuels natifs et non-natifs ? 463 Amandine Michelas, Sophie Dufour Beatboxer, est-ce parler ? Ce que nous en dit l’étude de la dynamique articulatoire d’un beatboxer 472 Annalisa Paroni, Nathalie Henrich Bernardoni, Christophe Savariaux, Pierre Baraduc, Hélène Lœvenbruck Différences acoustiques inter-genres chez des bilingues Anglais/Français : une étude des formants vocaliques et de la qualité de voix 480 Erwan Pépiot, Aron Arnold Corrélats acoustiques et perceptifs de la personnalité perçue à travers la voix dans une population de dysphoniques légères 489 Amelia Pettirossi, Nicolas Audibert, Lise Crevier-Buchman Émergence du contraste entre les fricatives sibilantes /s/ - /S/ du français en contexte d’acquisition bilingue 498 Marie Philippart de Foy, Véronique Delvaux, Kathy Huet, Morgane Monnier, Myriam Piccaluga, Bernard Harmegnies Apport des comptines pour la prononciation du /y/ français chez des enfants italophones : une étude perceptive pilote 507 xvii.

(19) Claire Pillot-Loiseau, Martina Grando Évaluation de systèmes apprenant tout au long de la vie Yevhenii Prokopalo, Sylvain Meignier, Olivier Galibert, Loïc Barrault, Anthony Larcher. 516. La voix actée : pratiques, enjeux, applications 525 Mathias Quillot, Lauriane Guillou, Adrien Gresse, Rafaël Ferro, Raphaël Röth, Damien Malinas, Richard Dufour, Axel Roebel, Nicolas Obin, Jean-François Bonastre, Emmanuel Ethis Étude des facteurs affectant la compréhensibilité de documents multimodaux : une étude expérimentale 534 Estelle Randria, Lionel Fontan, Maxime Le Coz, Isabelle Ferrané, Julien Pinquier Évaluer l’intelligibilité, mots ou pseudo-mots ? Comparaison entre deux groupes d’auditeurs 543 Marie Rebourg, Muriel Lalain, Alain Ghio, Corinne Fredouille, Nicolas Fakhry, Virginie Woisard Sur le voisement des consonnes fricatives finales en français du Québec Josiane Riverin-Coutlée. 552. Imprécision dans la production des voyelles : un potentiel marqueur infraclinique dans la maladie de Parkinson 561 Virginie Roland, Véronique Delvaux, Kathy Huet, Myriam Piccaluga, Bernard Harmegnies Modèles de l’enrouement de la voix Jean Schoentgen, Philipp Aichinger, Francis Grenez. 570. La « voyelle apicale » n’est pas une voyelle : étude acoustique et articulatoire de la voyelle apicale en chinois de Jixi 579 Bowei Shao, Rachid Ridouane Symbolisme phonétique du genre dans les prénoms français Alexandre Suire, Alba Bossoms Mesa, Michel Raymond, Melissa Barkat-Defradas. 588. Caractérisation des plosives finales dans des langues d’Asie : une étude multilingue du non relâchement 597 Thi-Thuy-Hien Tran, Nathalie Vallée, Christophe Savariaux, Inyoung Kim, Sunhee Kim Capacités d’apprentissage phonétique chez des patients aphasiques francophones : étude de cas 606 Clémence Verhaegen, Véronique Delvaux, Kathy Huet, Sophie Fagniart, Myriam Piccaluga, Bernard Harmegnies Qualité vocale dans l’acquisition d’une langue étrangère : le cas des apprenants sinophones en FLE 617 Dongjun Wei, Mohamed Embarki Réduction temporelle en français spontané : où se cache-t-elle ? Une étude des segments, des mots et séquences de mots fréquemment réduits 627 Yaru Wu, Martine Adda-Decker Les variations du schwa transitionnel en tachlhit : Une analyse acoustique Minmin Yang, Rachid Ridouane xviii. 636.

(20) Effets du sexe et de la langue parlée sur la production de la parole chez les locuteurs coréens et français 645 Dayeon Yoon, Nicolas Audibert, Cécile Fougeron Étude des caractéristiques spatio-temporelles de la production de la parole chez des patients glossectomisés 654 Hasna Zaouali, Béatrice Vaxelaire, Christian Debry, Rudolph Sock Perception des tons du mandarin par les apprenants français : effets des contextes segmental et syllabique 664 Qing Zhou, Didier Demolin. xix.

(21) Actes de la 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition) Nancy, France, 08-19 juin 2020. ‘Il était une fois’ les patterns prosodiques des contes de fée Rim Abrougui2, Katarina Bartkova1,2 (1) Atilf UL, 54000 Nancy, France (2) Université de Lorraine, 54000 Nancy, France {rim.abrougui;katarina.bartkova} @univ-lorraine.fr. RÉSUMÉ Nous étudions ici la différence des patterns prosodiques entre deux styles de lecture, un que nous appelons ‘lecture littéraire neutre’ et un style de ‘lecture des contes’. Les données appartenant au style de ‘lecture de contes’ comportent deux sous-ensembles, des contes destinés aux jeunes enfants (0-6 ans) et des contes destinés aux enfants plus âgés et aux adultes. Les corpus ont été manuellement annotés avec des étiquettes sémantico-prosodiques exprimant des attitudes, des émotions et d’autres styles prosodiques. Une analyse détaillée des caractéristiques prosodiques nous a permis d’identifier les traits pertinents des patterns intonatifs des différentes étiquettes et des différents styles de lecture. Une quantification vectorielle, utilisant essentiellement des informations de F0, a été utilisée pour dégager les patterns prosodiques typiques correspondant aux différentes étiquettes. Une classification automatique basée sur des paramètres prosodiques a montré une bonne identification des étiquettes quand leur fréquence était suffisamment élevée pour obtenir une modélisation robuste.. ABSTRACT ‘Once upon a time’ prosodic patterns of fairy tales Here, we study the difference in prosodic patterns between two reading styles, one that we call "neutral literary reading" and one corresponding to "storytelling reading". The data concerned with the “storytelling” style include two subsets, tales intended for young children (0-6 years) and tales intended for older children and adults. The corpora have been manually annotated with semanticprosodic labels expressing attitudes, emotions and other prosodic styles. A detailed analysis of the prosodic characteristics allowed to identify the relevant features of the intonation patterns associated to the different labels and different reading styles. A vector quantization procedure, essentially using F0 values information, was used to identify the typical prosodic patterns of the different semanticprosodic labels. Using a tree classifier, an automatic classification based on the prosodic parameters showed a good identification of the labels when their frequency was high enough to obtain a reliable modeling.. MOTS-CLÉS : style de parole, prosodie, étiquette sémantico-prosodique KEYWORDS: speech style, prosody, prosodico-semantic label. Volume 1 : Journées d’Études sur la Parole, pages 1–9. hal : hal-02798508. Cette œuvre est mise à disposition sous licence Attribution 4.0 International..

(22) 1. Introduction. Le style de voix peut être identifié en grande partie par la prosodie utilisée. Si l’étude des styles est souvent réalisée sur l’écrit, elle est aussi omniprésente dans l’analyse orale. Les variations phoniques dues aux situations ou aux individus constituent les objets primordiaux dans le domaine de la phonostylistique. À travers la variation codée des paramètres prosodiques, se réalisent les différents styles de voix reflétant des informations implicites dans la communication qui restent souvent inaccessibles dans le sens explicite d’un énoncé (Ackerman, 1981). La variation de ces paramètres contribue à la perception naturelle de la parole car elle permet d’identifier les attitudes et les émotions exprimées par le locuteur. L’analyse et la modélisation de ces paramètres demeurent un défi permanent pour les chercheurs afin d’introduire le naturel dans la synthèse automatique de la parole (Gelin et al., 2010, Doukhan, 2007, Cambell, & Mokhtari, 2003). L’analyse acoustique des styles de voix a démontré que les paramètres prosodiques varient systématiquement en fonction de la situation de communication et que ce sont ces variations qui reflètent l’expressivité (Beller, 2009). Cependant l’expressivité couvre un domaine encore plus vaste puisqu’elle peut se définir comme un indicateur vocal d’un état émotionnel, d’un style de parole ou même d’une intention implicite (Granström, & House, 2005). Ainsi, certains styles partagent les mêmes comportements prosodiques, comme par exemple la ressemblance dans l’utilisation des patterns de F0 entre les émotions ‘tristesse’ et ‘dégout’ (Scherer, 2005, Bartkova et al., 2016). Cette complexité des paramètres peut expliquer la multiplication des études sur la prosodie en relation avec l’expressivité abordée souvent dans un but de modélisation de l’expressivité pour les technologies vocales (Chella et al., 2008, Burkhardt, 2011). Dans notre étude, nous avons choisi de nous intéresser à la narration des contes de fée. Cela nous a apparu pertinent pour l’étude des styles de voix car le conte, qui est par définition un récit narratif rattaché primordialement à l’écrit, est tout d’abord oral par tradition, ce que témoigne le style de narration des conteurs. En effet, lorsqu’un conteur prend la parole pour lire une histoire, il exploite la variation de sa voix, et celle de sa prosodie, pour attirer l’attention de son public. De nombreuses études se sont intéressées au style des contes souvent dans le but de leur utilisation dans les technologies de la parole (Doukhan et al., 2011 ; Sarkar et al., 2014) ou pour analyser d’une façon détaillée les phénomènes prosodiques pertinents pour l’expression de ce style de parole (DelaisRoussarie & Yoo, 2014). L’autre style de parole étudié est la lecture de texte littéraire que l’on peut considérer comme un style plus neutre. La lecture ‘neutre’ se définit comme la parole préparée, elle est donc construite, et tend vers l’écrit (Bazillon et al., 2008). En cela, la lecture ‘neutre’ est comme la lecture des contes puisque les deux sont des genres narratifs. Elle est définie en tant que ‘neutre’, car son expressivité demeure à un degré qui avoisine ‘0’, (Tao, 2006, Inanoglu, 2009). C’est pour cela que nous n’enregistrons pas de variations importantes de ses patterns prosodiques. Nous avons analysé la lecture ‘neutre’ pour la comparer avec le style de lecture des contes en mettant en évidence les points communs et les points de différence entre ces deux styles. Le but de notre étude est de comparer les patterns prosodiques des contes destinés pour les auditeurs jeunes (narration visant un public d’enfants de moins de 6 ans) avec les contes destinés à des auditeurs plus âgés et des adultes. Notre objectif est d’étudier si une différence de style existe et si elle existe, nous voudrions vérifier si elle est portée par la majorité des patterns intonatifs ou si c’est la fréquence d’occurrence de certains patterns qui caractériserait un style de voix. La deuxième. 2.

(23) question que nous nous posons dans cette étude, concerne la possibilité d’utilisation de modèles de patterns intonatifs pour annoter des corpus de parole. En effet, il n’est pas facile pour un annotateur humain de faire abstraction de contenu sémantique et de se focaliser exclusivement sur les caractéristiques prosodiques de la parole. Or, cela serait tout à fait envisageable si une approche automatique était mise en place. Mais pour une telle approche une bonne identification automatique des patterns prosodiques s’avère indispensable.. 2. Corpus de parole. Notre corpus est constitué de 3 styles de lecture : style conte de fée destiné aux jeunes auditeurs (‘CP’, pour contes pour les petits), style conte de fée destiné aux auditeurs plus âgés (‘CG’, pour contes pour les grands) et style de lecture que nous considérerons comme un style neutre de lecture de texte littéraire (‘LN’), destiné aux adultes et adolescents. La quasi-totalité de nos données sonores ont été obtenues à partir du site de la littérature audio (http://www.litteratureaudio.com/).. 2.1. Traitement prosodique du corpus. Des traitements manuels, semi-automatiques et automatiques ont été appliqués sur les données. Les données de parole ont été transcrites orthographiquement (avec l’outil Transcriber) et ont été segmentées automatiquement par le logiciel Astali (http://ortolang108.inist.fr/astali/). La segmentation automatique a été manuellement vérifiée et corrigée quand cela semblait nécessaire. Des paramètres de F0 et d’énergie ont été calculés avec le logiciel Aurora (ETSI, 2005). À partir de ces données, différentes caractéristiques prosodiques (pentes et niveau de F0, durée et énergie vocalique normalisées …) ont été calculées. Ces données prosodiques ont été utilisées pour segmenter automatiquement la base de données en groupes intonatifs (GI) en évaluant des marques prosodiques sur les syllabes finales des unités lexicales (Bartkova et al., 2012). Pour cette segmentation une vérification manuelle a été également réalisée. Les GI ont été utilisés comme fenêtre d’observation des paramètres prosodiques devenant également des unités d’étiquetage. Chaque GI a été étiqueté (voir section 2.2), et a été représenté par 6 valeurs de F0, 3 valeurs correspondant aux valeurs de F0 sur la dernière voyelle (début, milieu et fin), une valeur correspondant à la première voyelle et la valeur la plus basse et la valeur la plus haute parmi les valeurs restantes, tout en respectant l’ordre temporel de ces valeurs. Si le groupe prosodique ne contenait pas assez de voyelles (4 au minimum pour obtenir les 6 valeurs de F0), alors une interpolation a été effectuée à partir des valeurs disponibles. La décision de représenter la dernière voyelle par 3 valeurs de F0 a été prise dans un souci de représenter correctement un pattern intonatif de forme complexe (circonflexe, concave, etc.) présent surtout dans le style des contes.. Figure 1 : Exemples de formes intonatives complexes et des (6) valeurs de F0 retenues pour chaque GI. 3.

(24) Le corpus CP comporte 6 contes lus par 4 locuteurs. Le corpus CG comporte 3 contes lus par 3 locuteurs et le corpus LN comporte 7 enregistrements lus par 6 locuteurs. Dans chaque corpus, les locuteurs-conteurs était féminins et masculins.. CP CG LN. Nb Mots 4605 8379 10995. VA syl/sec 4.6 4.9 5.5. Durée (ms) V[-acc] 79 (33) 75 (32) 68 (23). Durée (ms) V[+acc] 155 (61) 147 (62) 131 (40). GS (nb syll) 4 5 6. GI (nb syll) 2.4 2.6 3.0. Pause (ms) 627 517 639. Étendue voc. (st) 24 26 16. Table 1 : Caractéristiques des corpus utilisés (voir explications dans le texte) La table 1 indique la taille des corpus, ainsi que quelques informations sur l’organisation temporelle et les caractéristiques de la fréquence fondamentale de nos trois corpus. Le style le plus rapide (aussi bien par la vitesse d’articulation (VA) que par la durée des voyelles non-accentuées (V[-acc]) et accentuées (V[+acc]) est le style LN, et le plus lent est le style CP. C’est également le style CP qui a les groupes de souffles (GS) et les groupes intonatifs (GI) les plus courts (constitués en moyenne de 4 et de 2.4 syllabes respectivement). Le paramètre de l’étendue vocale du locuteur (en semi-tons dans le tableau) s’avère être très pertinent pour différencier les trois styles de parole. En effet elle est nettement plus large pour les styles de narration de contes (CP et CG) que pour le style LN. L’étendue vocale, pour un locuteur, correspond ici à la différence entre la valeur de F0 la plus élevée et la valeur la plus basse. Afin de pallier les éventuelles erreurs de détection de F0, les 2% des valeurs les plus basses et les plus élevées de F0 ont été écartées de l’estimation de l’étendue vocale.. 2.2. Étiquetage sémantico-prosodique des corpus. Nos corpus ont été étiquetés manuellement par des étiquettes sémantico-prosodiques reflétant différentes attitudes et émotions ainsi que des réalisations prosodiques liées à un style donné (Akpossan-Confiac, 2007). L’étiquetage a été réalisé par 2 étiqueteurs experts qui ont attribué à chaque GI une étiquette. Les étiquettes ont été structurées sur trois niveaux (voir la figure 2) nous permettant d’introduire un lissage en cas d’étiquettes peu fréquentes dans les corpus. Les étiquettes sémantico-prosodiques représentaient des attitudes et des émotions positives et négatives (Vaudable, 2012) et des réalisations prosodiques plus neutres. Niveau 1. Niveau 2. Niveau 3. Niveau 1. Niveau 2. Figure 2 : Etiquettes sémantico-prosodiques 4. Niveau 3.

(25) Lors de l’étiquettage sémantico-prosodique, l’attention des étiqueteurs devait se focaliser avant tout sur le pattern prosodique et non sur le contenu sémantique de l’énoncé. Les étiquettes sont distribuées d’une façon inégale dans les différents corpus. Dans le style LN, la très grande majorité (70%) des étiquettes correspondait au style ‘narration’. Le nombre d’étiquettes de ‘narration’ avoisinait à peu près 50% dans les deux styles de contes (CP & CG). Pour les étiquettes restantes, la distribution était peu équilibrée (voir la Figure 3), les fréquences d’occurrences les plus élevées ont été observées pour l’étiquette ‘suspense’ dans le style CG et ‘évidence’ dans le style CP.. Figure 3 : Fréquence d’occurence des étiquettes sémantico-prosodiques (l’étiquette « narration », n’est pas représentée sur la figure) Pour évaluer le niveau de l’accord inter-annotateur, un test sur un sous-ensemble réduit de données représentant chaque style a été mené avec 6 étiqueteurs non entrainés (étudiants en linguistique du niveau master). Le test du Kappa a été réalisé à partir de ces différentes annotations et les résultats ont montré un accord inter annotateur faible (0.3) pour l’ensemble des étiquettes posées. Pour les 3 étiquettes (‘emphase’, ‘désaccord’ et ‘narration’) l’accord Kappa était modéré (>0.4). Ce test montre un accord d’étiquetage acceptable pour un groupe non-entrainé mais spécialiste du langage et laisse penser qu’un accord plus élevé existe entre des annotateurs entraînés à la tâche ce qui était le cas lors de l’étiquetage de nos corpus.. 3. Patterns intonatifs. Afin d’identifier les patterns intonatifs typiques correspondant à nos étiquettes sémanticoprosodiques, nous avons utilisé la technique de la quantification vectorielle pour classer tous les patterns intonatifs associés aux étiquettes. Avant d’appliquer la quantification vectorielle, nous avons quantifié les valeurs de F0. Pour cela nous avons estimé une étendue vocale théorique des locuteurs, comme étant supérieure d’une octave et inférieure d’une demi-octave aux valeurs médianes de F0 de chaque locuteur (De Looze, Hirst, 2014). L’étendue vocale théorique a été divisée en 10 niveaux permettant d’exprimer les valeurs de F0 par un niveau tonal de 1 à 10 à l’intérieur de l’étendue vocale théorique. Lorsqu’une valeur de F0 sort de l’étendue vocale théorique, sa valeur quantifiée (son niveau tonal) sera supérieure à 10 ou inférieure à 1.. 5.

(26) 3.1. Patterns intonatifs représentatifs. Pour représenter chaque étiquette sémantico-prosodique par son pattern intonatif, nous avons sélectionné le centroïde de la classe obtenue par la quantification vectorielle qui regroupait un grand nombre d’éléments et qui présentait un écart-type faible, c’est-à-dire, dont la variation des paramètres des éléments regroupés était faible. Ainsi nous avons obtenu un pattern typique, représentatif par étiquette.. Figure 4 : Exemple de patterns intonatifs pour deux étiquettes ‘Peur’ et ‘Malice’ et pour les 3 styles (1 Niveau tonal = 1,8 semi-tons) La figure 4 présente les patterns intonatifs typiques obtenus avec la quantification vectorielle pour deux étiquettes sémantico-prosodiques. Ces exemples montrent une similitude dans l’expression de la ‘peur’ dans le style des contes (les deux patterns contiennent des valeurs de F0 d’un niveau élevé – valeurs comprises entre le niveau 7 et 11) alors que dans le style LN l’expression de la ‘peur’ est plus ‘contenue’, exprimée sur un niveau tonal plus bas (entre les niveaux 3 et 4.5). Quant à la ‘malice’, cette attitude est exprimée avec le même pattern intonatif dans les styles CG et LN et sur un niveau très élevé (plus haut que l’étendue vocale estimée, entre 11 et 13,5) pour le style CP.. CP CG LN. Narr. 2 ,7 4,9 3,6. CP CG LN. Malice 11,9 6,4 6,3. Émotions & attitudes positives Merv. Admir. Attendr. Emphase 1,4 7,3 1,4 7,0 1,2 5,7 1,4 5,6 2,5 4,2 3,0 4,3. Peur 9,8 7,7 3,6. Évidence 3,1 1,8 2,8. Émotions & attitudes négatives Tristesse Colère Déception 1,9 7,3 2,1 1,0 6,6 5,2 2,7 4,4 3,1. Joie 8,5 6,9 6,9. Susp. 1,8 7,4 4,6. Désaccord 8,0 2,0 5,0. Table 2 : Niveau tonal moyen des étiquettes sémantico-prosodiques (3,3 correspond à la valeur F0 médiane du locuteur) La variation des niveaux de F0 à l’intérieur d’un même pattern (sur un même GI), n’était pas très importante – les valeurs variaient modérément d’une voyelle à l’autre, par conséquent, il est permis de considérer que les F0 des patterns peuvent être caractérisés par leur niveau intonatif moyen. Pour pouvoir comparer d’une façon plus synthétique les patterns intonatifs correspondant aux différentes étiquettes des trois corpus étudiés, nous les représentons dans la table 2, par leur valeur moyenne,. 6.

(27) calculée sur les patterns représentatifs. Uniquement les étiquettes qui ont été observées dans les trois corpus, sont indiquées dans le tableau et seront analysées ci-après. Les valeurs des tonalités moyennes des différents patterns représentatifs nous montrent que les patterns du style CP ont le niveau tonal le plus extrême (le plus haut – couleur rouge dans la table 2 ou le plus bas – couleur bleue dans la table 2) dans presque 86% des cas. Quant au style LN, le niveau tonal de ses patterns intonatifs se situe majoritairement (dans 80% des cas) sur un niveau bas. Le style CG reste dans la plupart des cas entre les niveaux tonals de ces deux styles, pouvant être considéré comme un style ‘transitoire’ entre le style CP et le style LN. Si conformément à notre arborescence un regroupement plus global des étiquettes au niveau 1 est effectué (émotions & attitudes positives versus émotions & attitudes négatives) alors nous obtenons pour les patterns intonatifs positifs un niveau tonal moyen de 10.5 pour le style CP, un niveau de 6,2 pour le style CG et finalement un niveau tonal moyen de 4.4 pour le style LN. Pour les patterns intonatifs négatifs, nous obtenons de nouveau le niveau tonal le plus haut, 7,9, pour le style CP, le niveau tonal le plus bas, 2.3, pour le style LN, et de nouveau un niveau tonal intermédiaire de 6,7 pour le style CG.. 3.2. Classification automatique. L’étiquetage sémantico-prosodique des données de parole est fastidieux et comme indiqué dans la section 2.2, l’accord inter-annotateur pour les annotateurs non-experts n’est pas très élevé car la tâche reste très complexe. Par conséquent, l’utilisation d’une annotation automatique, basée essentiellement sur les indices prosodiques, serait très utile. Pour tester la faisabilité et la fiabilité d’une telle approche, nous avons réalisé une classification automatique de nos étiquettes afin d’évaluer si une identification automatique des étiquettes à partir des patterns intonatifs et de la durée quantifiée de la voyelle accentuée (voyelle finale) était envisageable. Pour la classification automatique, nous avons utilisé l’arbre de décision J48, disponible dans le toolkit weka (https://sourceforge.net/projects/weka/). Pour les tests, nous avons, d’une part, regroupé toutes les étiquettes de nos différents corpus (‘Tous corpus’), et d’autre part, nous avons également classifié les étiquettes de chacun des trois corpus séparément. Comme déjà mentionné, notre corpus LN est déséquilibré car la majorité des étiquettes de ce corpus correspond à la ‘narration’. Pour pallier au moins en partie ce biais, nous n’avons gardé qu’un cinquième de ces étiquettes dans les tests de classification. Les tests ont été réalisés pour les étiquettes se trouvant au niveau 3 (feuilles) et au niveau 2 (nœuds immédiatement supérieurs) de notre arborescence d’étiquettes (cf. figure 2). Niveau 3 Niveau 2. Tous corpus 45% 50%. CP 27% 43%. CG 33% 38%. LN 49% 55%. Table 3 : Taux d’identification correcte des étiquettes sémantico-prosodiques Les faibles résultats du ‘Niveau 3’ sont imputables au nombre réduit d’exemples pour certaines étiquettes, sauf l’étiquette ‘narration’. Quand un lissage est opéré sur les étiquettes (‘Niveau 2’) on obtient des résultats légèrement (LN) ou significativement (CP, CG) meilleurs pour les différents corpus Il nous a semblé intéressant de tester si le pattern intonatif de l’étiquette ‘narration’, très fortement présente dans nos corpus, est identifiable comme appartenant à un style de parole particulier, c’està-dire pouvant être identifié comme ‘narration-CP’, ‘narration-CG’ ou ‘narration-LN’. Nous avons 7.

(28) effectué un test de détection uniquement sur cette étiquette en sélectionnant un sous-ensemble du corpus LN pour éviter le biais de la surreprésentation des étiquettes appartenant à ce corpus. L’identification de l’appartenance du pattern de narration à un corpus particulier a atteint 65%. Les résultats plus détaillés sont dans le tableau de confusion de la table 4. CP CG LN. CP 40% 22% 6%. CG 44% 58% 14%. LN 16% 20% 80%. Table 4 : Classification de l’étiquette ‘narration’ Comme cela apparait dans la table 4, les étiquettes ‘narration’ sont fortement dépendantes des corpus. Les étiquettes ‘narration-CP’ ont été souvent confondues avec les étiquettes ‘narrationCG’. Les deux corpus étant des contes, leurs différences prosodiques sont probablement exprimées par d’autres étiquettes que celle de ‘narration’. Quand des confusions existent dans l’identification de l’étiquette ‘narration-CG’, elles se font aussi bien avec les étiquettes ‘narration-CP’ qu’avec les étiquettes ‘narration-LN’, suggérant ainsi un positionnement intermédiaire de ces étiquettes entre ces deux styles, CP et LN. Finalement, l’étiquette ‘narration-LN’ est très bien identifiée comme appartement au style de lecture et uniquement une très faible confusion (6%) existe avec les étiquettes ‘narration-CP’ et une confusion très légèrement plus élevée avec les étiquettes ‘narration-CG’ (14%).. 4. Conclusion. Le but de cette étude était d’étudier 3 styles de parole lue, deux appartenant à la lecture de contes et un au style de lecture neutre de textes littéraires. Le corpus de contes contenait des contes destinés aux enfants jeunes et des contes destinés aux enfants moins jeunes et aux adultes. Une différence des patterns intonatifs a été observée parmi ces 3 styles, le style CP étant le plus extrême et le style LN est le plus neutre. Il apparaît de cette étude, que les styles de lecture des contes et de lecture neutre n’ont pas de socle stylistico-prosodique commun important, ainsi, par exemple, même pour l’étiquette ‘narration’, très fréquente dans chaque style, les caractéristiques prosodiques sont fortement dépendantes de chaque style. Par conséquent, le style de parole doit être considéré comme un phénomène plus global que simplement l’apparition plus au moins fréquente d’étiquettes exprimant des attitudes ou des émotions. Nous voulions également tester si l’identification automatique des patterns prosodiques représentant des étiquettes sémantico-prosodiques était suffisamment fiable, afin de les utiliser dans l’avenir pour annoter des corpus de différents styles de voix. En effet, une telle annotation bien que nécessaire, reste chronophage et fastidieuse. De plus, un annotateur humain a souvent du mal à faire abstraction du contenu sémantique de la parole et à se focaliser uniquement sur les patterns intonatifs. Cependant, pour développer une approche d’étiquetage automatique performante, il faudrait disposer de corpus plus larges et représentatifs des différentes étiquettes ; en effet, le nombre limité d’occurrences de certaines étiquettes dans nos corpus n’a pas permis d’obtenir des modèles prosodiques suffisamment fiables pour une classification robuste.. 8.

(29) Références ACKERMAN B.P., (1981). Young Children’s Understanding of a Speaker’s Intentional Use of a False Utterance, Developmental Psychology, 17, (pp. 472-480) AKPOSSAN-CONFIAC, J., & DELUMEAU, F. (2007). Comment la prosodie donne du sens aux interjections?, Interfaces discours-prosodie : actes du 2ème Symposium international IDP07 & Colloque Charles Bally, Université́ de Genève, (pp. 335-347) BARTKOVA K., DELAIS-ROUSSARIE E., & SANTIAGO VARGAS F., (2012). PROSOTRAN : Un Système d’annotation Symbolique Des Faits Prosodiques Pour Les Données Non-Standards. In Proceedings of the Joint Conference JEP-TALN-RECITAL, Volume 1: JEP, Grenoble, France: ATALA/AFCP, (pp. 601– 608) https://www.aclweb.org/anthology/F12-1076 BARTKOVA K., JOUVET D., DELAIS-ROUSSARIE E., (2016) Prosodic Parameters and Prosodic Structures of French Emotional Data , 8th Speech Prosody, Boston, United States BAZILLON T., JOUSSE V., BÉCHET F., ESTÈVE Y., LINARÈS G. et LUZZATI D., (2008) La parole spontanée : transcription et traitement, In Revue Traitement Automatique des Langues (TAL), volume 49, (pp. 47–67) BELLER, G. (2009). Analyse et modèle génératif de l’expressivité́ . Application à la parole et à l’interprétation musicale, Thèse de doctorat, Université́ Paris VI, IRCAM. BURKHARDT F. (2011). An Affective Spoken Storyteller, In In Proceedings Interspeech, (pp. 3305-3306) https://www.isca-speech.org/archive/interspeech_2011/i11_3305.html CAMPBELL, N., & MOKHTARI, P. (2003). Voice Quality: the 4th Prosodic Dimension, 15th ICPhS, (pp. 2417-2420) CHELLA A., BARONE R.E., PILATO G., SORBELLO R. (2008). An Emotional Storyteller Robot. In AAAI Spring Symposium on Emotion, Personality and Social Behavior, March 26-28, Stanford University, Stanford DELAIS-ROUSSARIE E., YOO H., (2014). Rythme et synthèse de la parole : études comparées des patrons rythmiques de différents genres. Nouveaux Cahiers de Linguistique Française 31.pp. 237-247 http://www.llf.cnrs.fr/fr/node/4927 DE LOOZE C., HIRST D., (2014). The OMe (Octave-Median) scale: A natural scale for speech melody, In 7th Speech Prosody, 10.21437/SpeechProsody.2014-170 DOUKHAN, D. (2007). Synthèse de parole expressive au-delà du niveau de la phrase : le cas du conte pour enfant: conception et analyse de corpus de contes pour la synthèse de parole expressive, Thèse de doctorat, Université Paris 11. DOUKHAN D, RILLIARD A, ROSSET S, ADDA-DECKER M, D’ALESSANDRO C., (2011). Prosodic Analysis of a Corpus of Tales, In Proceedings INTERSPEECH ETSI ES 202 212 V1.1.1, STQ (2005). Distributed speech recognition; Extended advanced front-end feature extraction. GELIN R., D'ALESSANDRO C., LE Q., DEROO O., DOUKHAN D., MARTIN J., PELACHAUD C., RILLIARD A., and ROSSET S., (2010). Towards a storytelling humanoid robot. In AAAI Fall Symposium Series on Dialog with Robots, (pp 137-138) GRANSTRÖM, B., & HOUSE, D. (2005). Audiovisual representation of prosody in expressive speech communication. Speech Communication, 46(3-4), (pp. 473-484) INANOGLU, Z., & YOUNG, S. (2009). Data-driven emotion conversion in spoken English. Speech Communication, vol. 51, no. 3, (pp. 268–283) SARKAR P, HAQUE A, KUMAR DUTTA A, REDDY M G., HARIKRISHNA D M, PRASENJIT D., RASHMI V., NARENDRA N P, SUNIL Kr. S B, JAINATH YADAV K., RAO S., (2014). Designing Prosody Rule-set for Converting Neutral TTS Speech to storytelling style speech for Indian Languages: Bengali, Hindi and Telugu In 2014 Seventh International Conference on Contemporary Computing (IC3) SCHERER. K.R. (2005) What are emotions? And how can they be measured? Social Science Information, vol. 44(4), (pp 695-729) TAO, J., KANG, Y., & LI, A. (2006). Prosody conversion from neutral speech to emotional speech. IEEE Transactions on Audio, Speech, and Language Processing, vol. 14, no. 4, (pp.1145-1154) VAUDABLE Ch., & DEVILLERS L. (2012). Negative emotions detection as an indicator of dialogs quality in call centers, In Proceedings 37th ICASSP, Kyoto, Japan,. 9.

Références

Documents relatifs

Nous nous intéresserons ici à l’annotation des gestes, et plus précisément à la segmentation des unités gestuelles qui constituent la base d’une annotation

Nous avons répliqué l’expérience sur cette nouvelle base (qui n’est pas non plus celle de l’article initial), mais ne sommes pas parvenus à en reproduire les résultats (0,87

Nous avons présenté dans cet article une approche non-supervisée qui se base sur des modèles Transformer pour la génération de réponse en langage naturel dans le cadre des systèmes

Ainsi, dans le corpus d’entraînement, nous avons les phrases avec les formes étendues (exemple en (3)), alors que, dans le corpus de test, nous avons les phrases avec les

En ce printemps 2020, et les circonstances exceptionnelles qui l’accompagnent, c’est avec une émotion toute particulière que nous vous convions à la 6e édition conjointe des

Dans cet article, nous présentons des travaux expérimentaux comparant différents modèles de calcul de similarité entre phrases, pour résoudre deux tâches proposées dans le cadre

Il est à noter que lorsqu’une classe phonémique permet de faire basculer la classification du locuteur de correcte à erronée, il est très fréquent que les autres classes

Une vision souvent cons´ equentialiste Les apports de l’´ ethique d´ eontologique Conclusion et perspectives... Une th´ ematique en ´ eclosion dans un