• Aucun résultat trouvé

4. MÉTHODOLOGIE

4.4 Déroulement des expériences

4.4.2 Expériences avec la reconnaissance vocale (Tests 2 et 3)

Il s'agit des expériences menées avec le logiciel Dragon NaturallySpeaking.

Lors de ces expériences, nous avons demandé à tous les participants de rédiger à l'aide de

161 Aucun des participants n'a mis 20 minutes à relire son texte.

Dragon NS le texte du corpus (Texte 1 ou Texte 2) et la liste de phrases qui leur avaient été dictés lors du Test témoin (Test 1)162.

4.4.2.1 Objectifs

L'objectif premier de ces tests était de déterminer si le logiciel Dragon NS ferait gagner du temps aux participants francophones et italophones et s'il leur permettrait d'éviter certaines erreurs. Nous avions également pour objectif de déterminer si la spécialisation du système de Dragon NS améliorerait la RV des participants italophones.

4.4.2.2 Conditions et déroulement

L'une des conditions requises pour les expériences était d'avoir à notre disposition une salle silencieuse et possédant une bonne acoustique. Nous avons donc choisi d'utiliser l'une des salles informatiques de l'étage de la FTI dans le bâtiment Uni Mail de l'Université de Genève (salle 6281).

Comme lors du Test témoin (Test 1), nous avons utilisé BB FlashBack afin d'enregistrer l'écran de chacun des participants pendant les expériences163.

Avant de passer aux tests avec la reconnaissance vocale, nous avons présenté Dragon NS ainsi que la RV à chacun des participants. Une fois qu'ils se sentaient prêts, nous les avons aidés à créer leur profil utilisateur sur Dragon.

162 Afin de tester l'impact de la rédaction avec et sans RV et avec et sans spécialisation sur le même corpus.

163 Malgré de nombreuses tentatives, BB FlashBack a refusé de fonctionner lors du Test 3 (qui, dû au temps nécessaire à la spécialisation du système a eu lieu un jour différent de celui lors duquel nous avions mené les Tests 1 et 2). Nous avons donc fait usage d'une application smartphone à la fonction chronomètre et relevé manuellement toutes les erreurs ayant lieu lors de la reconnaissance. BB FlashBack nous a apporté un confort optionnel lors des expériences avec la RV sur système spécialisé. C'est pourquoi nous avons donc tenté les expériences sans l'utiliser lorsque nous avons été face à un bug de licence que nous ne pouvions pas résoudre dans l'immédiat.

4.4.2.3 Test sur système non personnalisé avec participants francophones et italophones (Test 2)

Le deuxième test (Test 2) avec les participants francophones et italophones a consisté à leur faire dicter le texte et les phrases individuelles qu'ils avaient dû rédiger sans l'aide de la reconnaissance vocale lors du Test témoin (Test 1).

Nous avons d'abord distribué à chacun des participants le texte et les phrases à dicter pour qu'ils en prennent connaissance164. Nous avons également laissé aux participants italophones la possibilité de s'entraîner à prononcer les mots ou les phrases de leur choix165.

Une fois les participants prêts, nous avons mis en route Dragon NS sans le personnaliser, et avons lancé BB FlashBack Express avant le début de l'utilisation de la RV.

Nous avons laissé les participants dicter à Dragon les données à retranscrire et ne sommes intervenue que lorsque les participants étaient bloqués (par exemple en cas de question ou quand les participants italophones souhaitaient répéter trop de fois166 un mot mal reconnu).

Une fois que les participants ont eu terminé d'utiliser Dragon NS, nous avons arrêté BB FlashBack et récupéré la vidéo obtenue. Nous avons également collecté le fichier issu de la reconnaissance vocale afin d'observer les erreurs s'y trouvant (Annexe 7 et 8).

4.4.2.4 Test sur système personnalisé avec les traducteurs italophones (Test 3)

Le troisième test a été réalisé avec le système de reconnaissance vocale spécialisé et une partie du groupe des participants italiens (voir Section 4.5.2.1).

Nous avons d'abord lancé Dragon NS en le personnalisant (c'est-à-dire en entraînant le

164 Lors des Tests 2 et 3, les participants ont utilisé le modèle du corpus que nous avions imprimé pour eux. Afin de ne pas trop les aider à se corriger, nous leur avons laissé la feuille sur laquelle figurait le texte du corpus (Texte 1 ou 2) et la liste de phrases uniquement avant et lors de la dictée. Une fois la dictée terminé, nous avons repris cette feuille afin que la post-édition soit effectuée sans aide supplémentaire.

165 Aucun des participants n'a souhaité s'entraîner à prononcer un mot ou une expression bien que nous leurs avions offert cette possibilité.

166 Plus de 4 fois.

système167). Pour ce faire, nous avons enrichi l'empreinte vocale Dragon (ou « profil utilisateur »168) des participants en leur faisant dicter d'autres textes prévus par le système.

Nous avons ensuite aidé chaque participant à rajouter les mots qui avaient été mal compris/

retranscrits par le système en y associant la prononciation spécifique de l'utilisateur concerné par ces erreurs.

Puis, nous avons effectué l'optimisation de chaque profil afin de vérifier si les spécialisations linguistiques et acoustiques pouvaient améliorer la rapidité de la reconnaissance vocale ainsi que sa précision.

Nous avons, enfin, laissé les participants dicter à Dragon NS la version du corpus qui leur avait été attribuée et ne sommes intervenue que lorsqu'ils étaient bloqués (par exemple, en cas de question ou de fausse manipulation)169.

Une fois que les participants ont eu terminé d'utiliser Dragon NS, nous avons récupéré le fichier obtenu grâce à la reconnaissance vocale spécialisée et y avons renseigné le temps de rédaction du participant qui l'avait dicté (voir Annexe 9).

4.4.3 Formulaire de consentement, questionnaire d'après test et fiches de