• Aucun résultat trouvé

Grille d’analyse conceptuelle de l’autorégulation épistémique à la Banque du Canada

Chapitre 2: Propositions pour la qualification du degré d’autorégulation épistémique : forage de

2.2. Grille d’analyse conceptuelle de l’autorégulation épistémique à la Banque du Canada

2.2.1. Valeur heuristique

La grille d’analyse a été formulée tôt dans le projet de recherche en tant qu’outil

heuristique. D’abord, les cinq axes représentent une catégorisation Ex ante du matériel

empirique. Sous l’axe « problèmes de la recherche », on pourrait retrouver des segments de texte29 très variés : par exemple, des descriptions des problèmes liés à la rémunération des

chercheurs, à des canaux de communications défaillants entre chercheurs et cadres, à la structure et la durée des rencontres départementales, à l’infrastructure des locaux de travail, à l’accès et la gestion des données utiles à la recherche, etc. Cet axe crucial de la grille dresse le portrait de ce que la Banque du Canada considère nuisible pour ses activités de recherche, ou à tout le moins un défi à relever. Idéalement, on devrait pouvoir faire correspondre les éléments tombant sous cet axe aux éléments tombant sous les autres axes. En effet, un problème donné devrait être en relation avec un ou plusieurs objectifs, avec un ou plusieurs moyens mis en œuvre pour atteindre ces objectifs, avec un ou plusieurs indicateurs de succès, et avec un plan de monitorage de ces indicateurs.

Une telle représentation Ex ante du corpus est cruciale à sa juste constitution, même si les catégories sont appelées à changer au fil de l’analyse. Cela est vrai pour une vaste gamme de méthodes empiriques. Dans notre cas, les méthodes computationnelles déployées nécessitent un délicat paramétrage si l’on désire obtenir des résultats de qualité. Les détails de ce paramétrage sont abordés dans les sections 2.3.1 et 2.4, et ont directement été influencés par la formulation initiale de la grille d’analyse. Par ailleurs, la grille a aussi une valeur heuristique pendant l’analyse conceptuelle. Elle sert d’outil d’annotation du matériel empirique. Comme nous le verrons à la section 2.4.4, les cinq axes servent à regrouper les annotations sous certaines catégories facilitant l’analyse conceptuelle.

29 Puisque nous repoussons la description des méthodes de cueillette aux sections 2.3 et 2.4, donnons-nous certaines définitions de travail : le forage de texte procédera par repêchage de segments de textes dans un très large ensemble de documents textuels, appelé « corpus ».

2.2.2. Type de données empiriques nécessaires à l’analyse conceptuelle

L’analyse conceptuelle est un des chevaux de trait de la philosophie. Elle se situe à un niveau abstrait lorsqu’elle tente de clarifier de façon générale certains concepts et certaines inférences permises par ces concepts. Elle peut aussi chercher à clarifier des concepts et inférences utilisés par un agent particulier. C’est à ce niveau localisé qu’on peut situer le type d’analyse conceptuelle présent dans ce mémoire.

Les énoncés d’un agent sont une fenêtre de choix pour l’analyse conceptuelle localisée. Ils peuvent être sous forme verbale – pensons à un expert s’exprimant aux médias – ou sous forme écrite. Étant donné l’abondance de publications en provenance de la Banque et que celles- ci sont rendues disponibles sur son site web (articles de recherche, discours, rapports officiels, etc.), les énoncés sous forme textuelle ont été préférés pour la constitution d’une base empirique. L’évaluation de l’autorégulation épistémique aurait possiblement pu s’amorcer à l’aide de la méthode des entrevues semi-dirigées (Silverman 2015; Brinkmann 2014), mais cette avenue fait face à des difficultés considérables dans notre cas. Notamment, lorsque des chercheurs tentent de questionner directement les banquiers centraux par entrevues ou sondages, il peut être difficile d’atteindre des taux de participation satisfaisants (Schulz 2017). Néanmoins, les résultats de ce mémoire suggèrent que de telles méthodes pourraient porter leurs fruits pour couvrir des angles morts d’un corpus de texte dont le contenu dépend fortement de ce que la Banque laisse transparaître30.

Typiquement, l’interprétation d’énoncés textuels procède par lecture manuelle. Par contre, de nombreuses raisons nous ont laissés croire que l’on pourrait automatiser une certaine partie de ce chemin interprétatif à l’aide de techniques issues des domaines de la fouille de texte et de la

recherche d’information, décrites en deuxième partie du chapitre. La simple abondance de

publications accessible n’est pas une raison suffisante à l’automatisation. Nous avons plutôt

30 Dans le contexte du cadre conceptuel de l’autorégulation épistémique, cette dépendance au système est à la fois une limite et un avantage. Cela peut être limitant si le système est peu volubile sur les éléments très pertinents à l’analyse. Par contre, le silence du système sur certaines de ses caractéristiques peut aussi être très suggestif. Dans les deux cas, il peut être souhaitable d’envisager combler les angles morts par des méthodes d’analyse complémentaires.

identifié certains desiderata à une analyse de l’autorégulation épistémique possiblement atteignables à l’aide de certains outils computationnels.

D’abord, nous avons jugé qu’une analyse adéquate de l’autorégulation épistémique devrait à la fois être éclairée d’une perspective diachronique et synchronique. On devrait pouvoir retracer l’évolution dans le temps de certaines caractéristiques identifiées comme pertinentes par notre cadre conceptuel. On voudrait aussi disposer d’une description riche du système à différentes périodes temporelles. Deuxièmement, il a été jugé souhaitable de pouvoir

naviguer différents niveaux de granularité à l’analyse, de façon à focaliser par moment sur le

niveau organisationnel d’un système, d’autres fois sur certains individus en particulier.

Les motivations de pouvoir naviguer les niveaux de granularité et d’alterner analyses diachroniques/synchroniques ne sont pas sans coûts considérables (en termes de temps et faisabilité). Il a donc été décidé de développer des outils computationnels dans l’objectif d’atteindre au mieux ces objectifs, même si le développement de tels outils comporte son lot de défis. Certains d’entre eux sont liés à la constitution et la gestion d’une si large collection de documents : dans un contexte de fouille de texte, « accessibilité » n’est pas forcément liée à « facile d’obtention ». D’autres défis sont liés à la reproductibilité du chemin interprétatif. Comment structurer l’exploration d’une façon systématisée? Finalement, comment permettre l’exploration par d’autres chercheurs, en d’autres lieux et d’autre moment? Dans notre cas, la constitution de corpus des documents textuels de la Banque du Canada pourrait forcément servir à d’autres fins que celles envisagées dans ce mémoire – puisse-t-il s’agir de questions de recherche complémentaires ou radicalement différentes. Ce dernier défi, s’il est adéquatement résolu, est d’ailleurs un élément critique du calcul coût-bénéfice opéré dans le développement d’outils computationnels. La deuxième partie de ce chapitre aborde précisément les questions méthodologiques ayant trait aux outils computationnels, de manière à démontrer que ces défis peuvent être résolus dans notre cas.

2.3. Méthodologie du travail empirique : techniques générales de