• Aucun résultat trouvé

Cadre méthodologique : analyse lexicométrique et analyse thématique

4.3. Démarche sur l’analyse du discours

4.3.1. Cadre méthodologique : analyse lexicométrique et analyse thématique

Dans cette analyse, j’essaie de retracer les définitions du Français dans la sphère publique, plus exactement dans les discours politiques. Cette interrogation sur le système

désignatif de la francité (homo francius64) se compose de trois niveaux et vise à dégager les

points suivants :

1. analyse énonciative et lexicale : les spécificités lexicales de désignation du Français et des représentations de l’« Autre » qui sont éventuellement coproduites ;

2. analyse thématique : les thèmes associés à la définition de ces « Nous- français » et aux représentations de l’« Autre » ;

3. les « inférences » socio-politiques : les relations entre les données historiques et

idéologiques de contexte, et les résultats de l’analyse discursive65.

Comme je viens de le mentionner, mon analyse porte avant tout sur les vocabulaires et les thèmes de la définition d’in-group national français et sur ces contextualisations, mais l’attention sera également portée aux relations par rapport à l’altérité. Cette attention est demandée par la conception de la francité (l’idée d’une catégorie selon laquelle certaines classifications se produisent) et par notre questionnement central (logique de production de « la frontière intérieure »).

Ainsi, les questions analytiques qui doivent être posées seront : comment définit-on ce qu’est être français ? Quelles représentations de l’Autre apparaissent-elles ? Quel est le lexique employé et en quelle manière élabore-t-il les représentations de Français et de ses Autres ? Quels sont les éléments définitoires de ces représentations ? Comment peut-on

64 Je fais référence ici à l’expression « homo nationalis » employé par Balibar (1990, 2001).

65 Je m’inspire ici de la grille d’analyse de discours organisée en trois niveaux proposée par Bonnafous

(1991) « [...] nous tenterons de répondre par une analyse de discours raisonnée et systématique, organisée en trois niveaux : – celui des analyses qui pourront être “communicationnelles”, énonciatives ou lexicales, mais qui de toute façon porteront sur le corpus en tant qu’ensemble de textes. [...] – celui des “conclusions” langagières ou discursives conçues comme les produits de la mise en relation des “constats” [...] – celui des “inferences” socio-politiques conçues comme des relations de cause à effet ou des relations d’analogies que nous nous proposerons d’établir entre les données historiques et idéologiques et les conclusions discursives » (Bonnafous, 1991 : 13).

89

appréhender l’évolution discursive – changement ou stabilité – en la mettant en relation avec le contexte ?

Afin de répondre à ces questionnements, les corpus sont soumis au traitement analytique qui combine l'analyse lexicométrique et l'analyse thématique du contenu. Dans un premier temps, l’analyse statistique est effectuée à l’aide du logiciel Hyperbase afin de découvrir certaines spécificités lexicales et thématiques qui concernent la définition du Français. Les résultats de cette première analyse guideront l’analyse plus approfondie en termes de contenus.

La lexicométrie, selon Bonnafous, « se donne comme objectif d'analyser de façon exhaustive et systématique le vocabulaire d'un corpus clos constitué autour de variables et d'invariants déterminés. L'analyse est automatisée et porte sur des critères quantifiés » (Bonnafous, 1991 : 131). L’analyse lexicométrique qui est basée principalement sur la notion de fréquence ne fait pas l’unanimité et a été critiquée notamment par Le Bart. Il est vrai qu’« [...] en tant que telle, la fréquence ne signifie rien qu'il ne faille ensuite interpréter

en cherchant ailleurs que dans les données quantitatives66 » (Le Bart, 1998 : 63). Dans ma

démarche, mon objectif n’étant pas de dégager les particularités lexicales en soi, on attribuera au traitement statistique un rôle auxiliaire de l’analyse sur le contenu. Par ailleurs, ce traitement statistique, notamment à l’aide du logiciel Hyperbase, nous offre des avantages majeurs en tant que préanalyse.

Hyperbase est un « logiciel de logométrie conçu par Étienne Brunet et produit par l’UMR 6039, « Base, Corpus, Langage » (CNRS-Université de Nice-Sophia-Antipolis) » (Mayaffre, 2012a : 17) qui possède des fonctions riches – documentaire et statistique – aptes à la recherche en plusieurs domaines, comme la littérature, la science politique ou la

sociologie67.

D’abord, l’atout d’Hyperbase pour notre recherche réside, entre autres, dans sa

valeur heuristique68. Grâce à ses diverses fonctions, le logiciel met au clair les spécificités

66 Cependant, certains travaux, par exemple ceux réalisés par (Mayaffre, 2012a, 2012b) nous montrent une

possibilité de faire une analyse riche sans autant faire appel à des données contextuelles extérieures quand on fait recours aux corpus de grande quantité.

67 Parmi les travaux réalisés à l’aide de ce logiciel, nous citons ici quelques-uns : Brunet (1981), (Cuturello,

2011), Nayrac (2011), Mayaffre (2012a, 2012b).

68 À propos de valeur heuristique de la logométrie, Mayaffre note « Loin d’un positivisme textuel qui

prétendrait prouver ou inférer le sens absolu du texte, la logométrie permet de faire surgir des interrogations inattendues au-delà des hypothèses de travail convenues ou inspirées par l’idéologie et l’historiographie dominantes [...] » (Mayaffre, 2012b : 28).

90

lexicales et énonciatives, et les relations entretenues des mots dans le discours. La fonctionnalité « occurrences » calcule les occurrences des mots dans le corpus et, par la comparaison – interne ou externe –, nous montre les mots ou les formes spécifiques qui caractérisent le discours. Ensuite, parmi ses fonctions pour une lecture « réticulaire (études des réseaux sémantiques dans le texte grâce au traitement des cooccurrences, étude des échos idoyopiques) » (Ibid. p. 26), la fonctionnalité « environnement d’un mot » calcule des liens entre un « mot pôle » et les autres mots et présente les corrélations sous la forme graphique arborée. Les données sur les mots spécifiques et surtout le profil co-occurrentiel des mots sont significatives pour l’analyse thématique. « Les paires co-occurrentielles [...] représentent des noyaux de sens, et les profils co-occurrentiels [...] laissent entrevoir les réseaux thématiques ou la structure sémantique sous-jacente du texte » (Ibid. p. 36). Ainsi, ces données me permettraient, plutôt que de formuler l’hypothèse au préalable, une approche exploratoire du corpus et offrent ainsi un repérage plus ou moins « neutre » des thèmes associés à la définition et à la représentation du Français.

Hyperbase possède un autre avantage majeur pour ma recherche : la possession de fonctionnalités riche pour la comparaison. La comparaison est une démarche indispensable pour saisir les caractéristiques d’un discours, voire rendre compte de l’évolution discursive. Comme remarquait Bardin, « Les caractéristiques d'un discours ont besoin, pour être mises en relief, de la comparaison avec d'autres discours ou avec des normes » (Bardin, 1977 : 82). Comme Mayaffre le note également, « Il est en effet désormais admis que la caractérisation d’un discours ne peut se faire dans l’absolu et nécessite des comparaisons. La sémantique différentielle, théorisée notamment par François Rastier, pose que le sens est toujours construit et que cette construction se fait par différence. Et depuis Baktine chacun admet qu’un texte est compris – doit être compris – dans et par une intertextualité qui le subsume. Méthodologiquement, le traitement quantitatif du vocabulaire exige lui aussi cette mise en contraste : les fréquences absolues parlent peu, seules sont pertinentes des fréquences comparées » (Mayaffre, 2012b : 23).

Le logiciel offre la possibilité de comparer les corpus de deux façons : avec une norme extérieure – le Trésor de la Langue française (TLF) ou Google Books – ou entre les textes ou les unités dans le corpus. Il nous permet de voir à la fois les spécificités globales d’ensemble du corpus et les spécificités relatives de chaque texte à l’intérieur du corpus. La comparaison se faite en terme d’occurrences et est basée sur le calcul de fréquence relative, c’est-à-dire le calcul de l’écart réduit par rapport à la référence extérieure ou à la

91

norme d’utilisation interne, c’est-à-dire les fréquences moyennes d’ensemble du corpus. Le logiciel nous donne à voir les écarts de fréquence entre les unités dans le corpus en forme d’histogramme. Une autre fonctionnalité puissante pour la comparaison est celle de programme factoriel. Par un outil statistique, l’analyse factorielle des correspondances, le logiciel propose une typologie des unités dans le corpus et matérialise les différentes positions qu’ils occupent dans l’espace discursif.

Enfin, le logiciel, grâce à ses fonctions documentaires, nous facilite la lecture analytique. Sa capacité de la navigation hypertextuelle nous permet « de convoquer sous forme de listes toutes les phrases contenant un mot ou un code, ou tous les paragraphes contenant deux, trois, quatre mots dont on veut vérifier l’utilisation conjointe, etc. » (Mayaffre, 2012a : 18-9). Pour notre cas, nous pouvons faire ressortir, par exemple, toutes les phrases ou tous les paragraphes contenant le mot « Français » dans le corpus. Cela nous permet de repérer les sens des mots clés en les resituant dans leur contexte d’apparition. Il servira également pour saisir les unités à soumettre à l’analyse plus détaillée du contenu.

En tenant compte des résultats de cette première analyse, nous procéderons à l’analyse thématique du contenu. L'analyse de contenu est, selon Bardin, « une technique de recherche pour la description objective, systématique (et quantitative) du contenu manifeste de la communication » (Bonnafous, 1991 : 21). Par ailleurs, le terme l’analyse du contenu possède un sens large. Comme Bardin a affirmé, « l'analyse de contenu peut être une analyse des “signifies” (ex. : l'analyse thématique), mais elle peut être aussi une analyse des “signifiants” (analyse lexicale, analyse des procédés) » (Bardin, 1977 : 35). Dans mon étude, il s’agit de s’interroger sur les thèmes présents dans la définition de ce qu’est être français et de ses Autres. Il s’agirait en quelque sorte, selon l’expression de

Doty, de chercher les « points nodaux (nodal points)69 » qui « agissent comme signifiants

privilégiés, et provisoirement, fonctionnent pour fixer la signification » (Doty, 1996 : 240), pour notre cas, la signification du Français.

Une fois déterminées les spécificités lexicales et thématiques, elles sont soumises à l’interrogation sur la relation avec le contexte dans lequel le discours est ancré. Le terme contexte peut désigner plusieurs aspects, mais dans notre recherche, nous entendons par ce mot : les variables extra-linguistiques comme les situations, les institutions et les

69 « Postmodern theorists have suggested that certain privileged discursive points are essential to the partial

fixing of meanings and identities. Laclau and Mouffe refar to these as “nodal points”, others such as Lacan as privileged signifiers, Derrida as dominant signifiers » (Doty, 1996 : 240).

92

idéologies qui englobent une énonciation. Nous assumons la relation dialectique entre l’acte discursif et le contexte. « Les contextes situationnels, institutionnels et sociaux forment et affectent le discours, et, à son tour, le discours influence la réalité sociale et politique. En d’autres termes, le discours constitue la pratique sociale et en même temps est construit par cette dernière » (Wodak, 1999 : 8, traduit par nos soins).