• Aucun résultat trouvé

Évolution des types de recherches dans mes travaux

Conceptions de la didactique

Chapitre 2. Types de recherches en didactique

12. Évolution des types de recherches dans mes travaux

Recherche expérimentale Recherche- action Recherche théorique

1 9 8 7 1 9 8 8 1 9 8 9 1 9 9 0 1 9 9 3 1 9 9 4 1 9 9 5 1 9 9 6 1 9 9 7 1 9 9 8 1 9 9 9 2 0 0 0 2 0 0 2 2 0 0 3 2 0 0 4 2 0 0 5 2 0 0 6 2 0 0 7

12. Évolution des types de recherches dans mes travaux

Ce graphique fait apparaître plusieurs faits : d’une part, l’apparition tardive de l’approche expérimentale, bien représentée entre 2004 et 2006 du fait de mes recherches sur l’écriture d’invention ; d’autre part, la représentation constante des recherches théoriques ; enfin, le progressif remplacement, pour ainsi dire, des recherches-actions par des recherches descriptives.

On voit aussi que la proximité que je signalais plus haut entre mes travaux (graphique 8) et ceux de la banque de données DAF (graphique 9) est à relativiser ; elle vaut si l’on établit un bilan des recherches mais n’a pas de sens dans une approche diachronique. Sans qu’il soit possible ici de représenter graphiquement cette évolution des recherches didactiques répertoriées par la banque de données DAF, une consultation rapide fait apparaître clairement que l’approche expérimentale est bien représentée dès les premières recherches en didactique : elle aurait même tendance à diminuer, alors que, pour ma part, je la « découvre » tardivement. On retrouve cependant une certaine affinité des courbes pour ce qui est du jeu de compensation entre les recherches-actions (qui ont tendance à diminuer globalement) et les recherches descriptives (qui augmentent).

Je me propose de revenir maintenant sur mes choix méthodologiques, en traitant des différents types de recherches que j’ai pu mener et en essayant de donner une logique à ce que cette description quantitative fait apparaître.

Quelques questions que pose une expérimentation en didactique

Je ne me suis posé la question de l’expérimentation qu’au moment de ma thèse et c’était… pour ne pas choisir ce type d’investigation. Je m’en expliquais en ces termes12 :

La logique expérimentale n’est pas toujours de mise, particulièrement dans des domaines où trop de paramètres entrent en jeu pour constituer valablement des variables […]. On ne trouvera pas, dans ce travail, de tentative de validation expérimentale : c’est à la pertinence de l’argumentation et à leur articulation avec les problèmes posés par les pratiques didactiques que se mesurera la validité de la recherche.

Ce choix s’expliquait notamment par la manière dont j’avais circonscrit mon objet de recherche : « Reconfigurer didactiquement la paraphrase », c’est-à-dire « tenter de définir, dans le champ didactique, ce qu’est la paraphrase » (Daunay, 1999d, p. 14)13.

12. En m’appuyant sur les cautions de Jean-Louis Chiss (1989) et d’Eddy Roulet (1989), dont je citerai les propos ci-dessous, dans une approche plus générale de la question.

Bertrand Daunay, Invention d’une écriture de recherche en didactique du français Note de synthèse présentée en vue de l’habilitation à diriger des recherches

149 Un membre de mon jury de thèse, D. G. Brassart, me fait explicitement le reproche, dans son rapport, de ne pas avoir mis en œuvre des procédures expérimentales pour interroger des hypothèses concernant de possibles interventions auprès des élèves. Il conclut en ces termes :

Certes, l’identification et le contrôle absolues des variables est sans doute impossible en sciences humaines. Est-on condamné pour autant en didactique aux cogitations spéculatives et aux querelles scolastiques ? Il n’est pas raisonnable de s’interdire a priori d’évaluer les effets des interventions didactiques sur les conceptions, représentations, conduites et pratiques des sujets à qui elles sont ou pourraient être destinées.

Je ne poserais pas, pour ma part, une telle alternative : privilégier les recherches théoriques et descriptives, ce n’est pas se condamner aux cogitations spéculatives et aux

querelles scolastiques. Néanmoins, l’exigence de vérification empirique des effets de

possibles interventions didactiques me semble, sinon suffisante pour déterminer la pertinence d’une recherche, en tout cas nécessaire pour ouvrir le champ des possibles en matière de méthodes de recherche en didactique. Comme le dit Jean-Louis Dufays (2001, p. 20) :

Même si les recherches quasi expérimentales ne peuvent donner qu’une vision restreinte et schématique des réalités qu’elles cherchent à saisir, leur méthode s’avère précieuse pour objectiver un tant soit peu des modélisations ou des propositions qui, sans elle, risquent de rester confinées dans le flou de la subjectivité.

De fait, j’envisageais de telles approches à l’issue de mes recherches sur la paraphrase. J’écris ainsi dans la conclusion d’un de mes ouvrages (Daunay, 2002b [DOC. B], p. 214 sq.) :

Il y aurait lieu notamment de s’interroger sur le rôle de l’activité de paraphrase (entendue dans le sens de formulation de la compréhension qui lui a été donné à l’issue du chapitre 9) dans le développement métatextuel des élèves : l’hypothèse qui pourrait être posée, à la lumière des différentes études faites ici-même, est que la pratique de la paraphrase faciliterait les apprentissages qui concourent à la maîtrise de la lecture scolaire des textes et du discours métatextuel selon les exigences propres à chaque discipline. Cela pourrait engager deux types d’enquêtes, susceptibles de validation expérimentale, avec des objectifs différents :

– des enquêtes ponctuelles tentant de repérer, dans des protocoles précis, l’effet de la paraphrase dans la réussite à des tests concernant la lecture (repérage de certains phénomènes textuels déterminés) ou le discours sur la lecture (explicitation de ces phénomènes textuels) ;

– des enquêtes à plus long terme mesurant le rôle d’un entraînement systématique à la paraphrase sur la maîtrise du métalangage et des méthodes métatextuelles en usage dans la discipline.

J’ajoutais : « De telles enquêtes […] n’auraient d’intérêt que menées sur une grande échelle, ce qui nécessite là encore un travail d’équipe. »

Une telle option se discute (j’y reviens plus loin) : il n’est pas sûr que l’expérimentation exige une grande échelle et il est des procédures de vérification expérimentale qui peuvent valider des résultats – avec toute la modestie que suppose, de toute façon, n’importe quelle démarche d’investigation quant au degré de pertinence de la

validation.

Mais c’est cette option qui m’a amené à entamer une expérimentation didactique, dans le cadre de mes recherches sur l’écriture d’invention, avec une équipe de chercheurs – exerçant comme enseignants dans le secondaire – que je codirigeais avec Marie-Michèle Cauterman. J’en ai présenté le cadre théorique plus haut (p. 121), et je m’attacherai ici à interroger les problèmes méthodologiques d’une telle expérimentation (dont une présentation détaillée est faite dans Daunay (2006a [doc. 24]) et dans Cauterman, Daunay

et al. (2004 [DOC. C]).

Sans entrer dans le détail, il suffit de rappeler les grandes lignes du cadre méthodologique : l’expérimentation a concerné 39 classes et 960 élèves (de 3e et de 2nde). Notre hypothèse était qu’écrire en début de séquence et exploiter l’écrit produit facilitait l’acquisition de savoirs, dans la mesure où ce savoir peut être l’objet d’une pratique, autrement dit être autant procédural que déclaratif. La variable de notre expérimentation

Bertrand Daunay, Invention d’une écriture de recherche en didactique du français Note de synthèse présentée en vue de l’habilitation à diriger des recherches

150 était donc la place (au sens de moment et de rôle) de l’écriture dans le processus d’apprentissage. Le protocole expérimental envisageait des classes expérimentales proprement dites, qui réalisaient la séquence expérimentale, avec une écriture d’invention en ouverture et en clôture (classes A, au nombre de 17) et des classes témoins, qui ne commençaient pas la séquence par une écriture d’invention ; mais nous avions distingué, parmi ces classes témoins, des classes qui terminaient la séquence par une écriture d’invention (classes B, au nombre de 14) et des classes où n’étaient réalisée aucune écriture d’invention (classes C, au nombre de 8). Le reste de la séquence (l’étude d’un corpus de textes) était identique pour les trois types de classes. Les trois types de classes subissaient le même test d’entrée et de sortie.

Les résultats obtenus sont intéressants en ce qu’ils interrogent l’hypothèse de départ : si l’analyse statistique des résultats des élèves aux tests d’entrée et de sortie montre que les effets de la séquence d’apprentissage sont globalement plus visibles dans les classes A, la prise en compte des niveaux (3e et 2nde) et des différentes compétences évaluées dans les tests, les interprétations sont plus disparates (cf. Daunay, 2006a [doc. 24], p. 356 sq.). Si les résultats obtenus sont intéressants, c’est précisément parce qu’ils permettent d’enrichir la réflexion théorique sur la place de l’écriture dans une séquence : ils permettent à la fois de confirmer une certaine validité du cadre théorique qui justifiait l’expérimentation14 et de l’interroger en offrant des possibilités de la nuancer, donc de l’affiner.

Mais cette expérimentation pose en même temps une série de questions méthodologiques. Tout d’abord, admettant sans difficulté l’impossibilité de la maîtrise totale d’un protocole expérimental pour les questions éducatives (Van der Maren, 1996/2004, p. 33 sq. ; 1999/2003, p. 53 sqq.), nous avons opté pour une

quasi-expérimentation, selon une distinction que reprennent la plupart des traités

méthodologiques15, en renonçant volontairement à maîtriser un certain nombre de

paramètres. Ce choix découle d’un principe : celui de concevoir l’expérimentation dans un contexte « écologique » (Daunay, 2006a [doc. 24], p. 351) :

Nous avons dès le départ fait le choix de ne pas intervenir dans les classes, pour laisser les enseignants libres de mener la séquence à leur guise, dans une certaine mesure. En effet, si nous leur avons donné un guide assez détaillé de la séquence (horaire, corpus de textes, contenus à aborder, consignes de travail destinées aux élèves, formes des activités), nous leur avons laissé une liberté sur un certain nombre d’aspects (insertion de la séquence dans la progression didactique, choix des textes dans une liste, travail de groupe ou collectif, etc.).

Cela multiplie le nombre de paramètres en jeu dont la maîtrise serait illusoire et qui deviennent de fait des variables latentes…

Une deuxième question se pose, fondamentale, celle du choix des indicateurs de réussite, qui renvoie plus généralement à ce que vise à observer le chercheur. Ayant fait au départ le choix d’une approche quantitative courante pour poser comme indicateur de réussite le progrès d’un plus grand nombre d’élèves de telle ou telle classe, nous avons logiquement renoncé à considérer comme variables certaines caractéristiques des élèves : sexe, retards scolaires, professions et catégories socio-professionelles, etc.). On peut interroger les « postulats méthodologiques et épistémologiques, voire déontologiques » qui président à ce choix, comme je le fais dans une étude ultérieure qui reprend les données recueillies (Daunay, 2006f [doc. 28], p. 390)16 :

Finalement, qu’est-ce qu’un « bon » résultat (statistique) en didactique ? L’élève moyen (celui que donne à voir notre traitement statistique des données, sans prise en compte du niveau des élèves) est-il celui que l’on cherche à cerner ? On pourrait aussi bien supposer qu’en didactique, l’élève moyen n’est pas

14. Qui pose l’intérêt de ne pas considérer l’écriture seulement comme outil de fixation ou de vérification des connaissances, mais de l’envisager aussi comme moyen de construction des connaissances.

15. Y compris Gagné, Lazure, Sprenger-Charolles, Ropé (1989, p. 51).

16. Je dois cette interrogation à Dominique Lahanier-Reuter, didacticienne des mathématiques et spécialiste des statistiques, membre de Théodile.

Bertrand Daunay, Invention d’une écriture de recherche en didactique du français Note de synthèse présentée en vue de l’habilitation à diriger des recherches

151

intéressant : un « bon » résultat serait alors celui qui montrerait que telle variable a des effets particulièrement significatifs sur les seuls élèves en difficulté.

Je montre par ailleurs, dans cette étude, que les résultats ne sont plus interprétables de la même manière si l’on prend en compte l’appartenance des élèves à des classes faibles ou non : par exemple, la séquence « traditionnelle » aurait plus de réussite auprès des élèves des classes faibles. Qu’en serait-il évidemment si l’on prenait en compte le niveau de chaque élève ?

Cela amène une troisième question – banale elle aussi : celle de la possibilité même de la généralisation des observations faites dans une perspective longitudinale. Par exemple, nous avons isolé un certain nombre de compétences qu’évaluent les tests d’entrée et de sortie ; même si l’on reconnaît la pertinence de l’évaluation, que dit-elle du devenir de ces compétences ? Nous aurions pu, il est vrai, suivre les élèves et leur faire repasser des tests un ou deux mois après ; mais deux, trois ans après ? Par ailleurs, on peut discuter réellement l’objet choisi pour la séquence d’apprentissage, comme je l’écris (Daunay, 2006a [doc. 24], p. 352) :

Le discours indirect libre est une notion précisément intéressante par son indécidabilité : elle rend assez illégitime un discours expositif univoque et rend la séquence expérimentale intéressante par le fait que l’apprentissage est construit à partir des réactions des élèves ; serait-ce le cas pour un objet plus construit scolairement, dont le caractère normé ne fait pas de doute (dans le monde scolaire ou dans la théorie) ?

La quatrième et dernière question que je poserai ici concerne les mesures mêmes utilisées. Je consacre un article à cette question, en essayant de revenir sur notre protocole : je passe au crible de la critique à la fois nos tests et nos modes d’évaluation des compétences testées. Si certaines insuffisance tiennent à notre propre protocole, mon analyse fait apparaître aussi des problèmes méthodologiques qui concernent tout test d’évaluation (Daunay, 2006c [doc. 26], p. 352)17 :

La plupart sont inhérents à toute situation d’évaluation, expérimentale et scolaire ; les instruments de mesure d’un apprentissage ne sauraient être, quel que soit le souci de rigueur méthodologique, absolument fiables, tant ils sont par nature imparfaits.

Toutes ces considérations méthodologiques ne mettent pas fondamentalement en cause notre entreprise, qui permet quand même de s’insérer dans la somme des recherches en didactique sur la question que nous traitons et qui peut aider à préciser le cadre théorique qui était notre point de départ, mais elles rappellent en même temps, comme je l’écris en conclusion de la présentation de notre expérimentation (Daunay, 2006a [doc. 24], p. 370), « la modestie inhérente à toute recherche et surtout l’impossibilité de tirer hâtivement d’une recherche des conclusions prescriptives ».

Du reste, c’est là une conception très particulière de l’expérimentation : il n’est pas sûr, comme je l’affirmais plus haut, qu’il soit nécessaire de se donner une situation aussi complexe à gérer, qui demande des moyens humains considérables pour mettre en place l’expérimentation mais surtout traiter les données. Mettre en œuvre la même démarche, avec moins de classes, peut permettre d’arriver à des résultats aussi intéressants. D’autant que le grand nombre est tout relatif et ne permet pas nécessairement d’obtenir, sur certains aspects, des résultats satisfaisants d’un point de vue statistique : ainsi, nous savions que notre choix de laisser les enseignants maîtres de la gestion de la séquence – que déterminait notre approche « écologique », justifiée par le fait que nous considérions comme pertinente notre séquence à la seule condition qu’elle puisse s’inscrire aussi bien dans la progression des enseignants que dans leurs pratiques propres – était la source d’un important biais expérimental et c’est pourquoi nous avions demandé à chaque enseignant de donner des indications sur les choix qu’il avait fait dans le déroulement de la séquence,

17. Je reprends la démonstration sous une autre forme dans Daunay (2004f), en insistant sur ce qu’il y a de commun entre les situations d’évaluation expérimentale et scolaire. Cf. encore le lien que nous établissons, Yves Reuter et moi, entre l’évaluation d’un corpus de recherche et l’évaluation scolaire, dans le cas bien particulier d’un corpus constitué à partir de textes produits par des étudiants de licence en vue de leur évaluation (Daunay, Reuter, 2002 [doc. 13], p. 205).

Bertrand Daunay, Invention d’une écriture de recherche en didactique du français Note de synthèse présentée en vue de l’habilitation à diriger des recherches

152 à partir d’un questionnaire assez fermé, mais qui envisageait pratiquement tous les possibles ; or ces questionnaires se sont révélés inexploitables, en raison du nombre de classes, finalement trop petit : aucun résultat statistiquement significatif n’a pu être tiré de cette étude.

Si le grand nombre de classes concernées dans notre expérimentation lui donne une certaine valeur, une telle option n’épuise pas les possibilités de démarche expérimentale : il peut, dans certains cas, ne s’agir que d’une prise de données maîtrisée destinée à s’inscrire dans une approche descriptive plus vaste. C’est ainsi que je me suis intégré tardivement à une équipe de recherche qui analysait le fonctionnement d’une école « Freinet » dans le Nord de la France18 et mon apport a consisté à vérifier, par un protocole expérimental simple, ce que la recherche avait déjà fait apparaître par des investigations d’une autre ampleur : une maîtrise du métalangage de la discipline plus défaillant chez les élèves de cette école par rapport à d’autres élèves d’un même niveau social. J’ai ainsi fait passer un test métalinguistique auprès de 152 élèves, échantillon assez faible (puisqu’il concernait les classes de CE2, CM1, CM2 de l’école « Freinet » et d’une autre) : mais mes résultats, qui ne permettent aucune extrapolation, offrent cependant un réel intérêt dans le cadre de la recherche collective, dont elle vient étayer les conclusions (Daunay, 2006e).

*

Ce n’est pas à l’appui de ce faible échantillon de recherches que je risque d’établir des principes généraux concernant l’expérimentation en didactique… Et j’ai dit plus haut mon incompétence à un discours métathéorique sur la question. Pourtant, il me semble que ce qui précède pose quelques questions qui concernent en général ce type d’investigation.

Mais c’est à la condition que l’on ait renoncé à croire possible de se référer à Karl Popper pour justifier l’intérêt des expérimentations en didactique19 : Jean-Claude Passeron (1991/2006) a assez clairement fait justice de cette illusion dans un espace non-poppérien

du raisonnement naturel (c’est le sous-titre de la première édition de son ouvrage). Parler

de recherche expérimentale en didactique, ce n’est pas supposer transférable dans le champ le raisonnement expérimental qu’autorisent les sciences de la nature. Et parler de quasi-expérimentation n’est que distinguer deux modes de construction d’un plan expérimental en didactique – expérimental et quasi-expérimental – selon le plus ou moins grand degré de rigueur de contrôle des variables, non une volonté de s’adosser quand même à la méthode expérimentale des sciences physiques (cf. Passeron 1991/2006, p. 31).

Suffit à établir cette différence de nature la dimension praxéologique de la didactique, qui l’empêche de se constituer en discipline de laboratoire, sauf à dénaturer son programme scientifique (cf. Rosier, 2002, p. 105). Eddy Roulet constate (1989, p. 6) :

Il ne paraît guère réaliste, en l’état […], d’imposer une validation expérimentale rigoureuse et reproductible. Certes, celle-ci est possible en didactique […], mais au prix d’une telle réduction de l’objet d’étude, pour maîtriser toutes les variables, qu’elle limite drastiquement la portée des résultats obtenus.

C’est le problème qu’ont pu rencontrer les psychologies expérimentales, comme l’écrit Jean-Claude Passeron (1991/2006, p. 228 sq.) :

Les psychologies expérimentales sont sans doute, parmi les sciences de l’homme, celles qui ont côtoyé au plus près la contradiction entre la pureté expérimentale et la portée générale de leurs assertions scientifiques. Elles n’ont pas hésité à se donner, au prix d’une miniaturisation de leurs objets d’observation, les conditions formelles d’une application en laboratoire de la méthode expérimentale. Mais ces disciplines, qui se résolvent au parti héroïque de l’expérimentation franche, ne récoltent pas, comme dans les sciences physiques, la récompense « nomologique » des sacrifices qu’elles consentent sur la richesse empirique du cours du monde. Le raffinement méthodologique de leurs « protocoles d’expérience », conçus pour établir l’indépendance ou détailler l’interaction des variables testées en laboratoire, n’empêche pas les expérimentateurs de s’interroger – et souvent de demeurer en doute – sur

18. « Effets d’un mode de travail pédagogique “Freinet” en REP », financée par l’IUFM du Nord-Pas-de-Calais : cf. Reuter dir. (2006). Cette recherche prenait la suite d’une autre, financée par le Ministère de la recherche (ERTE 1021) : cf. Reuter dir. (2005b). 19. Comme le fait par exemple Roland Goigoux (2001, p. 126). Cf. Crahay (1998, p. 143).

Bertrand Daunay, Invention d’une écriture de recherche en didactique du français Note de synthèse présentée en vue de l’habilitation à diriger des recherches

153

l’interprétation des résultats. Les « effets » enregistrés en laboratoire pourraient toujours être dus, comme le dit l’un d’eux, à « des conjonctions inhabituelles de valeurs des variables en jeu »20. Ils restent donc prudents sur la « représentativité » des situations créées par l’expérimentation par rapport à « l’ensemble des situations habituelle ». Certains diront se contenter d’une validité de principe, fût-elle limitée aux