• Aucun résultat trouvé

Pour une approche longitudinale constructiviste : l’exemple des effets de l’expansion scolaire

Le cas des politiques éducatives Philippe Lemistre *

2. Pour une approche longitudinale constructiviste : l’exemple des effets de l’expansion scolaire

La « nouvelle méthode » d’évaluation des politiques publiques n’est, par définition, absolument pas explicative. De plus, l’hypothèse implicite est que la généralisation se déroulerait dans les conditions de l’expérimentation sans évolution ni du contexte ni des normes et représentations sociales. Or, un nouveau dispositif public généralisé peut faire évoluer ces éléments et annihiler alors en partie les effets supposés du dispositif. Nous allons reprendre ici un exemple précis pour argumenter les limites des méthodes économétriques ou expérimentales à la faveur d’une approche longitudinale associant qualitatif et quantitatif. L’exemple retenu concerne l’expansion scolaire facilitée par les pouvoirs publics, expansion qui a pu modifier la norme de correspondance entre diplômes et emplois, gommant une partie des bénéfices supposés de l’augmentation du nombre de jeunes accédants à un plus haut niveau d’études. En matière de dispositif public, on peut invoquer ici les programmes mis en œuvre dans les années 90,

« Université 2000 » et U3M, qui, en créant des filières et surtout des établissements de proximité ont favorisé l’expansion scolaire. Ces dispositifs publics étaient destinés à augmenter le niveau d’éducation afin de favoriser une qualification plus importante des individus sur le marché du travail, facteurs supposés déterminants pour demeurer compétitif sur le plan international en générant de la croissance.

Cette hypothèse et les politiques publiques qu’elle a générées sont directement inspirées des attendus du traité de Lisbonne mettant en avant l’émergence aussi nécessaire que supposée inéluctable de

« l’économie de la connaissance ». Ainsi, en France, le taux de sortants possédant un diplôme de l’enseignement supérieur a-t-il augmenté de cinq points de 1992 à 1998, passant de 33 % à 38 % en 6 ans.

Toutefois, au cours de cette période où la conjoncture économique s’est améliorée et l’expansion scolaire a été particulièrement forte, Giret et Lemistre (2005) suggèrent que ses effets positifs supposés ex ante ont été en partie gommés par un changement de norme sociale. L’argumentation repose sur une comparaison entre deux types de déclassement. Le premier « normatif » suppose une correspondance entre niveau d’études et qualification de l’emploi identique à chaque période et conforme à une représentation

« institutionnelle ». Pour cette dernière, par exemple, un diplômé de BTS doit occuper un emploi de technicien et un détenteur de Master un emploi de cadre, ceci pour tous les niveaux de diplômes, s’il occupe un emploi de qualification inférieur il est déclassé au sens « normatif » (Affichard 1981). En comparant les générations sorties du système éducatif en 1992 et 1998 le pourcentage de jeunes déclassés selon cette norme est passé de 50,4 % à 53 %. Peut-on en déduire que les politiques publiques mises en œuvre ont échoué ? À court terme, manifestement en partie, mais l’objectif est plutôt à long terme où la structure des qualifications est susceptible d’évoluer pour permettre notamment aux déclassés de se reclasser. Cette dernière conjecture peut être contestée en regard des délais d’ajustement des systèmes productifs (Lemistre 2010) qui peuvent générer des « générations sacrifiées » (Chauvel 2006). Ces contestations en regard de données du passé et des prévisions en termes de qualification ne pourront néanmoins être retenues que si des tests empiriques ultérieurs les valident. Plus qu’une réfutation, les arguments contradictoires sont donc surtout une invitation au suivi longitudinal.

Dans ce domaine, il existe des indices d’une certaine déperdition des bénéfices de l’expansion scolaire à long terme. En effet, le rendement moyen d’une année d’études supplémentaire n’a cessé de décroître de 1970 à 1993 (Baudelot et Glaude 1989 ; puis Goux et Maurin 1994). Or, à nouveau et logiquement vu l’évolution du déclassement, ce rendement est décroissant entre les deux Générations 92 et 98 (Lemistre 2010). On peut objecter que les effets positifs l’auraient nettement emporté sur les effets négatifs (Maurin 2007) et que la valeur du diplôme est peu affectée par l’expansion scolaire. Ce serait, au contraire le renforcement du rôle du diplôme, indéniable lui, qui conduirait les générations sorties récemment du système éducatif à une « peur du déclassement » en grande partie injustifiée (Maurin 2009). Fort de cet argument et d’une certaine croyance, relayée par les institutions européennes, en la « croissance endogène », soit à l’existence d’un lien entre croissance des niveaux d’éducation et croissance du PIB, certains sont tentés de rejeter immédiatement l’hypothèse d’une inefficacité, même relative, de dispositifs

116

Ce positionnement est fragile, au sens ou les liens de causalité sont difficiles à établir via l’économétrie, même lorsque les méthodes sollicitées sont sophistiquées et longitudinales. Ainsi la grande majorité des nombreuses études qui ont tenté d’établir un lien entre croissance des niveaux d’éducation et croissance du PIB n’ont-elles pas obtenu de résultats convaincants (Baudelot et Leclerc 2005 ; Topel 1999). De même, le destin plus favorable des enfants issus de classes sociales modestes est souvent associé à l’expansion scolaire (Maurin op.cit. ; Aghion et Cohen 2004), sans que le lien entre expansion scolaire et évolution des structures de qualifications n’ait jamais été clairement établi, excepté pour une étude sur le secteur bancaire (Bruniaux 2001).

L’article de Christine Bruniaux synthétise des investigations dans plusieurs pays européens. Il s’agit d’études qualitatives menées suite à un bilan historique sur l’évolution des qualifications et des niveaux de formation des recrutés. En d’autres termes, seule l’approche qualitative peut clarifier une causalité, si elle est menée sur des populations suffisamment nombreuses et des terrains diversifiés. Il est clair que de telles possibilités ne sont pas légions. Une alternative est d’introduire du qualitatif dans le quantitatif, via des questions ad hoc dans des enquêtes nationales. Concernant l’expansion scolaire un questionnement récurent est effectué dans de nombreuses enquêtes internationales afin d’obtenir une évaluation subjective de la sur-éducation (over-education). C’est l’appellation internationale d’une déclinaison des différentes mesures françaises de déclassement, terme franco-français, utilisé pour des raisons davantage historiques que sémantiques. La correspondance niveau de formation-qualification de l’emploi a, en effet, été largement construite, au moins jusqu’aux années 80, sur un idéal d’égalisation des chances sur le marché du travail via l’égalité des résultats scolaires, d’où le terme de « déclassement » pour désigner tout décalage défavorable entre niveau de formation et d’emploi.

L’inconvénient de toute mesure qualitative relevant d’une opinion individuelle est son caractère subjectif.

Ainsi, la valeur absolue d’une mesure subjective fait difficilement sens. Le taux de déclassement déclaré par une génération de sortants du système éducatif ne fait pas exception. Selon la question posée, la proportion de jeunes s’estimant déclassés diffère (Giret 2005), d’une part. D’autre part, parmi les répondants certains s’estiment déclassés alors qu’ils ne le sont pas objectivement. Par exemple, il y a toujours des détenteurs de diplômes de niveau bac+2 qui s’estiment déclassés, alors qu’ils occupent un premier emploi de cadre. Ce type de résultat est lié à des représentations sociales (un fils de dirigeant d’entreprise ou de cadre supérieur de niveau bac+2 avec un emploi de cadre peut s’estimer déclasser en regard de ces attentes, par exemple). Selon nous, l’intérêt d’une mesure subjective rapportée à une variable statistique (souvent dichotomique) est d’observer son évolution au cours du temps, donc à travers des investigations longitudinales. Dans ce domaine, Giret et Lemistre (op. cit.) constatent que la proportion de jeunes s’estimant déclassés au premier emploi passe de 46,7 % en 1992 à 40,6 % en 1998, alors que dans le même temps le déclassement normatif a augmenté (cf. supra.).

Seul le recours à cette mesure constitue un indice d’un changement de norme sociale si on la confronte à une mesure normative. En effet, l’évolution opposée entre les taux de déclassement normatif et subjectif peut s’interpréter, à l’aune d’investigations statistiques complémentaires, comme une intériorisation par les jeunes d’un changement de norme sociale relative à la correspondance entre niveau de diplôme et qualification de l’emploi (Giret et Lemistre op. cit.). Est mis en évidence alors une dévalorisation de certains diplômes, vraisemblablement irréversibles, puisque dores et déjà ancrée au sein des représentations des jeunes en emploi. En clair, une partie au moins des effets négatifs de l’expansion scolaire ne se résorbera manifestement pas à long terme. À l’évidence, un tel résultat ne pouvait pas être produit via les investigations statistiques reposant sur des variables quantitatives, que certains n’hésitent pas à qualifier d’objectives.

Or, comme cela a été évoqué plus haut, l’économétrie et maintenant l’expérimentation sociale semblent pouvoir ou plutôt vouloir se suffirent à elle-même. S’il est indéniable que l’évolution de tests empiriques sur données longitudinales via l’économétrie contribue incontestablement et considérablement à améliorer notre perception du passé, les méthodes aussi sophistiquées soient-elles, ne saisissent qu’une part très limitée des facteurs explicatifs. En effet, il est important de ne pas perdre de vue que si l’économétrie montre une certaine volonté de traiter de tous les problèmes sociaux moyennant une indéniable virtuosité dans le traitement des données, la démarche butte sur une irréductible réalité : lorsque que vous expliquez par des inférences statistiques un phénomène quelconque sur le plan

macroéconomique, vous en expliquez empiriquement au mieux un tiers de la variation (R²), quelle que soit la sophistication des méthodes et les variables mobilisées. La prudence reste donc de mise, ou du moins devrait !

De même, pour l’expérimentation sociale si les variations obtenues sur des indicateurs qualitatifs sont significatives, la significativité est toujours bornée dans un « intervalle de confiance », dont les bornes pourraient bien évoluer défavorablement dès lors que l’expérimentation est généralisée, ceci compte tenu de facteurs socio-historiques déterminants en partie l’évolution des normes sociales. Un premier rempart contre ces limites est de réaliser des expérimentations successives avant généralisation, ceci pour observer les effets du dispositif sur le contexte à moyen terme et, éventuellement, de le faire évoluer alors ou de le remettre en question au fil des expérimentations. Une autre possibilité jointe est de ne pas tester uniquement des indicateurs quantitatifs, mais également des indicateurs qualitatifs qui sont autant de

« signaux » de l’évolution du terrain d’expérimentation en regard du dispositif mis en œuvre, principalement l’évolution des perceptions individuelles qui influencent l’efficacité du dispositif à terme.

Pour autant, une telle possibilité butte sur une impossibilité pratique, à moins de prêter aux économistes statisticiens une intuition à toute épreuve. En effet, seule une bonne connaissance du contexte expérimental et surtout une enquête auprès des individus peut apporter les éléments susceptibles de perturber ou de favoriser la réussite du dispositif testé. En clair, des enquêtes de terrain qualitatives en amont ou menées parallèlement doivent accompagnées le test expérimental et surtout l’alimenter dans un cadre longitudinal. Dans ce domaine, il est utile de rappeler que les éléments mis en avant à la faveur du RSA relèvent d’investigations qualitatives (hors expérimentation ici, en partie ex post voire ad hoc), les écarts statistiques sur des indicateurs quantitatifs s’étant révélés non significatifs.

Compte tenu de ce qui précède, tant en ce qui concerne l’économétrie que l’expérimentation, on est à même de s’interroger sur la logique qui sous-tend les certitudes, déjà évoquées, des praticiens de ces méthodes pour valider non seulement une démarche positive mais aussi normative, puisque prescriptive de politique publique. La première limite de cette économie empirique actuelle est de confondre sophistication des méthodes et universalité des modèles économiques sous-jacents. En effet, si « la science économique est sans doute aujourd’hui l’une des branches des sciences sociales les plus intégrées au niveau international. Il existe entre chercheurs des différents pays un accord assez large sur la façon de poser les hypothèses théoriques et sur les étapes devant être respectées par un bon protocole de validation empirique. L’un des dangers de cette évolution est un certain « formatage » de la pensée et des argumentations » (Maurin op. cit., p. 13-14). Quiconque connaît un peu la tendance actuelle en économie peut d’ores et déjà affirmer que le formatage est peut-être déjà en cours. Plus le cadre théorique explicite ou implicite fonde une croyance forte, plus l’évaluation empirique associée risque fort d’être biaisée. Par exemple, en écartant en amont des investigations empiriques ou lors des interprétations des éléments explicatifs non conformes aux présupposés. Le principal écueil est d’ignorer les facteurs contextuels qui diffèrent pour des évaluations successives, soit de faire comme si une même expérience était répétée peu ou prou à l’identique.

Les « traces des lois fondamentales » issues des investigations économétriques (cf. supra), pourraient bien alors être des « croyances », en partie au moins, écartées des réalités ou du moins de leurs globalités.

Croyances qui se fondent volontiers sur la théorie qui s’accorde le mieux avec des investigations reposant sur des variables quantitatives. Ces variables sont censées objectiver des comportements d’individus et groupes sociaux dont la rationalité est supposée aussi uniforme qu’unidimensionnelle (au plus extrême de cette perspective, l’homo oecomicus à la rationalité substantive ou même « limitée »). En économie de l’éducation, la théorie qui s’accorde le mieux avec ce type de variable est la théorie du capital humain, qui suppose que ce dernier est peu ou prou saisissable via une variable continue : a minima la durée d’études, ou encore les stocks et flux aux différents niveaux d’études pour les estimations longitudinales macro.

C’est aussi, cette conceptualisation qui fonde les modèles de croissance endogène et enfin, sans le moindre doute, c’est celle qui s’accorde le mieux avec l’hypothèse d’un marché régulateur.

La théorie du capital humain est, pour certains aspects, assez réaliste du point de vue microéconomique en statique, même si elle butte sur des hypothèses par trop simplificatrices, notamment concernant la hiérarchie des formations (Heijk, Ris et Meng 2003 ; Dauty, Lemistre et Vincens 2006). En dynamique, elle se heurte plus encore à la complexité des déterminants de la valeur des formations, notamment le rôle des institutions. On peut donc reprocher à l’économétrie de porter beaucoup de crédit à une seule entrée

118

théorique repoussant volontiers les alternatives, même dans son champ disciplinaire. En effet, si l’on s’intéresse à l’évolution de la valeur des formations, une théorie alternative est celle du filtre ou du signal qui a notamment pour « défaut » d’être plus difficile à tester avec des variables continues, d’une part.

D’autre part, elle s’accorde beaucoup plus difficilement avec l’hypothèse d’équilibre général via le marché, puisque même au niveau microéconomique, la théorie du signal produit des équilibres dit

« dégénérés » (Gamel 2000). Surtout cette dernière théorie s’applique, par hypothèse, à des situations ou le marché est défaillant à réguler des déséquilibres créés par l’institution ou le marché lui-même.

Or, pour de nombreux travaux d’économétrie longitudinaux, la référence au corpus du capital humain devient de plus en plus implicite ou réduite aux hypothèses les plus basiques. De fait, les modèles structurels évoqués plus haut sont encore très largement l’exception plutôt que la règle. Tout se passe donc comme-ci les lois fondamentales étaient finalement dores et déjà « connaissances communes » admises par tous et cela pour un grand nombre de chercheurs au sein des économistes statisticiens. Pour en revenir à notre propos initial, le positivisme appliqué à l’économie de l’éducation semble avoir trouvé son schème explicatif qui pourtant a bien du mal à trouver validation via les estimations sur longue période (pas de validation des modèles de croissance endogène d’accumulation, par exemple, Gurgand 2005). Même si la perspective est prédominante encore est-elle identifiable et peut-on considérer (à l’extrême limite pour de nombreux articles) qu’elle reste globalement dans le champ d’une démarche scientifique de falsification. Dès lors que l’on passe à l’expérimentation sociale, l’absence de référent théorique devient un argument au service d’une méthode supposée « efficace » et non explicative. Nous postulons que cette absence de référent est tout à fait fictive. Le premier indice d’une telle affirmation est tout d’abord que pour l’ensemble des investigations de ce type, si la démarche empirique se réclame d’une approche théorique « neutre », les interprétations des auteurs sont toujours resituées souvent explicitement dans le champ de la théorie économique néoclassique. Ensuite, le choix des « indicateurs » n’est jamais neutre et participe toujours d’une logique « coût-bénéfices » à court terme, symptomatique de l’approche économique dite standard. C’est surtout sur les finalités même des expérimentations sociales que le positivisme nous semble le plus évident. En effet, l’expérimentation a pour objectif la généralisation des dispositifs publics testés sur des populations restreintes, tout cela en faisant comme-ci la généralisation était sans impact sur l’efficacité même du dispositif et surtout, comme si le contexte de la généralisation demeurait le même que celui de l’expérimentation. Nous avons vu, à travers une courte incursion dans les travaux de Jean Fourastier, combien une telle hypothèse est non seulement discutable, mais quasiment hors de propos pour les sciences sociales appliquées à des problématiques macroéconomiques. Ainsi, la démarche pourrait bien être l’expression la plus aboutie d’un positivisme qui supposerait un mécanisme de régulation intemporel (le marché ?) susceptible de valider l’expérimentation au même titre qu’une expérimentation en science dure.

Conclusion

« Évaluation et données longitudinales » est une thématique au cœur des évolutions récentes dans le champ de l’empirie. Toutefois, la question de l’évaluation ne peut se poser, selon nous, que dans le cadre d’approches théoriques dont l’empirie n’a pour objet que de donner des éléments de réfutation ou de validation. Or, les évolutions récentes sont portées particulièrement par les économistes statisticiens. Si l’on veut comprendre ce qui détermine ces évolutions et quels types d’évaluations elles sous-tendent, il est impératif de ne pas occulter l’appartenance disciplinaire. Dans ce domaine, nous avons souligné que depuis Friedman (1953) l’économie est entrée dans l’ère du positivisme au sens Comtien, soit l’assimilation des sciences sociales aux sciences « dures ». La recherche de lois fondamentales semble avoir atteint son apogée, côté théorie grâce à l’économie mathématique, et côté empirique, via l’économétrie. Ainsi, les lois fondamentales qui régissent le système éducatif et son articulation au marché du travail sont-elles largement guidées par la théorie du capital humain qui domine les analyses de court terme (rendement de l’éducation, notamment) et de long terme (croissance endogène, principalement), dès lors que l’approche est macroéconomique3.

3 En microéconomie, la théorie des incitations accompagne sans la concurrencer réellement celle du capital humain, mais elle est peu évoquée sur le plan macro de même que nombre d’autres modèles micro.

Nous avons souligné que les validations empiriques demeurent encore très partielles et limitées par les techniques aussi sophistiquées soient-elles. Or, inspirés par la micro économie, appliquée notamment au domaine des ressources humaines (Lazear 1995), les économistes sont passés d’une approche positive à une approche normative (prescriptive) appliquée aux politiques éducatives (macroéconomique), ceci avec succès. Par exemple, qu’il s’agisse du traité de Lisbonne (« économie de la connaissance ») ou de sa traduction nationale (objectif 50 % de diplômés de l’enseignement supérieur, HCEEE 2006), les prescripteurs invoquent directement les travaux économétriques et théoriques s’appuyant sur la théorie du capital humain (croissance endogène).

Les prescriptions concernent alors uniquement des éléments de politique générale, par exemple les bienfaits et la légitimité de l’expansion scolaire. Les statistiques inférencielles de l’économétrie classique ne permettent pas, en effet, de tester directement des dispositifs publics. La solution passe par l’expérimentation sociale avec groupe test et groupe témoin. La méthode est supposée neutre sur le plan théorique et non explicative, mais destinée uniquement à tester un dispositif public. Nous avons suggéré qu’une telle méthode n’a rien de neutre, tant en ce qui concerne le choix des indicateurs, qu’en regard des interprétations. Plus encore, l’analogie, cette fois poussée à l’extrême, aux sciences dures suppose une invariance du contexte ou une logique constante de sa régulation qui pourrait bien être celle du marché.

Seule cette hypothèse implicite peut justifier une généralisation des dispositifs testés telle que préconisée, ceci même si les évaluateurs laissent la décision au Politique.

Répéter les expérimentations sur des terrains différents et surtout en longitudinal est à l’évidence le minimum pour pallier les effets de l’absence de prise en compte du contexte, mais cela ne saurait suffire.

Répéter les expérimentations sur des terrains différents et surtout en longitudinal est à l’évidence le minimum pour pallier les effets de l’absence de prise en compte du contexte, mais cela ne saurait suffire.

Outline

Documents relatifs