• Aucun résultat trouvé

de moins en moins contextualisés ?

Dans le document Quel accueil pour le jeune enfant (Page 80-84)

Lorsque l’on effectue des comparaisons internationales, et même lorsque l’on compare des actions menées sous forme de « programmes », la question princi-pale est de savoir sur quels critères effectuer la comparaison. Cette interrogation en amont permet largement de répondre à la question, maintes fois posée aux chercheur.e.s, qui dépasse très largement la question de l’accueil de la petite enfance et celle des situations de pauvreté : pourquoi des programmes fonc-tionnent… et d’autres non ? 78

Duncan et Magnuson (2013), dans leur article de synthèse de la littérature, tentent d’expliquer par des considérations méthodologiques et théoriques pourquoi tant de disparités sont relevées entre les résultats de projets pilotes et les résultats d’évaluations de politiques de grande ampleur comme Head start. D’un point de vue méthodologique, les auteurs se focalisent sur les travaux qui cherchent à estimer des résultats interprétables comme un lien de cause à effet. Or, le fait de bénéficier ou non d’un programme petite enfance n’est pas indépendant du contexte social et familial, ou encore des préférences parentales en matière de garde, etc. Dès lors, comparer les niveaux de développement ou les trajectoires des enfants ayant bénéficié de ce programme à ceux n’en ayant pas bénéficié ne mesure pas que l’effet du programme mais aussi l’effet de différences souvent inobservables.

Les principaux résultats sont d’abord que les impacts mesurés par ces études semblent de moins en moins importants au fur et à mesure que le temps passe et que pratiquement aucune évaluation n’a obtenu des effets aussi forts que les

77 Programmes présentés en annexe.

78 Nous remercions sincèrement Arthur Heim pour son aide apportée à la traduction des articles répertoriés dans cette partie, parus dans des revues d’économie.

Perry preschool et Abecedarian project. La « moyenne » des 84 effets (mesu-rés à la fin du programme sur la cognition) est de 34 % d’un écart type, ce qui correspond à peu près à la moitié de l’écart entre enfant favorisé et défavorisé.

Plus les programmes sont petits, plus ils semblent efficaces aussi en corrigeant cette moyenne pour la taille des échantillons, elle n’est plus de 34 % mais 22 %.

Ensuite, toujours pondéré par la taille, les programmes mis en place avant 1980 ont une taille d’effet moyen de 33 %, ceux qui l’ont été après cette date sont deux fois moins efficaces en moyenne (16 %). Enfin, les programmes emblématiques sont décrits en détail et comparés à la politique fédérale Head start. Un point commun est que les impacts mesurés disparaissent très vite dans les deux cas si bien qu’à peine sortis des dispositifs (et revenus aux écoles de « droit commun ») on n’observe plus aucune différence.

Cependant, pour les programmes Perry preschool, de nombreux travaux montrent des effets à très long terme, et dans différents domaines (activité pro-fessionnelle, santé, criminalité, etc.). C’est donc un paradoxe apparent dont les auteurs discutent les explications possibles.

Une explication importante est qu’en réalité les programmes petite enfance ont des impacts sur d’autres compétences (souvent non mesurées) que la cognition, et que les effets à long terme transitent par ces compétences. Heckman et Cunha (2007) ont construit un modèle théorique qui représente la dynamique d’inves-tissement dans le capital humain comme présentant des complémentarités entre les compétences cognitives et non cognitives d’un côté, et une complémentarité dans le temps de l’autre. Dès lors, un manque d’investissement tôt dans le cycle de vie place les individus sur une trajectoire de développement durablement moins bonne et, réciproquement, l’acquisition précoce de compétences d’un certain type permet l’acquisition simultanée et future d’autres compétences (Heckman parle de « skills beget skills »).

Ce modèle donne des prédictions pour les programmes d’intervention précoce mais diffère grandement de ceux promus en psychologie du développement qui insistent par exemple davantage sur les différents types d’investissements (parentaux versus formels, etc.). Par ailleurs, les impacts moyens discutés plus haut masquent une hétérogénéité forte de l’effet au sein même des programmes évalués : les effets d’un même programme diffèrent ainsi suivant les enfants et leurs différentes caractéristiques. Ces résultats mettent en valeur l’interaction entre les caractéristiques des enfants et leur développement stimulé plus ou moins bien par différents programmes. Cela montre aussi qu’on maîtrise encore mal les « principes actifs » des programmes petite enfance qui fonctionnent et pour qui. Le but de l’analyse faite par Heckman, Pinto et Savelyev (2013) est de comprendre le paradoxe évoqué par Duncan et Magnuson (2013) qui montre que les effets des programmes petite enfance se dissipent très vite mais des effets importants apparaissent beaucoup plus tard sur des dimensions variées allant de l’activité professionnelle à la santé en passant par la criminalité… Pour répondre à cette question, les auteurs utilisent les données de l’expérimentation Perry preschool (cf. annexe) au cours de laquelle 123 enfants ont été tirés au sort en 1967 pour participer ou non au programme et être suivis de façon longitudi-nale. Les enfants suivis ont été interrogés à de nombreuses reprises ainsi que leur entourage (parents, enseignants), et les auteurs disposent d’un ensemble de mesures conséquentes autour des compétences cognitives (QI) mais aussi des mesures de traits de personnalité comme les comportements extériorisés,

de même que la motivation intrinsèque à l’école. Les résultats montrent que les effets durables de Perry preschool transitent largement par des changements permanents de traits de personnalité qui expliqueraient plus ou moins largement les effets du programme. En particulier, le fait que Perry preschool réduise les comportements externalisés explique les effets positifs, sur le marché du travail, la santé et le risque de présenter des comportements violents. Comme le sug-gèrent Duncan et Magnuson (2013), mesurer l’impact causal d’un programme petite enfance est complexe notamment à cause des enjeux de sélection. Pour y parvenir, le mieux serait de tirer au sort les enfants qui ont une place dans le programme et ceux qui n’en ont pas, afin de les comparer, mais cela s’avère rarement possible. Cependant, il existe des méthodes dites quasi expérimentales qui permettent sous certaines hypothèses modestes de retrouver des effets causaux à partir de données non expérimentales. Parmi ces méthodes, il y a celles des variables instrumentales. L’hypothèse de Auger et Farkas (2014) est la suivante : on sait que le fait de bénéficier du programme est lié à un ensemble de facteurs qui expliquent aussi les différences de résultats sur le registre du développement des enfants. Cependant, s’il existe un phénomène, une variable qui est complètement indépendante du développement des enfants mais qui a un impact sur la probabilité d’être dans le programme, alors on peut se servir du pouvoir explicatif de ce phénomène pour mesurer indirectement l’effet du programme sur le résultat.

Kline et Walters (2016), dans l’étude précédemment citée, s’interrogent notam-ment sur les raisons pour lesquelles les programmes de grande ampleur comme Head Start ne parviennent pas à engendrer des impacts aussi élevés que les programmes expérimentaux. En reprenant avec finesse ce qui est fait dans les évaluations en général, même expérimentales, ils montrent que la situation de référence est généralement mal identifiée. L’hypothèse est la suivante : avant que l’ État ne mette en place un programme petite enfance, il existait auparavant de nombreux arrangements spécifiques aux familles (garde parentale, accueils plus ou moins formels collectifs ou individuels). Dans un contexte d’évaluation où on tirerait au sort les enfants qui bénéficieraient de ce programme, la situation potentielle de ceux qui seraient admissibles est plutôt bien connue : ils iront probablement dans ce programme. Mais la situation potentielle de ceux que le hasard exclurait n’est pas claire : dans la réalité, certains parents peuvent, en l’absence de programme (par exemple, si Head start n’existait pas), préférer garder eux-mêmes leur enfant, ou avoir une assistante maternelle, etc. Ainsi le contrefactuel n’est pas nécessairement bien identifié et il renvoie plutôt à une moyenne de situations peut-être très différentes, avec un impact du programme différent selon le comportement des familles. Dit autrement : si on propose Head start au hasard à une population, ceux qui y ont accès bénéficieront d’effets bénéfiques et, comme c’est aléatoire, on peut avoir confiance dans le fait que c’est bien en raison du programme ; pour autant, pour ceux qui n’en bénéficie-ront pas, il y aura des situations diverses (recours ou non à un autre mode de garde, autres arrangements, etc.), ce qui ne permettra pas de conclure quant à l’efficacité du programme. Ainsi, pour Saïas, Poissant, Delawarde, Tarabulsy (2019, in Tarabulsy, Poissant, Saïas et Delawarde, 2019, 314), « il est nécessaire d’appeler à la prudence en ce qui concerne les conclusions que l’on pourrait tirer de seuls résultats d’essais randomisés. Il convient ainsi de ne pas fonder des décisions sur les seules comparaisons de moyennes d’outils psychométriques (p.

ex. “les moyennes des deux groupes étant significativement différentes à l’issue

de l’intervention, on peut affirmer que celle-ci est efficace”). On suggérera ainsi plus de prudence et de contextualisation (p. ex. “dans les conditions de notre expérimentation, les deux groupes ont présenté des scores différents à l’outil X, en faveur du groupe expérimental, suggérant un effet de l’intervention sur le critère évalué par l’outil X”. »)

Chapitre 3

Aides individualisées

Dans le document Quel accueil pour le jeune enfant (Page 80-84)