• Aucun résultat trouvé

La complexité des interventions nécessite une analyse approfondie à la fois de leurs composantes constitutives, de leurs contextes, des interactions et aspects dynamiques qui les régissent, de leur caractère évolutif/du cycle de l’intervention, ainsi que de leurs facteurs de réussite ou d’échec. Une première étape pour analyser une intervention complexe implique de décrire l’intervention, quel que soit son niveau de complexité. L’entrée privilégiée est actuellement la composante. Sous l’impulsion du MRC, nous pouvons constater une réelle évolution quant aux recommandations ayant trait au développement, à l’évaluation et à la description des interventions en santé, en santé publique et en promotion de la santé. Afin d’aider les chercheurs à relever le défi évaluatif des interventions complexes en santé, le Medical Research Council propose un guide d’aide au développement et à l’évaluation des interventions complexes en santé. Ce guide a pour vocation d’aider les chercheurs à adopter les méthodes appropriées pour le développement, la mise en œuvre et l’évaluation de leurs

interventions ; aider les décideurs à comprendre les contraintes de la démarche de production de données probantes ; et à aider les utilisateurs à évaluer la preuve des interventions proposées dans la littérature. S’il met en exergue l’importance de repenser la méthodologie d’évaluation des interventions, il ne propose pas de recette magique avec un modèle unique permettant de développer et d’évaluer n’importe quelle intervention complexe. Dès lors les chercheurs se retrouvent face à un éventail de propositions permettant une prise en compte plus ou moins importante de la complexité des interventions et, comme nous l’avons vu, plus ou moins applicable au champ de la promotion de la santé. Ainsi, le recours à l’un ou l’autre de ces modèles alternatifs venant compléter l’essai contrôlé randomisé, exige de la part du chercheur une réflexion approfondie autour de la question de recherche et de la finalité de l'intervention (évaluation de l'effet de l'intervention, examen de la mise en œuvre, mécanismes d'impact et effets des facteurs contextuels). Ces questionnements préalables doivent conduire aux choix du/des modèle(s) le(s) plus approprié(s) pouvant alors être utilisé de façon successive ou combinée à différentes étapes de l'approche évaluative (34). Leur utilisation représente dès lors un réel challenge (51). En effet, l'application de ces modèles théoriques et outils évaluatifs tels qu'ils sont recommandés dans la littérature, exigent à la fois des compétences méthodologiques aiguisées, généralement l’apanage des chercheurs, et l’immersion dans les interventions à évaluer, pilotées par des acteurs souvent peu formés aux méthodes d’évaluation.

Si du point de vue de la recherche en santé, ces recommandations et innovations méthodologiques représentent une avancée, elles demeurent insuffisantes lorsqu’il s’agit de faire des données probantes ainsi produite, des données utiles aux acteurs de terrain et aux décideurs dans le champ de la santé publique. En effet, nous avons démontré que la complexité des interventions de santé publique et de promotion de la santé était inhérente au réalisme du terrain et que l’appréhension de cette réalité ne pouvait être faite qu’avec

l’implication des acteurs qui sont au cœur des interventions et qui vivent quotidiennement avec la complexité. La mise à contribution de leurs savoirs expérientiels et de leurs connaissances des éléments du contexte permet une analyse fine des mécanismes en jeu dans le fonctionnement de telles interventions. L’implication des acteurs permet une production de données probantes utiles, qui reflètent la réalité de la complexité des interventions, et qui permettent d’en juger la transférabilité dans un autre contexte.

Bien que ces partenariats soient de plus en plus encouragés pour leur gage de pertinence et de pérennité (99), leur opérationnalisation soulève de nombreux défis. Parmi ces défis nous pouvons tout d’abord aborder les différences de pratiques méthodologiques entre chercheurs et acteurs de terrain. En effet, si nous avons pu identifier quelques rares pratiques évaluatives convergentes (telles que l’utilisation d’évaluation réaliste), nous avons surtout mis en évidence l’utilisation de méthodologies différentes, utilisées pour mesurer des choses différentes. L’autre défi à ce partenariat est le manque de liens entre la recherche et les acteurs de terrain pour la production des données probantes contextualisées. N’appuyant pas toujours leurs questions de recherches et leurs méthodologies sur les besoins et la réalité des acteurs et n’utilisant que peu les données expérientielles, pourtant nombreuses, la recherche interventionnelle conduit encore à produire des données jugées peu pertinentes et utiles par les acteurs de terrain (96).

En effet, en France le processus de transfert de connaissances mobilisé dans ces démarches est encore trop souvent envisagé selon une approche top-down du chercheur vers l’acteur : le chercheur évaluant l’efficacité de l’intervention ; l’acteur de terrain disséminant l’intervention. Ce fonctionnement amène encore trop rarement les chercheurs à se demander comment les acteurs se positionnent par rapport à la complexité des interventions qu’ils mettent en œuvre et par rapport à leurs pratiques.

Enfin, la dernière difficulté à l’évolution récente et nécessaire des pratiques vers l’Evidence Based Health Promotion, le transfert de connaissance et la recherche interventionnelle , est liée à une culture différente entre les parties prenantes du partenariat chercheurs-acteurs (117,118). Si nous avons vu que les méthodologies adoptées pour aborder les interventions sont différentes entre les chercheurs et les acteurs de terrain, il en est de même pour : les objectifs d’intervention et d’évaluation ; la vision des éléments de complexité ; la façon d’appréhender la complexité…

2.

Problématique et objectifs de la recherche