• Aucun résultat trouvé

Chapitre 1 Revue de la littérature

1.5. L’approche de la méta-analyse

1.5.2. Étapes d’une méta-analyse

Au moins deux conditions sont tout d’abord nécessaires pour réaliser une méta-analyse de qualité: l’exhaustivité et la rigueur dans le choix des publications et des tests statistiques. En premier lieu l’objectif et les hypothèses de la méta-analyse doivent être clairement définis. Ensuite, les étapes doivent être suivies avec rigueur et nécessitent souvent plusieurs itérations.

53

Figure 1-10 Principales étapes de la méta-analyse (tiré de Sauvant et al., 2005).

1.5.2.1. Détermination de l’objectif

La première étape d’une méta-analyse consiste à définir la question de recherche qui détermine par la suite les objectifs plus ou moins ciblés. Dans une méta-analyse, la problématique pourra évoluer à la suite des premiers résultats trouvés et en fonction des données disponibles.

1.5.2.2. Collectes des données et conception de la base

La seconde étape de la méta-analyse consiste à rassembler d’une façon exhaustive toutes les études publiées cohérentes avec les objectifs du travail (Sauvant et al., 2005). La recherche bibliographique s’effectue à partir de bases de données informatisées au moins deux pour être certain d’être exhaustif (ex : Web of Science, résumés CAB, Prod INRA et Science

54

Direct). La sélection des données se fait par la suite sur des critères d’inclusion et exclusion très clairs. Dans le présent travail, la constitution de la base consiste à rassembler le maximum de données disponibles sur l’utilisation des additives alimentaires à la place des antibiotiques. Ensuite, les données sont extraites et transcrites avec précision dans la base de données après codage. Ce codage consiste à dissocier des ensembles de données pour lesquels plusieurs objectifs expérimentaux sont confondus (Sauvant et al., 2005). Dans un premier temps, les publications reçoivent chacune un code unique. Ensuite, s’il y a différente expérience dans une publication elles reçoivent chacune un code (Sauvant et al., 2005).Plusieurs autres codes (ex. : sujet à l’étude, type d’aliment, stade physiologique) pourront être réalisés pour créer des sous-groupes de traitements (Loncke, 2009).

1.5.2.3. Étude de la méta-dispositif

Les données compilées suite à la sélection sont ce qu’on appelle le méta-dispositif qu’il convient d'explorer minutieusement à la fois graphiquement et statistiquement afin de savoir ce qui est possible de faire ou non avec les données.

Étude graphique

C’est une étape importante pour bien comprendre les données. Elle consiste à étudier les variables 2 à 2 graphiquement afin d’avoir une vue générale de l’hétérogénéité et de la cohérence des données ainsi que de la nature des relations entre les variables. Ceci doit se faire tant au intra, i.e. au sein d’une même étude et inter-études (Figure 1-11). Cette visualisation graphique permet aussi de repérer les valeurs aberrantes ou influentes (Sauvant et al., 2005).

55

Figure 1-11 Les corrélations inter et intra étude (tiré de Loncke, 2009).

Statistiques descriptives

Les variables quantitatives doivent être décrites à l’aide des statistiques descriptives : moyenne, écart-type, minimum, maximum, nombre de données renseignées (Loncke, 2009). En ce qui est des variables qualitatives tels le type d’alternatives, l’âge ou encore la race il est important de regarder les effectifs de chacune d’entre elles, afin de bien s’assurer de l’hétérogénéité des classes représentées et de déterminer s’il est possible ou non de les étudier.

56

Il existe deux types de corrélation : inter-étude et intra-étude (Figure 1-11). La première corrélation inter-étude dite la corrélation classique ou corrélation de Pearson qui consiste à tester la liaison de 2 variables (X et Y) sans tenir compte du fait que certains traitements sont issus de la même étude. En autres termes, cette corrélation est générale pour toutes les données. En revanche, la corrélation intra-étude est testée en incluant l’effet de la publication en fixe tout en sachant que certains résultats proviennent de la même étude (Sauvant et al., 2005).

1.5.2.4. Choix des modèles

Un critère primordial dans le choix du modèle statistique se base sur le mode de prise en compte de l'effet étude qui peut être considéré comme : fixe ou aléatoire. Ceci fait énormément débat dans toutes les sphères où sont utilisées les méta-analyses (Sauvant et al., 2020).

Effet fixe de l’expérience

L’effet étude est considéré comme fixe si chaque étude peut être vue comme étant issue d’une population particulière (Sauvant et al,. 2005). C’est le cas lorsque, par exemple, les méthodes d’études (méthodes de mesures, d’analyses biochimiques) varient entre publications et que l’on suppose que ces méthodes conditionnent les résultats obtenus. En effet le modèle fixe est utilisé quand on analyse les données d’une expérience. Il permet de dégager les effets des facteurs de variation sur les variables d’intérêt (Liais, 2006). Il permet de prendre en compte les variations dont on ne maîtrise pas l’effet. Il permet ainsi de tenir compte des conditions expérimentales différentes. On peut utiliser plusieurs expérimentations dans le même modèle et ainsi déterminer l’évolution générale indépendamment de l’effet de l’expérimentation (Liais, 2006).

57

Effet aléatoire de l’expérience

L’autre modèle est le modèle aléatoire ou (random effect model) (St-Pierre, 2001), où l’effet étude est traité comme aléatoire. L’effet étude sera pris comme aléatoire si chaque étude peut être considérée comme un échantillon pris au hasard dans une population plus large. Dans ce modèle, on considère que chaque étude constitue un échantillon pris au hasard d’une population unique (Sauvant et al., 2005). En fait, une grande diversité au niveau des méthodologies existe entre les publications scientifiques, ce qui a une influence sur les données : effet lié aux publications. Comme il existe plusieurs facteurs de variation entre expérience (type d’alternative, niveau énergétique, dose d’alternative, sexe des animaux). Dans notre analyse, l’effet étude a été considéré comme étant aléatoire. En fait une grande diversité au niveau des méthodologies existe entre les publications scientifiques, ce qui influe sur les données : effet lié aux publications. Le modèle statistique de base est donc le modèle général de variance covariance sous la forme suivante (Sauvant et al,. 2005):

Yij = μ + μi + βXij + βiXij + eij

Avec :

- i l’étude i - j le numéro du traitement alimentaire - Yij la variable expliquée

- Xij la variable explicative quantitative

- eij erreur résiduelle aléatoire

- μ l’ordonnée à l’origine générale

- μi effet de l’étude i sur l’ordonnée à l’origine du modèle

- β coefficient général fixe de régression

- βi effet fixe de l’étude i sur le coefficient général du modèle

Notons qu’il peut y avoir plusieurs variables X et des interactions entre elles et que des relations autres que linéaires peuvent exister entre les variables X et Y. De plus, différents types de modèles tels des modèles linéaires, non-linéaires, exponentiels, etc., peuvent aussi être utilisés.

58

1.5.2.5. Identification des facteurs interférents

C’est une étape importante de vérification. Elle a pour objectif la vérification de la stabilité du modèle par la détection de facteurs secondaires qui sont susceptibles de moduler la réponse de la variable expliquée à un traitement. L'influence de ces facteurs sera testée sur chacun des paramètres du modèle (pentes individuelles, moyennes des moindres carrés et résidus; Sauvant et al., 2005) et l'introduction dans le modèle de ces facteurs de variations additionnels sera testée à condition qu'ils ne soient pas corrélés à la variable X identifiée (Loncke, 2009).Finalement, un point majeur après l’analyse statistique est que le critère de prédiction retenu soit cohérent quantitativement avec les connaissances zootechniques.

1.5.2.6. Post-analyses

Après établissement du modèle statistique, des démarches post-analytiques doivent être appliquées, pour évaluer la qualité du modèle et détecter les valeurs aberrantes ou influentes (Sauvant et al., 2005). Cette dernière étape de la méta-analyse est nécessaire pour connaitre les limites de l’analyse effectuée et pour savoir s’il est nécessaire d’effectuer d’autres analyses complémentaires. Cela implique l’analyse de la normalité des résidus par le test de Shapiro-Wilk testant l'hypothèse nulle de normalité des résidus. Elle peut être examinée graphiquement soit en comparant les quantiles (QQ-plot) des résidus estimés à l’espérance des mêmes quantiles sous hypothèse de normalité ou à l’aide de la droite de Henry. Le calcul des résidus « studentisés » permet de repérer les données aberrantes (Figure 1-12). En effet, les résidus trop grands qui sont exclus de l’intervalle [-2 ; 2] peuvent identifier une donnée influente sur la variable dépendante Y. Pour éliminer une donnée aberrante, il faut bien relire la publication, vérifier toutes les données et faire attention aux conséquences sur le jeu de données et sur les paramètres du modèle, et il faut absolument posséder une explication logique concernant la présence de telle valeur aberrante (Sauvant et al., 2005). C’est souvent à cette étape de l’analyse que l’on va réaliser que certains points ne sont pas bien prédits par le modèle et donc sortent aberrants nous permettant d’identifier de nouveaux X qui devraient être inclus dans le modèle. D’autres statistiques tel le calcul des effets de levier et des

59

distances de Cook permettent de déterminer le poids des divers traitements dans la détermination des paramètres du modèle statistique en détectant la présence des valeurs aberrantes sur la variable explicative X. Finalement, les traitements qui sont trop influents peuvent être retirés du modèle, mais il faut tester l’impact de ce retrait sur le modèle (Sauvant et al., 2005).

Figure 1-12 Exemple de la représentation graphique de la dispersion des résidus autour de la droite de Henry pour le paramètre de gain de poids quotidien (ADG).

1.5.2.7. Évaluation des modèles

Lorsque la méta-analyse est utilisée à des fins prédictives, une étape de validation est recommandée pour s’assurer de la pertinence et d’un risque d’erreur minimum dans la prédiction des valeurs observées. Cependant, le fait que la méta-analyse soit un processus exhaustif complique cette étape compte tenu que toutes les données disponibles ont été utilisées.

En théorie, une validation du modèle nécessite des données externes (Steyerberg et al., 2001). Il est possible de faire une validation interne (cross validation; Garcia et Agabriel, 2008) Ce

60

type de validation consiste à segmenter l’échantillon de base en deux ou plusieurs échantillons (p) selon la méthode choisie (tests et validation ou holdout method, k-fold, cross- validation et leave-one-out cross-validation; Shaikh, 2018). Pour résumer, un des k échantillons de base est utilisé pour l’établissement du modèle et les (p-1) autres échantillons seront utilisés pour la validation de l’échantillon testé (Messad, 2016). L’opération se répète ainsi p fois pour qu’en fin de compte chaque sous-échantillon ait été utilisé exactement une fois comme ensemble de validation. La moyenne des erreurs est calculée pour estimer l’erreur moyenne de prédiction du modèle (RMSPE (Root Mean Square Prediction Error) que l’on cherche faible. Ensuite, la vérification de l’absence de biais (Vaillant, 2010) est établie si la valeur de l’ordonnée à l’origine de cette analyse GLM était non différente de 0, si la pente était non significativement différente de 1 (Loncke, 2009). Un R2 élevé est également signe d’une bonne prédiction.

Documents relatifs