• Aucun résultat trouvé

et résultats obtenus

16. Méthodes de traitement des données 161 le traitement biométrique

Les variables étudiées sont de deux types fondamentaux sur le plan biométrique : variables à expliquer (paramètres de l’objet d’étude) et variables explicatives (facteurs pouvant avoir une incidences sur l’objet d’étude).

Les variables explicatives, en biométrie, sont à considérer en deux sous-groupes :  variables non - contrôlées (ici liées au milieu),

 variables contrôlées (ici résultant des pratiques de l’éleveur).

La combinaison des mesures effectuées, des exigences statistiques et des réalités agroécologique conduit à l’étude des bases de données croisant les stations / parcelles avec des variables d’état, celles considérées comme non contrôlées (milieu) et celles considérées comme contrôlables – pilotables (pratiques).

Toutes ces variables sont aussi sur le plan statistique de deux ordres :

variables quantitatives dites continues (ex. un suivi de chiffres continus comme pour le pH), variables qualitatives discontinues (ex. des classes d’exploitations de pâturage par type de profils

de mode d’utilisation des prairies).

Avant le traitement proprement dit des bases de données à chaque campagne, il a été procédé à un examen brut des données par visualisation. A partir d’histogrammes il a été possible de visualiser les données erronées (dues à des erreurs de saisie) qui ont été corrigées. Ensuite les analyses qui ont été effectuées sont toutes de type multivariées. Il a été procédé à des Analyses en Composantes Principales (ACP) pour les variables quantitatives continues. C’est une méthode essentiellement descriptive qui effectue une ordination des quantités. L’ACP permet de structurer les variables et visualise leurs liaisons (Philippeau, 1992). Par exemple l’ACP sur les variables pédologiques de la première campagne nous a permis dans un premier temps de réaliser des sélections de variables afin d’alléger la matrice de données et d’obtenir un rapport nombre de sites par nombre de variables proche de deux. Les autres ACP ont été effectuées pour rechercher (grâce aux projections) des familles de variables. Ces ACP ont aussi permis d’observer des groupes de sites aux caractéristiques voisines.

L’analyse des variables continues et les variables discrètes (discontinues, exprimées en classes) a conduit pendant longtemps à traiter séparément les variables qualitatives et quantitatives, la synthèse étant le fait de la personne qui doit interpréter les données. (Baran, 1997). Il était toutefois possible de transformer les données des variables quantitatives en variables qualitatives en les transformant et les codant après avoir réalisé un découpage en classes des valeurs des individus (Bouroche et Saporta, 1980).

Le tableau de contingence ainsi réalisé pouvait être traité par une Analyse Factorielle des Correspondances (AFC) ou plutôt une extension de cette analyse qui est l’Analyse Factorielle des Correspondances Multiples (AFCM ou ACM)1 (Dervin, 1992).

L’inconvénient de cette méthode est la perte d’informations en rendant qualitatif un caractère numérique. Or il existe une méthode statistique multivariée à même de traiter simultanément des variables discrètes et continues : l’analyse de Hill et Smith, intermédiaire entre l’Analyse en Composantes Principales et l’Analyse des Correspondances Multiples (Hill, M.O. & Smith, A.J.E. 1976 : Principal component analysis of taxonomic data with multi-state discrete characters. Taxon : 25, 249-255).

Cette méthode est un cas particulier de l’analyse canonique ; elle maximise, pour l’ensemble des variables envisagées, la moyenne des R2 entre chaque variable et un score (R2 étant un carré de corrélation dans le cas des variables quantitatives et un rapport de corrélation pour les variables qualitatives). La valeur propre est alors cette moyenne1.

Figure n° 92 : les différentes étapes de l’analyse statistique multivariée.

Graphiquement, les plans factoriels issus de cette analyse s’interprètent en termes de structure des variables, donc de distributions, comme une AFC ou une ACM. C’est une analyse qui est donc elle aussi essentiellement descriptive. Outre le fait qu’elle permet de traiter simultanément des variables qualitatives et quantitatives, elle met en évidence, comme d’ailleurs les AFC, les distributions les plus originales quelles que soient les quantités de points originaux.

L’analyse de Hill et Smith n’a été programmée et rendue disponible sur logiciel que très récemment (Cf. doc. correspondante de ADE-4 à URL (Déc 2008) http://pbil.univ-lyon1.fr/ADE-4/ )

Nos traitements biométriques ont nécessité de procéder par étapes en réalisant d’abord :  Une ACP (centrée normée) sur les variables continues non redondantes.

 Une analyse factorielle des correspondances multiples (ACM) sur les variables en classes  Elles ont été conduites sur les logiciel ADE-4 et R.

Remarques sur nos choix et réflexions biométriques :

L’objectif des analyses sur variables instrumentales (Lebreton et al., 1988a, 1988b, 1991 ; Sabatier et al., 1989) permettent de traiter simultanément deux tableaux de données portant sur les mêmes relevés, en cherchant à expliquer la structure de l’un par l’autre. Ces méthodes sont dites "sous contraintes" car elles contraignent les axes d’ordination à être des combinaisons linéaires des variables du tableau explicatif. Ces analyses s’apparentent aux analyses inter et intraclasses dans le sens où ces dernières sont également des analyses sous contraintes (elles utilisent le temps et l’espace comme des variables instrumentales contrôlant l’analyse).

L’Analyse en Composantes Principales sur Variables Instrumentales (ACPVI –Lebreton et

al., 1991) couple deux tableaux X1 et X2 relevant l’un et l’autre d’ACP. Ce type d’approche

dissymétrique se heurte à un problème lié à la régression sous-jacente. Pour que cette dernière ait un sens le nombre de variables explicatives q du tableau X2 doit être nettement inférieur au nombre de relevés n (n>10q).

Dans le cas contraire, on réalise en fait l’analyse simple du tableau à expliquer. La prédictibilité du tableau X1 par le tableau X2 peut apparaître comme très bonne alors que la régression n’a pas de sens. Dans cette situation, l’utilisation de méthodes alternatives comme l’analyse de Co-Inertie est plutôt conseillée.

L’analyse de co-inertie a été proposée par Chessel et Mercier (1993), Dolédec et Chessel (1994). C’est une analyse symétrique qui a pour but de rechercher la structure commune à deux tableaux portant sur les mêmes individus ou relevés. Son principe est la recherche d’axes de co-inertie maximisant la covariance entre les coordonnées des projections des lignes de chacun des tableaux, respectivement dans l’espace des p colonnes de X1 et des q colonnes de X2. L’analyse de co-inertie est une méthode de couplage de tableaux qui s’appuie sur le schéma de dualité défini par Escoufier (1987) pour autoriser le couplage des différents types d’analyses multivariées de base (ACP, AFC, ACM…).

Concernant nos données, nous avons considéré qu’il était préférable de passer par des analyses de co-inertie pour coupler deux tableaux pour les raisons suivantes :

 le nombre de nos relevés peut être insuffisant par rapport aux nombres de variables explicatives,

 il est préférable de chercher une structure commune à deux tableaux, au lieu d’essayer de donner un caractère explicatif à un des deux tableaux, compte tenu de la complexité de fonctionnement du milieu,

 nos données contiennent de nombreuses variables qualitatives, et l’acpvi ne permet pas d’introduire des variables qualitatives, seule l’analyse de co-inertie le permet, au travers des ACM.

162. le traitement graphique des données

Des graphiques Bertin ont aussi été réalisés afin de pouvoir effectuer des traitements et interprétations avec des acteurs du “groupe professionnel local” pour qui le traitement mathématique statistique peut apparaître comme rébarbatif. L’utilisation de matrices ordonnables présente l’avantage d’être un outil facilement “appropriable même par des personnes qui ne veulent pas s’investir dans l’outil statistique (Leplaideur, 1982). Hormis le caractère visuel et pédagogique de la présentation des résultats, l’intérêt majeur de ce

traitement est qu’il peut être réalisé collectivement avec tous les acteurs, il n’exclue pas ceux pour qui les statistiques constituent une barrière. Par ailleurs, un autre avantage majeur du traitement graphique des informations est qu’il impose aux scientifiques de communiquer leurs données, seule garantie du sérieux du travail réalisé (Leplaideur, 1982). Ce fait est d’importance car la seule façon de faire passer l’étude au niveau de la confrontation et de l’échange avec des acteurs autres que les pairs de sa discipline scientifique est d’accepter que le phénomène observé et décrit puisse être reproduit par toute autre personne, acteur dans le “réseau professionnel local” (notamment par les éleveurs).

Faire participer des éleveurs au travail du traitement et interprétations des données offre aussi la possibilité de bénéficier de leurs savoirs et connaissance217, construits à, partir de multiples domaines d’activités. Le travail du traitement collectif des données peut ainsi fournir une certaine dimension multidisciplinaire. «Contrairement à ce que l’on s’imagine parfois, les

chercheurs sont donc loin d’avoir le monopole de la production des connaissances techniques.» (Landais et Balent, 1993).

163. Information cartographique

A l’origine de nos études et suivis d’élevage nous avons établi des parcellaires dans chaque exploitation de référence. Les relevés ont été effectués au topofil et à la boussole218, Ils étaient ensuite dessinés sur calques à l’échelle 1/5.000.

La numérisation des parcelles est une « procédure consistant à convertir les données

existantes (cartes sur papier, photographies aériennes ou images tramées) sous une forme numérisée en traçant des cartes à l’aide d’un numériseur, la position des objets étant enregistrée au moyen des coordonnées (x, y). » (Autodesk, 1997).

La numérisation a été réalisée sur une table à digitaliser Summagraphics (format A0), les données ont été enregistrées sous Autocad Map. Pour calibrer la table à digitaliser nous avons tracé 3 ou 4 points sur chaque calque avec des coordonnées (x,y) connues (déterminées en fonction de l’échelle) et nous avons choisi une projection orthogonale. Nous avons ensuite « nettoyer » les dessins (avec une tolérance de 4 m) pour supprimer les problèmes et erreurs potentielles afin d’obtenir une image propre à savoir sans doublons (lorsqu’une limite parcellaire est numérisée deux fois), avec des polygones (« ensemble des liens formant un

espace clos ») bien fermés,… Cette étape est nécessaire avant d’utiliser ces données pour

créer une topologie.

217

Les organismes scientifiques n’ont pas le monopole ni de la connaissance, ni de la recherche. (Darré, 1996). Au sein des “groupes professionnels locaux” il existe des “paysans-chercheurs” (Röling in Dupré, 1991) dont les savoirs doivent être pris en compte et mis à contribution notamment dans le type d’étude que nous avons réalisée.

218

Les GPS en zone tropicale à l’époque présenter des niveaux d’incertitude au minimum de 100 m. De plus les relevés par GPS sont plus délicat en zone équatoriale en raison du faible nombre de satellites pouvant être captés simultanément, une bonne précision en nécessite au moins trois.

E6 Type 7 E4 Type 7 E3 Type 8 E2 Type 6 E1 Type 2 E5 Type 7 D6 Type 5 D6 Type 5 D7 Type 2 D5 Type 2 D4 Type 2 D2 Type 3 D0 Type 5 D1 Type 9 D3 Type 2 B2 Type 3 B3 Type 3 B4 B1 Type 3 A8 Type 3 A9 Type 3 A6 Type 3 A4 Type 4 A7 Type 3 A2 Type 3 A2 Type 3 A1 Type 3 S2 Type 1 S2 Type 1 S1 Type 2 S3 Type 2 C2 Type 1 C1 Type 1 Systèmes d’informations cartographiques des territoires d’élevage Figure n° 93 : Exemple d’une cartographie d’un territoire d’un élevage Faible Moyenne Forte Charge globale

Etat des prairies

B.humidicola