• Aucun résultat trouvé

Les échelles mobilisées dans notre recherche sont ici examinées pour évaluer leurs qualités psychométriques. La première analyse consistera à s’assurer de l’unidimensionnalité ou de la multi dimensionnalité des échelles par l’Analyse en Composantes Principales (ACP). Suite à cette analyse, nous allons à épurer, si besoin, les échelles en éliminant certains items qui ne contribuent pas significativement à leur robustesse. Le calcul de l’alpha de Cronbach nous permettra enfin de vérifier la cohérence interne des échelles épurées.

Ce chapitre est structuré en deux sections. Nous présentons dans un premier temps les étapes d’analyse retenues puis dans un deuxième temps, la présentation détaillée des outils de mesure et des méthodes d’analyse des données.

1. Les étapes d’analyse

Avant de procéder à la vérification des hypothèses, il est donc impératif de s’assurer de la qualité des outils de mesure, même si nous avons fait par ailleurs le choix de sélectionner des échelles éprouvées et reconnues par la littérature (Roussel & al, 2005).

Le choix d’une échelle de mesure constitue une étape critique dans un travail de recherche car cette sélection conditionne pour partie la validité du résultat obtenu. Mesurer des phénomènes qui ne sont pas directement observables, comme les intentions ou les traits de personnalité pour ce qui concerne notre recherche, peut s’avérer une tâche délicate et cela exige de s’assurer de la qualité psychométrique des échelles de mesure utilisées. L’objectif est de tendre vers une mesure parfaite du phénomène et de limiter les erreurs systématiques et les erreurs aléatoires (Evrard & al, 2009). L’erreur systématique « provient généralement d’une définition non pertinente ou insuffisante des variables conceptuelles et d’une mauvaise représentation par les items de l’échelle. » (Roussel, 2005). Quant à l’erreur aléatoire, elle est le fruit des « aléas tels que les circonstances, l’humeur des personnes interrogées... » (Evrard & al, 1993).

Churchill (1979) a proposé au chercheur une succession d’étapes allant d’une phase exploratoire à une phase de validation. Elles lui permettent de s’assurer de la validité et de la fiabilité des construits qu’il

174 exploite. Il s’agit alors de réduire la partie aléatoire de l’erreur de mesure. La validité d’une échelle est jugée bonne si chaque item contribue à mesurer effectivement ce qu’il est censé mesurer. Les analyses factorielles exploratoires et confirmatoires permettent de confirmer la validité des échelles de mesure. Conformément au paradigme de Churchill (1979), nous devons à cette étape de notre travail affiner notre instrument de mesure en épurant notre questionnaire (Figure 17).

Figure 17 : Les étapes du paradigme de Churchill (1979)

Pour cela, il est pertinent de suivre un protocole en trois étapes : l’analyse préalable à l’examen de la structure factorielle, l’analyse de la structure factorielle et l’analyse de la cohérence interne (Figure 18).

175 Chacune de ces étapes contribue à s’assurer de la qualité des échelles sélectionnées :

!! Etape 1 : Selon Evrard et ses collègues (2009), il est indispensable de démarrer cette procédure d’analyse des outils de mesure en s’assurant que les données sont factorisables, « c’est-à-dire si elles forment un ensemble suffisamment cohérent pour qu’il soit raisonnable d’y chercher des dimensions communes qui aient un sens et ne soient pas des artefacts statistiques ». Deux tests permettent de contrôler l’adéquation des données : le test MSA (Measure of Sampling Adequacy) ou le test de KMO (Kaiser-Meyer-Olkin) et le test de sphéricité de Bartlett. Pour Carricano et Pujol

(2008), le test de sphéricité de Bartlett s’appuie sur la matrice des corrélations pour tester « l’hypothèse nulle selon laquelle toutes les corrélations sont de zéro tandis que le KMO indique

dans quelles proportions les variables retenues forment un ensemble cohérent et mesurent de manière adéquate un concept ou les dimensions d’un celui- ci. Des valeurs de KMO comprises entre 0,3 et 0,7 représentent des solutions factorielles acceptables ».

!! Etape 2 : L’analyse factorielle exploratoire est donc pertinente à ce stade de la recherche. Elle consiste à réduire les facteurs étudiés. Les données initiales sont résumées à travers des données de synthèse. L’objectif est alors d’en simplifier l’interprétation. Cette structuration des données doit se faire de manière exploratoire. C’est le rôle de l’analyse en composante principale (ACP). Elle vise à identifier les dimensions explicatives sous-jacentes des résultats obtenus sur une même échelle.

Cette analyse est préconisée dans les recherches à caractère exploratoire, notamment en l’absence d’un acquis théorique sur les relations existant entre les variables. Bien que nous nous appuyions dans le cadre de notre recherche sur des concepts reconnus par la littérature académique, les liens entre certaines des variables de notre modèle manquent à être opérationnalisés dans un modèle. L’ACP va ainsi définir des axes factoriels qui permettront de dégager les principales dimensions des construits que nous étudions. Il s’agit dans cette étape de retenir le nombre adéquat de construits. Ce procédé doit respecter la règle principale : la première règle est le critère des valeurs propres (critère de Kaiser). Cette règle consiste à retenir autant d’axes qu’il y a de valeurs propres supérieures à 1. La deuxième règle est de définir un niveau minimum de variance expliquée. Alors que Vedrine (1991) et Evrard (2009) suggèrent d’atteindre un score se situant entre 75% et 80%. Igalens et Roussel (1998) conseillent quant à eux d’abaisser ce score à 50% pour le domaine des ressources humaines car les concepts étudiés demeurent complexes à étudier. On retient autant d’axes factoriels qu’il est nécessaire pour atteindre ce seuil recommandé. Il s’agira donc d’effecteur ce qu’on appelle la purification de l’échelle de mesure.

Cette démarche itérative vise à condenser les échelles du questionnaire par élimination, si cela s’avère nécessaire, d’items réduisant la qualité métrique (Roussel, 2005). Les tests de fiabilité et cohérence sont réitérés jusqu’à l’élimination de l’item problématique.

Selon le nombre de critères que mesurent les échelles, une analyse factorielle (avec rotation) peut être nécessaire pour faciliter l’interprétation des facteurs (Carricano & al, 2008). L’algorithme de

176 rotation Varimax est « basé sur la maximisation des coefficients de corrélation des variables les plus corrélées » (Evrard & al, 2009). Le but de cette opération est d’obtenir une structure factorielle plus claire (Hair & al, 2006 ; Malhotra & al, 2004). Ce travail de définition du nombre d’axes accompli, il s’agira de vérifier que la contribution factorielle des items mesure bien le construit que ces items sont censés mesurer. Cette étape peut nécessiter d’épurer des items de l’échelle si l’on juge que la qualité de la contribution factorielle de ce dernier n’est pas satisfaisante.

!! Etape 3 : l’analyse de la cohérence interne (alpha de Cronbach). Une fois les données résumées en composantes principales (ACP), il est recommandé de mener une analyse de fiabilité pour évaluer la cohérence interne des items qui constituent les facteurs identifiés. Les travaux de Kalleberg et Kluegel (1975) suggèrent d’ailleurs de « généraliser les techniques d’analyse factorielle dans les processus des tests d’échelles pour questionnaires d’enquêtes » (Roussel, 2005). L’objectif est d’obtenir les résultats les moins dispersés possibles lorsqu’on mesure plusieurs fois le même phénomène.

Durant cette phase exploratoire, l’alpha de Cronbach est l’indicateur le plus utilisé pour tester la fiabilité et la cohérence interne d’un ensemble d’items censés mesurer un même phénomène. Evrard et ses collègues (1993) définissent la fiabilité de cohérence interne d’un instrument de mesure comme « la qualité d’un instrument de mesure qui, appliqué plusieurs fois à un même phénomène, doit donner les mêmes résultats ». Cela signifie alors que « les items représentant les différentes facettes d’une variable conceptuelle sont corrélés » (Roussel, 2005). Pour que ce test soit efficace, il est nécessaire d’avoir à sa disposition une échelle constituée d’au moins trois items (Darpy, 2009). L’alpha de Cronbach est d’autre part, une condition nécessaire de la fiabilité d’une échelle. Son rôle consiste à tester la covariance entre les items pour rendre compte de la fiabilité d’une échelle. La valeur de l’alpha de Cronbach indique la cohérence d’une mesure (Tableau 24). Plus sa valeur est proche de 1, plus on considère que la fiabilité du concept mesuré est forte (Carricano & al, 2008). Les items qui ne contribuent pas significativement à la robustesse de ce coefficient doivent donc être éliminés. Le seuil d’acceptabilité de l’alpha de Cronbach varie de 0.6 à 0.9 (De Vellis, 2003). Il est par ailleurs admis des seuils d’acceptabilité de l’alpha différents selon les objectifs de recherche. Ainsi, pour une recherche exploratoire, un coefficient alpha compris entre 0,6 et 0,8 est admis ; dans une recherche confirmatoire, une valeur supérieure à 0,8 est souhaitable (Carricano & al, 2008 ; Evrard & al, 2009 ; Nunnaly & al, 1994).

177

Tableau 24 : Les valeurs de l’alpha de Cronbach (De Vellis, 2003)

Les Analyses en Composantes Principales, la mesure de l’alpha de Cronbach et les régressions linéaires multiples sont effectuées sur le logiciel SPSS 16.0.1 (en version française).

L’analyse psychométrique des sept outils de mesure de ce travail de recherche a été réalisée sur l’ensemble de la population qui constitue l’échantillon (305 managers).

Cette analyse des outils de mesure se fait en trois temps : l’analyse préalable à l’examen de la structure factorielle, l’analyse de la structure factorielle et l’analyse de la cohérence interne.

2. Analyse des échelles

L’analyse de la qualité psychométrique des échelles de mesure est une étape importante de la démarche de recherche. Il s’agit d’en contrôler à la fois la fiabilité et la validité avant de vérifier les hypothèses. Ceci se fait grâce à trois étapes successives : les tests préalables de factorisation avec le test de KMO (Kaiser-Meyer-Olkin) et le test de sphéricité de Bartlett, l’analyse de la structure factorielle et enfin, l’analyse de la cohérence interne. Cette démarche sera mise en œuvre pour chacune des échelles utilisées dans le modèle de recherche.