• Aucun résultat trouvé

3. Outils :

3.4. Analyses:

3.4.1. Analyses statistiques :

Les données quantitatives recueillies sont analysées selon des techniques de statistiques descriptives et exploratoires ; notamment des analyses corrélationnelles, des analyses de régression et des analyses factorielles confirmatoires. Des régressions multiples dites « pas à pas » sont menées afin de tester les éventuels effets médiateurs de variables entre-elles selon la méthode détaillée par Baron et Kenny (1986). Ces analyses sont réalisées à l’aide du logiciel statistique SPSS 17.

Concernant les analyses de corrélation, celles-ci permettent de mesurer les relations linéaires entre deux variables. Elles n’impliquent pas une relation d’effet de causalité à l’inverse des analyses de régression linéaire. Elles se définissent au travers d’un coefficient de corrélation dont le plus utilisé est le

r

de Pearson que nous utiliserons ici. Celui-ci est compris entre -1 et +1 en passant par 0 ; où -1 correspond à une parfaite corrélation inversée entre deux variables, c’est-à-dire où plus les valeurs de l’une augmentent plus les autres diminuent ; et +1 correspond à une parfaite corrélation positive où plus les valeurs de l’une augmentent plus les autres augmentent également. La valeur 0 de ce coefficient indique une absence de relation linéaire entre les deux variables. En sciences humaines, il est rare d’observer des valeurs de ce coefficient se rapprochant de 1 par le fait qu’il ne s’agit pas de mesures s’appliquant à la matière, par exemple la température de l’eau et son ébullition, mais de mesures subjectives, toujours plus ou moins variables d’un individu à l’autre. Un coefficient se rapprochant de 0,20 ou 0,30 sera ainsi jugé satisfaisant. Cette analyse suppose que les

134

variables soient mesurées à partir d’échelles d’intervalles avec des valeurs définies, même si elle n’implique pas que les deux variables utilisent les mêmes unités de valeur. Cette analyse apporte un premier stade d’information concernant le comportement qu’adopte une variable par rapport à une autre et indiquant s’il est pertinent d’approfondir les recherches.

Les analyses de régression apportent pour leur part des informations concernant l’effet d’un ou plusieurs facteurs sur un autre. Il s’agit bien ici d’un calcul statistique d’une relation de cause à effet d’une variable sur une autre. Elles permettent d’observer quels facteurs ou variables indépendantes vont être prédicteurs d’une variable dépendante. Le but sera d’aboutir à un modèle explicatif dont le coefficient R2 indiquera la valeur en part de variance qu’il sera possible de traduire en pourcentage. Les coefficients de régression standardisés " apporteront pour leur part des informations portant sur la valeur de prédiction significative d’une variable indépendante sur la variable dépendante et comparativement aux autres facteurs introduits dans le modèle. Il est ainsi possible de voir quels sont parmi les différents facteurs testés par rapport à la variable dépendante, ceux qui sont les plus et les moins prédicteurs.

Il arrive que selon le modèle et les variables indépendantes y étant introduites, ce coefficient " varie pour certains facteurs. Ce phénomène a été défini par Baron et Kenny (1986) comme « effet médiateur » d’une variable entre deux autres. C’est-à-dire qu’une variable indépendante introduite dans un modèle absorbe une partie de la variance d’une autre variable indépendante et de sa part de prédiction sur la variable dépendante. Pour parler d’effet médiateur il faut alors que dans un premier temps la variable indépendante A prédise bien la variable dépendante, que dans un second temps il soit observé qu’elle prédit également la variable indépendante B, et que dans une dernière étape, cette variable indépendante B introduite dans le modèle prédise la variable dépendante et ait pour effet de diminuer la valeur prédictive de la variable indépendante A sur la variable dépendante. Cette analyse permet d’observer un continuum entre différentes variables ou l’une entraîne l’une qui entraîne l’autre. Il est alors possible de détailler la valeur d’influence d’un facteur sur un autre pris dans un ensemble.

Enfin, concernant l’analyse factorielle utilisée, il s’agit de l’analyse en composantes principales, qui a pour but de chercher des similarités entre des variables afin de les condenser sous un même facteur. C’est-à-dire que des variables qui se comportent de la même manière seront regroupées entre elles. Cette analyse sera menée ici afin de tester la validité factorielle

135

des échelles utilisées et afin d’en démontrer les qualités métrologiques. Pour pouvoir condenser les observations, il faut postuler l’existence de variables latentes appelées « facteurs », qui doivent rendre compte des relations entre des variables observées (ou les variable manifeste). Généralement, on a besoin de plusieurs facteurs pour rendre compte de manière satisfaisante de ces relations. Lorsque l’on n’a pas d’hypothèse a priori sur le nombre de variables latentes nécessaires, on dit de la démarche qu’elle est exploratoire. Ici, il s’agira d’études d’outils psychométriques, à savoir des échelles, qui plus est déjà validées dans d’autres langues, et nous avons donc des hypothèses précises sur le nombre de facteurs nécessaires ou, plus généralement, sur différents paramètres de la solution factorielle, nous parlerons alors de démarche confirmatoire. Les items des échelles constitueront les variables testées pour le modèle factoriel. L’analyse factorielle permet donc de tester combien de facteurs sont nécessaires pour donner une représentation juste des données, par exemple en termes de sous-échelles ou de sous-dimensions au sein d’une même échelle. Elle permet également de connaître la nature de ces facteurs ainsi que la façon dont on peut les interpréter en analysant les variables qui les composent. Enfin, il est possible d’observer quelle proportion de la variance des données peut être expliquée par un certain nombre de dimensions ou facteurs majeurs. En effet, dans l’analyse en composantes principales, les composantes sont hiérarchisées, la première composante exprimant la plus grande part de variance totale et la dernière, la plus faible proportion.

Afin de regrouper les différentes variables sous différents facteurs, un processus mathématique appliqué par le logiciel est requis, permettant de faciliter l’interprétation des facteurs en maximisant les saturations les plus fortes et en minimisant les plus faibles au travers de la matrice des poids factoriels. Ainsi, par observation des saturations de chaque variable pour chaque facteur, chaque facteur apparaît déterminé par un ensemble restreint et unique de variables. Ce processus est appelé « rotation » ; plusieurs méthodes de rotation existent, notamment les rotations orthogonales et les rotations obliques. Ce sont les premières que nous utiliserons ici ; dans une rotation orthogonale, l’indépendance entre les facteurs est recherchée. Une telle solution indique que chaque facteur apporte une information unique, non partagée par un autre facteur. Il existe également plusieurs méthodes pour produire une rotation orthogonale ; la plus fréquemment utilisée et celle que nous utilisons ici est VARIMAX. Une fois la matrice des poids factoriels obtenue, soit le tableau des saturations, on sélectionne les items qui ont la saturation la plus forte (supérieure à 0,30) pour signifier le facteur, le nommer.

136

Il n’en demeure pas moins que pour ce type d’analyse, le critère de la justesse des observations est en partie subjective, et il faut faire attention à ce que le regroupement des variables ait un sens. Autrement dit, il y a souvent de nombreuses solutions possibles après rotation et non pas une seule « bonne » solution, et la solution obtenue est à présenter comme une solution plausible parmi d’autres, qui n’est pas contredite par les données. À cette fin, le « Scree Test » est utilisé comme outil afin de nous conforter dans le choix d’une solution. Le « Eigen Plot » qui en est tiré donne une représentation graphique des informations sur les valeurs de Eigen (eigen values) pour chaque facteur présenté dans le tableau des statistiques initiales. Dans cette représentation, il faut rechercher le point de cassure qui représente le nombre de facteurs au-delà duquel l’information ajoutée est peu pertinente. Plus la courbe est accentuée, plus il apparaît qu’un petit nombre de facteurs explique la majeure partie de la variance. À partir du moment où la courbe devient presque une ligne droite horizontale, il apparaît que les facteurs subséquents apportent peu de nouvelles informations. Les valeurs de eigen représentent donc la variance expliquée par chaque facteur. Elles sont constituées de la somme des poids factoriels au carré de toutes les variables pour un facteur déterminé. Nous présenterons donc pour chacune des analyses factorielles réalisées la table des valeurs propres ainsi que le Squee test, indiquant le nombre de facteurs pertinents à retenir pour la solution factorielle ; et la matrice des poids factoriels permettant d’analyser la nature des facteurs et les variables les composants.