• Aucun résultat trouvé

5. Évaluer l’apprenance

5.2.4. Résultats de structure

En suivant les recommandations de Schwab (1980), nous présentons d’abord les étapes de développement de l’échelle (items, consistance et analyses factorielles) puis d’évaluation de

68

l’échelle (fidélité, les résultats de validité convergente étant présentés au chapitre suivant). De même, comme le recommandent Costello & Osborne (2005), les données disponibles ont été divisées de manière aléatoire en deux groupes équivalents afin de pouvoir procéder aux analyses exploratoire (n = 650) et confirmatoire (n = 692) sur des échantillons différents. Pour réaliser les analyses factorielles confirmatoires et les modélisations en pistes causales, nous avons utilisé le logiciel MPLUS version 7.3 (Muthén & Muthén, 2010).

5.2.4.1.Analyse factorielle exploratoire

Afin de nous faire une première idée de la structure potentielle de l’apprenance, nous avons commencé par une analyse factorielle exploratoire de notre questionnaire. Pour déterminer le nombre de facteurs à extraire, nous nous sommes appuyés sur la méthode des analyses parallèles en utilisant la procédure SPSS mise au point par O’Connor (2000). La méthode des analyses parallèles basée sur la simulation de Monte-Carlo permet de déterminer le nombre de facteurs qui peuvent être extraits d’un ensemble de données sans craindre une perte d’information ou à l’inverse, en favorisant les données aléatoires. La valeur qui correspond au 95e percentile est utilisée comme seuil en deçà duquel les facteurs sont considérés comme pouvant être extraits au hasard (Cota, Longman, Holden, Fekken, & Xinaris, 1993; Turner, 1998). La méthode des analyses parallèles ne permet de retenir que deux facteurs puisque la valeur propre du troisième facteur (0,81) est inférieure à la valeur du 95e percentile (1,07). Les résultats de l’analyse factorielle finale en axes principaux avec rotation oblique expliquent 60,95 % de la variance totale. Nous avons opté pour une rotation oblique, car nous postulons que les facteurs sont en relation les uns avec les autres. Comme le montre le Tableau 4 (p.69), tous les items retenus présentent une saturation supérieure à 0,40 sur le facteur principal et aucune saturation secondaire de plus de 0,30 (Ford, MacCallum, & Tait, 1986). De même, aucun item ne présente de score d’aplatissement (kurtosis) ou d’asymétrie (skewness) inférieur ou supérieur à 2 comme le recommandent George et Mallery (2016). Les résultats de l’analyse factorielle exploratoire semblent avancer que le modèle D (Figure 2, p. 63) serait celui qui correspondrait le plus aux données recueillies.

69

Facteur 1 Facteur 2 Moyenne Écart-type Skewness Kurtosis

AFF1 0,65 3,20 0,70 -0,62 0,51 AFF2 0,82 3,44 0,67 -0,93 0,18 AFF3 0,77 3,41 0,67 -0,89 0,43 COG1 -0,85 3,02 0,86 -0,82 0,71 COG2 -0,66 3,23 0,86 -1,11 1,14 COG3 -0,85 2,84 0,90 -0,53 -0,01 CON1 0,59 3,28 0,81 -1,08 1,08 CON2 0,51 2,96 0,82 -0,69 0,76 CON3 0,51 3,28 0,86 -1,20 1,25 Valeur propre initiale 4,20 1,28 % de variance expliquée 46,69 14,27

Tableau 4 Analyse factorielle exploratoire de l’échelle d’apprenance avec maximum de vraisemblance et rotation oblique.

N.B. : Les saturations inférieures à 0,30 ont été supprimées.

5.2.4.2.Comparaison des modèles

Afin de vérifier la véracité de l’analyse factorielle exploratoire, nous avons cherché à comparer les différents modèles relevés comme structures potentielles précédemment. Pour ce faire, nous avons commencé par évaluer les différentes composantes théoriques de l’apprenance. Le Tableau 5 (p. 69) présente ces composantes, leurs corrélations et leurs alphas sur la population réservée à l’analyse factorielle confirmatoire (n = 692). Concernant la dimension conative, son alpha est légèrement inférieur aux niveaux habituellement rapportés, mais pour George et Mallery (2016), bien que la dimension soit questionnable, elle n’est pas inacceptable.

Moyenne Écart-type Affectif Cognitif Conatif α

Affectif 3,33 0,55 1 0,79

Cognitif 3,05 0,72 0,48*** 1 0,83

Conatif 3,21 0,61 0,61*** 0,49*** 1 0,65

Tableau 5 Description des composantes de l’apprenance N.B. : * p < 0,05, ** p < 0,01, *** p < 0,001

Nous avons ensuite cherché à déterminer si la structure factorielle correspondant au modèle de mesure s’ajustait correctement aux données (modèle D). Ensuite, les trois modèles concurrents ont été testés (modèle A, B et C). Cette procédure est basée sur une stratégie de comparaison de modèles (MacCallum, 1995) dans laquelle un certain nombre de modèles alternatifs sont testés sur le même ensemble de données.

70

Pour comparer les différents modèles et vérifier leur ajustement aux données, nous nous sommes appuyés sur plusieurs indicateurs. Le premier d’entre eux est le test du χ2. Dans cette recherche, nous avons également retenu les mesures incluant le Comparative Fit Index (CFI), le Tucker Lewis Index (TLI), le Root Mean Squared Error of Approximation (RMSEA) et le Standardized Root Mean Squared Residual (SRMR). Il est généralement accepté par différents auteurs (Bentler, 1992; Schumacker & Lomax, 2016) qu’une valeur supérieure à 0,90 pour le CFI et le TLI est suffisante. Cependant, d’autres auteurs (Hu & Bentler, 1999) estiment qu’une valeur d’au moins 0,95 est préférable. Un RMSEA inférieur à 0,08 (Browne & Cudeck, 1992) est admis, mais selon Hu & Bentler (1999), il est préférable d’obtenir un RMSEA inférieur ou égal à 0,06. De même, pour Hu & Bentler (1999), le SRMR ne devrait pas être supérieur à 0,09 et si possible rester inférieur à 0,06.

Enfin, pour comparer les différents modèles, le critère d’information d’Akaike (Akaike Information Criterion ou AIC) et le critère d’information bayésien (Bayesian Information Criterion ou BIC) ont été calculés. Dans un ensemble de modèles concurrents non hiérarchiques, celui qui a les valeurs AIC et BIC les plus basses devrait être préféré (Kline, 2010).

Comme le montre le Tableau 6, le modèle D, issu de l’analyse exploratoire et présenté comme plausible par la littérature, est en réalité moins bon que le modèle B, théoriquement postulé par la définition de Carré. En effet, le modèle B est celui qui possède les TLI et CFI les plus élevés tout en ayant les indicateurs RMSEA, SRMR, AIC et BIC les plus faibles à l’exception du modèle C qui est parfaitement équivalent sur ces mêmes indicateurs.

Nous pouvons donc conclure que le modèle qui s’ajuste le mieux aux données est donc le modèle en trois facteurs ; c’est donc sur la base de ce modèle que nous poursuivrons nos analyses. Le modèle C qui postule un facteur de deuxième ordre (Figure 3, p.71) s’ajuste aussi bien aux données que le modèle B, nous pouvons donc estimer qu’il est possible de

calculer un score global d’apprenance à partir de notre échelle.

Modèles χ2 df RMSEA CFI TLI SRMR AIC BIC

A 486,67 27 0,16 (0,15-0,17) 0,80 0,74 0,07 12 381,66 12 504,23 B 80,84 24 0,06 (0,05-0,07) 0,98 0,96 0,03 11 981,83 12 118,02 C 80,84 24 0,06 (0,05-0,07) 0,98 0,96 0,03 11 981,83 12 118,02 D 119,26 26 0,07 (0,06-0,09) 0,96 0,94 0,04 12 016,25 12 143,35

Tableau 6 Indicateurs d’ajustement et de comparaison pour les différents modèles de l’échelle d’apprenance

71

Figure 3 Comparaison des modèles de mesure de l’échelle d’apprenance

5.2.4.3.Analyses de fidélité test/retest

Une étude de la stabilité temporelle a été menée avec des intervalles de 90 et 180 jours (DeVellis, 2016). La plateforme de recueil de données a été programmée pour n’accepter que les réponses fournies dans les trois jours de la relance. Les résultats montrent que l’échelle semble posséder une très bonne fidélité même après six mois.

n Attrition Affectif Cognitif Conatif Apprenance

90 jours 82 20 % 0,66*** 0,71*** 0,67*** 0,78***

180 jours 54 48 % 0,69*** 0,81*** 0,73*** 0,83***

Tableau 7 Corrélations de l’évolution des composantes de l’apprenance dans le temps N.B. : * p < 0,05, ** p < 0,01, *** p < 0,001