• Aucun résultat trouvé

Démarche générale de la thèse

4.2. Classification ascendante hiérarchique pour identifier des styles d’apprentissage

4.2.2. Identification des styles d’apprentissage

Nous désignons par la suite « base de données A » la matrice constituée des variables descriptives pour l’ensemble des 120 PCA (Tableau 12). La répartition des PCA selon les différentes variables descriptives (et illustratives) est présentée en annexe 11.

Tableau 12 – Cadre constitutif de la base de données A.

N° du PCA Variables descriptives

Mcontext Mprocupint Mautr Expderoul Expautr EVcrit EVrefext EVadopt PCA1…

… Modalité n

de la variable PCA120

102

En appliquant la méthode CAH, on obtient un arbre hiérarchique, mode de représentation d’un ensemble d’objets qui met en évidence les parentés entre eux. L’utilisation de cet arbre est intuitive : deux objets sont d’autant plus ressemblants que, pour aller de l’un à l’autre, il n’est pas nécessaire de monter haut dans l’arbre (Husson et al. 2009). La méthode d’agrégation employée dans la thèse est la méthode de Ward : il s’agit d’un algorithme de calcul couramment utilisé qui regroupe les individus (PCA ici) de façon à minimiser l’inertie intra-classe (l’écart entre chaque point et le centre de gravité de la classe à laquelle il appartient). Pour manipuler cette base de données et pour son analyse, nous avons fait le choix du logiciel R, logiciel libre et très utilisé, avec le progiciel (package) FactoMineR22

Préalable : Analyse des Correspondances Multiples

La classification nécessite des variables quantitatives, or les variables de notre base de données sont qualitatives. L’Analyse des Correspondances Multiples (ACM) réalisée en amont de la classification permet d’utiliser les coordonnées factorielles comme des variables quantitatives. De plus, les "composantes principales" à l’issue de l’ACM, combinaisons linéaires des variables initiales et possédant une variance maximum, font la synthèse de l’information initiale contenue dans un grand nombre de variables. Les coordonnées des PCA sur les composantes principales sont donc utilisées pour la classification hiérarchique. L’ACM ne peut être réalisée que s’il existe dans la base de données au moins un couple de variables qui ne sont pas indépendantes. D’après le test du Chi2, appliqué sur toutes les variables de la base de données A (annexe 12), il y a 18 couples de variables pour lesquels on rejette l’hypothèse d’indépendance : il est donc pertinent de continuer l’analyse par une ACM. A l’issue de l’ACM, l’ensemble de la variance de l’échantillon est expliquée avec 28 axes (annexe 12). Le premier axe factoriel (ou dimension) exprime 11,35% de la variabilité des données. Les deux premiers axes ne représentent que 21% d’inertie cumulée : ainsi dans une représentation graphique à deux dimensions, il n’y a pas de groupes de PCA particuliers qui se dégagent. Pour la classification ascendante hiérarchique, conformément aux recommandations de Husson et al. (2009), nous ne conservons de l’ACM que les 20 premières dimensions car elles totalisent 91% de l’inertie : les autres dimensions ne représentent que du « bruit », pouvant brouiller la classification. Pour confirmer cela, nous avons comparé les sept groupes issus d’une CAH avec 20 puis 28 axes : à 6 exceptions près (6 PCA sur 120), répartis dans chaque classe, les groupes étaient les mêmes.

Détermination du nombre optimum de classes à retenir

La classification nécessite de choisir un indice d’agrégation (ici l’indice usuel d’agrégation de Ward) ainsi qu’une distance entre individus : dans l’algorithme utilisé, il s’agit de la distance

22

FactoMineR (http://factominer.free.fr/) est dédié à l'analyse exploratoire multidimensionnelle de données (à la Française). Il a été développé et il est maintenu par F. Husson, J. Josse, S. Lê, d'Agrocampus Rennes, et J. Mazet. Il permet notamment de réaliser des analyses classiques telles que l'analyse en composantes principales (ACP), l'analyse des correspondances (AC), l'analyse des correspondances multiples (ACM) ainsi que des analyses plus avancées, en fournissant des aides à l’interprétation et une interface graphique, faciles d’accès.

103

euclidienne entre individus, sur des variables centrées-réduites. A partir de la matrice des distances euclidiennes, les PCA les plus proches sont agrégés pour former des couples eux-mêmes agrégés à d’autres PCA ou couples selon la distance qui les sépare. Les points où se rejoignent les branches correspondant aux éléments que l’on regroupe sont appelés « nœuds ». Une bonne partition est telle que (Husson et al. 2009) :

• à l’intérieur d’une classe les PCA sont homogènes (variabilité intra-classe faible) • d’une classe à l’autre les PCA sont différents (variabilité inter-classe élevée).

Pour raisonner le choix d’une partition, concrètement il est d’usage de prendre en compte (Husson et al. 2009) : (1) l’allure générale de l’arbre ; (2) les niveaux des nœuds, pour quantifier le point précédent ; ces niveaux peuvent être représentés par un diagramme en bâtons qui visualise leur décroissance (Figure 10) ; chaque irrégularité dans cette décroissance suggère un niveau de coupure ; (3) le nombre de classes qui ne doit pas être trop élevé pour ne pas perdre l’intérêt synthétique de la démarche; (4) l’interprétabilité des classes : même si elle correspond à un gain d’inertie interclasses appréciable, on peut préférer une autre subdivision pourvu que la classe obtenue soit interprétable.

Dans le package FactoMineR, c’est la fonction HCPC (Classification Hiérarchique sur Composantes Principales) qui permet de réaliser une classification des PCA. D’après l’arbre présenté en Figure 10, il y a quatre possibilités optimales de « coupe » de l’arbre : en 4, 7, 11 ou 16 classes (styles ici), confirmées par le diagramme des indices de niveau du nœud. La coupe en 4 styles n’aurait pas assez décrit les différences entre les PCA, celle en 16 styles nous paraissait trop dispersée : nous avons réalisé une première coupe en 7 styles mais un des styles regroupant 40% des PCA et étant trop général, nous avons opté pour une coupe en 11 styles. Par comparaison à la coupe en 7 styles, on a pu regrouper deux styles qui nous semblaient identiques pour aboutir finalement à 10 styles d’apprentissage.

Dans la partie résultats, les styles d’apprentissage sont décrits selon les modalités des variables qualitatives dont les poids sont variables. En effet, la fonction HCPC (Husson et al. 2009), après avoir affecté chaque individu à un style d’apprentissage, réalise une description des différents styles (ou catégories), avec une fonction intégrée appelée « catdes » : il s’agit d’un test du chi2 d'indépendance entre la variable "style d’apprentissage" et chacune des autres variables descriptives. Les sorties de cette fonction permettent de décrire les styles d’apprentissage selon les différentes modalités des variables descriptives. Cette fonction HCPC trie les modalités par probabilité critique croissante. La probabilité critique est la plus petite des valeurs de risque de première espèce pour lesquels la décision serait de rejeter l’hypothèse nulle d’indépendance : plus la probabilité critique est faible, moins il y a de chances que la variable et le style soient indépendants selon cette modalité. Dans FactoMineR, seules les modalités dont la probabilité critique est inférieure à 0.1 sont conservées arbitrairement pour l’analyse.

104

Figure 10 - Arbre hiérarchique. En ordonnée : le pourcentage de variance.

En haut à droite, diagramme des indices de niveau du nœud. Les bâtons représentent l’inertie (qui n’a pas d’unité) associée à chaque nœud. Les niveaux de coupure suggérés se situent aux irrégularités de décroissance, c’est-à-dire entre le 3 et 4, 6 et 7, 10 et 11.

Mise en perspective des résultats avec la méthode des centres mobiles

Cette méthode, appelée aussi la méthode des « K-means », permet d’obtenir directement une partition sans la hiérarchie des classifications. Elle est fondée sur un calcul de distances au centre de

105

gravité du groupe. Le nombre de classes est fixé a priori. En pratique, on exécute plusieurs fois l’algorithme en partant de partitions initiales différentes (les centres sont donc « mobiles »). On peut donc croiser les partitions obtenues à la suite de l’exécution de l’algorithme pour une même base de données. On obtient donc des « formes fortes » : il s’agit d’ensembles de PCA qui appartiennent à la même classe quelle que soit la partition. Ces formes fortes constituent des groupes de PCA dont la stabilité vis-à-vis de la partition initiale est intéressante : ils mettent en évidence des zones de l’espace de forte densité.

4.2.3. Les relations entre les styles d’apprentissage, les pratiques et les

Outline

Documents relatifs