• Aucun résultat trouvé

Chapitre 2 Enjeux de la désynchronisation et dispositif méthodologique de recherche.

1. Enjeux sociaux et sociologiques de la désynchronisation

2.2. L’enquête quantitative

L’analyse statistique des accords d’entreprise issus de la négociation collective sur le temps de travail ne permet pas, à elle seule, d’expliquer les orientations individuelles et collectives en matière de temps de travail. Elle apporte cependant trois éléments particulièrement éclairants.

-Pour commencer, les accords d’entreprise posent le cadre local de la norme temporelle. Ils délimitent le périmètre à l’intérieur duquel les salariés vont pouvoir évoluer. En effet la connaissance de la loi ne suffit pas à appréhender la complexité des réalités individuelles, car c’est au niveau local, à l’échelle de la branche voire de l’entreprise, que se dessinent les contours de la norme temporelle professionnelle.

-D’autre part, l’étude systématique d’un dispositif temporel négocié sur une base légale commune (la loi) permet d’identifier et de catégoriser la multitude des logiques qui sous-tendent la construction de la norme temporelle à un moment donné. Elle permet de concevoir le mouvement de va-et-vient entre les différents niveaux (du législateur au négociateur et vice- versa) caractéristique de l’action publique négociée (Groux, 2001, 2005) et ainsi de saisir l’interpénétration des intérêts de chacun. L’émergence d’un compromis institutionnel récurrent peut dès lors être considérée comme révélateur d’une dimension significative et pérenne de la norme temporelle. Autrement dit, les dimensions réglées de la norme temporelle sont considérées comme structurantes de l’ensemble des normes collectives et de leurs appropriations individuelles.

-Enfin, l’étude statistique des règles produites par la négociation collective permet d’effectuer des comparaisons et de saisir des tendances. L’étude de ces normes temporelles réglées permet d’effectuer trois séries de comparaisons : entre les évolutions légales et les évolutions conventionnelles du dispositif ; entre les différentes versions d’un dispositif au sein d’une même structure ; ou encore entre les différentes structures ayant institué l’épargne-temps. La mise en perspective de ces trois séries de résultats permet de mieux saisir les évolutions en matière de normes temporelles du et au travail. Par ailleurs, la mise en lumière de l’importance relative des différentes rationalités qui sous-tendent les compromis à un moment donné permet de dégager des tendances et d’en appréhender l’ampleur.

115 Il n’est pas question de remplacer l’étude des usages individuels et collectifs par la seule analyse statistique des normes institutionnalisées, mais de s’appuyer sur celle-ci afin d’affiner notre compréhension du phénomène. L’étude des normes temporelles à travers les règles collectives ne se substitue donc pas à l’étude des trajectoires individuelles : elle la précède et elles se complètent.

2.2.1. La construction de la base de données

L’absence de document proposant une vision globale du dispositif CET a nécessité le développement de notre propre matériau préalablement à l’analyse. Pour ce faire, nous avons entrepris la construction d’une base de données regroupant un échantillon représentatif des accords épargne-temps signés en France durant les dix dernières années. Trois étapes ont marqué ce processus : La collecte des « données primaires », le développement d’un outil de codage permettant de transformer le contenu textuel en variables binaires et l’encodage, à proprement parlé, des accords dans la base de données.

L’encodage des données ne représentant aucun enjeu méthodologique majeur, nous consacrerons cette partie à une description détaillée des deux premières étapes : la collecte des accords et la construction des outils d’encodage.

La collecte des accords d’entreprise a été réalisée grâce au soutien de la Direction Régionale des Entreprises, de la Concurrence, de la Consommation, du Travail et de l’Emploi (DIRECCTE) à laquelle le Code du travail (art R2231-9) attribue la mission de centraliser et rendre disponibles les résultats de la négociation collective118.

Afin d’obtenir un traitement statistique valide, nous avons fixé la taille de l’échantillon souhaité à 1 000 accords. Nous avons effectué une première recherche sur le département de la Haute- Garonne qui a permis d’isoler 73 accords portant sur le CET. Parmi lesquels des accords d’entreprise, des amendements à des accords existants, des renonciations et des déclarations d’intentions. La recherche a ensuite été élargie à l’ensemble des départements de Midi-Pyrénées

116 pour un résultat de 138 CET sur une cohorte de 1936 accords portant sur le temps de travail, soit 7% des négociations. La principale concentration des accords étant au niveau de Toulouse et des autres pôles économiques de la région, nous avons décidé - par extrapolation - d’élargir les recherches en ciblant principalement les départements abritant les plus grandes agglomérations françaises. Par ailleurs, afin de compenser un possible biais lié à la distribution géographique des accords, nous avons également effectué des recherches dans les départements les moins peuplés du pays. A cette fin, 982 accords compte épargne-temps ont été isolés sur une base de 9 979 accords portant sur le temps de travail. Ainsi, on observe que 9,84% des accords négociés sur le temps de travail entre 2006 et 2013 ont trait au compte épargne-temps.

L’échantillon étudié couvre 16119 départements français, pour une population totale de 12 940 608 habitants120

, soit 19,4% de la population française. Si l’on considère la densité de population comme indicateur pour différencier les territoires urbains des ruraux, on peut créer deux catégories de départements en fonction de leur population : ceux ayant une densité de population inférieure à 100 habitants au km2 et ceux ayant une densité supérieure.

- Neuf départements étudiés sont « ruraux » avec une densité moyenne de 43

habitants par km2 et une population totale de 2 187 611 habitants ;

119

Le moteur de recherche du logiciel @ccent-web n’a généré aucun résultat pour la région du Nord. Nous n’avons eu connaissance de l’existence d’un codage différent pour cette région que lors d’un échange avec le personnel de la DIRECCTE qui a eu lieu à posteriori de la période de collecte de données.

120 Les populations et densités relevées correspondent au recensement effectué par l’Insee en 2010.

Département Densité Accords temps de travail Accords CET % d’accords CET Alpes Maritimes 251 807 41 5% Ariège 31 122 5 4% Aude 50 72 9 13% Aveyron 32 208 27 13% Bouches / Rhône 388 592 44 7% Creuse 22 33 2 6% Haute Garonne 197 979 75 8% Gers 30 101 6 6% Gironde 145 1069 48 4% Loire Atlantique 188 1583 106 7% Lot 33 204 6 3% Hautes Pyrénées 51 118 6 5% Rhône 531 531 38 7% Paris 21 370 3356 555 17% Tarn 65 177 14 8% Tarn et Garonne 65 27 0 0% Total 9979 982 10%

117

- Six sont davantage « urbains » avec une population totale de 8 750 862 habitants et

une densité moyenne de 283 habitants par km2 ;

- Paris, uniquement urbain, avec une population de 2 243 833 et une densité de 21 370

habitants par km2.

En se basant sur le travail de cartographie des aires urbaines et rurales en France121

, on ne recense que 14 accords provenant d’établissements situés en zones rurales, soit 2% de l’échantillon122

. À l’inverse 58% des accords CET sont signés à Paris. La majorité des accords émanent donc des grands centres urbains. Dans les départements les plus ruraux, les accords sont majoritairement signés dans les villes les plus importantes de ces territoires appuyant cette surreprésentation de l’urbanité dans les lieux de signature des accords.

Afin de construire une base de données statistiquement exploitable, nous avons élaboré une grille d’encodage permettant de transcrire les particularités de chaque accord d’entreprise123 en variables binaires. La grille se compose de sept catégories de variables dont cinq portent directement sur le compte épargne-temps (l’ouverture, l’alimentation, l’utilisation de l’épargne, la clôture du compte et des conditions générales d’utilisations), et deux concernent l’environnement dans lequel l’accord se construit (les éléments d’informations relatifs aux préambules des accords et ceux relatifs à la présence syndicale). Chaque accord d’entreprise a ainsi été manuellement encodé dans son intégralité124

.

La grille d’encodage papier a été construite de manière empirique. Plusieurs dizaines d’accords ont été codés à maintes reprises (15 au total), avant d’obtenir une version stabilisée de la grille125 prenant en compte toutes les informations contenues dans les accords et réduisant autant que faire se peut le nombre de réponses ouvertes en proposant, à la place, des modalités fermées.

121

Source DATAR 2010

122

Ces zones rurales ne sont pas forcément situées dans des départements à faible population puisque deux sont dans les Bouches du Rhône qui est le troisième département le plus peuplé de France.

123

Lors du codage une distance a été prise avec la terminologie juridique utilisée au sein des accords et textes de lois. Nous avons ainsi choisi de nous rapprocher du vocabulaire d’usage en sociologie afin d’éviter d’éventuels contresens et de faciliter la compréhension du lecteur.

124

L’intégralité des accords a été codée à l’exception des articles relatifs à la publicité, à la dénonciation ainsi que certains aspects du dépôt auprès des autorités compétentes, ces éléments n’apportant pas d’informations complémentaires sur l’objet du CET.

125

118 Afin de limiter la possibilité d’une « distorsion involontaire » (Jones, Burnay et Servais, 2000) du sens lors de la lecture des accords, nous avons comparé plusieurs accords encodés par deux personnes différentes. Chaque discrépance observée a donné lieu à une explication des raisons ayant poussé à préférer une catégorie à une autre et à une clarification de la catégorie incriminée. Ce type de tests a été répété à chacune des étapes de construction de la grille d’encodage avec des accords différents.

Cette approche a eu pour objet de réduire le travail de traitement par un pré-codage des données. L’objectif final étant de transformer des observations qualitatives en variables binaires pour construire une base de données pouvant être exploitée statistiquement. Plusieurs réponses ont cependant été laissées ouvertes dans la grille d’encodage afin de permettre l’observation d’éléments à la marge.

La quantité d’informations contenue dans chaque accord d’entreprise n’étant pas comparable, certains étant extrêmement succincts et d’autres, incomplets, il a été nécessaire de procéder à une sélection. Les avenants apportant des précisions sans rappeler les éléments principaux de l’accord d’origine ; les dénonciations ; les accords ne faisant que brièvement allusion au dispositif du CET à l’intérieur d’une négociation plus vaste ont ainsi été écartés durant la phase de codage. Sur les 979 accords extraits de la base de données de la DIRECCTE, 85 ont ainsi été retirés (9%) lors de la première phase de construction de la base de données. Les 894 accords restants ont été numérotés puis centralisés dans un fichier Excel comportant 387 modalités (colonnes) et 894 entrées (lignes), soit 324 848 données126

.

2.2.2. Traitement statistique des données

Une fois l’étape de l’encodage terminée, la base de données constituée sous Excel a été testée pour corriger d’éventuelles erreurs. Nous avons ainsi procédé à deux types de tests de contrôle :

126

Le nombre total d’informations est de 324 848 au lieu de 346 365 potentielles du fait des 25 catégories « autres » dont le taux de remplissage atteint uniquement 4,7% (cf. annexes). Sur les 324 848 modalités composant la base de données, 47 357 ont été directement extraites à l’encodage, les 277 491 restantes ayant été obtenues par déduction. A titre d’exemple : s’il n’est pas fait état d’un certain mode d’alimentation, il est alors déduit que ce mode n’est pas possible dans le cadre de l’accord.

119 Des tests aléatoires127

pour vérifier qu’aucune erreur d’encodage ou de « décalage » n’avait eu lieu et des tests systématiques128 par croisement de variables pour s’assurer de la cohérence des accords. Les tests ont été répétés jusqu’à ce que plus aucune erreur ne soit observée. La réalisation de ces tests de contrôle a également permis de mettre en évidence l’isolement de certaines variables et la grande diversité de précision des accords.

Les premiers calculs de statistique descriptive (somme, moyenne, variance) et les premiers résultats quantitatifs ont été obtenus à l’aide du logiciel Excel. Ils ont permis de dégager une « image » générale de l’échantillon. Pour l’étape suivante, la constitution de classes d’accords à l’intérieur de l’échantillon, nous avons utilisé plusieurs logiciels de traitement statistique. Ne disposant d’aucune licence d’utilisateur, nous avons comparé les différents logiciels en « libre accès129 » afin de déterminer l’outil le plus adapté à nos besoins. Les questions d’ergonomie et de prise en main dans la sélection des données ont été particulièrement décisives.

Nous avons finalement opté pour une combinaison de 3 logiciels, utilisant XLSTAT associé à Excel pour la classification par nuées dynamiques (Kmeans). La représentation graphique proposée par ce logiciel étant sensiblement plus adaptée au traitement d’un grand volume de données. Le logiciel SPSS, a lui été utilisé pour réaliser des statistiques bivariées ainsi que pour une analyse factorielle exploratoire130.

La classification interactive par la méthode des nuées dynamiques, déjà utilisée dans de nombreuses études en sciences sociales131

, a été premièrement envisagée. Elle a permis d’aboutir à trois classes homogènes, mais dont l’analyse a montré les limites. Ces difficultés d’interprétation nous ont poussées à envisager une seconde approche, non interactive, basée sur la méthode Kmeans des « centres mobiles ». Nous avons premièrement déterminé un nombre

127 Il s’agit de sélectionner aléatoirement une ligne de code, représentant un accord d’entreprise et de vérifier que chaque information est correctement encodée.

128 Les tests systématiques consistent à calculer la valeur théorique d’une variable en fonction d’autres variables la composant ou y étant étroitement liées, puis de comparer ce résultat théorique à la valeur encodée. Par exemple, il ne peut pas y avoir davantage de partenaires sociaux qui signent un accord que de négociateurs présents. En comparant la somme des deux types de variables (présence et signature) nous effectuons un contrôle de cohérence sur la série de variables. Chaque erreur observée entraîne la comparaison de l’encodage avec l’accord d’origine et la correction si nécessaire. Il ne faut pas oublier que nombreux accords ne sont pas totalement « cohérents », ou « compréhensibles », ils ne fournissent pas tous les détails nécessaires ou affichent des éléments contradictoires. 129 Versions d’essais pour les logiciels XLSTAT du développeur Addinsoft, SPSS de Microsoft et SPAD du développeur Coheris, et versions gratuites pour les logiciels PSPP et R du collectif GNU.

130 L’analyse factorielle par composantes multiples a certes validé les résultats obtenus par la classification, elle n’a cependant pas permis de dégager de nouveaux résultats significatifs.

120 de classes maximum (K=10) au-delà duquel nous avons considéré que la finesse du regroupement complexifiait davantage l’analyse qu’elle ne la simplifiait.

Nous avons ensuite généré une classification automatique sur l’ensemble des variables « dépendantes132

» de l’échantillon pour chaque nombre de classes (K = 3 à 10) fixé. Autrement dit, c’est le logiciel qui a opéré la sélection entre les classes devant être préservées et celles devant être écartées. Les classifications obtenues ont été comparées selon trois critères : L’inertie inter- et intra-classe, la taille des classes et la proportion des variables explicatives133. Tenant compte de l’homogénéité de la distribution des variables dans chaque classe, du nombre de variables significatives dans leur élaboration, de leur taille et du nombre d’accords devant potentiellement être écartés ainsi que des difficultés d’interprétation rencontrées avec un nombre de classes trop petit, nous avons retenu une répartition en huit classes.

Figure 2 - Méthode de caractérisation des classes d'accords

132

Les variables indépendantes ont été écartées afin de construire des classes d’accords permettant de caractériser le dispositif du CET dans son fonctionnement. En effet, l’objectif de l’analyse étant avant tout de comprendre quels types de mécanismes existent, si l’on avait intégré l’ensemble des variables dans l’élaboration des classes, elles auraient été marquées par des caractéristiques transversales non pertinentes pour l’analyse. Si par exemple nous avions intégré la taille des entreprises dans la classification, cela aurait entraîné le rapprochement de toutes les PME et cela sans qu’il n’y ait de lien avec le CET. Il en va de même pour le lieu de la négociation ou les partenaires sociaux présents.

133

121 Une fois le nombre de classes déterminé, l’étape suivante a consisté à comparer les différents regroupements obtenus par la classification automatique afin de faire ressortir ce qui les définit et les inscrit en opposition aux autres. D’une part, nous avons cherché à isoler les variables les plus significatives de la classification, à l’aide du test ANOVA réalisé à l’étape précédente. Pour ce faire, nous avons hiérarchisé (en fonction de la valeur du test F) les 163 variables significatives dans la construction des classes.

D’autre part, nous avons cherché à caractériser l’existence d’un lien entre les variables « classes » nouvellement crées, et l’ensemble des variables de la base de données. Contrairement à la classification qui a été effectuée uniquement sur les variables dépendantes, l’analyse des correspondances a été est effectuée sur l’ensemble des variables. La construction des classes a pour objectif de faire émerger une typologie de CET. L’analyse des corrélations a pour objectif de définir les différents types de classes et de les relier autant que possible à un ensemble de facteurs explicatifs. Pour l’ensemble des classes, l’analyse ANOVA de la variance permet facilement d’isoler les variables les plus représentatives. À l’échelle des groupes, l’utilisation des tableaux de contingence permet de faciliter la lecture des données. En effet, la valeur critique de minimum cinq observations nécessaires pour l’élaboration d’un test de correspondance n’est pas systématiquement atteinte, ce qui a pour conséquence de faire chuter le niveau de significativité du test du Chi Deux. Dans le cas des variables dites corrélées au sens du Chi Deux, il est nécessaire d’affiner la lecture en se concentrant sur les liens spécifiques de chaque classe avec les différentes modalités des variables testées134

.

134

122 Rappel méthodologique sur les méthodes statistiques de classification

La classification ("analyse typologique", "taxonomie", "taxinomie" ou encore "analyse en clusters" (amas)) permet d’obtenir une représentation schématique « simple » d’une base de données complexe, à partir d’une répartition des observations dans N classes définies par l’observation de P variables. La classification permet donc de rassembler les éléments qui se ressemblent et/ou de séparer ceux qui diffèrent (Lebart, Morineau et Piron, 2002). Il s’agit de constituer des groupes homogènes, les plus éloignés les uns des autres, en se basant sur des récurrences statistiques et non sur ce que l’on sait ou cherche à savoir.

Il existe plusieurs méthodes visant à répartir les observations (accords) en classes homogènes constituées d’un ensemble d’individus (ou d’observations). Les méthodes dites hiérarchiques, utilisées majoritairement pour des variables quantitatives et qui s’appuient sur la construction d’un dendrogramme permettant une lecture graphique du nombre optimal de classes. Les méthodes de partitionnement dites non-hiérarchiques ou à plat, utilisées majoritairement pour des variables qualitatives. Elles ont l’avantage de permettre le traitement d’éléments volumineux, mais nécessitent que le nombre de classes soit déterminé à l’avance. Des méthodologies mixtes peuvent également être envisagées.

Deux méthodes de classification non hiérarchiques peuvent être utilisées dans le classement des observations : La méthode des « centres mobiles » développée par Edward W. Forgy (1965) et la méthode des « nuées dynamiques » attribuée à Edwin Diday (1971).

Ces méthodes de partitionnement direct se déroulent en plusieurs étapes itératives :

Étape 1- K centres (ou K représente le nombre choisi de classes) sont définis de manière aléatoire et provisoire.

Étape 2 – La distance des observations à chaque centre est calculée afin de les affecter au centre le plus proche.

Étape 3 – Les centres de gravité des K classes sont calculés puis utilisés comme centre pour une nouvelle partition.

Étape 4 - L’opération est répétée jusqu’à la convergence de l’algorithme (le découpage par classes obtenu ne varie presque plus pour une itération supplémentaire).

La méthode de classification par les « centres mobiles » consiste à sélectionner K observations comme centre initiaux des classes alors que la méthode des « nuées dynamiques » définit K noyaux, chacun constitué d’un groupe d’observations. Les étapes de répartition des observations et des itérations sont partagées par les deux approches. Ces méthodes ont cependant pour limite de fournir des résultats différents en fonction des centres initiaux (choisis de manière aléatoire). Comme la partition finale peut dépendre du choix des noyaux de départ, il est donc nécessaire de recommencer l’opération avec des conditions initiales différentes plusieurs fois. Les éléments regroupés dans plusieurs partitions finales