• Aucun résultat trouvé

The first aim of this research was to explore if the variables of personality moderate the relation between JS and work variables. We found that affectivity and locus of control were personality traits that significantly moderate the relation between work-related variables and JS, and this independent of the trade. As to which work variables moderated by personal variables are dependent on the trade, we will need to investigate in more detail.

In the literature reference is made to people that are always satisfied at work and other that are never. An employer knowing for example that people with low levels of PA or internal locus of control need more feedback or more procedural justice, he/she could easily improve the satisfaction of his/her employee by acting in this direction. In our final model, we found that for assistants with a high upset level an increase in feedback will have a positive effect on JS. The same, for example, for postmen with low PA, it is important for them to have a high level of vertical justice to be satisfied ; for prison guards with low levels of self-efficacy they need to have low levels of decision-making autonomy to be satisfied ; and for secretaries with high upset levels they need to have a high procedural justice to be satisfied.

The second goal of this research was to explore which variables (personality versus work ones) are better predictors of JS. It was clearly found that the work-related variables are better predictors of JS than personality one and explain a large amount of its variance (up to 50% for a single work-related variable versus merely up to 20% for the personality one). This finding could be thought to be quite trivial, as when talking about JS we talk about the job and then about job characteristics.

And it is true that personality variables explained only a small amount of variance, but they are not ordinary predictors as they moderate the relation between work variables and JS. Up to now the major predictors of JS have been well studied, but now it is time to look at the more subtle relations to accurately understand the mechanism of JS.

The third and last aim of this research was to propose a model to explain JS and to confirm it.

We found that vertical and distributive justice, skills utilizations, role ambiguity and conflict, trust in organization, PA and power others external locus of control explained a very large amount of variance for both studies (respectively 77.4% and 78.1%). We also found that the work variables of the models explained more variance than the personality one. The significances are slightly different by trade, but rather consistent.

To answer our initial question : Job dissatisfaction : a work or a personality problem ? The conclu-sion would be that it is before everything and without a doubt a work problem, but personality could help to better understand JS and the relation between work variables and JS. Therefore, the modera-tor power of the personal characteristics on the relation between JS and job characteristics deserves more attention and further investigations.

Table 13.1 – Final Model After Model Selection on the 24 Variables (9 Person-related Variables and 15 Work-Related Variables) with a Mixed Effect Model with Subject and Item Crossed Random Effects to Explain Job Satisfaction.

Study 1Study 2AssistantsPostmenPrison guardsSecretaries B (SD B) B (SD B) B (SD B) B (SD B) B (SD B) B (SD B) Vertical Justice0.209 (0.022)***0.139 (0.035)***0.219 (0.038)***0.182 (0.068)**0.251 (0.056)***0.171 (0.037)*** Skills utilizations0.170 (0.020)***0.058 (0.028)*0.073 (0.033)*0.063 (0.060)0.217 (0.046)***0.264 (0.036)*** Role ambiguity-0.118 (0.021)***-0.136 (0.032)***-0.114 (0.039)**-0.133 (0.065)*-0.166 (0.046)***-0.046 (0.040) PA0.080 (0.020)***0.089 (0.029)**0.070 (0.033)*0.111 (0.058)*0.075 (0.044).0.085 (0.035)* Power external locus-0.077 (0.019)***0.008 (0.029)-0.065 (0.030)*-0.004 (0.058)-0.100 (0.045)*-0.081 (0.033)* Role conflict-0.054 (0.021)*-0.112 (0.031)***-0.034 (0.034)-0.120 (0.060)*0.014 (0.051)-0.084 (0.035)* Trust in organization0.074 (0.022)***0.143 (0.037)***0.059 (0.036).0.178 (0.063)**0.031 (0.053)0.063 (0.036). Distributive Justice0.040 (0.020)*0.078 (0.029)**0.004 (0.034)0.008 (0.058)0.145 (0.045)**0.075 (0.034)* Values

z : Log Likelihood-7086 (-7242)-3562 (-3636)-2616 (-2653)-1127 (-1144)-978.5 (-997.6)-2374 (-2418) AIC14195 (14492)7148 (7280)5256 (5314)2279 (2295)1981 (2003)4772 (4844) Number of obervation5832294820569378392000 Number of subjects2921491034742100 Number of items202020202020 Subject variance0.069 (0.304)0.065 (0.296)0.053 (0.212)0.091 (0.372)0.046 (0.325)0.072 (0.306) Item variance0.088 (0.088)0.124 (0.124)0.123 (0.122)0.073 (0.073)0.175 (0.175)0.136 (0.136) Residual variance0.615 (0.615)0.598 (0.598)0.680 (0.680)0.565 (0.565)0.520 (0.520)0.562 (0.562) Percent of explained subject variance77.40%78.10%74.90%75.60%86.00%76.50% *** p<0.001; ** p<0.01; p<0.05; . p<0.10

Study 1 by building trades + : in parentesis the result of the "empty" model (i.e., model without covariates). Note that the models are quite similar between the two studies and between the study 1 trades. Furthermore, the residual and item variances remain constant between the empty and the model with covariates and the subject variance highly decrease with the addition of covariates.

Conclusion générale

175

Discussion et perspectives

Comme nous l’avons vu précédemment, la satisfaction au travail est un concept central en psycho-logie du travail et des organisations. Elle est étudiée depuis plus de 80 ans et a abouti à plus de 10’000 publications. Mais malgré l’importance accordée à ce concept, il existe toujours certaines inconsis-tances pouvant avoir trois origines (non exclusives) : des problèmes liés au champ (temps, culture), des problèmes d’ordre méthodologique (définition, échelles) et des problèmes liés au choix des outils statistiques.

L’effet du temps : La nature du travail et le contexte du travail ont évolué depuis les premières recherches sur la satisfaction au travail dans les années 1930. Nous sommes passés d’un travailleur exécutant à un travailleur qui pense et décide, d’un engagement envers une entreprise à un engage-ment envers un travail. Les caractéristiques mêmes du travail ont changé. Ainsi, la compréhension des facteurs responsables des relations stables entre les événements (Gergen, 1973) est difficilement exportable dans le temps. Nous pouvons alors nous demander si les théories en lien avec la satisfac-tion au travail sont toujours adaptées au travail comme il est vécu à notre époque, étant donné que les postulats sur lesquels reposent ces théories ne sont plus forcément d’actualité. Par exemple, les relations peuvent changer ou rester les mêmes, mais s’expliquer de manière différente. C’est pourquoi certains éléments théoriques devraient être adaptés à cette évolution.

De plus, nous pouvons nous demander si la notion de travail et les théories qui en découlent sont similaires en fonction des pays et des cultures. En effet, il ne faut pas oublier qu’une grande partie des théories figurant dans la littérature ont été développées en Amérique du Nord, d’où la question de l’applicabilité de ces dernières à la Suisse, où la culture du travail est emprunte de l’éthique protestante, ainsi qu’à d’autres pays. Bien évidemment, ces remarques ne sont pas uniquement liées au champ de la satisfaction au travail, mais à toute théorie conçue dans un contexte bien défini et vérifiées à un moment donné. Ces théories doivent donc évoluer avec les connaissances du champ et être adaptées aux nouvelles réalités.

Non seulement le temps peut affecter les liens entre les construits d’un champ, mais ces derniers peuvent également affecter la découverte des relations en fonction de leur définition et de leurs opéra-tionnalisations.

Le concept et son opérationnalisation : Nous avons vu qu’il n’est pas si facile de savoir si la définition de la satisfaction au travail fait l’unanimité ou non. De même, les mesures opérationnalisant

“la définition de la satisfaction au travail” ne semblent pas toutes mesurer le même construit comme l’ont montré Brief et Robertson (1989) dans leur étude. De plus, les deux types de mesures de la satisfaction au travail, les mesures globales et les mesures à facettes, constituent deux approches qui ne semblent pas être équivalentes (Scarpello & Campbell, 1983). Notons que les mesures à facettes sont des mesures qui peuvent être plus sujettes au problème du temps qui passe et au changement

177

de la notion de travail. En effet, les facettes doivent comporter les dimensions importantes du travail et ces dimensions pourraient changer avec l’évolution de la notion du travail. C’est pourquoi une redéfinition ou une adaptation des dimensions centrales du travail devraient être proposées. Par contre, les questions des mesures globales étant générales, elles ne devraient pas être particulièrement touchées par le changement du contexte de travail.

Les outils statistiques : Enfin, les inconsistances trouvées dans le champ pourraient également être imputé à un troisième facteur : le choix du modèle statistique. Un choix erroné dans la modélisation des données qui permet de répondre aux questionnements du chercheur pourrait avoir pour conséquence de mettre en évidence des liens significatifs alors qu’ils ne le sont pas (erreur de type I). Le choix des modèles statistiques n’est pas sans conséquences sur les résultats du champ. Il est important de rappeler que la modélisation statistique doit être un outil au service du chercheur lui permettant de répondre à son questionnement. Le choix d’un modèle au détriment d’un autre ne doit pas se baser sur la simplicité de l’utilisation de ce dernier ou parce que certains modèles sont usuellement utilisés dans le champ ou par le chercheur.

Box (1979), un célèbre statisticien a dit : “tous les modèles sont faux, mais certains sont utiles” (p.

2). Il est vrai qu’un modèle statistique ne pourra jamais modéliser la complexité du fonctionnement de la psyché humaine dans son ensemble. Mais il est important de choisir celui qui permettra de modéliser la plus grande information à disposition et surtout de répondre aux questions du chercheur. Dans ce contexte, notre première hypothèse était :L’utilisation de modèles à effets mixtes avec effets aléatoires croisés (sujet et item) est plus adaptée à l’analyse de données de type questionnaire avec un niveau d’erreur de type I plus correct par rapport aux autres techniques statistiques usuellement utilisées et induit une puissance supérieure.

Pour savoir si le modèle proposé est adapté aux besoins du chercheur, nous avons revu quatre modélisations classiques et moins classiques afin de tester leurs avantages et leurs limites en nous aidant de simulations numériques de type Monte Carlo.

La régression : Nous avons commencé par évaluer un modèle classique : la régression linéaire multiple (RLM). Pour travailler avec la RLM, nous devons commencer par agréger les différentes mesures d’une échelle pour obtenir un score unique par sujet. En procédant de la sorte, nous passons d’une mesure ordinale à une mesure plus continue. De plus, le score final obtenu est plus fiable qu’un score individuel car il prend en compte différentes mesures. Dans le cas où nous sommes uniquement intéressés à l’information au niveau des sujets (N2su), comme le mentionne Snijders et Bosker (1999), l’agrégation ne semble pas être un problème. En effet, contrairement à ce que nous nous attendions, les résultats des simulations (chapitre 8 et 9) vont dans le sens d’une inférence correcte pour la RLM.

De plus, la régression permet de généraliser les résultats à la population des sujets.

Lorsque les propriétés psychométriques d’une échelle sont examinées, chaque item n’est pas déter-miné avec le même poids par le facteur, ce qui se traduit par des loadings différents. Normalement, lorsque nous voulons construire le “vrai” score, c’est-à-dire le score construit, nous devrions calculer un score factoriel prenant en compte les différents loadings ce qui, dans la pratique, est rarement fait.

Nous nous attendions à ce que le fait de ne pas prendre en compte ces différents poids aurait une incidence sur l’inférence de la RLM. Mais lorsque nous attribuons le même poids à chaque mesure pour déterminer le score final, créant une VD différente du score factoriel simulé, le taux d’erreur de type I est proche des 5% attendus. Ce taux diminue (pour être légèrement conservateur) lorsque les déterminants du modèle sont asymétriques.

Ainsi, l’inférence basée sur la RLM semble être assez correcte pour les variables de niveau sujet, et cela bien que nous ayons simulé les données avec des loadings différents, de l’hétéroscédasticité et un effet item non modélisé. Il serait intéressant d’aller plus loin dans l’exploration de l’adéquation de l’inférence de la RLM et tester comme nous l’avons fait dans le chapitre 8 des violations d’application

des MEM et voir leur impact sur l’inférence.

Il est important de relever que dans nos simulations nous avons uniquement testé les conséquences sur l’inférence d’une VD agrégée sans prendre en compte les poids factoriels. Il serait intéressant d’aller plus loin et de tester l’inférence de la RLM lorsque toutes les variables du modèle sont mesurées à l’aide d’échelles avec des items ayant des poids différents comme c’est le cas lorsque nous travaillons avec des questionnaires. Nous pourrions tester plus finement l’inférence de la RLM dans une situation proche de ce qui est fait dans la pratique.

Les modèles multi-niveaux : Si nous sommes intéressés par des variables de niveau 1 ou de niveau 2 item, alors nous ne pouvons plus travailler sur des variables agrégées au niveau du sujet, et il faut alors utiliser d’autres modèles que la RLM. Comme nous l’avons vu dans la partie 2, deux types modélisations permettent de tester des variables de N1 et de N2it : les modèles à équations structurelles (SEM) et les modèles multi-niveaux avec les modèles multi-niveaux hiérarchiques (dont les effets aléatoires sont emboîtés, MMN) et les modèles multi-niveaux croisés ou modèles à effets mixtes avec effets aléatoires croisés (MEM).

Les MMN et les MEM font partie de la même famille de modèle, mais les MEM prennent en compte l’effet (aléatoire) de l’item. Si cet effet existe, alors l’inférence pour les variables de N2it lorsqu’elles sont estimées avec des MMN sera catastrophique, le taux d’erreur de type I pouvant atteindre plus de 80%. De plus, lorsque les données sont simulées proches des données de satisfaction au travail, l’inférence pour les variables de niveau 1 est également affectée dans les MMN.

Nous avons également mis à l’épreuve les limites de ces modèles en définissant très peu d’items par rapport au nombre d’informations liées aux items à estimer dans le modèle. Plus le nombre de mesures augmente, plus le taux d’erreur de type I s’approche des 5% attendus dans le cas du MEM.

Nous avons également manipulé les postulats d’application des MEM en les violant de différentes manières et l’inférence n’a été que peu affectée. Notons tout de même que les taux d’erreurs de type I sont légèrement supérieurs à 5% lorsque que nous avons moins de 30 sujets et moins de 30 items.

Pour améliorer l’inférence, il faudrait définir des techniques de rééchantillonnage de type bootstrap, ce qui constitue actuellement un sujet de recherche très actif.

Ainsi, s’il existe un effet item (aléatoire), ne pas le modéliser pourrait avoir de graves conséquences sur l’inférence des variables de N2it et de N1. Si nous pensons que cet effet existe toujours dans des données mesurées à l’aide de questionnaires, dans ce cas, nous pourrions nous demander dans quelle mesure il ne faudrait pas toujours utiliser des MEM. Le but n’est pas de dire qu’il faut à tout prix faire des MEM. Au contraire, comme nous l’avons dit précédemment, cela va dépendre de nos questionnements, de nos hypothèses, etc. Dans notre première hypothèse, nous aurions dû ajouter :

“dans le cas de l’analyse d’une unique variable d’intérêt”. En effet, si nous étions intéressé à tester un modèle avec plusieurs VD, alors les MEM ne seraient pas adaptés : il faudrait se tourner vers des techniques du type SEM. Toutefois, il faudrait garder en mémoire les éventuels problèmes d’inférence si nous sommes intéressés à généraliser aux échelles de mesures.

La généralisabilité : Notre deuxième hypothèse était : Les différentes mesures de satisfaction au travail mesurent le même construit. Pour pouvoir tester correctement cette hypothèse, nous allons commencer par la décortiquer. Dire que les différentes échelles de satisfaction au travail mesurent le même construit équivaut à dire que les questions formant les différentes échelles mesurent un même facteur latent, en l’occurrence la satisfaction au travail. Dans ce cas, que nous choisissions une échelle ou une autre, les résultats devraient être identiques/interchangeables. Si cela est vrai, alors nous pourrions considérer tous les items provenant des différentes échelles comme provenant d’une même population d’items mesurant tous la satisfaction au travail. Dans ce cas, nous voulons que nos résultats soient généralisables aux items. Ainsi, pour tester notre hypothèse, nous avons besoin d’un modèle qui permette à la fois de généraliser les résultats aux items et aux sujets. Les MEM présentent justement

cette spécificité.

Dans le chapitre 12, nous avons testé cette deuxième hypothèse en utilisant des MEM. Le but de cette hypothèse est d’apporter quelques réponses concernant les problèmes d’ordre méthodologique relevés au chapitre 6, à savoir le manque de consistance entre certains résultats d’études menées dans le champ de la satisfaction au travail et sa possible imputation à un problème d’opérationnalisation ou de définition.

Nous avons choisi quatre mesures de satisfaction au travail : une échelle à facette (MSQ) et trois mesures globales (ESGT, ESVP et PUR) composées de 4 à 20 questions (4, 5, 8 et 20 questions). Nous sommes partis de l’idée que ces quatre échelles opérationnalisent la même définition de la satisfaction au travail. Si tel est le cas, en analysant ces quatre échelles sur les mêmes sujets et sur les mêmes variables explicatives avec des MEM, nous nous attendons à obtenir des effets similaires si notre hypothèse est vraie, c’est-à-dire des paramètres reliant les échelles de satisfaction au travail aux variables explicatives de même signe et de significativité proche. En effet, dans cette étude, seuls les items changent (mêmes sujets et mêmes VI), donc s’il y avait des différences, seuls les items pourraient être mis en cause (ceci étant possible car les MEM modélisent l’effet aléatoire item, permettant de généraliser à la population des items mesurant la même chose).

Il ressort que pour les VI fortement en lien avec la satisfaction au travail, il n’existe pas de différence entre les 4 échelles. Les relations statistiquement significatives trouvées sont les suivantes :

1. Pour les facteurs liés au travail :

– L’utilité des compétences, l’autonomie des décisions, le soutien du supérieur, le soutien des collègues, la variabilité de la tâche, l’autonomie, le feedback du travail, la justice distributive, procédurale, interpersonnelle verticale et horizontale, la confiance en son collègue, en son supérieur et en l’organisation sont liés positivement à la satisfaction au travail ;

– L’ambiguïté de rôle et le conflit de rôle, eux, sont liés négativement à la satisfaction au travail.

2. Pour les facteurs liés à la personne :

– L’affectivité positive et l’estime de soi sont liées positivement à la satisfaction au travail ; – L’affectivité négative est liée négativement à la satisfaction au travail.

Par contre, pour des liens plus faibles, les significativités diffèrent d’une échelle à l’autre. En effet, les résultats concernant la demande psychologique, la significativité de la tâche, le genre, l’âge et le lieu de contrôle dépendent du choix de la mesure de la satisfaction au travail. Notons que les déterminants liés à la satisfaction au travail pour lesquels il existe des différences touchent une dimension plus psychologique du travail, comme la demande psychologique des tâches et le sens du travail et les variables liées à la personne. Ainsi, si nous sommes intéressés à savoir si ce sont plutôt les aspects de la personne ou les aspects du travail qui affectent la satisfaction au travail, comme c’est le cas dans notre troisième hypothèse, la réponse pourrait différer en fonction du choix de l’échelle mesurant la satisfaction au travail. Nous reviendrons sur ce point un peu plus loin dans la discussion.

Si les quatre VD mesuraient bien le même construit, cela n’aurait pas dû être le cas. Nous pouvons donc rejeter l’hypothèse selon laquelle ces quatre échelles opérationnalisent le même construit. Et nous rappelons comme cela a été mentionné dans le chapitre 12 que le fait que les liens forts sont significatifs quelle que soit la VD n’est pas un signe que les échelles utilisées pour mesurer la satisfaction au travail mesurent bien le même construit.

Nous avons vu que les quatre VD ne mesurent pas le même construit, mais nous pouvons nous demander si cela est uniquement une question d’échelles à facettes versus échelles globales. En d’autres termes, est-ce que le MSQ se comporte différemment des trois échelles globales ? La réponse est non. En

Nous avons vu que les quatre VD ne mesurent pas le même construit, mais nous pouvons nous demander si cela est uniquement une question d’échelles à facettes versus échelles globales. En d’autres termes, est-ce que le MSQ se comporte différemment des trois échelles globales ? La réponse est non. En