• Aucun résultat trouvé

Chapitre II : Méthodologie et résultats de la recherche

I. Méthodologie et présentation du cadre d'étude

2. La méthodologie de la recherche

2.5. La stratégie de vérification des hypothèses

La stratégie de vérification est le choix que l’on fait par rapport au nombre de cas à utiliser et au type de recherche à réaliser pour assurer la vérification la plus complète possible de l’hypothèse. Cette décision est importante dans la mesure où la détermination de la nature de l’observation, le type d’information à recueillir et le type de traitement de données à effectuer en dépendent. Nous pouvons avoir comme types de stratégie de vérification: l’observation, la stratégie expérimentale, l’enquête, l’étude de cas et la recherche-action. Dans le cadre de cette présente étude, nous avons exploité des données de l’entreprise.

Notre base de données présente six (6) variables que sont le rendement des capitaux(RC), le taux de formation(TF), la fréquence de réclamation des salariés, clients, fournisseurs, collecteurs de la matière première (NR), la part des primes de motivation (PM), la performance moyen des salariés(PS), le taux d’insatisfaction des salariés, clients, fournisseurs, collecteurs de la matière premières (TI). Toutes ces dernières sont exprimées en fonction du temps. Les données concernent la période de 1995 à 2018.

23 2.6.Méthode de traitement des données

Dans le cadre de traitement des données, nous avons utilisé le logiciel R.

Son utilisation, nous a permis de traiter les données de l’entreprise en faisant la régression et la modélisation. La modélisation a permis d’estimer les paramètres du model, de voir les liens entre les variables et le sens ou la direction de la relation.

2.7. Les difficultés rencontrées

Tout chercheur rencontre des difficultés de diverses natures. L’accès à la société ne nous a pas du tout été difficile. Ce qui a été plus difficile pour nous c’était l’obtention des données financières de la société, les fiches de notation individuelle et les fiches d’évaluation de l’impact de la formation. Mais néanmoins nous avons obtenu des données nous permettant de faire notre recherche.

Le personnel qui devait nous fournir les données les plus nécessaires était tout le temps occupé.

Résumé de la méthodologie de recherche scientifique: il s’agit ici d’un modèle de cheminement scientifique basé sur le raisonnement hypothético-déductif.

24

II. Analyse et interprétation des résultats

Cette partie est consacrée à la présentation, l’analyse des données et l’interprétation des résultats afin de confirmer ou d’infirmer les hypothèses émises.

1. Analyse exploratoire des données de l’entreprise

Dans cette partie nous retrouvons la présentation des données et l’analyse descriptive.

La base de données que nous analysons est celle du rendement des capitaux de la SONACOS E.I.Z. Elle est de type temporel (chronologique).

Notre base de données présente six (6) variables que sont le rendement des capitaux(RC), le taux de formation(TF), le nombre de réclamation des salariés, clients, fournisseurs, collecteurs de la matière première (NR), la part des primes de motivation dans la masse salariales (PM), la performance moyen des salariés(PS), le taux d’insatisfaction des salariés, clients, fournisseurs, collecteurs de la matière premières (TI). Toutes ces dernières sont exprimées en fonction du temps. Les données concernent la période de 1995 à 2018.

1.1. Etude descriptive

Avant de modéliser la relation existant entre la variable dépendante et les six variables explicatives, il est nécessaire de faire des analyses bi-variées, il s'agit ici de voir si la variable d'intérêt a une relation avec chacune des variables prises deux à deux. Pour ce faire, deux méthodes sont utilisées : la méthode graphique (graphique des nuages de point) et la méthode algébrique (matrice de corrélations linéaire).

Nous allons faire une régression linéaire multiple, il est alors nécessaire de voir si la relation liant la variable RC et d’autres variables est linéaire.

Pour ce faire, on utilise la fonction splom du package lattice avec le logiciel R.

25

Graphique 1: Diagramme de dispersion des variables définies dans le cadre de notre travail

Source : Sortie R

La dernière ligne de la matrice donne les nuages de points entre la variable RC et les variables explicatives.

D’après le diagramme de dispersion, nous pouvons dire que la relation entre la variable RC et toutes les autres variables semble linéaire.

1.2. Matrice de corrélation

Le coefficient de corrélation linéaire mesure le degré d’association entre deux variables.

La fonction cor (signifie corrélation) avec R permet d’obtenir la matrice des corrélations entre les différentes variables. C’est ce qui nous donne le tableau suivant.

26

Tableau n°1: Matrice de corrélation linéaire des variables

TF NR RO PS TI RC PM

Le graphique1 et le tableau1 montrent que le RC est corrélé de façon linéaire avec les variable s explicatives (TF, NR, PM, PS et TI).

1.3. Présentation du modèle Notre modèle est le suivant :

RCt= β0 + β1NR1t + β2PM2t + β3PS3t + β4TI4t + β5TF5t + β6RO6t + εt

Avec t = 1, 2, 3, 4, 5, …, 24 (nombre d’observation) donc T = 24

β0 = la constante ; βk = les coefficients du modèle entre la variable expliquée (endogène) et les variables explicatives (exogènes) ; εt = le terme d’erreur ou perturbation.

La variable expliqué (endogène)

• RC = Rendement des capitaux Les variables explicatives (exogènes)

• NR= Fréquence de réclamation du personnel

• PM = Taux des primes de motivation dans la masse salariale

• PS= Performance moyen des salariés

• TI = Taux d’insatisfaction des clients.

• TF= Taux de formation

• RO= Réclamation ouvrière (Journaliers, saisonniers et gardiens) 1.4. Hypothèses probabilistes (stochastiques)

L’inférence statistique relative à la régression (estimation des coefficients, tests d’hypothèses, etc.), repose principalement sur les hypothèses liées au terme d’erreur ε qui résume des

27

informations absentes du modèle. Il est donc important de vérifier ces hypothèses afin de pouvoir interpréter les résultats obtenus avec les MCO et d’obtenir le bon modèle.

Les hypothèses stochastiques sont les suivantes :

H1 :

H2 : (homoscédasticité)

H3 : (non autocorrélation du résidu)

H4 : (exogénéité)

H5 : suit ne loi normale c’est-à-dire

Nous allons procéder maintenant par l’estimation des coefficients du modèle avec le logiciel R en utilisant la fonction lm (linear model).

Tableau n°2: Estimation des paramètres du modèle par les MCO Residuals

Min 1Q Median 3Q Max

-50986 -0,09533 0,01387 0,12476 0,51825

Coefficients

Estimate Std,Error t value Pr(>|t|)

(Intercept) 14,14 1,16 12,20 7,86e-10 *** Residual standard error: 0.2797 on 17 degrees of freedom Multiple R-squared: 0.9209, Adjusted R-squared: 0.893 F-statistic: 32.99 on 6 and 17 DF, p-value: 1.855e-08 Source : Sortie R

Après estimation des paramètres de notre modèle par la méthode des moindres carrées ordinaires nous remplaçons les valeurs obtenues dans ce modèle. L’équation devient :

RC = 14.14 + 0.5428PM1t + 0.1263PS2t + 0.1168TF3t – 0.1159NR4t – 0.3712TI5t + 0.01811RO6t

28

1.5. Analyse de la significativité des coefficients du modèle

L’analyse de la significativité du modèle se fera en deux étapes : l’analyse du point de vue de la qualité globale d’une part et celle de la qualité individuelle des coefficients d’autre part.

1.5.1. Test de significativité globale du modèle au seuil de 5% (test de Fisher)

L’appréciation de la qualité globale du modèle se fait avec la statistique de Fisher, qui montre si les variables explicatives ont une influence sur la variable dépendante.

Soit le test d’hypothèses suivant :

H0 : β0 = β0 1= β2 = …. = βK (le modèle n’est pas globalement significatif) H1 : il existe au moins un , (le modèle est globalement significatif)

Dans notre modèle, la probabilité associée (p-value= 1.855e-08) est inférieur à 5% (P-value , donc H0 est rejetée et le modèle est globalement significatif.

1.5.2. Test de significativités individuelle des coefficients au seuil de 5% (test Student) Les hypothèses du test sont formulées de la manière suivante :

H0 : βi = 0 (effet non significatifs) H1 : βi ≠ 0 (effet significatifs)

Interprétation : D’après les résultats du tableau, on rejette H0 au seuil de 5% lorsque P 0,05 (alpha = 5%) sinon on accepte.

Dans notre modèle, toutes les cinq variables sont significatives au seuil de 5%.

La qualité de l’ajustement (R²)

Dans notre régression, nous avons R² (R – squared) = 0,9209 (92,1%) et R2 ajusté = 0,893 (89,3%), tous les deux pas tellement loin de 100%.

Ce là montre que 89,3% de la variabilité du RC de la SONACOS est expliquée par les variables explicatives. La valeur prise par R² nous permet de dire que l’ajustement est de bonne qualité.

Conclusion du test : Avec un seuil de 5%, le modèle est globalement significatif et de bonne qualité car toutes les variables dans le modèle permettant d’expliquer le RC de l’entreprise.

1.6. Analyse des résidus

Il n’est jamais certain qu’un modèle jugé adéquat a priori demeure satisfaisant lorsqu’on le confronte aux observations. Pour être valide, un modèle de régression doit satisfaire certaines hypothèses. La vérification que ces hypothèses sont satisfaites s’appelle la validation du modèle. Cette validation se fait à partir de l’analyse des résidus du modèle.

L’analyse des résidus, c’est de vérifier si les résidus du modèle de régression sont indépendants et équidistribués. Pour que le modèle soit valide, les résidus de chaque variable

29

doivent répondre certaines conditions. Nous avons deux méthodes de vérification possibles:

graphiques (qualitatives) et tests (quantitatives).

1.6.1. Diagnostique graphique

Le diagnostic graphique est simple mais un outil puissant pour valider une régression. Pour ce faire nous représentons d’abord les résidus en fonction de la variable expliquée (RC) et en suite les résidus en fonctions de toutes les variables explicatives (NR, TI, PS, PM, RO et TF). Cette représentation graphique est obtenue à partir de la fonction plot du logiciel R.

Graphique 2: Nuage des points entre résidus et l’endogène

Source : Sortie R

Le graphique 13 permet de se rendre compte de la qualité de la régression. Les résidus doivent être répartis aléatoirement autour de 0, ils ne doivent pas avoir tendance à prendre des valeurs différentes selon la variation de la variable expliquée (RC)

30

Graphique 3 : Résidus en fonction des variables explicatives

31

Ici, l’idée est de détecter s’il y’a une relation entre le terme d’erreur et les exogènes (variables explicatives) et vérifier l’hypothèse H4 du terme d’erreur (les variables explicatives et les erreurs sont indépendantes autrement dit ont une covariance nulle).

1.6.2. Tester le caractère aléatoire des erreurs (Autocorrélation des résidus) Nous allons procéder ici à un test d’erreur. Plusieurs tests sont possibles.

Le test de Durbin – Watson : il permet de vérifier l’autocorrélation des erreurs.

L’hypothèse nulle du test est l’hypothèse d’absence d’autocorrélation des erreurs, soit : (Absence d’autocorrélation des erreurs)

(Autocorrélation des erreurs)

La statistique DW est comprise entre 0 et 4. L’hypothèse nulle d’absence d’autocorrélation des erreurs est acceptée lorsque la valeur de cette statistique est proche de 2.

Le résultat du test de Durbin - Watson

Source : Sortie R

Le DW calculé avec le logiciel R est 1,7852 avec un P-value qui est inférieur à 5%. Donc l’hypothèse absence d’autocorrélation est acceptée.

Après le test d’autocorrélation des erreurs, nous allons procéder au test de nullité des résidus.

Le test de nullité des résidus : c’est le test de l’hypothèse (H1 qui dit l’espérance mathématique du terme d’erreur est nulle). Il s’agit ici de calculer la moyenne des résidus et de voir si elle tend vers zéro. On l’obtient avec la fonction mean de R. Le résultat est le suivant :

Source : Sortie R

La moyenne (mean) des résidus de la régression est sensiblement égale à 0. Donc l’hypothèse H1 du terme est vérifiée.

Nous allons maintenant passer au test de normalité des résidus.

Test de normalité des résidus : il s’agit de vérifier l’hypothèse H5 qui est la normalité des résidus. Nous utilisons une vérification graphique.

Durbin-Watson test data: M

DW = 1.7852, p-value = 0.009047

alternative hypothesis: true autocorrelation is greater than 0

mean(residM) [1] -1.593777e-17

32

Il est donc question de voir si les résidus sont distribués suivant une loi normale. En utilisant la fonction qqplot (les nuages de points en bleu) et qqline (la droite en rouge) du logiciel R, on obtient le graphique suivent :

Graphique 4: qqplot et qqline pour notre jeu de données

Source : Sortie R

Nous constatons que les points sont relativement alignés sur la droite. Donc on peut conclure que les résidus suivent une loi normale (H5 vérifier).

Ce test de normalité peut être aussi vérifié par le test de Shapiro Wilk.

Test de Shapiro Wilk Hypothèses:

H0 : Distribution normale H1 : Distribution non normale

Pour ce test, plus W est élevé, plus la compatibilité avec la loi normale est crédible.

Nous utilisons dans le cadre de notre étude la fonction ShapiroTest du package fBasics du logiciel R. On obtient les résultats suivants.

Le résultat du test de Shapiro Wilk

Source : Sortie R

shapiroTest(residM) Title:

Shapiro - Wilk Normality Test Test Results:

STATISTIC:

W: 0.9703 P VALUE:

0.6751

33

Le W calculé avec R est 0,973 et la P value de 0,6751 donc l’hypothèse de normalité des résidus est acceptée car W de Shapiro Wilk est proche 100% ou 1.

Toute fois la régression linéaire multiple par les MCO a des limites malgré que les hypothèses du terme d’erreur soient vérifiées (H1 à H5). Mais cela ne suffit pas à la préférer si l’on cherche une estimation des coefficients de régression qui soit le plus stable possible sur l’échantillon.

En effet le principal problème de cette méthode c’est la multi colinéarité qui peut fausser complétement l’interprétation des coefficients de la régression, ce qui nécessite de procéder par une sélection de variables.

2. Colinéarité et sélection de variables 2.1. Colinéarité

L’un des objectifs de la régression est d’essayer de décrire le processus de causalité entre les variables exogènes (variables explicatives) et la variable endogène (variable expliquée).

Ainsi on parlera de colinéarité lorsqu’on observe une corrélation entre deux (2) variables explicatives (exogènes).

L’une des méthodes pour détecter la colinéarité, c’est de calculer les coefficients de corrélations entre les variables explicatives (autrement dit la matrice de corrélation entre les variables explicatives).

2.2. Sélection de variables

L’objectif de la sélection de variables est de trouver un sous-ensemble de variables exogènes parmi les variables exogènes qui soient, autant que possible, pertinentes et non-redondantes pour expliquer l’endogène.

Dans le cadre de notre étude nous utilisons le critère des AIC (Akaike Information Criterion).

Avec ce critère (AIC), nous cherchons la régression qui minimise la quantité suivante : AIC = 2p – 2ln(L) où p est le nombre de paramètres et L la vraisemblance.

La démarche qui est adoptée dans ce travail est celle appelée backward (en anglais) ou encore pas à pas. Elle consiste, à partir du modèle complet comportant toutes les variables, à éliminer une à une les variables qui permettent de diminuer l’AIC, et de continuer ainsi tant que la suppression d’une variable améliore le critère.

Processus :

- Calculer l’AIC pour le modèle comportant l’ensemble des variables ;

34

- Evaluer l’AIC consécutive à la suppression de chaque variable du modèle, choisir la suppression entraînant la plus forte diminution et vérifier qu’elle propose une amélioration du critère par rapport à la situation précédente ; ainsi de suite.

Avec le logiciel R, il existe une fonction qu’on appelle step qui permet de calculer directement les AIC. Les résultats sont consignés dans le tableau suivant:

Tableau n°3: Sélection des variables avec la méthode des AIC step(M,direction = "backward")

Start: AIC=-55.44

RC ~ 1 + TF + NR + RO + PS + TI + PM

Df Sum of Sq RSS AIC - RO 1 0.00137 1.3309 -57.413

<none> 1.3295 -55.438 - TI 1 0.64394 1.9734 -47.958 - NR 1 0.76949 2.0990 -46.478 - PS 1 0.82719 2.1567 -45.827 - TF 1 0.96233 2.2918 -44.369 - PM 1 1.46301 2.7925 -39.627

Step: AIC=-57.41

RC ~ TF + NR + PS + TI + PM

Df Sum of Sq RSS AIC

<none> 1.3309 -57.413 - TI 1 0.77443 2.1053 -48.406 - NR 1 0.77528 2.1062 -48.396 - PS 1 0.94263 2.2735 -46.562 - TF 1 0.96424 2.2951 -46.334 - PM 1 2.15858 3.4895 -36.279 Source : Sortie R

Ces résultats montrent que seulement la réclamation ouvrière n’est pas sélectionnée avec le plus petit AIC qui est égal à – 57,41. Sa suppression a fait diminuer le critère mais très faiblement.

35

Le modèle finale est le modèle régressé après sélection des variables (la variable RO ne fait plus partie). Nous essayons de faire la régression à nouveau.

Tableau n°4 : Estimation des paramètres du modèle après sélection des variables Residuals

Min 1Q Median 3Q Max

0.50762 -0.09294 0.01316 0.12500 0.51339

Coefficients

Estimate Std,Error t value Pr(>|t|)

(Intercept) 14,10 1,08 13,09 1,23e-10 *** Residual standard error: 0.2719 on 18 degrees of freedom Multiple R-squared: 0.9208, Adjusted R-squared: 0.8988 F-statistic: 41.87 on 5 and 18 DF, p-value: 2.699e-09

Source : Sortie R

Après la régression du modèle obtenu au sens des AIC, on constate que toutes les variables sont significatives au seuil de 5%.

Après vérification de l’ensemble des conditions de validation du modèle par la méthode graphique, tests et sélection de variables par la méthode des AIC, nous constatons que le rendement des capitaux (RC) est en relation avec chacune des variables explicatives. Cette relation peut donc être approximée par l’équation de régression suivante:

RC = 14.18 + 0.5518PM1t + 0.1243PS2t + 0.1169TF3t – 0.1162NR4t – 0.3635TI5t

Conclusion des tests de validation du modèle

Dans ce travail, nous avons présenté les techniques de la régression linéaire multiple par la méthode des moindres carrés ordinaire (MCO). Ces techniques ont aboutis à un modèle final avec cinq variables explicatives : NR, PM, PS, TI et TF.

36

Ainsi dans le cadre de notre analyse nous concluons que le rendement des capitaux(RC) de la SONACOS est expliqué par le taux de formation(TF), la part des primes de motivation(PM) dans la masse salariale, la performance moyenne des salariés(PS), nombre de réclamation des salariés, clients, fournisseurs et collecteurs de la matière première(NR), le taux d’insatisfaction(TI) salariés, clients, fournisseurs et collecteurs de la matière première.

Interprétations :

 L’augmentation de 1% de la part des primes de motivation(PM) dans la masse salariale entrainera une augmentation de 55,18% de la rentabilité des capitaux de la SONACOS.

 Une augmentation de 1% de la performance moyenne des salariés entraine une augmentation de 12,43% de la rentabilité des capitaux de la firme.

 Une augmentation de 1% du taux de formation entraine une augmentation de 11,69%

de la rentabilité.

 Une augmentation de 1% de la fréquence des réclamations des salariés entraine une diminution de 11,62% de la rentabilité de l’entreprise.

 Une augmentation de 1% du taux d’insatisfaction des salariés entraine une baisse de 36,35% de la rentabilité de la SONACOS.

III- Vérification des hypothèses

Suivant la première hypothèse « La formation affecte positivement la performance de l’entreprise et des employés.». La formation est un outil de gestion des compétences qui permet de combler l’écart entre les compétences requises et disponibles pour le fonctionnement des différents postes d’une entreprise. Notre modèle est le suivant :

RC = 14.18 + 0.5518PM1t + 0.1243PS2t + 0.1169TF3t – 0.1162NR4t – 0.3635TI5t

Les résultats obtenus indiquent que l’augmentation du taux de formation a une influence positive et significative sur la performance de l’entreprise et de ses salariés.

Cela est confirmé par le modèle:

Une augmentation de 1% du taux de formation entraine une augmentation de 11,69% de la rentabilité de l’entreprise.

Cela vient confirmer l’avis des auteurs comme Peretti(2012), qui soutient que la formation est un levier de performance dans la mesure où elle permet le renforcement des compétences source de performance. Une entreprise passe par la compétence de ses salariés pour être performante.

37

C’est la gestion stratégique des compétences qui permet d’identifier les compétences à acquérir par la formation (Freeman, 1993).

Les résultats de la régression et l’avis de certains auteurs comme (Pfeffer, 1993 ; Freeman, 1993, Citeau, 2002) pour ne citer que ceux-là convergent autours du point de vue suivant : la gestion des compétences permet à la DRH d’attribuer les personnes adéquates aux différents postes de l’entreprise, de connaitre le patrimoine intellectuelle, ainsi que d’identifier les hauts potentiels détenus et disponibles, cet outil permet aux managers de connaitre les capacités et les lacunes de leurs subordonnés.

A partir de ces résultats, notre première hypothèse est confirmée.

Donc on peut dire que la formation est un outil de gestion des compétences utilisé par la SONACOS pour permettre à ses salariés de de renforcer leurs capacités et d’acquérir de nouveaux savoirs et des savoir-faire qui permettent la maitrise des tâches aux postes occupées.

Et concernant notre deuxième hypothèse « La performance des salariés influence positivement la performance de l’entreprise».

Les résultats nous montrent effectivement que la performance des salariés impacte positivement la performance de l’entreprise.

En effet, nous avons constaté à partir des résultats de la régression qu’une augmentation de 1%

de la performance moyenne des salariés entraine une augmentation de 12,43% de la rentabilité des capitaux de l’entreprise. La majorité des auteurs des ouvrages consulté partage l‘avis selon lequel la formation impact positivement l’amélioration de la performance.

Et dans la littérature, nous avons pu remarquer que selon Citeau (2002), la formation contribue à apporter aux salariés des satisfactions professionnelles et à améliorer la performance économique de l’entreprise. La formation permet d’être polyvalent et d’être plus qualifié et par conséquent plus compétitif.

« La formation constitue pour les salariés affectés dans des postes aux tâches répétitives et parcellaires, un espoir d’accéder à des emplois différents, plus complexe et généralement plus qualifiés. » (Citeau, 2002, p.114).

« La formation des ressources humaines désigne toutes les activités d'apprentissage ayant pour objet l'amélioration des compétences des employés en lien direct avec l'emploi occupé.

Elle vise l'acquisition de connaissances, de compétences et d'habiletés requises pour réussir dans son emploi actuel » (Saks et Haccoun, 2010, p.118).

38

Selon ces auteurs, la formation rend les salariés formés plus performants. Plus les salariés sont formés plus ils deviennent performant. Une entreprise est d’autant plus performante que ses salariés sont compétents donc bien formés (Kirk, 1197). C’est ce que nous notons également à

Selon ces auteurs, la formation rend les salariés formés plus performants. Plus les salariés sont formés plus ils deviennent performant. Une entreprise est d’autant plus performante que ses salariés sont compétents donc bien formés (Kirk, 1197). C’est ce que nous notons également à