• Aucun résultat trouvé

Après avoir exposé notre approche et après avoir analysé notre méthodologie, il nous reste maintenant à juger cette dernière à ses fruits. Tel est notre propos dans ces prochains chapitres de la thèse qui décrivent les résultats de notre approche : l’influence de la structure financière et de la politique des dividendes sur la Création de Valeur actionnariale et partenariale, que nous avons menée sur les introductions en bourse effectuées sur Casablanca entre la période 2005/2009.

Ce chapitre présente les résultats de la vérification empirique des hypothèses formulées dans le cadre de la Création de Valeur actionnariale et partenariale. Il s’agit en effet, de vérifier l’existence de relation d’influence (positive ou négative) entre les décisions financières (financement et de distribution de dividendes) et la Création de Valeur sous ses deux facettes, respectivement présentées par les variables END (endettement), DIV (montants des dividendes distribués) et la MVA (Market Value Adde), CDVSAL, CDVCF, CDVACT, CDVETA.

Nous cherchons également dans ce chapitre à examiner l’impact des conflits d’intérêt entre les principaux partenaires de l’entreprise marocaine sur la Création et le partage de la Valeur. La méthodologie utilisée dans le cadre de notre analyse empirique est celle des panels. Il s’agit d’une forme de régression multiple qui permet de traiter conjointement les effets individuels et les effets temporels. Cette double dimension permet :

- de rendre compte simultanément de la dynamique de comportement et de leur éventuelle hétérogénéité, ce qui n’est pas possible avec les séries temporelles ou les coupes transversales (Sevestre (2002)).

- de contrôler l’influence des caractéristiques non observables des individus sur leur comportement, dés lors que celles ci restent stables dans le temps (Sevestre (2002)). L’estimation par la méthode des moindres carrés ordinaires de toutes les données empilées présuppose l’homogénéité des firmes, ce qui peut conduire à des estimateurs biaisés. Les disparités du secteur d’activité ainsi que le degré d’aversion au risque des actionnaires et / ou des dirigeants sont quelques raisons qui soutiennent le relâchement de l’hypothèse d’homogénéité.

L’économétrie des données de panel permet de tenir compte de l’hétérogénéité des observations dans leurs dimensions individuelles par la prise en compte d’un effet spécifique fixe ou aléatoire.

Ainsi dans ce qui suit nous présenterons d’abord les résultats des données de panels de la valeur actionnariale (4.1) des 47 entreprises de notre échantillon sur la période 2005/2009, avant de les interpréter (4.2) en se référant au contexte théorique et marocain. Les résultats des données de panels de la valeur partenariale (4.3) et leur interprétation (4.4) seront par la suite explicités.

4.1 Les résultats des données de panels : Valeur actionnariale.

4.1.1 Test de spécification ou test d’homogénéité.

Les données de panel possèdent deux dimensions : une pour les individus et une pour le temps. Il est souvent intéressant d’identifier l’effet associé à chaque individu, effet qui ne varie pas dans le temps, mais qui varie d’un individu à l’autre. Ainsi, cet effet peut être fixe ou aléatoire.

En effet, et lorsque nous avons un échantillon de données de panel, la toute première chose qu’il convient de vérifier est la spécification homogène ou hétérogène du processus générateur de données. Sur le plan économétrique, cela revient à tester l’égalité des coefficients du modèle étudié dans la dimension individuelle. Sur le plan économique, les tests de spécification reviennent à déterminer si l’on est en droit de supposer que le modèle théorique étudié est parfaitement identique pour toutes les entreprises, ou au contraire s’il existe des spécificités propres à chaque entreprise.

On considère le modèle (1.1) et l’on suppose que les résidus εi,t sont indépendamment distribués dans les dimensions i et t ( respectivement dimension individuelle et temporelle), suivant une loi normale d’espérance nulle et de variance σ2

supposée connue.  Modèle :

MVAi = αi + β’i,1END+ β’i,2 DIV + βi,3 INV + β’i,4 VACF+ β’i,5 VASAL + βi,6 MBE + β’i,7 CAAECO + β’i,8 TAILLE + β’i,9 SECT + εi,t (1.1)

Avec : i ε [1;47]

La procédure consiste à tester l’égalité des 47 constantes individuelles αi; sous l’hypothèse de coefficients βi communs à toutes les entreprises:

H0 : αi = α quelque soit i ε [1;47]

H1 : αi ≠αj / З (i; j) ε [1;47]

Sous l’hypothèse nulle, on impose βi = β. Sous l’hypothèse d’indépendance et de normalité

des résidus, on construit une statistique de Fischer pour tester ces 47-1 restrictions linéaires. Cette statistique suit une loi de Fischer avec 46 et 180 degrés de liberté. Si l’on rejette l’hypothèse nulle H0 d’homogénéité des constantes αi, on obtient alors un modèle de panel

avec effets individuels sous la forme suivante :

MVAi = αi + β’1END+ β’2 DIV + β’3 INV + β’4 VACF + β’5 VASAL + β’6 MBE + β’7 CAAECO + β’8 TAILLE + β’9

SECT + εi,t (1.2)

Dans le cas où l’on accepte l’hypothèse nulle H0, on retrouve alors une structure de panel

totalement homogène (modèle pooled). - Test de présence d’effets individuels :

On observe tout d’abord que le panel est cylindré (balanced), c’est à dire qu’il comporte le même nombre de points dans la dimension temporelle pour tous les individus. On a ici N (individus) = 47 et T = 5 (années) ; soit 235 observations.

La réalisation de la première régression de détection des effets individuels, nous montre d’abord que notre modèle d’explication de la création de valeur actionnariale par les variables choisies est un modèle significatif (p-value121 du test de Fisher est de 0.0001 <0.05) c'est-à- dire que tous les coefficients de notre modèle sont différents de zéro. Alors que la réalisation de la statistique de Fischer associée au test H0 de détection des effets individuels, notée F; est

de 4.16. Cette valeur est à comparer au seuil d’un Fischer avec N-1 et N (T-1)- K-1 degrés de liberté, c’est à dire ici un F (46,180). Le logiciel nous donne directement la p-value de ce test.

121

Les résultats statistiques sont souvent donnés sous la forme de « p-value », un nombre entre 0 et 1 qui indique la probabilité sous H0 d’obtenir la valeur trouvée. Ainsi, si le « p-value » est sous le α désiré, 5% par exemple, on rejette l’hypothèse nulle. Un « p-value » de 0.0000 rejette très fortement l’hypothèse nulle.

En l’occurrence, la p-value est très largement inférieure au seuil de 5%. Pour ce seuil, on rejette l’hypothèse nulle H0 d’égalité des constantes αi. Il est nécessaire d’introduire ici des effets individuels. La spécification de notre modèle gardera donc la forme (1.2) :

MVAi = αi + β’1END+ β’2 DIV + β’3 INV + β’4 VACF + β’5 VASAL + β’6 MBE + β’7 CAAECO + β’8 TAILLE + β’9

SECT + εi,t (1.2)

Pour tout (i = 1,……,47)

Reste à présent à étudier les différentes méthodes d’estimation du modèle incluant des constantes individuelles.

4.1.2 Modèles à effets fixes et à effets aléatoires.

a/ Modèle à effets fixes :

Le modèle à effets fixes est une manière de capter les effets individuels, qui est équivalente à l’ajout de variables dichotomiques, est d’utiliser un estimateur « Within » qui mesure la variation de chaque observation par rapport à la moyenne de l’individu auquel appartient cette observation.

“Fixed-effects models are designed to study the causes of changes within a person [or entity]. A time-invariant characteristic cannot cause such a change, because it is constant for each person”122

.

L’équation du modèle à effets fixes se présente comme suit : Yit = β1Xit+ αi+ uit

αi (i=1….47) est l’intercepte inconnue pour chaque entreprise (47 entity-specific intercepts).

Yit est la variable dépendante, tels que i= entreprise et t = temps. Xit représente une variable indépendante.

β1 est le coefficient de cette variable indépendante,

uit est le terme d’erreur.

Ainsi, la régression en introduisant les effets individuels fixes nous donne un modèle de régression significatif (un F(8,180) = 4.18 avec une p-value 0.0001<0.05), et les résultats de cette régression aboutissent aux estimations mentionnées dans :

Tableau 17 : Les estimations des données de panel du modèle MVA à effets fixes (Voir annexe 7).

b/ Modèle à effets aléatoires :

Les effets individuels peuvent être également modélisés de façon aléatoire : variant autour d’une moyenne. On suppose le plus souvent qu’ils suivent une loi normale : αi ~ N (0, σ2). On considère alors que l’erreur du modèle est composée de l’erreur usuelle spécifique à l’observation i, t et de l’erreur provenant de l’intercepte aléatoire.

“The rationale behind random effects model is that, unlike the fixed effects model, the variation across entities is assumed to be random and uncorrelated with the independent variables included in the model. An advantage of random effects is that you can include time invariant variables. In the fixed effects model these variables are absorbed by the intercept”123

.

Le modèle des effets aléatoires se présente comme suit: Yit= βXit+ αi+ uit+ εit

122Kohler, Ulrich, Frauke Kreuter: “Data Analysis Using Stata”, 2ème édition., p.245. 123

εit : Within-entity error. uit : Between-entity error

Les résultants de la régression avec effets individuels aléatoires présentent également un modèle significatif au sens de Wald khi-deux (p-value 0.0000), aussi ce modèle assume l’hypothèse du non corrélation entre les effets individuels et les variables explicatives. Ainsi, les résultats de cette régression se présentent dans :

Tableau 18 : les estimations des données de panel du modèle MVA à effets aléatoires (Voir annexe 8).

Il convient maintenant de choisir quelle modélisation se prête le mieux à nos données. Pour les effets fixes, ils sont plus généraux que les effets aléatoires puisqu’ils n’imposent pas de structure aux effets individuels.

Cependant, on perd N-1 degrés de liberté en modélisant les effets individuels de manière fixe (inclusion implicite de N variables dummies moins l’intercepte générale), ce qui rend l’estimation des coefficients des variables explicatives moins efficientes. Par ailleurs, le coefficient de toute variable explicative qui ne varie pas dans le temps pour un même individu (le secteur) n’est pas estimable puisque l’estimateur «whitin» l’élimine (Xit - Xi = 0).

On peut donc espérer à une modélisation aléatoire des effets individuels, sauf que leur efficacité repose sur une hypothèse cruciale à savoir que, pour que les estimateurs d’effet aléatoires soient non biaisés, il ne doit pas y avoir de corrélation entre les effets aléatoires (αi.) et les variables explicatives.

Le test d’Hausman est le test de spécification des effets individuels, et qui permet de déterminer si on doit choisir l’un ou l’autre modèle en comparant la matrice variance- covariance des deux estimateurs MCG et Within.

c/ Fixed or Random : Le test d’Hausman :

En présence d’un modèle à effets individuels, la question qui se pose immédiatement est de savoir comment ces effets individuels doivent être spécifiés : doit-on adopter l’hypothèse d’effets fixes ou au contraire l’hypothèse d’effets aléatoires ?

En effet, l’estimateur des Moindres carrées Généralisé, utilisé dans le cas du modèle à effets aléatoires, est asymptotiquement (sous l’hypothèse T ∞) identique à l’estimateur Within utilisé dans le modèle à effets fixes. Toutefois, pour des panels de dimension temporelle réduite, il peut exister de fortes différences entre les réalisations des deux estimateurs (Hausman 1978). Dès lors, le choix de la méthode d’estimation, est particulièrement important pour ce type de panel.

Un des principaux problèmes qui peut se poser dans le cadre du modèle à effets aléatoires provient de l’éventuelle corrélation entre les variables explicatives et les effets individuels αi. Sur le plan économique, cette corrélation traduit l’influence des spécificités individuelles structurelles (ou a-temporelles) sur la détermination du niveau des variables explicatives. Dès lors, il suffit de comparer une distance, pondérée par une matrice de variance covariance, entre les deux estimateurs pour pouvoir déterminer si la spécification est correcte ou non. Si la distance est statistiquement nulle, la spécification est correcte, on choisit le premier estimateur. Si la distance est importante, le modèle est mal spécifié.

L’hypothèse testée concerne la corrélation des effets individuels et des variables explicatives : H0 : E (αi./ Xi) = 0

H1 : E (αi./ Xi) ≠ 0

Sous H0, le modèle peut être spécifié avec des effets individuels aléatoires et l’on doit alors

retenir l’estimateur des MCG (estimateur BLUE). Sous l’hypothèse alternative H1, le modèle

doit être spécifié avec des effets individuels fixes et l’on doit alors retenir l’estimateur Within (Estimateur non biaisé).

Sous l’hypothèse nulle H0, la statistique H (Haussman) suit asymptotiquement un chi deux à

K-1 degrés de liberté.

Ainsi, si la réalisation de la statistique H est inférieure au seuil de 5 %; on rejette l’hypothèse nulle et l’on privilégie l’adoption d’effets individuels fixes et l’utilisation de l’estimateur Within non biaisé.

L’application technique de ce principe suppose tout de même que l’on construise la matrice de variance covariance de l’écart entre les deux estimateurs.

L’application du test d’Hausman au problème de la spécification des effets individuels dans notre panel nous donne une statistique H de 1.24. Au seuil de 5% la p-value correspondante à cette valeur est de 0.9901; donc ici on accepte l’hypothèse nulle d’absence de corrélation entre les effets individuels et les variables explicatives. Nos variables explicatives ne sont pas corrélées aux spécificités structurelles et a-temporelles de la création de valeur actionnariale. Ainsi, on doit ici privilégier l’adoption d’un modèle à effets aléatoires et retenir l’estimateur MCG (Moindres Carrés Généralisés) estimateur BLUE.

Donc notre modèle gardera la forme de modèle à effets individuels aléatoires et se présentera comme suit :

MVA = 8.781464 - 0.3660051 END + 1.45e-08 DIV - 1.788237 INV – 0.6813043MBE - 0.0644952 CAAECO – 0.535121 TAILLE - 2.196511 SECT.

4.1.3 Le diagnostic du modèle économétrique adopté (Modèle à effets aléatoires).

a/ Test d’Hétéroscédasticité :

L’hétéroscédasticité est la propriété des données qui n’ont pas une variance constante. Cependant, cette hétéroscédasticité ne biaise pas l’estimation des coefficients, mais l’inférence habituelle n’est plus valide puisque les écarts-types trouvés ne sont pas les bon, et par conséquence, il est important de savoir la détecter et la corriger.

- Détection de l’homoscédasticité : Test de Breusch-Pagan Lagrange multiplier (LM). Pour la détection de l’hétéroscédasticité, plusieurs tests se ressemblant existent, tels que le test de Breusch-Pagen et le test de White. Seule la première solution est discutée ici en raison de sa simplicité, et ce en utilisant le test de Breusch-Pagan (Test de Breusch-Pagan Lagrange multiplier (LM)).

L’idée générale de ce test est de vérifier si le carré des résidus peut être expliqué par les variables du modèle. Si c’est le cas, il y a hétéroscédasticité.

Ces deux tests utilisent un test F. Et comme c’est le cas pour tous les tests statistiques, on doit comparer la valeur obtenue aux valeurs critiques de la statistique concernée.

Dans le contexte d’un test d’hétéroscédasticité, l’hypothèse nulle est que tous les coefficients de la régression des résidus au carré sont nuls, c'est-à-dire que les variables du modèle n’expliquent pas la variance observée donc il y a homoscédasticité. L’hypothèse alternative est l’hypothèse d’hétéroscédasticité. Ainsi, si on rejette l’hypothèse nulle (« p-value » < alpha), on peut conclure à la présence d’hétéroscédasticité.

- Hypothèse d’homoscédasticité : H0 : σ2it = σi2 pour tout i et t

Outline

Documents relatifs