• Aucun résultat trouvé

2.5 Comparaison des gains liés à la décision

Dans l’approche de Scharfstein et Stein, la fonction d’estimation des capacités de l’acteur est postulée linéairement liée à son salaire. L’agent cherche donc, pour maximiser son salaire, à optimiser sa réputation. D’un autre côté, il cherche aussi à utiliser au mieux les informations qu’il détient. L’utilisation de cette information peut lui procurer un gain si elle lui permet de prendre un décision judicieuse. Comment ces deux objectifs peuvent-ils cohabiter pour l’agent B qui cherche à maximiser son espérance de gain ? L’étude conjointe des deux types de rémunération identifiés par Ottaviani et Sorensen (2000)2, informationnelle et réputationnelle, font l’objet de ce paragraphe.

2.5.1 Postulats sur la fonction d’estimation

Afin de pouvoir comparer les gains apportés par la décision de l’agent, il est nécessaire de postuler que d’un point de vue réputationnel, il est systématiquement préférable d’imiter, i.e. que pour toute valeur des paramètres p, q, A et B, on a :

E[

θ

ˆ

B (SB=+,SA =-)] < E[

θ

ˆ

B (SB=-,SA =-)] (2.5.1.1)

Dans ce cas, qui correspond à la définition de mimétisme réputationnel de Scharfstein et Stein, la fonction d’estimation se trouve simplifiée. Si les deux comportements sont considérés comme identiques, alors les deux acteurs sont considérés comme étant « smart ». Si au contraire, le comportement de l’acteur B dévie de celui de l’agent ou du groupe d’agents

1

LÜTJE, T., 2005, "To Be Good or To Be Better: Asset Managers’ Attitudes Towards Herding", Deutsche Asset Management & University of Hannover, Germany

2 Op. cit.

A, systématiquement considéré comme la norme, le « smart », alors que l’agent B est relégué dans la catégorie « dumb ».

Grâce à cette hypothèse simplificatrice, il est possible de comparer les gains réalisés par l’agent, qu’ils soient liés à l’information ou à la réputation.

2.5.2 Décisions d’investissement et gains

Cette approche est fondée sur les retombées financières apportées par la décision, celle-ci étant toujours d’acheter ou de vendre. Les états de la nature concernent la rentabilité R de l’action concernée, positive {R=P} ou négative {R=N}. De manière à prolonger l’analyse précédente sans surcharger les formules, on note = P(R=P/ SB=+,SA =-).

Pour chaque décision et selon chaque état de la nature, un gain ou une perte est affecté, correspondant à l’utilité affectée par l’agent. D’après les approches précédentes, il est possible de considérer les espérances de gain de cet environnement combinant :

- les gains liés à la justesse de la décision, du fait d'une bonne utilisation de l'information (i 0) ;

- les gains de réputation, relatifs à l'accord entre la décision individuelle et le choix collectif (r 0).

Lorsque l’agent a choisi et qu’ex post la décision se révèle être la bonne, il obtient un gain de

i. i peut être interprété comme le bénéfice apporté par plus-value de l’opération à l’agent B1. Ce gain est égal, qu’il imite ou qu’il n’imite pas. L’important est pour l’agent B de prendre la décision qui se révélera la meilleure a posteriori : d’acheter si la rentabilité est positive, de vendre sinon. S’il prend une mauvaise décision, on considèrera au contraire qu’il perd cette même valeur i.

Lorsque l’agent agit en imitant un autre agent ou groupe d’agents, il préserve sa réputation. En agissant comme les autres agents, il s’affiche comme étant informé et il sera postulé qu’il acquiert une réputation r. Dans le cas où il n’agit pas de la même manière que les autres agents mais qu’il choisit de privilégier son information privée, il subit une perte de réputation

1

Dans la paragraphe « hypothèses théoriques », les rentabilités positives et négatives sont de même valeur, que nous quantifions ici « i ».

symétrique de -r1. Dans le cas étudié, le signal de l’agent A est négatif, proposant de vendre. Vendre correspond donc à une augmentation de la réputation (r) et acheter à une baisse de réputation (-r).

Ce gain ou cette perte de réputation est une contrainte pour l’agent B qui remplace son estimation de capacités par une opinion plus tranchée : dévier de l’acteur ou des acteurs A précédents est systématiquement signe de son incompétence. Cette contrainte est plus restrictive, toute déviation par rapport à l’acteur précédent étant sanctionnée, et toute imitation clairement encouragée. La matrice de gains suivante, en fonction de la réalisation ex post des événements est représentée ci-dessous.

Action de l’agent Matrice des gains

Acheter Vendre

R=P i-r -i+r

Etat du monde

R=N -i-r i+r

Tableau 8. Matrice de gains en fonction de la réalisation ex post des événements Cas où l’agent A vend

Ainsi, si l’agent choisit d’imiter (en vendant) et que cette décision se révèle fausse a

posteriori {R=P}, il obtient un gain lié à la réputation de r mais subit une perte de i du fait de

sa mauvaise décision. Son gain total est donc de (-i+r).

2.5.3 Décision optimale

L’agent doit donc décider d’agir selon ces deux modalités. Quelle est l’espérance de gain dans les deux cas ? D’après la probabilité a posteriori , on peut la calculer lorsque l’agent imite ( M ) ou lorsqu’il n’imite pas ( M ).

E( M )= E(Vente)= (-i+r)+(1- )(i+r) = i (1-2 )+r (2.5.3.1)

E( M )=E(Achat)= (i-r)+(1- )(-i-r) = i(2 -1)-r (2.5.3.2)

On remarque à ce stade de l’analyse que :

1

On peut faire le lien avec la baisse des primes calculées en fonction des résultats obtenus par les gestionnaires concurrents.

- en l’absence de gains liés à la justesse de la décision (i=0), il est toujours optimal d’imiter afin de préserver sa réputation (r) plutôt que de l’entamer (-r) ;

- en l’absence de gain liés à la réputation (r=0), alors la décision optimale s’effectue en fonction de la probabilité a posteriori ;

- pour que l’espérance de gain de ne pas imiter soit positive, il est nécessaire que i>r (car 2 -1≤ 1 par définition), donc que le gain lié à la justesse de la décision soit supérieur à celui de la réputation.

Dans les deux espérances, r ne dépend pas, par définition, de la réalisation ex post des événements.

Il est alors optimal d’agir seul, selon sa propre information, si et seulement si l’espérance de gain dans cette situation est supérieure à celle de l’imitation, i.e. E( M )<E( M ).

i (1-2 )+r< i(2 -1)-r (2.5.3.3)

d’où

i (2 -1)>r (2.5.3.4)

Dans cette inégalité :

- Si <½, 2 -1 est négatif : il est optimal d'imiter quelles que soient les valeurs de i et de r puisque l’inégalité est systématiquement violée. Ceci apparaît trivial car le signal n’est alors pas considéré comme étant informatif.

- Dans le cas inverse, si >½, il n'est pas forcément optimal d'utiliser l'information privée. Cela dépend du poids relatif de i et de r.

o Si le gain i est faible et inférieur au gain r, il reste rationnel d’imiter, car quelque soit ∈[0,1], 2 -1 1 et cette inégalité est violée.

o Si i>r et tend vers 1, alors l’agent B a intérêt à ne pas imiter.

En introduisant des gains à la fois sur l’optimisation de l’information et celle de la réputation, les comportements non mimétiques ne s’opèrent que pour des conditions très restrictives. Si r est suffisamment important, alors, quelles que soient les informations reçues et le gain i, il est logique d’imiter.

On note que la grande force de l’imitation fondée sur la réputation dans ces développements est qu’elle ne dépend pas de la réalisation ex post des événements. L’agent sait quel est son

gain r, quelque soit la réalisation des événements {R=P} ou {R=N}. En revanche, il règne une incertitude sur son gain i, car ce dernier dépend des signaux d’informations incertains. En cas d’importante incertitude sur les signaux, i.e.quand est très proche de ½, il est donc rationnel pour l’agent de chercher à préserver sa réputation1. Il est ainsi certain d’obtenir un gain de réputation quelle que soit l’issue du jeu.

2.5.4 Lien avec l’approche Keynésienne

Pour Keynes (1942)2, « il vaut mieux pour sa réputation échouer avec les conventions que réussir contre elles ». Dans ce cadre d’analyse, cela signifie que le gain lié à l’imitation qui se trouve être un mauvais choix ex post est supérieur à un choix judicieux mais isolé, soit :

–i+r>i-r (2.5.4.1)

d’où : i<r i/r<1 (2.5.4.2)

Si on choisit d’appliquer cette contrainte à l’équation (2.5.3.4), l’inégalité est systématiquement violée3. Il est donc optimal dans tous les cas d’imiter pour l’agent B, quels que soient les signaux d’information. Il n’a aucun intérêt à rechercher des informations afin de prendre sa décision, et n’a qu’à suivre le comportement du ou des acteurs précédents afin de maximiser son espérance de gain. Pour préserver la possibilité de non-imitation, il est nécessaire que le gain i soit supérieur à r. Donc l’agent est plus récompensé à agir en fonction de la justesse de ses décisions plutôt que de chercher à préserver sa réputation.

De cette analyse en terme de gains, on peut ainsi énoncer, toutes choses égales par ailleurs, les hypothèses suivantes :

H8. Plus l’agent B attribue une utilité élevée4 à agir comme les autres, plus il abandonnera son information privée

H9. Plus l’agent B est rémunéré en fonction de la justesse de ses décisions, moins il abandonnera son information privée

1

Lorsque est proche de ½ , le gain informationnel doit être très largement supérieur au gain réputationnel (quand tend vers ½, 2 -1 0, donc si r>0, i + ). Si l’on considère que i est un montant fixé, une grande incertitude implique ainsi une décision mimétique de l’agent.

2

Op. cit., p.173 3

En effet, (2.5.3.4) équivaut à (2 -1)i/r>1 d’où comme 2 -1<1 ; i/r>1/(2 -1)>1 4

Cette utilité r peut être une rémunération relative, mais aussi une préférence personnelle liée au conformisme individuel

Cette approche par les gains permet de saisir les approches informationnelles et réputationnelles simultanément. Elle utilise le même environnement que celui de Scharfstein et Stein, reprenant la probabilité a posteriori , du modèle précédent. Au-delà de la précision des signaux déjà étudiée, la notion d’utilité est introduite par des gains provenant de la justesse de la décision d’une part, et de la préservation de la réputation d’autre part.

Le principal résultat de cette analyse renforce la notion de réputation. Il met en avant l’importance des incitations réputationnelles clairement discernables par l’agent car n’étant pas sujettes au risque qui touche les gains liés à la justesse de la décision. L’hypothèse de certitude d’un gain lié à la réputation peut paraître contraignante, mais elle est partagée par Scharfstein et Stein. Si l’agent ne connaît pas les rentabilités futures de ses investissements, il peut savoir avec certitude comment il se situe par rapport aux autres acteurs, et comment il sera jugé en terme de réputation.