• Aucun résultat trouvé

Ce que l’on appelle Prospect Theory, concept initié par Kahneman et Tversky, constitue un pas important dans les tentatives de compréhension du comportement des agents face au risque210. Par son apport théorique, d’abord, comme nous le verrons. Aussi, parce qu’elle résulte d’un changement de paradigme déterminant dans l’approche du risque. Au lieu de partir d’une logique axiomatique fondant des théorèmes qu’il s’agirait de vérifier empiriquement par la suite, le cheminement se fait de l’observation vers les lois de comportements. Elle consiste en une double transformation : des probabilités d’occurrence des différents événements, d’abord ; des conséquences vécues, qu’il s’agisse des pertes ou des gains, d’autre part. Ces conséquences sont déterminées à partir d’un point de référence correspondant à la situation initiale. Les trois éléments clés sont les suivants :

- Des conséquences définies par déviation par rapport à la situation initiale

- Une fonction de valeur concave pour les gains et convexe pour les pertes, dont la pente est plus grande pour les pertes que pour les gains

- Une transformation non linéaire de l’échelle de probabilité, qui surévalue les événements faiblement probables et sous évalue les événements plus probables

La construction de cette théorie est fondée sur plusieurs observations, largement confirmées expérimentalement et remettant en cause le modèle standard. Une théorie alternative devait alors relever le défi des comportements réellement observés dans un univers risqué. Quelles sont ces observations ?

210

Un effet de cadrage : Les théories classiques du choix rationnel considèrent que des

formulations équivalentes doivent conduire aux mêmes préférences 211. Or, ce n’est pas le cas : le cadrage des options (notamment en termes de pertes ou de gains) a inexorablement une influence sur les préférences 212. Cet élément est très lié à la prise en compte d’un point de

référence à partir duquel l’agent juge les différentes alternatives ; il est primordial dans la

construction de la Prospect Theory 213. On peut penser aujourd’hui, à la lumière de la neurobiologie, que les transmetteurs chimiques pour les sentiments de récompense (la dopamine, vraisemblablement) et de pénalisation (la sérotonine) sont distincts 214. On pourrait d’ailleurs dire plus généralement que le point de référence est indispensable dans tout jugement, même sensitif : la température d’un objet, par exemple, est évalué par nos sens grâce à sa confrontation avec celle du corps humain.

Des préférences non linéaires : Le modèle standard prédit que l’utilité d’un prospect risqué

est une combinaison linéaire des probabilités correspondant aux différentes conséquences possibles. Il est à présent bien documenté que ce n’est pas le cas215.

L’importance de la source d’information : Les agents présentent une aversion à la fois à

l’incertitude et à l’ambiguïté 216. Par ailleurs, certaines sources d’information sont suspectes, notamment si le sujet de risque est mal connu. C’est typiquement le cas en ce qui concerne le nucléaire.

L’existence du goût pour le risque : Le modèle standard prédit une fonction de valorisation

toujours concave correspondant à une aversion pour le risque. Or, le goût pour le risque peut exister pour une faible probabilité de gain (ce qui explique le succès de jeux comme le Loto) ou pour une forte probabilité de perte.

211

Cf. Arrow (1982).

212 Cf. Tversky et Kahneman (1986).

213 Cette distinction entre comportements dans les pertes et dans les gains en univers risqué n’est pas

exclusivement un apport des deux chercheurs. Déjà en 1952, s’interrogeant sur l’utilité de la richesse, Markowitz effectuait cette séparation fondamentale.

214 Cf. Changeux et Schmidt (2007).

215 Mis à part les travaux fondateurs de Allais (1953), voir notamment Camerer et Ho (1991), pour une étude

plus récente.

216

Une aversion aux pertes : Il y a une réelle dissymétrie entre le comportement dans les pertes

et dans les gains que ne permettent pas d’expliquer les effets de revenus ou la décroissance de l’aversion au risque. Cela apparaît cohérent avec l’impact des effets de cadrage et le comportement présumé du cerveau dans ces deux cas. Voyons à présent plus précisément la formalisation de ce nouveau type de théorie du risque.

Nous considérons toujours l’aléa étudié comme une application : θ: S→ζ . L’ensemble des états de la nature est muni d’une loi de probabilité considérée également connue par l’agent dont on cherche à appréhender le comportement par une fonction de valorisation V:Θ →ℝ ,

telle que si θ∈Θ, alors :

θ

≥Θ

θ

'⇔V

( )θ

V

( )θ

' .

En associant le risque considéré à une loi de probabilité, la théorie classique de VNM calcule l'utilité espérée de la situation dans le cas discret de la manière suivante, en appelant xi

chacune des conséquences possibles, de probabilité p : i

( )

( )

1 . n i i i U P p u x =

=

, avec u application de ζ dans ℝ , continue, croissante et définie à une transformation affine près.

Kahneman et Tversky modifient cette approche en substituant à la fonction d'utilité classique une fonction de valorisation des pertes ou des gains notée v, et une fonction de transformation des probabilités aux probabilités objectives notée

π

217. Dans le cadre de cette approche, nous obtenons la représentation suivante :

( )

( ) ( )

1 . n i i i V P π p v x = =

Quelles sont les propriétés des deux fonctions introduites ?

π

(.) n’est pas une mesure de

probabilité, mais une fonction continue, croissante et généralement non linéaire vérifiant :

( )

0 0

π

= et

π( )

1 =1. Expérimentalement, on se rend compte qu’elle est sous additive, soit :

217 L’introduction d’une fonction de transformation des probabilités doit également aux travaux d’Edwards

( ) (

p 1 p

)

1

π

+

π

− < . Enfin, on observe que cette fonction surévalue les petites probabilités. Dans ce cas :

π( )

p > p.

La fonction v correspond à une valorisation des conséquences de la part de l’agent. Elle est concave dans la région des gains et convexe dans la région des pertes 218, ce qui suppose auparavant la définition d’un point de référence à partir duquel on peut quantifier les déviations. Ce point de référence correspond en fait à la situation initiale, avant que l’agent soit soumis au risque et vérifie : v

( )

0 =0. Par ailleurs, la fonction v n'est pas symétrique, avec une pente plus prononcée dans les pertes que dans les gains. Typiquement, les deux fonctions présentées peuvent avoir les allures esquissées ci-dessous.

0 Zo ne d e s p e rte s Zo ne d e s g a ins V a le ur s ub je c ti ve 0 1 1 P o n d é ra ti o n d e l a p ro b a b ili té P ro b a b ili té fo ur nie a u s u je t 0 ,5 0 ,5

Source : Kahneman et Tversky (1979).

Figure 2 : Fonctions de valorisation des conséquences et de transformation des probabilité

La formalisation mise en place par Kahneman et Tversky constitue un cadre de travail permettant d’appréhender les comportements humains face au risque en les considérant non pas comme des biais, ni comme des « curiosités », mais comme des éléments constitutifs du processus d’appréciation de l’aléa. Cette théorie présente d’abord l’avantage de conserver l’esprit du paradigme de l’espérance d’utilité, tout en relâchant une contrainte forte, correspondant à l’idée d’espérance. L’attitude des individus n’est plus capturée par une seule fonction – l’utilité – mais par les deux fonctions v et

π

ce qui autorise une richesse des

218

analyses qui n’était pas possible jusque là. La contrepartie de cette richesse est évidente : plus d’éléments sont à connaître si l’on veut mettre en pratique ce type de théorie. Du point de vue empirique, plusieurs comportements trouvent désormais une explication sans être taxés d’irrationalité : par exemple, nous savons que les agents ont tendance à surestimer les faibles probabilités, ce qui conduit à la fois à une attraction pour l’assurance (le pire n’est jamais impossible) et à un goût pour le jeu (il est possible de gagner) 219. Pour ces petites probabilités l’aversion au risque est alors bien différente selon que l’on est dans l’espace des gains ou dans celui des pertes. Ces travaux bénéficièrent dans les dernières décennies de nouveaux apports importants. D’abord, avec les modèles dits « non additifs », qui mirent en évidence certains problèmes « techniques » de la théorie 220, puis, par la prise en compte de cette nouvelle compréhension par les auteurs de la Prospect Theory eux-mêmes 221. Voyons quelles furent les dernières évolutions avant de construire la seconde fonction de demande de sécurité fondée sur l’évaluation du risque par les agents.