Ce que l’on appelle Prospect Theory, concept initié par Kahneman et Tversky, constitue un pas important dans les tentatives de compréhension du comportement des agents face au risque210. Par son apport théorique, d’abord, comme nous le verrons. Aussi, parce qu’elle résulte d’un changement de paradigme déterminant dans l’approche du risque. Au lieu de partir d’une logique axiomatique fondant des théorèmes qu’il s’agirait de vérifier empiriquement par la suite, le cheminement se fait de l’observation vers les lois de comportements. Elle consiste en une double transformation : des probabilités d’occurrence des différents événements, d’abord ; des conséquences vécues, qu’il s’agisse des pertes ou des gains, d’autre part. Ces conséquences sont déterminées à partir d’un point de référence correspondant à la situation initiale. Les trois éléments clés sont les suivants :
- Des conséquences définies par déviation par rapport à la situation initiale
- Une fonction de valeur concave pour les gains et convexe pour les pertes, dont la pente est plus grande pour les pertes que pour les gains
- Une transformation non linéaire de l’échelle de probabilité, qui surévalue les événements faiblement probables et sous évalue les événements plus probables
La construction de cette théorie est fondée sur plusieurs observations, largement confirmées expérimentalement et remettant en cause le modèle standard. Une théorie alternative devait alors relever le défi des comportements réellement observés dans un univers risqué. Quelles sont ces observations ?
210
Un effet de cadrage : Les théories classiques du choix rationnel considèrent que des
formulations équivalentes doivent conduire aux mêmes préférences 211. Or, ce n’est pas le cas : le cadrage des options (notamment en termes de pertes ou de gains) a inexorablement une influence sur les préférences 212. Cet élément est très lié à la prise en compte d’un point de
référence à partir duquel l’agent juge les différentes alternatives ; il est primordial dans la
construction de la Prospect Theory 213. On peut penser aujourd’hui, à la lumière de la neurobiologie, que les transmetteurs chimiques pour les sentiments de récompense (la dopamine, vraisemblablement) et de pénalisation (la sérotonine) sont distincts 214. On pourrait d’ailleurs dire plus généralement que le point de référence est indispensable dans tout jugement, même sensitif : la température d’un objet, par exemple, est évalué par nos sens grâce à sa confrontation avec celle du corps humain.
Des préférences non linéaires : Le modèle standard prédit que l’utilité d’un prospect risqué
est une combinaison linéaire des probabilités correspondant aux différentes conséquences possibles. Il est à présent bien documenté que ce n’est pas le cas215.
L’importance de la source d’information : Les agents présentent une aversion à la fois à
l’incertitude et à l’ambiguïté 216. Par ailleurs, certaines sources d’information sont suspectes, notamment si le sujet de risque est mal connu. C’est typiquement le cas en ce qui concerne le nucléaire.
L’existence du goût pour le risque : Le modèle standard prédit une fonction de valorisation
toujours concave correspondant à une aversion pour le risque. Or, le goût pour le risque peut exister pour une faible probabilité de gain (ce qui explique le succès de jeux comme le Loto) ou pour une forte probabilité de perte.
211
Cf. Arrow (1982).
212 Cf. Tversky et Kahneman (1986).
213 Cette distinction entre comportements dans les pertes et dans les gains en univers risqué n’est pas
exclusivement un apport des deux chercheurs. Déjà en 1952, s’interrogeant sur l’utilité de la richesse, Markowitz effectuait cette séparation fondamentale.
214 Cf. Changeux et Schmidt (2007).
215 Mis à part les travaux fondateurs de Allais (1953), voir notamment Camerer et Ho (1991), pour une étude
plus récente.
216
Une aversion aux pertes : Il y a une réelle dissymétrie entre le comportement dans les pertes
et dans les gains que ne permettent pas d’expliquer les effets de revenus ou la décroissance de l’aversion au risque. Cela apparaît cohérent avec l’impact des effets de cadrage et le comportement présumé du cerveau dans ces deux cas. Voyons à présent plus précisément la formalisation de ce nouveau type de théorie du risque.
Nous considérons toujours l’aléa étudié comme une application : θ: S→ζ . L’ensemble des états de la nature est muni d’une loi de probabilité considérée également connue par l’agent dont on cherche à appréhender le comportement par une fonction de valorisation V:Θ →ℝ ,
telle que si θ∈Θ, alors :
θ
≥Θθ
'⇔V( )θ
≥V( )θ
' .En associant le risque considéré à une loi de probabilité, la théorie classique de VNM calcule l'utilité espérée de la situation dans le cas discret de la manière suivante, en appelant xi
chacune des conséquences possibles, de probabilité p : i
( )
( )
1 . n i i i U P p u x ==
∑
, avec u application de ζ dans ℝ , continue, croissante et définie à une transformation affine près.Kahneman et Tversky modifient cette approche en substituant à la fonction d'utilité classique une fonction de valorisation des pertes ou des gains notée v, et une fonction de transformation des probabilités aux probabilités objectives notée
π
217. Dans le cadre de cette approche, nous obtenons la représentation suivante :( )
( ) ( )
1 . n i i i V P π p v x = =∑
Quelles sont les propriétés des deux fonctions introduites ?
π
(.) n’est pas une mesure deprobabilité, mais une fonction continue, croissante et généralement non linéaire vérifiant :
( )
0 0π
= etπ( )
1 =1. Expérimentalement, on se rend compte qu’elle est sous additive, soit :217 L’introduction d’une fonction de transformation des probabilités doit également aux travaux d’Edwards
( ) (
p 1 p)
1π
+π
− < . Enfin, on observe que cette fonction surévalue les petites probabilités. Dans ce cas :π( )
p > p.
La fonction v correspond à une valorisation des conséquences de la part de l’agent. Elle est concave dans la région des gains et convexe dans la région des pertes 218, ce qui suppose auparavant la définition d’un point de référence à partir duquel on peut quantifier les déviations. Ce point de référence correspond en fait à la situation initiale, avant que l’agent soit soumis au risque et vérifie : v
( )
0 =0. Par ailleurs, la fonction v n'est pas symétrique, avec une pente plus prononcée dans les pertes que dans les gains. Typiquement, les deux fonctions présentées peuvent avoir les allures esquissées ci-dessous.0 Zo ne d e s p e rte s Zo ne d e s g a ins V a le ur s ub je c ti ve 0 1 1 P o n d é ra ti o n d e l a p ro b a b ili té P ro b a b ili té fo ur nie a u s u je t 0 ,5 0 ,5
Source : Kahneman et Tversky (1979).
Figure 2 : Fonctions de valorisation des conséquences et de transformation des probabilité
La formalisation mise en place par Kahneman et Tversky constitue un cadre de travail permettant d’appréhender les comportements humains face au risque en les considérant non pas comme des biais, ni comme des « curiosités », mais comme des éléments constitutifs du processus d’appréciation de l’aléa. Cette théorie présente d’abord l’avantage de conserver l’esprit du paradigme de l’espérance d’utilité, tout en relâchant une contrainte forte, correspondant à l’idée d’espérance. L’attitude des individus n’est plus capturée par une seule fonction – l’utilité – mais par les deux fonctions v et
π
ce qui autorise une richesse des218
analyses qui n’était pas possible jusque là. La contrepartie de cette richesse est évidente : plus d’éléments sont à connaître si l’on veut mettre en pratique ce type de théorie. Du point de vue empirique, plusieurs comportements trouvent désormais une explication sans être taxés d’irrationalité : par exemple, nous savons que les agents ont tendance à surestimer les faibles probabilités, ce qui conduit à la fois à une attraction pour l’assurance (le pire n’est jamais impossible) et à un goût pour le jeu (il est possible de gagner) 219. Pour ces petites probabilités l’aversion au risque est alors bien différente selon que l’on est dans l’espace des gains ou dans celui des pertes. Ces travaux bénéficièrent dans les dernières décennies de nouveaux apports importants. D’abord, avec les modèles dits « non additifs », qui mirent en évidence certains problèmes « techniques » de la théorie 220, puis, par la prise en compte de cette nouvelle compréhension par les auteurs de la Prospect Theory eux-mêmes 221. Voyons quelles furent les dernières évolutions avant de construire la seconde fonction de demande de sécurité fondée sur l’évaluation du risque par les agents.