• Aucun résultat trouvé

Les travaux les plus emblématiques (bien que non fondateurs) autour de l’élargissement de la théorie de l’utilité espérée sont sans conteste ceux menés par A. Tversky et D. Kahneman entre 1974 et 1992, au travers de la théorie des perspectives dont l’apport principal est d’avoir posé les bases de l’économie comportementale. En particulier, Maurice Allais (dès [Allais, 1953] par exemple) ou encore Daniel Ellsberg ([Ellsberg, 1961] par exemple), parmi d’autres, avaient déjà montré que la théorie de l’utilité espérée, même élargie aux situations incertaines grâce aux axiomes de [Savage, 1954], n’est pas suffisamment descriptive pour rendre compte du comportement des agents économiques. En effet, l’axiome d’indépendance (ou de la chose sûre) est violé par le paradoxe d’Allais, tandis qu’Ellsberg montre que les croyances sont différentes des probabilités réelles.

La théorie des perspectives a été développée dans le cadre de ces observations, avec pour but affiché de ne plus proposer la recherche d’une décision optimale, mais d’introduire un modèle descriptif, proche des observations de la vie réelle. Le constat initial est que les agents économiques ne raisonnent pas en termes de résultats finals, mais apprécient la plupart du temps les changements apportés à leur situation (eu égard à une perception de celle-ci appuyée sur un « point d’ancrage », comme vu dans la partie I.C.b) et ceci appelle à représenter le cadre du choix - rationnel ou pas - différemment de ce que fait la théorie classique de la décision.

Afin d’illustrer le besoin d’un nouveau modèle, déjà fortement pressenti par de nombreux acteurs, [Tversky & Kahneman, 1974] dressent une liste non exhaustive des biais cognitifs sur les choix dans les univers incertains, dans l’esprit des travaux initiés par [Allais, 1953] et [Ellsberg, 1961]. Ce travail préliminaire est une justification de l’introduction de la théorie des perspectives par [Tversky, Kahneman, 1979]. Cette théorie décrit deux étapes : l’encadrage et l’évaluation. L’encadrage consiste à dresser l’heuristique de l’agent économique étudié et d’en déduire un

ordre des résultats finals (l’agent économique propose alors des résultats qu’il juge équivalents, en déduit un point de référence, puis interprète les autres résultats comme un gain ou une perte compte tenu de ce point de référence). L’évaluation consiste ensuite à juger de l’utilité d’un résultat final en utilisant une formule de type :

� = ∑ �(��)�(��) �

�=1

Où U est l’utilité ; �(�) est une fonction de pondération des probabilités �� réelles qui rend compte de la perception subjective des agents

économiques ; �(�) est une fonction de valeur des gains �� réels qui

rend compte de la perception subjective des agents économiques.

La fonction obtenue est concave pour les gains et convexe pour les pertes, ce qui reflète l’aversion au risque pour les gains et la recherche du risque pour les pertes. La pente est plus importante pour les pertes, ce qui reflète le principe qu’une perte est vue de façon plus négative qu’un gain de même valeur n’est vu de façon positive. De plus, la fonction est non linéaire, ce qui permet de tenir compte de l’effet d’échelle.

Ces travaux font l’objet de nombreuses critiques. D’une part, la théorie des perspectives viole le principe de dominance stochastique au premier degré, ce qui constitue la critique la plus handicapante. D’autre part, les méthodes d’obtention des fonctions dites « subjectives » � et � sont sujettes à caution. Certains psychologues, comme [Gigerenzer, 1996] réfutent la vision des heuristiques proposée par Tversky et Kahneman, en ce que ces derniers partent du postulat que les biais cognitifs induisent nécessairement un impact négatif dans l’appréciation, par un agent économique, des changements liés à sa situation. Or, cette vision est sujette à débat (voir notamment [Todd & Gigerenzer, 2000]), ainsi que l’association qui est faite entre les biais cognitifs et une démarche illogique (voir notamment [Hoffrage & Reimer, 2004]).

Afin de formaliser les méthodes déjà utilisées par de nombreux psychologues pour répondre à ces limites, [Tversky & Kahneman, 1992] proposèrent un développement de leur théorie, appelée « théorie des perspectives cumulatives », qui résout le problème de la violation de la dominance stochastique au premier ordre, au prix d’une condition supplémentaire d’intransitivité sur les préférences du sujet étudié. Cette amélioration se rapproche des travaux de la science de la décision sur les intégrales de Choquet. Il s’agit d’ailleurs pour l’essentiel d’une autre formalisation des méthodes à dépendance de rang déjà connues et pensées, notamment par Allais ou [Quiggin, 1981].

D’autres critiques récurrentes de ces travaux concernent les fonctions dites « subjectives ». En effet, leur appréciation est délicate et nécessite de faire appel à des outils complexes et qui ne prennent pas toujours en compte tous les aspects de l’heuristique des acteurs sociaux (l’aversion au risque et l’optimisme étant souvent seuls considérés). Dans cet état d’esprit, de nombreuses améliorations ont par la suite été proposées. On peut citer notamment [Diecidue et al., 2007] qui proposent une méthode d’élicitation de ces fonctions à l’aide des travaux de [de Finetti, 1931] ; ou encore [Kammoun, 2007] poursuivant les travaux d’[Abdellaoui et al., 2006] sur l’estimation non paramétrique de la fonction d’aversion au risque.

Suivant les travaux notamment de [Schmeidler, 1989], [Gilboa & Schmeidler, 1989], [Winkler, 1991] ou encore [Tversky & Wakker, 1995], [Abdellaoui et al., 2010] propose un enrichissement des méthodes de calcul des fonctions de poids, appelée « méthode source », introduisant une fonction appelée « source » en plus des fonctions habituelles. Prévue pour une source d’incertitude uniforme (où le système de préférence des perspectives ne dépend que de la source et de la distribution de probabilités), cette fonction est une représentation de la sensibilité à l’incertitude et du pessimisme d’un acteur social donné.

Les travaux issus de l’école américaine de la décision sont en général caractérisés par une axiomatique forte, mais une application délicate. Notamment, ces difficultés autour de l’obtention des fonctions

« subjectives » et de la prise en compte des heuristiques, à plus forte raison si on prend en compte les objections de [Gigerenzer, 1996], nécessitent le recours à des méthodes trop complexes pour une application en milieu industriel. Nous verrons néanmoins que certaines tentatives dans ce sens ont été faites, bien qu’elles aient échoué (voir II.C.c).

Parmi les méthodes probabilistes, il faut également citer les statistiques bayésiennes. Le principe de ces méthodes est de proposer une hypothèse sur la loi que suivrait une probabilité de défaillance et de demander à l’expert d’en donner les paramètres a priori, de façon subjective. Puis, l’utilisateur, en fonction des données issues du retour d’expérience, affine ces paramètres, et infère ce travail pour chaque nouveau jeu de données, ce qui permet de converger vers les valeurs « objectives » des paramètres et d’obtenir la loi cherchée. Ces méthodes sont beaucoup plus fines et rigoureuses que les statistiques classiques lorsque l’incertitude d’un système commence à avoir un impact non négligeable. Cependant, elles sont tributaires de la qualité et de la quantité du retour d’expérience, d’une part, et l’élicitation des données

a priori (appelée « prior ») est trop peu rigoureuse malgré les recherches

sur le sujet (voir par exemple [Bernier et al., 2000]) pour être utilisée sans retour d’expérience. Or, le travail de thèse se situe dans des cas où le retour d’expérience ne propose que peu de données, où l’incertitude est trop forte pour se fier uniquement à des méthodes non rigoureuses d’élicitation d’information d’expertise subjective. Il ne nous est donc pas possible d’appliquer ce genre de méthodes dans le cadre de la présente étude.

De façon générale, l’approche de cette école qui propose d’étudier les heuristiques « à part » et de les intégrer à l’aide de fonctions difficiles à éliciter ne semble pas réaliste d’un point de vue opérationnel dans le cadre précis de la présente étude, qui appelle à une méthode plus légère et rapide à appliquer (les experts devant produire en moyenne près de 40 études de danger par an sur des ouvrages aussi complexes que les barrages).