• Aucun résultat trouvé

Retour sur nos hypothèses

Dans le document Être ensemble et temporalités politiques (Page 161-165)

L’accès au réel configuré

L’hypothèse ontologique elle-même n’est pas décidable. Nous n’y avons pas accès directement. Actions, événements et faits ne sont jamais des entités primitives isolables, pas plus ni moins que les substances. Notre accès au réel est d’emblée configuré, sous forme de cours d’événements intelligibles, d’histoires, où causalité événementielle et causalité par les raisons sont mobilisées1.

Toutefois, il est cohérent de poser l’hypothèse d’une ontologie événementielle (comme celle de Whitehead, par exemple).

Le concept d’histoire est particulièrement riche. Une théorie de l’action ouvre implicitement le monde à un acteur ; le lien causal entre les actions, mais plus radicalement, le fait que soit interprété causalement ce cours d’actions, ouvre implicitement le monde à un observateur doué de cette capacité d’interprétation ; l’histoire, enfin, en tant que totalité perçue comme telle, requiert une capacité de compréhension / synthèse de l’hétérogène, qui donne sens et place à chaque composante, en particulier : faits, actions, acteurs, causalité, finalité, observateur.

Dans cette approche, il est impossible de percevoir/concevoir un fait, une action, ou un événement sans chercher à lui donner un sens, sans le lier causalement, téléologiquement ou par une autre forme de lien à d’autres faits, actions, événements… La prise en compte de ces relations ne peut être séparée du divers qu’elles relient, ni du temps qu’elles structurent ainsi, dans leur vécu. En revanche, nous ne cessons, par l’échange avec les autres et par un processus d’abstraction, d’isoler des composants de ces histoires et de tenter d’identifier des régularités dans ces vécus. De même, nous ne cessons de réécrire les histoires passées à la lumière des histoires nouvelles que nous vivons. Il y a ontogénèse d’un réel dont nous ne pourrons jamais vérifier la coïncidence avec un réel qui existerait de façon exogène.

Les moteurs - Congruence et discordance

Certaines histoires ne sont pas d’emblée interprétables, et nous cherchons à absorber cette discordance en trouvant les raisons où les causes qui donneraient du sens, à partir de nos vécus passés où de nos vécus futurs imaginables, plausibles. Cette perception qui s’appuie sur l’élaboration d’histoires et qui digère par congruence les discordances est un principe moteur. Les discordances ne peuvent prendre place dans nos perceptions sans être absorbées, ou être en devenir d’être absorbées.

Une part essentielle de notre activité consisterait donc à assimiler l’ensemble d’informations qui nous submerge en le rendant intelligible, c’est-à-dire en l’intégrant au sein d’histoires déjà connues ou en initiant de nouvelles histoires à partir de lui. Chaque nouvelle histoire prend place dans une histoire plus globale ou, à l’inverse, réécrit des histoires déjà assimilées en permettant d’en affiner le grain, apportant un motif, une cause, ou un quelconque élément narratif. Se réorganise alors, sans cesse, l’ensemble d’informations déjà disponible. Au sein de cet ensemble émerge des

1 Nous avons recours au terme d’histoire parce qu’une histoire offre des liens de multiples natures entre ses

159 régularités, que nous constituons comme lois : des présents continus associés à la perception de chaque histoire, nous inférons inductivement des lois dans un présent d’universalisation, un présent de vérité générale, qui configurent notre monde et en favorisent la prévisibilité. Le besoin de concordance et de prévisibilité seraient des moteurs importants de cette activité cognitive.

Ces hypothèses sont-elles celles d’un apprentissage statistique ?

Nos hypothèses ont de nombreux points communs avec les modèles d’apprentissage statistiques. En particulier, on y trouve l’idée d’endogénéité des lois qui gouvernent cet apprentissage. Elles ne sont toutefois pas modélisables. Plus précisément, il semble possible de définir une mesure de plausibilité et une distance entre histoires lorsqu’elles sont suffisamment simples et stéréotypées ; mais cette modélisation serait source d’une complexité supplémentaire tout en renonçant à la richesse des intrigues qui fait l’intérêt de l’hypothèse... La métaphore statistique mérite en revanche d’être explorée plus avant, de façon à ouvrir sur d’éventuelles innovations conceptuelles ou, à l’inverse, des limitations fondamentales.

La métaphore statistique

L’apprentissage

Dans un process d’apprentissage statistique, il existe plusieurs temps (qui s’enchaînent en boucle) : celui de la formulation d’une hypothèse à tester, celui du test empirique, où la rencontre avec le réel a lieu, enfin, celui de la conclusion provisoire avec éventuellement modification de la formulation de l’hypothèse, ou du modèle au sein duquel l’hypothèse est formulée. Comme nous l’avons vu plus haut, dans un tel cadre, on ne conclut jamais vrai ou faux ; on est amené à accepter ou rejeter l’hypothèse en fonction d’un seuil de tolérance d’erreur, et donc d’un critère de décision. Ce qui nous importe ici est triple : 1/ il y a dans l’apprentissage un va-et-vient entre une posture de conceptualisation et une posture d’expérimentation ; 2/ il existe un critère pour définir une tolérance au risque de se tromper (on peut par exemple être plus exigeant si l’action qui va suivre le test engage la survie) ; 3/ l’inférence teste une hypothèse préalable au sein d’un ensemble de lois ou de croyances, conditionnellement donc à cet ensemble, ce qui a pour effet de modifier éventuellement en retour le corpus initial – la base de connaissance elle-même.

Ainsi définie, l’inférence est une forme de projection d’un nouveau phénomène sur l’ensemble de la base de connaissance. La question du nouveau (géométriquement, la partie orthogonale à la projection, l’innovation dans le vocabulaire statistique) est importante et peu traitée ontologiquement dans la littérature dont nous avons fait un rapide survol. Nous y reviendrons, car se pose préalablement la question du critère : il s’agit de projeter, c’est-à-dire minimiser une distance. Bref, il s’agit d’abord d’optimiser quelque chose.

L’inséparabilité des critères de décision et de perception

L’inférence statistique est souvent associée à la minimisation des moindres carrés des erreurs ou à la maximisation de la vraisemblance1, tout comme l’individualisme méthodologique l’est à la

maximisation de l’utilité. Il n’est pas besoin toutefois de faire de telles hypothèses pour que la

1 Lorsque la loi de probabilité inconnue supposée la vraie loi est paramétrique de paramètre θ, on définit la

fonction de vraisemblance pour un échantillon de n observations supposées suivre cette loi comme le produit des densités en ces n valeurs (toutes fonction de θ par construction). La maximisation de cette fonction de vraisemblance en fonction de θ est atteinte sous certaines hypothèses en la valeur θ* dit alors estimateur du maximum de vraisemblance de θ.

160 logique de l’inférence statistique et plus loin celle de l’agir soient pertinentes pour illustrer notre propos.

Depuis Savage et Ramsey1, la philosophie bayésienne subsume l’inférence dans la théorie de la

décision et traite toutes les probabilités comme subjectives. Pour cette forme de pensée, le raisonnement inductif relève d’une raison pratique, i.e. qui vise une action. Les agents agissent d’une façon qui, selon leurs croyances, satisfera au mieux leurs désirs. L’induction est alors ramenée à un problème de décision. Mais ces auteurs et la plupart de ceux qui les ont suivis2 postulent une

séparabilité entre l’optimisation en laquelle consiste l’inférence statistique et l’optimisation qui conduit ensuite à modéliser la décision dans l’incertain. Or cette séparabilité supposée échoue d’emblée à comprendre la forme d’apprentissage qui relie l’action et la connaissance (ou les croyances).

Celle-ci, dans sa version basique, se comprend dans un argument de learning by doing : je regarde en traversant la rue si une voiture s’approche ; je ne choisis pas l’endroit de la rue où la visibilité est la plus grande, ni l’endroit minimisant (par exemple) mon temps de trajet, mais j’arbitre entre ces deux « optimisations ». Plus profondément, nous ne cessons de raisonner rétrospectivement de l’avenir vers le présent. Cette projection ne peut être indépendante de qui nous sommes et nos désirs ne peuvent être indépendants de nos croyances. Nous les découvrons chaque fois renouvelés par ce que nous en apprenons, dans un mouvement conjoint.

La question du nouveau

En filant la métaphore statistique, nous sommes arrivés au concept d’innovation. La dynamique d’un processus temporel peut être modélisée de la façon suivante (sous certaines hypothèses de régularité) : la variable du processus à la date t, éventuellement vectorielle, est décomposée entre sa projection sur les variables du processus des dates précédentes et un terme (orthogonal au passé) que l’on appelle l’innovation de la date t. Dans les cas simples, la projection de la date t est une combinaison linéaire des variables passées, avec des coefficients de pondération fixes. La fixité des coefficients traduit le fait qu’on absorbe toujours à la même vitesse les innovations. Ces coefficients sont supposés fixes mais inconnus : ils sont estimés au fur et à mesure que le temps passe.

L’orthogonalité entre variables statistiques peut être comprise comme une forme d’indépendance, autrement dit, par construction, l’innovation ne partage pas d’information avec les variables passées ; elle est l’information nouvelle de la date t.3

1 Leonard J. SAVAGE (1954): The Foundations of Statistics, Wiley, dorénavant [TFOS]. Frank P. RAMSEY (1926):

“Truth and Probability”, in R.B. BRAITHWAITE (Ed.), The Foundations of Mathematics and other Logical Essays, Brace and Company, 1999 electronic edition, dorénavant [T&P].

2 De nombreux travaux ont cherché à enrichir ou à rendre plus vraisemblables ces hypothèses. On peut

notamment citer Tversky et Kahneman (en 1979: Amos TVERSKY and Daniel KAHNEMAN (1979): “Prospect theory: An analysis of decision under risk, Econometrica, dorénavant [PTUR], comme en 1992: “Advances in prospect theory: Cumulative representation of uncertainty”, Journal of Risk and uncertainty, dorénavant [AIPT]). Bien d’autres auteurs mériteraient d’être cités sur ce thème.

3 Il est important de noter que les notions de distance, de mesure, d’orthogonalité peuvent être définies dans

des contextes plus exotiques que notre espace tridimensionnel quotidien. L’ensemble d’informations est ici constitué par les instanciations des variables aux dates passées. La base de connaissance sur laquelle est projetée la variable courante ne se limite pas à ces données, mais aussi à des relations entre les variables. On imagine aisément la complexité d’un tel ensemble. Dans le cas des modèles à anticipations rationnelles, par exemple, l’ensemble de la modélisation du système est supposé connaissance commune par les agents dont

161 Cet inédit de l’innovation ouvre donc une nouvelle dimension dans notre base de connaissance, métaphoriquement orthogonale à celles déjà connues. Cette dimension est-elle visible, audible, intelligible ? Et surtout, est-elle prédéfinie ? L’ouverture au monde serait cette capacité à accepter, à accueillir, cette nouvelle dimension. Mais qu’est-ce qui est ouvert ? Le Dasein dans un monde toujours à découvrir ? Le monde qui s’ouvre à celui qui l’accepte ?

La croyance en un monde in fine explicable ne relève pas de la même ouverture que celle d’un monde jamais totalement saisissable. Dans le premier cas, l’on accepte l’idée d’un ensemble déterminé de dimensions qui nous préexiste. Notre ouverture est un acquiescement à l’idée que la science, ou la religion, ou les bases de connaissance des autres, nous dépassent, mais permettent de penser une totalité du monde. Dans le second cas, l’ouverture de soi est un acquiescement à l’ouverture du monde lui-même, qui ne sera jamais totalisé. Alors, lorsque surgit le neuf, l’inférence projective agrandit notre monde et nous-mêmes, redessinant aussi les axes de notre base de connaissance, et la restructurant ainsi pour nous offrir une lecture optimisée de ce monde, chaque fois neuf1. Cette optimalité, issue du processus d’inférence, est relative à un critère, comme nous

l’avons déjà souligné2. Ce que l’on doit comprendre ici est que le critère lui-même se façonne au

fur et à mesure de cette découverte du monde. Accepter le neuf semble relever d’une capacité, sans doute elle-même dépendante de notre histoire.

Les statisticiens pour leur part postulent une loi sur la dynamique des variables, contraignant le nouveau à instancier un modèle préétabli, éventuellement à en découvrir l’effectivité : les paramètres de la loi sont estimés au fur et à mesure que du nouveau vient confirmer le modèle. Si ce n’est pas le cas, ils changent de modèle. Quels sont les modèles accessibles ? Une telle démarche ne revient-elle pas à séparer au sein de la base de connaissance ce qui relève des lois et ce qui relève de leur instanciation ? L’esprit humain peut-il raisonner ainsi alors que les données façonnent les lois elles-mêmes ?

L’acceptation du neuf peut être une stratégie transitoire de quelqu’un croyant en un possible recouvrement du réel par la science, la religion, ou par un monde un jour partagé (c’est le point de vue de Peirce et de la convergence des recherches vers un réel exogène). Rien n’autorise ou n’impose logiquement une telle croyance. Elle est une façon de fermer l’ouvert qui est source de vertige et d’inquiétude. Certes, nous pouvons toujours postuler cette hypothèse et tester sa cohérence. C’est la stratégie réaliste. Rien toutefois, ne nous certifiera jamais que c’est bien le réel qui est ainsi saisi. En ce sens, nous sommes profondément humien : il y aura un demain, mais rien pourtant ne me l’assurera jamais. Nous sommes également profondément ricœurien : demain sera un autre jour, un autre comme les autres, et pourtant différent, à jamais source de nouveau. Les variations imaginatives ricœuriennes se placent dans ce cadre où l’on accède à l’inédit à partir de schémas narratifs préexistants ou construits à partir d’autres schémas existants. En ce sens elles relèvent de la démarche du statisticien. La découverte du nouveau en revanche est chez Ricœur un monde qui s’ouvre. Enfin, la métaphore vive et plus généralement la poésie ouvrent sur de l’inouï. Il peut certes s’agir plus d’un réagencement du connu que de nouveau véritable. L’ouverture proposée par Ricœur est celle qui accepte l’autre comme base de connaissance certes toujours

on modélise les décisions dans le système, et qui font donc des prévisions conditionnellement à leur ensemble d’informations, i.e. des projections sur cet ensemble.

1 Comme Romano l’a décrit, ce réagencement de soi réclame parfois du temps. Ce qui est ici souligné est qu’il

y a réagencement des axes existants mais aussi apparition d’un nouvel axe.

2 Sans doute difficile à simplifier en un critère unique d’une théorie utilitariste et lui-même émergeant et

162 différente de la sienne, mais toujours proche également, comme une hésitation face à la rupture qu’introduit un nouveau qui ne serait pas quasi-statique1.

L’ontologie sous-jacente à l’inférence statistique est que le réel peut exister mais qu’il n’est pensable que sous la forme d’une modélisation. C’est le modèle qui va accroître sa plausibilité ou non en fonction de la confrontation à quelque chose que nous nommons empirique sans aucune certitude qu’il s’agit du réel. Le pré-langagier qui correspond à la phase de rencontre avec le monde s’accorde mal avec une telle théorisation du monde et moins encore avec une formalisation, sauf sous notre hypothèse que le seul accès que nous avons du réel est sous forme déjà configurée. Cette hypothèse est très voisine de celle de la Tercéité de Peirce, pour qui toute perception est déjà une inférence2.

Dans le document Être ensemble et temporalités politiques (Page 161-165)