• Aucun résultat trouvé

2.1. Optimisation au bloc opératoire : Proposition d’une classification des démarches

2.1.4. Les approches externes ou « black box »

i. Approche objectif et benchmarking

Deuxième façon d’aborder le bloc opératoire, avec toujours en tête l’image de la boîte noire : une approche externe où l’intérêt ne porte que sur les indicateurs d’entrée ou de sortie ; peu importe le fonctionnement interne de la boite noire.

C’est le principe de l’approche "benchmarking" (ETTORCHI-TARDY, LEVIF, & MICHEL, 2011). Il s’agit de réaliser des comparaisons avec une référence ou avec des entités comparables : à conditions de disposer d’organisations proches ou similaires, la comparaison d’indicateurs dits macroscopiques prend un sens : toute chose étant égale par ailleurs, pourquoi, par exemple, un bloc opératoire réalise-t-il une activité globale supérieure à un autre ? Cette approche nécessite d’avoir déterminée un ou plusieurs indicateurs de performance. Il s’agit souvent d’indicateurs économiques le plus souvent exprimés sous forme d’unités monétaires. Mais selon la complexité des systèmes comparés et parce que la démarche possède une volonté simplificatrice inhérente, certaines unités composites sont créées. C’est le cas de l’Indice de Coût Relatif (ICR) des actes de la classification commune des actes médicaux (CCAM) pour le bloc opératoire dont la compréhension et la manipulation nécessitent une certaine expertise (QUISSAC et GROSEIL 2008). Dans le même ordre, les initiatives lancées à travers la Base d’Angers (DGOS 2011) et l’étude nationale des coûts (LE MENN et MILON 2012) participent de cette démarche benchmarking.

Les démarches d’amélioration issues de l’ANAP intègrent également un volet benchmarking engagé dès 2007 (MEAH 2007) à l’issue de développement d’autres approches, déjà évoquées, et ayant permis d’identifier un certain nombre d’indicateurs dits de performance. Le terme benchmarking se trouve d’ailleurs souvent utilisé comme marqueur d’un projet d’amélioration des performances (CHANSON 2011). On note que la démarche de benchmarking ANAP a d’ailleurs été poursuivie par certaines régions jusque récemment (Agence Régionale de Santé Bretagne 2011).

Cette approche benchmarking convient parfaitement aux décideurs de haut niveau, de type stratégique. Elle préfigure des décisions exécutives où des demandes d’optimisation sont émises sans entrer dans les détails. Le bilan est rapide, souvent incontestable. Un ou plusieurs indicateurs doivent être améliorés, au plus tard pour la prochaine édition du benchmarking. Toute liberté d’action est alors laissée aux acteurs opérationnels, l’impact décisionnel étant d’autant plus fort. L’écueil souvent observé sur cette approche concerne la disponibilité des données de benchmarking. Elle réclame en effet des campagnes de recueil à large échelle puis un retraitement. Du coup, les indicateurs de benchmarking peuvent parfois datés et deviennent, à ce titre, contestables. L’aspect déclaratif ou l’interprétation des demandes de données lors des campagnes de recueil peut aussi se faire de façon plus ou moins fiable. Enfin,

l’amélioration d’un indicateur synthétique peut tout simplement relever, pour une équipe opérationnelle, de la mission impossible car elle nécessiterait justement une série de décisions tactiques ou stratégiques majeures.

En variante proche de celle précédemment décrite, nous proposons enfin l’approche "objectif". Il s’agit de s’intéresser aux indicateurs de sortie du système après en avoir fixé les entrées ou cible. Un certain nombre d’objectifs principaux sont choisis comme cible à atteindre. Un tableau de bord local surveille les résultats enregistrés en sortie. Cette approche est rapide à mettre en œuvre et peut être pertinente localement. Il s’agit surtout, au départ, de déterminer des objectifs pertinents c'est-à-dire qui apportent une information utile aux décideurs ou aux acteurs dans le processus d’optimisation. Egalement, les objectifs fixés doivent permettre la mesure de résultats cohérents et concentrés pour être exploitables. Autre risque : Le choix d’objectifs dont l’optimisation déstabilise ou éloigne le système des attentes communément attendues : un bloc opératoire multidisciplinaire qui s’hyperspécialise à coup d’objectifs au détriment, par exemple, des missions de service public qui lui auraient été confiées.

Il faut retenir, sur de ces approches benchmarking et objectif, qu’elles ne s’attaquent pas, normalement, à la performance globale du système. Elles recherchent plutôt à mesurer puis optimiser certaines facettes de l’activité de façon comparative (DUPRAT 2000) ; en espérant avoir un impact indirect global. On retiendra également que l’aspect comparatif permet de décliner tout un champ de comparaisons internes ou externes au système – c’est-à-dire compétitif dans ce dernier cas ; et même d’envisager des comparaisons en dehors du champ immédiatement semblable : en opposant un système de soins à celui d’un système industriel par exemple. Enfin, le caractère cyclique de la démarche, c’est-à-dire son inscription dans le temps, est une composante primordiale. Il ne s’agit pas seulement d’engager un processus comparatif initial et un plan d’action éventuel immédiat, mais bien d’inscrire le processus dans un cycle continu de mesure-action.

ii. Approche BIGDATA

L’avènement des données massives liées aux nouvelles technologies et aux nouveaux usages a vu se développer une nouvelle forme d’intelligence des algorithmes avec une sorte de capacités de prévision. On parle de Data Driven society38; avec l’idée également que l’intelligence se situe moins dans les algorithmes que dans les données elles-mêmes. Les quantités massives de données portent en elle une nouvelle forme d’intelligence. Il s’agit néanmoins de données peu structurées, nombreuses, complexes, divers qu’un être humain ne peut analyser sans outils et interfaces adaptées. Ce sont également des données très plastiques ; elles augmentent et s’enrichissent en temps réel.

38 Société sous contrôle des données

Comme tout système aujourd’hui, le système de santé génère de façon systématique des masses considérables de données numériques, les fameuses bigdatas. Ces bigdatas sont les données immédiatement signifiantes nées des flux matériels, décisionnels et informationnels du système ; par exemple le relevé d’activité complet d’un hôpital identifiant les actes, les patients, les opérateurs, les ressources associées.

Les bigdatas englobent également les données a priori non signifiantes générées par l’activité du système. Ces données, appelées métadonnées ou traces d’usage, sont des sortes de miroitement de l’activité du système : l’horodatage des portes, les variations de pression du traitement d’air, le trafic téléphonique ou informatique, le poids des déchets, les variations de consommation d’énergie du bloc opératoire, portent de l’information sur l’activité du système. La disponibilité numérique de ces données, leur abondance, leur persistance dans les mémoires numériques (FARISON, 2001) et les capacités des calculateurs actuels permettent de tester leur potentiel sémiotique.

L’intérêt des bigdatas n’est plus à démontrer et justifie, de notre point de vue, que

l’approche bigdata prenne sa place en tant que nouvelle démarche d’optimisation. Cette approche nécessite de disposer de volumes de données considérables le plus souvent hétérogènes. La présentation de ces masses de données in extenso sous forme de tableaux n’apporte pas plus de solution pertinente immédiate. Néanmoins, les outils classiques de l’algèbre linéaire permettent de coder des graphes sous forme matricielle (MAQUIN, 2003). Et réciproquement, selon quelques conditions, des matrices de données peuvent être transformées en graphe.

Ce processus de transformation des données en graphe offre alors de nombreuses perspectives. La représentation d’un problème par un dessin, un plan, une esquisse contribue à sa compréhension. Les cartes géographiques sont des illustrations concrètes de graphes porteurs d’informations parfois denses et complexes. Certaines applications géographiques nécessitent des connaissances supérieures ; lorsqu’il s’agit par exemple de distinguer les systèmes de projections (Lambert, Mercator, Bonne, etc.). Mais dans l’ensemble, l’utilisation des cartes géographiques reste particulièrement intuitive. L’utilisation des graphes dépasse largement le domaine de la géographie. On constate son utilisation ancienne en généalogie par exemple. L’univers des graphes va, de la même manière, s’avérer être une technique privilégiée dans l’exploitation et la compréhension des messages portés par les bigdatas.

La mise en graphe requiert, en première instance, de disposer d’un set de données suffisamment classé avant de pouvoir les spatialiser sous forme de nœuds et de liens. S’agissant de bigdatas, c’est-à-dire de données nombreuses et éventuellement hétérogènes, l’obtention d’une spatialisation harmonieuse et esthétique introduit divers problématiques. Le respect d’un cadre raisonnablement étendu, la gestion des recouvrements de nœuds et des croisements entres liens sont ainsi attendus ; tout comme le maintien de certaines propriétés

dont celle de symétrie. L’enjeu reste également la rapidité d’exécution qui doit se faire dans un temps adapté.

La spatialisation de données s’appuie sur des capacités de calcul et a progressé avec l’informatique dès les années 90. En 1991, FRUCHTERMAN et REINGOLD propose un algorithme fondateur de positionnement des nœuds et liens selon un principe d’attraction/répulsion entre les objets et inspiré de la physique newtonienne et particulaire (FRUCHTERMAN & REINGOLD, 1991). Le principe de cet algorithme, dont on trouve les prémisses dans les techniques de positionnement des composants sur les cartes électroniques, dépend en partie d’observations expérimentales et de choix pragmatiques. Il a ensuite été progressivement amélioré (HU, 2006) (JACOMY, VENTURINI, HEYMANN, & BASTIAN, 2014).

Le graphe obtenu, après première spatialisation, mérite souvent des transformations complémentaires. Cette étape de codage devient largement accessible à travers l’univers informatique actuel. Il s’agira principalement de renforcer, sur le plan graphique, les corrélations et les indépendances entre les données. Ces propriétés seront mises en évidence soit par densification locale de la spatialisation, soit par modifications morphologiques ou colorimétriques des objets représentés. Par exemple, le diamètre d’un nœud pourra être modifié en fonction de ses propriétés ; en général en fonction de son degré de connexion. Un outil comme GEPHI (BASTIAN, HEYMANN, & JACOMY, 2009) offre une solution complète où toutes les propriétés directes ou calculées d’un objet ou d’un groupe d’objets peuvent être modifiées graphiquement et mises en avant ou en retrait.

Le graphe final présente, au sein d’un même espace, l’association des données initialement hétérogènes. C’est un synoptique où toutes les informations peuvent être appréhendées simultanément ; et non plus de façon diachronique. Cette mise en graphe permet ainsi une assimilation quasi instantanément et sans effort d’un grand nombre d’informations. Google Maps for Work s’inscrit d’ailleurs dans cette approche avec le slogan suivant : « Decide with Instant Insight ». Il s’agira de chercher une logique à travers les formes obtenues. L’interprétation se fait en effet sur la base de « patterns39 » fonctionnels remarquables tels que les clusters – les regroupements, les bridges, les sources, les puits, etc. Il s’agit d’un processus d’exploration et par conséquent la connaissance des concepts, des formalismes et de la terminologie de la théorie des graphes est nécessaire pour garantir le résultat de la démarche. Mais à terme, de telles approches devraient s’inscrire dans le quotidien des décideurs en tant qu’outils visuels et opérationnels.