• Aucun résultat trouvé

Aperçu des chapitres

2. La base de données comme outil cognitif

2.1 La traduction du monde en données

2.1.5 Interpoler / interpréter

La méthode de Laplace nous montre une des stratégies les plus importantes dans le procédé pour découper le monde en données. Dans les cas où il s’agit d’accumulations dénombrables, les entités individuelles peuvent simplement être comptées, puis analysées à l’aide de méthodes statistiques. Lorsque la nature des données est plus complexe, comme par

160

Pour une recherche des débuts de la quantification et la notion de la précision voir : WISE, M. Norton (dir.), The Values of Precision, Princeton University Press, Princeton, 1995

161

Le procédé adopté dans ce recensement a été décrit dans LAPLACE, Pierre Simon, « Sur les Naissances, les Mariages et les Morts, à Paris depuis 1771 jusqu’en 1784 », in Mémoires de l’Academie Royale des Sciences de Paris 1783,

exemple le changement continu de la température de la fièvre en médecine, ou dans les cas où les entités sont inaccessibles, d’autres stratégies sont utilisées.

Un exemple classique de cas où les données étaient inaccessibles est celui de la mesure de la profondeur des océans. Malgré l’expansion des voyages et du commerce, longtemps la connaissance des océans a été plus ou moins limitée à la surface. Au milieu du dix-neuvième siècle, un grand effort a été fourni pour mesurer leur profondeur au cours de plusieurs expéditions croisant les mers pour établir un réseau régulier de mesure à aplomb. Il s’agissait d’obtenir des connaissances sur les profondeurs pour améliorer les possibilités de la navigation et pour déterminer les endroits où il fallait installer les câbles pour les nouvelles connections de télégraphe entre l’Europe et l’Amérique. Comme l’aplomb ne peut mesurer qu’un seul point à la fois, les bateaux devaient s'arrêter à des intervalles réguliers pour obtenir des données suffisamment denses, permettant d’extrapoler sur la topographie du fond de l’océan. Ces mesures discrets étaient reliés en calculant la profondeur probable entre les points qui avaient été mesurés pour créer un profil du fond de l’océan. Mathématiquement, les blancs entre les données étaient remplis par une interpolation163.

Figure 5. Coupe transversale de l'Atlantique à latitude 40º Nord (1912)

163

Une recherche sur le développement de l’océanographie se trouve dans : HÖHLER, Sabine, « Dichte Beschreibungen – Die Profilierung ozeanischer Tiefe im

Comme dans l’exemple de Laplace, il s’agissait d’un système d'échantillonnage et d’un calcul des espaces entre les points mesurés, et comme dans sa méthode il y avait une certaine probabilité que le fond de l’océan ait la forme qui avait été calculée – avec une marge d’erreur possible. Le résultat de ce procédé était des courbes représentants les profils des fonds des océans, à la fois méthode de calcul et représentation perceptible des résultats du calcul.

L’approche de la quantification et son rendu sous forme de courbes et de visualisations abstraites, s’est développée à partir du dix-huitième siècle164. Il est utilisé d’une façon similaire dans la méthode graphique développée par le scientifique Etienne-Jules Marey, qui a cherché à établir des procédés et des appareils pour enregistrer des données de phénomènes éphémères et invisibles tels que le mouvement ou les courants électriques dans les muscles et les nerfs165, pour les rendre accessibles à l’observation et la connaissance scientifique:

« La science a devant elle deux obstacles qui entravent sa marche : c’est d’abord la défectuosité de nos sens pour découvrir les vérités, et puis l’insuffisance du langage pour exprimer et pour transmettre celles que nous avons acquises. L’objet des méthodes scientifiques est d’écarter ces obstacles; la Méthode graphique atteint mieux que toute autre ce double but. En effet, dans les recherches délicates, elle saisit des nuances qui échapperaient aux autres moyens d’observation; s’agit- il d’exposer la marche d’un phénomène, elle en traduit les phases avec une clarté que le langage ne possède pas. »166

Avec la méthode graphique et un certain nombre d’instruments optiques et mécaniques, des appareils différents inscrivant des courbes, ou enregistrant des instantanées et chronophotographes, Marey a créé des outils et un nouveau langage, facilitant la connaissance systématique et scientifique des phénomènes, qui généralement échappaient à l’analyse. Chaque appareil est propre à un phénomène précis et n'enregistre que l’effet pour lequel il a été construit. Il y a des appareils qui gardent des

164

TUFTE, Edward, The Visual Display of Quantitative Information, Graphics Press, Chesire, 2001, p. 9.

165

MAREY, Etienne-Jules, La machine animale – locomotion terrestre et aérienne, Félix Alcan, Paris, 1886, p. 50.

traces de l'élévation et de l’abaissement des ailes d’un oiseau, des autres pour enregistrer les contractions des muscles pectoraux, un troisième pour mesurer la torsion, encore un autre pour l’inclination des ailes etc. Donc chaque mesure ne représente qu’un aspect isolé, mais ensemble ils constituent le vol d’un oiseau167.

Figure 6. En haut : Pigeon attelé au manège et muni de tambours à transmission; en bas : Courbes des mouvements de l’aile d’un pigeon, par E. J. Marey (1890)

La conception de ce procédé de traduction par mesure ou échantillonnage, introduit une concentration sur des aspects isolés en rupture avec l’intégralité idéalisée d’une représentation holistique qui existait avant, notamment dans la taxidermie. D’un autre côté, cette nouvelle approche a le potentiel de représenter des aspects comme celui du mouvement, qui n’existait pas dans la taxidermie statique. De plus, cette approche utilise systématiquement des outils mécaniques qui effectuent la création et le raccordement des données.

La traduction des données en format numérique utilise la même approche de séries d’échantillons qui représentent le phénomène original. Nous pouvons regarder cette conception de la représentation comme

procédé composite dans lequel l’objet disparaît dans un sens matériel : une virtualisation de l’objet. Cette virtualisation joint à l’existence matérielle de l’objet une série d’autres modes d’existence comme celui de l’objet en tant que phénomène en mouvement ou en tant que phénomène selon tous les aspects enregistrés. Nous pouvons constater plusieurs transformations qui sont des effets de la virtualisation produites par le régime technologique, dont la première est la dissolution du caractère tangible de l’objet. Parallèlement à cette dissolution, il y a une disparition de la catégorie d’espace, car le lien essentiel de l’objet matériel à l’espace qu’il occupe est perdu dans la représentation numérique. La disparition de l’espace peut être observée comme un procédé graduel que l’on retrouve dans les exemples suivants : pendant que l’espace existe très concrètement dans les structures architecturales imaginées par Bentham et Foucault, la notion de l’espace devient abstraite, comme dans la représentation graphique du fond de l’océan, n’existant plus en tant que structure tangible. Malgré tout, la représentation de la courbe évoque l’imagination concrète d’une topologie possible. Un autre degré de virtualisation existe également dans les inscriptions de courbes de mouvements livrées par les appareils de Marey, qui sont entièrement le résultat d’une abstraction conceptuelle, ou les courbes ne représentent plus un profil d’une entité, mais des intensités ou autres valeurs.

Finalement, il existe un troisième effet de la virtualisation des données en échantillons numériques, car les représentations numériques sont constituées uniquement par des séries de zéros et de uns, et ne portent plus aucune qualité sensuelle qui les identifie et les distingue du sens commun des humains. Toute trace de phénomène individuel et de sa source est perdue et il n’y a plus aucune possibilité de distinguer les représentations des mouvements, des sons, de l’écriture et des objets matériaux – sauf par des remarques, les métadonnées, stockées avec les représentations numériques, qui les identifient.