• Aucun résultat trouvé

Maryline Coquidé

1.  CONTEXTE SCIENTIFIQUE

L’informatique est largement mise à contribution pour l’étude du vivant, comme elle l’est depuis de nombreuses années pour l’étude des systèmes inanimés. La science des données, cependant, n’est pas une science de « collection ». On forge, en effet, un métalangage des choses par des moyens adaptés (grilles, formules ou mesures) et les informations sont traitées de manière technique et automatique. Tout ce qui, dans le réel et à tous les niveaux d’intégration du vivant, peut être quantifié ou numérisé peut ainsi être simulé ou visualisé.

1.1. À tous les niveaux d’intégration du vivant

La multiplication des moyens de mesure des systèmes biologiques a ainsi révolutionné le travail de recherche en sciences de la vie. Un exemple emblématique peut être celui de la génomique, qui ouvre désormais sur l’ère de la protéomique. Ces recherches ont nécessité le développement de grandes structures, avec les contributions des génopoles régionaux pluridisciplinaires (Evry, Rennes, Nancy, Rhône-Alpes, Alsace- Lorraine…), de l’Institut Pasteur et de nombreux organismes privés (Hybrigénics, Génome Express…).

Mais ce domaine n’est pas le seul à solliciter l’aide de l’informatique. On peut rappeler ici quelques exemples de modélisation d’écosystèmes ou de dynamique de populations. Par exemple, le laboratoire de Villefranche-sur- mer effectue des recherches destinées à modéliser les ressources renouvelables d’un écosystème phytoplanctonique. À partir de mesures, réalisées dans un milieu très contrôlé, avec des relevés automatisés et informatisés, les chercheurs mettent au point un modèle permettant de prédire la croissance du plancton en fonction des apports en azote et en lumière. La station de Wimereux, de son côté, aborde la dynamique d’un système naturel. La modélisation informatique, dans ce cas, permet de substituer une approche systémique, la modélisation multi-agents, à une approche analytique, les modèles par bilans.

On peut rappeler aussi la simulation moléculaire et les images numériques en 3D. Ainsi, les représentations tridimensionnelles des molécules biologiques, actuellement utilisées dans les recherches biologique et médicales, sont des modèles, des représentations approximatives de la structure spatiale des molécules résultant de la mise en commun de plusieurs compétences disciplinaires (physique, chimie, biochimie, informatique…).

1.2. Ce que permet la virtualité pour les sciences de la vie et de la santé

Les modélisations que permettent les technologies informatiques peuvent représenter des aides à la compréhension, des supports et des représentations visuelles, ou bien encore des outils pour l’action.

Aide à la compréhension

En permettant de mieux appréhender les causalités plurifactorielles, ou bien encore la complexité de la structure et de la dynamique du vivant, la fonction modélisatrice du virtuel offre une formidable potentialité d’aide à la compréhension du vivant. « Ce qui n’a pas lieu explique ce qui a lieu », commente ainsi Gilles-Gaston Granger (1995, p. 9).

Aide à la visualisation

La manipulation informatique d’objets visuels tridimensionnels facilite une représentation dont notre esprit est incapable seul, par exemple des rotations de modèles de molécule biologique sur écran. La simulation numérique et les images de synthèse permettent aussi de « montrer » ce qui excède le cadre de notre sensibilité, ou même de s’affranchir de toute matérialité spécifique et représenter un moyen d’explorer de façon perceptible des univers conceptuels. Les images satellitaires sont ainsi source d’information pour le géologue ou pour l’écologiste, tandis que de nombreuses images biomédicales, par exemple pour le cerveau, sont uniquement issues de calcul, produites par des variations introduites dans un tableau de mesure.

Outil pour l’action

Les technologies du virtuel permettent d’envisager de nouvelles médiations effectives. Ainsi, simulation et interaction en temps réel de gestes médicaux préparent les interventions ou contribuent à la formation des étudiants en microchirurgie. Par ailleurs, des modèles pour l’action ou d’aide à la décision, plus performants, sont élaborés, telles les images de synthèse pour le diagnostic en médecine, les modélisations d’écosystèmes ou les simulations de perturbations en sciences de l’environnement et en climatologie.

1.3.  Les systèmes vivants, source d’investigation et d’inspiration pour les sciences de l’information

Si l’informatique est devenue un partenaire incontournable pour les sciences de la vie et de la santé, d’un autre côté, les systèmes vivants constituent un domaine de comparaison et une source d’inspiration pour les sciences de l’information. Le projet de développement des « sciences de la cognition » est ainsi de faire interagir différents domaines disciplinaires : neurobiologie, informatique, intelligence artificielle, linguistique…, afin de mieux appréhender les phénomènes cognitifs. On tente, par exemple, de développer des automates qui pourront s’adapter à leur environnement à partir de l’observation des systèmes d’apprentissage chez les primates.

1.4. Des enjeux et des contraintes

Les quelques exemples, brièvement présentés ci-dessus, illustrent des enjeux que le formidable développement actuel de la bio-informatique suscite : des enjeux scientifiques et épistémologiques, bien sûr, mais d’autres enjeux, qui ne peuvent être que rapidement évoqués durant ce séminaire, seraient à analyser. On peut citer ici des enjeux éthiques, les expériences in silico permettant de poser différemment le rapport expérimental au vivant ; des enjeux sociologiques avec la nécessité d’équipes pluridisciplinaires ; des enjeux économiques dont les interactions avec les développements médicaux et industriels ; ou bien encore des enjeux techniques avec l’amélioration des technologies informatiques pour permettre le recueil et le traitement automatique de données… Si ces enjeux apparaissent importants, ils supposent aussi tout un ensemble de contraintes diverses qui mériteraient d’être mieux appréhendées.

Collaborations scientifiques

L’extraordinaire puissance du calcul et d’analyse des données, offerte par l’ordinateur, et la simulation informatique autorisent donc des traitements statistiques sur des masses énormes de données, et facilitent la mise en scène et la lisibilité des résultats. Elles peuvent ainsi renforcer le caractère empirique et inductif de la recherche, et impliquer un nouveau type d’expérience. Déjà en 1984, et à propos de la méthode des modèles, le physiologiste François Chevallier anticipait les nouvelles collaborations scientifiques nécessaires. « À un certain niveau de complexité des systèmes, du reste très vite atteint, le biologiste n’a qu’une seule ressource, celle de la collaboration ». Il estimait, par ailleurs, que la modélisation instrumentale présentait deux autres intérêts majeurs : représenter une méthode dynamique d’une part, nécessiter la collaboration du modéliste et de l’expérimentateur, d’autre part, ce qui conduit à ne pas rester enfermé

dans des hypothèses. Avec le développement de l’informatique, ces remarques sont toujours d’actualité.

« L’informatique vole au secours de la biologie pour traiter la masse considérable des informations, pour modéliser des systèmes biologiques et pour prévoir leur comportement ». Commentant ainsi le puissant rôle heuristique de l’informatique en biologie, Wayt Gibbs (2001) s’interroge : « la prochaine révolution biologique sera-t-elle informatique » ? On peut, effectivement, se poser la question. Ainsi, dans son dernier livre au titre interrogatif et provocateur de La vie expliquée ? le biologiste Michel Morange estime que « certaines formes de modélisation, en particulier celles concernant les réseaux, déjà appliquées avec succès à d’autres phénomènes complexes, dans le domaine des communications, en économie, ou pour décrire les comportement sociaux, seront certainement utilisés avec succès pour la description et l’interprétation des faits biologiques » (Morange, 2003, p. 213).

Pour relever tous ces défis, de multiples interactions entre chercheurs, et à long terme, sont indispensables, ce qui nécessite souvent des mises en relation entre compétences différentes, sous forme de partenariat ou d’équipes pluridisciplinaires.

Enjeux épistémologiques

Philippe Quéau (1995, p. 92) souligne le puissant rôle heuristique de la virtualité. « Ce qu’il faut, c’est voir », commente-t-il, « et voir c’est chercher à voir, derrière toutes les images, toutes les représentations, derrière toutes les visions, ce qui ne se laisse pas voir, mais qui se laisse chercher ». Consacrant la « mathématisation de notre approche du monde », selon les termes de Jean-Michel Besnier (1995, p. 14), le développement de la virtualité, en particulier dans les sciences de la vie, conduit également à de nécessaires éclaircissements épistémologiques. Il force ainsi les limites d’une conception positiviste de la science, et les insuffisances d’une démarche qui prétendrait se limiter à la simple description de l’actuel. « Le virtuel mérite d’être considéré comme une catégorie de la connaissance objective et permet de comprendre que le réel ne se réduit pas à des actualités » commente Gilles-Gaston Granger (1995, p. 231), « puisqu’il appelle pour se construire une part de virtualités et de probabilités ». Le virtuel, dans son rapport à l’actuel, apparaît donc comme une traduction de la relation du modèle au réel qu’il est chargé de décrire, d’expliquer ou d’anticiper. Nous pouvons ainsi inventer un autre monde et reporter à plus tard la question de savoir dans quelle mesure il ressemble au monde réel.

Il y a cependant des désaccords sur le statut de la simulation par ordinateur. Pour certains, la simulation par ordinateur peut représenter une expérience

heuristique (par exemple le logiciel artificial life). Pour l’agronome Jean- Marie Legay (1997), c’est un outil théorique, de traitement de données et non pour représenter la nature, ou bien de résolution purement conceptuelle. Pour d’autres, la simulation représente un intermédiaire entre théorie et expérience. Ainsi, pour le biophysicien Wagensberg (1985), c’est un moyen de capturer une complexité sans réellement la comprendre, pour Parrochia (2000), une computation et une expérience a priori, tandis que Galison (1997) estime que c’est une zone de transaction entre théoriciens et expérimentateurs.

Au-delà des désaccords épistémologiques, il faut souligner les relations qui sont constamment discutées entre théorie, expérimentation et simulation et leur complexité. Pour contribuer à éclaircir ces relations, Wagensberg propose un schéma (figure 1).

Figure 1 : Triade expérience, théorie, simulation, selon Wagensberg (1985 p. 105)

Ce schéma met ainsi l’accent sur un ensemble d’interactions, qu’il serait nécessaire de questionner, et montre une asymétrie dans la validation, avec la place centrale de l’expérience qui peut réfuter et une théorie et une simulation. Il permet d’éviter de penser en termes de simple opposition et souligne l’importance des dynamismes dans les démarches.

EXPERIENCE