• Aucun résultat trouvé

Inst titut H Henri P Poinca aré, P aris. Foru um de es Je unes Math héma aticie nnes

N/A
N/A
Protected

Academic year: 2022

Partager "Inst titut H Henri P Poinca aré, P aris. Foru um de es Je unes Math héma aticie nnes"

Copied!
44
0
0

Texte intégral

(1)

Foru

Mathé

     

um de

ématiqu

Inst

www

es Je

ues, In

30-

titut H

w-sop.inria

unes

formati

-31 jan

Henri P

a.fr/cafe/E

Math

ique et

nvier 20

Poinca

Evelyne.Hu

Comité de pro et d’organisati

Ilaria Castellani.

MIMOSA. INRIA S Sandrine Charles, Laboratoire de Bi Evolutive, Lyon Christine Graffign MAPS. Université Paris 5 Evelyne Hubert CAFE, INRIA Sop

héma

Scienc

004

aré, P

ubert/2004

ogramme ion :

Sophia Antipolis ,

ométrie, Biologie

ne

René Descartes.

hia Antipolis

aticie

ces du

aris.

4forum

Brigitte Mangin Biométrie et Intellige INRA Toulouse Marie-Laure Delignett Microbiologie Aliment Prévisionnelle, Ecole Marie-France Sagot HELIX, INRIA Rhône- Natacha Portier Laboratoire de l’infor Parallélisme, ENS Lyo Nathalie Revol ARENAIRE, INRIA Rh

nnes

Vivant

ence Artificielle.

tte-Mulier taire et

Vétérinaire de Lyon

-Alpes

rmatique et du on

hône-Alpes

t

     

(2)
(3)

2004, Forum des Jeunes Mathématiciennes

Organisé depuis 1996 par l'association femmes et mathématiques le forum des jeunes mathématiciennes s'inscrit à présent comme un évènement biennal de la vie mathématique française. En 2002 le forum s'est ouvert à une discipline très liée aux mathématiques : l'informatique. Ce sixième forum ayant été une réussite, nous poursuivons cette année dans cette voie avec le septième Forum des Jeunes Mathématiciennes : Mathématiques, Informatique et Sciences du Vivant. Nous remercions les membres du comité de programme qui ont permis la réalisation de ce projet et nous sommes très heureuses que l'INRIA et l'INRA se soient associés à cette manifestation.

Le forum est une occasion plutôt unique de modeler une identité féminine des mathématiques et des sciences qui en sont proches. Les participants aux forums sont en eet en majorité des participantes, ce qui est inhabituel dans ces matières. Les jeunes scientiques peuvent ainsi se représenter leur avenir professionnel plus facilement qu'en étant entourées presque exclusivement de modèles masculins. Nous espérons les aider à créer des liens et à se sentir à leur place dans la communauté scientique. Le forum se veut donc un lieu d'échange entre jeunes et expérimentées sur les sciences et sur le métier de chercheuse. Cette année il est de plus à la croisée de plusieurs disciplines. Le programme de ce septième forum reète donc ces multiples aspects.

Les exposés des chercheuses en mathématiques, informatique et sciences du vivants prennent une place essentielle des deux jours que dure ce forum. Vous trouverez dans les pages qui suivent les résumés des exposés. Nous remercions toutes les participantes qui ont proposé un exposé ainsi que Juliette Leblond (INRIA Sophia) et Annie Raoult (LMC Grenoble) pour avoir accepté notre invitation à faire l'ouverture du forum

Par ailleurs, nous avons invité Pascale Molinier, chercheuse au conservatoire national des arts et métiers, à faire un exposé sur la psychodynamique du travail de recherche et le rôle du genre dans celui-ci. Vendredi se terminera sur un débat qui est l'occasion d'un échange d'expériences à la lumière de cet exposé de psychologie.

Samedi, l'interdisciplinarité sera à l'honneur plus particulièrement au tra- vers de la table ronde sur l'enseignement et la présentation du métier de bio- infomathématicienne.

Le forum est tout d'abord l'occasion pour les jeunes mathématiciennes de présenter leur recherche dans une ambiance généralement très appréciée. Nous souhaitons que cela soit à nouveau le cas pour cette septième édition du forum.

Bon forum à toutes !

Evelyne Hubert, Natacha Portier et Nathalie Revol

(4)
(5)

Remerciements

Nous souhaitons ici remercier les personnes qui ont apporté leurs compé- tences et leur aide à l'organisation de ce forum.

A l'INRIA Sophia Antipolis, plusieurs personnes ont participé à l'organisa- tion et à la réussite du forum. Sylvie Poupinel a réalisé l'ache et les éléments graphiques des documents. Le service REV, et en particulier Jacqueline Tcho- banian et Audrey Cervoni, ont travaillé à la large diusion de l'information.

Dany Sergeant, du service des colloques, a réalisé pour nous les badges. Le site web, qui a permis au comité de travailler ensemble à distance, a bénécié de l'aide de Jean-Luc Szpyrka, du service des moyens informatiques.

Sylvie Boyer du LIP assure le secrétariat et la gestion de l'ensemble du forum. Qu'elle soit ici très sincèrement remerciée.

Nous remercions vivement les membres de l'association f emmes et ma- thématiques pour leur soutien. Nous tenons à remercier tout particulièrement Véronique Chauveau, présidente de l'association, qui a suivi et contribué à la préparation du forum à de nombreux niveaux.

Le département de biométrie et d'intelligence articielle de l'INRA, la for- mation par la recherche de l'INRIA et l'unité de recherche Rhône-Alpes ont apporté leur soutien nancier à la tenue de ce forum.' Nous en sommes très heureuses. Nous souhaitons adresser nos remerciements aux personnes qui ont porté et servi de relais à ce projet : Marion Guillou, Elisabeth de Turckheim, Thierry Vieville et Jean-Michel Muller.

(6)
(7)

La revue femmes & mathématiques

Les forums précédents ont eu lieu en janvier 1996, janvier 1997, février 1998, février 1999, janvier 2000 et mars 2002.

Les actes de ces quatre premiers forum sont parus dans la revue femmes et math dont les sommaires sont (ou seront très prochainement) accessibles sur le site de l'association http ://femmes-et-maths.fr.fm/

Les programmes du cinquième et sixième et sixième forum sont en ligne aux

adresses http ://perso.ens-lyon.fr/natacha.portier/fem/agjan00.html et http ://perso.ens- lyon.fr/natacha.portier/forum2002.

Chaque numéro de la revue femmes & mathématiques comporte trois grandes rubriques : une sur la vie de l'association, une incluant des articles de mathé- matiques et une intitulée du côté des femmes.

Nous vous invitons à soumettre des articles à une ce ces rubriques. Si nous décelons un intérêt susant pour un tel projet, un numéro spécial pourrait faire suite au forum 2004.

(8)
(9)

Table des matières

Invitées :

Juliette Leblond 9

Une approche par les fonctions analytiques et l'approximation méromorphe du problème inverse de localisation de foyers épileptogènes dans le cerveau depuis les mesures électroencéphalographiques

Annie Raoult 10

Eléments mathématiques pour la modélisation du myocarde

Pascale Molinier 11

La créativité dans le travail : un processus individuel ou collectif ?

Session 1. Présidente : Brigitte Mangin

Sandie Ferrigno 12

Polynômes locaux et tests d'adéquation conditionnels

Karin Sahmer 14

Classication de variables en présence de valeurs manquantes : application aux données de préférence

Stéphanie Ledauphin 15

Les données sensorielles de type temps intensité

Martine Quinio 16

La loi normale : de la régularité dans l'aléatoire.. . Session 2. Présidente : Evelyne Hubert

Bénédicte Dujardin 17

Théorie de l'estimation, polynômes de Szegô

Agnès Provost 18

Comment modéliser un procédé biochimique en se servant du métabolisme cellulaire ?

Madalena Chaves 21

Un modèle pour les interactions récepteur-ligand

Rabea Boulifa 22

Modèles pour applications distribuées

(10)

Session 3. Présidentes : Marie-Laure Delignette Muller et Nathalie Revol

Violaine Roussier-Michon 23

Dynamique des populations et ondes progressives

Amal Bergam 25

Description des techniques auto-adaptatives basées sur les estimations a posteriori pour des approximations par volumes et éléments nis

Caroline Lacombe 26

Filtrage interférometrique par diusion anisotrope et détection des sauts de phases par contours actifs Session 4. Présidente : Natacha Portier

Claire Bourgeois République 27

Réglage automatique d'appareil auditif à l'aide des algorithmes évolutionnaires

Anjali Awasthi 28

Modelling trac ows on a single link system

Pérola Milman 29

Phase topologique pour états intriqués à deux qubits Session 5 - Présidente : Marie-France Sagot

Anne Berry 30

La structure articulatoire d'un graphe

Hélène Renard 31

Calcul distribué à grande échelle :

un avenir prometteur dans tous les domaines scientiques

Anne Desideri Bracco 32

Représentations algébriques et constructions graphiques de codes quasi-cycliques

Oriane Matte-Tailliez 33

Vers une nouvelle forme de recherche en biologie Session 6 - Présidente : Sandrine Charles

Judith Legrand 34

Modélisation de la dynamique épidémique de la èvre hémorragique Ebola

Laura Temime 36

Modélisation mathématique de la résistance aux antibiotiques.

à la résistance des pneumocoques et des méningocoques à la pénicilline

Elisabeta Vergu 37

Modélisation de l'impact de l'apparition de souches virales mutantes sur le système immunitaire dans l'infection à VIH

Adrienne Ressayre 38

Morphogénèse des grains de pollen

(11)

Une approche par les fonctions analytiques et l'approximation méromorphe du problème inverse EEG de localisation de

foyers épileptogènes dans le cerveau depuis des mesures électroencéphalographiques

J. Leblond (INRIA, Sophia-Antipolis)1

Dans le contexte bidimensionnel, les liens classiques entre les fonctions harmoniques et analytiques permettent de formuler les problèmes frontières pour l'opérateur de Laplace, qu'il soient directs ou inverses, en terme de reconstruction d'une fonction analytique (de la variable complexe) dans le domaine privé de ses éventuelles singularités, depuis ses valeurs sur une partie de la frontière. Les fonctions harmoniques sont en eet les parties réelles (ou imaginaires) de fonctions analytiques, que les équations de Cauchy-Riemann ou les formules de Poisson et Cauchy permettent, théoriquement, de calculer (intégrales de Carleman, boundary elements methods , ...).

Concernant les problèmes inverses, les procédures de reconstruction ou d'extrapolation sont cependant connues pour être relativement instables et peu robustes par rapport aux perturbations sur les données, lesquelles se produisent pourtant, numériquement et surtout expérimentalement (et ont pour eet que les données ne correspondent plus exactement à la classe - analytique ou harmonique - de fonctions considérée). Il semble ainsi approprié d'exprimer ces problèmes du Laplacien comme des questions de meilleure approximation dans les classes de Hardy Hp (de fonctions analytiques et bornées en norme Lp)du do- maine, ou dans des classes de fonctions méromorphes on rationnelles associées, le critère portant sur une partie de la frontière, avec une contrainte sur la partie complémentaire, éventuellement inaccessible aux mesures. Ces problèmes extrémaux bornés sont bien posés et admettent des schémas de résolution ayant de bonnes propriétés de robustesse et de continuité.

Notons que ce type d'approches revient en fait à discrétiser d'abord les conditions à la frontière, et non plus l'opérateur (comme traditionnellement avec les éléments nis, par exemple), en travaillant directement dans les classes de fonctions harmoniques / analy- tiques, et dispense aussi des résolutions itératives du problème direct associé, au prot d'une réelle ecacité numérique.

Pour préciser et illustrer ces liens, je m'appuierai sur un problème de détection / localisa- tion de sources ponctuelles depuis des mesures frontière, intervenant notamment dans les modèles courants de détection par électroencéphalographie (EEG) de foyers épileptogènes dans le cortex. On l'aborde dans des géométries circulaires ou sphériques, en dimensions 2 et 3, en utilisant des procédures de meilleure approximation rationnelle en norme L2 ou méromorphe en norme uniforme sur le cercle unité du plan complexe.

Je préciserai les notions et les résultats d'analyse intervenant dans ce traitement, ainsi que les schémas de résolution utilisés, et montrerai des simulations numériques.

1. En collaboration avec L. Baratchart (INRIA, S.-A.), A. Ben Abda, F. Ben Hassen, (ENIT-Lamsin, Tunis), J.-P. Marmorat (Ecole des Mines de Paris, CMA, S.-A.)

(12)

Eléments mathématiques pour la modélisation du myocarde

Annie Raoult

Professeure en mathématiques appliquées à l'université Joseph Fourier de

Grenoble

Le travail présenté résulte d'une collaboration entre trois laboratoires grenoblois : le laboratoire de modélisation et calcul (LMC), le laboratoire de techniques de l'imagerie, de la modélisation et de la cognition (TIMC) et le laboratoire sols-solides-structures (3S).

Il a fait l'objet de la thèse d'Ayman Mourad, soutenue en décembre 2003.

Les chercheurs de l'équipe RFMQ (reconnaissance des formes et microscopie quantita- tive) du laboratoire TIMC ont développé une méthode de mesure en lumière polarisée de l'orientation des bres myocardiques. Ils obtiennent ainsi un relevé cartographique discret qui fournit l'orientation sous forme de deux angles. Leur objectif était il y a trois ans d'utiliser ces données pour vérier l'hypothèse émise par Streeter sur l'organisation des bres myocardiques.

La conjecture de Streeter stipule que ces bres sont organisées en géodésiques fer- mées de surfaces toroïdales emboîtées. Utilisant l'invariance du nombre de Clairaut sur les géodésiques des surfaces de révolution, nous avons établi que plusieurs conséquences de cette hypothèse sont eectivement vériées par les données anatomiques. Prudemment mathématicien(ne)s, nous n'en concluons pas que la conjecture est vraie... L'explication d'une telle organisation pourrait s'obtenir à l'aide d'une modélisation du fonctionnement cardiaque. Nous avons dans cette direction proposé de construire une loi de comporte- ment du myocarde par une technique mathématique d'homogénéisation (un petit para- mètre tend vers 0), qui nous permet de passer de l'échelle de la cellule à celle du muscle.

De nombreuses pistes de travail restent ouvertes : prise en compte de l'activation élec- trique, simulation numérique, comparaison avec d'autres modèles biologiques où la même structure géométrique semble être présente.

(13)

La créativité dans le travail : un processus individuel ou collectif ?

Pascale Molinier

Conservatoire National des Arts et Metiers

Les métiers de la recherche sont des métiers de création à la fois au sens de création individuelle et de création collective. On imagine que ce type de travail, du fait de son intérêt, participe à l'accomplissement de soi. Cependant, tout n'est pas idyllique et il existe un écart entre l'Idéal de la recherche et la matérialité de l'organisation du travail scientique. C'est normal. Comme dans toutes situations de travail, cet écart entre fantasme et réalité est irréductible, la question est de savoir comment est-ce que l'on s'en arrange. Ceci nous amènera d'abord à nous interroger sur les conditions de la créativité, depuis le jeu pour l'enfant jusqu'au travail pour l'adulte. Ensuite, nous discuterons des rapports entre la reconnaissance du travail et la construction de l'identité et de la santé. La créativité, pour ne pas déboucher sur la maladie mentale, implique nécessairement d'en passer par l'épreuve sociale de la reconnaissance. Cependant, nous ne sommes pas égaux devant la reconnaissance.

Notamment parce qu'il existe des activités qui sont malaisées à reconnaître dans la mesure où elles ne se voient pas (leur ecacité est même tributaire de leur invisibi- lité). C'est particulièrement le cas de toutes les tâches réalisées au service des besoins ou du travail des autres. On s'interrogera donc à propos de l'invisibilité de certaines tâches dans le travail scientique et de comment ces tâches sont attribuées au sein des équipes. Dans la société, les tâches les moins visibles, en particulier les tâches de soutien aux autres, sont fréquemment attribuées à des femmes, on se demandera si les équipes de recherche font exception à la règle et si les hommes et les femmes y sont égaux au regard de la reconnaissance dans le travail.

(14)

Polynômes locaux et tests d'adéquation conditionnels

Sandie Ferrigno

Laboratoire de Probabilités et Statistique Département des Sciences Mathématiques

Université Montpellier II

Case Courrier 051-Place Eugène Bataillon 34095 Montpellier Cedex 5

FRANCE

courriel : ferrigno@math.univ-montp2.fr

On considère(X, Y), un couple de variables aléatoires à valeurs dansR2. Pour étudier la relation liant X àY, il est courant d'utiliser la fonction de régression dénie par l'espérance conditionnelle de Y sachant {X =x} qui est un résumé pratique de l'eet de X sur le comportement de Y (voir, par exemple, [1] ou [3] ).

Dans ce travail, on utilise la fonction de répartition conditionnelle de Y sachant X =x, notée

F(y|x) =P(Y ≤y|X =x) (1) L'intérêt de cette fonction provient du fait que la plupart des quantités statistiques utilisées en pratique pour comprendre la relation liant X et Y (dont la fonction de régression) en sont des fonctionnelles. Dans de nom- breuses procédures statistiques, on émet aussi des hypothèses sur la loi de Y sachant X et il semble donc important de pouvoir les valider à l'aide de tests d'adéquation.

Dans ce travail, on développe une approche globale où toutes les hy- pothèses faites dans le but d'obtenir un modèle pour F(y|x) sont testées simultanément. Plus précisément, le problème dont nous traitons ici est de construire un test pour valider ou inrmer l'hypothèse nulle :

H0 :F(y|x) =F0(y|x) (x, y) (2) où F0(y|x) est la fonction de répartition conditionnelle correspondant au modèle supposé. Si dans le test de (2) tous les paramètres sont connus, F0(y|x) est dite entièrement spéciée. Mais généralement ces paramètres sont inconnus. Si on les rassemble dans un vecteur θ appartenant à l'espace

(15)

paramétriqueΘet si on réécrit la fonction de répartition conditionnelle sous la forme F(y|x;θ), alors (2) devient l'hypothèse nulle composite

H0 :F(y|x)∈ {F(y|x;θ), θ Θ}. (3) On considère d'abord le problème de tester (2). Pour cela, on propose de comparer F0(y|x)à un estimateur deF(y|x)et de rejeterH0 si la distance entreF0(y|x)et cet estimateur est trop grande. Il existe diérentes méthodes pour estimer F(y|x) à partir d'un échantillon (Xi, Yi), i = 1. . . n de n co- pies indépendantes de (X, Y). On utilise ici une méthode non-paramétrique d'estimation : l'estimation polynômiale locale (voir [2]). Les résultats obte- nus dans ce contexte sont ensuite utilisés dans le cas plus pratique où la fonction de répartition conditionnelle contient des paramètres inconnus et pour tester (3).

Enn, pour permettre la comparaison de nos stratégies de test avec d'autres tests d'adéquation, on propose, dans le cadre d'une analyse de puis- sance, d'aner celle-ci en étudiant son comportement asymptotique local.

Bibliographie

[1] Alcalá, J.T., Cristóbal, J.A. & González-Manteiga, W. (1999). Good- ness of t tests for linear models based on local polynomials, Statistics and Probability letters, 42, 39-46.

[2] Fan, J. & Gijbels, I. (1996). Local polynomial modelling and its appli- cations, Chapman and hall.

[3] Hàrdle,W. & Mammen, E.(1993). Comparing nonparametric versus pa- rametric regression ts, The Annals of Statistics, 21(4), 39-46.

(16)

Classication de variables

en présence de valeurs manquantes : application aux données de préférence

Karin Sahmer, Evelyne Vigneau et El Mostafa Qannari Laboratoire de sensométrie et de chimiométrie,

ENITIAA / INRA, rue de la Géraudière, BP 82 225, 44322 Nantes Cedex 03

e-mail sahmer@enitiaa-nantes.fr (Karin Sahmer)

Dans les industries agro-alimentaires, l'étude des préférences des consom- mateurs est primordiale pour le développement et l'amélioration des produits.

Dans le cadre des tests de préférence, il est d'usage de demander à un panel de consommateurs de donner des notes de préférence à une gamme de pro- duits. Très généralement, cette épreuve se traduit par l'existence de plusieurs groupes de consommateurs ; chacun des groupes exprimant une préférence pour un ensemble de produits et un rejet pour d'autres. L'analyse des données de préférences doit exhiber ces groupes et en tenir compte dans les diérentes phases de l'étude. Dans cette perspective, on eectue une classication des consommateurs sur la base des notes attribuées aux diérents produits. Pour cela, on peut utiliser une méthode de classication de variables, qui a été pro- posée par Vigneau et Qannari (2003).

Cependant cette méthode requiert que les données soient complètes, ce qui présente une sérieuse limitation dans la pratique. En eet, lorsque le nombre de produits est relativement important, il est d'usage de recourir à un plan de dégustation incomplet pour des raisons de coût, de temps ou de contraintes matérielles. Il est par conséquent utile d'adapter la démarche de classication à la situation où chacun des consommateurs n'évalue qu'une partie des produits.

La méthode la plus simple consiste à remplacer chaque valeur manquante par la moyenne du consommateur ou du produit. La classication est ensuite eectuée comme si on avait aaire à des données complètes. Les résultats peuvent être améliorés par un renouvellement des imputations dans les groupes dénis par la classication (Sahmer, 2003).

Les performances des diérentes méthodes sont comparées à l'aide de simula- tions.

Mots-clés : algorithme de partitionnement, classication de variables, classi- cation hiérarchique, données de préférences, données manquantes

Références

SAHMER, K. (2003) : Classication des variables en présence de données man- quantes : Application aux données de préférence. Diplomarbeit, Fachbereich Statistik, Universitat Dortmund.

VIGNEAU, E. and QANNARI, E.M. (2003) : Clustering of variables around latent components. Communications in Statistics Simulation and Compu- tation, 82, 1131-1150.

(17)

Les données sensorielles de type Temps Intensité

Stéphanie Ledauphin, Evelyne Vigneau et El Mostafa Qannari Laboratoire de Sensométrie et de Chimiométrie,

ENITIAA / INRA, rue de la Géraudière, BP 82 225,44322 Nantes Cedex 03 e-mail : stephanie.ledauphin c⃝enitiaa-nantes.fr

Ecole Doctorale STIM Université de Nantes, Laboratoire de Mathématiques, 1, quai de tourville, 44035 NANTES cedex 01

Dans les industries agro-alimentaires, l'étude des préférences des consommateurs permet le développement et l'amélioration des produits. Dans cette optique, les études sensorielles consistent à déterminer les propriétés d'un produit en faisant appel au cinq sens de l'être humain Analyser les perceptions des individus, mais surtout les comprendre c'est se donner les moyens d'adapter le produit aux attentes des consommateurs. C'est la raison pour laquelle de nombreux industriels utilisent régulièrement les techniques de mesures sensorielles.

L'épreuve de prol sensoriel conventionnel consiste à attribuer des notes d'inten- sité aux diérents produits selon une liste de descripteurs (sucré, croquant, fruité, astringence, douceur). Les notes attribuées correspondent en général à une moyenne de l'intensité étudiée, cependant cette intensité peut connaître une forte évolution au cours de la dégustation. Ce qui est le cas, en particulier, pour certains types de vins. Le pic d'intensité peut être atteint à diérents moments et peut avoir une durée variable. Depuis une vingtaine d'années, l'évolution des perceptions au cours du temps est à l'étude et de nombreuses méthodes d'acquisition et de traitement ont été élaborées. Une méthode de collecte de données temporelles consiste à interroger un juge sur une perception. Celui-ci doit faire monter ou descendre un curseur selon que l'intensité perçue augmente ou diminue à partir du moment où le produit à été mis en bouche. On obtient alors dans la majorité des cas, une courbe en forme de cloche. A l'heure actuelle, la recherche de méthodes de traitement adaptées à ce type de données est très active.

Nous proposons une démarche de recherche de courbe moyenne des répétitions de chacun des juges pour chaque produit. Cette démarche permet également de mettre en place des indicateurs de répétabilité des juges et de comparer l'allure des courbes associées aux produits. Nous proposons enn une analyse comparative des produits en tenant compte des performances des juges.

Mots-clés : données de préférences, temps intensité, indicateurs de répétabilité.

Références

DIJKSTERHUIS G.B. and EILERS P. (1997) : Modelling time-intensity curves using

prototype curves. Food Quality and Preference , 8, 2, 131-140.

DUIZER L.M., BLOOM K., FINDLAY C.J. (1997) Dual attribute time-intensity sensory evaluation : a new method for temporal measurement of sensory perceptions.

Food Quality and Preference , 8, 4, 621-269.

VAN BUUREN S. (1992). Analysing time intensity responses in sensory evaluation.

Food Technology , 46(2), 101-114.

(18)

La loi normale : de la régularité dans l'aléatoire...

Martine Quinio

Université Aix-Marseille III, faculté de Saint-Jérôme, Marseille

La valeur épistémologique de la théorie des probabilités est fondée sur le fait que les phénomènes aléatoires engendrent à grande échelle une régularité stricte, où l'aléatoire a, d'une certaine façon, disparu (Kolmogorov)

La loi normale comme articulation entre probabilités et statistique.

Un peu d'histoire pour évoquer les approches diérentes de Gauss et de Laplace : De la loi des erreurs à la science des erreurs maîtrisées.

Qu'est-ce qui, d'un point de vue sociologique, a permis le passage des probabilités (notion individuelle au départ) à la statistique ?

Comment la loi normale intervient à deux niveaux :

-sur UN échantilllon de grande taille, elle permet de faire des calculs de probabilité, et donc de prévision (approche de la loi binomiale par une loi normale).

-sur un grand nombre d'échantillons, elle permet de dégager une régularité : tendance vers la loi normale.

A partir de la loi des grands nombres se dégagent deux approches diérentes des probabilités :

Une approche individuelle, basée sur des notions de symétrie, permet d'armer, a priori, que la probablité de sortie du 4quand on lance un dé non truqué est 16 ...

Une approche statistique, fréquentiste, dite a posteriori, basée sur un grand nombre d'échantillons et la loi des grands nombres, permet de poser : la probabilité de sortie du 4 est 16

La loi des grands nombres : une notion au départ purement probabiliste, (le hasard seul détermine le côté pile ou face d'un dé), conduit à des lois de probabilité sur plusieurs lancers, qui tendent vers une régularité que l'on ne voit que sur un grand nombre, sous certaines conditions de normalité, c'est à dire en respectant l'indépendance et en l'absence d'autres causes extérieures. C'est ce passage de l'individuel au grand nombre qui sert de transition vers la statistique et qui confère à la loi normale son rôle si important.

Passage de l'individuel au collectif et réciproquement : L'inférence statis- tique dans la recherche médicale.

Application de la loi normale aux tests statistiques en médecine.

Malgré les réticences initiales dues à certains aspects choquants de la statistique (où est l'individu dans les statistiques ?), le rôle de l'inférence statistique dans la recherche médicale d'aujourd'hui est primordial :

Pour tester l'ecacité d'un nouveau médicament, il faut faire de la statistique ; pour mettre au point une nouvelle molécule après de multiples essais qui vont les éliminer presque toutes, il faut utiliser des méthodes de statistique combinatoire ; pour savoir qui prend quel médicament et pourquoi, pour pouvoir adapter un traitement personnalisé grâce à l'outil informatique, il faut faire de la statistique et de la modélisation :

Utiliser la collectivité pour mieux servir l'individu....

(19)

Théorie de l'Estimation, Polynômes de Szegö

Bénédicte Dujardin Observatoire de la Côte d'Azur

dujardin@obs-nice.fr

Dans les problèmes de modélisation de signaux aléatoires stationnaires par des processus linéaires, on est amené à employer diérents polynômes, tels que les polynômes caractéristiques des systèmes auto-régressifs ou les polynômes or- thogonaux de Szegö. Ces deux approches sont en fait équivalentes, et trouvent une interprétation en terme de dénominateurs d'approximants rationnels de la densité spectrale de puissance du signal.

Dans le cas des polynômes de Szegö associés à des signaux aléatoires, on s'intéressera à la densité de probabilité des racines, dont certains pics permettent, éventuellement de façon asymptotique, d'accéder aux résonances du signal. On illustrera cette propriété sur des signaux générés par des systèmes ARMA.

(20)

Comment modéliser un procédé biochimiques en se servant du métabolisme cellulaire ?

A. Provost Cesame, Université catholique de Louvain, ay. G. Lemaitre 4, B1348 Louvain-La-Neuve, Belgium

Email : provost@auto.ucl.ac.be Abstract

Le présent document traite de l'identication d'un modèle mathématique pour des bioprocédés dans le cas de gure où seules des données d'espèces extra-cellulaires sont connues. Le but est d'investiguer cette question d'un point de vue métabolique. C'est pourquoi on suppose qu'on dispose d'un réseau métabolique. Notre exemple de travail est celui des cellules CHO cultivées en batch dans des acons agités. Le métabolisme des cellules CHO est généralement représenté dans la littérature par le réseau métabolique décrit dans la gure 1. Les espèces extra-cellulaires mesurées sont le glucose et la glutamine ainsi que les trois métabolites les plus largement produits : lactate, NH4, alanine.

Fig. 1 - Réseau métabolique pour les cellules CHO.

Dans les modèles macroscopiques classiques, le comportement intracellulaire est ignoré, les cellules sont vues comme des catalyseurs convertissant les substrats en produits. Cette conversion est traduite par un ensemble de macro- réactions chimiques qui relient directement les substrats aux produits extra-cellulaires. Un modèle est alors établi sur base de ces macro-réactions en identiant, sur base des données, des cinétiques de réaction appropriées.

Une autre façon de procéder serait de se livrer à une modélisation complète. Ce qui signie que nous pourrions tenter de trouver un modèle global qui décrit le réseau métabolique complet en assignant une cinétique à chaque réaction intra-cellulaire. Une telle approche, bien que envisageable, est en un certain sens mal posé parce que les cinétiques intra-cellulaires sont en général structurellement non-identiables sans mesures intra-cellulaires.

(21)

Une nouvelle tendance dans la modélisation mathématique est apparue ces dernières années. Celle-ci met l'accent sur l'analyse des ux métabolique qui s'attache à calculer les ux intra-cellulaires à partir des mesures extra-cellulaires en se basant sur la matrice de stoechiométrie du réseau métabolique censé régir le système.

Nous allons suivre une approche macroscopique en nous basant sur des macro-réactions mais où celles-ci obte- nues grâce à l'analyse du réseau métabolique sous-jacent. Cette approche sera validée par une analyse des ux métaboliques.

La démarche se déroule en trois étapes. Dans un premier temps nous eectuons une analyse des ux métaboliques pour vérier la validité du réseau métabolique proposé par rapport aux données expérimentales fournies. Ensuite, nous procédons à une analyse de la structure du réseau. Pour cela, nous utilisons des outils d'analyse convexe. Ce qui nous mène à la notion de vecteur élémentaire de ux qui représente un chemin dans le réseau. Les vecteurs élémentaires de ux sont des chemins indépendants au sens de l'analyse convexe. Ils sont établis grâce à un algorithme basé sur cette même théorie. Cette constatation nous permet de déduire de ces vecteurs élémentaires de ux, un ensemble de macro-réactions reliant les substrats aux produits.

Enn, un modèle dynamique classique est établi sur base de ces macro-réactions où G, Q, L, N, A et X représentent respectivement les concentrations de glucose, glutamine, lactate, ammoniaque, alanine et la biomasse :

dG(t) dt =a1

GX kG1+Ga2

GX kG2+Ga6

GQX

(kG6+G) (kQ6+Q)a7

GQX (kG7+G) (kQ7+Q) dQ(t)

dt =a3 QX

kQ3+Qa4 QX

kQ4+Qa5 QX kQ5+Q

3a6 GQX

(kG6+G) (kQ6+Q)2a7 GQX (kG7+G) (kQ7+Q) dL(t)

dt =2a1

GX kG1+G+a4

QX kQ4+Q dN(t)

dt =a3

QX

kQ3+Q+ 2a4

QX

kQ4+Q+ 2a5

QX kQ5+Q

+a6

GQX

(kG6+G) (kQ6+Q)+a7

GQX (kG7+G) (kQ7+Q) dA(t)

dt =a3 QX kQ3+Q

Les paramètres utilisés sont les suivants :

a0 a02 a03 a04 a05 a06 a07 3.5956 0.1736 0.2686 0.2038 0 0.1427 0.1427

Un exemple de simulation est présenté à la gure 2.

Une conséquence intéressante est que cette méthode permet de prédire l'évolution de produits naux qui ne sont pourtant pas mesurés.

Ce genre de modèle permet notamment de déterminer comment altérer l'environnement des cellules pour faire du contrôle robuste et maintenir des conditions de culture optimale.

(22)

FIG. 2 Données expérimentales (.) and résultats de simulation (-).

(23)

Un modèle pour les interactions récepteur-ligand

Madalena Chaves

Aventis, Bridgewater and Rutgers University

L'étude des interactions des récepteurs membranaires d'une cellule et ses ligands est trés importante pour la recherche et développement de nouveaux médicaments (essentiallement, un médicament est un ligand spécique pour un certain récepteur, et qui produit un eect souhaité). Lorsque un ligand se xe sur un récepteur, celui-ci peut être activé et déclencher le processus de transduction d'un signal à l'intérieur de la cellule ; ou le ligand peut bloquer le récepteur, sans l'activer, et aucun signal n'est transduit. Dans le premier cas, le ligand est un agoniste, et dans le second cas le ligand est un antagoniste. Dans un troiséme cas, pour les récepteurs qui possèdent une activité constitutive, la xation du ligand peut bloquer aussi cette activité, et alors le ligand est nommé de agoniste inverse.

Experimentalement, l'agonisme du ligand peut être déterminé par les rela- tions "dose-eect" : pour chaque concentration (dose) de ligand, l'activité des récepteurs est mesuré (eect). Cette courbe "dose-eect" est caractéristique du ligand, et elle détermine si le ligand est un agoniste, un antagoniste ou un agoniste inverse.

Nous étudions un modèle pour les interactions récepteur-ligand qui se base sur la théorie développé par Horn & Jackson et par Feinberg, pour décrire la dynamique d'une classe de réactions biochimiques. Dans notre modèle, les récepteurs existent en plusieurs conformations (R1, R2, . . . , Rp) qui, après la xation du ligand (L), forment des diérentes complexes récepteur-ligand (C1, C2, . . . , Cp). Nous considérons les réactions de formation ou dissociation des complexes, L+Ri Ci, et les réactions d'échange entre les diérentes conformations,L+Ri L+Rj, Ci Cj. Ces réactions sont caractérisés par des constantes cinétiques et suivent la loi d'action de masse. L'évolution tem- porelle des concentrations des récepteurs, du ligand et des complexes récepteur- ligand est donné par un système d'équations diérentielles non-linéaires.

L'activité (ou l'eect) produit par la xation du ligand aux récepteurs est une combinaision linéaire des concentrations des Ri et des Ci. Cette activité reproduit la courbe dose-eect qui caractérise un ligand. De la comparaison entre l'activité de notre modèle et la courbe expérimentale nous pouvons ob- tenir la valeur de quelques paramètres cinétiques qui aident à caractériser les ligands pour un récepteur.

(24)

Modèles pour applications distribuées

Rabea Boulifa INRIA Sophia-Antipolis

Nous nous intéressons aux méthodes de preuve des propriétés comportementales d'applications Java distribuées dans lesquelles les objets sur des sites diérents co- opèrent par appels distants de méthodes. La bibliothèque ProActive fournit un moyen simple et ecace pour mettre en oeuvre cette coopération par dénition de primitives qui facilitent la programmation distribuée.

Nous présentons une méthode pour dénir des modèles comportementaux, com- positionnels, pour ces applications distribues, en nous restreignant au cas sans cration dynamique d'objets actifs. Nous montrons comment prouver que certaines approxi- mations nies du modle d'un objet actif représentent dèlement son comportement.

L'analyse des propriétés de l'application (recherche d'inter-blocage, preuves de pro- priétés de sûreté) peut alors tre conduite, sur ces modles nis compositionnels, en utili- sant des outils de vrication automatiques basés sur une sémantique comportementale par bisimulation. Ces analyses compositionnelles ne nécessitant pas de construire l'es- pace d'états global, sourent moins du problme d'explosion de l'espace d'tat que la plupart des approches du model-checking.

(25)

Dynamique des populations et Ondes progressives

Violaine Roussier-Michon 24 octobre 2003

Gérer les uctuations des stoks de pêche, prévoir la dynamique d'une épidémie, comprendre l'évolution d'un génotype au sein d'une espèce..., tels sont les enjeux de la dynamique des populations. La modélisation et la ré- solution de ces problèmes fait souvent appel aux mathématiques et plus particulièrement aux Equations aux Dérivées Partielles.

On se propose dans cet exposé d'expliquer la démarche initiée par Fisher [1] dans les années 1930 qui consiste à modéliser, grâce aux équations de réaction-diusion, l'évolution d'un gène dominant dans un groupe d'indivi- dus. Si on note u(x, t) la densité relative d'un gène au point x de l'espace et au temps t >0, alors û satisfait une équation d'évolution non-linéaire du type

tu= ∆u+F(u)

F(u) peut être un polynome de degré trois en u par exemple.

On montrera ensuite comment étudier qualitativement ces équations, no- tamment grâce au comportement asymptotique des solutions, c'est-à-dire le comportement de u(x, t) lorsque t tend vers +∞, et à la stabilité des ondes progressives. Ces ondes sont, sous certaines conditions, des solutions parti- culières de l'équation de réaction-diusion en dimension 1 d'espace. Elles se caractérisent par un prol indépendant du temps en translation uniforme et elles symbolisent un transport d'information. De plus, elles représentent souvent le comportement asymptotique en temps des solutions. En dimen- sion supérieure, une généralisation peut être faite grâce aux ondes planes et sphériques.

On s'attachera à présenter les diérents résultats de recherche dans ce domaine depuis 1930 jusqu'à aujourd'hui [2] et à les traduire en terme du problème biologique initial.

(26)

Bibliographie

[1] R.A FISHER, The advance of advantageous genes, Ann. of Eugenics, 1937, 7, 355-369

[2] V. ROUSSIER, Stability of radially symmetric travelling waves in reaction-diusion equations, Prépublication de l'Université Paris XI, 2002, à paraître dans les Annales de l'IHP, Analyse non linéaire

(27)

Description des techniques auto-adaptatives basées sur les estimations a posteriori

pour des approximations par volumes et éléments nis

Amal Bergam

Labo. SIANO, Département de Maths. & Informatique, BP 133, Kénitra Maroc De nombreuses contributions, motivées par de nombreuses et importantes applications, ont été apportées à l'analyse numérique des équations aux dérivées partielles. Cependant, l'ecacité des méthodes numériques proposées est souvent problèmatique. En particulier, la robustesse et même la convergence vers une solution physique acceptable sont souvent mises en défaut.

L'analyse a posteriori est devenue un outil indispensable pour un spectre large de calcul scientique, pour les équations aux dérivées partielles approchées par les méthodes des éléments nis et des volumes nis, puisqu'elle permet l'adapta- tion automatique du maillage à la solution. Elle permet, en eet, de construire des indicateurs d'erreur qui donnent une bonne représentation de l'erreur en chaque partie du domaine de calcul et par suite fournissent des critères de ra- nement ou déranement du maillage suivant la taille de l'erreur locale. Le but de cette communication sera d'exposer les techniques développées an d'exhiber des indicateurs d'erreur de types résiduels lors des approximations par la mé- thode des volumes nis dans le cas elliptique et celle des éléments nis dans le cas parabolique. Les exemples que nous allons présenter sont :

1) Equation elliptique non linéaire : (travail commun avec Z. Mghazli et R.

Verfürth [1])

Les indicateurs obtenus sont analogues à ceux obtenus dans le cas des éléments nis standard. En eet, ils mesurent le résidu de l'équation forte et l'irrégularité de la solution discrète, qui se traduit par des sauts à travers les inter-éléments.

2) Equation parabolique linéaire et non linéaire : (travail commun avec C.

Bernardi et Z. Mghazli [2] )

La discrétisation d'une équation de la chaleur fait souvent intervenir un pro- blème intermédiaire semi-discret en temps, construit par exemple par un schéma d'Euler implicite. Le nouveau paramètre de discrétisation est le pas de temps local et l'introduction de deux types d'indicateurs d'erreur permet d'optimiser le choix de ces pas de temps tout en adaptant le maillage chaque instant.

Bibliographie

[1] A. Bergam, Z. Mghazli et R. Verfürth Estimations a posteriori d'un schéma de volumes nis pour un problème non linéaire Numerische Mathematik 95 (2003) , pp. 599 - 624.

[2] A. Bergam, C. Bernardi ; Z. Mghazli, A posteriori analysis of the nite ele- ment discretization of a nonlinear parabolic equation, soumis pour publica- tion.

(28)

Filtrage interférométrique par diusion anisotrope et détection des sauts de phases par contours actifs

Caroline LACOMBE

Université de Nice, Laboratoire J-A. Dieudonné, UMR C.N.R.S. 6621

Parmi les nombreuses applications de l'imagerie satellitaire, l'interférométrie réalisée à partir de radar à synthèse d'ouverture (RSO) a suscité un intérêt croissant ces dernières années, notamment pour faire des mesures topographiques. Ce processus utilise la diérence de phases entre deux images RSO de la même scène, obtenues avec deux angles de vue très proches, pour estimer la hauteur du terrain. Le produit inter- férométrique fournit une image de cohérence et une image de phase, appelée interférogramme, qui contient seulement des informations liées à la topographie. L'interférogramme est formé de franges représentant la phase repliée, notéeφm, et mesurée modulo . L'intensité en chaque pixel représente donc la valeur princi- pale de la phase déroulée. Pour reconstruire la géométrie en chaque point de l'image, il faut donc retrouver la phaseφ. C'est l'étape du déroulement de phase, qui consiste à estimer le nombre de cyclesk(x, y)Zen chaque point(x, y)de l'image, tel que :

φ(x, y) =φm(x, y) + 2k(x, y)π, φm(x, y)[π, π[

Peu de mathématiciens se sont intéressés au domaine de l'interférométrie radar satellitaire. C'est cette consta- tation qui a motivé notre recherche. Nous voulons modéliser par des méthodes variationnelles le déroulement de franges interférométriques pour une ultérieure reconstruction tridimensionnelle du terrain observé.

Une des dicultés de l'étape de déroulement provient du haut niveau de bruit introduit dans la phase enroulée, ce qui induit des erreurs dans la mesure de la hauteur. C'est pour cela que nous ltrons les images interférométriques avant de les dérouler.

Plusieurs ltres ont été proposés ces dernières années, néanmoins ils ne sont pas adaptés aux varia- tions locales du bruit. Parmi les méthodes de ltrage, nous nous intéressons particulièrement au ltre adaptatif au bruit proposé par J.S. Lee et al. qui essaie de préserver les gradients de phase et réduit le bruit de phase en fonction de la cohérence.

Nous proposons une solution au traitement du bruit par la prise en compte de l'information issue du produit interférométrique, formé de l'image de cohérence elle-même bruitéeρ0et de l'interférogramme φm pour développer en deux étapes un modèle variationnel permettant d'adapter un processus de restauration anisitrope aux images interférométriques.

- La 1èreétape commence par ltrer l'image de cohérenceρ0 en utilisant les équations de Perona- Malik.

- La 2ndeétape ltre l'interférogramme en tenant compte de la structure des franges et du modèle de bruit spécique à ce type d'images. Il est proposé une équation parabolique mettant en jeu un tenseur de diusion D(.) que nous adaptons à ce type d'image de façon à ne permettre un lissage uniquement dans la direction des franges.

Nous présenterons des résultats numériques sur des images réelles qui illustreront l'ecacité de cette approche, et nous montrons que notre modèle formalise les précédents travaux concernant le ltrage interférométrique.

Nous avons proposé une méthode variationnelle pour le déroulement 1D, et nous avons constaté que la connaissance de l'emplacement des discontinuités apparait comme étant la clé du déroulement de phase. Dans le cas réel, ces discontinuités deviennent des courbes. L'objectif est donc de segmenter l'interférogramme ltré (obtenu précédemment) c'est-à-dire déterminer les contours correspondant aux bords des franges.

Nous utilisons une formulation par ensembles de niveaux permettant de faire évoluer les contours actifs tout en gérant les changements de topologie des courbes. Rappelons que la prise en compte de la structure très particulière des images interférométriques est importante. Nous dénissons alors un nouveau descripteur de contours,Dc, dont la particularité est de prendre en compte les variations locales des orientions du gradient. Il s'ensuit une nouvelle fonction d'arrêt notéeG(Dc). Puis nous proposons un modèle de détection de contours s'inspirant des EDP classiques des contours actifs en incorporant les informations obtenues via le tenseur de structure introduit par Weickert. Nous présenterons des résultats sur des images synthétiques et sur des images réelles.

(29)

Réglage automatique d'appareil auditif à l'aide des algorithmes évolutionnaires

Claire Bourgeois-République

LERSIA - Université de Bourgogne - 9 avenue A. Savary, B.P. 47870 - 21078 Dijon Cedex mail : bourgeois.republique@free.fr

L'implant cochléaire (IC) constitue une solution thérapeutique ecace chez les personnes atteintes de surdité profonde ou totale et qui ne tirent aucun bé- néce de prothèses auditives conventionnelles. Il permet de rétablir une forme d'audition qui améliore les capacités de communication. Son ecacité dépend d'une interaction entre de nombreux paramètres parmi lesquels le réglage de l'implant cochléaire. L'objectif des réglages est d'optimiser l'information dé- livrée par l'implant par rapport aux capacités électrophysiologiques des voies auditives du patient. Il s'agit de privilégier les éléments pertinents contenus dans la parole, de manière à permettre une meilleure reconnaissance de celle- ci. Il est très dicile pour le praticien de trouver un réglage optimal du fait de la disparité des patients, de la diculté qu'éprouvent les patients à inter- prèter leurs sensations mais aussi du fait qu'il y a plus d'une cinquantaine de paramètres pris en compte lors du réglage

L'objectif de mes travaux de recherche est de proposer un logiciel infor- matique interactif capable d'assister le praticien et le patient dans la phase de paramétrage de l'IC. Le réglage de l'IC est appréhendé comme un pro- blème d'optimisation, nous utilisons les algorithmes évolutionnaires et nous intégrons les connaissances d'un expert pour proposer un réglage au patient.

An de rendre le patient le plus autonome possible dans le réglage de son IC et pour qu'il puisse procéder aux réglages dans son environnement quotidien, une interface graphique a été développée sur un Personal Data Assistant (PDA) intégrant les fonctionnalités des réseaux sans l.

Notre méthode permet d'explorer plus largement l'espace de recherche, de proposer des réglages que le praticien n'aurait jamais soumis, un gain de temps important et l'autonomie du patient

Bibliographie

C. Bourgeois République, P. Collet Automatic Fitting of Cochlear Implants with Evolutionary Algorithms ACM Symposium on Applied Computing SAC 2004.

(30)

Modelling Trac Flows on a Single Link System

Anjali Awasthi, Michel Parent, Jean-Marie Proth

Recent developments in the area of transportation have given birth to Advanced Traveller Information Systems (ATIS) that provide historical, real time and predictive information to support travel decisions. Travellers seeking to travel from their current locations to specied destinations require best routings that minimize the travel times. The best route for any trip relies to a great extent on the accurate prediction of trip travel times.

Prediction of accurate travel time plays an essential role in determining the best route for any trip. The varying input ows arriving at the entrances of the system combined with the capacity constraints of the links lead to continuously changing system states and therefore dynamic travel times on the network. To study the network dynamics under piecewise constant ows, we begin with a single link system and study the evolution of stepwise constant ows inside the single link. We propose the main relations that characterize the dynamics of this single lane system and show how the travelling time of a car is aected by the history of the system. The two parameters used to describe the history of the system are the initial system state of the link and the piecewise constant input ows arriving at the entrance of the link The analysis of the behaviour of the system is done to derive the travel time from the characteristics of the link, the input ow and the constraints on the output ow.

(31)

Phase Topologique Pour Etats Intriqués à Deux Qubits

Pérola Milman

1

et Rémy Mosseri

2

1Laboratoire Kastler Brossel, Département de Physique de l'Ecole Normale Supérieure et Collège de France

2Groupe de Physique des Solides, Universités Pierre et Marie Curie Paris 6 et Denis Diderot Paris 7

Les états intriqués jouent un rôle fondamental en information quantique. Leurs pos- sibles applications vont des tests fondamentaux de la mécanique quantique aux protocoles de distribution de clefs cryptographiques et de téléportation.

Les états à deux qubits sont les systèmes les plus simples capables de présenter de l'intrication. On montre dans ce travail que des états maximalement intriques à deux qubits peuvent être utilisés pour illustrer sans ambiguïté la double connexion du groupe de rotations SO(3). Il est connu que, pour un qubit, les rotations de2πet de4πdièrent d'une phase globale de π acquise par l'état du qubit [1]. L'origine de cette phase (dynamique, géométrique...) reste ambigu lorsqu'on se restreint aux systèmes à un qubit.

Dans ce travail, on utilise la correspondance biunivoque entre les états maximalement intriqués (EMI) à deux qubits et le groupe de rotation SO(3) [2] pour caractériser sans ambiguïté l'origine topologique de cette diérence de phase. Pour cela, des trajectoires cycliques d'EMI sont étudiées. On montre que la situation où il y a un gain de phase de π correspond aux trajectoires cycliques d'un EMI qui traversent l'espace des états ortho- gonaux à l'état initial. Si les trajectoires cycliques ne croisent pas cet espace, on retrouve la situation où il n'y a pas de gain de phase. Les résultats sont illustrés à l'aide d'une expérience proposée utilisant la manipulation de photons jumeaux dans un interféromètre de Mach-Zender [3].

Bibliographie

[1] J. J. Sakurai, Modern Quantum Mechanics, Addison-Wesley (1994).

[2] R. Mosseri et R. Dandolo, J. Phys. A : Math. Gem 34, 10243 (2001).

[3] P. Milman et R. Mosseri, à paraître en Phys. Rev. Lett. (2003).

(32)

La structure articulatoire d'un graphe

Anne Berry

LIMOS, Campus Scientique des Cézeaux, BP 10125, 63 173 Aubière Cedex. Page web : http ://www.isima.fr/berry/index.html

Les graphes non-orientés sont utilisés depuis les années 1950 (et même depuis Euler) pour modéliser toutes sortes de problèmes. Un graphe est constitué d'un ensemble de points (appelés des sommets) et de liens entre ces sommets (appelés des arêtes).

Nous nous intéressons à un aspect particulier des graphes, qui sont leurs ensembles d'articulation (appelés également des séparateurs minimaux). Dans un arbre, un point d'articulation est un noeud interne : son retrait dénit plusieurs sous-arbres. Ces noeuds sont bien nommés, ils constituent l'articulation du graphe et reètent sa structure.

La notion d'articulation s'étend à un graphe quelconque, mais on est amené à retirer un ensemble de sommets (le séparateur minimal) dont le retrait dénit plusieurs sous- graphes.

Le séparateur minimal a été introduit en 1961 par Dirac pour caractériser un classe de graphes très proche des arbres : la classe des graphes triangulés. Ce n'est que depuis une dizaine d'années que cet outil est utilisé sue un graphe quelconque, essentiellement dans le but de se ramener à un graphe triangulé en ajoutant des arêtes au graphe (un procédé appelé triangulation).

J'ai commencé par examiner les aspects liés à la triangulation, avec en particulier des applications à l'amélioration des données biologiques (phylogénétiques).

J'ai ensuite montré que l'utilité des séparateurs minimaux était loin d'être restreinte aux problèmes de triangulation. Ils constituent par exemple un outil puissant qui consiste à recopier un séparateur dans les diérents sous-graphes qu'il dénit : cette décomposition respecte la structure articulatoire du graphe, puisque tout séparateur minimal d'un des sous-graphes ainsi obtenus était déjà un séparateur minimal du graphe de départ. Nous explorons l'intérêt de cette décomposition sur des données issues du text mining et de la bio-informatique.

La notion de séparateur permet aussi de dénir de façon très mathématique l'extrémité d'un graphe quelconque, de la même façon qu'une feuille est l'extrémité d'un arbre. Le séparateur nous a aussi permis de dénir des algorithmes très ecaces pour reconnaître plusieurs classes de graphes, comme les graphes faiblement triangulés et les graphes de sonde triangulés.

Finalement, nous utilisons actuellement le séparateur minimal pour explorer les treillis des concepts (treillis de Galois) : ces treillis sont des ensembles ordonnés qui permettent de structurer l'ensemble des motifs que l'on trouve par l'exploration combinatoire des bases de données binaires ; ils sont très étudiés en ce moment dans le cadre du 'data mining', qui vise à exploiter les grosses bases de données.

(33)

Calcul distribué à grande échelle : un avenir prometteur dans tous les domaines scientiques

Hélène Renard

LIP, UMR CNRS-INRIA-UCBL 5668,

École normale supérieure de Lyon, France

Helene.Renard@ens-lyon.fr

Rechercher les plus grands nombres premiers, le signal d'une vie dans la voie lactée, ou bien encore trouver la structure spatiale des protéines sont autant d'applications qui demandent une puissance de calcul importante. Cette façon de combiner la puissance d'un nombre important de calculateurs pour résoudre un problème donné s'appelle, en terme informatique, le calcul distribué .

Le but du calcul distribué est de répartir le travail entre plusieurs ordina- teurs an de réaliser rapidement des calculs complexes qui prendraient plusieurs mois voire plusieurs années sur une seule machine. Cette idée de parallélisation des calculs provient principalement du milieu de la recherche scientique où les besoins en puissance de calcul et en traitement de données ont augmenté considé- rablement. De plus, le prix des supercalculateurs est bien souvent inabordable pour de nombreuses entreprises et laboratoires. La solution en théorie serait d'utiliser toutes les ressources informatiques disponibles dans ces entreprises ou laboratoires puisqu'une étude réalisée par Dataquest1 a montré que seule- ment 5 à 20% des ressources totales étaient utilisées. Certains projets, tels que Globus2et Seti@home3 , mettent en pratique le principe d'utilisation de plusieurs milliers de ressources an d'augmenter la puissance de calcul.

C'est pourquoi, au cours de ma première année de thèse sous la direction d'Yves Robert et Frédéric Vivien, je me suis intéressée au placement et équili- brage de charge sur grappes hétérogènes . Le but de notre travail est de répartir des données sur un groupe d'ordinateurs reliés entre eux en tenant compte de la vitesse de calcul de chacun et de la capacité des liens de communication entre ces ordinateurs. Tout ceci dans le but de minimiser le temps total de traitement de nos données.

Nous avons donc mis l'accent sur une modélisation réaliste des communica- tions concurrentes à l'intérieur d'un groupe d'ordinateurs. Mais ce problème a été dicile à résoudre à cause de l'hétérogénéité des vitesses de calcul de chaque ordinateur ainsi que des diérentes capacités des liens de communication entre ces ordinateurs. Nous avons cependant trouvé une méthode ecace permettant d'équilibrer au mieux les données sur l'ensemble des ordinateurs an de minimi- ser leur temps de traitement. Cela constitue donc une alternative prometteuse à l'usage de super-ordinateurs onéreux.

1. Les entreprises américaines commencent à s'intéresser au grid , Michel Ktita- re, Les Echos, 04/09/2002

2. http ://wa.globus.org/

3. http ://setiathome.ssl.berkeley.edu

(34)

Représentations Algébriques et Constructions Graphiques de Codes Quasi-Cycliques

Anne Desideri Bracco

Laboratoire I3S, UNSA, BP 145 , 06903 Sophia Antipolis

Au sein des codes correcteurs d'erreurs et de la Théorie de l'Information, les codes quasi-cycliques sont de plus en plus étudiés. Ce sont des codes de longueur nie qui géné- ralisent les codes cycliques mais qui approchent également les codes de longueur innie que sont les codes convolutifs. Les codes quasi-cycliques possèdent de plus d'excellents paramètres, c'est-à-dire qu'ils ont une grande capacité de correction.

Nous présenterons deux approches algébriques diérentes pour ces codes : l'approche constructive proposée par Ling San et Patrick Solé dans [4] et l'approche cyclique pré- sentée par Kristine Lally dans [3]. Les treillis sont des graphes qui permettent de repré- senter les codes correcteurs d'erreurs [2,5], dans le but de les décoder avec l'algorithme de Viterbi. Il existe deux types de treillis : les treillis conventionnels et les treillis cy- cliques. Nous associerons à chacun de ces types de treillis une ,construction graphique de codes quasi-cycliques qui rejoindra l'une des deux approches algébriques présentées précédemment.

Pour les treillis conventionnels, la construction graphique est une généralisation de la construction poposée par G.D. Forney dans [1]. Elle rejoint l'approche de S. Ling et P. Solé sous certaines conditions. Les treillis cycliques sont associés à la représentation cyclique de K. Lally. Ces treillis permettent de représenter les codes avec moins de sommets que les treillis conventionnels. La connaissance de la structure algébrique des codes quasi-cycliques aura permis leurs constructions graphiques.

Bibliographie

[1] G.D. Forney Coset Codes - Part II : Binary lattices and Related Codes , IEEE- IT, 1988,34, 1152-1187

[2] R. Koetter and A. Vardy The Structure of Tail-Biting Trellises : Minimallity and Basic Principles , IEEE-IT, Sept 2003

[3] K. Lally Quasi-Cyclic Codes of Index ell over Fq Viewed as Fq-Submodules of Fqell/xm1 , AAECC-15, May 2003

[4] S. Ling and P. Solé On the Algebraic Structure of Quasi-Cyclic Codes I : Finite Fields , IEEE-IT, vol 47, 2001

[5] A. Vardy Trellis Structure of Codes , chapter 24, Handbook of Coding Theory, 1988

Références

Documents relatifs

sp., of Phlebotomus longi- palpis, remarks on the accessory glands cf.. Trop Sâo

Cette phase consiste à comparer successivement les segments qui restent de la phase précédente (segment d’un seul mot, de deux mots, ou de trois mots) avec tous les termes

Cette phase consiste à comparer successivement les segments qui restent de la phase précédente (segment d’un seul mot, de deux mots, ou de trois mots) avec tous les termes

Merci à tous ceux qui ont accepté de présenter leurs opinions et de susciter la poursuite des débats qui doivent, avant tout, permettre une prise en charge et une qualité de

◊ remarque : ceci signifie que, dans ce cas (avec une proportion volumique initiale de liquide relative- ment faible), lʼélévation de température à volume constant a favorisé

Les notions d’enthalpie et de capacités thermiques isobares permettent l’analyse et l’utilisation des mesures ainsi réalisées ce qui conduit à la détermination des

Par exemple, nous combinons également les informations issues du traitement automatique de la langue comme les relations spatiales décrivant une orientation (ex : se diriger vers

C'est la création d'un tel dispositif, les TPE (Travaux personnels encadrés) dans la réforme du lycée des années 2000 en France qui a été ainsi à l'origine de la création