• Aucun résultat trouvé

Article pp.7-10 du Vol.29 n°1 (2010)

N/A
N/A
Protected

Academic year: 2022

Partager "Article pp.7-10 du Vol.29 n°1 (2010)"

Copied!
4
0
0

Texte intégral

(1)

É DITORIAL

Le début de l’année est propice à la remise de prix distinguant les meilleurs travaux de thèse. SPECIF, la Société des personnels enseignants et chercheurs en informatique de France, et l’ASTI, Fédération des associations françaises des sciences et technologies de l’information, ont ainsi décerné récemment leurs prix1, distinguant des travaux remarquables dans le domaine des STIC.

C’est lors de la précédente remise du prix ASTI, au début 2008, qu’a émergé l’idée d’organiser un numéro spécial de TSI autour des thèses primées. Ce numéro réunit des articles présentant les travaux de :

– Caroline Appert (premier prix SPECIF en 2007)2,

– Mohamed Selim BenHimane (premier prix ASTI dans la catégorie Recherche Appliquée Innovante en 2007)3,

– François Dang Ngoc (accessit ASTI 2007 dans la catégorie Recherche Appliquée Innovante)4,

– Cédric Pralet (premier prix ASTI 2007 dans la catégorie Recherche Fondamentale et Transversale)5,

– Damien Stehlé (accessit ASTI 2007 dans la catégorie Recherche Fondamentale et Transversale)6.

Nous félicitons très chaleureusement les finalistes et nous vous invitons à lire leur thèse. Les membres de leur jury de thèse et le jury de l’ASTI ou de SPECIF ont

1. Voir http://specif.org/prix-these/historique.html et http://www.asti.asso.fr/prix_these_2009 2. Pour sa thèse intitulée « Modélisation, valuation et Génération de Techniques d’Interaction », effectuée à l’Université Paris-Sud Orsay (LRI) sous la direction de Michel Beaudouin-Lafon.

3. Pour son travail intitulé « Vers une approche unifiée pour le suivi temps réel et l’asservissement visuel » effectué sous la direction de Patrick Rives à l’Ecole des Mines (CMA).

4. Pour sa thèse intitulée « Sécurisation du contrôle d’accès pour des documents XML », effectuée à l’UVSQ (PRISM) sous la direction de Philippe Pucheral et Luc Bouganim.

5. Pour son travail intitulé « Un cadre algébrique général pour représenter et résoudre des problèmes de décision séquentielle avec incertitudes, faisabilités et utilités » effectué sous la direction de Thomas Schiex et Gérard Verfaillie à l’ONERA Toulouse.

6. Pour sa thèse intitulée « Algorithmique de la réduction de réseaux et application à la recherche de pires cas pour l’arrondi de fonctions mathématiques », effectuée au LORIA sous la direction de Paul Zimmermann.

Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur tsi.revuesonline.com

(2)

8 RSTI - TSI. Volume 29 – n° 1/2010

à chaque fois souligné la pédagogie, la clarté, la rigueur et l’esprit de synthèse des manuscrits. Que cela ne vous empêche pas de commencer par lire les articles de ce numéro qui vous donneront un avant-goût de ces travaux de recherche à la pointe de leur domaine.

Le prix Specif a été créé en 1998 pour récompenser chaque année une excellente thèse en informatique. Gilles Kahn a présidé les trois premiers jurys du prix, étant convaincu de l’intérêt de promouvoir les jeunes talents les plus prometteurs de notre discipline. En son honneur, le prix a pris depuis 2007 le nom de Prix de thèse Gilles Kahn et est patronné par l’Académie des Sciences qui rend ainsi hommage à un de ses membres éminents.

L’ASTI décerne tous les deux ans, un prix et deux accessit dans les deux catégories « Recherche Fondamentale et Transversale » et « Recherche Appliquée Innovante ». Le domaine visé est plus large que l’informatique proprement dite en incluant le traitement du signal et de l’image, ainsi que l’automatique, afin de couvrir tout le domaine des STIC.

D’autres prix existent bien sûr, comme ceux décernés par les GDR, comme le GDR MAC7, la fondation EADS8, les sociétés savantes et professionnelles comme le club EEA9, ou l’AFRIF10, etc.

Ces prix ont pour objectifs de motiver et dynamiser les jeunes chercheurs de notre discipline. Ils visent aussi à faire connaître à l’ensemble de la communauté STIC d’excellents travaux de recherche et par-delà cette communauté, à promouvoir toutes les facettes des l’informatique et des STIC, des travaux fondamentaux jusqu’aux applications innovantes.

Cet objectif est nécessaire. L’année 2008 a montré que la place de l’informatique et plus généralement des STIC n’était pas encore évidente dans le paysage français.

Et les liens fondamentaux qui relient et tissent solidement tous les domaines des STIC, de l’informatique au traitement du signal et de l’image, des mathématiques discrètes à la théorie du contrôle, ne semblent pas évidents à tous. Pourtant, il suffit de parcourir le vaste spectre des thèses présentées à ces prix pour se rendre compte de toute la nécessité et la fertilité de ces liens organiques. Il me semble important de le souligner au moment où les dispositifs français de recherche évoluent profondément. La présence des informaticiens à l’Académie des Sciences, la chaire au Collèges de France11, l’avancement des projets de programme informatique au

7. http://www.univ-valenciennes.fr/GDR-MACS/prix_theses_rfjcap.php 8. http://www.fondation.eads.net/fr/prix-meilleure-these

9. http://www.clubeea.org/

10. http://service.afrif.asso.fr/prix-these/

11. http://www.college-de-france.fr/default/EN/all/cha_inf/

Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur tsi.revuesonline.com

(3)

Editorial 9

lycée12... sont des signes encourageants de la reconnaissance de nos disciplines, mais ils ne doivent pas nous empêcher d’être vigilents.

La plupart des logiciels intègrent aujourd’hui des interfaces hommes-machines (IHM) qui sont, très souvent, stéréotypées : menus, fenêtres, boutons.

L’amélioration de ces interfaces, et plus généralement la conception de nouvelles techniques d’interactions spécifiques et efficaces, est un enjeu très important qui doit s’appuyer sur des évaluations solides. Caroline Appert a renouvelé l’évaluation des IHM à partir de méthodes utilisées en psychologie expérimentale qui mesurent les réponses de l’être humain à des stimuli dans son environnement physique afin d’augmenter ou d’exploiter au mieux les performances sensori-motrices de l’être humain. La méthodologie d’évaluation qu’elle a proposée repose sur deux outils, le modèle CIS (Complexity of Interaction Sequences) et la plateforme TouchStone. Ces outils ont pour objectif de permettre aux développeurs d’interfaces graphiques l’exploration de l’espace de conception des interactions innovantes et de faire des choix en étant informé des gains de performances.

Intitulé « Vers une approche unifiée pour le suivi temps réel et l’asservissement visuel », le travail de thèse de Mohamed Selim BenHimane se situe dans le domaine de la commande référencée vision. Les méthodes classiques utilisent des techniques de vision et de commande qui ont été conçues séparément, avec pour conséquence une intégration « vision-commande » peu performante, peu flexible et source d’erreurs. C’est une problématique scientifique qui suscite de nombreux travaux du fait de l’importance des retombées potentielles (conduite automatique, observation et surveillance par des robots aériens, robotique médicale...). Le travail de M. S. BenHimane se distingue par la volonté d’intégrer dans une approche unifiée les techniques de la vision par ordinateur (géométrie projective, suivi visuel temps réel) et la théorie de la commande (asservissement visuel). Son approche originale lui a permis de lever une restriction importante des méthodes classiques, à savoir la connaissance sur la structure 3D de la scène. C’est sur cette méthode d’asservissement visuel stable qui ne nécessite aucune mesure 3D de la cible observée que l’article présenté ici se focalise.

François Dang Ngoc propose une vision très complète et très cohérente d’un problème difficile dans un contexte technologique récent, particulièrement mouvant : la sécurisation du contrôle d’accès pour des documents XML. La prise en compte fine des besoins en sécurité amène à migrer le contrôle d’accès des serveurs au client. Les schémas de chiffrement proposés jusqu’alors intégraient les politiques d’accès et obligeaient à un partage statique des données. L’auteur propose une solution élégante qui, en s’appuyant sur les nouveaux éléments de confiance présents dans les terminaux clients, permet les schémas dynamiques de contrôle d’accès tout en rendant possible un traitement en flux des données d’un document XML chiffré. Outre le domaine d’origine, les notions présentées s’adaptent aussi à

12. http://www.epi.asso.fr/

Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur tsi.revuesonline.com

(4)

10 RSTI - TSI. Volume 29 – n° 1/2010

de très nombreux domaines d’application : SCA, assemblage de composants et/ou de services, etc. L’approche a été validée par des résultats expérimentaux excellents qui permettent de limiter le surcoût du contrôle d’accès à moins de 20 % du coût total.

La thèse de Cédric Pralet est intitulée « Un cadre algébrique général pour représenter et résoudre des problèmes de décision séquentielle avec incertitudes, faisabilités et utilités ». Elle impressionne d’emblée par son ambition : il s’agit en effet de trouver un cadre général pour aborder de manière unifiée la problématique de la décision séquentielle, par-delà les finalités (modélisation du raisonnement, satisfaction de contraintes, décision, planification...), les formalismes (logique, numérique, graphique) ou les algorithmes (programmation dynamique, recherche arborescente). Au fil de son travail, Cédric Pralet a abordé des domaines très variés (décision stochastique, satisfaction de contraintes, planification, formules booléennes quantifiées, physique statistique...). S’attachant à comprendre profondément des sujets réputés distincts, il s’est efforcé de construire une vision qui les relie. Pour autant, le travail ne se cantonne pas dans une approche purement théorique : au contraire les conséquences et les prolongements en termes d’algorithmes et de structures de calcul sont soigneusement étudiés. Cet article, écrit avec ses principaux collaborateurs, propose ici une synthèse des travaux réalisés autour de ce cadre unificateur.

L’article de Damien Stehlé, co-écrit avec Ivan Morel et Gilles Villard, nous offre un remarquable panorama de la mise en œuvre efficace de la réduction LLL. Cet algorithme permet de trouver des bases « interessantes » à une grille de points régulièrement espacés dans un espace euclidien (réseaux euclidiens) spécifié par une base quelconque. Cet algorithme a de très nombreuses et très importantes applications, qui vont de la cryptanalyse aux télécommunications en passant par la résolution d’équations diophantiennes. C’est donc un outil général et toute amélioration de cette procédure a des impacts importants. Le travail de thèse de Damien Stehlé se situe aux frontières de l’algorithmique et des mathématiques mais ne reste pas que théorique : il est accompagné par la réalisation de trois logiciels, accessibles sous licence GPL. Le travail présenté ici se concentre sur l’utilisation de l’arithmétique des ordinateurs et de l’analyse numérique à l’intérieur des algorithmes de réduction de réseaux, ce à quoi Damien Stehlé a apporté la première réponse rigoureuse et efficace lors de sa thèse. L’article présente aussi les améliorations et les extensions apportées depuis.

Pour terminer, je profite de ce premier éditorial de l’année pour vous présenter, au nom de toute l’équipe éditoriale de TSI, nos meilleurs vœux pour la nouvelle année. Nous souhaitons qu’elle vous apporte les fruits de votre travail. Bonne année à tous et à ceux qui vous sont chers.

Jean-Louis GIAVITTO IBISC, CNRS et Université d’Evry

Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur tsi.revuesonline.com

Références

Documents relatifs

Construction de tests qualifiés de transformations de modèles, 537-569 Définition d’un agent conversationnel assistant d’applications internet à partir. d’un corpus de

[r]

Le deuxième article, « Diva, une architecture pour le support des agents gestuels interactifs sur internet », présente une architecture orientée web pour le support de la

Cette matière grasse homogénéisée peut être réin- troduite dans le lait de consommation pour en standardiser la teneur en lipides, ou dans du lait destiné à des

Les causes de variations de la qualité et quantité de la matière grasse laitière autres que celles liées à l’alimentation et à la génétique des animaux sont souvent

La structure des globules gras dans le lait homogénéisé doit donc avoir un impact sur la digestion de la matière grasse laitière et les effets spécifiques de

Si le mix de crèmes glacées peut être considéré comme un produit riche en énergie, bien que la nouvelle législation permette des taux de matière grasse plus faibles, la crème

Par rapport à la production de poudres de lait (écrémé ou enrichi en matière grasse) et concentrés protéiques laitiers, la transformation des lactosérums liquides en poudre