• Aucun résultat trouvé

Standards d’interopérabilité pour la simulation distribuée

Dans le document The DART-Europe E-theses Portal (Page 96-99)

Chapitre 2 : L’existant

III.4 Standards d’interopérabilité pour la simulation distribuée

Les environnements virtuels distribués sont nombreux. Un état de l’art de ces systèmes datant d’une dizaine d’années (Torguet 1998) en recense à l’époque plus d’une dizaine (RB2, VLNET, MASSIVE-2, etc.), ainsi que deux normes : VRML (Virtual Reality Modeling Language) qui permet la modélisation de mondes virtuels au sein d’internet et HLA (High Level Architecture) présenté plus bas. Parmi eux, DIS (Distributed Interactive Simulation) est un standard ouvert (IEEE 1278) pour la simulation distribuée de jeu de guerre en temps réel qui fait suite au projet SIMNET (SIMulation NETworking) présenté dans (Calvin, et al. 1993).

Au milieu des années 1980, la DARPA (Defense Advanced Research Projects Agency) du département américain de la défense crée le projet SIMNET dans lequel des objets autonomes interagissent entre eux par envoi d’événements. Dans SIMNET les objets ne transmettent que des informations sur leurs changements d’état pour limiter la transmission d’informations redondantes. Ce projet spécifie des concepts qui seront repris dans DIS, par exemple le processus de « Dead Reckoning » qui permet d’extrapoler l’état d’un objet en se basant sur l’historique de ses états antérieurs.

96

SIMNET présente différents inconvénients comme l’utilisation du « multicasting » lié aux réseaux de type Ethernet et des PDU (Protocol Data Unit) trop spécifiques.

DIS améliore ces aspects en se détachant du protocole réseau de bas niveau et en se basant sur un nombre de PDU plus élevé et des PDU plus génériques. Dans DIS, chaque entité est exécutée sur une station de travail par un logiciel nommé « joueur » qui est présumé honnête et ne triche pas sur les événements qu’il envoie. Sur chaque station, les autres objets de la simulation son générés par un processus appelé Fantôme basé sur un algorithme de « Dead Reckoning » mis à jour à chaque itération de la simulation. Il n’y a pas de base de données centrale. Chaque entité met à jour son environnement en se basant sur les PDU envoyés par les autres unités.

Les PDU de DIS représentent par exemple le tir d’une balle ou une détonation. Ce standard est donc limité à la spécification de simulations distribuées temps réel militaire. Cependant DIS a permis la naissance d’autres standards et notamment de HLA pour la simulation distribuée.

III.4.2 HLA

HLA (High Level Architecture) est une architecture pour la simulation distribuée normalisée par la norme IEEE 1516 « Standard for Modeling and Simulation: High Level Architecture - Framework and Rules ». HLA est présentée par le « U.S. Defense Modeling and Simulation Office » en 1995 (Miller 1996). Cette norme remédie à certaines lacunes de DIS. Elle permet par exemple le développement de simulations à évènements discrets en temps logique, et simplifie l’interopérabilité et la réutilisabilité des composants de simulations. Les aspects qui ont guidé la conception de HLA sont (Drira, Martelli et Villemur 2001) :

• Aucune unique simulation monolithique ne peut satisfaire les besoins de l’utilisateur.

• Toutes les utilisations d’une simulation et les manières intéressantes de la combiner avec d’autres ne peuvent être anticipées.

• Les capacités technologiques à venir et la variété de configurations opérationnelles doivent pouvoir être utilisables.

C’est de fait un candidat idéal pour distribuer des simulations à grande échelle. HLA met en œuvre des ensembles de simulations interopérables, qui sont appelées

97

fédérations, et des composants de simulation, appelés fédérés. La norme définit un ensemble de règles pour l’interopérabilité des simulations au sein d’une fédération. Ces règles spécifient les responsabilités des fédérations et du RTI (RunTime Infrastructure) au travers duquel les fédérés ne peuvent communiquer entre eux, comme illustré dans la Figure 23.

HLA définit d’autres aspects du développement de simulations distribuées comme le DDM (Data Distribution Managment) et l’OMT (Object Model Template) qui ne sont pas présentés ici. De plus, un processus de développement lui est associé : le FEDEP (Federation Development and Execution Process).

Figure Figure Figure

Figure 23232323 Extrait de Extrait de Extrait de (Petty 2002)Extrait de (Petty 2002)(Petty 2002)(Petty 2002) : Communication entre les Fédérés au travers du RTI dans HLA: Communication entre les Fédérés au travers du RTI dans HLA: Communication entre les Fédérés au travers du RTI dans HLA : Communication entre les Fédérés au travers du RTI dans HLA

Ces dernières années, des solutions ont été développées pour exécuter des simulations HLA sur grille. Certaines recherches concernent la migration des fédérés entres les différents éléments de calcul d’une grille globus (Zajac, Bubak, et al. 2003) (Cai, et al. 2005). D’autres visent à implémenter un RTI pour l’intergiciel de grille globus et notamment en se basant sur OGSA, l’architecture de service implémentée dans globus (Zajac, Tirado-Ramos, et al. 2004), (Xie, et al. 2005) ou (Zhang, et al. 2005) (Chen, et al.

2008).

Dans cette partie nous avons vu qu’il était possible de paralléliser une simulation déterministe afin de réduire son temps global d’exécution en utilisant la puissance d’environnements distribués comme des fermes ou des grilles de calcul. Cependant l’interdépendance des processus et la limitation en bande passante réseau ne permettent pas d’obtenir une réduction du temps global de simulation qui diminue

98

linéairement avec le nombre de processeurs utilisés sur des grilles calcul, comprenant plusieurs dizaines de milliers de processeurs et des bandes passantes réseau relativement faibles. Contrairement aux simulations déterministes, les simulations stochastiques sont naturellement adaptées à l’exploitation intensive d’environnements massivement distribués. C’est l’objet de la partie suivante.

IV Approche MRIP (Multiple Replication In Parallel)

Les simulations stochastiques présentent un aspect intrinsèque naturellement parallèle du fait que l’obtention des indicateurs statistiques requiert l’exécution de nombreuses expériences indépendantes. L’indépendance des expériences permet une exécution distribuée sans communication interprocessus, mais constitue cependant une contrainte forte qui doit être respectée pour obtenir des résultats de simulations valides.

MRIP (Multiple Replication In Parallel) est une approche de parallélisation consistant à exécuter en parallèle le même programme de simulation de façon indépendante en utilisant des flux de nombres pseudo-aléatoires de qualité et non-corrélées entre eux.

Cette partie présente tout d’abord les bibliothèques de tests statistiques actuellement disponibles pour détecter de manière empirique les faiblesses statistiques et les corrélations dans les séquences de nombres pseudo-aléatoires. Dans un deuxième temps, sont exposées les bibliothèques de génération de nombres pseudo-aléatoires parallèles. Enfin je fais état des environnements de distribution de simulations automatique selon l’approche MRIP.

IV.1 Test des générateurs de nombres pseudo-aléatoires

Dans le document The DART-Europe E-theses Portal (Page 96-99)