• Aucun résultat trouvé

Une série de tests a permis de définir les figuresIII.16,III.17, etIII.18.

Ceux-ci ont été réalisés avec un modèle de capteur radar (chapitreIV, p.105) utilisant une modulation

FMCW(section2.4, p.119) caractérisant une complexité moyenne dans la génération du signal.

Figure III.16 – Tests réalisés dont le temps de traitements est inférieur à 20 ms

Trois modes de résolution ont été mis en oeuvre, utilisant respectivement, une seule unité de calcul sur le microprocesseur central (mono-CPU), l’ensemble des unités de calcul du microprocesseur central (multi-CPU) ou les unités de calcul disponibles sur la carte graphique (mono-GPU). Chaque scenario consiste à générer un signal avec comme paramètres variables le nombre de composantes (axe des abscisses) et le nombre de trajets retournés par un canal de propagation (axe des ordonnées).

Les résultats sont présentés suivant un temps de fonctionnement inférieur à un seuil défini, 20ms correspondant à un temps de fonctionnement idéal au sens où il permet d’assurer un fonctionnement temps réel de la plateforme (à ces temps de traitements s’ajoutent les temps de traitements nécessaire au modèle de propagation d’onde durant une itération), 40ms correspondant au seuil symbolique du temps réel et 1s correspondant au temps maximum autorisé par itération sur une carte graphique.

Figure III.17 – Tests réalisés dont le temps de traitements est inférieur à 40 ms

Les graphiques de gauches correspondent aux résultats observés pour la plateforme fixe (ordinateur de bureau), les résultats présentés sur les figures de droites correspondent aux résultats obtenus sur la plateforme mobile (ordinateur portable) (voir p.51pour les caractéristiques).

Figure III.18 – Tests réalisés dont le temps de traitements est inférieur à 1 s

Les résultats apparaissent globalement cohérents avec les stratégies mises en oeuvres.

Plus le problème est réparti sur un ensemble d’unités de calcul, plus le domaine d’application du modèle, pour un seuil de temps de traitement fixé, se trouve étendu, par le nombre de composantes pouvant être prise en compte pour la génération du signal et/ou par le nombre de trajet retournés par le canal de propagation.

Si le gain de performances apparaît évident entre les méthodes mono-CPUet multi-CPUpour les deux plateformes, les résultats sont plus mitigés concernant le passage sur la carte graphique, en fonction du matériel installé.

Cependant, même si pour certaines configurations, le gain du à une résolution sur carte graphique ne semblent pas important au regard du traitement parallèle sur l’architecture centrale, cette utilisation de la carte graphique permet néanmoins de soulager le microprocesseur central et de pouvoir utiliser celui-ci pour d’autres traitements, en l’occurrence l’exécution d’autres modèles.

1998 2000 2002 2004 2006 2008 2010 2012 2014 0 5 10 15 année N br e core s C P U 0 200 400 600 800 1000 1200 N br ecore s G P U

Figure III.19 – Evolution du nombre de coeurs embarqués dans les microprocesseurs centraux et les cartes graphiques

Un autre aspect essentiel à prendre en compte au vu de ces résultats concerne l’évolution des matériels utilisés.

La figureIII.19 présente l’évolution du nombre d’unités de calculs respectivement disponible sur le microprocesseur central (en vert) et le nombre d’unités de calculs disponibles sur les cartes graphiques (en rouge), la période observée correspond aux années 2000 (2000-2012).

Ces données correspondent à une tendance globale, en fonction de la référence du matériel, celles-ci sont susceptibles d’être légèrement différentes, de même concernant les microprocesseurs centraux, les données présentées concernent des postes de travail grand public et non des clusters de calculs universitaires ou industriels. Il s’agit de refléter le matériel sur lequel ce modèle est amené à être utilisé, même si celui-ci est également adapté aux autres architectures plus performantes.

Ce n’est que depuis 1999 que les cartes graphiques disposent d’unités de calculs programmables. Jus-qu’en 2005, les constructeurs de microcontroleur (CPU), pensaient pouvoir augmenter "indéfiniment" les performances. En 2002, Intel annonçait une puce cadencée à 10 GHz pour l’année 2005, l’expérience a montré qu’il est très difficile et très coûteux de tenter de maintenir une fréquence de fonctionne-ment au delà de 3.4 GHZ, un surcoût non négligeable de puissance et de capacité de refroidissefonctionne-ment sont alors nécessaires. Cette stratégie ne s’avérant pas viable sur le court terme, ils ont donc décidé de proposer pour le grand public des microprocesseurs hébergeant davantage d’unité de calcul afin de continuer à pouvoir augmenter les performances de leurs produits. Là encore, les propriétés de la matière8

limitent les solutions techniques pouvant être mises en oeuvre (augmentation continue des performances par l’augmentation de la fréquence de calcul pour une même technologie, ici, le silicium) et nécessite de trouver des solutions par d’autres approches. Cette stratégie très performante pour le multi-tâche tarde toutefois à s’implanter dans les logiciels eux-même (exception faites des applications scientifiques dont la plupart des algorithmes consommateur en temps de calcul ont été adaptés pour prendre en compte l’évolution du matériel à la fois sur les architectures centrales mais également sur les cartes graphiques, et des applications disponibles sur les systèmes d’exploitationGNU’s Not UNIX (GNU)/Linux.

8. Aujourd’hui, c’est le silicium qui est utilisé pour la fabrication des microprocesseurs équipant la majorité des équipements domestiques, ses propriétés semi-conductrices et son coût en font le matériau référant pour un usage industriel

Les cartes graphiques utilisées ici, possèdent respectivement 48 et 256 unités de calculs, le nombres d’unité de calcul sur l’architecture centrale est de 8. Par rapport à la figureIII.19, il apparaît que sui-vant l’évolution du nombre d’unités de calculs respectivement disponibles sur les cartes graphiques et l’architecture centrale, les performances pouvant être attendues avec un matériel plus récent resteront favorable à une utilisation de la carte graphique, non seulement pour le gain de performance qu’ap-porte cette solution (théoriquement multiplié par 4 par rapport au matériel utilisé, contre un gain de 1 aujourd’hui concernant l’architecture centrale) mais aussi parce qu’elle permet d’utiliser leCPUpour d’autres tâches.

2 Architecture logicielle des modèles: la

propagation

Le parcours de l’information dans le modèle de capteur s’achève sur l’antenne dans un monde unidi-mensionnel.

Cette partie du modèle est en charge de l’information dans la scène routière, une zone urbaine tri-dimensionnelle évoluant avec le temps. L’information, caractérisée par une onde électromagnétique, évolue dans une scène presque figée au regard de sa vitesse de propagation.

Etudier et caractériser la propagation des ondes dans la scène revient donc à caractériser leurs voyages dans la scène.

2.1 Le trajet d’onde

Dans la représentation utilisée pour ce modèle, les trajets d’onde sont caractérisés par une structure représentant les différentes grandeurs caractéristiques du parcours effectué par une onde.

struct WavePath {

double dod, doa, gain, doppler, length, jones[2];

// liste des point d’interactions, antenne emettrice...

};

Ils correspondent aux angles de départs et d’arrivée de l’onde vis à vis de l’antenne (god et goa), aux pertes d’énergie subit par l’onde au cours de ces interactions avec l’environnement (gain), au décalage de fréquence intervenant en cas d’interactions avec un objet dont la vitesse par rapport à l’antenne est non nulle (doppler), à la distance parcourue par l’onde avant de revenir à l’antenne et à la nouvelle polarisation de l’onde (jones). D’autres informations peuvent également être enregistrées.

Les paramètres définis dans la structure sont nécessaires à l’opérateurΣRX du modèle de capteur de la section précédente, compte tenu des hypothèses définies.

D’autres paramètres peuvent également être retournés en fonction des besoins concernant l’antenne à l’origine de cette onde ou les différents points d’interactions caractérisant le trajet.

Pour les autres considérations théoriques, notamment aux niveaux des interactions prises en compte, celles-ci sont spécifiques à chaque représentation du monde et sont donc décrites en même temps que le modèle qui les utilisent.

Il existe malgré tout encore une définition qui convient à l’ensemble des modèles, elle concerne la façon de représenter et manipuler les informations qui transitent dans l’environnement et leur organisation pour leur mise en oeuvre informatique.

2.2 Les modèles de propagations