• Aucun résultat trouvé

3.4 Évaluation de la plateforme de gestion des connaissances en

3.4.3 Scénario de simulation

Cinq méthodes de diffusion sont évaluées dans la suite :

— Un algorithme de DHT-Chord [Stoica et al., 2001] (noté DHT)

— Un algorithme de diffusion de type glouton (chaque noeud envoie

pério-diquement des informations à tous les autres noeuds ) (noté Broadcast)

— Une approche hiérarchique basée sur une sélection aléatoire de super

noeuds [Abdeljaouad and Karmouch,2012] (notée Random)

— Notre première contribution basée sur une approche hiérarchique (notée

DCLARA)

— Notre seconde contribution basée sur une approche adaptative utilisant

le test de Page-Hinkley (notée DCLARA-PH).

Les paramètres de simulation sont décrits dans le tableau3.2.

Paramètres Valeurs

Nombre de noeuds dans le réseau [50 5000]

α 0.01

β 0.08

Nombre de voisins maximum 5 noeuds

Capacité des super noeuds 10 noeuds

λ 100ms

σ +10ms

Intervalle entre deux sondes 250ms

Taille d’un probe 64kbits

Intervalle entre deux paquets de connaisance 500ms

Taille d’un paquet de connaisance [100-500 Kbits]

Nombre de miroir pour le DHT 3

Table 3.2 – Paramètres de simulation

Un réseau d’une capacité de 200 à 5000 noeuds a été généré à des fins de

comparaison. La topologie générée ainsi est modifiée de manière à simuler le

caractère dynamique d’un véritable réseau (simuler des pannes de liens et de

3.4. Évaluation de la plateforme de gestion des connaissances en

simulation 93

noeuds dans le réseau). Nous considérons que chaque super noeud peut être

en charge d’un nombre fini de noeuds. Dans la pratique, la capacité d’un super

noeud dépend à la fois de ses ressources et des besoins de l’application. Dans

notre exemple, nous avons choisi, arbitrairement, de la fixer à 10 noeuds.

Deux messages représentant des connaissances sont générés chaque seconde

et chaque noeud du réseau envoie 4 sondes à ses voisins toutes les secondes

pour évaluer en permanence la qualité des liens du réseau. Le nombre de

miroirs pour le DHT est fixé à 3 et le paramètre du test de Page-Hinkley à

100ms avec une tolérance de 10 ms.

3.4.4 Résultats de la simulation

Cette section détaille les performances obtenues des algorithmes étudiés

en fonction des trois critères décrits précédemment : le temps de la diffusion,

la surcharge du système (overhead) et le temps de réponse à une requête

(latence).

3.4.4.1 Delai de convergence d’une connaissance

Il est communément admis que le facteur le plus important pour évaluer

un mécanisme de diffusion de connaissances consiste dans le temps nécessaire

pour la propagation d’une connaissance à tous les noeuds du réseau. En effet,

plus ce temps est court, plus la décision prise par les applications de contrôle

est appropriée et prend en compte une information réelle qui représente

fidè-lement le réseau. Ce paramètre est appelé “délai de convergence”. La figure

3.11 illustre, pour chaque algorithme testé, ce paramètre qui est donné en

millisecondes.

La figure 3.11 montre que le mécanisme de diffusion est celui qui permet

d’assurer la cohérence des connaissances dans le réseau. En fait, chaque noeud

envoie les nouvelles connaissances apprises à tous les autres noeuds du réseau

chaque 500ms. L’approche DHT estime que l’information est diffusée une fois

qu’elle est reproduite à n noeuds dans le réseau. Les performances des trois

autres approches hiérarchiques dépendent du mécanisme de sélection des super

noeuds : Random est le plus lent tandis que DCLARA-PH offre les meilleurs

délais. En effet, DCLARA-PH nécessite approximativement 1 seconde pour

diffuser des connaissances dans toutes les parties du réseau.

Figure 3.11 – Delai de convergence dans les approches testées

3.4.4.2 Surcharge générée

La surcharge relative du système peut être estimée à partir des flux de

contrôle induit par chaque algorithme de diffusion des connaissances. Une

surcharge très élevée peut conduire à une saturation des liens dans le réseau.

Les paquets de contrôle (liés au maintien de la topologie de dissémination) et

de connaissances peuvent mener à une congestion potentielle du système. La

figure 3.12 montre la surcharge provoquée par chaque méthode de diffusion

des connaissances (en kbits/s).

Ces résultats montrent que le mécanisme de diffusion n’est pas possible

dans un scénario réel. En effet, il représente 1000 fois la valeur obtenue par

les autres approches. Le surcoût généré par les approches hiérarchiques ainsi

que par DHT demeure constant indépendamment du nombre de noeuds dans

le réseau. Toutefois, les approches hiérarchiques (DCLARA, DCLARA-PH

et Random) sont 1,5 fois mieux que l’approche DHT et valident de la sorte

l’intérêt de nos approches.

3.4. Évaluation de la plateforme de gestion des connaissances en

simulation 95

Figure 3.12 – Overhead des approches testées

3.4.4.3 Latence lors de la récupération d’une connaissance

Étant donné la forte dynamicité du système, les connaissances peuvent

déprécier rapidement et devenir ainsi obsolètes. C’est pourquoi le temps de

recherche est un paramètre crucial dans les systèmes temps réel. En effet, une

latence très élevée peut conduire à des décisions inappropriées. La figure3.13

résume les résultats obtenus dans le calcul de la latence (en ms).

L’approche de diffusion est une méthode où la connaissance est disponible

localement pour chaque noeud du réseau, ce qui explique la latence nulle

obtenue. Dans les approches hiérarchiques, chaque noeud peut récupérer une

connaissance à partir de son super noeud. Le temps de recherche est toujours

constant indépendamment du nombre de noeuds dans le réseau dans ce type

d’approches. DCLARA-PH est l’approche hiérarchique qui offre les meilleurs

résultats. Elle optimise, en effet, en permanence la topologie de diffusion. Dans

DHT, la latence est logarithmique. L’approche DHT est inappropriée dans

notre cas. En fait, la latence dans cette approche augmente avec le nombre de

Figure 3.13 – Latence des approches testées

noeuds et dépasse de 100 fois celle obtenue par l’algorithme DCLARA-PH.