3.4 Évaluation de la plateforme de gestion des connaissances en
3.4.3 Scénario de simulation
Cinq méthodes de diffusion sont évaluées dans la suite :
— Un algorithme de DHT-Chord [Stoica et al., 2001] (noté DHT)
— Un algorithme de diffusion de type glouton (chaque noeud envoie
pério-diquement des informations à tous les autres noeuds ) (noté Broadcast)
— Une approche hiérarchique basée sur une sélection aléatoire de super
noeuds [Abdeljaouad and Karmouch,2012] (notée Random)
— Notre première contribution basée sur une approche hiérarchique (notée
DCLARA)
— Notre seconde contribution basée sur une approche adaptative utilisant
le test de Page-Hinkley (notée DCLARA-PH).
Les paramètres de simulation sont décrits dans le tableau3.2.
Paramètres Valeurs
Nombre de noeuds dans le réseau [50 → 5000]
α 0.01
β 0.08
Nombre de voisins maximum 5 noeuds
Capacité des super noeuds 10 noeuds
λ 100ms
σ +10ms
Intervalle entre deux sondes 250ms
Taille d’un probe 64kbits
Intervalle entre deux paquets de connaisance 500ms
Taille d’un paquet de connaisance [100-500 Kbits]
Nombre de miroir pour le DHT 3
Table 3.2 – Paramètres de simulation
Un réseau d’une capacité de 200 à 5000 noeuds a été généré à des fins de
comparaison. La topologie générée ainsi est modifiée de manière à simuler le
caractère dynamique d’un véritable réseau (simuler des pannes de liens et de
3.4. Évaluation de la plateforme de gestion des connaissances en
simulation 93
noeuds dans le réseau). Nous considérons que chaque super noeud peut être
en charge d’un nombre fini de noeuds. Dans la pratique, la capacité d’un super
noeud dépend à la fois de ses ressources et des besoins de l’application. Dans
notre exemple, nous avons choisi, arbitrairement, de la fixer à 10 noeuds.
Deux messages représentant des connaissances sont générés chaque seconde
et chaque noeud du réseau envoie 4 sondes à ses voisins toutes les secondes
pour évaluer en permanence la qualité des liens du réseau. Le nombre de
miroirs pour le DHT est fixé à 3 et le paramètre du test de Page-Hinkley à
100ms avec une tolérance de 10 ms.
3.4.4 Résultats de la simulation
Cette section détaille les performances obtenues des algorithmes étudiés
en fonction des trois critères décrits précédemment : le temps de la diffusion,
la surcharge du système (overhead) et le temps de réponse à une requête
(latence).
3.4.4.1 Delai de convergence d’une connaissance
Il est communément admis que le facteur le plus important pour évaluer
un mécanisme de diffusion de connaissances consiste dans le temps nécessaire
pour la propagation d’une connaissance à tous les noeuds du réseau. En effet,
plus ce temps est court, plus la décision prise par les applications de contrôle
est appropriée et prend en compte une information réelle qui représente
fidè-lement le réseau. Ce paramètre est appelé “délai de convergence”. La figure
3.11 illustre, pour chaque algorithme testé, ce paramètre qui est donné en
millisecondes.
La figure 3.11 montre que le mécanisme de diffusion est celui qui permet
d’assurer la cohérence des connaissances dans le réseau. En fait, chaque noeud
envoie les nouvelles connaissances apprises à tous les autres noeuds du réseau
chaque 500ms. L’approche DHT estime que l’information est diffusée une fois
qu’elle est reproduite à n noeuds dans le réseau. Les performances des trois
autres approches hiérarchiques dépendent du mécanisme de sélection des super
noeuds : Random est le plus lent tandis que DCLARA-PH offre les meilleurs
délais. En effet, DCLARA-PH nécessite approximativement 1 seconde pour
diffuser des connaissances dans toutes les parties du réseau.
Figure 3.11 – Delai de convergence dans les approches testées
3.4.4.2 Surcharge générée
La surcharge relative du système peut être estimée à partir des flux de
contrôle induit par chaque algorithme de diffusion des connaissances. Une
surcharge très élevée peut conduire à une saturation des liens dans le réseau.
Les paquets de contrôle (liés au maintien de la topologie de dissémination) et
de connaissances peuvent mener à une congestion potentielle du système. La
figure 3.12 montre la surcharge provoquée par chaque méthode de diffusion
des connaissances (en kbits/s).
Ces résultats montrent que le mécanisme de diffusion n’est pas possible
dans un scénario réel. En effet, il représente 1000 fois la valeur obtenue par
les autres approches. Le surcoût généré par les approches hiérarchiques ainsi
que par DHT demeure constant indépendamment du nombre de noeuds dans
le réseau. Toutefois, les approches hiérarchiques (DCLARA, DCLARA-PH
et Random) sont 1,5 fois mieux que l’approche DHT et valident de la sorte
l’intérêt de nos approches.
3.4. Évaluation de la plateforme de gestion des connaissances en
simulation 95
Figure 3.12 – Overhead des approches testées
3.4.4.3 Latence lors de la récupération d’une connaissance
Étant donné la forte dynamicité du système, les connaissances peuvent
déprécier rapidement et devenir ainsi obsolètes. C’est pourquoi le temps de
recherche est un paramètre crucial dans les systèmes temps réel. En effet, une
latence très élevée peut conduire à des décisions inappropriées. La figure3.13
résume les résultats obtenus dans le calcul de la latence (en ms).
L’approche de diffusion est une méthode où la connaissance est disponible
localement pour chaque noeud du réseau, ce qui explique la latence nulle
obtenue. Dans les approches hiérarchiques, chaque noeud peut récupérer une
connaissance à partir de son super noeud. Le temps de recherche est toujours
constant indépendamment du nombre de noeuds dans le réseau dans ce type
d’approches. DCLARA-PH est l’approche hiérarchique qui offre les meilleurs
résultats. Elle optimise, en effet, en permanence la topologie de diffusion. Dans
DHT, la latence est logarithmique. L’approche DHT est inappropriée dans
notre cas. En fait, la latence dans cette approche augmente avec le nombre de
Figure 3.13 – Latence des approches testées
noeuds et dépasse de 100 fois celle obtenue par l’algorithme DCLARA-PH.
Dans le document
Mise en oeuvre d’une plateforme de gestion et de dissémination des connaissances pour des réseaux autonomiques
(Page 95-99)