• Aucun résultat trouvé

Résultats obtenus pour six neurones dans les couches ca- ca-chéesca-chéesca-chées

Résultats et discussion

4.2 Résultats obtenus pour six neurones dans les couches ca- ca-chéesca-chéesca-chées

Les tableaux 4.1 à 4.12 présentent les résultats obtenus en calculant les différentes mé-triques entre les valeurs exactes et les valeurs prédites sur l’ensemble de validation en utilisant le modèle de réseau de neurones avec six neurones par couche cachée.

TABLEAU 6N 4.1 – Epoques = 50 & Taille du lot = 3

Mesures de performance R RMSE MAE RAE RRSE Utilisation du processeur 0.945 0.0612 0.041 0.259 0.328 Temps moyen d’attente du canal 0.976 81.599 39.704 0.122 0.219 Temps d’attente moyen des entrées 0.978 47.742 35.115 0.1803 0.207 Latence moyenne du réseau 0.935 399.312 296.375 0.326 0.354 Utilisation moyenne du canal 0.911 0.0845 0.0632 0.371 0.412

TABLEAU 6N 4.2 – Epoques = 50 & Taille du lot = 5

Mesures de performance R RMSE MAE RAE RRSE Utilisation du processeur 0.944 0.0617 0.042 0.262 0.330 Temps moyen d’attente du canal 0.975 82.756 42.889 0.132 0.222 Temps d’attente moyen des entrées 0.971 55.287 40.953 0.210 0.239 Latence moyenne du réseau 0.933 405.699 294.705 0.324 0.360 Utilisation moyenne du canal 0.896 0.0912 0.0682 0.401 0.444

TABLEAU 6N 4.3 – Epoques = 50 & Taille du lot = 6

Mesures de performance R RMSE MAE RAE RRSE Utilisation du processeur 0.940 0.0640 0.044 0.278 0.343 Temps moyen d’attente du canal 0.974 84.804 46.214 0.142 0.227 Temps d’attente moyen des entrées 0.967 59.204 43.686 0.224 0.256 Latence moyenne du réseau 0.930 416.616 301.644 0.332 0.370 Utilisation moyenne du canal 0.886 0.0951 0.072 0.421 0.463

TABLEAU 6N 4.4 – Epoques = 100 & Taille du lot = 3

Mesures de performance R RMSE MAE RAE RRSE Utilisation du processeur 0.971 0.044 0.0337 0.213 0.237 Temps moyen d’attente du canal 0.976 81.440 35.557 0.109 0.218 Temps d’attente moyen des entrées 0.985 39.473 29.737 0.153 0.171 Latence moyenne du réseau 0.941 379.479 289.740 0.319 0.337 Utilisation moyenne du canal 0.965 0.0538 0.040 0.236 0.262

TABLEAU 6N 4.5 – Epoques = 100 & Taille du lot = 5

Mesures de performance R RMSE MAE RAE RRSE Utilisation du processeur 0.972 0.045 0.033 0.211 0.233 Temps moyen d’attente du canal 0.977 80.225 36.927 0.113 0.215 Temps d’attente moyen des entrées 0.984 40.944 29.992 0.154 0.177 Latence moyenne du réseau 0.940 387.524 296.358 0.326 0.344 Utilisation moyenne du canal 0.948 0.065 0.048 0.284 0.318

TABLEAU 6N 4.6 – Epoques = 100 & Taille du lot = 6

Mesures de performance R RMSE MAE RAE RRSE Utilisation du processeur 0.971 0.045 0.034 0.214 0.239 Temps moyen d’attente du canal 0.976 80.556 38.272 0.117 0.216 Temps d’attente moyen des entrées 0.983 42.320 30.664 0.157 0.183 Latence moyenne du réseau 0.938 390.214 299.443 0.330 0.346 Utilisation moyenne du canal 0.942 0.068 0.050 0.296 0.333

TABLEAU 6N 4.7 – Epoques = 200 & Taille du lot = 3

Mesures de performance R RMSE MAE RAE RRSE Utilisation du processeur 0.983 0.034 0.028 0.176 0.184 Temps moyen d’attente du canal 0.977 79.814 32.699 0.100 0.214 Temps d’attente moyen des entrées 0.987 37.024 27.765 0.143 0.160 Latence moyenne du réseau 0.955 332.973 246.803 0.272 0.296 Utilisation moyenne du canal 0.982 0.039 0.029 0.170 0.188

TABLEAU 6N 4.8 – Epoques = 200 & Taille du lot = 5

Mesures de performance R RMSE MAE RAE RRSE Utilisation du processeur 0.974 0.042 0.032 0.203 0.226 Temps moyen d’attente du canal 0.976 81.471 35.611 0.109 0.218 Temps d’attente moyen des entrées 0.987 37.231 28.337 0.145 0.161 Latence moyenne du réseau 0.954 339.190 256.834 0.283 0.301 Utilisation moyenne du canal 0.979 0.042 0.032 0.190 0.205

TABLEAU 6N 4.9 – Epoques = 200 & Taille du lot = 6

Mesures de performance R RMSE MAE RAE RRSE Utilisation du processeur 0.974 0.043 0.032 0.203 0.228 Temps moyen d’attente du canal 0.976 81.506 36.454 0.112 0.218 Temps d’attente moyen des entrées 0.987 37.441 28.405 0.146 0.162 Latence moyenne du réseau 0.954 337.715 255.186 0.281 0.300 Utilisation moyenne du canal 0.977 0.043 0.0332 0.193 0.211

TABLEAU 6N 4.10 – Epoques = 500 & Taille du lot = 3

Mesures de performance R RMSE MAE RAE RRSE Utilisation du processeur 0.986 0.030 0.025 0.160 0.164 Temps moyen d’attente du canal 0.979 76.640 30.389 0.093 0.205 Temps d’attente moyen des entrées 0.989 34.052 25.713 0.132 0.147 Latence moyenne du réseau 0.960 319.771 237.120 0.261 0.284 Utilisation moyenne du canal 0.986 0.034 0.025 0.148 0.167

TABLEAU 6N 4.11 – Epoques = 500 & Taille du lot = 5

Mesures de performance R RMSE MAE RAE RRSE Utilisation du processeur 0.987 0.030 0.024 0.154 0.160 Temps moyen d’attente du canal 0.978 76.945 30.873 0.094 0.206 Temps d’attente moyen des entrées 0.988 35.223 26.447 0.136 0.153 Latence moyenne du réseau 0.965 296.936 224.620 0.247 0.264 Utilisation moyenne du canal 0.987 0.035 0.025 0.145 0.160

TABLEAU 6N 4.12 – Epoques = 500 & Taille du lot = 6

Mesures de performance R RMSE MAE RAE RRSE Utilisation du processeur 0.987 0.030 0.024 0.151 0.159 Temps moyen d’attente du canal 0.979 76.654 29.814 0.092 0.205 Temps d’attente moyen des entrées 0.988 35.954 26.887 0.138 0.156 Latence moyenne du réseau 0.965 296.256 218.030 0.240 0.263 Utilisation moyenne du canal 0.984 0.036 0.027 0.160 0.176

L’un des premiers constats à faire est que le modèle de réseaux de neurones à six neurones dans les couches cachées donne de meilleurs résultats que celui à quatre neurones dans les couches cachées. Ensuite, à travers les tableaux 6N 4.1 à 4.12, nous remarquons que les modèles entrainés avec une taille de lot égale à trois donnent de meilleurs résultats sauf dans le cas de la latence moyenne du réseau où les fluctuations sont fortes.

4.3 Discussion

Des résultats présentés dans la section précédente, nous pouvons tirer plusieurs conclu-sions. Tout d’abord le modèle de réseau de neurones à six neurones dans les couches cachées offre de meilleurs résultats avec des erreurs moyennes quadratiques plus faibles et des cœf-ficients de corrélation multiple plus élevés. Ce qui veut dire que les prédictions faites avec le modèle à six neurones sont plus proches des données de validation et qu’il s’agit ainsi de l’ar-chitecture ayant donné les meilleurs résultats.

Les figures 4.1a à 4.1e présentent les courbes d’entraînement du modèle pour l’obtention des mesures de performances. Ainsi, sur chaque figure nous présentons l’évolution duRM SE en fonction du nombre d’époques et nous le faisons pour chaque taille de lot (batch).

100 200 300 400 500

(b) Temps moyen d’attente du canal

100 200 300 400 500 600

Epochs

(e) Temps d’attente moyen des entrées FIGURE4.1 – Courbes d’entraînement Il ressort de ces observations les différents points suivants :

• en général, nous constatons que pour les réseaux de neurones à six neurones, les modèles entrainés avec une taille de lot de 3 ont lesRM SE les plus bas. Ils possèdent aussi lesR les plus élevés et par conséquent sont les meilleurs modèles ;

• de même, nous remarquons que pour tous les modèles à l’exception de celui prédisant la latence moyenne du réseau la courbe d’évolution du RM SE à la figure 4.1 converge.

Ainsi dans la plupart des cas leRM SEdécroit avec l’augmentation du nombre d’époques jusqu’à devenir constant ;

• pour l’utilisation moyenne du canal, le temps moyen d’attente du canal, 400 époques suffisent donc pour atteindre un modèle satisfaisant ;

• pour le temps d’attente moyen des entrées, il en faut 450 et pour l’utilisation moyenne du processeur il en faut 250.

Il faut aussi noter qu’en ce qui concerne la latence moyenne du réseau, les courbes d’en-traînement pour les tailles du lot égales à 3 et 5, tout d’abord décroissantes jusqu’au nombre d’époques égal à 200 présentent, par la suite une évolution en dents de scie. Ceci peut être dû à la nature des données dans l’ensemble d’entraînement. En effet, avec le trop grand écart entre les valeurs de latence dans l’ensemble de données, le modèle n’arrive pas à trouver une relation forte entre les variables de prédiction et la mesure de performance.

De même, pour la taille du lot égale à 6, la courbe suit une allure décroissante bien que ne convergeant pas encore. Nous avons donc poursuivi l’entraînement du modèle pour cette mesure de performance jusqu’à atteindre la convergence à 800 époques. Nous présentons les résultats dans le tableau 4.3.

En outre, en comparant notre modèle à ceux de Akay et al. [11], on obtient les tableaux 4.1 à 4.5.

TABLEAU4.1 – Résultats pour la prédiction de l’utilisation moyenne du canal.

Mesures de performance R MAE RMSE RAE (%) RRSE (%) Notre Modèle 0.98 0.02 0.03 16.00 16.40 SVR-RBF [11] 0.92 0.05 0.07 37.12 37.44 MFANN [11] 0.90 0.06 0.08 40.66 43.87

TABLEAU4.2 – Résultats pour la prédiction du temps d’attente moyen du canal.

Mesures de performance R MAE RMSE RAE (%) RRSE (%) Notre Modèle 0.98 30.38 76.64 9.30 20.5 SVR-RBF [11] 0.97 42.73 82.62 13.04 21.63

MFANN [11] 0.96 58.88 96.99 17.97 25.39 TABLEAU4.3 – Résultats pour la prédiction de la latence moyenne du réseau.

Mesures de performance R MAE RMSE RAE (%) RRSE (%) Notre Modèle 0.97 211.764 278.441 23.31 24.72 SVR-RBF [11] 0.97 184.60 277.96 19.76 23.31 MFANN [11] 0.96 245.09 331.83 26.24 27.83

TABLEAU4.4 – Résultats pour la prédiction de l’utilisation moyenne du processeur.

Mesures de performance R MAE RMSE RAE (%) RRSE (%) Notre Modèle 0.99 0.02 0.03 16.00 16.40 SVR-RBF [11] 0.94 0.05 0.06 34.96 35.73 MFANN [11] 0.91 0.06 0.07 35.40 40.01

TABLEAU 4.5 – Résultats pour la prédiction du temps d’attente moyen des entrées.

Mesures de performance R MAE RMSE RAE (%) RRSE (%) Notre Modèle 0.99 25.71 34.05 13.20 14.70 SVR-RBF [11] 0.97 39.48 53.66 19.96 22.95 MFANN [11] 0.96 49.39 63.04 24.97 26.96 Des tableaux précédents il ressort les observations suivantes :

• globalement, ces résultats montrent que notre modèle surpasse les modèles MFANN et SVR-RBF de Akay et al.[11] pour les prédictions de l’utilisation moyenne du canal, du temps d’attente moyen du canal, de l’utilisation moyenne du processeur et du temps moyen d’attente des entrées ;

• dans le cas de la latence moyenne du réseau, notre modèle surpasse le modèle MFANN de Akay et al.[11] mais reste généralement équivalent au modèle SVR-RBF du même auteur.

En effet, pour cette mesure de performance les erreurs quadratiques moyennes sont très proches et le cœfficient de corrélation multiple est le même ;

• notre modèle a l’erreur la plus basse sur toutes les prévisions à l’exception de la latence moyenne du réseau en le comparant aux modèles présents dans la littérature ;

• l’erreur la plus faible est obtenue pour la prédiction de l’utilisation moyenne du canal et de l’utilisation moyenne du processeur (RM SE = 0.03) ;

• les cœfficients de corrélation multiple de tous nos modèles sont supérieurs à 0,97 compa-rés à ceux des meilleurs modèles de [11] pour lesquels ils commencent à0.92;

• la durée de la phase d’entraînement de nos modèles varie entre 45 et 70 secondes en fonction du nombre d’époques et le temps mis pour les prédictions sur l’ensemble de validation est négligeable ;

• les valeursRM SEles plus basses ont été obtenues pour l’utilisation moyenne du proces-seur et du canal grâce au fait que leur plage de valeurs est comprise entre 0 et 1 ;

à celui des autres mesures de performance.

Conclusion

Ce chapitre a fait la synthèse des résultats de notre étude. Nous avons dans un premier temps présenté les résultats obtenus en variant le nombre de neurones dans les couches cachées des réseaux et nous avons ensuite ressorti les meilleurs modèles obtenus. Les résultats de ces modèles comparés à ceux présents dans la littérature sont globalement meilleurs.

Le 2-dimensional Simultaneous Optical Multiprocessor Exchange Bus (2D SOME-Bus) avec sa bande passante élevée et sa faible latence devient un élément de choix réaliste pour fournir une puissance de calcul élevée. Pour s’assurer de son efficacité, il est nécessaire d’en évaluer les performances. En effet, il faut pour une telle architecture, évaluer fiablement différents in-dicateurs tels que l’utilisation moyenne du canal, le temps moyen d’attente du canal, la latence moyenne du réseau, l’utilisation moyenne du processeur et le temps d’attente moyen des en-trées. Cette évaluation est généralement faite analytiquement ou par simulation et présente des insuffisances comme la longue durée qu’elle peut prendre. Des premiers travaux ont montré que l’intelligence artificielle peut être utilisée dans la prédiction des mesures de performances d’une architecture multiprocesseur. Dans ce travail, nous avons utilisé l’apprentissage profond (deep learning), en nous basant sur un ensemble de données contenant des mesures de per-formance obtenues grâce à des variables de prédiction comme le rapport entre le temps de transfert du message et le temps de traitement, le nombre de nœuds, le nombre de threads, les distributions spatiales et temporelles pour construire des modèles capables d’évaluer ces mesures de performance. Nos modèles montrent de bons résultats sur l’ensemble de données et nos résultats sont meilleurs que ceux présents dans la littérature. Cela montre que les ré-seaux de neurones en particulier et l’intelligence artificielle en général peuvent représenter une alternative intéressante dans la prédiction des mesures de performance des architectures mul-tiprocesseurs.

Des perspectives intéressantes sont envisagées. Il serait intéressant d’appliquer d’autres mé-thodes d’intelligence artificielle au problème afin d’améliorer les modèles de prédiction. Aussi, tester la prédiction des mesures de performance en utilisant des données réelles et appliquer les algorithmes d’intelligence artificielle à d’autres types d’architecture multiprocesseur sont des perspectives intéressantes.

Predicting the performance of the 2D

Documents relatifs