• Aucun résultat trouvé

Analyse des travaux présentés dans la littérature

CHAPITRE 2 REVUE DE LITTÉRATURE

2.6 Analyse des travaux présentés dans la littérature

Comme nous avons pu le remarquer, plusieurs auteurs se sont penchés sur le problème de planification des applications dans les environnements du Cloud Computing afin de réduire leur consommation énergétique ou encore, leur impact environnemental. Cependant, une rapide analyse nous porte à croire que certaines avenues de recherche demeurent encore inexplorées.

La littérature actuelle sur la réduction énergétique à l’échelle d’un unique data center est très fournie. En effet, conscients que les serveurs représentent une grande part, en ce qui a trait à l’énergie consommée, plusieurs auteurs ont mis en œuvre des méthodes afin de réduire le nombre de serveurs actifs nécessaires à l’hébergement des applications. Toutefois, l’hétérogénéité des équipements remet rapidement en question cette manière de procéder. Naissent alors des techniques exploitant le profil énergétique des équipements, conjointement avec leur capacité, en termes de ressources physiques, afin de minimiser leur consommation énergétique. Cette dernière approche atteint ses limites lorsque vient le temps d’héberger des applications plus complexes qui nécessitent l’interaction entre plusieurs VMs. Un placement efficace des VMs combiné à un routage du trafic visant à optimiser conjointement la puissance des serveurs et celle des ressources réseau est donc de mise afin de réduire l’impact énergétique d’un data center.

Par ailleurs, bien que la virtualisation et le processus de consolidation des applications semblent répondre au problème de gaspillage des ressources et de consommation énergé- tique, ils sont souvent à l’origine de contentieux lorsque vient le temps, pour les applications co-hébergées, d’accéder aux ressources physiques. Ceci résulte souvent en un temps d’exé- cution rallongé et une dégradation au niveau des performances. Ainsi, plusieurs auteurs ont proposé diverses méthodes de placement des VMs permettant de consolider efficacement la charge tout en s’assurant d’une certaine isolation des performances. Toutefois, la plupart des travaux de recherche se sont particulièrement concentrés sur les caractéristiques intrinsèques des applications lors du processus de consolidation, et ont négligé d’autres contraintes de co-localisation en rapport avec la sécurité et la redondance, ce qui peut grandement aller à l’encontre des exigences et attentes des utilisateurs.

encore plus de taille. En effet, bien qu’il soit possible d’adapter le modèle de consommation énergétique d’un unique data center, il importe, à l’échelle d’un InterCloud, non seulement de conjuguer avec la nature hétérogène des équipements, mais également de s’intéresser à l’indicateur d’efficacité énergétique, ou PUE, qui représente le rapport entre l’énergie totale consommée par un data center et celle dépensée uniquement par le fonctionnement des équi- pements informatiques. Cet indicateur fait référence, en particulier, à l’impact énergétique du système de refroidissement et est souvent différent d’un data center à l’autre. En se basant sur les travaux recensés dans la littérature et qui visent à résoudre le problème de consommation énergétique dans un InterCloud, très peu d’auteurs ont intégré ce paramètre lorsque vient le temps de déterminer l’emplacement idéal d’une VM donnée, ce qui résulte en une confi- guration sous-optimale en termes d’énergie consommée. De plus, une analyse plus poussée a également indiqué que ce PUE tend couramment vers des valeurs très élevées, alors qu’il serait possible de le ramener le plus que possible à l’unité. En ce sens, plusieurs approches ont été développées afin de réduire l’énergie associée au cooling. De manière générale, elles visent soit à équilibrer les charges afin d’éviter des points chauds, ou encore à minimiser la recirculation de la chaleur. Une approche plus directe de réduction de l’impact du cooling consiste à augmenter la température interne d’un data center. Toutefois, ces mécanismes ne tiennent pas compte du comportement dynamique des ventilateurs des serveurs face à un accroissement de leur température d’entrée. Ainsi, un processus de placement faisant abs- traction de ce type de phénomène peut, à l’inverse, résulter en une configuration où l’énergie consommée est beaucoup plus élevée qu’attendue.

Il existe, au sein de la littérature, quelques travaux portant sur l’optimisation de l’empreinte carbone d’un ensemble de data centers géographiquement distribués. Bien que la méthode in- tuitive, consistant à déporter certaines applications gourmandes en énergie électrique vers des data centers alimentés par des énergies vertes, semble la plus prometteuse, elle ne résulte pas nécessairement en une configuration optimale, en raison des équipements de caractéristiques différentes. De plus, afin de solutionner le problème de réduction des GES, l’approche de ré- duction énergétique, utilisée pour minimiser l’énergie d’un InterCloud ne saurait s’appliquer telle quelle, car, considérant un environnement où les data centers sont alimentés par diffé- rentes sources d’énergie renouvelables, la consommation énergétique dudit environnement ne saurait nécessairement refléter son impact environnemental. De ce fait, plusieurs techniques d’optimisation de l’empreinte carbone ont été proposées où, en général, la puissance consom- mée est combinée au facteur d’émission des sources d’énergie alimentant les data centers. Toutefois, pour l’ensemble de ces travaux visant à réduire l’impact environnemental, seul le placement des VMs sur les serveurs est optimisé. Sont alors laissés pour compte l’optimisation de l’énergie consommée par le CRAC et les ressources réseau. De plus, aucune technique de

consolidation efficace visant à réduire la dégradation des performances n’a été considérée. Dans cette thèse, nous nous donnons donc pour tâche d’intégrer tous les éléments mentionnés ci-dessus, afin de proposer un modèle complet d’optimisation de l’empreinte carbone dans un environnement InterCloud. La mise en œuvre d’un tel modèle global est un travail assez complexe, mais aura le mérite de fournir d’excellentes solutions. En effet, cette approche permettra non seulement d’intégrer les différents facteurs influençant l’impact environne- mental des data centers, mais facilitera également la préservation des principales interactions entre ces entités. Plus particulièrement, le modèle proposé visera à déterminer un schéma d’allocation statique d’un ensemble d’applications à l’échelle de plusieurs data centers. L’em- preinte carbone des serveurs, celle des ressources réseau et du système de refroidissement seront conjointement optimisées tout en intégrant le comportement dynamique des ventila- teurs des équipements et les exigences des utilisateurs, en termes de requis de performance et de contraintes de co-localisation.

CHAPITRE 3 DÉMARCHES DE L’ENSEMBLE DU TRAVAIL DE