• Aucun résultat trouvé

Plusieurs études se concentrent sur diérents aspects liés au Cloud pour améliorer ce dernier [46]. Parmi ces aspects, nous citons : la continuité des services, la sécurité des données, l'hé- bergement des machines virtuelles et la consommation d'énergie [46], [47]. L'analyse de ces aspects conduit à plusieurs dés de recherche que nous présentons dans cette section.

La continuité des services du Cloud garantit à l'utilisateur d'avoir toujours accès aux mêmes services du Cloud et ce, de fournisseur de services. Ces exigences liées à la continuité des services représentent un grand dé pour le fournisseur du Cloud. En eet, le fournisseur doit toujours garantir et anticiper la continuité des services à ses clients en tout temps. Toutefois, le client ne doit pas dépendre du fournisseur car cette dépendance peut présenter une menace sur la continuité du service. Par exemple, dans le modèle Saas, où l'utilisateur utilise des applications installées sur le Cloud, le fournisseur de service gère toute la conguration de l'application. De ce fait, si l'utilisateur décide de changer le fournisseur, il doit avoir tous les accès nécessaires pour congurer de nouveau son application, an que le service soit continu.

Dans le cloud computing, les données doivent être transférées entre les dispositifs de l'utilisa- teur et les centres de données des fournisseurs de services, ce qui rend ces données une cible facile pour les pirates. La sécurité des données doit être garantie, que ce soit sur le réseau ou encore dans les centres de données où elles sont stockées. De ce fait, nous constatons qu'il existe deux dés liés à la sécurité des données : le premier dé est lié au réseau qui est responsable de la communication entre les équipements du centre de données et l'utilisateur du service, et le deuxième dé consiste à garantir la sécurité au niveau du centre de données. Le premier dé est traité, en proposant des solutions comme, la cryptographie, alors que le deuxième dé est étudié pour proposer des solutions, telle que la migration.

Avec le Cloud Computing et particulièrement avec le modèle IaaS, les ores d'hébergement des services se multiplient [48]. En eet, les clients disposent d'un environnement d'hébergement virtuel à la demande, où il est possible de choisir rapidement les machines virtuelles, d'y placer les applications voulues et les installer dans le Cloud. Toutefois, an de ne pas aller à l'encontre des performances de l'application hébergée, le processus d'assignation des machines virtuelles aux serveurs ne peut se faire de manière aléatoire. En eet, il importe de développer des mécanismes ecaces an de s'assurer que les machines virtuelles sont adéquatement déployées dans les serveurs.

Suite à la création des centres de données à grande échelle, la demande croissante en puissance de calcul et en espace de stockage a mené à une consommation électrique énorme. Cette quantité d'énergie consommée entraîne des coûts d'opération largement supérieurs aux coûts d'investissement, en plus d'être à l'origine d'émissions élevées de CO2. En eet, force est de

constater qu'en 2014, les centres de données ont utilisé près de 1,62% de l'énergie consommée dans le monde [49]. Aussi, est-il que la consommation prévue pour l'année 2020 est de l'ordre de 140 milliards de KWh [49]. À cet eet, les inquiétudes manifestées face à ce problème ont poussé les chercheurs à proposer des solutions, tout en gardant comme point de mire le respect de diérentes contraintes, telles la qualité de service (temps de réponse, pourcentage de tâches traitées...) pour l'utilisateur et la minimisation des coûts pour les fournisseurs.

Chapitre 3

Analyse du problème

Nous avons vu qu'un Cloud est un système complexe, constitué de plusieurs niveaux d'équipe- ments et caractérisé par divers modèles de services et de déploiement [21], [24], et présentant une série de caractéristiques fonctionnelles [19]. L'évaluation de la consommation d'énergie à travers un tel système nécessite de déterminer la consommation énergétique de chaque équi- pement. Il en résulte que la minimisation de cette consommation d'énergie est un problème complexe. Pour y apporter une solution, il importe de bien l'analyser. Dans ce chapitre, nous allons d'abord présenter le contexte du problème de la consommation d'énergie, en expli- quant le fonctionnement du Cloud et ses composants. Par la suite, les principaux paramètres de la consommation d'énergie seront présentés, suivis des méthodes d'optimisation d'énergie couramment utilisées. Enn, la méthode proposée viendra clore ce chapitre.

3.1 Contexte du problème

Pour présenter le contexte du problème de la consommation d'énergie dans un Cloud, nous allons décrire le fonctionnement d'un centre de données qui est responsable du traitement des services du Cloud et ce, pour déterminer les équipements consommant la grande part d'énergie. Comme illustré à la gure 3.1, un centre de données est décrit par un ensemble de composants et de systèmes, comme le système d'alimentation électrique, le système de refroidissement, le système de distribution d'air et les serveurs. Dans cette section, nous allons présenter chacun de ces systèmes.

Figure 3.1  Architecture générale d'un centre de données

3.1.1 L'alimentation électrique

Chaque serveur est alimenté par un équipement appelé PSU (Power Supply Unit). Cet équipe- ment est alimenté à son tour par un réseau électrique sécurisé, provenant de l'unité d'alimenta- tion électrique et qui se compose de deux équipements : l'onduleur UPS (Uninterrupted Power Supply) et d'une unité appelée PDU (Power Delivery Unit). An d'assurer la disponibilité des centres de données qui doit être supérieure à 99% [50], une série d'équipements est mise en place de manière à assurer une alimentation stable et permanente. Pour alimenter les diérents PSU, l'énergie électrique provenant du réseau principal atteint tout d'abord l'onduleur UPS. Ce dernier stocke une grande quantité d'énergie électrique dans des batteries, puis la restitue en cas de panne d'alimentation principale. À la sortie de cet équipement, le courant alternatif obtenu doit être transformé et redressé an d'alimenter les serveurs. C'est le rôle de l'unité PDU qui répartit la charge vers les diérents racks.

3.1.2 Le système de refroidissement

Dans l'optique de maintenir la abilité des serveurs, il est important de contrôler la chaleur dégagée par ces derniers, en maintenant des conditions de température et d'humidité appro- priées. En eet, l'énergie consommée par les équipements est presque entièrement transformée en chaleur par eet de joule. À cet eet, un système de refroidissement se charge de maintenir une température adéquate à l'intérieur du centre de données. Ce refroidissement peut se faire par air, ou par eau. De manière générale, les techniques de refroidissement se réfèrent aux solutions basées sur l'utilisation directe du milieu extérieur (air ou eau) dans ses conditions ambiantes pour assurer, en totalité ou en partie, le refroidissement. Un système de refroidisse- ment d'air froid est illustré à la gure 3.1 [51]. Son rôle est de capter en permanence l'air chaud

produit par les équipements informatiques, de le conditionner à la température froide voulue, puis de le souer vers la salle. Le système de refroidissement est généralement composé d'une pompe à chaleur (PAC), d'une unité CRAH (Computer Room Air Handling) et des pompes de circulation. La PAC contient un condenseur qui est refroidi par une tour de refroidissement à eau. La CRAH dispose d'un ventilateur qui assure les débits d'air soué et repris. Finalement, des pompes de circulation (repérées à la gure 3.1 par la lettre P) font transiter l'eau dans les circuits primaires et secondaires du système.

3.1.3 Le système de distribution d'air

Le système de distribution d'air (SDA) utilise une méthode qui vise à acheminer l'air froid produit par l'unité CRAH vers les serveurs informatiques, tout en extrayant l'air chaud rejeté par les serveurs, an de le conditionner dans l'armoire (rack) [52]. Dans la plupart des centres de données existants, l'air s'écoule à haute vitesse en adoptant un comportement turbulent. L'enjeu principal du système de distribution est donc de limiter les mélanges entre l'air froid destiné au refroidissement des serveurs, et l'air chaud qui doit être évacué. Ainsi, bien qu'il ne soit pas composé d'éléments physiques, donc qu'il n'absorbe pas d'énergie, le SDA est d'une importance capitale pour le bon fonctionnement du centre de données. À titre d'exemple, sur la gure 3.1, le système de distribution est représenté par des èches avec la lettre F pour représenter l'air froid, et des èches avec la lettre C pour représenter l'air chaud, an de symboliser les écoulements d'air dans le centre de données. L'air froid est soué au niveau du plancher proche des équipements TI (Technologie d'information), tandis que l'air chaud est capté au niveau du plafond. Ce type de conguration est nommé Allée chaude/Allée froide.

3.1.4 Les serveurs informatiques

Ces composants sont au c÷ur du centre de données et dénissent le mode de fonctionnement de toutes les installations annexes. Sur la gure 3.1, ils sont arrangés en racks (ou armoire informatique) de cinq étages. Comme illustré à la gure 3.2, les principaux éléments du serveur qui consomment le plus d'énergie sont : le CPU, la mémoire et le disque. Parmi ces éléments, celui qui consomme le plus d'énergie est le CPU [43]. L'ensemble de ces éléments compose la partie TI qui représente l'unité résponsable du traitement des tâches reçues par les serveurs. La partie TI est alimentée par l'unité électrique PSU (Power Supply Unit).

Figure 3.2  Principaux éléments de consommation d'énergie dans un serveur

Ainsi, les besoins des centres de données, en termes d'énergie, se répartissent en deux grandes catégories. Nous distinguons, d'une part, l'énergie utile nécessaire à l'alimentation des serveurs informatiques, et d'autre part, l'énergie annexe absorbée par les équipements qui assurent le bon fonctionnement de l'installation. Cette seconde catégorie intègre les composants chargés de la distribution électrique et du refroidissement du système. L'énergie électrique absorbée par les serveurs représente la part la plus importante de la consommation totale de l'installation, vu qu'elle représente 60% d'énergie consommée par l'ensemble des composants du centre de données [10]. Or, celle-ci est intégralement restituée sous forme de chaleur par eet Joule dans le centre de données. Le système de refroidissement, responsable du maintien de la température et fonctionnant sans arrêt, représente le second plus gros poste de consommation, avec 33% de la consommation totale. Finalement, le faible rendement de la ligne de distribution d'électricité la rend responsable des pertes d'énergie restante. À partir de ces statistiques, et les statistiques présentées dans l'étude eectuée à [43] concernant la consommation d'énergie au niveau des diérents composants du serveur, nous constatons que l'équipement qui consomme le plus d'énergie au niveau du centre de données est le processeur. En eet, cet équipement consomme la part la plus importante au niveau du serveur, et ce dernier consomme 60% d'énergie totale au niveau du centre de données. À cet eet, notre méthode va cibler l'énergie consommée au niveau du processeur.

Documents relatifs