• Aucun résultat trouvé

LISTE DES ANNEXES

CHAPITRE 2 REVUE DE LITTÉRATURE

2.1 Les Technologies de l’Information et de la Communication 1 Contexte général

2.1.3 Les pistes d’amélioration et prérequis

2.1.3.1 Réalité et améliorations environnementales

L’efficacité des centres de traitement de données est un facteur clé dans la réduction des impacts énergétiques des TIC et est sans doute la plus énumérée dans la littérature (Pedram, 2012; Simonnet, 2010). Beaucoup de sources d’inefficacité ont été identifiées par la communauté scientifique et un nombre élevé d’articles énumèrent les solutions possibles pour réduire ces sources (Garg et al., 2011). Les deux principales sources d’inefficacité sont les systèmes de refroidissement et la non-proportionnalité des serveurs (Pedram, 2012). Idéalement, la consommation énergétique d’un serveur devrait être proportionnelle à la charge de travail qui lui est demandée. Néanmoins les serveurs actuels sont loin de cet idéal et on parle de « non- proportionnalité » de l'énergie des serveurs.

L’un des premiers enjeux est donc de réduire la consommation énergétique des centres de traitement des données en améliorant leur efficacité énergétique, notamment celle des systèmes de refroidissement. Le PUE (Power Usage Effectiveness) (Éq 2-1), indicateur de référence d’un centre de traitement de données mesure l’efficacité énergétique des centres de traitement de données et est utilisé pour réduire ses impacts sur l’environnement (Pedram, 2012; Simonnet,

2010). Par exemple, un PUE de 2 signifie que pour chaque kilowattheure utilisé pour le serveur informatique, un autre kilowattheure est nécessaire pour les équipements connexes et le refroidissement. Le système de refroidissement représente actuellement, la part la plus élevée de la consommation énergétique du centre de données après la consommation des serveurs (Marcinichen et al., 2012).

Les grands acteurs des services TIC se sont engagés à réduire considérablement le PUE de leurs centres de données (Pedram, 2012). En 2010, la valeur moyenne du PUE d’un centre des données était située entre 1,83 et 1,92, laissant une grande marge de manœuvre à l’innovation dans ce domaine. De grandes compagnies comme Microsoft, Google, Facebook et Ericsson, pour qui l'électricité représente une part élevée du coût d'exploitation, ont réussi à améliorer leur efficacité et leurs infrastructures (Google USA, 2013; Higginbothan, 2012; Seubert, 2012). Ces compagnies deviennent ainsi des pionnières dans le domaine de l’efficacité avec des PUE avoisinant les 1,06 et 1,2 pour les meilleurs sites (Google USA, 2013). Pour atteindre ces réductions, des technologies de « free-cooling », utilisant localement l’air ou l’eau, peuvent être mises en place.

Un autre enjeu pour la recherche sur les centres de données est le problème de la non- proportionnalité et du dimensionnement des centres de traitement de données. En effet, les centres de données sont dimensionnés pour répondre à la demande de pointe, mais seulement 10 à 50 % de leur pleine capacité est utilisée la plupart du temps (Barroso & Hölzle, 2009; Pedram, 2012). Ce surdimensionnement ne serait pas un problème si la consommation d'énergie était proportionnelle à la charge de travail du centre de traitement de données. Mais, quand 10 à 50% de la capacité d’un centre est utilisée, la demande en énergie demeure à 80 % de la demande

correspondant à la capacité maximale (Pedram, 2012). La non-proportionnalité de l'énergie et de la charge de travail est un facteur clé de l'inefficacité énergétique des centres de données (Pedram, 2012). Pour résoudre cette problématique, un grand nombre de chercheurs proposent des idées innovantes telles que la virtualisation et le « Cloud Computing » (Garg et al., 2011) .

En effet, pour résoudre le problème de non-proportionnalité , la virtualisation apparaît prometteuse et déjà fortement répandue dans le milieu de l’informatique (Thirupathi Rao et al., 2010). La virtualisation est un procédé permettant de concentrer les charges de travail de plusieurs machines physiques sur une seule machine (L. Liu et al., 2009; Moghaddam et al., 2011). La virtualisation améliore le rendement énergétique du serveur en redirigeant la charge de travail de façon optimale: le serveur utilisé tend à fonctionner à capacité maximale alors que les autres serveurs peuvent être mis en veille ou même éteint (Thirupathi Rao et al., 2010). L'US- EPA souligne l’efficacité de la virtualisation pour réduire la consommation électrique des serveurs en réduisant la part d’énergie utilisée lors de la phase d’utilisation à 27% contre 43% sans la virtualisation (U.S. Environmental Protection Agency, August 2007). La virtualisation permet aux clients d’un service de TIC d'accéder à un réseau de communication en temps réel pour un ensemble d’applications, de programmes, de contenus et autres fonctions nécessitant une infrastructure de traitement de données importante (Spatari et al., 2011) .

La virtualisation permet ainsi l’application d’une solution : le passage au « Cloud Computing ». Le « Cloud Computing » est un modèle de service utilisé pour décentraliser les ressources informatiques (Berl et al., 2010). La technologie de virtualisation alimente le « Cloud Computing », mais il est important de différencier les deux technologies. La virtualisation diffère du « Cloud Computing », en agissant comme un logiciel qui manipule le matériel informatique, tandis que le « Cloud Computing » fait référence à un service (mail, logiciel etc.) qui résulte de cette manipulation. Le « Cloud Computing » est un modèle de gérance informatique, permettant un accès pratique, sur demande au réseau, utilisant le partage des ressources informatiques (Gabrielsson et al., 2010). Le service de « Cloud Computing » via la virtualisation peut réduire considérablement la consommation d'électricité de l'utilisation des infrastructures, de 30 à 90 % dépendamment de la taille des entreprises, par rapport aux centres de données privées en centralisant les données dans de grands complexes (Thomond, Febuary 2013) (Accenture, 2010). L'avantage du « Cloud Computing » est notable pour les petites et moyennes entreprises qui ne sont plus contraintes à utiliser leur propre centre de données, mais peuvent louer les services de

gérants de centres de données qui sont en général beaucoup plus efficaces pour gérer des serveurs. Le « Cloud Computing » joue donc sur une économie d’échelle qui permet en général d'améliorer l'efficacité des centres de données en optimisant la gérance sur une grande échelle des données informatiques.

Parallèlement, le « Cloud Computing » offre beaucoup de caractéristiques, telles qu’une grande rapidité d’accès aux données informatiques, mais aussi la possibilité d'accéder et de payer juste pour le service rendu en fonction des besoins (Gabrielsson et al., 2010). Les services de « Cloud Computing » ont permis d’améliorer l’orchestration en temps réel, le temps de réponse et le partage des infrastructures pour plusieurs utilisateurs (Ericsson, February 2014; Garg; Kim et al., 2009). En effet, le modèle de « Cloud Computing » orchestre le réseau de façon à optimiser le déploiement des applications afin de satisfaire les utilisateurs dans leurs exigences en temps réel. Un grand nombre de fournisseurs de services Internet et de téléphone ont généralisé l’utilisation du « Cloud Computing » (Ericsson, February 2014).

Néanmoins, certains auteurs font référence aux effets rebonds venant mitiger les effets bénéfiques du « Cloud Computing » (Global eSustainability Initiative, 2008; Takahashi et al., 2004). En effet, la facilité d’accès à un réseau à la demande rapide et sur mesure accroit l’utilisation d’un tel service de « Cloud Computing », créant une demande supplémentaire qui contribue à accélérer la dépendance des services de TIC à l’électricité et rend encore plus imminente une crise énergétique des centres de données (Cook, 2012; Garg et al., 2011). Récemment, Greenpeace a publié dans son dernier rapport d’avril 2014, le classement mondial de la demande électrique par pays, par année versus celle du « Cloud Computing ». Le « Cloud » arrive en sixième position juste après la Russie avec plus 684 TWh (Gary Cook, 2014).

2.1.3.2 La mobilité de la charge de travail

En raison de la flexibilité dans la gestion des serveurs offerte par la virtualisation et le « Cloud Computing », la charge de travail requise pour un service TIC peut être partagée et traitée entre différents centres de données du réseau dispersés géographiquement (Berl et al., 2010; Ghamkhari & Mohsenian-Rad, 2012; Mingay, 2007). La charge de travail peut ainsi être concentrée sur un unique centre de données ou sur plusieurs suivant la situation et les critères d’optimisation. La qualité du service est garantie par un suivi et une gestion en temps réel rendu

possible grâce aux vitesses de transfert toujours plus performantes (Ghamkhari & Mohsenian- Rad, 2012; Le, Bilgir, et al., 2010; Scarfò, 2011).

De nombreuses pistes sont explorées afin de développer des services intelligents, orchestrant de façon mobile la charge de travail d’un centre de données à l’autre. Plusieurs critères sont résumés dans la littérature (Le, Bilgir, et al., 2010). La mobilité de la charge de travail peut se faire selon:

(1) Le prix de l’électricité (J. Li et al., 2012; Z. Liu et al., 2011)

(2) L’alternance des périodes de pointes et de faibles demandes électriques des services TIC faisant intervenir des centres de données situés dans des fuseaux horaires différents (Le, Bianchini, et al., 2010)

(3) La disponibilité d’énergies renouvelables (Ghamkhari & Mohsenian-Rad, 2012; Moghaddam et al., 2012)

Le premier de ces critères orchestre la mobilité des serveurs en fonction du prix de l’électricité le plus faible. Pour le deuxième critère, la mobilité s’appuie sur les décalages horaires des différents sites. Par exemple, pour décongestionner la demande électrique pendant les heures de forte affluence de certaines zones géographiques. Cette approche tient compte ainsi de l’alternance des heures de pointe et des heures creuses de différents sites de serveurs situés sur plusieurs fuseaux horaires ; ou dans la même logique, pouvoir bénéficier via la mobilité d’avantages géographiques journaliers comme le soleil et le vent. Cette approche, rejoint le troisième critère qui tient compte, quant à lui, de l’intermittence et de la répartition aléatoire des énergies renouvelables à la surface de la Terre. Optimisant ainsi l’utilisation du service en fonction des ressources renouvelables disponibles.

Quel que soit le critère choisi de mobilité de la charge de travail répartie sur différents centres de traitement de données, cela implique une bonne connaissance en temps réel du ou des paramètres de migrations ciblés (Le, Bilgir, et al., 2010) (le prix de l’électricité, les technologies de production électrique, la température, l’humidité etc.). Ce premier point est appuyé par certains auteurs, mentionnant la nécessité d’avoir des paramètres dynamiques pour le prix de l’électricité, afin d’optimiser les migrations sur le marché réel de l’électricité (Le, Bianchini, et al., 2010; Z. Liu et al., 2011). Un grand nombre d’études traitent de la mobilité de la charge de travail via un service de « Cloud Computing », essentiellement d’un point de vue de la réduction de la facture électrique (Le, Bianchini, et al., 2010; Le, Bilgir, et al., 2010).

Cependant, la migration de la charge de travail et des données selon le critère du prix de l’électricité trouve un certain scepticisme auprès de la communauté scientifique, car le choix de ce critère favorise la consommation d’électricité peu coûteuse au détriment de l’empreinte carbone, car l’énergie renouvelable à faibles émissions de GES n’est pas nécessairement la moins chère sur le marché de l’électricité (Mills, 2013; Spatari et al., 2011).

Afin de ne pas subir un effet rebond néfaste de la technologie « Cloud Computing » face à l’augmentation de la masse de données, il faut que les TIC se tournent vers des solutions énergétiques durables qui émettent moins de GES (Baliga et al., 2011a; Ghamkhari & Mohsenian-Rad, 2012). De plus, les migrations de la charge de travail peuvent entraîner des variations plus ou moins importantes de la demande électrique des centres de données concernés. Par conséquent, le calcul de l’empreinte carbone d’un centre de données fonctionnant en « Cloud Computing » peut être plus complexe que celui d’un centre de données isolé pour lequel les variations de la demande électrique seraient moins importantes.