• Aucun résultat trouvé

PARTIE 3 ANALYSE ÉLECTRIQUE DU DATACENTER

3.3. a Éclairage

Afin d’estimer la puissance électrique moyenne de l’éclairage, on estime la puissance moyenne par unité de surface pour chacun des locaux du datacenter de 10 W/m2. D’après les services techniques de l’ONUG, la surface des locaux a été évaluée approximativement à 200 m2 pour la salle serveurs, 75 m2 pour la salle réseau, 40 m2 pour le local ASC (onduleur 2) et 30 m2 pour le local ventilation (onduleur 1). La surface totale éclairée est donc d’environ 345 m2. L’éclairage n’affichant jamais une consommation continue, le nombre d’heures de fonctionnement par an des luminaires et dans chaque pièce a été estimée : 130 h dans la salle serveurs, 780 h dans la salle réseau et 260 h dans les locaux ASC et ventilation. Ainsi l’éclairage consomme 1’027 kWh/an, qui correspond à une puissance horaire moyenne continue d’environ 0.1 kW. Ces données sont récapitulées dans le Tableau 3-1 ci-dessous.

Tableau 3-1 : Valeurs estimées pour le calcul de la consommation de l’éclairage dans le datacenter.

Salle Psurf (W/m2) Surface (m2) Pél (W) Nh (h) Eél (kWh)

25 3.3.b CRACs (armoires de climatisation des salles)

Les puissances électriques des CRACs de chacune des salles climatisées est inclue, comme l’éclairage, dans les 20.3 kW de puissance non secourue par les onduleurs (section 3.3).

Ainsi, nous estimons la puissance électrique moyenne de chaque CRAC à partir des intensités électriques telles que données par les fiches protocoles (Annexe 9, Annexe 10 et Annexe 11) et des données techniques des CRACs (Annexe 12). Les résultats sont récapitulés dans le Tableau 3-2 ci-dessous.

Tableau 3-2 : Intensités d'alimentation des CRACs et puissances correspondantes.

Serveurs Réseaux ASC

CRAC1 CRAC2 CRAC3 CRAC1 CRAC2 CRAC1 CRAC2

Intensité (A) 6.1 6.1 6.0 1.7 1.8 1.7 1.4

Pél (kW) 3.34 3.34 3.29 0.89 0.95 0.47 0.39

Pél moy (kW) 3.32 0.92 0.43

La puissance électrique moyenne estimée des CRACs pour chacune des salles se décompose comme suit :

 Salle serveurs (2 CRACs) : 2 x 3.32 kW = 6.6 kW

 Salle réseaux (1 CRAC) : 1 x 0.92 kW = 0.9 kW

 Salle ASC (1 CRAC) : 1 x 0.43 kW = 0.43 kW

De ce fait, l’ensemble des CRACs représente au total une puissance d’environ 7.9 kW.

3.3.c Autres constituants

Au niveau de l’infrastructure non-informatique il reste finalement une consommation non-identifiée de 20.3 – (7.9 + 0.1) = 12.3 kW.

Afin de s’assurer que cette consommation électrique est bien liée au datacenter, nous vérifions plus bas (section 3.5) la concordance entre bilans électrique et thermique.

3.4 Production de froid

Le schéma électrique de la Figure 3.7 présente l’alimentation électrique ne participant pas aux charges internes du datacenter, soit pour le système de production et distribution de froid (hors CRACs, traités ci-dessus). Les valeurs indiquées sont soit des puissances moyennes mesurées, soit des puissances estimées.

26

Figure 3.7 : Schéma électrique des autres charges du datacenter de l’ONUG (point rouge = mesures ; point vert = estimation)

3.4.a Le groupe de froid

Lorsque le groupe de froid est enclenché, il consomme entre 30 et 50 kW, avec une moyenne d’environ 40.7 kW (Figure 3.8), ce qui correspond à un EER de 2.7 par rapport aux 107 kW thermique des CRACs. A noter que ces valeurs restent proches de celles données par la fiche technique (Annexe 1).

Figure 3.8 : Puissance électrique du groupe de froid de secours du datacenter (lors des mises en marche) ; acquisition toutes les 15 minutes

27 3.4.b La pompe de circulation

Nous estimons à environ 1 kW la puissance de la pompe de circulation du circuit secondaire (utilisée uniquement lorsque le refroidissement se fait via GLN).

3.4.c Le monobloc de ventilation

Le monobloc de ventilation a une puissance en fonctionnement de 1.6 kW, mais ne fonctionne pas la nuit ni les weekends. Sur les deux semaines en question, il consomme une puissance moyenne de 0.5 kW (Figure 3.9). Etant donné que seul environ 50% du débit du monobloc est dédié à d’autres locaux (section 1.2.b), la consommation électrique moyenne dédiée au datacenter s’élève à 0.2 kW.

Figure 3.9 : Puissance électrique du monobloc de ventilation (rouge) et de la part dédié au datacenter (bleu) ; moyennes horaires.

3.5 Concordance entre bilans électrique et thermique

L’ensemble des charges électriques internes au datacenter s’élève à 111 kW (section 3.2.c), dont 2.4 kW de pertes de l’onduleur situé dans le local de ventilation, qui n’est pas climatisé. Les charges évacuées par climatisation s’élèvent ainsi à 108.6 kW, ce qui est en très bonne corrélation avec la puissance thermique de 107 kW des CRACs, obtenue via les fiches de mise en service (section 2.1.b).

Cela reste cependant inférieur aux 137 kW mesurés sur le circuit de distribution secondaire connecté à GLN (section 2.1.a), ce qui pourrait éventuellement provenir d’une utilisation de froid externe au datacenter.

28

PARTIE 4 Performances énergétiques du datacenter 4.1 Introduction

Ce chapitre, qui se base sur les analyses des sous-systèmes effectuées dans les chapitres précédents est consacré à l’analyse énergétique globale du datacenter de l’ONU.

A partir du bilan thermique et électrique, présenté sous forme de tableau et de diagramme de flux, nous allons en particulier nous intéresser au PUE (Power Usage Effectiveness). Cet indicateur, développé et reconnu au niveau international (Green Grid, 2011 ; AGIT, 2012), mesure la performance des datacenters par le rapport entre la consommation électrique totale d’un datacenter (intégrant l’infrastructure physique, en particulier pour le refroidissement, plus la charge informatique) et la consommation électrique nécessaire aux équipements informatiques uniquement (incluant les serveurs, switchs, et équipements réseaux) :

efficient ; plus sa valeur est élevée, plus la consommation de l’infrastructure non IT est importante et moins le datacenter est efficient.

En principe ce rapport devrait être établi sur la base d’une consommation annuelle. Nous l’estimerons ici à partir des puissances moyennes observées sur deux semaines de mesure, en considérant que celle-ci sont représentatives du fonctionnement global sur l’année (extrapolation des consommations annuelles par règle de trois).

En général, la climatisation des salles informatiques représente un poste important de la consommation électrique de l’infrastructure, et son optimisation contribue à baisser (améliorer) le PUE (Aebischer et al., 2003). Conformément aux objectifs de l’étude, nous porterons donc une attention particulière à la climatisation du datacenter de l’ONU, en comparant son fonctionnement via machines de froid ou via le réseau GLN.

29

4.2 Bilan énergétique

4.2.a Climatisation via le réseau GLN

La figure suivante représente le diagramme de flux énergétique (électrique et thermique) du datacenter de l’ONU lorsqu’il est climatisé via GLN. Le détail des puissances électriques moyennes par sous-système et leur extrapolation au niveau annuel sont récapitulées dans le Tableau 4-1. Leur répartition (en pourcentage de la puissance électrique totale) est illustrée dans la Figure 4.2.

Figure 4.1 : Diagramme de flux énergétique (climatisation via GLN).

30

Tableau 4-1 : Bilan des puissances électriques moyennes des différents sous-systèmes et consommations annuelles extrapolées (climatisation via GLN).

Sous-système Pél (kW) Eél (MWh/an)

Infrastructure Pompe secondaire 1.0 8.8

CRACs 7.9 69.2

Monobloc 0.2 1.8

Onduleurs (pertes) 4.6 40.3

Eclairage 0.1 1.0

Autres constituants 12.3 107.7

Equipement IT Serveurs 67.8 593.9

Réseaux 7.8 68.3

Switch 2.5 21.9

Non identifié 8.0 70.1

Total Total infrastructure 26.1 228.8

Total IT 86.1 754.2

Total 112.2 983.0

PUE Ptot/PIT 1.30 1.30

Figure 4.2 : Distribution des consommations électriques par sous-système (climatisation via GLN).

Sur les 112 kW de puissance électrique totale dédiée au datacenter (par extrapolation environ 980 MWh d’énergie annuelle), 86 kW (77%) sont consommés par les équipements informatiques, dont une grande majorité par les serveurs (61%). Le solde de la consommation IT se subdivise essentiellement, à parts égales, entre les réseaux et une consommation non identifiée (qui est attribuée à l’informatique, car transitant via les onduleurs et donc secourue).

Sur les 26 kW (23%) de consommation liée à l’infrastructure, seuls 9 kW sont liés à la climatisation (7% pour les CRACs et 1% pour la pompe de circulation du circuit de distribution secondaire). Le solde majoritaire de 17 kW se partage entre les pertes de l’onduleur (4%) et une consommation non identifiée (11%) qui transite néanmoins par le tableau électrique du datacenter.

A noter que les consommations de l’éclairage et du monobloc de ventilation sont quant à elles négligeables (inférieures à 1%) et ne sont pas représentées sur la Figure 4.2.

31 Déduction faite de la pompe de distribution secondaire (située hors du datacenter) et des pertes de l’onduleur situé dans le local de ventilation (non climatisé), l’ensemble des charges électriques évacuées par climatisation s’élève à 108.6 kW, ce qui est en très bonne corrélation avec la puissance thermique de 107 kW des CRACs, telle qu’obtenue via les fiches de mise en service (section 2.1.b).

Ces charges sont cependant inférieures aux 137 kW mesurés sur le circuit de distribution secondaire connecté à GLN (section 2.1.a), ce qui pourrait éventuellement provenir d’une utilisation de froid externe au datacenter.

En se basant sur les chiffres ci-dessus, le PUE du datacenter de l’ONU s’élève à 1.30 lorsqu’il est climatisé par le réseau GLN. Cela signifie que pour chaque kW consommé par l’informatique, 0.3 kW sont consommés par l’ensemble des autres postes de l’infrastructure, dont seulement 0.1 kW pour la climatisation.

Il subsiste dans le calcul ci-dessus une incertitude liée aux postes de consommation non identifiés, en particulier les 12 kW ne transitant pas par l’onduleur. En effet, cette puissance qui n’est imputable ni à la climatisation ni à l’éclairage reste relativement élevée. Dans l’hypothèse où il s’agissait d’une puissance (non secourue) dédiée à l’informatique, le PUE du datacenter s’élèverait à 1.14. Dans l’hypothèse où cette consommation était dédiée à un usage hors du datacenter (ce qui semble douteux étant donné l’équilibre entre bilans thermique et électrique), il s’élèverait à 1.16.

Par ailleurs, le calcul de PUE ci-dessus ne tient pas compte de la consommation des pompes du réseau primaire GLN, qui permettent la circulation d’eau du lac jusqu’à l’ONU. Après discussion avec M. Viquerat (SIG), il s’avère que l’EER (Energy Efficiency Ratio) global du réseau primaire GLN se situait en 2011 aux alentours de 15. En appliquant telle quelle cette valeur aux 108.6 kW évacués au niveau du datacenter, il faudrait imputer 7.2 kW électrique supplémentaires à l’utilisation du circuit primaire GLN, de sorte que le PUE s’élèverait à 1.39. Cependant, un calcul plus précis (qui sort du cadre de cette étude) devrait prendre en compte la part de l’électricité du réseau GLN dédiée spécifiquement aux datacenters (fonctionnement en ruban toute l’année).

Selon les différentes hypothèses, on retiendra finalement pour le datacenter de l’ONU un PUE situé entre 1.1 et 1.4 lorsqu’il est climatisé via le réseau GLN. Il s’agit comme nous le verrons plus bas d’une excellente performance.

32 4.2.b Climatisation par machine frigorifique

La figure suivante représente le diagramme de flux énergétique (électrique et thermique) du datacenter de l’ONU lorsqu’il est climatisé via machine de froid. Le détail des puissances électriques moyennes par sous-système et leur extrapolation au niveau annuel sont récapitulées dans le Tableau 4-2. Leur répartition (en pourcentage de la puissance électrique totale) est illustrée dans la Figure 4.4.

Figure 4.3 : Diagramme de flux énergétique (climatisation via machine de froid).

33

Tableau 4-2 : Bilan des puissances électriques moyennes des différents sous-systèmes et consommations annuelles extrapolées (climatisation via MF).

Sous-système Pél (kW) Eél (MWh/an)

Infrastructure Machine de froid 40.7 356.5

CRACs 7.9 69.2

Monobloc 0.2 1.8

Onduleurs (pertes) 4.6 40.3

Eclairage 0.1 1.0

Autres constituants 12.3 107.7

Equipement IT Serveurs 67.8 593.9

Réseaux 7.8 68.3

Switch 2.5 21.9

Non identifié 8.0 70.1

Total Total infrastructure 65.8 576.6

Total IT 86.1 754.2

Total 151.9 1330.8

PUE Ptot/PIT 1.76 1.76

Figure 4.4 : Distribution des consommations électriques (climatisation via MF).

Au niveau des flux énergétiques, la seule différence par rapport au cas précédent concerne la machine de froid qui substitue le réseau de distribution secondaire couplé à GLN. Sur les deux périodes de test où elle a été enclenchée, la machine de froid consomme 40 fois plus que la pompe du circuit secondaire GLN (40.7 kW vs 1 kW). En tenant compte des consommations auxiliaires (CRAC et monobloc de ventilation), la consommation liée à la climatisation est 5 fois plus importante que pour la climatisation via GLN (48.8 kW vs 9.1 kW).

Pour une consommation IT inchangée d’environ 86 kW, la consommation totale de l’infrastructure s’élève cette fois-ci à 66 kW, ce qui correspond à un PUE de 1.76.

Comme pour le cas précédent, il subsiste dans le calcul ci-dessus une incertitude liée aux 12 kW non identifiés qui ne transitent pas par l’onduleur. Dans l’hypothèse où il s’agissait d’une puissance (non

34 secourue) dédiée à l’informatique, le PUE du datacenter s’élèverait à 1.54. Dans l’hypothèse où cette consommation était dédiée à un usage hors du datacenter, il s’élèverait à 1.62.

Selon les différentes hypothèses, on retiendra finalement pour le datacenter de l’ONU un PUE situé entre 1.5 et 1.8 lorsqu’il est climatisé par la machine de froid.

Notons finalement que l’extrapolation de ces valeurs au niveau annuel est quelque peu optimiste, puisqu’elle suppose que la machine de froid fonctionne avec un EER de 2.7, tel que mesuré ponctuellement en hiver, indépendamment de la température extérieure.

4.3 Benchmarking

D’après une récente étude (Digital Realty, 2013) 200 entreprises européennes ont été interrogées sur les performances de leur datacenter. A ce propos, 65% d’entre elles possèdent un datacenter dont la construction date de 2 ans ou moins. A partir des PUE annoncés par le panel d’entreprises, un PUE moyen de 2.531 est calculé. Un quart des entreprises interviewées annoncent un PUE compris entre 2.0 et 2.9 tandis que seulement 1% affiche un PUE inférieur à 1.4 (Figure 4.5).

Bien que le datacenter de l’ONUG soit récent (installation en 2010), le PUE calculé s’élève à 1.76 avec une climatisation par groupe de froid, ce qui est légèrement inférieur à la moyenne. Grâce à la climatisation via GLN, on obtient un PUE de 1.30, qui situe le datacenter de l’ONU parmi les datacenters les plus performants.

Figure 4.5 : Positionnement du datacenter de l’ONUG par rapport au mix des performances des autres datacenters.

Source : modifié à partir de Digital Realty, 2013

1 Cette valeur indique que l’ensemble des constituants de l’infrastructure consomment une fois et demie plus d’électricité que l’informatique seule.

35 Finalement, bien qu’étant un bon outil d’évaluation, l’utilisation du PUE comme seul indicateur de la performance énergétique des centres informatiques et comme outil de comparaison entre plusieurs infrastructures, est à nuancer :

 Le PUE ne fait pas état de la prestation finale du datacenter, qui est la fourniture de services informatiques tels que le stockage et l’échange d’informations.

 Le PUE est intrinsèquement conditionné par la température de l’air extérieur et par conséquent la localisation géographique du site. En effet, lorsque la climatisation du datacenter est assurée par machine de froid, la température extérieure a une influence directe sur l’EER du groupe de froid et donc sur sa consommation électrique. Ainsi pour un même centre de données, le PUE en Norvège sera meilleur que celui au Maroc par exemple.

 Le PUE ne tient pas compte du taux de disponibilité (TIER), qui caractérise le niveau de sécurité / disponibilité, lié à la redondance de l’alimentation électrique (AGIT, 2012).

L’augmentation d’équipements redondants de secours (cabine d’alimentation électrique, onduleur) fonctionnant à charge partielle augmentent le taux de disponibilité du centre mais également les pertes au détriment de l’efficacité énergétique et ce, à charge informatique identique. Une haute disponibilité (TIER élevé) est donc susceptible de dégrader le PUE du fait de la consommation électrique des éléments redondants. Il s’agit donc d’un compromis entre consommation électrique et disponibilité de l’information.

Par conséquent, il conviendrait de spécifier pour plus de pertinence, le niveau de TIER ainsi que le taux de disponibilité statistique du site, car le PUE exprimé seul est en réalité insuffisant (Labaume, 2009).

36

Conclusion

Le centre de données de l’ONUG a besoin d’être refroidi sans interruption, été comme hiver.

Actuellement la climatisation se fait grâce au réseau GLN mais il existe un groupe de froid de secours.

L’objectif principal de ce rapport était donc de comparer les performances énergétiques du datacenter selon le système de refroidissement, puis de mettre en évidence les enjeux liés à la climatisation dans ce type d’infrastructure. Pour cela, deux cas de figure ont été étudiés:

 Climatisation via le réseau hydrothermique GLN (situation actuelle)

 Climatisation plus « classique » par machine frigorifique (MF).

L’analyse était basée sur une campagne de mesure d’une quinzaine de jours en période hivernale (du 22.02.2013 au 08.03.2013), pendant laquelle le groupe de froid fut mis en route deux journées, les 27.02 et 05.03. Le reste du temps, la climatisation du datacenter était uniquement assurée par GLN.

Les mesures de débit et de température fournies par le système de régulation centralisé de l’ONUG ont permis d’établir un bilan relativement complet de la demande thermique « froid » et des températures de travail associées. Les mesures électriques effectuées par les SIG ont permis quant à elles de quantifier la consommation électrique du datacenter, puis de dissocier la consommation des équipements informatiques (serveurs, réseau, switchs) de celles des autres postes de l’infrastructure (climatisation, l’éclairage, pertes onduleurs).

L’analyse détaillée de ces mesures se résume comme suit :

 La consommation électrique de l’équipement informatique s’élève à 86 kW, dont environ 80% pour les serveurs.

 Lorsque le datacenter est climatisé via GLN, la consommation liée à l’infrastructure s’élève à environ 26 kW, dont seuls 9 kW sont liés à la climatisation. Le PUE du datacenter de l’ONU s’élève ainsi à 1.30, ce qui signifie que pour chaque kW consommé par l’informatique, 0.3 kW sont consommés par l’ensemble des autres postes de l’infrastructure, dont seulement 0.1 kW pour la climatisation. Il s’agit d’une valeur qui situe ce datacenter parmi les plus performants d’Europe.

 L’ensemble des charges électriques évacuées par climatisation s’élève à environ 109 kW, ce qui est en très bonne corrélation avec la puissance thermique de 107 kW des CRACs, obtenue via les fiches de mise en service. Ces charges sont cependant inférieures aux 137 kW mesurés sur le circuit de distribution secondaire connecté à GLN, ce qui pourrait éventuellement provenir d’une utilisation de froid externe au datacenter.

 En alternative à GLN, la machine de froid consomme une moyenne d’environ 41 kW, soit 40 fois plus que la pompe du circuit secondaire GLN. En tenant compte des consommations auxiliaires (CRAC et monobloc de ventilation), la consommation liée à la climatisation s’élève à 49 kW (5 fois plus que via GLN). La consommation totale de l’infrastructure s’élève cette fois-ci à 66 kW (2.5 fois plus que via GLN), ce qui correspond à un PUE de 1.76. Cette valeur se situe dans la moyenne européenne.

 Il subsiste dans les valeurs ci-dessus une incertitude liée à 12 kW d’électricité non secourue, dont l’affectation n’a pas été identifiée de façon claire. S’il est à peu près établi qu’il s’agit bien d’une consommation interne au datacenter (cf adéquation entre bilans électrique et thermique), le choix de l’affecter à l’infrastructure plutôt qu’à l’équipement informatique

37 reste sujet à discussion. Pour l’une ou l’autre des formes de climatisation, un changement de cette affectation améliore le PUE d’environ 0.2 points.

 De façon similaire, la part de l’électricité pour le réseau primaire GLN, qui n’est pas prise en compte ci-dessus, augmenterait le PUE de moins de 0.1 point

Par ailleurs, et bien que la campagne de mesure à la base de cette étude n’ait porté que sur deux semaines de fonctionnement en hiver, il est important de rappeler que la climatisation du datcenter de l’ONU (tout comme d’ailleurs celle des salles de conférence en été) est entièrement assurée par GLN (sauf ponctuellement lors de retournements du lac, donnant lieu à une température trop élevée pour la climatisation), ceci à l’entière satisfaction des usagers.

Finalement, nous citerons les points qui n’ont pas été étudiés dans le cadre de ce travail :

 L’augmentation de la température de climatisation du datacenter. Il s’agit là d’un point régulièrement mis en avant pour baisser la consommation électrique pour la climatisation. A cet égard, la consommation pour la production de froid via GLN est actuellement déjà très basse, et n’est que marginalement dépendante de la température de travail (du moins du côté secondaire). Le gros de la consommation résiduelle pour la climatisation se situant au niveau des CRAC, cette dernière pourrait en principe être abaissée par augmentation de la température de travail et abaissement du débit de ventilation.

 En alternative au fonctionnement sur GLN pendant l’hiver, la climatisation par freecooling avec l’air extérieur n’a pas été étudiée ici. A cet égard, et contrairement au fonctionnement sur machine de froid, en hiver les rejets thermiques de la climatisation via GLN sont potentiellement valorisés par les pompes à chaleur d’autres bâtiments branchées sur le réseau primaire GLN. L’évaluation de ce potentiel, en lien avec le fonctionnement de GLN en boucle fermée, nécessite cependant une étude approfondie du sujet.

38

Références

Digital Realty, 2013. Europe Campos Surveys Results.

[En ligne] disponible sur : http://www.digitalrealty.com/us/knowledge-center-us (Consulté le 06.09.2013)

Viquerat P-A., Lachal B., Hollmuller P., 2012. « Connexion des bâtiments de l’ONU au réseau GLN – Analyse de la première année de fonctionnement ». Rapport de recherche, Université de Genève, Groupe Energie, 57p.

Aebischer, B., Frischknecht, R., Genoud, C., Huser, A., & Varone, F., 2003. « Energy – and Eco – Efficiency of Data Centres : A study commissioned by DIAE / ScanE of the Canton of Geneva ». Genève The Green Grid, 2011. « Recommendations for Measuring and Reporting Overall Data Center Efficiency, Version 2 – Measuring PUE for Data Centers ». White Paper

Alliance Green IT (AGIT), 2012. « Le PUE est-il un bon indicateur environnemental ? », Communiqué de presse. Paris

[En ligne] disponible sur : http://www.alliancegreenit.org/presse/publications (Consulté le 25.11.2013)

Labaume, T., 2009. « Faut-il choisir entre disponibilité du datacenter et PUE ? »

Labaume, T., 2009. « Faut-il choisir entre disponibilité du datacenter et PUE ? »

Documents relatifs