• Aucun résultat trouvé

PARTIE 4 PERFORMANCES ÉNERGÉTIQUES DU DATACENTER

4.2. a Climatisation via le réseau GLN

La figure suivante représente le diagramme de flux énergétique (électrique et thermique) du datacenter de l’ONU lorsqu’il est climatisé via GLN. Le détail des puissances électriques moyennes par sous-système et leur extrapolation au niveau annuel sont récapitulées dans le Tableau 4-1. Leur répartition (en pourcentage de la puissance électrique totale) est illustrée dans la Figure 4.2.

Figure 4.1 : Diagramme de flux énergétique (climatisation via GLN).

30

Tableau 4-1 : Bilan des puissances électriques moyennes des différents sous-systèmes et consommations annuelles extrapolées (climatisation via GLN).

Sous-système Pél (kW) Eél (MWh/an)

Infrastructure Pompe secondaire 1.0 8.8

CRACs 7.9 69.2

Monobloc 0.2 1.8

Onduleurs (pertes) 4.6 40.3

Eclairage 0.1 1.0

Autres constituants 12.3 107.7

Equipement IT Serveurs 67.8 593.9

Réseaux 7.8 68.3

Switch 2.5 21.9

Non identifié 8.0 70.1

Total Total infrastructure 26.1 228.8

Total IT 86.1 754.2

Total 112.2 983.0

PUE Ptot/PIT 1.30 1.30

Figure 4.2 : Distribution des consommations électriques par sous-système (climatisation via GLN).

Sur les 112 kW de puissance électrique totale dédiée au datacenter (par extrapolation environ 980 MWh d’énergie annuelle), 86 kW (77%) sont consommés par les équipements informatiques, dont une grande majorité par les serveurs (61%). Le solde de la consommation IT se subdivise essentiellement, à parts égales, entre les réseaux et une consommation non identifiée (qui est attribuée à l’informatique, car transitant via les onduleurs et donc secourue).

Sur les 26 kW (23%) de consommation liée à l’infrastructure, seuls 9 kW sont liés à la climatisation (7% pour les CRACs et 1% pour la pompe de circulation du circuit de distribution secondaire). Le solde majoritaire de 17 kW se partage entre les pertes de l’onduleur (4%) et une consommation non identifiée (11%) qui transite néanmoins par le tableau électrique du datacenter.

A noter que les consommations de l’éclairage et du monobloc de ventilation sont quant à elles négligeables (inférieures à 1%) et ne sont pas représentées sur la Figure 4.2.

31 Déduction faite de la pompe de distribution secondaire (située hors du datacenter) et des pertes de l’onduleur situé dans le local de ventilation (non climatisé), l’ensemble des charges électriques évacuées par climatisation s’élève à 108.6 kW, ce qui est en très bonne corrélation avec la puissance thermique de 107 kW des CRACs, telle qu’obtenue via les fiches de mise en service (section 2.1.b).

Ces charges sont cependant inférieures aux 137 kW mesurés sur le circuit de distribution secondaire connecté à GLN (section 2.1.a), ce qui pourrait éventuellement provenir d’une utilisation de froid externe au datacenter.

En se basant sur les chiffres ci-dessus, le PUE du datacenter de l’ONU s’élève à 1.30 lorsqu’il est climatisé par le réseau GLN. Cela signifie que pour chaque kW consommé par l’informatique, 0.3 kW sont consommés par l’ensemble des autres postes de l’infrastructure, dont seulement 0.1 kW pour la climatisation.

Il subsiste dans le calcul ci-dessus une incertitude liée aux postes de consommation non identifiés, en particulier les 12 kW ne transitant pas par l’onduleur. En effet, cette puissance qui n’est imputable ni à la climatisation ni à l’éclairage reste relativement élevée. Dans l’hypothèse où il s’agissait d’une puissance (non secourue) dédiée à l’informatique, le PUE du datacenter s’élèverait à 1.14. Dans l’hypothèse où cette consommation était dédiée à un usage hors du datacenter (ce qui semble douteux étant donné l’équilibre entre bilans thermique et électrique), il s’élèverait à 1.16.

Par ailleurs, le calcul de PUE ci-dessus ne tient pas compte de la consommation des pompes du réseau primaire GLN, qui permettent la circulation d’eau du lac jusqu’à l’ONU. Après discussion avec M. Viquerat (SIG), il s’avère que l’EER (Energy Efficiency Ratio) global du réseau primaire GLN se situait en 2011 aux alentours de 15. En appliquant telle quelle cette valeur aux 108.6 kW évacués au niveau du datacenter, il faudrait imputer 7.2 kW électrique supplémentaires à l’utilisation du circuit primaire GLN, de sorte que le PUE s’élèverait à 1.39. Cependant, un calcul plus précis (qui sort du cadre de cette étude) devrait prendre en compte la part de l’électricité du réseau GLN dédiée spécifiquement aux datacenters (fonctionnement en ruban toute l’année).

Selon les différentes hypothèses, on retiendra finalement pour le datacenter de l’ONU un PUE situé entre 1.1 et 1.4 lorsqu’il est climatisé via le réseau GLN. Il s’agit comme nous le verrons plus bas d’une excellente performance.

32 4.2.b Climatisation par machine frigorifique

La figure suivante représente le diagramme de flux énergétique (électrique et thermique) du datacenter de l’ONU lorsqu’il est climatisé via machine de froid. Le détail des puissances électriques moyennes par sous-système et leur extrapolation au niveau annuel sont récapitulées dans le Tableau 4-2. Leur répartition (en pourcentage de la puissance électrique totale) est illustrée dans la Figure 4.4.

Figure 4.3 : Diagramme de flux énergétique (climatisation via machine de froid).

33

Tableau 4-2 : Bilan des puissances électriques moyennes des différents sous-systèmes et consommations annuelles extrapolées (climatisation via MF).

Sous-système Pél (kW) Eél (MWh/an)

Infrastructure Machine de froid 40.7 356.5

CRACs 7.9 69.2

Monobloc 0.2 1.8

Onduleurs (pertes) 4.6 40.3

Eclairage 0.1 1.0

Autres constituants 12.3 107.7

Equipement IT Serveurs 67.8 593.9

Réseaux 7.8 68.3

Switch 2.5 21.9

Non identifié 8.0 70.1

Total Total infrastructure 65.8 576.6

Total IT 86.1 754.2

Total 151.9 1330.8

PUE Ptot/PIT 1.76 1.76

Figure 4.4 : Distribution des consommations électriques (climatisation via MF).

Au niveau des flux énergétiques, la seule différence par rapport au cas précédent concerne la machine de froid qui substitue le réseau de distribution secondaire couplé à GLN. Sur les deux périodes de test où elle a été enclenchée, la machine de froid consomme 40 fois plus que la pompe du circuit secondaire GLN (40.7 kW vs 1 kW). En tenant compte des consommations auxiliaires (CRAC et monobloc de ventilation), la consommation liée à la climatisation est 5 fois plus importante que pour la climatisation via GLN (48.8 kW vs 9.1 kW).

Pour une consommation IT inchangée d’environ 86 kW, la consommation totale de l’infrastructure s’élève cette fois-ci à 66 kW, ce qui correspond à un PUE de 1.76.

Comme pour le cas précédent, il subsiste dans le calcul ci-dessus une incertitude liée aux 12 kW non identifiés qui ne transitent pas par l’onduleur. Dans l’hypothèse où il s’agissait d’une puissance (non

34 secourue) dédiée à l’informatique, le PUE du datacenter s’élèverait à 1.54. Dans l’hypothèse où cette consommation était dédiée à un usage hors du datacenter, il s’élèverait à 1.62.

Selon les différentes hypothèses, on retiendra finalement pour le datacenter de l’ONU un PUE situé entre 1.5 et 1.8 lorsqu’il est climatisé par la machine de froid.

Notons finalement que l’extrapolation de ces valeurs au niveau annuel est quelque peu optimiste, puisqu’elle suppose que la machine de froid fonctionne avec un EER de 2.7, tel que mesuré ponctuellement en hiver, indépendamment de la température extérieure.

4.3 Benchmarking

D’après une récente étude (Digital Realty, 2013) 200 entreprises européennes ont été interrogées sur les performances de leur datacenter. A ce propos, 65% d’entre elles possèdent un datacenter dont la construction date de 2 ans ou moins. A partir des PUE annoncés par le panel d’entreprises, un PUE moyen de 2.531 est calculé. Un quart des entreprises interviewées annoncent un PUE compris entre 2.0 et 2.9 tandis que seulement 1% affiche un PUE inférieur à 1.4 (Figure 4.5).

Bien que le datacenter de l’ONUG soit récent (installation en 2010), le PUE calculé s’élève à 1.76 avec une climatisation par groupe de froid, ce qui est légèrement inférieur à la moyenne. Grâce à la climatisation via GLN, on obtient un PUE de 1.30, qui situe le datacenter de l’ONU parmi les datacenters les plus performants.

Figure 4.5 : Positionnement du datacenter de l’ONUG par rapport au mix des performances des autres datacenters.

Source : modifié à partir de Digital Realty, 2013

1 Cette valeur indique que l’ensemble des constituants de l’infrastructure consomment une fois et demie plus d’électricité que l’informatique seule.

35 Finalement, bien qu’étant un bon outil d’évaluation, l’utilisation du PUE comme seul indicateur de la performance énergétique des centres informatiques et comme outil de comparaison entre plusieurs infrastructures, est à nuancer :

 Le PUE ne fait pas état de la prestation finale du datacenter, qui est la fourniture de services informatiques tels que le stockage et l’échange d’informations.

 Le PUE est intrinsèquement conditionné par la température de l’air extérieur et par conséquent la localisation géographique du site. En effet, lorsque la climatisation du datacenter est assurée par machine de froid, la température extérieure a une influence directe sur l’EER du groupe de froid et donc sur sa consommation électrique. Ainsi pour un même centre de données, le PUE en Norvège sera meilleur que celui au Maroc par exemple.

 Le PUE ne tient pas compte du taux de disponibilité (TIER), qui caractérise le niveau de sécurité / disponibilité, lié à la redondance de l’alimentation électrique (AGIT, 2012).

L’augmentation d’équipements redondants de secours (cabine d’alimentation électrique, onduleur) fonctionnant à charge partielle augmentent le taux de disponibilité du centre mais également les pertes au détriment de l’efficacité énergétique et ce, à charge informatique identique. Une haute disponibilité (TIER élevé) est donc susceptible de dégrader le PUE du fait de la consommation électrique des éléments redondants. Il s’agit donc d’un compromis entre consommation électrique et disponibilité de l’information.

Par conséquent, il conviendrait de spécifier pour plus de pertinence, le niveau de TIER ainsi que le taux de disponibilité statistique du site, car le PUE exprimé seul est en réalité insuffisant (Labaume, 2009).

36

Conclusion

Le centre de données de l’ONUG a besoin d’être refroidi sans interruption, été comme hiver.

Actuellement la climatisation se fait grâce au réseau GLN mais il existe un groupe de froid de secours.

L’objectif principal de ce rapport était donc de comparer les performances énergétiques du datacenter selon le système de refroidissement, puis de mettre en évidence les enjeux liés à la climatisation dans ce type d’infrastructure. Pour cela, deux cas de figure ont été étudiés:

 Climatisation via le réseau hydrothermique GLN (situation actuelle)

 Climatisation plus « classique » par machine frigorifique (MF).

L’analyse était basée sur une campagne de mesure d’une quinzaine de jours en période hivernale (du 22.02.2013 au 08.03.2013), pendant laquelle le groupe de froid fut mis en route deux journées, les 27.02 et 05.03. Le reste du temps, la climatisation du datacenter était uniquement assurée par GLN.

Les mesures de débit et de température fournies par le système de régulation centralisé de l’ONUG ont permis d’établir un bilan relativement complet de la demande thermique « froid » et des températures de travail associées. Les mesures électriques effectuées par les SIG ont permis quant à elles de quantifier la consommation électrique du datacenter, puis de dissocier la consommation des équipements informatiques (serveurs, réseau, switchs) de celles des autres postes de l’infrastructure (climatisation, l’éclairage, pertes onduleurs).

L’analyse détaillée de ces mesures se résume comme suit :

 La consommation électrique de l’équipement informatique s’élève à 86 kW, dont environ 80% pour les serveurs.

 Lorsque le datacenter est climatisé via GLN, la consommation liée à l’infrastructure s’élève à environ 26 kW, dont seuls 9 kW sont liés à la climatisation. Le PUE du datacenter de l’ONU s’élève ainsi à 1.30, ce qui signifie que pour chaque kW consommé par l’informatique, 0.3 kW sont consommés par l’ensemble des autres postes de l’infrastructure, dont seulement 0.1 kW pour la climatisation. Il s’agit d’une valeur qui situe ce datacenter parmi les plus performants d’Europe.

 L’ensemble des charges électriques évacuées par climatisation s’élève à environ 109 kW, ce qui est en très bonne corrélation avec la puissance thermique de 107 kW des CRACs, obtenue via les fiches de mise en service. Ces charges sont cependant inférieures aux 137 kW mesurés sur le circuit de distribution secondaire connecté à GLN, ce qui pourrait éventuellement provenir d’une utilisation de froid externe au datacenter.

 En alternative à GLN, la machine de froid consomme une moyenne d’environ 41 kW, soit 40 fois plus que la pompe du circuit secondaire GLN. En tenant compte des consommations auxiliaires (CRAC et monobloc de ventilation), la consommation liée à la climatisation s’élève à 49 kW (5 fois plus que via GLN). La consommation totale de l’infrastructure s’élève cette fois-ci à 66 kW (2.5 fois plus que via GLN), ce qui correspond à un PUE de 1.76. Cette valeur se situe dans la moyenne européenne.

 Il subsiste dans les valeurs ci-dessus une incertitude liée à 12 kW d’électricité non secourue, dont l’affectation n’a pas été identifiée de façon claire. S’il est à peu près établi qu’il s’agit bien d’une consommation interne au datacenter (cf adéquation entre bilans électrique et thermique), le choix de l’affecter à l’infrastructure plutôt qu’à l’équipement informatique

37 reste sujet à discussion. Pour l’une ou l’autre des formes de climatisation, un changement de cette affectation améliore le PUE d’environ 0.2 points.

 De façon similaire, la part de l’électricité pour le réseau primaire GLN, qui n’est pas prise en compte ci-dessus, augmenterait le PUE de moins de 0.1 point

Par ailleurs, et bien que la campagne de mesure à la base de cette étude n’ait porté que sur deux semaines de fonctionnement en hiver, il est important de rappeler que la climatisation du datcenter de l’ONU (tout comme d’ailleurs celle des salles de conférence en été) est entièrement assurée par GLN (sauf ponctuellement lors de retournements du lac, donnant lieu à une température trop élevée pour la climatisation), ceci à l’entière satisfaction des usagers.

Finalement, nous citerons les points qui n’ont pas été étudiés dans le cadre de ce travail :

 L’augmentation de la température de climatisation du datacenter. Il s’agit là d’un point régulièrement mis en avant pour baisser la consommation électrique pour la climatisation. A cet égard, la consommation pour la production de froid via GLN est actuellement déjà très basse, et n’est que marginalement dépendante de la température de travail (du moins du côté secondaire). Le gros de la consommation résiduelle pour la climatisation se situant au niveau des CRAC, cette dernière pourrait en principe être abaissée par augmentation de la température de travail et abaissement du débit de ventilation.

 En alternative au fonctionnement sur GLN pendant l’hiver, la climatisation par freecooling avec l’air extérieur n’a pas été étudiée ici. A cet égard, et contrairement au fonctionnement sur machine de froid, en hiver les rejets thermiques de la climatisation via GLN sont potentiellement valorisés par les pompes à chaleur d’autres bâtiments branchées sur le réseau primaire GLN. L’évaluation de ce potentiel, en lien avec le fonctionnement de GLN en boucle fermée, nécessite cependant une étude approfondie du sujet.

38

Références

Digital Realty, 2013. Europe Campos Surveys Results.

[En ligne] disponible sur : http://www.digitalrealty.com/us/knowledge-center-us (Consulté le 06.09.2013)

Viquerat P-A., Lachal B., Hollmuller P., 2012. « Connexion des bâtiments de l’ONU au réseau GLN – Analyse de la première année de fonctionnement ». Rapport de recherche, Université de Genève, Groupe Energie, 57p.

Aebischer, B., Frischknecht, R., Genoud, C., Huser, A., & Varone, F., 2003. « Energy – and Eco – Efficiency of Data Centres : A study commissioned by DIAE / ScanE of the Canton of Geneva ». Genève The Green Grid, 2011. « Recommendations for Measuring and Reporting Overall Data Center Efficiency, Version 2 – Measuring PUE for Data Centers ». White Paper

Alliance Green IT (AGIT), 2012. « Le PUE est-il un bon indicateur environnemental ? », Communiqué de presse. Paris

[En ligne] disponible sur : http://www.alliancegreenit.org/presse/publications (Consulté le 25.11.2013)

Labaume, T., 2009. « Faut-il choisir entre disponibilité du datacenter et PUE ? »

[En ligne] disponible sur : http://www.greenit.fr/article/energie/faut-il-choisir-entre-disponibilite-du-datacenter-et-pue

(Consulté le 18.11.2013))

39

Annexes

Annexe 1 : Fiche technique du groupe de froid du datacenter de l’ONUG ______________________________ 40 Annexe 2 : Fiche technique des CRACs de la salle serveurs du datacenter de l’ONUG _____________________ 41 Annexe 3 : Fiche technique des CRACs de la salle réseau du datacenter de l’ONUG_______________________ 42 Annexe 4 : Fiche technique des CRACs du local ASC du datacenter de l’ONUG ___________________________ 43 Annexe 5 : Données techniques des deux onduleurs du datacenter de l’ONUG. __________________________ 44 Annexe 6 : Tension sur les 3 phases à la sortie de l’onduleur 1, à la sortie de l’onduleur 2 et à l’entrée de la salle réseau ; données toutes les 15 minutes du 22.02.2013 au 08.03.2013. ________________________________ 46 Annexe 7 : Températures de distribution et de retour des CRACs dans la salle serveurs, la salle réseau et le local ASC, données horaires. ______________________________________________________________________ 47 Annexe 8 : Températures moyennes de l’eau sur les circuits primaire, secondaire et datacenter ; températures moyennes d’air au niveau des CRACs dans les salles serveurs, réseau et ASC pendant la durée des mesures (22.02 au 08.03.2013). ______________________________________________________________________ 48 Annexe 9 : Fiche protocole de mise en service des climatiseurs (CRACs) de la salle serveurs du datacenter de l’ONUG (Armoires 1, 2 et 3). __________________________________________________________________ 49 Annexe 10 : Fiche protocole de mise en service des CRACs de la salle réseau du datacenter de l’ONUG (Armoires 1 et 2). ___________________________________________________________________________________ 52 Annexe 11 : Fiche protocole de mise en service des CRACs du local ASC du datacenter de l’ONUG (Armoires 1 et 2). _______________________________________________________________________________________ 54 Annexe 12 : Données techniques des CRACs des salles climatisées du datacenter de l’ONU. _______________ 56

40

Annexe 1 : Fiche technique du groupe de froid du datacenter de l’ONUG

41

Annexe 2 : Fiche technique des CRACs de la salle serveurs du datacenter de l’ONUG

42

Annexe 3 : Fiche technique des CRACs de la salle réseau du datacenter de l’ONUG

43

Annexe 4 : Fiche technique des CRACs du local ASC du datacenter de l’ONUG

44

Annexe 5 : Données techniques des deux onduleurs du datacenter de l’ONUG.

45

46

Annexe 6 : Tension sur les 3 phases à la sortie de l’onduleur 1, à la sortie de l’onduleur 2 et à l’entrée de la salle réseau ; données toutes les 15 minutes du 22.02.2013 au 08.03.2013.

L’allure des courbes de la salle réseau suivent la tendance des courbes de l’onduleur 1. C’est ce qui nous a permis de dire que la salle réseau est alimentée par l’onduleur 1.

228

22.02.13 23.02.13 24.02.13 25.02.13 26.02.13 27.02.13 28.02.13 01.03.13 02.03.13 03.03.13 04.03.13 05.03.13 06.03.13 07.03.13 08.03.13 Tension (V)

47

Annexe 7 : Températures de distribution et de retour des CRACs dans la salle serveurs, la salle réseau et le local ASC, données horaires.

MF = périodes de fonctionnement de la machine de froid ; rectangle rouge pointillé = période de tests

48

Annexe 8 : Températures moyennes de l’eau sur les circuits primaire, secondaire et datacenter ; températures moyennes d’air au niveau des CRACs dans les salles serveurs, réseau et ASC pendant la durée des mesures (22.02 au 08.03.2013).

Climatisation GLN Climatisation MF

49

Annexe 9 : Fiche protocole de mise en service des climatiseurs (CRACs) de la salle serveurs

du datacenter de l’ONUG (Armoires 1, 2 et 3).

50

51

52

Annexe 10 : Fiche protocole de mise en service des CRACs de la salle réseau du datacenter

de l’ONUG (Armoires 1 et 2).

53

54

Annexe 11 : Fiche protocole de mise en service des CRACs du local ASC du datacenter de

l’ONUG (Armoires 1 et 2).

55

56

Annexe 12 : Données techniques des CRACs des salles climatisées du datacenter de l’ONU.

Documents relatifs