• Aucun résultat trouvé

Partie 1 : Synthèse des connaissances acquises... 3

N/A
N/A
Protected

Academic year: 2022

Partager "Partie 1 : Synthèse des connaissances acquises... 3"

Copied!
65
0
0

Texte intégral

(1)

Sommaire

Partie 1 : Synthèse des connaissances acquises ... 3

1. Problématique informatique ... 3

2. Quelques chiffres marquants... 4

3. PUE ... 6

4. Implantation et architecture ... 9

5. Distribution d’air ...10

6. Allée chaude / allée froide ...12

7. Point chaud ...14

8. Confinement ...16

9. Confinement de l’allée froide ...17

10. Confinement de l’allée chaude ...18

11. Température intérieure ...19

12. Virtualisation ...20

13. Surdimensionnement ...26

14. Apports frigorifiques gratuits ...31

Partie 2 : Méthode de calcul détaillée ... 39

1. Armoires de climatisation ...39

2. Groupes froids et aéroréfrigérants ...40

3. Pompes ...47

4. Centrales de traitement d’air neuf ...50

5. Ventilation d’extraction ...53

Partie 3 : Projets annexes ... 56

1. Réseau de chaleur biomasse à Graulhet ...56

2. Grand théâtre d’Albi ...60

3. Université de Rangueil ...61

4. Cité municipale de Bordeaux...62

5. Hôpital de Rangueil ...64

(2)
(3)

Partie 1 : Synthèse des connaissances acquises

1. Problématique informatique

Encore inconnu de nos dictionnaires, un data center est une salle informatique hébergeant des serveurs. Ces serveurs sont composés essentiellement de disques durs pour stocker l’information et de micro processeurs pour rechercher l’information.

- L’association de ces composants forme un hub.

- Plusieurs hubs empilés constituent un rack. Un rack possède une taille normalisée : 19 pouces de large (48,26 cm) et 17 pouces de profondeur (43,18 cm).

- Les racks sont rangés dans une armoire de protection : une baie informatique.

- Plusieurs baies informatiques forment une salle serveur : un data center.

fig 1 : hub

source : www.apple.com/in/xserve/design.html

fig 2 : baie informatique

source : www.directindustry.fr/prod/panduit/armoires-rack-pour-reseaux-12722-42893.html

(4)

Toute entreprise qui stocke des données informatiques possèdent un ou plusieurs serveurs.

Lorsque le nombre de serveurs est important, il devient utile de les disposer dans une salle dédiée afin d’optimiser la rapidité de recherche de l’information.

Selon l’activité du propriétaire de la salle informatique, les équipements informatiques de ces salles peuvent fonctionner en continu toute l’année. C’est le cas de la majorité des data centers. Les propriétaires de tels data centers fonctionnant en continu sont des banques, des assurances, des sociétés commerciales, des moteurs de recherches internet, des réseaux sociaux internet, etc. Toutes ces utilisations lucratives renferment des informations confidentielles. C’est pourquoi un data center doit être fiable. Aucune panne n’est acceptable.

La chaleur générée par le stockage et la recherche d’information est un risque majeur. Une hausse significative de la température du data center peut être la cause d’une défaillance grave voire irrémédiable : perte temporaire des informations (arrêt due à la surchauffe), perte partielle ou totale des informations (hub grillé). Un data center n’est donc pas qu’une simple salle de stockage informatique, il possède tout un environnement associé : système de refroidissement, système électrique d’alimentation sans interruption, surveillance et protection incendie.

Tous ces équipements qui assurent le maintien de l’information consomment énormément d’énergie car ils fonctionnent aussi souvent que fonctionnent le stockage et la recherche, c’est-à-dire en continuellement.

2. Quelques chiffres marquants

L’énergie consommée par l’ensemble des data centers à travers le monde représente près de 1% de la consommation mondiale d’électricité, soit 450 milliards de kWh :

- Cette consommation représente 92% de la consommation totale de la France (tous secteurs d’activité confondus).

- Cette consommation représente la consommation de 81,4 millions d’Européens, soit la population de la France et de la Belgique réunies.

- Les data centers émettent actuellement autant de CO2 que la France.

Greenpeace prédit que l’énergie consommée par les data centers va être multipliée par 4 d’ici 2020, soit autant que la France, l’Allemagne, le Brésil et le Canada réunis.

(5)

fig 3 : équivalence de la consommation en 2010 (réelle) et en 2020 (estimée) source : www.hebergeur-web.net/testimonials.html

Les plus grands data centers du monde nécessitent à eux seuls l’énergie produite par 14 centrales électriques.

Des géants de la consommation internet sont pointés du doigt : Apple et Facebook possèdent des data centers alimentés par des centrales à charbon. Des efforts sont possibles dans cette consommation abusive, à l’image de Yahoo! qui alimente son centre par une centrale hydroélectrique.

Concernant le jeu virtuel Second Life qui possède plus de 20 millions d’utilisateurs : un personnage virtuel de ce jeu consomme chaque année autant d’électricité qu’un Brésilien et 10 fois plus qu’un Camerounais.

Une recherche Google équivaut à l’énergie consommée pendant une heure par une ampoule à économie d’énergie.

Télécharger la version électronique d’un quotidien consomme autant d’électricité que de faire une lessive.

Le terme de nuage informatique (cloud computing) signifie l’accès à l’information de data centers éloignés de l’ordinateur de l’utilisateur. L’expansion et la surconsommation des data centers présagent un réel orage informatique.

92%

2010

2020

(6)

fig 4 : « nuage informatique »

source : www.astrosurf.com/luxorion/nucleaire-liste-incident-accident-delits.html Les enjeux de réduction de consommation de ces salles informatiques sont énormes.

Actuellement, quasi aucun effort n’est réalisé pour remédier à ce problème. Aucune réglementation ne limite les consommations. Les data centers présentent cependant une caractéristique importante dans la mesure de leur efficacité par rapport aux autres infrastructures tertiaires : le PUE.

3. PUE

Le PUE, Power Usage Effectiveness, est une notion proposée par l’association de professionnels de l’informatique The Green Grid. Il est un indicateur synthétique, efficace et reconnu internationalement permettant une évaluation rapide de l’efficacité énergétique d’un data center. Il permet également de comparer les centres informatiques entre eux et de déterminer si des améliorations d’efficacité énergétique sont nécessaires.

Le PUE se calcule par la relation suivante :

PUE = puissance totale du site / puissance informatique

fig 5 : logo du Green Grid source : www.thegreengrid.org

Théoriquement un data center parfait présente un PUE égal à 1. Dans ce cas, toute la puissance consommée par l’enceinte est destinée au fonctionnement des équipements informatiques. Mais la théorie est bien loin de la réalité et un data center « moyen » présente un PUE compris entre 2 et 2,5. C’est à dire qu’un data center moyen consomme autant en refroidissement qu’en stockage informatique. Et rare sont ceux qui peuvent se vanter d’un PUE inférieur à 1,5. On peut citer Google qui possède, d’après lui-même, le meilleur data

(7)

center affichant un PUE de 1,21. Yahoo! et Cap Gemini visent un PUE de 1,08 pour leur futurs data centers.

fig 6 : Google : 36 data centers en 2008

source : www.royal.pingdom.com/2008/04/11/map-of-all-google-data-center-locations/

Il faut préciser que cette course au plus faible PUE n’a pas de règles strictes. Le calcul du PUE n’est pas standardisé. Beaucoup d’entreprises se vantent d’un PUE très faible mais aucune ne précise les éléments pris en compte pour le calcul du numérateur : la puissance totale du site. Schneider Electric établit dans son livre blanc n°158 « Méthode de calcul de l’efficacité énergétique dans les data centers » une liste de tous les équipements électriques susceptibles d’être présents dans l’enceinte d’un data center. Chaque élément est classé dans l’une des 3 catégories suivantes : charge informatique, infrastructure physique, non inclus.

C’est seulement à des niveaux de calcul égaux qu’il est possible de comparer énergétiquement les data centers.

(8)

fig 7 : PUE : absence de calcul standardisé source : Schneider Electric, livre blanc n°158

« Méthode de calcul de l’efficacité énergétique dans les data centers »

Schneider Electric établit par ce livre blanc le début d’une normalisation dans le calcul du PUE. Le Green Grid a reconnu les problèmes soulevés dans ce livre blanc et tente actuellement de trouver des solutions sous forme de directives et de normes.

Ce livre blanc ne prend pas en compte :

- Le nombre de tranches informatiques ouvertes.

- Le taux de remplissage des racks.

- Le taux de disponibilité des serveurs.

Un data center dont les systèmes de refroidissement ou d’alimentation sont souvent en panne consomme moins qu’un data center fiable. Le PUE d’un data center peu fiable est donc plus faible. Avec des telles pannes les données informatiques risquent d’être indisponible momentanément à cause des surchauffes ou des coupures de courant. Des data centers renfermant des données confidentielles peuvent admettre des taux de disponibilité supérieurs à 99,99%. La notion de disponibilité n’étant pas considérée dans le PUE, on comprend très aisément son impact sur la consommation annuelle.

(9)

Cette consommation annuelle est largement augmentée par le système de refroidissement très gourmand en énergie. Cette consommation doit être considérée dès les premières phases de conception ; des phases comme que le choix du terrain d’implantation ou encore l’architecture. Que la raison soit écologique ou financière, l’économie d’énergie est à prendre en compte dès la phase de conception du data center.

4. Implantation et architecture

Au niveau de l’implantation, les petits data centers peuvent être intégrés dans l’enceinte même d’un bâtiment, au centre selon l’axe Est-Ouest (axe Y), au plus bas selon l’axe vertical (axe Z), au centre ou au Nord selon l’axe Nord-Sud (axe X) (pour l’hémisphère nord bien évidemment). Ainsi l’échange avec l’extérieur et les apports solaires sont limités.

Nous ne développerons pas plus l’implantation et l’architecture des petits centres informatiques.

fig 8 : implantation d’un petit data center source : production personnelle

Pour les data centers plus importants nécessitant une enceinte dédiée, un modèle compact est le mieux approprié : un volume intérieur maximal pour une surface d’échange extérieure minimale.

fig 9 : compacité

source : www.logisylva.com/menu-2/maisons-basse-consomation/pour-une-conception- reussie/

(10)

Les apports de chaleur sont à éviter. On peut noter que certaines entreprises américaines ont implanté leurs data centers en Alaska. Google songent à construire son prochain data center dans la cale d’un bateau afin de profiter d’un échange avec un extérieur frais et peu variable dans le temps.

L’environnement du terrain constructible joue aussi un rôle important : on privilégie les zones en dehors des villes afin d’éviter la chaleur urbaine, les régions froides du pays concerné, les zones ombragées (proche d’une forêt), les zones à albédo faible (loin des plans d’eau), les zones non caniculaires (éviter les climats continentaux).

fig 10 : îlot de chaleur urbain à Paris : 09-08-2009

source : www.actualite.lachainemeteo.com/actualite-meteo/2009-09-28/paris-banlieue---9--d- ecart_-2638.php

L’architecture intérieure est elle aussi très importante.

Les apports solaires devant eux aussi être limités, les rares ouvrants prévus sont uniquement opaques : il n’y a donc aucune fenêtre, uniquement des portes opaques.

Dans un bâtiment dédié, il est judicieux d’encadrer les salles serveurs par une circulation périphérique ou des salles à refroidissement moindre (poste de contrôle, sanitaires…). Cette véritable enceinte périphérique joue le rôle de zone tampon pour stocker la chaleur et limite les apports solaires dans la salle contenant les serveurs informatiques.

La salle hébergeant les serveurs informatiques nécessite une conception élaborée pour une efficacité maximale. La compacité est encore primordiale. Les flux d’air chauds et froids ne doivent pas stagner. La salle doit donc présenter le moins d’angles possible.

5. Distribution d’air

Concernant les flux d’air, un data center bien refroidit est un data center où l’air circule correctement. Il ne doit pas y avoir de mélange entre l’air extrait et l’air soufflé. Il existe plusieurs configurations, chacune présente des avantages et des inconvénients. Les data centers étant relativement récents, il est encore difficile d’avoir un regard critique et de prendre du recul sur les différents modèles de circulation d’air.

Avant toute réflexion sur la méthode d’extraction et de soufflage, le premier choix à faire est une distribution par allée chaude / allée froide. Cette méthode permet d’extraire un maximum

(11)

d’air chaud, et très peu d’air mélangé à température moyenne. Le mélange amène le système de refroidissement à fonctionner de façon moins efficace : une plus petite différence de température entre l’air chaud extrait et les températures du serpentin de refroidissement induit une dégradation du rendement de l’installation.

fig 11 : principe de l’allée chaude / allée froide avec faux-plancher source : www.conteg.fr/confinement-d-allee-froide

(12)

6. Allée chaude / allée froide

fig 12 : les 9 schémas de distribution en allée chaude / allée froide source : Schneider Electric, livre blanc n°55

« Options d’architecture pour la distribution d’air dans les installations critiques »

(13)

fig 13 : modélisation de l’allée chaude / allée froide avec faux-plancher source : www.conteg.fr/allee-chaude-froide/

Le faux-plancher est devenu en peu de temps une habitude constructive. Cependant il a quasiment perdu sa raison d’être et n’offre plus que des inconvénients importants : frais d’étude et de construction, temps d’installation, réduction de la hauteur de plafond, fragilité sismique, risques pour la sécurité des personnes et la sûreté de l’information, charge limitée et rampes d’accès, etc.

Lorsque les câblages électriques sont eux aussi en faux-plancher, leur présence perturbe l’écoulement de l’air en augmentant la perte de charge et en modifiant la répartition des pressions et des débits. De plus, la nécessité de modifier fréquemment le câblage oblige le personnel à ouvrir certaines dalles pour accéder aux câbles, ce qui perturbe encore plus l’alimentation en air des équipements critiques. Il est préférable d’acheminer ces câbles par le plafond afin d’éviter tout risque de lié au traitement d’air.

fig 14 : faux plancher encombré par les câbles électriques source : Schneider Electric, livre blanc n°135

« Confinement de l’allée chaude / Confinement de l’allée froide »

source : http://www.lemagit.fr/article/greenit-data center-bouygues-centre-calcul- prosodie/3423/1/prosodie-emmene-bouygues-vers-green-mais-peine-etendre-mouvement/

Si le cheminement des câbles électriques n’est possible qu’en faux-plancher, l’alimentation en haut glacée peut s’effectuer par le plafond afin de minimiser l’encombrement du faux- plancher.

(14)

fig 15 : alimentation en eau glacée par faux-plancher et en plafond apparent source : Schneider Electric, livre blanc n°131

« Systèmes avancés de distribution d'aeu réfrigérée pour centres de données »

7. Point chaud

La stagnation ou le ralentissement du flux d’air peut avoir de lourdes conséquences dans certains cas.

Les racks sont utilisés à charge inégale les uns par rapport aux autres. Lorsque la charge informatique est importante, la baie surchauffe localement, créant ainsi un point chaud par rapport aux baies voisines dont la température est modérée. Cette surchauffe localisée nécessite un traitement en refroidissement plus important. Si cette surchauffe survient en un point éloigné du départ de l’air soufflé en faux-plancher et que différents obstacles perturbent son écoulement, alors le traitement du point chaud sera insuffisant voire inexistant. Si le point chaud n’est pas traité, les hubs risquent de griller, entraînant une panne partielle de l’installation et une perte probable des données de ces hubs.

fig 16 : points chauds

source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus »

(15)

Traditionnellement, la perspective d’avoir à refroidir des points chauds dans les salles informatiques à faux-plancher a conduit à surdimensionner le système de distribution d’air, avec des investissements et des frais d’exploitation inutilement élevés, sans toujours atteindre le résultat désiré le moment venu. Pour éviter les coûts d’une surcapacité de refroidissement, il est préférable de desservir les zones à forte dissipation par des gaines individuelles de soufflage et / ou d’extraction. En général, les circuits de soufflage canalisée et / ou d’extraction canalisée ne sont nécessaires que pour des niveaux de puissance de 5 à 15 kW par rack.

fig 17 : extraction canalisée

source : www.conteg.fr/alimentation-en-salle-avec-retour-par-plenum/

Si cela est le cas, le maître d’ouvrage et le bureau d’étude ont plusieurs choix :

Le maître d’ouvrage connaît l’emplacement des baies à forte charge et le bureau d’étude conçoit les gaines individuelles en conséquence.

La plupart du temps, le maître d’ouvrage ne connaît pas l’emplacement des baies à forte charge :

- Une solution onéreuse consiste à traiter toute la salle de façon régulière par des gaines individuelles. Cette solution paraît peu réalisable du point de vue purement financier.

- Une solution plus performante consiste à imposer au maître d’ouvrage le nombre et l’emplacement des baies à forte charge. Mais cette solution n’est pas évolutive. Le matériel informatique évolue sans cesse et très rapidement. Les hubs sont de plus en plus petits et performants, et chauffant aussi de plus en plus. Le changement de matériel informatique peut induire la création de points chauds supplémentaires par rapport à la configuration avec le matériel ancien. La salle n’a donc plus assez de gaines individuelles et les nouveaux points chauds ne sont pas traités.

- La solution optimale est une solution intermédiaire : imposer le nombre et l’emplacement des racks à forte charge et prévoir quelques gaines individuelles supplémentaires.

La notion de point chaud n’est pas exclusive aux salles avec faux-plancher. Les salles sans faux-plancher, à même le sol, sont aussi des salles à risque. L’architecture de la salle (compacité) peut induire des ralentissements du flux d’air vers les ou baies éloignés du ventilateur de soufflage et / ou d’extraction.

Dans la plupart des nouvelles constructions, la salle est à même le sol. Contrairement à des croyances bien établies, l’absence de faux-plancher permet d’utiliser des méthodes de refroidissement aussi efficaces, sinon plus, que celles qui font circuler l’air sous faux- plancher.

(16)

NB : Nous reviendrons sur la notion de point chaud dans le paragraphe sur la virtualisation.

8. Confinement

Le coût de l’énergie n’est pas négligeable, surtout pour des installations comme un data center qui fonctionne en permanence.

La configuration en allée chaude / allée froide est une avancée dans le dimensionnement des systèmes de refroidissement. Cependant un problème de pression de distribution peut laisser l’air froid stagner en bas et une mauvaise extraction laisse l’air chaud stagner en haut. Le mélange de ces deux airs implique une ambiance où la température est ni chaude, ni froide, mais modérée et où le refroidissement des ou baies est inefficace à une altimétrie moyenne et haute.

Afin d’améliorer les performances de la configuration en allée chaude / allée froide, il est possible de confiner les rangées. Le confinement consiste en l’installation de séparation physique entre les extrémités de chaque rangée.

Le confinement permet de résoudre les problèmes de mélange d’air. Sans confinement, le mélange est mauvais lorsqu’il existe une différence entre le débit brassé par les armoires de climatisation et le débit soufflé par le faux-plancher.

- Si le débit des armoires de climatisation est supérieur à celui du faux-plancher, alors il y a risque de points chauds : il y a une mauvaise reprise, l’air mélangé en principe modéré devient chaud.

- Si le débit des armoires de climatisation est inférieur à celui du faux-plancher, alors il y a une perte d’air frais : c’est de l’air frais qui est repris et non de l’air modéré.

fig 18 : débit armoires > débit faux-plancher = points chauds source : www.atos-racks.com/fiche,allee_froide,109.html

(17)

fig 19 : débit armoires < débit faux-plancher = perte de capacité de refroidissement source : www.atos-racks.com/fiche,allee_froide,109.html

9. Confinement de l’allée froide

L’allée froide peut être confinée. Pour cela une séparation aux extrémités de chaque rangée par de simples rideaux en plastiques est possible. Le coût de mis en place de ce confinement est négligeable, et les gains énergétiques sont eux significatifs.

fig 20 : confinement de l’allée froide avec un rideau en plastique source : www.gridata center.org/data center/

Enfermer l’allée froide d’un bout à l’autre permet de minimiser l’espace à refroidir et ainsi le refroidissement volumétrique devient meilleur pour un même débit d’air sans confinement.

Toutes les allées froides dans la totalité du data center doivent être confinées afin d’en tirer des bénéfices. Le confinement de quelques-unes seulement n’apporte que peu de bénéfices car tout le reste de l’air froid se mélange à l’air chaud et réduit les économies escomptées.

Mais le confinement de l’allée froide présente plusieurs défauts :

- En cas d’une perte d’alimentation (ventilateurs) ou de refroidissement (groupes froids) : la diminution du volume disponible réduit le laps de temps suffisant aux serveurs pour atteindre une surchauffe. Avec le confinement de l’allée froide, la panne informatique

(18)

peut survenir quelques secondes après la panne technique (panne du lot CVC), au lieu de quelques minutes sans confinement.

- Il n’élimine pas la variable du faux-plancher. L’encombrement du passage disponible par les câblages reste un frein au refroidissement des baies, et le risque de surchauffe est plus important du fait du volume de passage réduit du le faux-plancher.

10. Confinement de l’allée chaude

Bien que le système de confinement de l’allée froide soit un scénario préférable, si l’on compare à l’approche traditionnelle, le meilleur scénario est celui du système de confinement de l’allée chaude. Le confinement de l’allée chaude nécessite l’installation d’un plafond en plus des séparations latérales (panneaux préférables aux rideaux en plastiques).

L’installation est plus onéreuse.

fig 21 : confinement de l’allée chaude avec des panneaux rigides source : Schneider Electric, livre blanc n°135

« Confinement de l’allée chaude / Confinement de l’allée froide » source : www.schroff.fr/internet/html_f/service/pressreleases/sro1003.html Comparons la température ambiante de la salle :

- Dans le cas d’une salle sans confinement, l’air ambiant est un mélange d’air chaud à extraire et d’air froid insufflé.

(19)

- Dans le cas d’une salle avec confinement de l’allée froide, l’air ambiant est plus élevé, car il est un mélange d’air chaud à extraire et d’une faible part d’air froid qui s’est dissipé sous les rideaux en plastique. La température ambiante peut augmenter jusqu’à plus de 10°C au dessus de la température sans confinement.

- Dans le cas d’une salle avec confinement de l’allée chaude, l’air ambiant est plus frais car il est un mélange d’air froid insufflé et d’une faible part d’air chaud à extraire qui s’est dissipé sous les panneaux et par le plafond du confinement. Ainsi, dans le cas d’une défaillance technique (panne du lot CVC), les serveurs restent dans une ambiance moins chaude que sans confinement et prélèvent l’air dans un grand réservoir frais à l’inverse du confinement par l’allée froide où ce réservoir est à son minimum. Le laps de temps suffisant aux serveurs pour atteindre une surchauffe est donc à son maximum (mais ne reste toujours que de quelques minutes).

Dans les deux cas de confinements, une détection et / ou protection incendie adaptée doit être prévue à chaque espace de confinement. Cet investissement conséquent est à considérer en parallèle aux économies d’énergie réalisées.

A l’heure actuelle il est difficile de quantifier l’économie réalisée par le confinement car les normes sur les températures intérieures admissibles dans les data centers sont en cours d’élaboration. L’échauffement de la température ambiante par le confinement de l’allée froide et l’échauffement de la zone de confinement de l’allée chaude sont en dehors des limites admises. Il est donc encore rare de voir des applications du confinement.

11. Température intérieure

Pour le moment l’Union Européenne, par le biais de l’ETSI (European Telecommunications Standards Institute), travaille sur une norme environnementale pour les data centers. Il s’agit de la norme, encore non finalisée, ETSI EN 300 019-1-3. Les data centers sont répertoriés dans la classe environnementale 3.1. Le « code de conduite européen sur les Datacentres ».

Le respect de cette norme est prévue pour 2012. Pour l’instant le « code de conduite européen sur les Datacentres » se base sur les recommandations de l’ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers) décrit dans le document

« 2008 ASHRAE Environnemental Guidelines for Datacom Equipment ». Ce document préconise des températures ambiantes de 18°C à 27°C et accepte des températures de 15°C à 32°C.

fig 22 : logos de l’ETSI et de l’ASHRAE source : www.etsi.org

source : www.ashrae.org

Certaines études empiriques montrent que les conditions optimales d’utilisation d’un data center est aux alentours de 27°C. Malheureusement l’habitude au sur-refroidissement est déjà acquise : certains data centers sont refroidis jusqu’à 12°C, et la moyenne internationale est à 22°C. Malgré les études prouvant la valeur optimale de 27°C, seul Yahoo! (une fois de plus) pousse les limites exercées à ce jour en refroidissant son centre à 23,8°C et en déclenchant des ventilateurs supplémentaires lorsque la température varie de 25,5 à 26,6°C.

Les enjeux financiers que renferment les données informatiques des serveurs sont si importants que l’erreur n’est pas permise. L’évolution vers une température ambiante élevée,

(20)

sécurisée et certifiée par les organismes agrées est pour demain mais pour le moment tout est à faire.

Le processus de production de normes et de directives est long. Le système de refroidissement d’un data center est intimement lié aux équipements informatiques se trouvant dans la salle. L’évolution informatique est très rapide, même si cette dernière ne suit plus le loi de Moore depuis plus de 20 ans (rappel de la loi de Moore : la capacité informatique double tous les 18 mois), et que son évolution exponentielle s’est ralentie, il n’en reste pas moins que l’évolution continue. Et à moins que les futures technologies ne contredisent les faits suivants, l’évolution des serveurs correspond avec les augmentations de leur consommation en alimentation et de leur chaleur dissipée : plus petits, plus puissants, plus chauds.

fig 23 : croissance de la capacité informatique source : fr.wikipedia.org/wiki/Loi_de_Moore

Dans un souci de performance informatique, les hubs sont destinés à être changés régulièrement. Le système de refroidissement évolue beaucoup moins rapidement et doit être capable de supporter les charges des futurs serveurs plus gourmands en énergie. Ces futures augmentations de charges dissipées ne peuvent être admises uniquement par un système de refroidissement surdimensionné ; ce qui est contradictoire à l’économie d’énergie. Mais l’économie d’énergie intéresse les utilisateurs de data centers car celle-ci est coûteuse. La location de racks l’est encore plus.

En France, le prix moyen de location mensuel d’un rack est de 1 029 €. De nouvelles méthodes informatiques ont été développées pour contrer ces prix exorbitants. Les propriétaires et les loueurs de racks peuvent choisir de virtualiser certains de leurs racks afin d’optimiser leur utilisation et ainsi réduire les coûts de consommation et de matériels informatiques. La virtualisation consiste à simuler plusieurs machines sur une seule.

12. Virtualisation

Les racks ne sont jamais pleinement utilisés. La plupart du temps ils sont chargés de 20 à 30% de leur capacité.

(21)

Il est possible de transférer les données et le système d’exploitation associé d’un hub sur un autre. L’hub qui a reçu les nouvelles données peut gérer les deux systèmes d’exploitation et gérer des actions simultanées sur les données existantes et sur les nouvelles données : le rack contenant ce hub a été virtualisé. Il est possible de virtualiser plusieurs hubs sur un seul hub, et plusieurs racks sur un seul rack.

fig 24 : principe de fonctionnement de la virtualisation source : www.alunys.com/page/53/virtualisation

Après la virtualisation, il est possible de retirer définitivement les racks vidés virtuellement.

Cette solution est profitable aux personnes louant les racks pouvant ainsi réduire le nombre de racks présents dans leur data center. Cependant la capacité de stockage du data center est fortement diminuée.

Ou alors, il est possible de conserver les racks vidés virtuellement. Virtualiser et conserver les racks est profitable aux personnes propriétaires des racks.

Les données virtualisées sont présentes sur deux racks : celui d’origine et celui virtualisé.

Cela permet d’avoir une redondance dans les données et de les conserver en cas de panne avec perte partielle ou totale. Ou bien, les racks vidés virtuellement peuvent être réellement vidés : il n’y pas de redondance de données mais cela permet d’augmenter la capacité de stockage du data center sans investissement de matériels informatiques.

Après virtualisation il y a donc trois possibilités : - Retirer le rack vidé

- Conserver le rack vidé

- Vider réellement et conserver le rack vidé.

La consommation électrique informatique est différente selon ces trois cas.

Un rack consomme quasiment autant d’énergie qu’il fonctionne à faible ou à pleine charge.

Sa consommation est quasiment fixe, et peu variable, peu proportionnelle selon la charge.

(22)

fig 25 : rendement d’un rack en fonction de sa charge source : h41112.www4.hp.com/qualifiedoptions/fr/fr/rack/index.html A de 25% de charge, le rendement est de 80%.

Ainsi, avec deux racks chargés à 25%, virtualiser un des racks sur l’autre permet de réduire la consommation informatique de 37%. Le rack virtualisé atteint une charge de 50%.

Evaluation de la consommation électrique informatique selon les trois cas : - Retirer le rack vidé :

économie d’énergie, économie de location, capacité de stockage diminuée.

- Conserver le rack vidé :

faible augmentation de la consommation, redondance de l’information assurée.

- Vider réellement et réutiliser le rack vidé :

faible augmentation de la consommation, capacité de stockage augmentée.

L’inconvénient majeur de la virtualisation survient lorsque tous les serveurs présents dans le rack virtualisé atteignent leur charge de pointe au même instant. Le rack virtualisé atteint 90 à 100% de sa charge et dissipe énormément de chaleur, créant un point chaud. Les points chauds liés à la virtualisation sont difficiles à traiter car ils sont mobiles : les charges informatiques sont en déplacement du fait du fonctionnement simultané de serveurs sur une seule machine. Le taux de charge du rack virtualisé varie sans cesse d’une charge quasi nulle à une charge totale.

fig 26 : déplacement des points chauds après virtualisation source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus »

(23)

Une mauvaise trajectoire du flux d’air, un problème d’écoulement d’air, un mauvais dimensionnement du confinement accentue ce phénomène : un rack virtualisé atteignant seulement 50% ou 60% de sa capacité peut créer un point chaud. Un taux de 50% est atteint fréquemment par un rack virtualisé. Pour atteindre la demi-charge il ne suffit pas que tous les serveurs présents soient en charge de pointe (ce qui est rare), mais seulement quelques uns. La virtualisation est donc à utiliser avec précaution.

La meilleure solution est de regrouper des serveurs ayant des utilisations complémentaires non simultanées ; mais cette situation reste rare et difficile à identifier. La virtualisation à demi-charge (50%) est à étudier, mais la virtualisation jusqu’à la pleine charge (90 à 100%) présente des risques trop importants pour la disponibilité (arrêt due à la surchauffe) et le maintien de l’information (perte partielle due à la surchauffe).

Autre problème, dans un data center en sous-charge à cause du surdimensionnement du système de refroidissement, la diminution de la dissipation de chaleur grâce à la virtualisation peut amener ce dernier en sous-charge extrême. Les effets négatifs d’une sous-charge extrême sont développés dans le paragraphe sur le surdimensionnement.

Le rendement et la charge ne sont pas liés linéairement. A partir de 30% de charge, le rendement est acceptable. Le principal but de la virtualisation n’est pas d’atteindre des niveaux de rendement supérieurs à ceux atteint à 30% de charge, mais d’atteindre un niveau de charge minimum, assurant ainsi la non-dégradation du rendement.

La virtualisation augmente sensiblement le rendement informatique : il y a plus d’activité informatique par Watt d’électricité consommé par le data center.

Le rendement du data center DCIE, Data Center Infrastructure Efficiency, correspond à l’inverse du PUE, soit :

DCIE = consommation informatique / consommation totale du site Comment varie le DCIE avec la virtualisation ?

Par la virtualisation, la puissance informatique diminue. Les puissances informatique, du système de refroidissement et du système d’alimentation forment à elles trois 90% de la puissance totale du site.

Dans le cas où le rack vidé est retiré :

- Le système de refroidissement est un peu moins sollicité.

- L’alimentation informatique retirée ne représente qu’une faible part de l’alimentation totale.

De ce fait, la puissance totale du site augment : le DCIE diminue, le PUE augmente.

Dans le cas où le rack vidé est conservé :

- Le système de refroidissement est plus sollicité.

- L’alimentation informatique augmente.

De ce fait, la puissance totale du site augmente de significativement : le DCIE diminue, le PUE augmente fortement.

Le DCIE ne mesure pas le quantité d’énergie utilisée mais indique la part de l’énergie gaspillée par rapport à l’énergie utilisée.

(24)

fig 27 : diminution du DCIE après virtualisation source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus » Lorsque le rendement informatique augmente sans modification du système de refroidissement, le système de refroidissement devient surdimensionné. En effet la chaleur dissipée par un rack n’est pas linéairement proportionnelle à sa charge : un rack à faible charge informatique dissipe une certaine quantité de chaleur non négligeable. Ainsi la chaleur dissipée par le matériel informatique d’un data center virtualisé est inférieure à la chaleur dissipée par un data center non virtualisé lorsque la charge informatique est la même dans les deux cas, c’est-à-dire lorsque les racks sont retirés. La conservation et la réutilisation des racks vidés ne permet pas de réaliser des économies d’énergie, ils ne permettent que d’augmenter la capacité informatique du data center.

Si la volonté est aux économies d’énergies, la part majeure est à récupérer sur le dimensionnement du système de refroidissement et l’alimentation électrique. Les économies réalisées par la virtualisation sont notables, mais faibles par rapport à ceux réalisables sur la consommation électrique non informatique.

Consommation électrique non informatique associée à la virtualisation

La consommation d’énergie non informatiques, ou pertes, sont les suivantes :

- Les pertes électriques internes du système d'alimentation (périphériques du circuit d'alimentation, notamment les onduleurs, les bandeaux de prises, le câblage, etc.), qui se dispersent sous forme de chaleur.

- L'ensemble de la puissance consommée par le système de refroidissement.

- L'ensemble de la puissance consommée par d'autres sous-systèmes de l'infrastructure physique du data center (réduite par rapport aux précédentes).

Sur l'ensemble de la puissance consommée par les systèmes d'alimentation et de refroidissement, une partie reste identique quelle que soit la charge informatique, et une partie varie en proportion de la charge informatique. Ces deux composants de puissance consommée sont appelés perte fixe et perte proportionnelle.

La perte fixe est la puissance consommée que le système fonctionne ou non, quelle que soit la charge. La réduction de la charge ne modifie pas la quantité de perte fixe. Les transformateurs et les ventilateurs à vitesse fixe possèdent des pertes fixes importantes.

La perte proportionnelle est directement proportionnelle à la charge. Le doublement de la charge doublera la perte proportionnelle. Les ventilateurs à vitesse variable et les pompes à débit variable possèdent des pertes proportionnelles.

(25)

Les pertes fixes représentent une part non négligeable lorsque le matériel concerné fonctionne à bas régime. En d’autres termes, plus un data center est grand et plus ces pertes représentent une part importante de la consommation électrique non informatique.

Pour la même capacité informatique, la virtualisation permet de diminuer le nombre de racks.

Diminuer le nombre de racks permet de :

- Diminuer les longueurs d’alimentation électrique.

- Diminuer les longueurs des réseaux aéraulique et hydraulique.

- Réduire le système de refroidissement ; par exemple, en retirant quelques armoires de climatisation au niveau des racks retirés. Modifier la taille du groupe froid et des aéroréfrigérants est un investissement trop lourd.

Ainsi, les pompes et les ventilateurs ont moins de pertes de charge à combattre. Avec des ventilateurs et des pompes à vitesse variable, les économies d’énergie sont notables car les pertes proportionnelles diminuent. Dans ce cas il est considéré que le système de refroidissement est déjà muni de tels variateurs. Si ce n’est pas le cas, l’investissement pour des matériels avec variateurs est conséquent mais le retour sur investissement est rapide (quelques années). La meilleure solution est de prévoir des ventilateurs et des pompes à vitesse variables dès la conception : avec la virtualisation, les économies d’énergie réalisées sont immédiates et sans investissement.

Il en est de même pour l’investissement d’onduleurs plus performants et moins puissants (moins de racks à alimenter) : l’investissement est lourd mais le retour sur investissement est rapide (quelques années).

En optimisant le système de refroidissement et le système d’alimentation, la puissance totale du site est fortement diminuée. le DCIE virtualisé reste proche du DCIE non virtualisé, il peut être supérieur ou inférieur de quelques points. Les rendements sont proches, mais la facture énergétique est plus faible.

fig 28 : DCIE et PUE initiaux atteints après virtualisation et optimisation du système de refroidissement et d’alimentation

source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus » La réduction des pertes fixes, via un meilleur rendement des périphériques et / ou une meilleure configuration du système (variateurs de vitesse), est la méthode la plus efficace pour accroître le rendement.

En partant d’un data center défavorable, il est possible de faire près de 65% d’économies grâce au confinement, à la virtualisation, à l’optimisation de refroidissement et d’alimentation et d’obtenir un retour sur investissement inférieur à 4 ans.

Mais le surdimensionnement n’apparaît pas uniquement lors de la virtualisation. Il est vite devenu une habitude de conception.

(26)

13. Surdimensionnement

APC de Schneider Electric a recueilli dans son livre blanc n°37 « Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de données et de salles réseaux » des données auprès de nombreux utilisateurs et a réalisé l’étude suivante :

fig 29 : capacité, charge, gaspillage en fonction du temps source : Schneider Electric, livre blanc n°37

« Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de données et de salles réseaux »

En phase de conception. La capacité théorique en alimentation et en refroidissement de la salle correspond au seuil 100%. La capacité à installer est égale à la capacité théorique de la salle. Il est prévu que la salle démarre à 30% de ses capacités informatiques : il s’agit de la charge prévue. Cette charge prévue augmente avec le temps jusqu’à un certain seuil poche de 85%. La limite haute de la charge prévue n’excède pas 85% afin de laisser 15% de marge en capacité de refroidissement dans le cas de conditions climatiques extrêmes (canicule) ou la panne d’une (voire deux) armoire de climatisation. L’énergie gaspillée correspond à la différence entre la courbe de capacité à installer et celle de la charge prévue.

La marge de sécurité de 15% n’est pas justifiée car la conception est établie pour les conditions extrêmes et non pour les valeurs réglementaires d’été. De plus, les pannes sont gérées par la redondance du matériel. Afin de maintenir une disponibilité maximale du data center, pour une quantité N de matériel installé, il est choisi d’installer N+1 fois ou 2N fois le matériel nécessaire pour pallier aux éventuelles pannes. Tous les data centers sont au moins en redondance N+1, aucun n’est uniquement en installation N.

La charge finale prévue doit être de 100% et non de 85%. Ainsi la charge initiale doit être de 45% et non de 30%.

(27)

fig 30 : capacité, charge, gaspillage en fonction du temps source : Schneider Electric, livre blanc n°37

« Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de données et de salles réseaux »

En phase de commande. La puissance des équipements est contractuelle et figure dans le CCTP. L’entreprise d’exécution n’est pas censée rehausser la puissance prescrite. Si elle décide de surdimensionner, acheter des équipements plus puissants est plus coûteux et génère moins de bénéfices. De plus un système de refroidissement atteint son rendement maximum lorsqu’il fonctionne à plein régime. Il n’y a donc aucun intérêt à surdimensionner les puissances prescrites.

En phase d’utilisation. La charge réellement installée est de 10% au lieu des 30% prévus. La charge installée augmente avec le temps jusqu’à environ 30% de la capacité installée. Ces 30% installées correspondent pour l’utilisateur à la pleine utilisation de son centre. Ces mêmes 30% correspondent pour le concepteur à la charge initiale. Le gaspillage réel est largement supérieur au gaspillage théorique.

Ci dessous un récapitulatif des consommations et du gaspillage sur 10 ans :

Consommation Gaspillage

Capacité installée (référence) : 100% 0%

Charge prévue (sans sécurité) : 86,4% 13,6%

Charge prévue (avec sécurité) : 70,8% 29,2%

Charge réelle : 26,0% 74,0%

En terme de puissance finale installée, les installations de refroidissement et d’alimentation sont 3 fois trop puissantes : capacité 100%, charge réelle 30%. Selon le type d’installation, simple ou complexe (régulation, technologie des aéroréfrigérants, groupes froids, récupération d’énergie, etc.), cela représente un surcoût d’environ 2 fois le prix nécessaire.

Un groupe froid fonctionnant à 30% de sa charge maximale voit son rendement fortement dégradé. Certaines technologies ne permettent pas de descendre à aussi bas régime : certains groupes à vis ne peuvent pas être régulés en dessous de 50%.

(28)

Lorsque la charge installée est inférieure à 20% de la capacité installée il y a risque de sous- charge est extrême. Sur le refroidissement cela peut impliquer :

- Un arrêt sécurisé en raison de la pression de refoulement trop basse sur les compresseurs.

- Des cycles courts des compresseurs en raison des arrêts fréquents et une réduction de la durée de vie des compresseurs.

- L’invalidité possible de la garantie en cas de fonctionnement sous limites minimales de charge.

Grâce à son enquête auprès des utilisateurs de data centers, APC a établi le graphique suivant :

fig 31 : part de la capacité installée réellement utilisée source : Schneider Electric, livre blanc n°37

« Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de données et de salles réseaux »

On voit que près de 20% des utilisateurs sont en dessous de la limite de sous-charge extrême. On remarque aussi que seulement 3% des utilisateurs atteignent ou dépasse le seuil des 85% de charge prévue à la conception.

Pourquoi le surdimensionnement est-il devenu une habitude ?

Pour l’utilisateur le coût de création d’un data center est élevé. Planifiant son évolution dans les années à venir, l’utilisateur demande un certain surdimensionnement de peur que son nouveau centre soit déjà obsolète quelques années après sa mis en service. Cette anticipation certes logique est bien souvent démesurée. La conception d’un centre capable de s’adapter à un future demande imprévisible est la solution, mais ce n’est pas aussi simple.

Il est possible de réaliser un data center selon plusieurs tranches. Pour simplifier l’étude, nous nous limiterons à une première tranche réalisée, et à une deuxième tranche conditionnelle. Le nombre de tranches n’est pas limité à deux.

Une première tranche concerne l’ouvrage de l’infrastructure (gros œuvre), l’installation de baies alimentées et refroidies : transformateurs, onduleurs, armoires de climatisation, groupes froids, aéroréfrigérants… Une deuxième tranche permet l’installation de baies supplémentaires : il s’agit d’un développement de l’utilisateur. L’ampleur de cette deuxième

(29)

Cette tranche impose les installations suivantes :

- Des armoires climatisation : dans le cas où les systèmes d’alimentation et de refroidissement ont été conçus pour supporter les deux tranches.

- Un transformateur, un ou plusieurs groupes froids et aéroréfrigérants, des armoires de climatisation, un système de détection et de protection incendie ; dans le cas où les systèmes d’alimentation et de refroidissement n’ont été conçus pour ne supporter que la première tanche.

Cette deuxième tranche, si elle est conditionnelle, permet à l’utilisateur de planifier son développement, de l’effectuer uniquement si son activité informatique en exprime le besoin.

Le coût des travaux d’une deuxième tranche différée est plus élevé que ceux de deux tranches effectuées à la suite. Avec un tranche future, l’infrastructure est déjà active, les travaux de manutentions, de coupure de courant, de passage de câbles (entre autres) sont plus délicats et donc plus coûteux.

Dans le premier cas, la deuxième tranche concerne uniquement l’installation de nouvelles baies et armoires de climatisation supportées par les systèmes d’alimentation et de refroidissement existants. Il n’y a pas d’adaptabilité de l’infrastructure. La puissance des systèmes d’alimentation et de refroidissement est donc beaucoup trop élevée durant la période qui sépare la première et la deuxième tranche. La data center est donc surdimensionné pendant cette période. Il y a des risques d’indisponibilité liés à la sous- charge.

Dans le second cas, la deuxième tranche concerne l’installation de nouvelles baies associées à un nouveau système d’alimentation et de refroidissement. L’infrastructure s’adapte selon la nouvelle demande informatique. De plus, le temps séparant les deux tranches permet à l’utilisateur de prendre conscience de la différence notable entre la charge prévue à la conception et la charge réellement installée. Le dimensionnement de la deuxième tranche peut alors être revu à la baisse.

Ci dessus un graphique schématisant l’adaptabilité dans le second cas d’étude :

fig 32 : adaptabilité et gaspillage en fonction du temps source : Schneider Electric, livre blanc n°37

« Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de données et de salles réseaux »

(30)

Consommation Gaspillage Charge réelle selon capacité non adaptée 92,8% 7,2%

Charge réelle selon capacité adaptée 96,3% 3,7%

Il est intéressant pour l’utilisateur d’évaluer la perte engendrée par la réalisation de deux tranches distinctes et de la comparer à la perte engendrée par la surconsommation (dues aux pertes fixes) d’une installation surdimensionnée réalisée en une tranche ou en deux tranches (premier cas). Mais dans la majorité des cas, le surdimensionnement de la production de froid n’est pas justifiable.

Le surdimensionnement de la production de froid est inutile, coûteux et parfois dangereux, cependant le surdimensionnement des armoires de climatisation est nécessaire.

Le moteur d’une armoire de climatisation ne présente pas un comportant linéaire dans le rapport puissance fournie ~ puissance absorbée.

La relation de la puissance absorbée en fonction de la puissance fournie est du type parabolique :

fig 33 : puissance absorbée en fonction de l’utilisation (ou puissance fournie) source : production personnelle

A 30% de la capacité frigorifique de l’armoire, l’énergie électrique consommée est de l’ordre de 15% de l’énergie totale absorbée. Et à 50% de la capacité, l’énergie consommée est de l’ordre de 30%.

Pour évaluer la part de la capacité frigorifique utilisée on parle de taux de charge.

Le taux de charge se calcule par la relation suivante :

Taux de charge = puissance frigorifique demandée / puissance frigorifique disponible

Le taux de charge est donc inférieur à 1. Dans le cas d’une production de froid, on cherche à atteindre la valeur théorique maximale de 1. Mais au vue de l’évolution de l’énergie électrique consommée en fonction de la puissance fournie, et donc en fonction du taux de charge, on voit qu’il est judicieux de surdimensionner l’armoire de climatisation afin de

(31)

consommer moins. Il ne faut pas non plus tomber dans l’extrême et trop surdimensionner l’armoire. Une armoire de climatisation trop puissante présente les risques suivants :

- Une valeur d’achat plus élevée.

- Un encombrement plus important.

- Le ventilateur ne démarre qu’à partir d’un taux de charge compris entre 12% et 17%. Lors d’une utilisation partielle du data center ou lors de déperditions importantes par les parois (hiver rigoureux, salle informatique donnant sur l’extérieur), le taux de charge d’une armoire surdimensionnée peut être inférieur à son seuil limite d’utilisation. Le non- fonctionnement de l’armoire crée une surchauffe dans la salle, nécessitant ainsi un plus grand besoin en refroidissement, ainsi le taux de charge augmente, l’armoire s’enclenche et refroidit la salle jusqu’à la température de consigne, puis l’armoire s’arrête, etc. : il y a un risque de courts-cycles.

Les aéroréfrigérants à moteur EC se comportent de la même façon : la relation entre l’utilisation et la puissance électrique consommée est parabolique. Cependant le surdimensionnement des aéroréfrigérants induit un surcoût à l’achat et une place nécessaire en toiture non négligeable et donc infructueux en terme d’économie pour le client.

La consommation des armoires de climatisation et des aéroréfrigérants est 4 à 8 fois plus faible que celle de la production de froid : le système de refroidissement représente la part la plus importante dans la consommation totale du data center. Son surdimensionnement accentue sa consommation en abaissant son rendement. Il existe plusieurs moyens de diminuer la consommation en refroidissement : la technologie du groupe froid, la possibilité de régulation plus large en scroll plutôt qu’en vis, la température du régime d’eau plus élevée, la récupération d’énergie, les apports de froid gratuits, etc.

Nous allons nous intéresser à l’économie la plus grande qui est celle des apports de froid gratuits.

Pour profiter d’un froid gratuit et disponible tout au long de l’année il existe plusieurs méthodes. Il est possible de récupérer de l’énergie frigorifique gratuite sur l’eau ou sur l’air.

14. Apports frigorifiques gratuits

1. Sur l’eau

Les puits sont parfois utilisés pour le système de refroidissement des data centers : les puits canadiens, sur nappe, sur rivière, sur eau profonde de lac ou de mer permettent d’assurer un refroidissement constant tout au long de l’année. L’eau à refroidir circule soit directement dans le puit, soit dans un échangeur de chaleur connecté à l’eau du puit.

Avec les puits sur eau profonde, la température de l’eau à refroidir peut diminuer jusqu’à 6°C.

Mais la réalisation des puits est limitée. La surface dédiée à un puit canadien pour un data center est considérable et les puits sur nappe, rivière, lac ou mer ne sont pas réalisables partout.

Le coût d’investissement est élevé mais l’économie réalisée est très importante. Le retour sur investissement est rapide. Selon la configuration du site et la difficulté des travaux, le retour sur investissement peut être de quelques années seulement (3 à 4 ans).

L’avantage des puits sur l’eau est leur prise en compte dans le dimensionnement de la puissance frigorifique à installer dans le data center. La puissance frigorifique à fournir est établie selon le cas le plus défavorable l’été. Or aux conditions extrêmes d’été, les puits

(32)

restent une source froide sûre. Ainsi, cet apport de froid gratuit au moment le plus défavorable permet de diminuer la puissance des équipements frigorifiques.

Il existe une autre méthode d’apport de froid gratuit, moins constante mais plus facile à mettre en place : le free cooling, qui permet un refroidissement sur l’air ou sur l’eau.

Le free cooling sur l’eau est possible dans une configuration de production de froid avec des aéroréfrigérants.

fig 34 : schéma de free cooling sur l’eau source : production personnelle

Classiquement, le groupe froid délivre par l’évaporateur de l’eau glacée et par le condenseur de l’eau chaude. L’eau chaude circule dans des tuyaux jusqu’en toiture, puis dans le serpentin de l’aéroréfrigérant. Les ventilateurs de l’aéroréfrigérant soufflent l’air extérieur sur le serpentin. Ce système est un véritable échangeur de chaleur statique air brassé / eau. Par échange thermique l’eau se refroidit d’un delta de température identique à celui de l’eau glacée. Cette égalité de delta de température est une habitude de conception, le delta de température du condenseur peut être plus important que celui de l’évaporateur.

Par exemple, l’eau chaude se refroidit de 52°C à 47°C et le groupe froid fournit de l’eau à 8°C pour un retour à 13°C. L’eau froide à 8°C circule dans le serpentin de l’armoire de climatisation. Les ventilateurs de l’armoire permettent un brassage de l’air ambiant sur le serpentin froid : il y a échange thermique (air brassé / eau). L’air se refroidit et l’eau se réchauffe jusque 13°C. A cette température l’eau circule jusqu’au groupe froid où elle est à nouveau refroidit à 8°C, etc.

Le free cooling sur aéroréfrigérant consiste en l’installation d’un circuit d’eau direct entre l’aéroréfrigérant et l’armoire de climatisation quoi by-passe le groupe froid. Dans le cas d’une température extérieure inférieure à 3°C, il est possible de faire circuler l’eau glacée à 13°C dans un échangeur à plaque. Cet échangeur de chaleur est alimenté d’un côté par l’eau glacée à 13°C et de l’autre par le circuit by-pass de l’aéroréfrigérant.

Le but est de refroidir l’eau glacée de 13°C à 8°C, il faut donc de l’eau dans le circuit by-pass à moins de 8°C en sortie d’échangeur. La température à l’entrée de l’échangeur du circuit by-pass doit être de 8°C moins le delta de température de l’eau glacée : l’eau en entrée d’échangeur doit être à moins de 3°C. Cette eau de by-pass circule dans le serpentin de l’aéroréfrigérant où elle se refroidit de 8°C à 3°C par brassage avec l’air extérieur. Ainsi l’air extérieur doit être inférieur à 3°C.

L’installation d’un échangeur entre les circuits d’eau glacée et de by-pass est fortement recommandée : on parle de free cooling indirect.

Le free cooling direct ne nécessite pas d’échangeur. Le problème majeure du fonctionnement direct réside dans le fait que l’eau glacée circule en partie à l’extérieur (au passage dans les aéroréfrigérants) et de ce fait l’injection de glycol est obligatoire pour la

(33)

sûreté du système. Une eau glycolée nécessite des pompes et des armoires de climatisation spécifiques. De plus, l’échange thermique au niveau de l’échangeur de l’armoire de climatisation est dégradé : l’eau glycolée un fluide ayant une capacité calorifique inférieure à celle de l’eau « normale ».

fig 35 : principe du free cooling indirect par eau source : www.eco-info.org/spip.php?article140

fig 36 : principe du free cooling direct par eau source : www.eco-info.org/spip.php?article140 Le free cooling par eau, direct ou indirect, a des limites :

- La période d’une température extérieure à 3°C est faible, voire quasi nulle selon les régions.

- L’installation coûteuse d’un réseau by-pass : tuyauterie calorifugée, pompe, échangeur statique.

(34)

- La valeur de 3°C extérieur est théorique, elle est évaluée rapidement sans prise en compte des rendements des deux échanges (serpentin aéroréfrigérant & échangeur à plaques), sans prise en compte de réchauffement par circulation à l’intérieur du bâtiment. En réalité il faut une température encore plus basse, proche de 0°C.

- A 3°C théorique, il y a un risque de condensation dans l’échangeur à plaques et ainsi une dégradation du rendement de l’échange est dégradé.

Le free cooling sur l’eau permet de ne pas utiliser les groupes froids et les pompes associées. Mais les aéroréfrigérants et les pompes réseaux fonctionnent toujours. La pompe du circuit by-pass fonctionne aussi lors du free cooling sur l’eau.

2. Sur l’air

Il est possible de refroidir un data center non pas en allant refroidir de l’eau et injecter cette dernière dans les groupes froids ou directement dans les armoires de climatisation, mais en allant chercher de l’air frais et de le souffler directement dans la salle informatique sans passer par le système de refroidissement.

Il existe plusieurs moyens d’apporter de l’air frais dans le data center :

- Les souterrains : ils sont très rares mais ils représentent un réservoir d’air à température constante toute l’année ; ils sont à prendre en compte dans le dimensionnement de la puissance frigorifique à installer, de la même façon que les puits. Au vue de la rareté des souterrains, nous ne développerons pas leur utilisation.

- L’air extérieur : lorsque sa température est inférieure à celle de la consigne d’air soufflé.

Sauf quelques exceptions, le free cooling sur l’air extérieur est le mode de refroidissement gratuit le plus disponible sur Terre. Les exceptions sont les pays très chauds où l’air extérieur est supérieur à la consigne de soufflage toute l’année.

Le free cooling sur air extérieur est justifié quelque soit l’implantation géographique du site : - Dans un climat chaud, le free cooling permet l’arrêt du système de refroidissement l’hiver et pendant les nuits d’été.

- Dans un climat plus frais, la période disponible de free cooling est étendue.

Habituellement dans un data center, la température de l’air soufflé par les armoires de climatisation est de l’ordre de 15°C. Le free cooling s’effectue jusqu’à 14°C extérieur ; il est compté 1°C de réchauffement par le ventilateur de la centrale de traitement d’air.

(35)

fig 37 : moyenne des températures diurnes en mars (2001-2010) source : neo.sci.gsfc.nasa.gov/Search.html?datasetId=MOD11C1_M_LSTDA

Free cooling diurne en mars : l’Europe, les Etats-Unis, le Canada, la Russie et le Japon sont des régions où le free cooling sur l’air est possible une majeure partie de la journée (moyenne journalière inférieure à 14°C).

fig 38 : moyenne des températures nocturnes en mai (2001-2010) source : neo.sci.gsfc.nasa.gov/Search.html?datasetId=MOD11C1_M_LSTDA

Free cooling nocturne en mai : l’Australie, l’Afrique du Sud, le Chili et les pays Caucasiens s’ajoutent à la liste pour un free cooling nocturne.

(36)

fig 39 : moyenne des températures diurnes en mai (2001-2010) source : neo.sci.gsfc.nasa.gov/Search.html?datasetId=MOD11C1_M_LSTDA

Free cooling diurne en mai : possible uniquement dans le nord du Canada, de l’Europe et de la Russie, le sud de l’Argentine et du Chili.

Par exemple à Bordeaux, durant 57,2% de l’année la température extérieure est inférieure ou égale à 14°C. En heures cumulées cela représente 209 jours par an, dont 142 jours (=

4,75 mois) entre novembre et mars (= 5 mois).

Pour déterminer le débit d’air soufflé par free cooling dans la salle informatique il faut se référer aux armoires de climatisation.

La puissance frigorifique des armoires de climatisation est surdimensionnée afin de consommer moins. Lorsque les besoins en froid sont faibles, le taux de charge diminue et ainsi la puissance frigorifique de l’armoire diminue. Mais le débit soufflé reste stable afin de maintenir une pression statique disponible maximale. En effet, si le débit soufflé diminue, la pression statique disponible diminue et le flux d’air circule mal, voire pas du tout s’il y a de nombreux obstacles (cas du faux plancher). Donc le débit d’air soufflé par les armoires de climatisation n’est pas surdimensionné, seule la puissance frigorifique l’est.

Le débit d’air soufflé par free cooling est égal au débit total disponible dans la salle informatique.

Le débit soufflé par free cooling est donc très important.

Dans un data center, le volume d’amenée d’air neuf est faible : les besoins en renouvellement d’air son faibles car il n’y a aucun dégagement d’humidité ou de composés organiques volatiles par le matériel informatique. Le réseau de la centrale de traitement d’air neuf est trop petit pour le free cooling, il faut installer de nouvelles centrales dédiées.

Ces centrales sont constituées de :

- Un caisson de mélange afin d’obtenir par mélange entre air repris et air neuf un air soufflé à 15°C.

- Un séparateur de gouttelettes dans le cas d’un air extérieur très humide.

- Un humidificateur dans le cas d’un air extérieur très sec.

- Un ventilateur avec variateur de vitesse.

- Des filtres G4 (les filtres F7 sont intégrés aux armoires de climatisation).

(37)

Il faut aussi :

- Un réseau de soufflage et de reprise, avec registres de soufflage, diffuseurs et grilles, clapets coupe-feu.

- Des sondes de température dans la salle informatique pour le retour de l’information sur la centrale.

- Un échangeur de chaleur dans le cas où l’air extérieur est impropre : trop humide ou trop pollué (chargé en particules), dans ce cas on parle de free cooling indirect.

fig 40 : principe du free cooling direct par air source : www.eco-info.org/spip.php?article140

fig 41 : principe du free cooling indirect par air source : www.eco-info.org/spip.php?article140

(38)

Le free cooling sur l’air permet de ne pas utiliser le système complet de refroidissement : groupes froids, aéroréfrigérants, pompes évaporateur, pompes condenseur, pompes réseaux. Seules les centrales dédiées au free cooling fonctionnent. Leur consommation est très faible par rapport à la consommation du système de refroidissement complet.

Les coûts d’investissement sont très importants. Selon la zone géographique, le retour sur investissement est très rapide (seulement 1 à 2 ans).

Références

Documents relatifs

 J’additionne les dizaines sans oublier la retenue puis les

KIT PORTE INTERNE MONTÉE SUR CHARNIÈRES 47 KIT PRIORITÉ D’OUVERTURE 47 MODULE POUR LEVIER SECTIONNEUR POUR LE MARCHÉ DE L’AMÉRIQUE DU NORD 48 KIT

Au cours de leurs explorations de la lumière, les élèves devront manipuler divers objets qu’il faudrait s’assurer d’avoir sous la main : des prismes triangulaires

Dans le Grand Est, les enfants entrants les plus nombreux sont ceux âgés de 11 à 15 ans (36 % des entrants), cette part atteint 49 % en Lorraine pour cette classe d’âge

Je respecte les règles de sécurité : ne pas se faire mal, ne pas faire mal aux autres.. J’accepte de gagner ou

Très bonne maitrise Maitrise satisfaisante Maitrise fragile Maitrise insuffisante Utiliser les différentes. unités d’énergie employées (Tonne Équivalent Pétrole (TEP),

[r]

Pour rappel : Voici le tableau donnant les tables de soustraction utiles pour poser une soustraction. (qui sont donc à