• Aucun résultat trouvé

Partie 1 : Synthèse des connaissances acquises

12. Virtualisation

Les racks ne sont jamais pleinement utilisés. La plupart du temps ils sont chargés de 20 à 30% de leur capacité.

Il est possible de transférer les données et le système d’exploitation associé d’un hub sur un autre. L’hub qui a reçu les nouvelles données peut gérer les deux systèmes d’exploitation et gérer des actions simultanées sur les données existantes et sur les nouvelles données : le rack contenant ce hub a été virtualisé. Il est possible de virtualiser plusieurs hubs sur un seul hub, et plusieurs racks sur un seul rack.

fig 24 : principe de fonctionnement de la virtualisation source : www.alunys.com/page/53/virtualisation

Après la virtualisation, il est possible de retirer définitivement les racks vidés virtuellement.

Cette solution est profitable aux personnes louant les racks pouvant ainsi réduire le nombre de racks présents dans leur data center. Cependant la capacité de stockage du data center est fortement diminuée.

Ou alors, il est possible de conserver les racks vidés virtuellement. Virtualiser et conserver les racks est profitable aux personnes propriétaires des racks.

Les données virtualisées sont présentes sur deux racks : celui d’origine et celui virtualisé.

Cela permet d’avoir une redondance dans les données et de les conserver en cas de panne avec perte partielle ou totale. Ou bien, les racks vidés virtuellement peuvent être réellement vidés : il n’y pas de redondance de données mais cela permet d’augmenter la capacité de stockage du data center sans investissement de matériels informatiques.

Après virtualisation il y a donc trois possibilités : - Retirer le rack vidé

- Conserver le rack vidé

- Vider réellement et conserver le rack vidé.

La consommation électrique informatique est différente selon ces trois cas.

Un rack consomme quasiment autant d’énergie qu’il fonctionne à faible ou à pleine charge.

Sa consommation est quasiment fixe, et peu variable, peu proportionnelle selon la charge.

fig 25 : rendement d’un rack en fonction de sa charge source : h41112.www4.hp.com/qualifiedoptions/fr/fr/rack/index.html A de 25% de charge, le rendement est de 80%.

Ainsi, avec deux racks chargés à 25%, virtualiser un des racks sur l’autre permet de réduire la consommation informatique de 37%. Le rack virtualisé atteint une charge de 50%.

Evaluation de la consommation électrique informatique selon les trois cas : - Retirer le rack vidé :

économie d’énergie, économie de location, capacité de stockage diminuée.

- Conserver le rack vidé :

faible augmentation de la consommation, redondance de l’information assurée.

- Vider réellement et réutiliser le rack vidé :

faible augmentation de la consommation, capacité de stockage augmentée.

L’inconvénient majeur de la virtualisation survient lorsque tous les serveurs présents dans le rack virtualisé atteignent leur charge de pointe au même instant. Le rack virtualisé atteint 90 à 100% de sa charge et dissipe énormément de chaleur, créant un point chaud. Les points chauds liés à la virtualisation sont difficiles à traiter car ils sont mobiles : les charges informatiques sont en déplacement du fait du fonctionnement simultané de serveurs sur une seule machine. Le taux de charge du rack virtualisé varie sans cesse d’une charge quasi nulle à une charge totale.

fig 26 : déplacement des points chauds après virtualisation source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus »

Une mauvaise trajectoire du flux d’air, un problème d’écoulement d’air, un mauvais dimensionnement du confinement accentue ce phénomène : un rack virtualisé atteignant seulement 50% ou 60% de sa capacité peut créer un point chaud. Un taux de 50% est atteint fréquemment par un rack virtualisé. Pour atteindre la demi-charge il ne suffit pas que tous les serveurs présents soient en charge de pointe (ce qui est rare), mais seulement quelques uns. La virtualisation est donc à utiliser avec précaution.

La meilleure solution est de regrouper des serveurs ayant des utilisations complémentaires non simultanées ; mais cette situation reste rare et difficile à identifier. La virtualisation à demi-charge (50%) est à étudier, mais la virtualisation jusqu’à la pleine charge (90 à 100%) présente des risques trop importants pour la disponibilité (arrêt due à la surchauffe) et le maintien de l’information (perte partielle due à la surchauffe).

Autre problème, dans un data center en sous-charge à cause du surdimensionnement du système de refroidissement, la diminution de la dissipation de chaleur grâce à la virtualisation peut amener ce dernier en sous-charge extrême. Les effets négatifs d’une sous-charge extrême sont développés dans le paragraphe sur le surdimensionnement.

Le rendement et la charge ne sont pas liés linéairement. A partir de 30% de charge, le rendement est acceptable. Le principal but de la virtualisation n’est pas d’atteindre des niveaux de rendement supérieurs à ceux atteint à 30% de charge, mais d’atteindre un niveau de charge minimum, assurant ainsi la non-dégradation du rendement.

La virtualisation augmente sensiblement le rendement informatique : il y a plus d’activité informatique par Watt d’électricité consommé par le data center.

Le rendement du data center DCIE, Data Center Infrastructure Efficiency, correspond à l’inverse du PUE, soit :

DCIE = consommation informatique / consommation totale du site Comment varie le DCIE avec la virtualisation ?

Par la virtualisation, la puissance informatique diminue. Les puissances informatique, du système de refroidissement et du système d’alimentation forment à elles trois 90% de la puissance totale du site.

Dans le cas où le rack vidé est retiré :

- Le système de refroidissement est un peu moins sollicité.

- L’alimentation informatique retirée ne représente qu’une faible part de l’alimentation totale.

De ce fait, la puissance totale du site augment : le DCIE diminue, le PUE augmente.

Dans le cas où le rack vidé est conservé :

- Le système de refroidissement est plus sollicité.

- L’alimentation informatique augmente.

De ce fait, la puissance totale du site augmente de significativement : le DCIE diminue, le PUE augmente fortement.

Le DCIE ne mesure pas le quantité d’énergie utilisée mais indique la part de l’énergie gaspillée par rapport à l’énergie utilisée.

fig 27 : diminution du DCIE après virtualisation source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus » Lorsque le rendement informatique augmente sans modification du système de refroidissement, le système de refroidissement devient surdimensionné. En effet la chaleur dissipée par un rack n’est pas linéairement proportionnelle à sa charge : un rack à faible charge informatique dissipe une certaine quantité de chaleur non négligeable. Ainsi la chaleur dissipée par le matériel informatique d’un data center virtualisé est inférieure à la chaleur dissipée par un data center non virtualisé lorsque la charge informatique est la même dans les deux cas, c’est-à-dire lorsque les racks sont retirés. La conservation et la réutilisation des racks vidés ne permet pas de réaliser des économies d’énergie, ils ne permettent que d’augmenter la capacité informatique du data center.

Si la volonté est aux économies d’énergies, la part majeure est à récupérer sur le dimensionnement du système de refroidissement et l’alimentation électrique. Les économies réalisées par la virtualisation sont notables, mais faibles par rapport à ceux réalisables sur la consommation électrique non informatique.

Consommation électrique non informatique associée à la virtualisation

La consommation d’énergie non informatiques, ou pertes, sont les suivantes :

- Les pertes électriques internes du système d'alimentation (périphériques du circuit d'alimentation, notamment les onduleurs, les bandeaux de prises, le câblage, etc.), qui se dispersent sous forme de chaleur.

- L'ensemble de la puissance consommée par le système de refroidissement.

- L'ensemble de la puissance consommée par d'autres sous-systèmes de l'infrastructure physique du data center (réduite par rapport aux précédentes).

Sur l'ensemble de la puissance consommée par les systèmes d'alimentation et de refroidissement, une partie reste identique quelle que soit la charge informatique, et une partie varie en proportion de la charge informatique. Ces deux composants de puissance consommée sont appelés perte fixe et perte proportionnelle.

La perte fixe est la puissance consommée que le système fonctionne ou non, quelle que soit la charge. La réduction de la charge ne modifie pas la quantité de perte fixe. Les transformateurs et les ventilateurs à vitesse fixe possèdent des pertes fixes importantes.

La perte proportionnelle est directement proportionnelle à la charge. Le doublement de la charge doublera la perte proportionnelle. Les ventilateurs à vitesse variable et les pompes à débit variable possèdent des pertes proportionnelles.

Les pertes fixes représentent une part non négligeable lorsque le matériel concerné fonctionne à bas régime. En d’autres termes, plus un data center est grand et plus ces pertes représentent une part importante de la consommation électrique non informatique.

Pour la même capacité informatique, la virtualisation permet de diminuer le nombre de racks.

Diminuer le nombre de racks permet de :

- Diminuer les longueurs d’alimentation électrique.

- Diminuer les longueurs des réseaux aéraulique et hydraulique.

- Réduire le système de refroidissement ; par exemple, en retirant quelques armoires de climatisation au niveau des racks retirés. Modifier la taille du groupe froid et des aéroréfrigérants est un investissement trop lourd.

Ainsi, les pompes et les ventilateurs ont moins de pertes de charge à combattre. Avec des ventilateurs et des pompes à vitesse variable, les économies d’énergie sont notables car les pertes proportionnelles diminuent. Dans ce cas il est considéré que le système de refroidissement est déjà muni de tels variateurs. Si ce n’est pas le cas, l’investissement pour des matériels avec variateurs est conséquent mais le retour sur investissement est rapide (quelques années). La meilleure solution est de prévoir des ventilateurs et des pompes à vitesse variables dès la conception : avec la virtualisation, les économies d’énergie réalisées sont immédiates et sans investissement.

Il en est de même pour l’investissement d’onduleurs plus performants et moins puissants (moins de racks à alimenter) : l’investissement est lourd mais le retour sur investissement est rapide (quelques années).

En optimisant le système de refroidissement et le système d’alimentation, la puissance totale du site est fortement diminuée. le DCIE virtualisé reste proche du DCIE non virtualisé, il peut être supérieur ou inférieur de quelques points. Les rendements sont proches, mais la facture énergétique est plus faible.

fig 28 : DCIE et PUE initiaux atteints après virtualisation et optimisation du système de refroidissement et d’alimentation

source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus » La réduction des pertes fixes, via un meilleur rendement des périphériques et / ou une meilleure configuration du système (variateurs de vitesse), est la méthode la plus efficace pour accroître le rendement.

En partant d’un data center défavorable, il est possible de faire près de 65% d’économies grâce au confinement, à la virtualisation, à l’optimisation de refroidissement et d’alimentation et d’obtenir un retour sur investissement inférieur à 4 ans.

Mais le surdimensionnement n’apparaît pas uniquement lors de la virtualisation. Il est vite devenu une habitude de conception.

Documents relatifs