• Aucun résultat trouvé

Présentation

Ce chapitre fournit des informations complètes sur les principaux aspects de cette solution. La capacité des serveurs constitue une indication générale, avec les minima requis en matière de CPU, de mémoire et de ressources réseau. Le client peut choisir le matériel serveur et réseau de son choix pour respecter la configuration minimale indiquée, voire la dépasser. L’architecture de stockage spécifiée et un système répondant aux exigences de serveur et de réseau mentionnées ont été validés par EMC pour fournir de hauts niveaux de performances tout en offrant une haute disponibilité dans le cadre du déploiement de votre Cloud privé.

Chaque infrastructure éprouvée VSPEX répartit les ressources de traitement, du stockage et réseau requises pour un ensemble de machines virtuelles validées par EMC. Chaque machine virtuelle possède ses propres exigences, lesquelles coïncident rarement avec un schéma universel prédéfini. Lors de toute discussion portant sur les infrastructures virtuelles, il est essentiel de définir en premier lieu une charge de travail de référence. Les serveurs ne réalisant pas tous les mêmes tâches, il est impossible de concevoir une référence prenant en compte toutes les combinaisons possibles de charges de travail.

Cloud privé EMC VSPEX : VMware vSphere 5.5 - Jusqu’à 1 000 machines virtuelles, technologies Microsoft Windows Server 2012 R2, EMC VNX et EMC Powered Backup - Guide d’infrastructure EMC Proven

61 Les schémas d’architecture de cette section présentent l’organisation des principaux

composants des solutions. Les systèmes de stockage en modes bloc et fichier sont illustrés dans les schémas suivants.

La Figure 18 illustre l’infrastructure validée avec un stockage en mode bloc, où un SAN FC/FCoE de 8 Gbit ou iSCSI de 10 Gbit assure le transport du trafic de stockage, tandis qu’un réseau 10 GbE assure le transport du trafic de gestion et d’applications.

Figure 18. Architecture logique pour le stockage en mode bloc Architecture

logique

La Figure 19 illustre l’infrastructure validée avec un stockage en mode fichier, où un réseau 10 GbE assure le transport du trafic de stockage, ainsi que le restant du trafic.

Figure 19. Architecture logique pour le stockage en mode fichier L’architecture comprend les principaux composants suivants :

VMware vSphere 5.5 : fournit une couche de virtualisation commune pour héberger un environnement de serveurs. Les caractéristiques techniques de l’environnement validé figurent dans le Tableau 3. vSphere 5.5 fournit une infrastructure haute disponibilité, avec les fonctions suivantes :

• vMotion : assure une migration dynamique des machines virtuelles au sein d’un cluster d’infrastructure virtuelle, sans période d’interruption des machines virtuelles ni interruption de service.

• Storage vMotion : assure une migration dynamique des fichiers disque des machines virtuelles dans et entre les baies de stockage, sans période d’interruption des machines virtuelles ni interruption de service.

• vSphere High Availability (HA) : détecte une machine virtuelle en échec dans un cluster et en assure la restauration rapide.

• Distributed Resource Scheduler (DRS) : permet un équilibrage de la charge de la capacité de traitement au sein d’un cluster.

• Storage Distributed Resource Scheduler (SDRS) : assure un équilibrage de la charge sur plusieurs datastores, en fonction de l’espace utilisé et du temps de latence des E/S.

VMware vCenter Server : fournit une plate-forme évolutive et extensible sur laquelle repose la gestion de la virtualisation des clusters VMware vSphere. vCenter gère tous les hôtes vSphere et leurs machines virtuelles.

SQL Server : VMware vCenter Server nécessite un service de base de données pour stocker les informations de configuration et de surveillance. Cette solution a recours à un serveur Microsoft SQL Server 2008 R2.

Principaux composants

Cloud privé EMC VSPEX : VMware vSphere 5.5 - Jusqu’à 1 000 machines virtuelles, technologies Microsoft Windows Server 2012 R2, EMC VNX et EMC Powered Backup - Guide d’infrastructure EMC Proven

63 Serveur DNS : utilisez des services DNS pour les différents composants de la

solution, afin d’exécuter la résolution de noms. Cette solution a recours au service Microsoft DNS exécuté sous Windows Server 2012 R2.

Serveur Active Directory : plusieurs composants de la solution nécessitent les services Active Directory pour fonctionner correctement. Le service Active Directory de Microsoft s’exécutant sur Windows Server 2012 R2 est utilisé.

Infrastructure partagée : ajoutez des services DNS et d’authentification/autorisation tels qu’Active Directory dans l’infrastructure existante ou comme partie intégrante de la nouvelle infrastructure virtuelle.

Réseau IP : un réseau Ethernet standard prend en charge tout le trafic réseau à l’aide d’un câblage et de switches redondants. Un réseau IP partagé supporte le trafic des utilisateurs et de la gestion.

Réseau de stockage

Le réseau de stockage est un réseau isolé qui fournit aux hôtes un accès à la baie de stockage. VSPEX offre différentes options de stockage en mode bloc et en mode fichier.

Réseau de stockage en mode bloc :

Cette solution offre trois options pour les réseaux de stockage en mode bloc.

• Fibre Channel (FC) : un ensemble de normes qui définit les protocoles servant aux transferts de données en série à grande vitesse. FC offre une trame standard de transport des données entre les serveurs et des unités de stockage partagées.

• Fibre Channel over Ethernet (FCoE) : protocole de mise en réseau du stockage plus récent, qui prend en charge FC en natif sur Ethernet en incorporant les trames FC dans des trames Ethernet. Cela permet aux trames FC incorporées de s’exécuter en même temps que le trafic IP traditionnel.

• Ethernet 10 Gbit (iSCSI) : permet le transport de blocs SCSI sur un

réseau TCP/IP. iSCSI encapsule les commandes SCSI dans des paquets TCP et envoie ces paquets via le réseau IP.

Réseau de stockage en mode fichier :

Avec un stockage en mode fichier, un sous-réseau 10 GbE privé et non routable assure le transport du trafic de stockage.

Baie de stockage VNX

La configuration du Cloud privé VSPEX commence avec les baies de stockage VNX :

• Baie EMC VNX5200 : fournit du stockage aux hôtes vSphere pour un maximum de 200 machines virtuelles.

• Baie EMC VNX5400 : fournit du stockage aux hôtes vSphere pour un maximum de 300 machines virtuelles.

• Baie EMC VNX5600 : fournit du stockage aux hôtes vSphere pour un maximum de 600 machines virtuelles.

• Baie EMC VNX5800 : fournit du stockage aux hôtes vSphere pour un maximum de 1 000 machines virtuelles.

Les baies de stockage de la gamme VNX incluent les composants suivants :

• Processeurs de stockage (SP) : prennent en charge les données en mode bloc par l’intermédiaire de la technologie UltraFlex I/O, qui prend en charge les protocoles Fibre Channel, iSCSI et FCoE. Ces processeurs proposent un accès pour tous les hôtes externes et la baie VNX, côté fichier.

• Boîtier du processeur de disques (DPE) : de dimension 3U, héberge les processeurs de stockage et le premier plateau de disques. Les modèles VNX5200, VNX5400, VNX5600 et VNX5800 utilisent ce composant.

• Lames X-Blade (ou Data Movers) : accèdent aux données depuis le back-end et assurent un accès hôte au moyen de la technologie UltraFlex I/O, qui prend en charge les protocoles NFS, CIFS, MPFS et pNFS. Les lames X-Blade de chaque baie sont évolutives et fournissent une redondance pour garantir l’absence de points uniques de défaillance.

• Boîtier DME : de dimension 2U, héberge les Data Movers

(lames X-Blade). Tous les modèles VNX for File utilisent le boîtier DME.

• Alimentation de secours : de dimension 1U, fournit une puissance suffisante à chaque processeur de stockage pour que les données en cours de transfert soient stockées dans la chambre forte de la baie en cas de coupure d’alimentation.

Cela garantit l’absence de pertes d’écritures. Lors du redémarrage de la baie, les écritures en attente sont rapprochées et rendues persistantes.

• Station pilote : de dimension 1U, offre des fonctions de gestion aux lames X-Blade. Ces stations sont responsables du basculement sur incident des lames X-Blade. Une station pilote secondaire en option assure la redondance sur la baie VNX.

• Boîtiers DAE : contiennent les disques utilisés dans la baie.

Le Tableau 3 répertorie le matériel utilisé dans cette solution.

Tableau 3. Matériel utilisé dans la solution

Composant Configuration

Serveurs VMware vSphere

CPU 1 CPU virtuel par machine virtuelle 4 CPU virtuels par cœur physique Pour 200 machines virtuelles :

200 CPU virtuels

50 CPU physiques minimum Pour 300 machines virtuelles :

• 300 CPU virtuels

• 75 CPU physiques minimum Pour 600 machines virtuelles :

• 600 CPU virtuels

• 150 CPU physiques minimum Pour 1 000 machines virtuelles :

• 1 000 CPU virtuels

• 250 CPU physiques minimum Ressources

matérielles

Cloud privé EMC VSPEX : VMware vSphere 5.5 - Jusqu’à 1 000 machines virtuelles, technologies Microsoft Windows Server 2012 R2, EMC VNX et EMC Powered Backup - Guide d’infrastructure EMC Proven

65

Composant Configuration

Mémoire 2 Go de RAM par machine virtuelle

Réservation de 2 Go de RAM par hôte VMware vSphere

Pour 200 machines virtuelles : 400 Go de RAM minimum

Plus 2 Go pour chaque serveur physique Pour 300 machines virtuelles :

• 600 Go de RAM minimum

• Plus 2 Go pour chaque serveur physique Pour 600 machines virtuelles :

• 1 200 Go de RAM minimum

• Plus 2 Go pour chaque serveur physique Pour 1 000 machines virtuelles :

• 2 000 Go de RAM minimum

• Plus 2 Go pour chaque serveur physique Réseau Bloc 2 cartes réseau 10 GbE par serveur

2 adaptateurs HBA par serveur Fichier 4 cartes réseau 10 GbE par serveur Remarque : ajoutez au moins un autre serveur à l’infrastructure en plus du nombre indiqué dans les conditions minimales requises pour implémenter la fonction VMware vSphere High Availability (HA) et atteindre les valeurs minimales répertoriées.

Infrastructure

réseau Configuration minimale des switches

Bloc 2 switches physiques

2 ports 10 GbE par serveur VMware vSphere 1 port 1 GbE par station pilote pour la gestion 2 ports par serveur VMware vSphere pour le réseau de stockage

2 ports par processeur de stockage pour les données

Fichier 2 switches physiques

4 ports 10 GbE par serveur VMware vSphere 1 port 1 GbE par station pilote pour la gestion 2 ports 10 GbE par Data Mover pour les données Sauvegarde

EMC Avamar Consultez le document

Data Domain Consultez le document

Composant Configuration Baie de

stockage de la gamme EMC VNX

Bloc Caractéristiques communes :

• 1 interface 1 GbE par station pilote pour la gestion

• 1 interface 1 GbE par processeur de stockage pour la gestion

• 2 ports front-end par processeur de stockage

• Disques système pour VNX OE Pour 200 machines virtuelles :

• EMC VNX5200

• 75 disques SAS 3,5 pouces, 600 Go, 15 000 t/min

• 4 disques Flash de 200 Go

• 3 disques SAS 3,5 pouces, 600 Go, 15 000 t/min, utilisés comme disques de secours

• 1 disque Flash de 200 Go utilisé comme disque de secours

Pour 300 machines virtuelles :

• EMC VNX5400

• 110 disques SAS 3,5 pouces, 600 Go, 15 000 t/min

• 6 disques Flash de 200 Go

• 4 disques SAS 3,5 pouces, 600 Go, 15 000 t/min, utilisés comme disques de secours

• 1 disque Flash de 200 Go utilisé comme disque de secours

Pour 600 machines virtuelles :

• EMC VNX5600

• 220 disques SAS 3,5 pouces, 600 Go, 15 000 t/min

• 10 disques Flash de 200 Go

• 8 disques SAS 3,5 pouces, 600 Go, 15 000 t/min, utilisés comme disques de secours

• 1 disque Flash de 200 Go utilisé comme disque de secours

Pour 1 000 machines virtuelles :

• EMC VNX5800

• 360 disques SAS 3,5 pouces, 600 Go, 15 000 t/min

• 16 disques Flash de 200 Go

• 12 disques SAS 3,5 pouces, 600 Go, 15 000 t/min, utilisés comme disques de secours

• 1 disque Flash de 200 Go utilisé comme disque de secours

Cloud privé EMC VSPEX : VMware vSphere 5.5 - Jusqu’à 1 000 machines virtuelles, technologies Microsoft Windows Server 2012 R2, EMC VNX et EMC Powered Backup - Guide d’infrastructure EMC Proven

67

Composant Configuration

Fichier Caractéristiques communes :

• 2 interfaces 10 GbE par Data Mover

• 1 interface 1 GbE par station pilote pour la gestion

• 1 interface 1 GbE par processeur de stockage pour la gestion

• Disques système pour VNX OE Pour 200 machines virtuelles :

• EMC VNX5200

• 2 Data Movers (actif/veille)

• 75 disques SAS 3,5 pouces, 600 Go, 15 000 t/min

• 4 disques Flash de 200 Go

• 3 disques SAS 3,5 pouces, 600 Go, 15 000 t/min, utilisés comme disques de secours

• 1 disque Flash de 200 Go utilisé comme disque de secours

Pour 300 machines virtuelles :

• EMC VNX5400

• 2 Data Movers (actif/veille)

• 110 disques SAS 3,5 pouces, 600 Go, 15 000 t/min

• 6 disques Flash de 200 Go

• 4 disques SAS 3,5 pouces, 600 Go, 15 000 t/min, utilisés comme disques de secours

• 1 disque Flash de 200 Go utilisé comme disque de secours

Pour 600 machines virtuelles :

• EMC VNX5600

• 2 Data Movers (actif/veille)

• 220 disques SAS 3,5 pouces, 600 Go, 15 000 t/min

• 10 disques Flash de 200 Go

• 8 disques SAS 3,5 pouces, 600 Go, 15 000 t/min, utilisés comme disques de secours

• 1 disque Flash de 200 Go utilisé comme disque de secours

Pour 1 000 machines virtuelles :

• EMC VNX5800

• 3 Data Movers (2 actifs/1 en veille)

• 360 disques SAS 3,5 pouces, 600 Go, 15 000 t/min

• 16 disques Flash de 200 Go

• 12 disques SAS 3,5 pouces, 600 Go, 15 000 t/min, utilisés comme disques de secours

• 1 disque Flash de 200 Go utilisé comme disque de secours

Remarque : avec la baie VNX5800, il est recommandé de ne pas exécuter plus de 600 machines virtuelles sur un même Data Mover actif. Configurez deux Data Movers actifs (2 actifs/1 en veille) lors de l’évolution à 600 machines virtuelles ou plus dans ce cas.

Composant Configuration Infrastructure

partagée Dans la plupart des cas, un environnement client dispose déjà de services d’infrastructures, comme Active Directory, DNS ou d’autres services configurés. La configuration de ces services n’entre pas dans le cadre du présent document.

Si la mise en œuvre a été effectuée sans infrastructure existante, la nouvelle configuration minimale requise est la suivante :

• 2 serveurs physiques

• 16 Go de RAM par serveur

• 4 cœurs de processeur par serveur

• 2 ports 1 GbE par serveur

Remarque : ces services peuvent être migrés dans le

postdéploiement VSPEX. Toutefois, ils doivent exister avant le déploiement de VSPEX.

Remarque : la solution doit utiliser de préférence un réseau 10 GbE ou une infrastructure réseau 1 GbE équivalente, à condition que les exigences sous-jacentes liées à la bande passante et à la redondance soient satisfaites.

Le Tableau 4 répertorie les logiciels utilisés dans cette solution.

Tableau 4. Logiciels utilisés dans la solution

Logiciels Configuration

VMware vSphere 5.5

Serveur vSphere Enterprise Edition

vCenter Server Édition standard

Système d’exploitation pour vCenter

Server Windows Server 2008 R2 SP1 Standard Edition

Remarque : tout système d’exploitation pris en charge pour vCenter est acceptable.

Microsoft SQL Server Version 2008 R2 Standard Edition

Remarque : toute base de données prise en charge pour vCenter est acceptable.

EMC VNX

VNX Operating Environment for File 8.0 VNX Operating Environment for Block 05.33 EMC VSI for VMware vSphere : Unified

Storage Management

EMC VSI for VMware vSphere : Storage Viewer

EMC PowerPath/VE

Ressources logicielles

Cloud privé EMC VSPEX : VMware vSphere 5.5 - Jusqu’à 1 000 machines virtuelles, technologies Microsoft Windows Server 2012 R2, EMC VNX et EMC Powered Backup - Guide d’infrastructure EMC Proven

69

Logiciels Configuration

Sauvegarde EMC

Avamar Consultez le documen

OS Data Domain

Machines virtuelles (utilisées pour la validation, non requises pour le déploiement) Système d’exploitation de base Microsoft Windows Server 2012 R2 Data Center

Edition

Instructions pour la configuration des serveurs

Lors de la conception et de la commande de la couche de traitement/serveur pour la solution VSPEX décrite ci-dessous, il se peut que certains facteurs influent sur l’achat final. Du point de vue de la virtualisation, si la charge de travail du système est bien comprise, des fonctions comme l’augmentation artificielle de la capacité mémoire et le partage de page transparent peuvent réduire les besoins en mémoire agrégée.

Si le pool de machines virtuelles présente un faible nombre de pics ou d’utilisations simultanées, il est possible de réduire le nombre de CPU virtuels. À l’inverse, si les applications déployées effectuent beaucoup de traitements informatiques, le nombre de CPU et la quantité de mémoire à acheter doivent augmenter.

Les instructions de dimensionnement VSPEX actuelles indiquent un rapport de cœur CPU virtuel à cœur CPU physique de 4:1. Ce rapport est basé sur l’exemple de technologies CPU moyennes disponibles au moment des tests. À mesure que les technologies CPU évoluent, les fournisseurs de serveurs OEM, qui sont des partenaires VSPEX, peuvent proposer des rapports différents (généralement plus élevés). Suivez les directives mises à jour du fournisseur de serveurs OEM.

Les tests réalisés suite à la commercialisation des processeurs de la gamme Ivy Bridge d’Intel ont montré des hausses significatives de la densité des machines virtuelles du point de vue des ressources serveur. Si des processeurs Ivy Bridge sont inclus dans le déploiement de serveurs, nous vous recommandons d’augmenter le rapport CPU virtuels/CPU physique de 4:1 à 8:1. Cette technique permet de diminuer de moitié le nombre de cœurs de serveur requis pour héberger les machines

virtuelles de référence.

Présentation

Mises à jour des processeurs Ivy Bridge

La Figure 20 illustre les résultats des configurations testées :

Figure 20. Conseils relatifs aux processeurs Ivy Bridge

Cloud privé EMC VSPEX : VMware vSphere 5.5 - Jusqu’à 1 000 machines virtuelles, technologies Microsoft Windows Server 2012 R2, EMC VNX et EMC Powered Backup - Guide d’infrastructure EMC Proven

71 Le Tableau 5 répertorie les ressources matérielles utilisées pour la couche de

traitement des données.

Tableau 5. Ressources matérielles pour la couche de traitement des données

Composant Configuration

Serveurs VMware vSphere

CPU 1 CPU virtuel par machine virtuelle 4 CPU virtuels par cœur physique Pour 200 machines virtuelles :

• 200 CPU virtuels

• 50 CPU physiques minimum Pour 300 machines virtuelles :

• 300 CPU virtuels

• 75 CPU physiques minimum Pour 600 machines virtuelles :

• 600 CPU virtuels

• 150 CPU physiques minimum Pour 1 000 machines virtuelles :

• 1 000 CPU virtuels

• 250 CPU physiques minimum Mémoire 2 Go de RAM par machine virtuelle

Réservation de 2 Go de RAM par hôte VMware vSphere

Pour 200 machines virtuelles :

• 400 Go de RAM minimum

• Plus 2 Go pour chaque serveur physique Pour 300 machines virtuelles :

• 600 Go de RAM minimum

• Plus 2 Go pour chaque serveur physique Pour 600 machines virtuelles :

• 1 200 Go de RAM minimum

• Plus 2 Go pour chaque serveur physique Pour 1 000 machines virtuelles :

• 2 000 Go de RAM minimum

• Plus 2 Go pour chaque serveur physique Réseau Bloc 2 cartes réseau 10 GbE par serveur

2 adaptateurs HBA par serveur Fichier 4 cartes réseau 10 GbE par serveur

Remarque : ajoutez au moins un autre serveur à l’infrastructure en plus du nombre indiqué dans les conditions minimales requises pour implémenter la fonction VMware vSphere High Availability (HA) et atteindre les valeurs minimales répertoriées.

Remarque : la solution doit utiliser de préférence un réseau 10 GbE ou une

infrastructure réseau 1 GbE équivalente, à condition que les exigences sous-jacentes liées à la bande passante et à la redondance soient satisfaites.

VMware vSphere 5.5 présente un certain nombre de fonctionnalités avancées qui permettent d’optimiser les performances et l’utilisation globale des ressources. Les fonctionnalités avancées les plus importantes ont trait à la gestion de la mémoire.

Cette section décrit certaines d’entre elles, ainsi que les aspects à prendre en compte lorsque vous les utilisez dans l’environnement.

De manière générale, les machines virtuelles sur un seul hyperviseur consomment de la mémoire comme un pool de ressources, tel qu’indiqué sur la Figure 21.

Figure 21. Consommation de la mémoire de l’hyperviseur

La compréhension des technologies abordées dans cette section permet de dépasser le concept de base.

Compression de mémoire

Ce type de situation se produit lorsque la quantité de mémoire allouée aux machines virtuelles est supérieure à la quantité de mémoire physique disponible sur l’hôte VMware vSphere. Grâce à des techniques sophistiquées, comme l’augmentation artificielle de la capacité mémoire et le partage de page transparent, vSphere 5.5 peut gérer la surallocation de la mémoire sans nuire aux performances. Cependant, si l’utilisation de la mémoire dépasse la capacité des serveurs, vSphere peut permuter des parties de la mémoire d’une machine virtuelle.

Virtualisation de la mémoire dans VMware vSphere pour VSPEX

Cloud privé EMC VSPEX : VMware vSphere 5.5 - Jusqu’à 1 000 machines virtuelles, technologies Microsoft Windows Server 2012 R2, EMC VNX et EMC Powered Backup - Guide d’infrastructure EMC Proven

73 Accès NUMA (Non-Uniform Memory Access)

vSphere 5.5 utilise un répartiteur de charge NUMA pour attribuer un nœud principal à une machine virtuelle. Comme la mémoire de la machine virtuelle est allouée à partir du nœud principal, l’accès mémoire est effectué en local et offre les meilleures performances possibles. Les applications qui ne prennent pas directement en charge NUMA profitent également de cette fonction.

Partage de page transparent

Les machines virtuelles exécutant des systèmes d’exploitation et des applications similaires présentent des ensembles de contenu de mémoire semblables. Le partage de pages permet à l’hyperviseur de réclamer les copies redondantes des pages de mémoire et de ne conserver qu’une seule copie, ce qui libère la consommation de mémoire hôte totale. Si la plupart de vos machines virtuelles d’applications exécutent le même système d’exploitation et les mêmes données binaires d’application, l’utilisation de mémoire totale peut être réduite afin d’augmenter les taux de consolidation.

Augmentation artificielle de la capacité mémoire

L’utilisation d’un « Balloon driver » chargé dans le système d’exploitation invité permet à l’hyperviseur de libérer de la mémoire physique sur l’hôte en cas de conflits d’accès aux ressources mémoire, avec peu, voire aucun impact sur les performances de l’application.

Cette section fournit des instructions sur l’allocation de la mémoire à des machines virtuelles. Ces instructions tiennent compte du temps système de la mémoire vSphere, ainsi que des paramètres associés à la mémoire des machines virtuelles.

Capacité mémoire supplémentaire requise pour vSphere

La virtualisation des ressources mémoire implique un temps système supplémentaire.

Ce temps système inclut deux éléments :

• capacité de mémoire système supplémentaire fixe pour VMkernel ;

• celui de chaque mémoire virtuelle.

La capacité mémoire supplémentaire requise dépend du nombre de CPU virtuels et de la mémoire configurée pour le système d’exploitation invité.

Allocation de mémoire à des machines virtuelles

De nombreux facteurs déterminent le dimensionnement approprié de la mémoire d’une machine virtuelle dans les architectures VSPEX. Compte tenu du nombre de services applicatifs et d’exemples d’utilisation disponibles, la définition d’une configuration adaptée à un environnement nécessite la création d’une configuration de base, la réalisation de tests et l’ajustement des paramètres pour des résultats optimaux.

Instructions pour la configuration de la mémoire