• Aucun résultat trouvé

8 stratégies pour construire un datacenter moderne

N/A
N/A
Protected

Academic year: 2022

Partager "8 stratégies pour construire un datacenter moderne"

Copied!
11
0
0

Texte intégral

(1)

8 stratégies pour construire un datacenter moderne

Un livre blanc Nutanix

(2)

Construire un datacenter efficace au sein d’une entreprise exige du courage. La tâche n’a jamais été simple, et d’année en année, les datacenters deviennent de plus en plus complexes et coûteux à entretenir.

Les architectes bien sur, n’ont jamais voulu aller vers plus de complexité. En fait, ils ont même toujours fait leur possible pour rationaliser les choix technologiques et les produits afin de rendre l’environnement global facile à gérer et à maintenir.

Cependant, pour réussir à suivre le rythme effréné de leur entreprise, ils n’ont pas eu d’autres choix que d’incorporer de nouvelles technologies capables de stimuler la performance et l’évolutivité de leur datacenter. Conséquence directe : ce dernier s’est construit sur une multiples générations de produits, sur un mélange de technologies le plus souvent incompatible, créant de nombreux silos autour du réseau, du stockage et des serveurs. Ajoutez à cela un ensemble lourd de consoles, tableaux de bords et autres frameworks d’administration, et il est très facile de se rendre compte à quel point les datacenters sont aujourd’hui difficiles à gérer et à mettre à jour à un coût acceptable.

Mais aujourd’hui, beaucoup d’architectes optent pour un design modulaire, soit pour étendre leurs datacenters existants, soit pour en bâtir de nouveaux.

Cette approche modulaire repose sur des «blocs de construction» homogènes qui peuvent être installés de manière incrémentale en fonction des besoins. Chaque module intègre les briques essentielles : réseau, stockage et serveur.

Cette approche a de nombreux avantages :

• Une plus grande simplicité comparée aux approches traditionnelles du «fait main»

• Des performances plus prédictives lorsque l’infrastructure croît

• Une meilleure interopérabilité entre les technologies

L’approche modulaire n’est cependant pas un nouveau concept. Une des premières tentatives a été d’équiper des containers de cargo avec 20 racks (ou plus) intégrant serveurs, stockage et réseau, le tout

8 stratégies pour construire un datacenter moderne

Basculer vers une architecture de blocs modulaires

Les datacenters d’entreprise n’arrivent plus à répondre aux exigences des métiers, ni à intégrer les technologies avancées capables d’améliorer les performances, l’évolutivité et l’équation économique de l’infrastructure.

Toutefois, répondre à ces exigences implique souvent de repenser totalement la manière dont les datacenters sont conçus et administrés.

Heureusement, de nombreux architectes IT et spécialistes du Cloud Computing ont démontré la viabilité et les bénéfices d’un datacenter « Software-Defined ».

Ce livre blanc Nutanix passe en revue les huit étapes fondamentales qui permettent de mettre en œuvre ce type de datacenter efficace, simple à administrer et évolutif.

Basculer vers une architecture de blocs modulaires Faire converger son infrastructure autant que possible Laisser le logiciel piloter le datacenter

Dépasser la peur du matériel de commodité

Faire du End User Computing une expérience remarquable Briser les silos pour accroître la flexibilité

Construire un Cloud hybride

Passer du Disaster Recovery à la continuité de service

(3)

pré-câblé et prêt à l’emploi. Si l’approche par container correspond bien à la définition d’un module, elle n’est pas financièrement accessible à toutes les entreprises.

Plus récemment, l’approche modulaire a été restreinte au niveau du rack. Des produits tels que les vBlock proposés par le consortium VCE sont livrés en racks pré assemblés, pré câblés et dotés de serveurs, de commutateurs réseau et de stockage pour un fonctionnement immédiat. Cette solution permet

effectivement aux entreprises de bâtir leurs propres datacenters rack par rack, mais avec de nombreux inconvénients :

• Les solutions proposées sont encore trop chères pour de nombreuses entreprises. Il n’est pas inhabituel de devoir dépenser au moins 400 000 euros ou plus pour une

infrastructure somme toute assez basique.

• Les ratios de ressources serveurs, stockage ou réseau fixés par les constructeurs ne répondent pas efficacement aux besoins des datacenters.

• Les composants issus de constructeurs différents, installés dans un même rack rendent l’administration globale trop complexe.

Un véritable datacenter modulaire existe lorsque les blocs peuvent facilement être ajoutés ou retirés de l’infrastructure. Une construction par bloc modulaire permet donc aux entreprises d’investir au fur et à mesure des besoins. L’entreprise peut ainsi commencer prudemment avec un rack équipé d’une seule appliance puis ajouter ultérieurement de nouveaux blocs.

La plateforme Virtual Computing de Nutanix est la solution idéale pour construire un datacenter par blocs modulaires. Elle est capable de consolider les ressources serveur et stockage dans une seule appliance 2U totalement intégrée. Elle permet également de rentabiliser les investissements Ethernet déjà effectués.

Cette approche permet aux entreprises de débuter petit et de croître à leur rythme vers des clusters de plus grande taille.

Nutanix élimine aussi le besoin d’avoir un SAN dédié ou des baies de stockage externes et rend possible l’administration de toutes les ressources via une seule console.

Construire une infrastructure s’appuyant sur des modules d’infrastructure qui intègrent à la fois le réseau, le stockage et les ressources serveur est donc un moyen simple et économique pour faire grandir son datacenter d’entreprise.

Beaucoup de responsables de l’IT ont réalisé à quel point il pouvait être bénéfique de faire converger les infrastructures. Ils peuvent ainsi proposer plus efficacement des services à moindre coût et avec moins de ressources.

L’évolution des stratégies de stockage illustre parfaitement pourquoi la convergence est aussi marquante.

Il y a plus de 10 ans, afin d’optimiser les capacités globales, les disques durs ont migré depuis les serveurs d’applications et les bases de données vers des baies de stockage mutualisées et partagées. Des réseaux de stockage hyper rapides, tels que les SAN, ont eu pour but de connecter les serveurs à ces équipements de stockage monolithiques.

Faire converger les infrastructures lorsque c’est possible

• Simple à faire évoluer

• Des coût prédictibles

• Des technologies interopérables

(4)

Plus récemment, les mémoires flash ont permis de créer des solutions de stockage hybrides. Lorsqu’elles sont correctement mises en œuvre, ces solutions permettent d’augmenter jusqu’à 100 fois la rapidité par rapport aux architectures traditionnelles. Quelques architectures SAN ont ainsi été remodelées afin d’intégrer du stockage flash, mais elles engendrent généralement des goulets d’étranglement au niveau du réseau. Par exemple, l’ajout de 100 cartes flash PCIe dans un SAN 8 Gb/s saturera les contrôleurs de la plupart des constructeurs du marché.

Certains leaders IT comme Google ou Facebook en ont conclu que les technologies SAN et NAS n’avaient pas leur place dans les datacenters modernes. Ils souhaitaient que les ressources de calcul et de stockage puissent cohabiter tout en offrant d’excellents taux d’E/S pour les données, une latence très réduite et la possibilité de croître avec le moins de contraintes possibles.

Une étape de convergence supplémentaire était donc nécessaire afin d’éliminer les réseaux de stockage complexes et de combiner efficacement les données et les ressources serveurs dans un seul système. Les architectes ont du réaliser une migration propre de tous les stacks et de la myriades de systèmes

d’exploitation, vers quelques protocoles standards, comme NFS, iSCSI, CIFS. VMware a utilisé la virtualisation pour faciliter cette migration, suivi par d’autres comme Microsoft HyperV, Xen, ou KVM.

En ajoutant la virtualisation à l’équation, les piles logicielles SAN/NAS ont pu prendre place sur le serveur lui-même. Avec les contrôleurs virtualisés, il était finalement possible de gérer les fonctionnalités SAN et NAS avec une seule implémentation pour tous les systèmes d’exploitation. Désormais, toutes les machines virtuelles peuvent communiquer de façon transparente avec les ressources de stockage, comme avec un SAN. La différence fondamentale est que les capacités de stockage et serveur peuvent évoluer ensemble, sans avoir à investir dans un réseau haut débit dédié.

La plateforme Virtual Computing de Nutanix fait converger les serveurs et le stockage dans un système unique, éliminant le besoin en baies de stockage traditionnelles. Une seule appliance intègre quatre nœuds indépendants, chacun étant optimisé avec serveur, mémoire et stockage hautes performances.

Chaque nœud fait tourner un hyperviseur standard du marché, plus une machine virtuelle Nutanix, capable de gérer toutes les opérations E/S pour l’hyperviseur. Les ressources stockage sont présentées à l’hyperviseur via les interfaces traditionnelles, comme par exemple NFS. Un pool de stockage global agrège les capacités de tous les nœuds, et l’ensemble des hôtes du cluster peut y accéder.

Faire converger les ressources serveur et stockage dans une seule appliance augmente considérablement la flexibilité globale du datacenter, et minimise la latence. Vous profitez ainsi de tous les bénéfices sans subir la complexité de gestion séparée des serveurs et des baies de stockage interconnectés par un réseau dédié.

Les datacenters traditionnels s’appuient fortement sur des matériels spécialisés, et ce, parfois même pour une seule fonction. Les équipements intègrent souvent des équilibreurs de charge haute performance, baies de stockage spécifiques et de multiples boîtiers de sécurité qui alourdissent la plupart des

infrastructures. Ces plateformes matérielles ont une flexibilité et une portabilité très limitées. Parce qu’ils sont bâtis avec des circuits intégrés et des ASICs, ces systèmes ne supportent pas facilement les mises à jour logicielles. Les exécutables sont directement intégrés au matériel pour des usages spécifiques, ce qui conduit à un couplage très fort entre l’applicatif et la plateforme. Les infrastructures sont ainsi spécifiques par application et deviennent difficiles à gérer, à maintenir et à faire évoluer.

A l’opposé, un datacenter «Software-Defined» qui découple les couches applicatives du matériel est une bien meilleure option. Cette approche permet l’abstraction des opérations dans une couche logicielle distribuée, qui peut être automatisée et contrôlée de manière centralisée. Parce que tout est basé sur du logiciel, les équipes de gestion peuvent provisionner de nouveaux services à la demande n’importe où dans le datacenter sans avoir à ajouter de nouveaux matériels.

Laisser le logiciel piloter le datacenter

(5)

Dépasser la peur du matériel de commodité

Jusque là, dans les datacenters classiques, lorsque plus de performances étaient nécessaires, le remède consistait soit de mettre à jour le matériel installé soit de le remplacer. Encore aujourd’hui, beaucoup de datacenters prévoient des cycles de renouvellement pour la plupart des équipements installés. Tous les trois à cinq ans, les responsables informatiques remplacent les serveurs, les appliances réseau et les périphériques de stockage par des technologies plus récentes. Cette stratégie conduit à des dépenses importantes en remplaçant du matériel souvent fonctionnel par du matériel neuf beaucoup plus cher.

Pourtant, toutes les entreprises ne font pas forcément ce choix. Google, ou d’autres fournisseurs de Cloud par exemple, ont compris que le secret d’une montée en charge massive de leurs plateformes,

économiquement viable, était de rompre leur dépendance aux équipements hautes performances coûteux.

Au lieu de cela, ils ont préféré assurer leur croissance en s’appuyant sur une architecture logicielle distribuée, capable de fonctionner efficacement sur des matériels standard low-cost.

Avec cette stratégie, il devient facile d’ajouter du matériel de commodité à l’infrastructure au fur et à mesure des besoins de croissance ou de performance. Parce que le système sait répartir les ressources à travers le cluster, les nœuds de serveurs et de stockage n’ont pas besoin d’être des matériels dernier cri.

Par conséquent, les entreprises sont libérées des matériels propriétaires coûteux, et n’ont plus besoin d’un renouvellement régulier. De plus, répliquer les données et les métadonnées à travers une grille garantit qu’un seul serveur n’est plus un point de défaillance.

Les entreprises qui s’engagent dans cette voie doivent toutefois définir «commodité». Par exemple, les fournisseurs de Cloud ou d’hébergement web ont déterminé que tant que les serveurs reposent sur une architecture Intel x86, peu importe la marque du serveur. Le choix du vendeur s’effectuera sur les critères de prix et de disponibilité.

Recourir à cette approche logicielle libère les entreprises d’une dépendance vis à vis de matériels spécialisés. Intégrer des API REST (ou d’autres interfaces logicielles) permet de plus de créer une infrastructure programmable. Des services «Software-Defined» peuvent être conçus, provisionnés, administrés et s’intégrer dans une stratégie plus globale de gestion et d’orchestration d’un Cloud.

Nutanix propose un modèle logiciel distribué moderne qui s’appuie sur du matériel de commodité – donc économique –, tels que les processeurs Intel ou du stockage Flash. En tant que plateforme dédiée à la virtualisation, Nutanix présente le stockage comme un service à la couche de virtualisation. Il rend le stockage programmable et à la demande pour les machines virtuelles quelque soit les applications. Les APIs REST permettent à l’infrastructure Nutanix d’automatiser la gestion des ressources serveur et stockage.

Les entreprises qui adoptent l’approche «Software-Defined» avec du matériel de commodité sont plus agiles et économes que celles qui mettent en place des appliances coûteuses à fonction unique.

Technologies serveur

coûteuses Stockage SAN/NAS

Historique Moderne

Évolutivité linéaire Pools de ressources serveur et stockage

Matériel de commodité Architecture logicielle distribuée

(6)

Les utilisateurs apportent de plus en plus leurs smartphones, leurs tablettes ou encore leur portables sur leur lieu de travail. Ils s’attendent à un accès transparent aux données et applications d’entreprise. Cette

«consumérisation» de l’IT est l’un des phénomènes qui a remis en question le poste de travail dans l’entreprise, ou End User Computing. Les administrateurs IT centralisent les postes de travail, les applications et les données au sein du datacenter et les délivrent sous forme de service quel que soit le périphérique utilisé ou le lieu de connexion.

Beaucoup d’entreprises se sont aventurées dans cette démarche en virtualisant les postes de travail. Plus récemment, des solutions complètes ont permis aux entreprises de réaliser les promesses du BYOD (Bring Your Own Device) en délivrant aux utilisateurs les applications, les bureaux et les données sur n’importe quel périphérique. Ces solutions intègrent même parfois des catalogues de services sous forme de portails web, accélérant encore l’adoption de ces usages par l’utilisateur final.

Alors que de nombreux éditeurs se sont lancés dans la course pour répondre à ces demandes, les infrastructures des datacenters sont mis à rude épreuve pour répondre à ces nouvelles exigences.

Beaucoup d’équipes informatiques ont modélisé leurs implémentations en se basant sur les méthodologies de virtualisation de serveur. Cela a conduit à des «Proof of Concept» réussis, mais vites rattrapés par la réalité lors du passage en production à grande échelle, qui impliquent une charge importante sur le réseau, ou au niveau des ressources stockage et serveur.

Les solutions VDI, par exemple, sont intensives en terme d’IOPS sur le stockage et nécessitent une infrastructure hautes performances avec une faible latence pour assurer une expérience utilisateur satisfaisante. Si les bureaux virtuels sont exécutés dans la même infrastructure que les serveurs virtualisés, les ressources nécessaires pour assurer les besoins spécifiques et intensifs des postes de travail ne seront pas toujours disponibles. Le manque de puissance de calcul, de mémoire et de ressources réseau au bon moment mettent souvent en péril les projets VDI.

Les dernières suites logicielles EUC exacerbent le problème en intégrant des services de données

d’entreprise, «Dropbox pour les entreprises». Ces services demandent encore plus de capacité de stockage disponible dans l’infrastructure. Et étendre les infrastructures n’est pas la bonne réponse. Le déploiement d’un environnement autonome dédié aux solutions EUC n’est pas non plus une bonne solution. Bien que cela puisse permettre un plus grand contrôle des ressources EUC, cela implique des inconvénients considérables :

• Les datacenters construits en silos indépendants sont chers, complexe à administrer et souvent sous exploités.

• Des spécialistes EUC sont souvent désignés pour maintenir ces environnements, ce qui augmente les coûts d’exploitation globaux.

La bonne approche est de construire une infrastructure suffisamment agile et élastique pour répondre à tous les besoins. Le datacenter doit être capable d’assumer les calculs intensifs VDI, le performances stockage extrêmes, et le portefeuille existant d’applications d’entreprise virtualisées.

Faire du End User Computing une expérience remarquable

Construire des datacenters autour de serveurs où la marque ne compte plus change radicalement le modèle économique de l’IT. Cela commence à mettre les entreprises sur un pied d’égalité avec les fournisseurs de Cloud. D’ailleurs, les équipementiers qui fournissent les plus grands et les plus robustes datacenters commencent à vendre aussi aux grandes entreprises. Les fournisseurs de solutions IT peuvent ainsi baisser les coûts du matériel sans compromettre ni les performances ni la fiabilité.

La plateforme Virtual Computing de Nutanix fonctionne en suivant les mêmes principes que ceux suivis par les opérateurs de Cloud public. A savoir proposer une montée en charge importante avec un grand taux de fiabilité, le tout en s’appuyant sur du matériel standard. Nutanix propose une appliance 2U économique, tout ce qu’il y a de plus standard, comme des processeurs Intel haute performance et des disques flash.

(7)

Les grandes entreprises et les agences gouvernementales du monde entier adoptent justement les solutions Nutanix pour mettre en œuvre leurs déploiements EUC et éviter les pièges les plus courants. Un seul cluster Nutanix 2U permet de fournir assez de puissance de calcul et de stockage pour alimenter jusqu’à 400 postes de travail virtuels. Si le nombre de postes VDI doit encore augmenter, de nouveaux blocs Nutanix peuvent être ajoutés afin de faire évoluer l’infrastructure de façon dynamique.

La plateforme Virtual Computing de Nutanix offre de très hautes performances et du tiering de stokage sur Flash et disque. La plateforme répartit dynamiquement les ressources de stockage sur tous les nœuds disponibles dans le cluster afin de présenter un espace unique à toutes les machines virtuelles. Cette stratégie de stockage distribuée Software-Defined couvre aussi les besoins pour les services de données des solutions EUC.

Afin de réussir son projet de End User Computing, l’équipe IT doit créer un datacenter à la fois assez puissant pour traiter les calculs intensifs liés au VDI, et suffisamment souple pour s’adapter rapidement aux besoins croissants de l’entreprise. Pour satisfaire pleinement les utilisateurs, qui ne tolèrent aucune interruption et rendre son entreprise suffisamment agile pour être compétitive, vous avez besoin d’un datacenter robuste et simple à opérer.

Les datacenters sont conçus pour exécuter les applications qui vont servir les métiers. Alors que cette mission est cruciale, les infrastructures se sont petit à petit construites autour de silos technologiques, chacun géré par des équipes de spécialistes. Par exemple, la plupart des datacenters ont un silo dédié au stockage qui est géré par une équipe spécifique, dont la mission est de garantir la cohérence et la validité des données. Cette équipe définit généralement les LUNs, les volumes ou encore les niveaux de RAID. De même, d’autres équipes, par exemple celles liées au serveurs, au réseau, ou à la virtualisation gèrent chacune leur propre silo avec leurs propres règles.

Cette répartition en différents stacks complique la gestion globale, et oblige à planifier indépendamment les évolutions, par silo. Cette rigidité organisationnelle empêche les datacenters traditionnels d’être flexibles et capables de croître efficacement.

Les évolutions rapides des technologies dans toutes ces disciplines impliquent également pour les équipes en charge de chaque silo d’être parfaitement à jour. Les politiques de gestion illustrent aussi la difficulté d’opérer une infrastructure en silo. L’équipe réseau, par exemple, s’appuie généralement sur des outils HP OpenView ou sur Cisco datacenter Network Manager (DCNM) pour monitorer l’environnement réseau, tandis que l’équipe virtualisation utilise VMware vCenter ou Microsoft System Center.

Bien que la spécialisation puisse avoir un effet bénéfique pour l’entreprise d’une certaine manière, in fine elle conduit à l’inefficacité du datacenter. La multitude de dépendances entre les équipes spécialisées nécessite une coordination étroite même en cas de changement mineur. Par exemple, provisionner des ressources serveur en vue de déployer une nouvelle machine virtuelle nécessitera l’intervention de l’équipe réseau pour configurer les adresses IP et les VLANs. L’équipe en charge du stockage devra, elle,

provisionner des LUNs qui seront zonées dans les SANs afin qu’elles soient reconnues et visibles. L’équipe stockage devra ensuite allouer des fonctionnalités additionnelles, tandis que l’équipe serveur les assignera aux bons profils. Orchestrer efficacement une telle tâche à priori banale est difficile pour la plupart des entreprises.

Briser les silos pour accroître la flexibilité

Terminaux utilisateur Bureaux virtuels,

Données et applications Infrastructure du datacenter

(8)

Rompre ces silos technologiques nécessite une stratégie différente, qui exploite des solutions flexibles et polyvalentes. L’idéal est une solution convergée capable de réunir des ressources indépendantes en une seule unité évolutive. En consolidant de multiples technologies, les solutions convergées font abstraction des couches basses dans chaque silo, de sorte que la gestion des technologies soit alignée avec les objectifs du datacenter.

Les solutions convergées rationalisent l’administration et la gestion des ressources : une seule équipe est capable de traiter les opérations sans nécessiter une myriade de compétences spécialisées. Elles simplifient aussi les stratégies de croissance en faisant évoluer de manière équivalente chaque domaine IT.

En faisant converger stockage et serveur en un seul cluster, la plateforme Virtual Computing de Nutanix fournit l’infrastructure fondamentale qui peut aider les entreprises à s’éloigner du modèle en silo. Nutanix fournit une plate-forme de services holistique qui intègre toutes les fonctionnalités de base nécessaires pour exécuter des applications d’entreprise.

Une solution convergée qui regroupe les ressources dans une seule plate-forme évolutive réduit le besoin en compétences hautement spécialisées. Cela permet aux entreprises de casser les silos et répondre plus rapidement aux besoins métier.

Les Clouds Publics permettent d’accéder via Internet à de la puissance de calcul ou à des ressources stockage et réseau partagées pour de multiples clients. Ces Clouds sont désormais devenus une composante importante des stratégies IT des entreprises.

De nombreuses sociétés ont identifié ce qui fonctionne bien dans le Cloud, comme par exemple, l’Infrastructure as a service, ou IaaS. Lorsqu’une application doit faire face à un pic de demande imprévisible, le Cloud Public peut probablement lui garantir l’élasticité dont elle a besoin. Les Clouds Public sont en effet conçus pour offrir des ressources en «self service». Ce sont ainsi des infrastructures idéales pour les développeurs qui ont besoin d’un accès rapide à de la puissance de calcul et du stockage.

Cependant, les entreprises comprennent bien que toutes leurs applications ne peuvent pas fonctionner dans un Cloud public et toutes leurs données ne peuvent pas être stockées dans un environnement partagé. Les applications métiers critiques recelant des données sensibles ou confidentielles, qu’elles appartiennent à l’entreprise ou à ses clients, doivent rester dans un datacenter propriétaire, souvent d’ailleurs pour répondre à des exigences légales.

Ces datacenters d’entreprise se transforment en ce que l’on dénomme Cloud Privés qui offrent les mêmes fonctionnalités que les Cloud Publics (à savoir des ressources à la demande, partagées, pour différentes applications ou organisation). Ces Clouds Privés peuvent fonctionner au sein même des entreprises ou être hébergés chez des fournisseurs qui mettront alors à disposition des infrastructures dédiées et non partagées.

Les datacenters et les Clouds Privés permettent plus de contrôle sur la sécurité et redonnent aux équipes la pleine responsabilité de la performance et des SLAs. Il est donc évident que les datacenters en propre continueront de co-exister avec les Clouds Publics et les services SaaS.

Construire un Cloud hybride

Savoir-faire spécialisés Coûts

Agilité

Des technologies, des infrastructures et des équipes indépendantes

Domaines IT

Réseau /

Sécurité Stockage Serveur /

Virtualisation Application

(9)

Les Clouds Publics et Privés sont désormais des choix viables pour les architectes IT. Toutefois, la plupart des experts s’accordent à dire qu’aucune approche isolée n’est en mesure de répondre à l’ensemble des critères de performance, de sécurité, de croissance et de SLA d’une entreprise. Les datacenters modernes doivent donc exploiter à la fois le Cloud Privé et Public dans des infrastructures de type Cloud hybride.

Les Cloud Hybrides peuvent prendre en charge les pics d’activités importants (ou burst) générés par certaines applications. Lorsque la demande pour une application hébergée en interne dépasse la capacité du Cloud Privé, la demande excédentaire peut déborder dans un environnement IaaS. Les besoins des utilisateurs sont ainsi servis, et les SLAs respectés. On parle de «Cloud Bursting» dans ce cas.

A l’avenir, de plus en plus d’entreprises vont probablement répartir l’hébergement de leurs données sur plusieurs plateformes. L’archivage des données sans grande valeur pourra être pris en charge par les Clouds Publics, tandis que les données plus actives ou confidentielles resteront dans le Cloud Privé. Cette organisation du stockage permettra d’équilibrer efficacement performances et coûts. Le Cloud Hybride est également une solution viable pour renforcer les solutions de Disaster Recovery.

En intégrant les ressources de calcul et le stockage dans une plateforme unique, Nutanix fournit

l’infrastructure pour un Cloud Privé sécurisé et performant. La solution crée une couche d’abstraction des ressources de stockage qu’elle répartit sur tous les nœuds d’un cluster. Ce pool de ressources est présenté aux machines virtuelles comme un datastore unique.

Ce système permet aux responsables IT de provisionner les applications à la demande et d’éliminer les configurations manuelles pour les ressources de stockage. Un cluster Nutanix peut également être déployé dans un Cloud Privé hors site, ce qui permet une réplication automatique des données entre le datacenter de l’entreprise et le Cloud privé externalisé.

De plus, l’architecture logicielle de Nutanix est évolutive. Elle permet une consommation simple du Cloud Public grâce à des APIs standards. La plateforme Nutanix peut donc tirer partie simultanément des ressources du Cloud Privé et du Cloud Public.

Cloud Privé

• Infrastructure globale élastique

• Contrôle IT par l’entreprise

• Exécution applicative flexible

• Transparent pour l’utilisateur Cloud Public

Cloud Hybride

Ressources managées

Du Disaster Recovery à la continuité de service

Les stratégies de Disaster Recovery (DR) sont généralement réactives. Lorsqu’une catastrophe ou une erreur humaine se produit, les demandes des utilisateurs finaux pour une application sont simplement basculées vers un site secondaire. Après une période d’interruption de service –de quelques minutes ou de quelques heures- les applications refonctionnent. La disponibilité des données et la restauration restent l’objectif principal de cette méthode.

Beaucoup de plans de reprise sont définis par deux objectifs : le RPO, qui précise combien de données peuvent être perdues et le RTO, qui précise combien de temps il faut pour récupérer les données.

Traditionnellement ces processus répondent aux besoins utilisateurs basiques.

La consumérisation de l’IT change la donne. Les utilisateurs finaux sont désormais habitués à obtenir les services à la demande, avec 100 % de disponibilité. Si les équipes informatiques ne peuvent pas répondre à ces besoins, les équipes projets des métiers sont susceptibles d’aller chercher des ressources via des

(10)

services Clouds qui offrent cette haute disponibilité. Pour répondre à ces nouveaux SLAs, «toujours en service», les équipes doivent repenser la manière dont ils bâtissent, sécurisent et délivrent les services.

Offrir 100 % de disponibilité signifie que l’approche traditionnelle du Disaster Recovery doit évoluer vers une stratégie plus proactive et axée sur les services. On parle ainsi de «continuité de service à travers toute l’entreprise». Il y a deux approches pour y parvenir.

1) Refondre l’architecture de vos datacenters pour qu’ils soient hautement disponibles. Cette approche fonctionne avec les architectures existantes qui ne sont pas destinées à être physiquement ou logiquement distribuées. De bons exemples seraient un SAP ou une base de données d’entreprise. Dans ces cas, les architectes conçoivent souvent des sites actifs-actifs, basés sur des metro clusters avec HA fonctionnant entre les deux sites.

Ces sites doivent cependant être reliés avec beaucoup de bande passante et avec de faibles temps aller- retour (RTT), pour que l’infrastructure puisse gérer les applications sensibles à la latence, comme la réplication synchrone entre deux baies distantes. Dans le cas d’une panne, les applications s’exécutant dans un datacenter A, par exemple, seraient basculées automatiquement vers le datacenter B. De tels déploiements peuvent être complexes et coûteux, et limités par des contraintes physiques comme un maximum de 100 km de distance entre les deux sites.

2) Refondre vos applications pour qu’elles soient distribuées. Les architectures d’applications distribuées sont de plus en plus répandues. Avantages : scalabilité à l’échelle mondiale, bonnes performances et disponibilité inégalée. Facebook, Amazon et Google sont les pionniers les plus remarquables de cette approche.

Les architectures d’applications distribuées permettent à une application ou un service d’être répartis sur plusieurs sites, régions ou datacenters. S’ils sont conçus correctement, le résultat est un service mondial unique, avec de multiples zones de disponibilité et des domaines dédiés durant les pannes pour maintenir le service.

La plateforme Virtual Computing de Nutanix est conçue pour exécuter des applications distribuées au sein d’un seul site et à travers le monde. La résilience aux pannes, incluse dans la plateforme, élimine tout point de défaillance unique (SPOF) entre les ressources serveurs et stockage. La réplication au niveau VM et les fonctionnalités de sauvegarde permettent de créer des snapshots «crash consistent», afin de

préserver l’état d’un stack complet d’applications sur tous les sites. Aussi, vous pouvez gérer les clusters avec une seule interface utilisateur.

La reprise après sinistre traditionnelle ne suffit plus pour les datacenters modernes. Les utilisateurs finaux s’attendent à 100 % de disponibilité pour les applications et des SLAs fiables. Le DR évolue vers un modèle de continuité de service, et les équipes IT adoptent une approche plus proactive de la gestion des pannes.

Architecture d’applications distribuée Réplication des données

Transparence réseau

• 100% opérationnel

• Multiples points de diffusion des services

• Transparence pour l’utilisateur

(11)

Nutanix

Nutanix, avec sa Virtual Platform Computing, est le leader reconnu sur le marché des plateformes dédiées à la virtualisation et connaît une croissance rapide. Les solution converge calcul et stockage en une seule appliance, proposant ainsi un puissant bloc de construction modulaire pour les datacenters modernes.

Nutanix intègre les mêmes technologies software-defined qui alimentent les principaux grands fournisseurs de Cloud Public comme Facebook, Google, et Amazon, mais les décline pour les entreprises

traditionnelles de toutes tailles et pour le secteur public.

Pour en savoir plus pour construire un datacenter moderne, visitez www.nutanix.com.

Références

Documents relatifs

STRATÉGIES D’INVESTISSEMENT POUR LES PERSONNES MORALES (IS) Société civile patrimoniale à l’IS et SCPI de rendement : une fausse bonne idée. 20

bout beauté boîte branche apercevoir apparaître bouger allumer arriver

Cette tension modifie la capacité de la jonction (voir Figure 6 de la notice au dos : elle est entourée d’un cercle épais) et en conséquence affecte la bande passante

Sensibilité 107 dB/1mW (+/- 3dB @1kHZ) Poids 370g Fiche jack 3.5mm avec adaptateur 6.35mm   ‐   Diamètre écouteurs D= 57mm .

Supposons que pour chaque ordinateur la mémoire cache contient 2 blocs et la mémoire en contient 4. Chaque bloc contient 4 mots. Dans cet exercise on ne compte pas les accès

La spécification RTP permet à un profil de spécifier que la bande passante RTCP peut être divisée en deux paramètres de session séparés pour les participants qui sont des envoyeurs

Le Non-accusé-demande-complète est utilisé pour indiquer qu'une mise en œuvre a atteint le maximum (pour une Demande d'appel ou de rappel) ou le minimum (pour une Demande

3 Le principal constat est que le nombre d’heures travaillées en France est aujourd’hui à peu près le même qu’il y a 60 ans : 43 milliards en 2019, contre 46 en 1950, parce que