• Aucun résultat trouvé

L hyper-convergence, consolidation au niveau du datacenter

N/A
N/A
Protected

Academic year: 2022

Partager "L hyper-convergence, consolidation au niveau du datacenter"

Copied!
43
0
0

Texte intégral

(1)

1

L’hyper-convergence,

consolidation au niveau du datacenter

Le mouvement de convergence entre les couches réseau, stockage et calcul ne s’arrête plus à l’échelle du rack.

Il touche le centre de données, et permet l’automatisation

et l’orchestration des ressources informatiques, via l’utilisation

par la DSI d’outils software defined.

Fin des silos, interopérabilité, gestion et maintenance

de ce nouveau matériel, apport de la virtualisation, dimension

software-centric : ZDNet.fr vous guide sur le chemin escarpé

de l’hyper-convergence.

(2)

SOMMAIRE

1. Les solutions convergées : une vraie alternative aux systèmes en silos ?...4

1.1 La vague des hyperviseurs et de la virtualisation...5

1.2 Des initiatives alliance, par alliance....6

1.3 Le concept plus large d’infrastructure convergée ....6

1.4 De la convergence à la future hyper-convergence ...8

1.5 Une offre considérablement enrichie par des alliances...9

2. Hyper-convergence et sites distants : une solution pour résoudre la complexité...10

2.1 L’indispensable connaissance de la virtualisation...11

2.2 Eviter une forêt de câbles....11

2.3 Quid de l’évolutivité ? ....11

3. Interopérabilité et hyper-convergence : les pièges de l’incompatibilité ...12

3.1 Deux cas de figure...13

3.2 L’argument de la compatibilité....13

3.3 Compatibilité avec les standards de fait ....14

3.4 Les cas Cisco, IBM ...14

3.5 L’interopérabilité en pratique...14

4. Solutions hyper-convergées : le syndrome de la boîte...18

4.1 Un mauvais procès ?...19

4.2 Plus d’intégration, c’est moins de pannes...20

5. Convergence à hyper-convergence : les leviers du Software ...21

5.1 Deux étapes à franchir...22

5.2 L’infrastructure déterminée par logiciel....23

5.3 Une pile logicielle unique par noeud ou cluster ....23

5.4 Ajuster les ressources VDI et le SAN ...24

5.5 Le SDS, au-delà du stockage virtuel...24

5.6 Les critères-clés de l’hyper-convergence...24

5.7 Hyperconvergence et « Sofware defined » : quelle réalité, quels avantages ?...25

(3)

3

6. Le rôle de l’hyperviseur et les services disponibles ...27

6.1 Pas d’Hyper-V en prime abord......28

6.2 Interception de l’hyperviseur...29

6.3 EVO : RAIL de VMware, une offre OEM...29

6.4 Les rajouts d’EMC VSPEX BLUE...29

6.5 HP sur deux gammes...30

6.6 Nutanix, pionnier et ‘agnostique’...30

6.7 Gestion des disques en ‘tiering’...31

6.8 SimpliVity (Cisco) : maintien d’un contrôleur RAID...31

6.9 Et Citrix et Microsoft Hyper-V ?...31

6.10 Datacore : le SDS agnostique, avec Fujitsu, Huawei... ...31

6.11 Fujitsu : une accélération de 30 fois ...32

6.12 Fluidité des VM ...33

7. Qu’apporte une solution Software Centric ou VM Centric ? ...34

7.1 Software centric ou Software defined ?...35

7.2 Nutanix confirme l’approche « VM Centric »...36

7.3 Entretien avec George Teixeira, CEO de Datacore...37

8. L’Hyper-convergence à la portée des entreprises utilisatrices ...40

8.1 Au sens du Software Defined Datacenter...41

8.2 L’intérêt d’une intégration très poussée...41

8.3 La cible : entreprises moyennes et grands comptes...42

8.4 Des avantages mesurables...42

(4)

1. Les solutions convergées : une vraie alternative

aux systèmes en silos ?

Pourquoi les solutions convergées – intégrant les couches serveurs, stockage

et réseau – sont-elles une alternative crédible aux systèmes conventionnels

en silos ? Faut-il miser tout de suite sur l’hyper-convergence ?

(5)

La tendance à l’intégration de l’informatique, c’est à dire sa concentration sur un minimumde volume ne date pas d’aujourd’hui. Elle remonte à la miniaturisation des composants et renvoie à la fameuse loi de Moore, ou, plus concrètement, à la progression phénoménale de la capacité des processeurs multi-coeurs, notamment dans les systèmes Intel x86, sur 64 bits.

Mais dès avant 2010, on a vu arriver de nouvelles architectures informatiques concentrant dans des racks, une puissance de calcul très dense ainsi que des unités de stockage, interconnectés par un réseau en ‘backplane’ (en fond de rack), attachement direct (SAS) ou en réseau local (SAN) très intégrées.

Ces racks ont tiré parti des serveurs lames, extrêmement compacts et puissants (chez HP, Dell, IBM...) et des disques mémoires Flash SSD mais le coût, au départ, était un dissuasif et la fiabilité discutable.

En concurrence, sont alors apparues d’autres formes de serveurs en tiroirs très modulaires (comme l’architecture Moonshot de HP, ou des équivalents chez Dell), facilement démontables et interchangeables, procédé très utile pour la maintenance et les reconfigurations à la demande, mais… à la main.

La vague des hyperviseurs et de la virtualisation

En parallèle, côté plateforme logicielle, l’avènement des hyperviseurs et de la virtualisation va également constituer un tournant important avec ESX de VMware et Hyper-V de Microsoft, une sorte de réinvention du système VM d’IBM pour serveurs X86.

En avril 2009, Cisco prend le pari d’introduire son offre UCS (Unified computing system) en s’appuyant directement sur VMware ESX comme OS système - c’est le scénario ‘baremetal’

(implémentation directe sur le système). Une option audacieuse, « disruptive », selon la terminologie de la SiliconValley. Conçue en partenariat avec Intel et VMware, elle aura été une des toutes premières plateformes convergées industrielles, incluant les CPU, le réseau et les unités de stockage dans un rack unique de 19 pouces, l’ensemble étant géré par un seul logiciel d’administration.Le système supporte aussi Microsoft Hyper-V et Citrix.

(6)

L’argument était déjà de réduire le coût total d’exploitation (TCO) et de faciliter l’évolutivité (scalability). Ainsi le volume de stockage peut être étendu sur un réseau SAN, la connectivité réseau étant assurée par un ‘Fabric Interconnect’, conçu à partir du Nexus 5000, précurseur en matière de connexions virtualisées.

Des initiatives alliance, par alliance

Avec EMC et VMWare, Cisco va ensuite créer la ‘joint-venture’ VCE dédiée à l’offre convergée vBlock, incluant des services de stockage extensibles (fin 2014, Cisco a cédé ses parts VCE à EMC).

Cette coopération avec EMC n’a pas empêché Cisco de signer également un partenariat avec NetApp pour l’offre de stockage intégré FlexPod, quasiment équivalente, toujours sur une base VMware. Et récemment, Cisco a également signé un partenariat avec Nimble, lequel, avec son architecture hybride CASL (Cache accelerated sequential layout), combine unités Flash SSD et disques durs conventionnels.

Le concept plus large d’infrastructure convergée

Dans le même temps, les autres grands acteurs du secteur informatique - HP, Dell, Bull, IBM, Oracle (Sun)... - ne sont pas restés inactifs. Ils avaient, pour certains, déjà engagé des initiatives de systèmes dédiés. Mais le principe d’infrastructure IT convergée a gagné du terrain, avec l’arrivée des offres Cloud.

Sur le modèle de vBlock et de FlexPod, on a ainsi vu se généraliser le concept, plus global,

(7)

Le cabinet Gartner, pour établir son récent ‘Magic quadrant’ (cf. schéma ci-dessous) sur ce créneau de marché très prometteur (50% de progression par an sur les 3 années écoulées), a utilisé plus sobrement le terme d’« Integrated systems ». Parmi les leaders et visionnaires, il a positionné VCE (EMC), Cisco-NetApp et Oracle et, ensuite, HP, IBM, Dell, puis encore HDS (Hitachi), Fujitsu, mais également Teradata - et au moins des start-ups de l’hyper-convergence, dont Nutanix et Simplivity.

Gartner’s Integrated Systems Magic Quadrant

(8)

De la convergence à la future hyper-convergence

Après les systèmes convergés, on entre désormais dans l’ère de l’infrastructure définie par logiciel. Et là, la partie paraît plus intéressante encore, même si certains risques en découlent au moins pour les phases pilotes.

« Aujourd’hui, les systèmes d’infrastructure hyper-convergés fusionnent d’emblée leurs fonctions centrales de calcul, de stockage et de mise en réseau dans une seule et même solution logicielle ou matérielle », constate le cabinet IDC.

Les différences d’architectures entre un système hyper-convergé et un système convergé ou intégré ne sont pas négligeables. Avec l’hyper-convergence, on va au-delà de l’intégration avec pré-paramétrage fait en usine.

Une pile logicielle hyper-convergée est nécessairement distribuée; elle offre d’emblée une contiguïté des charges de travail, une conteneurisation et une abstraction matérielle», comme l’explique IDC. (lire l’article spécifique dans ce dossier sur l’hyper-convergence).

On entre ici sur le terrain du ‘Software defined’. VMware, avec son appliance EVO:RAIL, a ouvert la voie, reprise par HP (offres Converged System HC 200) ou EMC (EMC VSPEX Blue) et d’autres.

Mais, comme le précise l’article de ce dossier dédié à l’hyper-convergence, il existe des pionniers ou des ‘out-siders’ - comme Nutanix, Simplivity, Nimble et Datacore dans le domaine du stockage de données, ou encore Nexenta - un pionnier de l’univers Open Source. Futjitsu et Huawei, pour ne citer qu’eux, ont choisi de signer un partenariat avec Datacore. Mais rien n’est exclusif..

commutateurs Cisco en ‘top-of-rack’ de ses Converged Systems 700 (et non plus seulement, sa propre offre de commutateurs réseaux ProCurve), comme plateformes IaaS (Infrastructure-as-a-Service).

HP a également développé l’offre Helion pour le Cloud, dont le récent CloudSystem CS200- HC, qui intègre OpenStack (communauté Open Source) et plutôt orienté comme offre PaaS (Plateforme as a Service) et reposant sur la pile logicielle Cloud Foundry (Open source).

Et tout récemment (cf. un autre article de dossier), HP a également introduit deux

Une offre considérablement enrichie par des alliances

Tous les géants de l’informatique ont développé des offres intégrées, plus ou moins

« convergées ». Certains sont ainsi plus mûrs que d’autres pour se hisser vers l’hyper- convergence. Mais rien n’est joué. Les jeux sont en cours.

HP : une longue lignée

HP a introduit, depuis plusieurs mois, toute une gamme Converged Systems, notamment à partir de son nouveau gestionnaire HP

(9)

par une seule console de management unifiée.

IBM a également décliné l’offre pour des ap- plications spécifiques: ce sont les PureAppli- cation Systems pour des applications Web transactionnelles et bases de données. Là en- core, le principe est celui de la simplicité de déploiement, de pré-paramétrage sur mesure.

IBM y inclut des expertises métier. Ainsi, le tout récent PureData System est optimisé pour « fournir des services de données pour ap- plications très exigeantes »

(par exemple : ‘PureData for Analytics’).

Dell : du développement et des partenariats Dell a développé plusieurs générations de sys- tèmes intégrés, dont les VRTX (ensemble que l’on peut qualifier de « boite noire »), mais éga- lement la gamme Active Systems sur serveurs lames (1000, 800 et 200) sur le principe d’en- sembles pré-équipés et très extensibles, conçus pour constituer des plateformes Cloud, sup- portant aussi bien Windows que Linux, que des applicatifs Microsoft SQL, Lync ou Share- Point, ou encore Oracle, SAP, etc.

Tout récemment, pour évoluer vers l’hy- per-convergence et l’intégration sur le Cloud, Dell s’est rapproché, d’une part, de FireHost, et a conçu des plateformes convergées incluant, là encore, serveurs, stockage, sur virtualisa- tion VMware (NSX).

Dell a, d’autre part, développé un partenariat avec Nutanix, qui a donné lieu à l’offre Dell XC Web-scale Converged Appliance, avec 3 modèles (1 U, supportant VDI, tests ou Cloud privé) et deux de 2U, supportant respective- ment Exchange, SharePoint, Big data; ou SQL, Oracle).

Oracle (Sun) et ses Exadata

Depuis plusieurs années déjà, Oracle, avec l’héritage « système » de Sun Microsystems, dispose de son offre Exadata. C’est une vraie plateforme convergée et mais dédiée, avec vir- tualisation. Elle embarque un moteur de bases de données Oracle, comme il se doit.

IBM : VersaStack ; et les PureSystems sans

‘blades’ X86

Fin 2014, IBM a signé un partenariat avec Cis- co, dont il n’est plus concurrent s’agissant des serveurs X86 (activité cédée à Lenovo depuis le 1er octobre 2014). Il s’agit de l’offre intégrée VersaStack, qui vise les Clouds privés et les besoins de Big Data et d’applications analy- tiques.

Par ailleurs, IBM a lancé son architecture in- tégrée PureSystems, qui consiste, là aussi, à proposer des solutions complètes intégrées, matériel et logiciels, entièrement intégrées et configurées en usine.

Il repose sur les systèmes Flex Systems à base de processeurs Power7+ (puisque les modèles X86 sont désormais chez Lenovo), sous Win- dows ou Linux, capables de supporter des milliers de VM (machines virtuelles). Les uni- tés de stockage intégrées, virtualisées, sont des IBM Storwize V7000, mais le client peut pré- férer ou combiner avec des équipements EMC ou NetApp.

IBM propose également PureFlex System (sur Power 7+, toujours) qui est une infrastructure Cloud complète. C’est une offre IaaS, préconfi- gurée en usine, prête à l’emploi, et administrée

(10)

2. Hyper-convergence et sites distants : une solution pour

résoudre la complexité

Si les technologies de convergence et d’hyper-convergence adressent

en premier lieu les problématiques de consolidation et d’automatisation

des datacenters, une des vertus ide ces technologies est la simplification

des opérations sur les sites distants.

(11)

Répartis sur les sites des filiales ou des agences commerciales, les boitiers convergés peuvent servir d’extensions des ressources positionnées sur un site distant. Opérés à distance par la DSI, ils assurent la collecte d’information à l’échelon local, et peuvent le cas échéant stocker des données dupliquées dans le datacenter principal.

Cette solution permet de mettre en place simplement un PRA, ou plus modestement un backup distant. C’est la solution prônée entre autre par Simplivity et son boitier Omnicube, ou encore par Dell avec son VRTX.

L’indispensable connaissance de la virtualisation

L’autre aspect positif de l’hyper-convergence appliquée à la problématique des sites distants est la simplicité de mise en œuvre. Des centaines de VDI peuvent être déployées depuis la plateforme et la gestion peut être réalisée depuis un seul point.

Reste à maîtriser les logiques de provisionnement de machines virtuelles, mais c’est un moindre mal au regard de la complexité imposée par les solutions classiques.

Car la puissance de ces solutions est de proposer une couche d’administration accessible à distance, qui sera à même de gérer finement le stockage, la puissance de calcul et les problématiques réseau, et ce sans paramétrage physique.

Eviter une forêt de câbles

Car sur le site distant, le packaging ‘tout-en-un’ de la solution évite la forêt de câbles induis par une installation classique promettant les mêmes bénéfices.

Néanmoins, cette configuration consolidée peut faire craindre une limitation en matière d’évolutivité de la solution. Que faire en cas de montée en charge régulière ? De besoin de plus d’espace de stockage ?

Quid de l’évolutivité ?

Face à cette problématique, les systèmes convergés sont évolutifs. Sur des sites distants, ils permettent de rajouter de la puissance et de la mémoire dans le boitier au fur et à mesure de la croissance de l’activité des filiales, tout en limitant le risque d’hétérogénéité des systèmes.

Au-delà, le principe de consolidation joue aussi. « Si vous voulez augmenter la capacité, c’est très simple. Vous commandez un second produit, vous le connectez au premier, et en deux minutes, vous avez un cluster deux fois plus gros prêt à fonctionner, avec deux fois plus de stockage, de puissance de calcul et de capacité réseau » explique Aboubacar Diare, Chief Architect Software- defined storage HP à propos du ConvergedSystem 200-HC.

« De cette manière, vous pouvez étendre un cluster dans deux endroits différents, et le cluster va continuer à fonctionner comme une seule entité, et vos données sont automatiquement répliquées sur un autre site » ajoute Aboubacar Diare, notant l’élasticité de la solution.

(12)

3. Interopérabilité

et hyper-convergence :

les pièges de l’incompatibilité

Les solutions hyper-convergées sont par essence l’œuvre d’un fournisseur unique, qui a conçu un ‘tout-en-un’ entièrement intégré et automatisé.

D’où les questions légitimes sur l’interopérabilité, sinon la compatibilité

entre les diverses solutions du marché.

(13)

L’une des principales motivations des DSI lorsqu’ils ont à choisir une nouvelle solution IT, est qu’elle permette de sortir d’un environnement « propriétaire », surtout si la solution a vocation à évoluer en capacité.

C’est l’assurance de réduire sinon de ne pas augmenter le cout total d’exploitation, de ne pas devoir repayer non seulement des matériels mais de nouvelles licences à des prix très élevés, etc..

Or, les solutions hyper-convergées peuvent, à juste titre, soulever quelques inquiétudes, car, par définition, ce sont des offres fermées ou, du moins, tellement intégrées qu’il est difficile de déterminer, a priori, le niveau d’interopérabilité avec d’autres solutions d’autres constructeurs, ou avec celles déjà installées.

Deux cas de figure

Deux scénarios se présentent :

• Soit on s’en remet à un standard de facto : un acteur leader (comme HP, VMware, Cisco, EMC, IBM...), est déjà très présent dans l’environnement existant auquel cas il faudra

vérifier qu’il y a bien compatibilité.

• Soit on envisage un système « ouvert », ou réputé tel, et donc conforme aux développements Open source. Dès lors, se pose la question de l’interopérabilité avec les autres systèmes ouverts.

Sur le terrain, ces deux cas de figure peuvent se mêler : un système dit « propriétaire » peut, en partie, s’appuyer sur une pile logicielle Open source (comme OpenStack, par exemple).

L’argument de la compatibilité

Les solutions hyper-convergentes ne sont pas nécessairement compatibles entre elles. Or, comme elles incluent des mécanismes d’automatisation à partir d’une console centralisée, il faut qu’il existe une compatibilité effective si l’on doit y connecter des éléments externes. L’ensemble doit fonctionner correctement. Ce qui renvoie à « la matrice de compatibilité ». Sur le papier, le matériel est dit « full compatible » et « maitrisé ». Mais ce sont des tests, ou les premiers clients, qui le vérifient.

Le paradoxe est que l’hyper-convergence est censée réduire la complexité de la mise œuvre. En pratique, mieux vaut vérifier et comparer, par exemple, avec le niveau d’intégration de solutions convergées matures, déjà éprouvées, telles que Vblock (VCE, VMware, Cisco, EMC) ou FlexPod Cisco,NetApp, VMware), dont la matrice de compatibilité a été affinée avec le temps. Mais ce sont des configurations non pas « hyper » mais convergentes.

Les start-ups de l’hyper-convergence - comme Atlantis Nutanix, Pivot, Simplivity ou ScaleComputing - ont plutôt bonne réputation sur ce plan de la compatibilité.

Mais les tests restent de rigueur.

(14)

Compatibilité avec les standards de fait

Parmi les standards du marché, VMware ne figure pas en dernière place. Sa récente proposition EVO:RAIL, sorte d’appliance en OEM, est ancrée sur vSphere et reliée à vCenter pour l’administration, et donc la compatibilité est requise - notamment pour s’assurer des mise à jours et des ‘patch’. Est-on très éloigné d’un système « propriétaire»?

L’un des points à vérifier, par exemple, est si les hyperviseurs embarqués viennent bien s’ajouter correctement à l’inventaire vCenter comme n’importe quel autre sous-ensemble virtualisé ESXi déjà installé.

La compatibilité avec Virtual SAN, s’il y a cohabitation, serait également un point à vérifier. De même, le support de HorizonView 6 (VMware) ou des cartes graphiques NVidia ou des cartes accélératrices du type PCoIP APEX.

Au passage, HP, comparant à EVO:RAIL son offre ConvergedSystem200 HC sur son propre logiciel StoreVirtual (VSA), invoque une interopérabilité plus large.

Les cas Cisco, IBM

La compatibilité avec les leaders du marché se vérifie encore s’agissant de Cisco ou IBM. Le champion des solutions réseau, Cisco, délivre des certifications de compatibilité sur ses racks UCS (Unified computing system), la C-Series, dans le cadre de son programme Solution Partner.

De même, avec IBM, c’est la compatibilité avec son environnement, de systèmes de fichier GPFS (General parallel file system), qui prime, depuis son introduction en 1998 (impact sur les réseaux SAN).

Ces deux géants viennent d’ailleurs de se rapprocher autour d’une offre Cisco proposant d’intégrer les Storwize V7000 d’IBM à son portefeuille.

L’interopérabilité en pratique

L’interopérabilité, à la différence de la compatibilité, c’est en principe l’assurance de ne pas être verrouillé (locked down) par un éditeur ou un constructeur.

Dans l’hyper-convergence, cela se traduit par la liberté d’ajouter des équipements et des nœuds individuels à des clusters existants en puisant dans les meilleures offres du moment, puisqu’il est possible de les partager au niveau local ou distant.

Clairement, la référence Open source actuelle est OpenStack. Cette pile logicielle apporte la capacité de contrôler de vastes pools de ressources - serveurs, stockage et réseau, au sein d’un même datacenter - et de les gérer depuis un tableau de bord unique. Il permet de créer les

(15)

Cette pile logicielle apporte la capacité de contrôler de vastes pools de ressources - serveurs, stockage et réseau, au sein d’un même datacenter - et de les gérer depuis un tableau de bord unique. Il permet de créer les conditions d’un environnement SDDC (Software defined data center), donnant priorité au pilotage par la pile logicielle. L’interopérabilité ne paraît pas soulever de problèmes, comme par exemple autour du client Cinder, qui est l’interface de commande pour les interfaces API Block storage d’OpenStack.

Ce point est confirmé par un responsable de Nexenta (cf. entretien Frédéric Millon), une ex-startup fondée par des développeurs Open Source, qui avaient dès le départ, choisi de se focaliser précisément sur la connectivité et l’interopérabilité entre systèmes.

Frédéric MILON, directeur commercial de Nexenta Europe du Sud, constate qu’il est toujours possible d’améliorer les plateformes de virtualisation. « C’est l’orientation vers l’hy- per-convergence. Mais sans que l’on soit néces- sairement intrusif ».

Comment qualifiez-vous l’hyper-convergence ?

L’hyper convergence consiste en une archi- tecture basée sur les logiciels permettant une

Trois familles d’acteurs cohabitent dans l’univers de la convergence des solutions de stockage :

• L’approche Data systems : CEPH, Gluster, Openstack, Microsoft, AWS...

• Les solutions logicielles : VMware VSAN (virtualstorage SAN), Sanbolic, Nexenta, EMC ScaleiO, Datacore...

• Les appliances : HP, Atlantis,

Nutanix, SimpliVity (avec Dell, Cisco), ScaleComputing,

Pivot...

Enfin, il y a aussi des acteurs atypiques, comme Wikibon ou Pluribus (Freedom Server-Switch et un hyperviseur,

NetworksNetvisor).

Stockage hyper-convergé : 3 familles en lice

intégration de l’ensemble des besoins infor- matiques d’une entreprise. C’est le fait d’aller plus loin encore dans la virtualisation. Car les plateformes de virtualisation peuvent toujours être optimisées. Ainsi, nos solu- tions, comme NexentaConnect, apportent des fonctionnalités qui permettent d’amé- liorer l’efficacité des plateformes VMware -dont VSAN (qui fonctionne en mode ‘bloc’) ou Horizon, ainsi qu’un logiciel de stockage, NexentaStor, qui gère l’ensemble des besoins en ce domaine de nos clients, quelle que soit sa stratégie de gestion des données.

Frédéric Milon, Nexenta France :

« L’hyper-convergence ? C’est toujours plus

de virtualisation ! »

(16)

De quelles améliorations s’agit-il ?

Une solution comme NexentaConnect pour VDI, par exemple, permet d’augmenter le nombre de VM par serveur. L’amélioration peut aller jusqu’à 50%.

L’explication est que notre code intervient en amont de la gestion de la mémoire utilisée par VMware. (Et nous ne sommes pas limités par le nombre de disques).

Nous apportons également des ressources de caching, non pas au point de mémoire cache des traitements ESX , mais au niveau de la mémoire cache des VM elles-mêmes.

Nous pouvons également rajouter une couche NAS à VMWare VSAN, si utile, grâce, là en- core à NexentaConnect. Mais sans être intru- sifs.

En ce qui concerne NexentaStor, il est tou- jours possible de faire évoluer une confi- guration sans stopper la production ou de rajouter, à chaud, une JBOD d’un construc- teur (Dell, Supermicro, HP, etc.), sans temps d’arrêt (arrêt de production). Et nous restons toujours neutres vis-à-vis des marques.

Historiquement, le système de fichiers ZFS était basé sur Solaris (Sun), avec une capa- cité d’adressage colossale sur 128 bits. Au- jourd’hui, il est Open Source, il est donc resté un système de fichiers indépendant. Nexenta a travaillé à partir de ce noyau et nos 130 dé- veloppeurs ont amélioré grandement la solu- tion afin de proposer aujourd’hui ce qui est

le produit phare du SDS (Software Defined Storage), NexentaStor. Nous possédons plus de 30 brevets dans ce domaine.

Comment le « Software Defined » modi- fie-t-il la donne ?

Le Software defined permet de s’affranchir du lien entre le logiciel et le matériel, ce qui permet aux clients de réduire significative- ment leurs coûts de fonctionnement lié au stockage. D’autre part, du fait de la capacité de NexentaStor à fédérer les environnements hétérogènes (physiques et virtualisés) ainsi que les différentes stratégies de stockage (fi- chier, bloc et, demain, objet), nous permet- tons aux DSI d’envisager sereinement l’ave- nir, tout en contrôlant leurs investissements.

Il apporte également des avancées techniques significatives : avec le Software defined, les contrôleurs RAID, par exemple n’ont plus de raison d’être. Nous gérons tout, de façon lo- gicielle. La corruption de données n’est plus possible. Chaque disque est ‘tagué’, en sorte que si l’on déplace un tiroir de disques, l’OS va automatiquement le détecter. Et on peut donc augmenter la capacité à chaud. C’est très souple.

A noter que le fait de supprimer les cartes RAID facilite énormément la reconstruction d’un disque. S’il contient 2 tera-octets, il sera possible de le reconstruire en 2 à 4 heures (contre 1 à 2 jours sur des environnements classiques). Ce n’est là qu’un exemple des multiples fonctionnalités de notre offre.

(17)

Donc comment vous positionnez-vous dans l’hyper-convergence ?

Nous sommes vus comme leader du SDS (Software defined storage). Nous avons un portefeuille de produits, qui s’inscrivent dans cette démarche. La solution NexentaStor ap- partient au domaine du SDS. Elle est trans- parente au niveau hardware. En outre, nous sommes ouverts à tous les types de protocoles du stockage (modes bloc, fichier, objet...) et à tous les environnements applicatifs (bases de données, messaging, etc.)

Notre enjeu, c’est être capable de gérer tous les environnements existants (SAN, NAS, hybride, virtualisé...) ou être capable de rajouter le mode objet (avec NexentaEdge), par exemple.

Et que recouvre l’orientation « Software centric » ?

C’est l’essence même de notre solution. Faire du matériel un produit de « commodité », et permettre au logiciel de délivrer la puis- sance et les fonctionnalités nécessaires à nos clients.

Dans ZFS, beaucoup de code a été rajouté, pour parvenir à l’hyper-convergence. C’est, par exemple, le fait d’être pré-configuré,

prêt à l’emploi très rapidement, ou le fait de déployer très rapidement, le file mana- ger ZFS en mode fichier ou en mode objet.

L’intérêt du mode objet étant de permettre de constituer des conteneurs d’informations, par exemple, autour des dossiers patients complets, avec ordonnances ou imagerie médicale, etc. Pour un traitement rapide, on ajoute de la capacité CPU, de la mémoire, de la capacité disque. Mais plutôt que de puiser dans de nouvelles ressources, c’est un contrôleur qui détecte les ressources dispo- nibles, jusque sur le Cloud, le cas échéant.

Quels arguments motivent les clients ? Beaucoup de DSI souhaitent sortir des solu- tions propriétaires. Ils veulent retrouver de l’oxygène dans leur budget. Et être sereins quant à l’évolution de leur architecture.

Donc, ils sont à la recherche de scénarios alternatifs. Avec notre offre, c’est le stockage qui s’adapte à l’applicatif, et pas le contraire.

L’interopérabilité autour d’OpenStack est- elle un acquis ?

Oui, l’interopérabilité est réelle, vérifiable.

Non seulement nous sommes compatibles mais Nexenta est un acteur important de cette communauté, comme l’a montré notre forte implication lors du dernier sommet OpenStack à Paris en novembre.

(18)

4. Solutions hyper-convergées : le syndrome de la boîte noire

Entre les systèmes convergés, partiellement intégrés, et les systèmes

hyper-convergés totalement concentrés à l’intérieur d’une appliance bien

close, faut-il s’inquiéter des risques de pannes, pouvant mettre à terre

toute une infra ? Quelle stratégie, quelle bonnes pratiques de maintenance

s’applique ?

(19)

Les systèmes informatiques hyper-convergés sont-ils plus fragiles, plus problématiques que les autres en terme de maintenance ? La question est souvent posée. Certains évoquent un syndrome – celui de la boîte noire…

Certains responsables d’exploitation IT ont conservé des réflexes de maintenance sur des racks très accessibles, où avec un simple tournevis ils pouvaient sortir les tiroirs, retirer les cartes circuits, et, quasiment changer eux-mêmes les composants sur les cartes - pratique encore courante, par exemple, pour upgrader une carte-mère en changeant processeurs ou en rajoutant des réglettes de mémoire DIMM. Pour certaines personnes, il y avait là quelque chose de rassurant.

Mais avec l’intégration toujours plus poussée des composants et des sous-ensembles, ces pratiques vont sans doute disparaître. Car les constructeurs ont considérablement amélioré la modularité des systèmes. Depuis quelques années déjà, sont apparus des serveurs tours ou racks avec des modules (cartes mères, disques, blocs alimentation…) très facilement extractibles, souvent à chaud, et interchangeables -fort pratique pour la maintenance. En parallèle, on a vu se banalises les formats blades (lames), des modules très concentrés en composants électroniques, des modules que personne ne songerait à ouvrir en cas de panne.

Certains fournisseurs d’appliances invoquent parfois le concept de boîte noire - donc hermétiques pour les exploitants IT. Pour les mauvaises langues, cela leur permettrait de proposer des contrats d’intervention sur site très juteux...

Un mauvais procès ?

La maintenance reste, comme l’assurance, une question de négociation en fonction de l’appréciation des risques en jeu et du prix du service. Dans le cas des systèmes convergés, les contrats existent comme pour tout autre équipement informatique. Prenons le cas de l’offre Vblock de VCE (cofondée en 2009 par Cisco, EMC, Intel et VMware, sous le nom d’Acadia puis, en 2010, rebaptisée, VCE pour Virtual Computing EnvironmentCy). Le principe de départ était que chacun des acteurs partie prenante s’engageait à assurer la maintenance pour les autres - une pratique non exceptionnelle dans le contexte de tels accords. La maturité de cette offre, pas plus que celle de Cisco et NetApp (FlexPod), n’a pas été mise en doute, pas plus que sa matrice de compatibilité (cf. l’article de ce dossier sur interopérabilité et compatibilité).

Le service de maintenance a suivi.

Pour les offres d’hyper-convergences, il est peut-être encore un peu tôt pour se prononcer définitivement. Prenons un seul exemple : Cisco a dû suspendre, au printemps 2014, la livraison de ses appliances de stockage UCS Invicta en raison de problèmes rencontrés avec des unités Flash SSD provenant de l’acquisition de Whiptail quelques mois auparavant. Donc de telles incidents existent. Mais faut-il s’en alarmer outre mesure? Faut-il assimiler ces appliances à d’obscures boîtes noires?

« Non, on ne peut pas parler de boîte noire au sens d’un système opaque, fermé... Il s’agit généralement d’appliances. Donc la maintenance ne pose pas de problèmes particuliers, pas plus que pour toute autre appliance », explique Jean-Luc Koch, consultant senior, directeur de Carvea Consulting.

(20)

« Ces équipements sont des produits industrialisés, réputés fiables et à forte résilience. Et quand, le cas échéant, on ne peut pas identifier l’origine d’une panne et changer le ou les modules défec- tueux, on se replie sur une autre appliance, le temps de la réparation. »

« Dans le cadre d’une migration vers un nouveau Datacenter, nous sommes actuellement sur une migration de 500 VM vers cette solution Nutanix, le choix a été dictée par une meilleure perfor- mance de ces systèmes par rapport à des ESX. C’est une alternative apportant plus de puissante car il y a bien intégration verticale des CPU, de la mémoire et du stockage, ce qui a notamment pour avantage de réduire une partie des I/O liées au SAN », constate Jean-Luc Koch.

Plus d’intégration, c’est moins de pannes

Le fait est que les nouvelles configurations ultra-convergées suppriment quantité de sous-en- sembles interconnectés entre eux (contrôleurs, unités disques mécaniques, serveurs SAN en racks...). On tend à réduire voire éliminer les unités de stockage externes, autonomes. On prévoit de supprimer les contrôleurs de stockage RAID.

Car cette concentration est, en principe, source d’amélioration des performances (moins de latence) et renforcement de la résilience, car il y a diminution des pannes. Moins d’équipe- ment mécaniques (disques durs avec points d’usure, exposés aux vibrations, etc.), moins de connectique, moins de câblage, c’est, statistiquement, moins de points de fragilité.

L’avenir semble bel et bien s’écrire entre les offres du type Kinetic HDD (Seagate, très haute densité de 4To) sur le Cloud et les solutions Flash SSD directement intégrées aux systèmes.

Ainsi, au- delà des appliances et en diminuant voire en supprimant les baies de stockage, on se rapproche du concept de ‘Network gridstorage’, avec des ressources réseau

et stockage ‘software defined’, très étendues, cette fois.

(21)

5. Convergence

à hyper-convergence: les leviers du Software defined

Des systèmes intégrés ou convergés aux solutions hyper-convergées, le pas à franchir n’est pas minime. Car au-delà du concept ‘Software defined’, c’est la distribution sur une architecture Cloud,

la haute disponibilité et l’automatisation qui s’imposent.

(22)

Les solutions intégrées vont conserver leur raison d’être. Mais pas pour longtemps. Comme vu dans le premier article de ce dossier, il s’agit typiquement des solutions vBlock (entité VCE, entre Cisco et EMC, aujourd’hui filiale à 100% d’EMC) ou FlexPod (NetApp et Cisco) mais également, de diverses solutions d’infrastructures convergées chez Dell, Fujitsu HP, IBM, Oracle... Or, progressivement, elles vont accéder au niveau supérieur, celui de l’hyper-convergence, derrière des startups pionnières.

Mais bien des conditions restent à remplir. Tous les fournisseurs n’y sont pas encore prêts, ni tous les clients sur le terrain, qui attendent d’en vérifier le bon fonctionnement.

L’un des premiers points clés, c’est la nécessité d’un contrôle logiciel global. L’hyper-convergence suppose de consolider sur une seule stack (pile logicielle) tous les composants d’infrastructure et d’y insérer toutes les fonctionnalités nécessaires au traitement de ‘workloads’ (charges de travail) déplaçables. Toutes les technologies intégrées sont administrées d’un point central, sur une console unique.

L’un des enjeux, c’est de faciliter l’évolutivité horizontale à la demande (ou ‘scale-out’) des ressources, en évitant de réinvestir dans de nouvelles briques d’infrastructure coûteuses. Il faut prolonger l’architecture mise en place sur une plateforme décorrélée des matériels et, autant que possible, ouverte.

Un autre enjeu est la consolidation de data-centres, comme le promet, entre autres solutions, Omnistack de Simplivity, fonctionnant, là encore, à partir d’une point d‘administration centralisé. C’est la possibilité de d’administrer des agences ou des sites distants avec la même logique, les mêmes outils que ceux du site principal, et avec une grande mobilité des données.

Deux étapes à franchir

Pour évoluer vers l’hyper-convergence, il y a deux étapes à franchir. La première vise à gérer globalement les services mais aussi à partager des pools de ressources (processeurs, mémoire, stockage, réseau...). C’est la génération actuelle, soutenue par les développements de pionniers que sont Nutanix, Simplivity, Scale Computing, Nimble, Nware, Pivot et d’autres.

La phase suivante va consister à optimiser la donnée à la source pour faciliter la convergence, soutenir la flexibilité et la mobilité des VM, avec des performances décuplées. La promesse, concrètement, c’est de pouvoir déployer les VM très facilement, puis de les sauvegarder, les déplacer, les cloner en un temps record.

Une telle architecture s’inscrit dans une nouvelle génération de datacenters, où le système doit savoir à tout moment où se trouvent les workloads, sur quelles VM. Et pour monter en charge, il faut avoir prévu des options de ‘scale-out’.

Ainsi, tout est effectivement opéré par logiciel. Toute l’infrastructure IT est fédérée au sein du data-centre ou de la salle informatique principale. Sauvegarde, clonage et déploiement sont réalisés en quelques clics, avec une prise en main rapide et efficace.

(23)

L’infrastructure déterminée par logiciel

Les ressources de calcul, de stockage et de réseau sont bel et bien dissociées de l’infrastructure.

On entre dans l’ère de l’infrastructure définie ou déterminée par logiciel : software defined.

Cette évolution nécessite que l’exploitation de l’ensemble soit gérée sur un socle commun et avec des processus de plus en plus automatisés.

« Aujourd’hui, les systèmes d’infrastructure sont dits hyper-convergés s’ils fusionnent leurs fonc- tions centrales de calcul, de stockage et de mise en réseau dans une seule et même solution logi- cielle ou matérielle », estime le cabinet IDC.

« Un nouveau système hyper-convergé comprend une pile logicielle distribuée qui fonctionne sur un nœud unique ou sur plusieurs nœuds en cluster (en grappe). Chaque nœud du cluster exploite la même pile logicielle hyper-convergée qui comprend un système de fichiers ou un entrepôt d’ob- jets distribué et une pile hyperviseur qui amorce le matériel et fournit une abstraction des res- sources physiques comme l’unité centrale, la mémoire et le disque ainsi que des fonctions de gestion de cluster. Les nœuds du cluster hyper-convergé communiquent sur un réseau intégré ou bien ils sont connectés à un réseau principal fourni par le client », précise encore IDC.

Une pile logicielle unique par nœud ou cluster

A la différence des systèmes inté- grés, les systèmes hyper-conver- gés intègrent donc leurs fonc- tions de calcul et de stockage non pas en usine, en pré-para- métrage, mais via une pile logi- cielle unique qui fonctionne sur un seul et même nœud ou sur un cluster de nœuds.

« Une pile logicielle hyper-conver- gée offre d’emblée une contiguïté des charges de travail, une conte- neurisation et une abstraction matérielle »,

explique encore IDC. Il y a donc orchestration et gestion intégrée de différents composants

ou systèmes.

Ceci s’applique également à l’infrastructure réseau: la commutation des paquets entre unité de calcul CPU et stockage fournit également des capacités d’évolutivité horizontale et de haute disponibilité.

(24)

Ajuster les ressources VDI et le SAN

De tels systèmes hyper-convergés s’avèrent être des solutions attrayantes pour les infrastructures de bureau virtuel (VDI). C’est l’orchestrateur qui va piocher dans les ressources (serveurs, disques...) afin de garantir les I/O nécessaires, strictement selon les besoins des utilisateurs.

De même, la latence et les coûts liés aux réseaux de stockage (SAN) peuvent être fortement diminués.

Le SDS, au-delà du stockage virtuel

On retiendra également que, application au stockage, le Software defined storage va au-delà du stockage virtuel. Ce n’est pas seulement faire fonctionner un OS de stockage sur une VM ! Une vraie solution de Software defined (stockage ou réseau...) dissocie la couche de contrôle de la couche de stockage ou de réseau proprement dite. Là encore, un orchestrateur gère les ressources, les alloue, gère les exigences de qualité de service, de sécurité, etc. Cela suppose une composante logicielle qui gère les différents services utiles, comme les volumes RAID (et jusqu’à se substituer au contrôleur, le cas échéant), le thin provisioning (provisionnement ajusté), la compression / déduplication de données. Tant qu’à faire, le package complet !

Les critères-clés de l’hyper-convergence

En résumé, l’hyper-convergence permet de dynamiser les applications à plusieurs niveaux :

• Sur le data-centre principal

• Sur les sites distants - filiales ou agences, si possible en maillage

• De plus en plus sur le Cloud.

Les retombées en termes d’exploitation sont tangibles :

• Accélérer le ‘provisioning’ des ressources

• Baisser la consommation énergétique, faci

• Au bout du compte, diminuer le coût total d’exploitation (TCO)

Les principales conditions à remplir sont :

• Découpler les plateformes applicatives de l’infrastructure

• Permettre une «instanciation» et une sup pression dynamique des ‘workloads’

• Distribuer et étendre les ressources en ‘scale-out’ (sans réinvestissement lourd) sur une architecture ‘multi-noeuds

• Déployer des modèles multi-cloud

L’infrastructure doit donc être informées sur l’état et les besoins des applications. Les pools

(25)

Hyperconvergence et « Sofware defined » : quelle réalité, quels avantages ?

Entretien avec Christian Laporte, responsable marketing produits Stockage, HP France

Après l’introduction par VMware de sa plateforme ou appliance de convergence EVO:Rail, que propose HP ?

HP dispose d’une offre d’hyper-convergence qui a vu le jour il y a 6 mois. Cette offre de systèmes convergés se compose de deux gammes qui reposent toutes deux sur des équipements HP ProLiant SL2500. C’est une architecture très dense : 4 serveurs cohabitent dans un encombrement 2U.

1. La gamme HP Converged Systems 200 HC Evo: Rail qui repose sur la plateforme de VMware, en intégrant la totalité des modules de VMware, y compris pour les services de stockage - thin provisioning, snapshots, clônes, etc

2. La gamme HP Converged Systems 200 HC avec StoreVirtual, d’origine HP, qui embarque pour la virtualisation des serveurs, vSphere et vCenter de VMware.

Les services de stockage s’appuient, eux, sur la technologie StoreVirtual qui existe depuis 7 ans chez HP. Elle est issue du rachat de LeftHand Networks fin octobre 2008. C’est une solution de stockage en cluster SAN iSCSI.

Elle repose sur un OS de stockage, LeftHand OS, qui est embarqué au sein d’une machine virtuelle sur chacun des serveurs du CS 200.

Cette offre, annoncée lors du dernier VMware Forum est disponible. Les tarifs (conseillés) sont publics.

A qui, à quels types d’entreprise s’adresse cette offre? Quelles sont les premières

références clients ?

Cette offre s’adresse à des grands comptes, qui souhaitent, par exemple, déployer des environnements VDI (virtualisation des postes de travail) ou qui veulent disposer d’environnements largement virtualisés.

Mais l’offre vise également des PME ou des structures moyennes, qui souhaitent par exemple innover et moderniser leur data- centre.

Nous avons des références clients en cours, après des phases de tests (POC) favorables.

Nous allons prochainement communiquer sur un cas client de taille importante.

Quels sont les arguments mis en avant par les clients ?

Ils apprécient que l’offre soit modulaire et entièrement intégrée en usine. Le temps de déploiement est court, voire très court. Un quart d’heure après avoir sorti le système de son emballage, on peut déjà gérer des VM et avec beaucoup de facilité.

La technologie embarquée est rodée, elle existe depuis longtemps. Ce qui est nouveau c’est le packaging de l’offre dans un format ultra-dense, et c’est l’outil d’installation appelé ‘One View InstantOn’. Il suffit de cliquer sur quelques écrans ‘scripts’ pour que soit lancée la configuration choisie, qui s’exécute automatiquement, après vérification des ressources disponibles. C’est ici qu’est l’innovation.

(26)

Nous avions déjà des fonctions avec une forte convergence, sur la base de la solution HP StoreVirtual VSA, qui repose sur le Software defined storage (SDS). Les déploiements typiques sont constitués de 2 ou 3 serveurs sur lesquels opère une machine virtuelle VMware ou Microsoft Hyper-V avec le logiciel StoreVirtual VSA.

On crée ainsi une infrastructure convergée, hébergeant à la fois les applications et les services de stockage sur une même plate- forme serveur X86 de 1 ou 2 U.

Pour bénéficier de la redondance, on commence généralement avec deux nœuds (serveurs). Il est possible d’aller jusqu’à 32 noeuds, ce qui porte potentiellement la capacité à plusieurs centaines de tera-octets (To). Le serveur peut être configuré de différentes manières afin de répondre aux besoins spécifiques de chaque client.

Pour résumer, comment et de quoi est constitué chaque noeud ?

Un noeud est construit sur la base d’un serveur X86 sur lequel on configure une VM (virtual machine) qui supporte l’OS VSA, LeftHand OS. Ce noeud peut être configuré à la carte,

avec des disques SSD, des disques SAS, ou une combinaison de disques SSD et SAS, selon la capacité choisie.

Ainsi, pour le CS 200 avec StoreVirtual, on peut choisir une configuration constituée de 4 serveurs, chacun accueillant 6 disques SAS de 1,2 To (fonctionnant à 10.000 tours/mn) ou 4 serveurs avec 2 disques flash SSD de 400 Go et 6 disques SAS de 1,2 To (fonctionnant à 10.000 tours/mn). Et la mémoire vive (RAM) est configurée en proportion.

A quel titre peut-on parler de Software Defined Storage et d’hyper-convergence ? Il s’agit bien d’une approche «Software defined»

car les services de stockage ne s’appuient pas sur du matériel dédié, ils partagent les mêmes ressources que les applications. Et l’hyper- convergence est assurée par l’intégration en usine dans un encombrement réduit de l’ensemble du matériel et des couches logicielles, comme VSphere et VCenter de VMware et StoreVirtual (VSA) de HP pour les services de données.

C’est là toute l’originalité et la prouesse technique: dans cette intégration complète entre logiciel et matériel, qui permet un déploiement ultra rapide et sécurisé.

(27)

6. Le rôle de l’hyperviseur et les services disponibles

L’hyperviseur dans les solutions d’hyper-convergence constitue une brique essentielle. Autour de VMware, fortement dominant (cf. EVO:RAIL),

et face à Hyper-V de Microsoft ou Citrix ou KVM, la compétition se joue

dans les services -VDI, stockage all-flash, accès au Cloud...

(28)

La concurrence entre VMware et Hyper-V de Microsoft est très atténuée dans les nouvelles appliances d’hyper-convergence. Clairement, la locomotive VMware, avec son prototype EVO:RAIL (en OEM), a emporté la décision des plus grands constructeurs de serveurs Intel X86. Mais les jeux ne sont pas faits.

Certaines offres d’hyper-convergence restent indépendantes - ou « agnostiques » - par rapport à l’hyperviseur. Généralement, elles proviennent des pionniers, dont Nutanix (supportant VMware, KVM ou Hyper-V), mais aussi Atlantis. Il existe aussi des offres purement logi- cielles, orientées stockage de données comme DataCore Networks ou d’autres.

Pas d’Hyper-V en prime abord...

Rares sont les offres qui s’affichent avec Microsoft Hyper-V. Citons par exemple Gridstore qui revendique être « la seule architecture hyper-convergée offrant une intégration ‘native’ du noyau Windows ». Son vController, qui gère tout l’environnement des VM, est très intégré aux outils d’administration et à certaines fonctions propres à Windows et à Hyper-V.

Atlantis, avec son architecture ‘all-flash’ (SDD), est orienté vers la VDI et le stockage (cf.

ILIO, solutions classée dans le Software defined storage). Son offre USX fonctionne aussi bien sur VMware que Hyper-V et bénéficie de la déduplication au fil de l’eau (HyperDup Content- Aware), d’un accélérateur d’IOs et d’un sous-ensemble unifié pour tout le stockage d’un da- ta-centre.

Début 2015, Atlantis a ajouté une offre Citrix XenServer de « bout en bout », « la première so- lution hyper-convergée ‘all-flash’ (SSD) pour cet environnement » et « à un coût d’infrastruc- ture par poste VDI de 187 dollars ». Sa solution est officiellement présentée sur une plate- forme x86 référencée IBM x3560 M4 (désormais chez Lenovo) mais un de ses clients témoins - une grande banque - utilise des serveurs HP ProLiant sur châssis c7000...

Nutanix, comme quelques autres pionniers, n’a pas attendu EVO:RAIL de VMware. Ses déve- loppements (sur VMware, Citrix puis Hyper-V) se retrouvent depuis quelques mois en com- pétition avec les géants comme HP ou EMC qui eux, mi-2014, sont partis sur EVO:RAIL. Et ces derniers ne s’interdisent pas quelques alternatives (comme HP avec son StoreVirtual/VSA d’origine Lefthand Networks).

(29)

Interception de l’hyperviseur

Rappelons le principe des architectures hyper-convergées : c’est un package « logiciel » qui prend le relais de l’hyperviseur pour plusieurs niveaux de services, même si le plus souvent l’interception se fait entre CPU/mémoire et disques (SSD d’abord et/ou disques durs), là où s’insère la gestion des ressources des VM. L’intérêt de l’hyper-convergence est un pilotage global grâce à un ensemble d’outils communs.

La gestion logicielle du stockage est au cœur de l’hyper-convergence : elle permet d’améliorer les performances d’E/S, en alternant l’utilisation de supports flash et de disques durs traditionnels pour stocker respectivement les données chaudes et les données froides.

En outre, la conception « tout-en-un » des infrastructures hyper-convergées peut inciter à un hébergement, partiel ou non, du data-centre dans le Cloud.

EVO : RAIL de VMware, une offre OEM

EVO : RAIL, défini par VMware, constitue la nouvelle référence de l’hyper-convergence, introduite mi-2014. Elle intègre beaucoup de choses mais pas les services de déduplication, de compression ou de back-up sur le Cloud, etc. Ses partenaires sont censés les apporter, alors que Nutanix ou SimpliVity les proposent déjà.

La plateforme EVO:RAIL de VMware est livrée préinstallée avec vSphere 5.5 Enterprise Plus, vCenter Server Appliance, vCenter Log Insight et Virtual SAN. A noter : un moteur ‘DCM’

(déploiement, configuration, management) qui, avec un ‘setup wizard’ d’installation de la nouvelle vague (HTML5), permet un démarrage en 12 à 15 minutes.

On ne peut pas réutiliser les licences VMware en cours. Vu l’intégration en profondeur, on ne peut pas découpler le hardware du software (et ainsi, le support de Citrix ne peut s’effectuer, comme pour SimpliVity, qu’au-dessus de VMware). Il ne s’agit pas d’une architecture totalement

‘Web-scale’, même si l’extension de 4 à 16 nœuds est automatique. VMware a annoncé une évolution ultérieure, jusqu’à 32 nœuds (en associant 8 appliances).

Les rajouts d’EMC VSPEX BLUE

EMC, tirant parti de sa proximité « parentale » avec VMware a développé sur EVO:RAIL tout un lot de services, dans VSPEX Blue Manager et avec des ressources en ligne. VSPEX Blue Market donne accès à des solutions développées avec divers partenaires, à commencer par la continuité d’activité (EMC RecoverPoint pour machines virtuelles), des sauvegardes optimisées pour environnements virtuels (VMware Data Protection Advanced) ou encore un accès au stockage sur Cloud hybride (EMC Cloud Array Gateway).

(30)

HP sur deux gammes

HP joue également la carte EVO:RAIL, sur le moteur de virtualisation ESXi de VMware avec les services de données de stockage associés - snaptshot, thin provisioning, etc. Deux modèles (HP Converged Systems 200 HC Evo:RAIL) sont disponibles, l’un connecté sur câblage fibre, l’autre sur cuivre.

HP joue également sa propre partie avec une gamme, toujours sur VMware ESXi, mais avec son logiciel HP StoreVirtual/VSA (d’origine Lefthand) qui permet l’interface direct avec ses propres baies de stockage (HP 3PAR). Les deux modèles de cette gamme d’appliances HP Converged Systems 240-HC StoreVirtual utilisent un outil d’administration unique, HP OneView for VMware vSphere. Il s’y ajoute des services d’administration de réseaux de stockage. La capacité peut aller jusqu’à 7 To (tera-octets) et une extension est prévue à 20 To.

Nutanix, pionnier et ‘agnostique’

Nutanix a commencé bien avant EVO:RAIL.

Il est indépendant de l’hyperviseur et des constructeurs. Dell l’a retenu. Il est distribué en France par Exclusive Networks. C’est une architecture ‘web-scale’ (ou du ‘scale-out’

théoriquement illimité). Il a été conçu pour être distribué ; il est par essence ‘software defined’ et son outil d’administration Prism est plutôt facile d’accès. Les services de back-up et de restauration sont intégrés, la déduplication et la compression reposent sur MapReduce et on y trouve la fonction, plus rare, de ‘snapshot/cloning’.

L’offre de Nutanix n’est donc pas mariée à un hyperviseur. C’est une VM (machine virtuelle) qui vient s’ajouter au-dessus. A sa création, Nutanix a proposé le choix de deux hyperviseurs : VMware et KVM. Dans un deuxième temps, a été ajouté Hyper V de Microsoft.

« L’offre repose sur des serveurs standards sur lesquels est installé un hyperviseur (ESX par exemple, dans le cas de VMware) et, au-dessus, est déployée une VM Nutanix qui fonctionne sur l’ESX mais avec une particularité : elle informe chaque serveur du cluster, de l’existence des autres serveurs », explique Fabien Azra, directeur d’Exclusive Networks Europe du Sud.

Il y a donc réplication automatique et synchrone d’un serveur à l’autre par ces VM Nutanix, afin

(31)

Gestion des disques en ‘tiering’

Nutanix gère également le tiering automatique (aiguillage vers un support SSD et/ou disques durs, en fonction de criticité des données). Il est proposé un « mixte » de SSD, pour les don- nées actives (« chaudes ») garantissant une grande performance, et de disques SATA, pour les données moins sollicitées (« froides »). Les données sont remontées sur SSD en fonction de leur sollicitation par chacune des VM. Ainsi, la gestion du stockage est cachée derrière cette fonction de tiering automatique. « Ce dispositif n’a pas de limitation technique. La plus grosse configuration en production à ce jour est composée de plus de 2.000 nœuds », affirme Exclusive Networks.

SimpliVity (Cisco) : maintien d’un contrôleur RAID

Les appliances de SimpliVity, partenaire de Cisco pour ses racks UCS, supportent VMware vSphere 5.5 (la 6 est en recette finale). L’administration est intégrée à la console de management de VMware. Ces appliances sont livrées avec l’hyperviseur VMware préinstallé. Lors du démar- rage, il faut procéder au déploiement de la « fédération » SimpliVity.

Il s’agit bien d’une solution hyper-convergée : elle regroupe unité de calcul CPU, mémoire RAM, stockage, virtualisation des « datastores » et réseau. Son originalité ? Au moment où une VM écrit ses données propres, celles-ci sont acquittées par une carte accélératrice - Omnista- ck - qui écrit directement sur les disques via un contrôleur RAID, ajoutant à la solution une « persistance de données native ».

Ici, le contrôleur RAID subsiste : il vient protéger l’écriture des données, notamment de la rup- ture d’énergie électrique. « Dans un cluster, il y a deux écritures simultanées et, en plus, une sauvegarde sur le RAID. La protection de la donnée s’effectue dans un facteur équivalent à 4 », affirme Patrice Robert, directeur technique de SimpliVity Europe du Sud.

En pratique, ce contrôleur RAID ne dégrade-t-il pas les performances ? « La donnée a été op- timisée en amont grâce à la carte accélératrice OmniStack, avant d’atteindre un media lent », répond SimpliVity.

Et Citrix et Microsoft Hyper-V ?

Pour le moment, SimpliVity n’intègre pas Hyper-V de Microsoft. C’est une question de « choix stratégique » : « Nos meilleurs partenaires sont tous des clients de VMware, lequel occupe 90 % du marché des plateformes de virtualisation... », répond Patrice Robert. En revanche, la plateforme SimpliVity supporte Citrix XenDesktop et XenApp, au-dessus de l’hyperviseur de VMware.

Datacore : le SDS agnostique, avec Fujitsu, Huawei...

Parmi les pionniers, il existe des out-siders qui ont concrétisé le concept de Software Defined dans leur domaine, comme Alcatel dans les réseaux ou DataCore Networks dans le stockage.

(32)

Ce dernier a imaginé son offre Virtual SAN dès 1998. Il vient de signer des alliances avec deux géants, le japonais Fujitsu et le chinois Huawei. Son logiciel SANsymphony V10 (pour réseaux virtuels SAN de stockage) permet de connecter des systèmes de stockage SSD Flash (cf.

Oceanstor de Huawei) dans des architectures hyper-convergées allant jusqu’à 64 noeuds (dont deux assurent la protection des données), et extensibles sur plusieurs datacenters.

Ces SAN virtuels, rapides, abordables et simples à utiliser, gèrent aussi bien les anciens systèmes ainsi que les nouveaux projets de virtualisation Microsoft et Hyper-V ou les environnements mixtes VMware ESXi exécutant des applications critiques comme MS SQL Server, SharePoint, Exchange, SAP, Oracle et VDI.

Fujitsu : une accélération de 30 fois

Les nouvelles appliances de virtualisation du stockage de Fujitsu / Datacore, prennent en compte les cartes Flash PCIe de Fusion-io, ainsi que les solutions d’extension OCZ Storage et sTEC.

Un accélérateur d’écritures aléatoires accélère 30 fois le traitement des charges de travail. Il est possible de gérer de 250 à 750 hôtes, avec une connectivité Fibre Channel à 8 ou 16 Gbits/s, le débit de données atteignant 9.600 Mbits ou 1,2 millions d’IOPS (opérations E/S par seconde).

Parmi les principaux atouts, on retrouve la fonction d’auto-tiering, les algorithmes de mise en cache à configuration automatique permettant d’anticiper les lectures, l’évaluation des profils d’utilisation et la fusion des écritures aléatoires en écritures séquentielles. Divers périphériques de différentes marques peuvent être regroupés. Le basculement et les reprises peuvent être étendus à tous types de stockage, avec réplication sur sites à longue distance pour la reprise d’activité, y compris vers des services de cloud public.

(33)

Fluidité des VM

Le bilan, positif, se traduit par « des performances bien réelles, notamment sur les I/Os et l’exé- cution des VM est plus fluide », explique le DSI, qui confirme que la haute disponibilité des ressources se traduit par la « fluidité des VM ».

La maintenance est minime et aucune panne n’est à déplorer à ce jour. En cas d’incident, il est fait appel à un seul interlocuteur, avec le support de VMware. « Nous ne ressentons pas l’im- pression d’une boîte noire. Il s’agit d’appliances classiques ».

Une extension est prévue sur le périmètre de plusieurs nouvelles VM, soit une dizaine de nœuds Nutanix (représentant un investissement total de 1 M€ environ – « ce qui reste onéreux par rapport à une solution classique, mais nous assumons ce choix d’une architecture réellement redondante, sans la nécessité d’un RTO ‘zero’ »).

De même, la capacité ‘scale-out’ n’est pas une préoccupation, car l’évolution du parc est peu marquée). En résumé, le package ‘hardware/ software’ s’avère mature, même si « Nutanix ne fait pas tout ». Par exemple, il n’y a pas d’attachement direct FC vers du SAN ou pour des uni- tés Vflash SSD en sus.

Commentaire :

« Les solutions d’infrastructure convergée (CI) sont difficilement comparables financièrement à des architectures classiques car elles intègrent tout : hardware, réseau, stockage et coûts d’exploi- tation. Chaque entreprise devrait faire l’exercice et être un peu créative car peu de benchmarks ou de retours d’expérience existent », observe le DSI de cette société.

(34)

7. Qu’apporte une solution

Software Centric ou VM Centric?

S’agissant des infrastructures convergées et des couches logicielles empilées,

que recouvrent les termes ‘Software defined’ et ‘Software centric’ ? Quelles

différences par rapport à une vue ‘VM centric’ ?

(35)

Dans les solutions d’hyper-convergence, l’un des principes consiste à associer toutes les res- sources qui peuvent être mutualisées : CPU, mémoire RAM, unité disques, réseau et services logiciels.

Certains fournisseurs mettent l’accent sur « l’optimisation de la donnée ». Ainsi, la résilience, le back-up, la réplication automatique sur au moins un deuxième nœud, sont autant de fonc- tionnalités essentielles. Et, chez la plupart des éditeurs, ces fonctions sont intégrées sans licence d’utilisation.

Software centric ou Software defined ?

SimpliVity, partenaire de Cisco, définit son offre comme « VM centric » [orienté machine vir- tuelle], plutôt que « Software centric » ou « Software defined ». « Nous continuons d’optimiser, en particulier les performances en termes de IOPS (Input-output per second). C’est là le nerf de la guerre », explique Patrice Robert, directeur technique de SimpliVity Europe du Sud.

L’une des options consiste à se dispenser totalement des réseaux de stockage SAN et à éviter des architectures lentes en termes de latence. Ainsi, la déduplication intervient au niveau de chaque VM.

« Dire que « tout est software » est encore un peu exagéré. Il y a bien une écriture qui se fait quelque part, à un moment donné, même ultime, sur un support média (disque SSD ou disque dur...) »

« Le terme Software centric n’est pas très clair. Nous sommes moins dans l’architecture du Datacen- ter que dans le Software defined. Nous sommes donc complétement intégrés à VMware et nous ne rajoutons rien qui soit extérieur ».

« La solution SimpliVity virtualise des ‘file systems’ à partir d’un empilement très concentré regrou- pant la CPU, RAM et fonction stockage. Et au moment où une VM va écrire ses données propres, elles sont ‘drivées’ par une carte accélératrice (Omnistack). La VM écrit à la place d’un contrôleur, qui n’a plus sa raison d’être. Ensuite elle envoie un acquittement une fois l’opération exécutée. » Ainsi, le découpage du traitement par silos disparait. Le déploiement des applications est accé- léré, le ‘thin provisioning’ est encore optimisé.

Les points requis par le concept de Software defined sont donc réunis. Il y a bien automatisation et amélioration de l’efficacité opérationnelle. « L’infrastructure hyper-convergée apporte les réponses en termes de performances, de mobilité et d’administration. Elle réalise l’orientation VM en faisant le tracking des données et leur appartenance à telle ou telle VM, ce qui permet la mobilité VM par VM », explique SimpliVity.

(36)

L’efficacité du modèle ‘Software defined’ se vérifie jusque dans la réplication entre deux sites distants: la qualité de service est portée à près de 100% (de 99,95 à 99,99%)

Les performances sont optimisées du fait que les redondances d’écriture / lecture sont suppri- mées. La déduplication, la compression et l’optimisation des données sont opérées au cœur du traitement des VM.

Nutanix confirme l’approche « VM Centric »

« Toutes les fonctionnalités autour du traitement d’une tâche, ou workload, sont 100% logicielles : protection des données, compression, déduplication, réplication synchrone et asynchrone, etc. », explique un responsable de Nutanix.

Il n’y a plus de composant ‘hardware’ qui vienne ajouter une tâche ou une fonctionnalité.

« Sur chaque nœud serveur, c’est une VM qui joue le rôle de contrôleur ».

Le rajout de la réplication synchrone entre sites distants s’est traduit par un simple ‘upgrade’

Références

Documents relatifs

Avec le MCE, le sédiment présent dans le lit cohésif n’a pas le temps d’atteindre une concentration telle que la contrainte critique d’érosion associée

Au moment où apparaissent les SSD, la majorité des disques tournent à 7 200 tr/min, soit environ 4,2 ms de latence moyenne, et le temps moyen de recherche est, le plus souvent,

This chapter provides a description of the peer-to-peer protocol procedures that are defined for the transfer of information and control between any pair of

Par ailleurs, même si nous avons appliqué les recommandations de NetApp pour iSCSI, nous n’avons pas cherché à optimiser nos résultats, qui sont suffisants dans le cadre de

Les premières unités de mesure ont été empruntées à la morphologie humaine, comme le doigt, la palme, le pied, la coudée, le pas, la brasse, la toise, … pour

du corps humain avec les Maladies & les Remèdes par Si Hylaire , troifiéme édition. latin avec Figures. latin, avec Fig. 7 h Anatomie de l’Homme fuivant les dernieres

and check out how values are passed : for each foo function, in gdb , set a breakpoint on a callee function, let gdb stop on it, type pframe , and look at the caller and callee code,

When the Winchester disk has not yet been formatted as a system disk, the procedure that follows should be used. Power on the Series II or Series III