• Aucun résultat trouvé

L âge adulte? N 13. Grande enquête sur les freins et les accélérateurs du Cloud en entreprise. dans votre stratégie de sauvegarde

N/A
N/A
Protected

Academic year: 2022

Partager "L âge adulte? N 13. Grande enquête sur les freins et les accélérateurs du Cloud en entreprise. dans votre stratégie de sauvegarde"

Copied!
14
0
0

Texte intégral

(1)

Comment l’intégrer ?

État des lieux et bénéfices

L’INTERVIEW

Hervé Uzan

DG France de VMware

ACCOMPAGNER

L’âge adulte ?

Grande enquête sur les freins

et les accélérateurs N°13

TRANSFORMER

Software Defined Network Pour une

infrastructure réseau agile

de sauvegarde

ANALYSE

Windows 10

Technology Preview

Premier test complet

(2)

XXX xxx xxx

LE SOFTWARE

DEFINED X

consiste à réinven­

ter sous forme logi­

cielle ce qui jusqu’ici

existait sous forme

matérielle. Après le

réseau c’est au tour

du stockage de subir

cette transformation

tournée vers l’avenir.

(3)

Le SDS  réinvente

l’environnement de

stockage pour demain

(4)

E

t si on réinventait l’informatique ? C’est ce que fait en tout cas le Software Defined X. Boostée depuis quelques années grâce au réseau avec la manne du Software Defined Network, la philosophie du Software Defined X continue à faire de nombreux émules et ce, à tous les niveaux du système d’information : réseau, sécurité, computing (calcul), datacen- ter, radio ou stockage. Rien de tel qu’un coup d’œil sur le profil des start-up de la Silicon Val- ley pour voir une tendance se dégager : elles sont pléthore depuis quelques années à affi- cher le Software Defined Inside. Rachetées à coups de millions frisant parfois le milliard de dollars (Inktank, ScaleIO, Isilon, etc.), elles nous replongeraient presque dans l’ambiance de la bulle internet du début des années 2000…

Aujourd’hui, focus particulier sur le Software Defined Storage, un marché récent ne serait-ce que par le terme, et prometteur en termes de revenus ou plutôt d’économie de revenus. Le Software Defined Storage bouleverse totale- ment le milieu du stockage où le matériel pro- priétaire est légion et traditionnellement uti- lisé, où chaque achat de hardware devient un véritable investissement pour l’entreprise.

Qu’est-ce que le Software Defined Storage ?

Mais attention, nous rappelle Philippe Nicolas, directeur de la stratégie produits chez Scality,

« à ne pas confondre le Software Defined Sto- rage avec la virtualisation du stockage. Ce sont deux choses bien différentes. Aujourd’hui après le traditionnel RAID composé de disques agré- gés et unifiés, la plupart du temps le stockage d’entreprise repose au sein de baies de disques elles-mêmes situées dans des baies de stockage et à la place du simple attachement en direct, cet environnement est rattaché à un réseau de stockage dédié. Par-dessus, on peut virtualiser soit en rassemblant des éléments extérieurs au sein d’un serveur sous forme d’unités soit en virtualisant le réseau de stockage grâce à des technologies proposées par des pionniers tels Falconstor ou Datacore. La virtualisation per- met de représenter de façon assez sophistiquée et logique un espace de stockage physique pré- sent dans les baies de disques. »

Et d’expliquer, « le Software Defined Storage se fait à l’aide de serveurs et non plus des baies de stockage traditionnelles comme celles ven- dues par les EMC ou Hitachi unifiées la plupart du temps avec du logiciel en provenance des

Le SDS permet de faire du stockage à partir d’un serveur et c’est l’application métier qui déterminera le type de protocole avec le­

quel on accédera aux données : bloc, fichier ou objet.

(5)

datacores par exemple.

En d’autres termes, le Software Defined Sto- rage se fait avec autre chose que du matériel de stockage. Les élé- ments employés dans cette approche peuvent être du matériel banali- sé : de simples serveurs à base de processeur Intel et intégrant des éléments standards du marché comme les disques SATA, SSD, carte Ethernet traditionnelle et système Linux de base. Des éléments disponibles chez n’importe quelle grande marque ou équipementier taïwa- nais. »

Le pouvoir du logiciel sur le matériel

D’une façon générale, la définition du Software Defined X correspond à la reproduction sous forme logicielle des fonctions qui jusqu’alors n’étaient fournies que par du matériel spéci- fique (et donc souvent d’un certain prix). Un logiciel qui s’appuie également sur du maté- riel mais cette fois il devient basique et non plus spécifique, une brique de base physique en quelque sorte. Ainsi, si l’on désire faire un

Software Defined Network et reproduire un commutateur, l’idée est de prendre un ser- veur de base, sur lequel on mettra de nom- breux ports mais peu de disques, un peu de puissance avec beaucoup de mémoire vive et le logiciel fera le reste… Dans le cadre du Software Defined Storage, le serveur « brique de base » aura, quant à lui, un peu de mémoire vive, beaucoup de disques naturellement, peu de puissance encore ici et un nombre raison- nable de cartes réseau de façon à ce que les flux ne soient pas engorgés au sein de la machine.

Dans ces deux cas, le serveur est traditionnel (et la carte graphique inutile) : c’est le software qui donne la fonction à cette machine.

La banalisation ainsi décrite illustre bien ce qui se passe d’ores et déjà quand on va chez un Facebook ou un Twitter. La vogue du Software Designed Storage ne fait que rendre dispo- nible à l’achat auprès des entreprises lambda ce que les OTP (Over The Top : Google, Ama- zon, Yahoo, Twitter…) ont déjà fait en interne et qu’ils ont rendu disponible auprès du grand public et des entreprises au travers de leurs services adaptés… Ainsi donc dorénavant les opérateurs de tous bords, services providers ou entreprises peuvent également posséder des racks de 40 U sur lesquels reposent des 1U, 2U ou 4U ce qui leur apporte la disponibilité

L’infrastructure n’évolue pas seulement en termes de capacité mais également en termes de redondance et de performance soit une évolution paramétrique sur 3 dimensions.

George Teixeira CEO DataCore

(6)

de dizaines de pétaoctets à des prix concur- rentiels. Et plus on met de nœuds (serveurs), plus on a de la capacité de stockage comme de traitement et de débit. Sans oublier la réduc- tion de coût induite par la convergence de la plateforme notamment sur la partie énergé- tique et le refroidissement, éléments détermi- nants dans un calcul de TCO global.

Le software au cœur de tout …

En pratique si on veut 1 pétaoctet de stockage, il suffit de s’équiper de rack de 1, 2 ou 4 U de marque quelconque (Dell, HP, etc.) avec des capacités de disques dessus. C’est le logiciel ins- tallé sur ces serveurs qui présentera l’ensemble des disques comme un unique espace de stoc- kage. Un espace de stockage virtualisé mais ce- pendant différent de la notion de virtualisation de stockage qui existait jusqu’à présent.

On imagine bien à ce stade que les tradi- tionnels fournisseurs de baies de stockage ont du souci à se faire car un matériel banalisé comme le suggère la philosophie du SDS coûte nécessairement moins cher qu’une baie de stockage spécialisée. Une mutation chez les ac- teurs traditionnels tel EMC, Hitachi, NetApp…

ou dans le stockage virtuel comme Datacore ou Falconstor, est donc nécessaire à terme si ces acteurs désirent survivre à la vague du SDS. Un tour d’horizon non exhaustif des prin- cipaux fournisseurs traditionnels et de leurs challengers SDS nous permettra de mieux ap- préhender les offres et tendances du moment dans le domaine du Software Defined.

Le choix de l’accès aux données avant le choix du SDS

Rappelons tout de même que le stockage en réseau se fait essentiellement aujourd’hui en

mode bloc (SAN, SCSI, FC, etc.) et qu’avec le SDS, plusieurs modes d’exposition existent tel le bloc device qui se fait à partir du serveur comme chez ScaleIO (une start-up SDS rache- tée par EMC), ou encore le système de fichiers tel que le pratique Isilon (une sorte de NAS), une société également rachetée par EMC. Le mode objet est également possible pour accé- der aux données de l’application comme le pratique la société Scality (qui pratique aussi l’accès via fichier).

Pour résumer, le SDS permet de faire du stockage à partir d’un serveur et c’est l’appli- cation métier qui déterminera le type de pro- tocole avec lequel on accédera aux données : bloc, fichier ou objet. Il est donc à noter que si le mode d’accès aux données est déterminé par l’application elle-même, le choix du SDS ne peut se faire qu’après avoir regardé la fa- çon dont l’application « consommera » les don- nées car toutes les solutions de SDS du marché ne proposent pas malheureusement tous les types d’accès.

Le second effet SDS…

Avec cette nouvelle philosophie arrive la no- tion de Scale Out ou d’évolutivité horizontale.

Par l’ajout d’un serveur pour augmenter la ca- pacité disques, l’infrastructure n’évolue pas seulement en termes de capacité mais égale- ment en termes de redondance et de perfor- mance soit une évolutivité paramétrique sur 3 dimensions. Autre nouveauté induite par le SDS, l’utilisation d’Erasure coding, une sorte de super RAID entre data et non plus entre disques. Un système autrement plus flexible puisque les données peuvent être disposées sur des disques différents voire des serveurs différents…

(7)

L’influence de l’application dans le comportement du SDS

L’application n’impose pas uniquement les modes d’accès aux données, elle influe égale- ment au cours du temps sur l’infrastructure elle-même en modifiant certains des éléments de cette dernière en fonction de ses besoins comme par exemple la redondance, la per- formance voire le comportement de la baie de disques et ce, au travers d’API, Application Programming Interface, ouvertes pour pou- voir répondre aux besoins applicatifs. Grâce à ce mode de fonctionnement, on n’a plus besoin de passer obligatoirement par les spécificités du matériel pour modifier des choses dans l’infrastructure. Le Software Defined permet de s’affranchir quasi-totalement des spécifici- tés matérielles…

Un modèle de coût adapté aux besoins du marché

Plus le volume de stockage est important plus l’intérêt d’opter pour le SDS va croissant. Le modèle de coût est différent du fait que l’on est sur une méthode d’accès aux disques alter- native. Par ailleurs, avec seulement quelques serveurs, on peut simuler une baie de stoc- kage haut de gamme ce qui simplifie d’autant l’équation financière : l’apport de valeur dans le cas d’un SDS devient ici la différence entre un investissement lourd en baies de stockage et celui en serveurs de base.

Parallèlement, le prix du stockage a chuté et sur des disques grand public, le gigaoctet ne coûte pas plus de 4 cents (monnaie US) sur du matériel banalisé alors que déjà l’arrivée de disque de 8 To est annoncée en remplacement des actuels 4 To... Un coût en partie dû à la pression des Amazon, Google Cloud Platform

ou Azure qui vendent très peu cher le stoc- kage dans le Cloud. « Aujourd’hui, il serait réel- lement suicidaire pour un opérateur d’acheter des baies de disques pour faire du Cloud. Tous les opérateurs Cloud doivent pouvoir dégager de la marge en baissant le coût de l’infrastruc- ture, » commente sur ce point Philippe Nicolas de Scality.

SDS et open source pour faire face aux nouveaux besoins

Quand on parle des OTP, on pense également open source et plus précisément OpenStack.

Désormais, on ne peut tout simplement pas imaginer un IaaS, Infrastructure as a Service, sans de l’OpenStack à la clé. Le Software Defi- ned Storage se fait d’une façon générale grâce à des API et du code pour pouvoir tirer partie au maximum de l’infrastructure mise en place.

Par ailleurs, il existe des solutions open source pour le SDS – ainsi Ceph, por-

té à bout de bras par son nou- veau propriétaire RedHat (qui a racheté Inktank à l’origine du projet) côté services et informa- tion. Ou encore Cloudera.

Car des usages comme Ha- doop et le Big Data constituent une nouvelle vague d’utilisa- tions à ne pas négliger. Jusqu’à présent les données sont en- voyées là où se trouve l’appli- cation et où par conséquent le

traitement a lieu mais avec des technologies du type Hadoop, c’est dorénavant l’applica- tion que l’on amène aux données. Plusieurs processus sont lancés en parallèle sur les tron- çons de données qui leur sont nécessaires (par exemple encodage d’une application vidéo).

Irshad Raihan, RedHat

(8)

Côté Hardware banalisé, deux camps : agnostic ou commodity

La différence est simple et se retrouve dans le modèle de vente du fournisseur de pla- teforme SDS. Certains acteurs fournissent le logiciel accom- pagné d’une appliance choi- sie par leurs soins. C’est le cas d’Isilon avec son serveur de fichier NAS sous Free BSD ou encore Nutanix en partenariat avec Dell. Là on parle de com- modity hardware alors que son pendant l’agnostic hard- ware consiste à ne livrer au

client que la partie logicielle et de lui laisser le choix de son matériel de base comme le propose Scality.

Le SDS sur le terrain,

point de vue d’intégrateurs

Antemeta est un intégrateur avec plus de 19 ans d’existence et 160 collaborateurs. Spé- cialisé dans l’intégration d’infrastructure, les « serveur, stockage, virtualisation et sau- vegarde » n’ont plus vraiment de secret pour eux… Cela va faire 6 ans qu’ils font du Cloud et ils proposent des services de type calcul, Box (stockage entreprise) et backup en entreprise ou dans le Cloud. La sécurité des réseaux aug- mente en puissance dans leur offre, notam- ment dans le Cloud (sécurité des accès, pare- feu, PCI DSS, hébergement de données santé, certification ISO 27001, etc.). Leur Cloud est re- lié en mode SDN avec celui de leur partenaire Numergy.

Samuel Berthollier, CTO d’Ante- meta, détaille : « La notion de Software Defined Storage est deve- nue populaire depuis 18 à 24 mois car cela permet de diviser le coût du stockage par un facteur important. Le fait que l’on puisse intégrer de très grosses densités de stockage sur un serveur baisse naturellement d’autant le coût du giga. Néanmoins le SDS s’adapte sur- tout aux besoins des fournisseurs de services ou encore des grands comptes institutionnels. Et ce, même s’il existe des offres SDS pour de plus petites structures qui commencent à quelques téraoctets ; par exemple l’offre de stockage en mode logiciel VSA de HP. En effet, l’entrée de gamme en stockage offre déjà des prix facile- ment attractifs.

« Après 19 ans dans le stockage, rien d’éton- nant à ce que le Software Defined Storage soit au cœur de notre activité. C’est beaucoup de- mandé par nos clients car ce qu’ils désirent der- Samuel

Berthollier, CTO Antemeta

(9)

rière c’est la promesse de meilleurs coûts sur le stockage avec un TCO (Total Cost of Ownership, coût de possession) en accord avec la consom- mation du stockage. Donc, on a une offre SDS et on propose jusque 2 pétaocets ; et par ailleurs, tous les nouveaux services mis en œuvre chez nous, on les met peu à peu également sur le SDS.

« Les clients sont là car il n’y a pas vraiment de règles posées. La seule contrainte est de mettre à disposition du stockage le moins cher possible et dans de très grosses densités. Et le prendre donc sur des serveurs puis de rajouter sur ce matériel à bas coût une couche logicielle. Une couche qui va permettre d’offrir les services d’accès à la donnée. Et dans ce cas-là, on va par- ler de tout ce qui est accès de type fichier, NFS et ICIFS (pour les systèmes de partage de fichiers Microsoft) ou également d’accès de type bloc avec OpenStack et Cinder pour des infrastruc- tures virtualisées, entre autres, ou encore faire le lien avec les réseaux SAN principalement en accès mode bloc. Et nous supportons aussi la grande tendance du marché, les accès de type objet qui permettent de publier aux applications un stockage très rapide et relativement illimité en termes de quantité.

« D’ailleurs c’est ce mode de stockage pour lequel on a opté pour notre service Box Entre- prise et dans un futur proche, on l’intégrera également comme mode de stockage pour notre service de backup. L’avantage de tout cela est que la gestion du stockage avec le SDS est non seulement extrêmement simple mais aussi évo- lutive et peu coûteuse.

« Le SDS n’est pas une norme déposée mais un principe et nous, on a choisi de s’appuyer sur celui de Scality dont nous trouvons la solu- tion technique plus fiable que ce que l’on trouve actuellement sur le marché de l’open source. Il

existe par mal de systèmes open source avec lesquels on peut faire du stockage en mode objet dont OpenStack mais là on a en plus du support ce qui est important.

« Nos clients nous suivent car nous sommes des acteurs de proximité et on a plus de flexibi- lité que les grandes infrastructures et la sécu- rité est un point fort chez nous par rapport à un fournisseur de services à l’échelle mondiale. La facture n’est plus tous les trois ans mais men- suelle, on est passé du Capex à l’Opex. »

Pour MTI, également un intégrateur d’in- frastructure orienté datacenter, la spécialité de la maison est bien la gestion de données de- puis 25 ans. Arriver à faire du SDDC (Software Defined Data Center) aujourd’hui oblige à avoir une infrastructure flexible et facile à provisionner. Et par voie de conséquence, la demande de souplesse au niveau des solutions de stockage est très forte ce qui donne pour MTI une légitimité au SDS en tant que solu- tion. Pour l’intégrateur, les produits n’arrivent que depuis à peu près deux ans – à commen- cer par Viper SRM d’EMC qui permet de savoir qui consomme les ressources dans le centre de données. La seconde étape est de mettre en place des outils de gestion après avoir séparé le plan de contrôle (qui provisionne le stoc- kage quelle que soit la baie derrière) de celui des données (banalisation du stockage des données).

Ainsi côté plan de contrôle on a une pré- sentation générale de volumes comme un unique pool de ressources vues sous forme de services avec différents SLA et différentes fonctionnalités (chiffrement des données, dif- férents types de stockage – SAN, NAS, objet, HDFS). Maintenant que l’on peut voir depuis le contrôleur toutes sortes de paramètres relatifs

(10)

au stockage mais aussi au serveur comme aux commutateurs, il est également possible d’en- visager que les différentes équipes dédiées à chacune de ces tâches ne fassent plus qu’une…

Une normalisation bienvenue

Alors que le SDN se normalise de plus en plus avec différentes propositions en provenance de différentes associations, le SDS reste un peu le parent pauvre avec seulement OpenStack voire Ceph pour mettre au point un espace de stockage standardisé objet. « Aujourd’hui les clients ont très peu de stockage objet, NAS et SAN étant prépondérants sur le terrain. Ce qui oblige tout contrôleur à être interopérable avec les NAS et SAN actuels tout en acceptant les API qui lui permettront de faire la jointure avec le mode objet voire également supporter de l’HDFS, pour les environnements Hadoop fortement demandés par le secteur marketing aujourd’hui, » précise Thomas Leconte, spécia- liste stockage chez MTI.

Alors que la plupart des environnements de stockage existants sont propriétaires, les API de type REST font leur apparition afin de stan- dardiser les requêtes (souvent à base de XML).

Les constructeurs de baies s’ouvrent de plus en plus vers une certaine standardisation grâce à l’API.

« Les administrateurs du stockage deviennent moins techniques et beaucoup plus organi- sationnels. Pour cela il faut avoir les outils de supervision et de gestion de consommation des ressources qui manquent bien souvent. Les ou- tils de visibilité et de disponibilité ne manquent pas quant à eux à l’appel. Cependant c’est la vision d’ensemble (infrastructure physique avec les NAS et SAN, serveurs virtuels, com- mutateurs et serveurs physiques) qui pêche la plupart du temps. Sans celle-ci, il est très diffi- cile pour le responsable IT, le DSI ou le respon- sable infrastructure de bien estimer le coût de ses besoins. Ce qui oblige au bout du compte à consolider l’infrastructure à la main et non pas en l’automatisant… » achève Thomas Leconte.

DOSSIER RÉALISÉ PAR SOLANGE BELKHAYAT-FUCHS

Thomas Leconte, MTI

(11)

Si le siège de Scality est sur California Street aux États- Unis, son laboratoire de recherche et développement est bien situé en France à Paris et son bureau exécutif est en majorité composé de Français avec, à sa tête, le très médiatique Jérôme Lecat.

Un Jerôme Lecat qui entre dans la catégorie des « serial entrepreneurs » et qui a décidé, pour l’aventure Scality, de s’exporter outre-Atlantique.

Une américanisation, en premier lieu, pour y trouver des capitaux-risqueurs

nécessaires à la croissance de l’entreprise. Depuis sa création, en 2009, trois appels de fonds ont été levés, le dernier en 2013, pour un montant de 22 M$ (soit au total 35 M$ sur 5 ans). Un niveau de confiance financier justifié par un taux de croissance situé entre 400 et 500 % l’an passé et un effectif multiplié par deux en quelques mois.

Une américanisation

également pour se rapprocher des géants du Big Data

et autres fournisseurs de services Internet. En bref, des gros consommateurs de stockage. Car bien sûr Scality est un spécialiste du stockage qui ne va pas au-

dessous du pétaoctet. Début juillet, l’entreprise signait coup sur coup un contrat avec Dailymotion et avec le centre de recherche de Los Alamos.

En avril dernier, c’était avec le groupe RTL, en mars avec ServerCentral, un grand de la distribution vidéo sur Internet, en novembre 2013 avec

l’aérospatiale allemande… Rien que sur le premier semestre 2014, dix contrats ont été

signés pour un montant total de 2 M$. L’effet French Tech ?

Ces accumulations de contrats s’accompagnent d’une série de partenariats : en août Zimbra, un spécialiste des outils de travail collaboratif, en avril, un accord technique avec SGI, sans oublier les partenariats Seagate Kinetics, Hadoop, Aruba, SGI, Dell, ou l’adhésion aux associations et consortium du stockage (OpenStack Foundation, Active Archive Alliance). Son produit phare, Scality Ring, vient de franchir un cap avec la cinquième version, parue en août dernier, d’une capacité de 200 IO/s par VM. Ring V5.0 s’adresse essentiellement aux grands accumulateurs de contenu : industrie des loisirs audiovisuels, entreprises spécialisées dans les services

financiers, fournisseurs d’applications en ligne et services Web.

Point de vue technologie, le choix de Scality depuis le début est de réaliser un logiciel déposé sur du matériel totalement banalisé. Les

clients de cette solution sont généralement de grands consommateurs de Po. Ils ont également comme point commun la volonté de garder une indépendance matérielle sur la durée de vie tout en

abaissant les coûts de stockage.

Scality Ring est actuellement en version 5.0. Une édition qui entérine le support de vSphere de VMware. Ring fonctionne sur n’importe quelle infrastructure à base de serveurs de type x86. C’est une solution de stockage logicielle dessinée pour le Cloud. Avec ses nouvelles fonctionnalités, Ring offre des capacités de stockage pour des machines virtuelles, un service

« Amazon EBS like » (Elastic Bloc Storage). Dans un même environnement de stockage, il est désormais possible d’avoir de multiples workloads pour des applications fonctionnant en mode fichier, objet ou établies sur des machines virtuelles.

Scality, la French Touch Californienne

(12)

« La séparation du logiciel et du matériel est fondamentale ne serait-ce que pour abaisser les coûts. Serveur x86, disque…

Le Software Defined tirera le meilleur de tout et permettra de se dégager du côté

propriétaire. Outre l’économie en matériel, l’évolutivité est plus facilement prédictible sur du logiciel que sur du matériel dont les extensions sont

souvent proposées à des prix exorbitants, » résume Philippe Bruiant, business development manager France chez Nexenta.

Par ailleurs, la tendance est là : les entreprises vont de plus en plus vers le Cloud Computing et sur ce type d’infrastructure, difficile

d’estimer les coûts de matériel propriétaire. C’est ce qui est arrivé à Korea Telecom, qui a lancé une initiative concurrente à Google ou Azure. La mise en place d’une architecture de stockage propriétaire non économiquement viable et il passe totalement dans le giron de Nexenta pour son SDS.

L’objectif pour Korea Telecom était ce que l’on appelle le Commodity Hardware. Ainsi pour le matériel banalisé, il s’appuie sur Dell, HP et

un constructeur local, et pour la partie logicielle tout simplement sur Nexenta et OpenStack.

Et la situation n’ira pas en s’améliorant car derrière il y a également la mobilité (PC de bureau, PC portable, smartphone, tablette, etc.) puis l’arrivée du IoT (Internet of Things) sur le réseau ce qui laisse présager de plus en plus de contenus à stocker comme à être exploités par les entreprises. Ainsi, derrière l’économie faite dans le

stockage, il y a également l’exploitation de la donnée par le Big Data qui se profile.

Nexenta a été créée en 2005 et après trois ans de développement de produit, elle s’étend depuis la Californie de par le monde, EMEA et APAC.

Un siège européen aux Pays- Bas, une présence physique en Angleterre, Allemagne et Italie et depuis mars en France. Forte de ses 200 employés dont 130 en recherche et développement sur du logiciel essentiellement, elle lance quatre catégories de produits. À commencer par le Nexenta Store qui transforme un banal x86 doté de disques en solution de stockage

unifiée supportant les accès bloc et fichier. Puis Nexenta Connect, utile sur le marché VDI en plein essor : il corrige les effets de bord induits par les IO sur le stockage. Il tire pour cela parti des mécanismes de caching des serveurs grâce à une appliance virtuelle qui est un serveur dédié auquel on a alloué beaucoup de mémoire.

Un élément nécessaire à la fonction de caching . Et depuis août, Nexenta Edge a fait son apparition. Un produit qui permet de faire du stockage objet de fichiers de type vidéo ou Big Data et donc ici on

parle de plusieurs centaines de pétaoctets à l’exaoctet. Enfin sur le dessus arrive Nexenta Fusion, un parefeu de gestion, un outil d’orchestration en quelque sorte qui gère tout simplement l’ensemble de ces briques.

Nexenta, une gamme complète

au service du SDS

(13)

Chez VMware, le Software Defined Storage n’est qu’une partie de leur stratégie globale autour du SDDC, Software Defined Data Center. Après la partie « compute » avec la virtualisation des serveurs, après le réseau avec l’arrivée de NSX, l’éditeur s’attaque aussi au stockage avec VSAN et VVOL, des nouveaux produits annoncés lors du dernier

VMworld US.

« L’idée de base est de reproduire exactement la même chose dans le domaine du stockage que ce que l’on a déjà réalisé avec les serveurs, » explique Stéphane Croix,

Directeur avant vente chez VMware. « Soit l’abstraction entre les ressources physiques et les applications avec une mise en commun de ces ressources ainsi que leur

automatisation. Parallèlement côté client, les administrateurs stockage nous remontent souvent le fait qu’ils doivent faire face à une volumétrie croissante (plus de 41 % de hausse en terme de volumétrie vendue par an) alors qu’ils subissent également la pression des responsables application qui désirent s’assurer de la qualité de service comme de

la disponibilité du stockage au service des logiciels métier.

Dernier point négatif remonté, la complexité de certains

environnements de stockage qui nécessitent pour le coup du personnel dédié. »

L’approche VMware est de définir un stockage basé sur des règles : on prend le stockage physique sur lequel on fait reposer une couche d’abstraction en même temps que de mettre en commun toutes les ressources. Par la suite, l’administrateur VMware utilise ces ressources non pas avec une notion de volumétrie voulue mais avec une notion

de qualité de service attendue en ce qui concerne le stockage.

Pour réaliser cela, il faut tout d’abord définir des règles (stockage extrêmement rapide ou stockage extrêmement rapide et hautement disponible ou encore un stockage

redondant, etc.). Dans ce cas, l’administrateur VMware ou l’utilisateur qui est en charge de déployer les machines virtuelles n’aura plus besoin de savoir sur quel stockage il sera réellement physiquement rattaché mais

VMware

Le SDS selon VMware :

comment faire du SDS dans un environnement virtuel.

(14)

il devra par contre indiquer les spécifications de l’application à déployer (hautement disponible et ultra performante par

exemple). Par conséquent, l’application est déployée par rapport à des règles de qualité de service définies au niveau de l’environnement de stockage.

L’approche stockage sera donc bien en corrélation avec les besoins réels des applications ou des VM.

Concrètement, il existe deux solutions chez VMware

pour mettre en oeuvre cette stratégie. Le premier produit est sorti en début d’année et s’appelle VSAN. C’est une technologie embarquée directement dans l’hyperviseur VMware qui permet de

définir des règles de qualité de service en utilisant les disques locaux des serveurs.

Ainsi l’administrateur va créer un pool de serveurs et les disques physiques seront concaténés pour former une unité logique. Là, les règles de qualité de services seront définies et l’administrateur des VM consommera donc de la ressource en se basant sur cette notion. Pas d’administrateur stockage dédié ici car le système est simple et la

personne en charge peut même s’appuyer sur des wizards pour déployer. Une mise en pratique concrète de ce concept est EVO:RAIL, une infrastructure convergée composée de

serveurs, disques et utilisant la technologie VSAN.

En bêta encore aujourd’hui, une nouvelle technologie vient d’apparaître chez VMware.

Baptisée VVOL (Virtual

Volume), c’est tout simplement une extension de ce que l’on a appliqué avec VSAN, soit un système basé sur des règles

mais appliqué cette fois à des systèmes externes appartenant à des partenaires proposant des solutions SAN ou NAS. De la même façon tout sera basé sur des règles (redondance, performance, disponibilité, etc.) et l’administrateur

« consommera » son SAN ou son NAS comme on peut le faire au sein d’un VSAN (sans parler ni de LUN ni de volume). Concrètement, il y a une intégration entre les partenaires possesseurs des baies physiques et VMware sur l’utilisation des technologies nécessaires (vSphere,

vCenter). Le logiciel VVOL est ainsi présent côté VMware comme côté matériel externe.

L’administrateur stockage va créer les règles et quand le consommateur de ces environnements va déployer des machines virtuelles, il va choisir une volumétrie (physique ou virtuelle, c’est transparent) qu’il voudra

mettre dans un environnement spécifique ce qu’il fera en se servant des règles mises à disposition.

VMware (suite)

Références

Documents relatifs

Cette session ministérielle, qui se déroulera le 5 Décembre 2019 comporte deux évènements phares : (i) l’analyse des conclusions des experts assortie d’un communiqué final dans

L’intervention de l’AFD dans le secteur de l’éducation, de la formation professionnelle et de l’emploi vise à favoriser la cohésion sociale, lutter contre les

Suite à la concertation de l’ensemble des acteurs lors d’une réunion technique le 8 juin dernier et à la consultation du conseil départemental de l’eau, ce lundi 15 juin,

[r]

Le système VMAX 20K prend également en charge la solution EMC RecoverPoint pour la réplication en local en utilisant la protection continue des données (CDP), la réplication

Le système VMAX 40K prend également en charge la solution EMC RecoverPoint pour la réplication en local en utilisant la protection continue des données (CDP), la réplication

Doté d'une fonction intégrée de gestion en réseau et disponible en modèles tour et optimisé pour le rack, de 4 à 16 kVA avec redondance N+1, l'onduleur online Symmetra LX est

Partager des informations et confronter des expériences qui ont déjà démontré leur pertinence, tels sont les objectifs de la ren- contre régionale «Coopération internationale dans