, ,

See it to believe it! @SimpliVity Demos at #VMworld2015

The weeks and months leading to VMworld are the busiest for a lot of storage and virtualization companies. Engineering, marketing, and product management are always working together to put their best foot forward. It reminds me of the song from the Lego Movie: “Everything is awesome when you are part of a team”. 

Sourced through Scoop.it from: www.simplivity.com

#RDV2015


Cette année c’est au tour de Simplivity d’être notre “sponsor des 5 premières minutes”.  


Présents au VMware San Francisco, vous pouvez souscrire à leur “Virtual Pass” pour accéder à leurs conférences et leurs démos #vmware2015… comme si vous y étiez!


Qui dit Simplivity, dit hyperconvergence. Découvrez-en un peu plus ici et bien entendu lors des échanges aux Rencontres des virtualisations et du cloud le 8 octobre prochain. JE M’INSCRIS !



L’hyper-convergence, consolidation au niveau du datacenter

Le mouvement de convergence entre les couches réseau, stockage et calcul ne s’arrête désormais plus à l’échelle du rack.

Source: www.zdnet.fr

Découvrez le dossier complet sur l’Hyper-convergence  de ZDNet.

 

N’hésitez pas à poser vos questions à notre expert en la matière: Erik Ableson (@eableson)  qui avait écrit un article très intéressant sur le stockage scale:  https://www.ilki.fr/blog/stockage-scale-ou-la-capacite-de-tout-changer/

Stockage Scale ou la capacité de tout changer par Erik Ableson

Erik Ableson, a adapté ici au français son article original publié en Août 2014 (et toujours d’actualité) dans son blog Infrageeks

 

Dans le marché des solutions logiciel, des solutions comme Datacore et Nexenta sont très utiles (j’ai utilisé et déployé les deux), et je les recommande pour les consommateurs qui auraient besoin de leurs fonctionnalités uniques, mais ils partagent une limite fondamentale car ils sont basés sur un modèle d’architecture de scale up traditionnel. Le résultat est que ça demande un petit peu d’entretien pour la maintenance, la migration et l’évolution de l’environnement. Ajoutant et enlevant le stockage sous-jacent reste une tâche relativement manuelle et les serveurs qui jouent le rôle de contrôleur restent des goulets d’étranglement potentiel. Cela devient de plus en plus un problème avec l’arrivée du flash haute performance, surtout quand elle est installée directement sur le bus PCIe. Le hic est que vous pouvez vous retrouver dans des situations où une seule carte PCI flash peut générer assez d’IO pour saturer un uplink de 10GbE et un processeur physique, ce qui signifie que vous avez besoin serveurs toujours plus grandes et de la puissance de calcul de plus en plus importants.

La solution idéale est alors de relier le réseau, le processeur et le stockage nécessaire dans les unités individuelles qui répandent la charge sur l’ensemble des ces noeuds à la place de faire tout transiter à travers un point central. On voit un nombre solutions scale-out arriver sur le marché en ce moment qui ont éliminé beaucoup de problèmes techniques qui envenimaient les tentatives précédents de stockage scale-out. Le second problème avec le scale-out est que cela change la façon d’acquérir un stockage dans le temps. La notion de gérer les achats dans le temps est un facteur clé qui reste omise dans la plupart des analyses de ROI et TCO puisque la plupart des entreprises qui évaluent les nouveaux systèmes de stockage le font dans le contexte de leurs acquisitions courantes et avec leur méthodologie traditionnelle. Elles ont un système vieillissant qui a besoin d’être remplacé, elles évaluent alors la solution dans sa totalité comme un remplacement sans vraiment comprendre les implications à long terme d’un nouveau système de scale out.

Alors, pourquoi cette approche est elle différente? Deux facteurs clé entrent en jeu: vous achetez des noeuds de capacité et de performance approprié quand vous en avez besoin; la défaillance et l’arrivé en fin de vie de ces noeuds sont perçus identiquement par le logiciel.

Le progrès technologique fait en sorte qu’en décalant un achat, vous obtiendrez un meilleur ratio prix/capacité et prix/performance que vous avez aujourd’hui. Traditionnellement, beaucoup de systèmes de stockage sont achetés avec assez de capacité supplémentaire pour absorber les prévisions sur les 3 prochaines années, ce qui signifie que vous achetez le stockage de demain au prix d’aujourd’hui. Cela nous donne les modèles d’acquisition suivants:

Scale up purchase cycle

Scale up purchase cycle

 

 

Ceci est un modèle simplifié basé sur le coût/Go du stockage mais qui s’applique à tous les axes impliqués dans les décisions d’achat de stockage comme IOPS, densité en rack, consommation électrique, connexions sur le réseau de stockage etc. Il faut également garder en tête que vous pouvez finir avec des noeuds qui coûtent toujours x €, mais qui ont 50% de capacité en plus dans le même espace physique. Un avantage d’un stockage scale out bien conçu rend possible l’hétérogénéité des noeuds où le logiciel gère le placement optimal et la distribution automatiquement. Pour des données “froides”, on peut acheter des disques de 3To en dessous de la barre des 100€, mais des disques de 6To sont maintenant disponibles au grand public. Si vous remplissiez aujourd’hui votre rack avec 3Tb, vous auriez besoin du double de l’espace en rack et consumeriez deux fois plus d’électricité que si vous pouviez repousser l’achat jusqu’à ce que le prix des disques 6To diminue. Pour les SSDs, Moore’s Law fonctionne très bien, et nous observons des la diminution des gravures augmenter la densité de stockage et la performance sur un cycle régulier.

Cela peut poser un problème dans certaines organisations qui ont optimisé leurs processus d’investissement informatique autour des achats monolithiques avec obligation de faire des RFP, ce impose une charge bien lourde qu’on préfère éviter Pourtant, ce sont souvent les mêmes sociétés qui tentent d’outsourcé tout vers le cloud afin de transformer ces coûts en OpEx. Mais une solution de stockage scale-out vie entre ces deux approches. L’envie de passer vers le cloud peut être tentant, mais une migration en masse peut s’avérer nettement plus cher même en incluant les coûts d’administration interne. N’oubliez pas que les fournisseurs cloud utilisent exactement les mêmes disques et SSD et ils ont leur propre administration interne, plus la nécessité de faire une marge.

Et vers un cycle amélioré.

L’autre composant critique des solutions de stockage scale-out est que la défaillance et la retraite sont perçus comme des situations identiques pour la résilience et disponibilité des données (bien qu’ils soient différents d’une perspective de management). Des systèmes de scale-out bien conçus comme Coho Data, ScaleIO, VSAN, Nutanix et autre garantissent la disponibilité d’un bloc en distribuant des copies de blocs sur l’ensemble des noeuds. Au plus simple niveau, une politique est appliquée à chaque bloc, où les objets doivent avoir au moins deux copies dans deux domaines d’échec séparés, ce qui veut dire en général un noeud ou un serveur. Vous pouvez également être paranoïaques avec certain produits et demander des copies supplémentaires.

Mais revenons au problème du la gestion du fin de vie. Les systèmes de stockage monolithiques ont de toute façon besoin d’être remplacés au moins tous les 5 ans, puisque sinon vos coûts de support vont monter en flèche. C’est compréhensible puisque le vendeur doit garder ses entrepôts pleins de d’équipements obsolètes pour remplacer vos composants qui vieillissant. Et vous allez être confrontés au travail de déplacement de vos données sur un nouveau système de stockage. Une fois acquis, les choses comme le Storage vMotion rendent cette activité bien moins pénible que ça l’était avant, mais cela reste quand même une tâche importante et d’autres problèmes ont tendance à s’ajouter, par exemple : avez vous de l’espace dans votre datacenter pour deux énormes systèmes de stockage durant le déplacement? Assez d’énergie? Est ce que les sols sont construits pour supporter autant de poids? Y a t’il assez de ports sur le réseau de stockage?

La solution est ici que, dans le cas d’un échec d’un noeud dans un système de scale out, c’est perçu et traité comme une violation de la politique de redondance. Donc, toutes les noeuds restantes vont redistribuer et équilibrer des copies des données pour assurer que la politique des deux ou trois copies soit respectée sans intervention administrative. Quand un noeud arrive au terme de sa vie “maintainable”, elle est juste signalée pour le retirement, débranchée, déracké et recyclée, et le service de stockage en général continue de fonctionner. C’est un bel avantage deux en un, qui viens comme une fonction innée de l’architecture. Pour simplifier encore plus les choses, vous êtes face à un serveur composé de noeuds de taille raisonnable qui correspond aux serveurs de racks standards, et non des assemblages monolithique comprenant des racks entiers.

En illustration, ça donne:

Storage retirement cycle

Storage retirement Cycle

Une fois de plus, c’est un modèle assez simpliste, mais avec un développement constant de la densité du stockage et de ses performances, l’évolution suit les besoin du business. S’il y a une nouvelle demande inattendue, quelques noeuds supplémentaires peuvent être injectés dans le processus. Si la demande stagne, alors vous êtes seulement inquiets à propos des noeuds qui arrivent en fin de vie et doivent être remplacés. Cela commence beaucoup plus à ressembler à de l’OpEx qu’à du CapEx.

Cette approche veille également à ce que les bricks que vous achetez utilisent des composants qui sont taillés ensemble correctement. Si vous achetez des SSD de haute performance et capacité, vous voulez être sûrs que vous les achetez avec les processeurs courants capables de supporter la charge et que vous pouvez gérer la transition de GbE à 10GbE, 40GbE par petits pas.

Retour à la question du logiciel. Pour le moment, je pense que CohoData et Scale IO sont deux des meilleurs produits de stockage scale out (plus sur l’hyperconvergence plus tard), mais ils arrivent tous les deux à ce point par différents modèles de business. EMC ScaleIO est étrangement un solution purement logiciel depuis le géant du matériel, alors que Coho Data est le logiciel attaché à une solution uniquement disponible en appliance matériel venant de l’équipe qui a construit l’hyperviseur Xen. Andy Warfield, le directeur technique de CohoData, a statué dans beaucoup d’interviews que le plan original était de vendre une solution logiciel mais ils ont eu du mal à le vendre aux équipes de stockage des entreprises qui préfèrent une solution packagée.

J’aime l’elegance de l’approche de Coho Data avec quasiment zero configuration, mais espère que je ne serais pas obligé de racheter le logiciel à nouveau quand je remplacerai une unité quand elle atteindra sa fin de vie. Cela pourrait être réglé par un programme d’échange éventuellement.

De l’autre côté, j’aime également la granularité de contrôle et l’aspect BYOHW de ScaleIO, mais je déplore le manque de simplicité plug et play et l’auto-tiering de Coho Data. Mais cela viendra avec la maturité du produit. Il est temps de commencer à penser autrement au stockage et de réexaminer les questions fondamentales de comment on achète et gère le stockage.