Mobile Workspaces Go Where You Go

Mobility is more than a product, a tool, or an individual piece of technology – it is a ubiquitous work style that transcends legacy IT by delivering apps, des…

Source: fr.slideshare.net

Ilki s’implante en Côte d’Ivoire

Ilki Your Cloud Designer Conseil - Architecture -Formation

ILKI Conseil – Architecture -Formation

Ilki s’est créée avec, dès le départ, une volonté de présence à l’international. Cette stratégie consiste à être présent dans plusieurs pays à travers le monde pour mieux répondre aux besoins de nos clients ETI afin de les soutenir localement mais aussi de participer au développement économique des pays émergents.

Nous pensons que le Cloud Computing est un réel élément de développement économique pour les entreprises. La mise à disposition de ressources à la demande est idéale pour garantir l’évolution des sociétés des pays émergents que ce soit au niveau d’une application standard, SaaS, ou d’une infrastructure complète, IaaS. Une analogie consiste à comparer le développement de la téléphonie mobile par rapport à la téléphonie fixe dans les pays émergents. Ces pays ont directement sauté le pas vers la téléphonie mobile sans moderniser leurs infrastructures de téléphonie fixe tout simplement parce que cela n’avait pas de sens d’un point de vue économique ou technique. Nous sommes persuadés que ce saut sera également réalisé par les entreprises concernant leur informatique. Le Cloud Computing permet, par le principe de paiement à l’usage et de mise à l’échelle automatique, de soutenir l’évolution des entreprises en fonction de leur rythme de croissance.

Le Plateau, Abidjan, Côte d'Ivoire

Le Plateau, Abidjan, Côte d’Ivoire

Ilki se positionne comme un acteur majeur dans le domaine du conseil, de l’architecture et de la formation sur les technologies Cloud et souhaite apporter ses compétences localement en Côte d’Ivoire en ouvrant une filiale en juin 2015 et en initiant un recrutement progressif de profils locaux. Le pays est en pleine croissance et nous souhaitons participer à cette croissance et faire bénéficier de notre expérience les entreprises ivoiriennes et internationales présentes en Côte d’Ivoire. Son offre de services détaillée vous sera présentée prochainement.

, ,

TECHDAYS (II) Introduction à DevOps

Nous continuons aujourd’hui avec Introduction à DevOps notre série d’articles avec nos retours des sessions TECHDAYS. Aussi, nous expérimenterons des nouveaux outils découverts lors des présentations et nous ne manquerons pas de vous faire part de nos commentaires et de nos recommandations.

Etienne Margraff, Developper (Microsoft)

Stanislas Quastana (Microsoft)

Dans certaines entreprises, l’informatique est divisé depuis toujours en deux univers : les personnes qui créent (Dev) et celles qui exploitent en production (Ops).

Cette séparation peut générer stress et frustration. Les équipes n’ont pas l’impression d’aller dans le même sens et cela nuit à la productivité. Pour les réconcilier, un ensemble de pratiques et d’outils ont été imaginées: elles se cachent derrière le terme DevOps.

Qu’est-ce que c’est exactement ? Quels problèmes cela résout-il? Comment le mettre en place? Nous vous proposons de découvrir la vision présentée lors de cette session d’introduction.

DevOps est la contraction des termes anglais « development » et « operations IT ». Pour schématiser, DevOps c’est unir deux forces en une seule.

Vous sentez la question venir : comment faire pour que deux corps de métier ne deviennent plus qu’un alors que tous les sépare : le vocabulaire, les technologies, le niveau de couche de travail, les responsabilités, mais aussi les méthodes de travail…

En effet, les développeurs parleront de SCRUM, KANBAN, WATERFALL alors que les personnes de la production/exploitation parleront d’ITIL, MOF ou encore AGILE. Malgré toutes ces différence, ces geek à chemise et à t-shirt se doivent de trouver un terrain d’entente pour, ensemble, accomplir leur tâche commune, celle de fournir le meilleur service aux utilisateurs : IT as a service !
Concrètement, DevOps c’est quoi?

Inventé par Patrick Debois en 2009 pendant le déroulement des premiers devopsdays, ce mouvement vise à réduire la friction organisationnelle entre les développeurs et les personnes plus opérationnelles. C’est unir la création et la production, les développeurs (ces geeks à tee-shirt) et les administrateurs (ces geeks en chemises).

L’approche DevOps consiste donc à prôner une meilleure communication entre les équipes de développement et d’exploitation afin d’améliorer la conduite de projet.

DevOps, pour qui ?

Cette approche aura donc pour cible les organisations où développeurs et les personnes de l’exploitation qui seront amenés à échanger. DevOps est plutôt conseillé pour les petites entreprises ou encore les startups. En effet, plus la structure est petite, moins il y aura de silos de compétences prédéfinis, donc la communication et la mise en place de cette approche apparaitra plus simple.

Néanmoins, de grandes organisations comme Facebook ou encore Amazon y adhérent, encore faut-il bien s’y prendre !

Au niveau applicatifs et services, cette approche est parfaite pour tout ce qui est application web et jeux par exemple. Elle le sera un peu moins pour des applications de type client/serveur. Toutefois en utilisant des outils facilitant le déploiement, elle reste envisageable.

 

DevOps, quels bénéfices ?

La vision pré-DevOps était « Vite vite on met en production ! ». Mais attention, il ne faut pas confondre vitesse et précipitation, la production c’est du sérieux !

De plus, lorsqu’un problème survenait lors d’un projet, une guéguerre commençait entre les différents acteurs pour déterminer à qui reviendrait la faute. En effet, les développeurs produisent du code à partir d’un cahier des charges précis et se préoccupent peu de l’impact que peut avoir leur code sur la production. En parallèle, les services de production sont quant à eux obnubilés par la stabilité de l’infrastructure donc ralentissent les mises en production et blâment le code du développeur si le résultat n’est pas satisfaisant pour les utilisateurs.

La vision DevOps tente de palier à ce problème en favorisant une répartition des responsabilités et l’implication de l’ensemble des acteurs de la chaine. Le développeur devient ainsi testeur de son code.

Les intérêts d’adoption d’une démarche DevOps peuvent être multiples :

  • Réduire le cycle et le coût de mise en production,
  • Avoir une approche plus fragmentée (petites évolutions),
  • Faire que les mises à jour deviennent transparentes,
  • Mise en commun des responsabilités (tout le monde dans le même bateau!)
  • Une amélioration continue du produit,
  • Répondre plus rapidement aux besoins des clients.

Tous ces points permettent à une entreprise d’être plus compétitive, et donc servir le business de l’entreprise avant tout. En effet, tant que le service/logiciel n’est pas sur le marché, il n’apporte aucune valeur au fournisseur/éditeur.

Pour bénéficier de tous ces avantages, les feedbacks internes sont essentiels. En effet, la boite à idées est un concept vieux de 100 ans mais néanmoins il reste très efficace. De plus, avec tous les outils modernes que nous possédons (Forum privé, Yammer, newsgroup, …) ce concept ne peut qu’être encore mieux.

Ci-dessous on retrouve un schéma décrivant une méthode de travail typiquement DevOps :

Si vous souhaitez mettre en place cette approche au sein de votre entreprise, commencez par faire un état des lieux. Effectivement, la première étape de l’amélioration est de prendre conscience de là où on en est !

De plus, il faut commencer sur un périmètre réduit, surtout si vous faites partie d’une grande organisation.

Quels outils pour DevOps ?

Souvent DevOps est perçu comme du « déploiement continu » dans l’esprit des gens. Mais les outils ne sont pas que pour le déploiement et plusieurs sont à votre disposition pour commencer votre « révolution ». Ils peuvent être regroupés en 6 grands groupes :

  • Outils de déploiement (VS Realase Management, Teamcity, …)
  • Outils de configuration (Visual Studio Online, Jenkins, Teamcity, …)
  • Outils d’organisation (…)
  • Outils de surveillance (SC Operation Manager, Azure Operational Insight, …)
  • Outils de feedback (Uservoice.com, Getsatisfaction.com, …)
  • Outils d’automatisation des tests (Visual Studio Premium, QTP, TestComplete, …)

En résumé, ce mouvement DevOps est encore à son démarrage mais il gagne de plus en plus de terrain et menace du doigt des corps de métiers (ex : administrateur réseau) qui se voient petit à petit disparaitre.

Cette vidéo de Rackspace résume bien ce qu’est DevOps et quels bénéfices cette approche apporte aux entreprises.

Pour en savoir davantage sur le mouvement DevOps, suivez nos actualités sur le blog Ilki ou demandez à l’un de nos experts.

« Start small, think big »

Maxime PIEDELEU, Consultant ILKI – DevOps

@mpiedeleu

Lire l’article “TECHDAYS (I) Openstack & Windows” ou comment concevoir un Cloud privé avec des composants Windows 

 

 

 

, ,

TECHDAYS (I) Openstack & Windows

Comment Windows s’intègre dans OpenStack ? Pourquoi et comment Hyper-V peut être utilisé dans un cloud OpenStack ? Quelles sont les options d’interopérabilité pour les clouds en mode hybride ? Voici quelques-unes des questions que nous aborderons dans cette session !

 

Intervenants :  

Alessandro Pilotti : CEO of Cloudbase Solutions

Arnaud Lheureux : Architecte infrastructure et cloud chez Microsoft


Cette session a commencé par une question posée par les intervenants : « Combien de personnes présentes dans cette salle ont déployé une solution Openstack facilement et sans problèmes ? ». Comme on peut s’en douter, quand on connait Openstack, seules une ou deux personnes ont levé la main.

Après avoir posé cette question très significative, les présentateurs ont enchaîné sur une rapide présentation et introduction sur Openstack.

Pour rappel, Openstack est un ensemble de logiciels open source permettant le déploiement de solutions IaaS, dans le but de gérer des clouds privés et publicsOpenstack a été développé par la NASA et Rackspace et possède aujourd’hui une énorme communauté qui ne cesse de grandir.
Différentes distributions d’OpenStack existent déjà: HP, REDHat, Mirantis et une nouvelle à la fin de cet article…

Ci-dessous un schéma rappelant l’architecture d’un cloud privé Openstack :

Architecture Cloud Privé Openstack

Architecture Cloud Privé Openstack

 

On dit souvent qu’une image vaut mieux qu’un long discours mais nous allons pas vous laisser sans une rapide description des composants Openstack et leur rôle :

  • Neutron fournit du « network as a service » entre les interfaces réseaux (vNICs) gérées par d’autres services Openstack comme Nova par exemple.
  • Nova : fournit la partie Compute d’Openstack. C’est évidemment le composant principal d’une infrastructure IaaS. Il pilote également les hyperviseurs.
  • Glance: gère les images et les metadatas des machines virtuelles
  • Swift/Cindergère le stockage des machines virtuelles. Swift est le projet basé sur le stockage objet et Cinder sur le stockage bloc.
  • Horizon : c’est le portail de gestion. Ce composant fournit une interface Web permettant de gérer les services Openstack tels que Nova, Swift, Keystone, etc
  • Keystone: permet la gestion des Identités dans l’environnement Openstack.

 

Ci-dessous la même architecture basée sur les composants Windows :

Architecture Cloud privé Windows

Architecture Cloud privé Windows

Il nous a ensuite été présenté une rapide description des composants Openstack sur Windows.

  1. Hyper-V Nova Compute

La mise en place de ce composant est simple car elle se fait par le biais d’un installateur Windows (.msi) développé en Python.

Ce composant d’Hyper-V peut être installé sur différentes distributions :

  • Windows Server 2008 R2
  • Windows Server 2012
  • Windows Server 2012 R2
  • Standalone and free Hyper-V Server

Il supporte la plupart des fonctionnalités d’Hyper-V tel que :

  • Shared nothing live migration
  • SMBv3
  • Gen 2 VM
  • RemoteFX
  • Etc …

Comme nous l’a dit Arnaud Lheureux, le but de Microsoft est de devenir l’un des premiers hyperviseurs pour Openstack, même si il reste de la « route » à faire avant d’y arriver.

  • Neutron Modular Layer 2 plugin for Hyper-V

Evidemment, comme son nom l’indique, ce composant va permettre à l’hyperviseur de gérer les opérations réseau. La configuration et l’installation de celui-ci sont intégrées dans le driver d’Hyper-V Nova Compute.

Ce plugin permet le déploiement de différentes solutions de cloud privé. En effet, la technologie du « Native VLAN » est supportée mais aussi le déploiement d’Open vSwitch avec l’encapsulation VXLAN.

  • Open vSwitch on Hyper-V

Ce composant, est une implémentation open source d’un commutateur virtuel multicouche sous licence Apache licence open source 2.0. Il utilise les mêmes outils et démons que sur Windows (porté par ovs-vsctl and ovs-vswitchd). Il utilise notamment le protocole OVSDB et est compatible avec OpenDaylight.

  • Heat : Deployment Automation

Ce composant permet d’organiser les déploiements à partir d’une automatisation classique de Windows effectuée avec cloudbase-init.

Il existe plusieurs templates pour des workloads Windows telles que :

  • Puppet Agent
  • IIS
  • MS SQL Server 2012
  • Active Directory Domain Controller
  • Sharepoint 2013
  • Exchange 2013
  • Juju and MAAS with Windows

L’outil MAAS (Metal as a Service) pour le déploiement baremetal est disponible pour les hôtes Linux et Windows.

Le composant Juju, développé par Ubuntu, est disponible nativement sur les les plateformes Windows. Il est intéressant d’utiliser Juju dans le cas de déploiement de :

  • Hyper-V Openstack Compute
  • IIS
  • SQL Server
  • Active Directory
  • Lync 2013
  • Sharepoint 2013
  • Exchange 2013
  • Horizon Dashboard

Horizon est le portail de gestion d’Openstack. Il peut être déployé sur la plupart des distributions récentes de Windows et de Linux et il permet par exemple l’accès direct à la console Hyper-V. Il utilise la passerelle open source FreeRDP WebConnect pour accéder aux serveurs via le protocole RDP.

  • Cinder-Volume on Windows Server

Cinder peut être utilisé avec l’”ISCSI Target” intégrée aux Windows Server 2012 et Windows Storage Server 2012.

Cinder supporte également le stockage basé sur SMBv3 pour les hyperviseurs Hyper-V et KVM.

  • Keystone – Identity

Comme nous le savons, Active Directory est la solution d’annuaire la plus utilisée dans les entreprises de nos jours. Le but est donc d’intégrer Keystone à ces environnements, ce qui a été fait par le biais du protocole LDAP. Après cette intégration, les utilisateurs et rôles peuvent être définis dans l’AD ou avec Keystone. Il suffira de faire une mise à jour du schéma AD.

Nous pouvons donc en conclure qu’un Active Directory et Keystone peuvent être facilement intégrés ensemble.

CONCLUSION

Cette session nous aura permis de mieux comprendre quels étaient les composants d’une solution Openstack et comment ceux-ci peuvent s’intégrer. L’intégration d’Hyper-V avec Openstack, maintenue par Cloudbase and Microsoft, est apparue avec la version IceHouse du projet.

D’après les dires des deux intervenants, Hyper-V serait aujourd’hui l’un des hyperviseurs les plus testé avec Openstack. Même si cela semble difficile à croire, contenu de l’avance qu’ont les hyperviseurs VMware, KVM ou bien XenServer dans ce domaine, nous comprenons bien tous les avantages que pourraient apportés le déploiement d’Hyper-V dans une infrastructure Openstack.

Il existe des scripts pour Puppet disponibles à l’adresse suivante : https://github.com/openstack-hyper-v.

Les deux intervenants ont profités de la session pour annoncer l’arrivée d’un produit intéressant,  V-magine. Cet outil permettra de déployer plus facilement une infrastructure Openstack entière, incluant l’interopérabilité des composants Windows et Linux date de sortie : 10/02/2015. Pour plus d’informations, visiter le site : http://www.cloudbase.it/v-magine.

Plus de sessions en vidéo ICI

Adrien HUERRE, Consultant Cloud & Virtualisation – Stockage ILKI  

@AdrienHuerre

DevOps is not a Race

Most of what we read about or hear about in DevOps emphases speed. Continuous Deployment. Fast feedback. Fail fast, fail often. How many times do we have to hear about how many times Amazon or Facebook or Netflix or Etsy deploy changes every day or every hour or every minute?           …

Source: www.javacodegeeks.com

Speed is sexy… but DevOps is not a race!

Forget About PaaS. It’s About Enabling Applications by ActiveState

Over the last couple of years I have talked to numerous enterprise customers, analysts, industry pundits, and others interested in cloud technologies, and one thing is abundantly clear…Platform-as-a-Service (PaaS) seems to mean different things to different people. But the term PaaS is irrelevant–it’s just noise. What is relevant, and what is important, is what PaaS does: enable applications! That’s what enterprises care about.

Source: www.activestate.com

Le PaaS favorise

  • Une entreprise plus agile
  • l’innovation technologique
  • une infrastructure indépendante.

En résumé: le PaaS permet le développement d’applications et c’est en définitive ce qui préoccupe aux entreprises.

Vous voulez en savoir un peu plus sur le PaaS: qu’est-ce que c’est, quelles sont ses possibilités d’application? des exemples illustrés d’utilisation de Stackato et de Cloudfoundry et des cas de succès? Assistez à la première Rencontre autour du PaaS organisée par ILKI, avec le support d’Activestate (Paris)

Stockage Scale ou la capacité de tout changer par Erik Ableson

Erik Ableson, a adapté ici au français son article original publié en Août 2014 (et toujours d’actualité) dans son blog Infrageeks

 

Dans le marché des solutions logiciel, des solutions comme Datacore et Nexenta sont très utiles (j’ai utilisé et déployé les deux), et je les recommande pour les consommateurs qui auraient besoin de leurs fonctionnalités uniques, mais ils partagent une limite fondamentale car ils sont basés sur un modèle d’architecture de scale up traditionnel. Le résultat est que ça demande un petit peu d’entretien pour la maintenance, la migration et l’évolution de l’environnement. Ajoutant et enlevant le stockage sous-jacent reste une tâche relativement manuelle et les serveurs qui jouent le rôle de contrôleur restent des goulets d’étranglement potentiel. Cela devient de plus en plus un problème avec l’arrivée du flash haute performance, surtout quand elle est installée directement sur le bus PCIe. Le hic est que vous pouvez vous retrouver dans des situations où une seule carte PCI flash peut générer assez d’IO pour saturer un uplink de 10GbE et un processeur physique, ce qui signifie que vous avez besoin serveurs toujours plus grandes et de la puissance de calcul de plus en plus importants.

La solution idéale est alors de relier le réseau, le processeur et le stockage nécessaire dans les unités individuelles qui répandent la charge sur l’ensemble des ces noeuds à la place de faire tout transiter à travers un point central. On voit un nombre solutions scale-out arriver sur le marché en ce moment qui ont éliminé beaucoup de problèmes techniques qui envenimaient les tentatives précédents de stockage scale-out. Le second problème avec le scale-out est que cela change la façon d’acquérir un stockage dans le temps. La notion de gérer les achats dans le temps est un facteur clé qui reste omise dans la plupart des analyses de ROI et TCO puisque la plupart des entreprises qui évaluent les nouveaux systèmes de stockage le font dans le contexte de leurs acquisitions courantes et avec leur méthodologie traditionnelle. Elles ont un système vieillissant qui a besoin d’être remplacé, elles évaluent alors la solution dans sa totalité comme un remplacement sans vraiment comprendre les implications à long terme d’un nouveau système de scale out.

Alors, pourquoi cette approche est elle différente? Deux facteurs clé entrent en jeu: vous achetez des noeuds de capacité et de performance approprié quand vous en avez besoin; la défaillance et l’arrivé en fin de vie de ces noeuds sont perçus identiquement par le logiciel.

Le progrès technologique fait en sorte qu’en décalant un achat, vous obtiendrez un meilleur ratio prix/capacité et prix/performance que vous avez aujourd’hui. Traditionnellement, beaucoup de systèmes de stockage sont achetés avec assez de capacité supplémentaire pour absorber les prévisions sur les 3 prochaines années, ce qui signifie que vous achetez le stockage de demain au prix d’aujourd’hui. Cela nous donne les modèles d’acquisition suivants:

Scale up purchase cycle

Scale up purchase cycle

 

 

Ceci est un modèle simplifié basé sur le coût/Go du stockage mais qui s’applique à tous les axes impliqués dans les décisions d’achat de stockage comme IOPS, densité en rack, consommation électrique, connexions sur le réseau de stockage etc. Il faut également garder en tête que vous pouvez finir avec des noeuds qui coûtent toujours x €, mais qui ont 50% de capacité en plus dans le même espace physique. Un avantage d’un stockage scale out bien conçu rend possible l’hétérogénéité des noeuds où le logiciel gère le placement optimal et la distribution automatiquement. Pour des données “froides”, on peut acheter des disques de 3To en dessous de la barre des 100€, mais des disques de 6To sont maintenant disponibles au grand public. Si vous remplissiez aujourd’hui votre rack avec 3Tb, vous auriez besoin du double de l’espace en rack et consumeriez deux fois plus d’électricité que si vous pouviez repousser l’achat jusqu’à ce que le prix des disques 6To diminue. Pour les SSDs, Moore’s Law fonctionne très bien, et nous observons des la diminution des gravures augmenter la densité de stockage et la performance sur un cycle régulier.

Cela peut poser un problème dans certaines organisations qui ont optimisé leurs processus d’investissement informatique autour des achats monolithiques avec obligation de faire des RFP, ce impose une charge bien lourde qu’on préfère éviter Pourtant, ce sont souvent les mêmes sociétés qui tentent d’outsourcé tout vers le cloud afin de transformer ces coûts en OpEx. Mais une solution de stockage scale-out vie entre ces deux approches. L’envie de passer vers le cloud peut être tentant, mais une migration en masse peut s’avérer nettement plus cher même en incluant les coûts d’administration interne. N’oubliez pas que les fournisseurs cloud utilisent exactement les mêmes disques et SSD et ils ont leur propre administration interne, plus la nécessité de faire une marge.

Et vers un cycle amélioré.

L’autre composant critique des solutions de stockage scale-out est que la défaillance et la retraite sont perçus comme des situations identiques pour la résilience et disponibilité des données (bien qu’ils soient différents d’une perspective de management). Des systèmes de scale-out bien conçus comme Coho Data, ScaleIO, VSAN, Nutanix et autre garantissent la disponibilité d’un bloc en distribuant des copies de blocs sur l’ensemble des noeuds. Au plus simple niveau, une politique est appliquée à chaque bloc, où les objets doivent avoir au moins deux copies dans deux domaines d’échec séparés, ce qui veut dire en général un noeud ou un serveur. Vous pouvez également être paranoïaques avec certain produits et demander des copies supplémentaires.

Mais revenons au problème du la gestion du fin de vie. Les systèmes de stockage monolithiques ont de toute façon besoin d’être remplacés au moins tous les 5 ans, puisque sinon vos coûts de support vont monter en flèche. C’est compréhensible puisque le vendeur doit garder ses entrepôts pleins de d’équipements obsolètes pour remplacer vos composants qui vieillissant. Et vous allez être confrontés au travail de déplacement de vos données sur un nouveau système de stockage. Une fois acquis, les choses comme le Storage vMotion rendent cette activité bien moins pénible que ça l’était avant, mais cela reste quand même une tâche importante et d’autres problèmes ont tendance à s’ajouter, par exemple : avez vous de l’espace dans votre datacenter pour deux énormes systèmes de stockage durant le déplacement? Assez d’énergie? Est ce que les sols sont construits pour supporter autant de poids? Y a t’il assez de ports sur le réseau de stockage?

La solution est ici que, dans le cas d’un échec d’un noeud dans un système de scale out, c’est perçu et traité comme une violation de la politique de redondance. Donc, toutes les noeuds restantes vont redistribuer et équilibrer des copies des données pour assurer que la politique des deux ou trois copies soit respectée sans intervention administrative. Quand un noeud arrive au terme de sa vie “maintainable”, elle est juste signalée pour le retirement, débranchée, déracké et recyclée, et le service de stockage en général continue de fonctionner. C’est un bel avantage deux en un, qui viens comme une fonction innée de l’architecture. Pour simplifier encore plus les choses, vous êtes face à un serveur composé de noeuds de taille raisonnable qui correspond aux serveurs de racks standards, et non des assemblages monolithique comprenant des racks entiers.

En illustration, ça donne:

Storage retirement cycle

Storage retirement Cycle

Une fois de plus, c’est un modèle assez simpliste, mais avec un développement constant de la densité du stockage et de ses performances, l’évolution suit les besoin du business. S’il y a une nouvelle demande inattendue, quelques noeuds supplémentaires peuvent être injectés dans le processus. Si la demande stagne, alors vous êtes seulement inquiets à propos des noeuds qui arrivent en fin de vie et doivent être remplacés. Cela commence beaucoup plus à ressembler à de l’OpEx qu’à du CapEx.

Cette approche veille également à ce que les bricks que vous achetez utilisent des composants qui sont taillés ensemble correctement. Si vous achetez des SSD de haute performance et capacité, vous voulez être sûrs que vous les achetez avec les processeurs courants capables de supporter la charge et que vous pouvez gérer la transition de GbE à 10GbE, 40GbE par petits pas.

Retour à la question du logiciel. Pour le moment, je pense que CohoData et Scale IO sont deux des meilleurs produits de stockage scale out (plus sur l’hyperconvergence plus tard), mais ils arrivent tous les deux à ce point par différents modèles de business. EMC ScaleIO est étrangement un solution purement logiciel depuis le géant du matériel, alors que Coho Data est le logiciel attaché à une solution uniquement disponible en appliance matériel venant de l’équipe qui a construit l’hyperviseur Xen. Andy Warfield, le directeur technique de CohoData, a statué dans beaucoup d’interviews que le plan original était de vendre une solution logiciel mais ils ont eu du mal à le vendre aux équipes de stockage des entreprises qui préfèrent une solution packagée.

J’aime l’elegance de l’approche de Coho Data avec quasiment zero configuration, mais espère que je ne serais pas obligé de racheter le logiciel à nouveau quand je remplacerai une unité quand elle atteindra sa fin de vie. Cela pourrait être réglé par un programme d’échange éventuellement.

De l’autre côté, j’aime également la granularité de contrôle et l’aspect BYOHW de ScaleIO, mais je déplore le manque de simplicité plug et play et l’auto-tiering de Coho Data. Mais cela viendra avec la maturité du produit. Il est temps de commencer à penser autrement au stockage et de réexaminer les questions fondamentales de comment on achète et gère le stockage.

Real innovation is about solving problems, not having ideas

This essay is part of a series written by speakers featuring at our upcoming 10th anniversary TNW Conference on April 23 & 24 in Amsterdam. Discount tickets to the event are still available for purchase here.

Source: thenextweb.com

En effet, les idées qui ne découlent pas d’un besoin ne peuvent être considérées comme de l’innovation.