TECHDAYS (VI) Windows Server vNext: administration et réseau

Windows Server vNext, administration & réseau

 

Description de la session : Faire un rapide tour des nouveautés pour PowerShell puis se concentrer sur les aspects réseau.
Intervenants : Arnaud Lheureux — Stanislas Quastana – Pascal Sauliere

Comme vous le savez surement, la Technical Preview de la nouvelle version de Windows Server (vNext) a été dévoilée le 30 Septembre 2014. Les informations qui seront donc données dans cet article pourront être soumises à changement lors de la sortie de la version commerciale.

Deux sessions ont été dédiées à cette version Technical Preview, une concernant la virtualisation et le stockage et la deuxième sur l’administration et le réseau. Microsoft Windows Server vNext tire partit des innovations faites au niveau des fonctionnalités d’Azure pour les porter au sein d’un datacenter.

Nouveautés Hyper-V partie « compute » 

Un premier changement de cette nouvelle version est que, désormais, les mises à jour des “Integration Services” pour les hôtes Windows, seront distribuées par le biais de Windows Update.

La sortie de la nouvelle version de Windows Server introduit également un nouveau format de fichiers de configuration des VMs. Contrairement aux versions précédentes d’Hyper-V, qui utilisaient des fichiers de configuration au format XML, vNext utilisera le format VMCX qui est plus fiable et plus robuste.

Au niveau du fonctionnement des VMs, il est possible de faire des checkpoints (ex snapshots) grâce à la technologie VSS de Microsoft. On peut aussi créer des groupes de VM, créer des checkpoints sur ceux-ci et même les exporter. Une autre amélioration est l’ajout à chaud de RAM ou d’interface réseau aux VMs mais aussi l’ajout de disque VHDX à chaud via Hyper-V Replica. Des fonctionnalités d’export/import ont été amenées, ce qui rend l’export différentiel possible et le fait de préserver les ID de machines virtuelles lors de l’import. Pour les machines de type poste client, Hyper-V est désormais compatible avec la technologie Connected Stanby.

Pour rappel, la technologie Connected Standby est arrivée avec Windows 8 et permet une très basse consommation de la batterie tout en gardant la connexion internet active. Cette technologie apporte le modèle de consommation de la batterie des smartphones aux PC Windows.

La version vNext apporte un meilleur support du Secure Boot (protection de l’intégrité du code du noyau) pour les machines Linux x64 et pour les OS Ubuntu 14.04 et ultérieure, SUSE Linux Enterprise Server 12.

Des améliorations du gestionnaire Hyper-V ont été aussi effectuées. En effet, on peut désormais  se connecter aux hyperviseurs directement via une adresse IP ou bien via WinRM. Il est également possible de gérer depuis une même console des hyperviseurs sous Windows Server 2012, 2012R2 et Technical Preview de vNext.

 

Nouveautés pour le stockage :

Trois nouvelles technologies ont fait leur apparition avec la sortie de vNext :

  • La QoS pour le stockage, activée par défaut sur les clusters SOFS (Scale-Out File Servers)
  • Storage Spaces Shared Nothing qui permet de créer un cluster SOFS sans stockage partagé, en utilisant des disques locaux des nœuds
  • Storage Replica, qui permet la mise en place de réplication synchrone ou asynchrone de volumes grâce à une évolution du protocole SMBv3. La configuration et l’administration se fait via PowerShell (module WVR). Cette solution peut s’avérer utile pour les PRA et PCA sachant en plus que celle-ci est agnostique vis-à-vis du matériel (DAS ou SAN).

Nouveautés pour les clusters :

Il est maintenant possible de faire des mises à jour progressives des serveurs avec la technologie Rolling Hyper-V Cluster Upgrade. Il est donc possible de migrer un Windows 2012 R2 vers un vNext et inversement.

Un nouveau type de quorum Cluster Failover est introduit avec la Technical Preview, Cloud WitnessCette technologie permet d’utiliser le cloud en guise de quorum plutôt que de mettre en place un “file share witness” redondant, plus onéreux.

Nouveautés pour l’administration :

Un des buts de cette session était de présenter les différentes  nouveautés pour Powershell ajoutées lors de la dernière version de Windows. En effet, plus les versions apparaissent, plus Microsoft pousse vers l’utilisation de Powershell, en l’améliorant.

Ci-dessous un rapide résumé des principales nouveautés Powershell :
– Améliorations majeures pour DSC, admin et développement
– Galerie PowerShell et extensions Azure pour DSC
– Réponses aux principales demandes des clients
– Dernières fonctionnalité PowerShell livrées tous les 2 mois
– Recueillir du feedback avant la version finale
– Fonctionne sur les versions précédentes : facile à installer et à tester
– DSC RK : livraison mensuelle de ressources fournies par Microsoft
– TechNet ScriptCenter
– Galerie – PowerShell dépôt supporté par Microsoft
– Basé sur NuGet, connecté à Visual Studio
– Nouveau contenu en permanence, Microsoft et non-Microsoft

– Console : conhost.exe, plus grosse mise à jour depuis les débuts de Windows
– PSedit : Edition de fichiers à distance (pratique pour les serveurs en mode Server Core)
– PowerShell ISE : Debug distant, Break All, start-transcript…
– ConvertFrom-String : Convertit du texte en une liste d’objets sans la complexité des
expressions régulières en « apprenant » au système la forme des données
– OneGet : Nouvelle manière de découvrir des packages logiciels
– PowerShellGet : Découverte et installation de modules PowerShell

Nouveautés pour le réseau :

Nous arrivons maintenant à parler de la partie qui nous intéresse le plus, la partie réseau !

Le sujet principal est bien sur le SDN/NFV, autrement dit la programmation et la virtualisation de fonctionnalités réseau, qui est une des bases pour l’intégration d’infrastructure de cloud hybride. Software-Defined Networking est LA tendance réseau du moment,

>> ILKI publiera d’ailleurs prochainement un blogpost  autour du SDN >> KEEP TUNED !

Voyons ce que vNext propose :

Nous retrouvons ainsi un SDN classique avec les notions de SDN, NC et de NFV (Network Function Virtualization), les acronymes ne sont pas encore officiels

Note : vNext n’est pas encore sortie officiellement

Qu’est-ce que le Network Controller (NC)

C’est le point d’automatisation pour configurer, superviser et dépanner différents point du datacenter : réseaux virtuels, réseaux physiques, services réseaux, topologie de réseaux, gestion des IP.

Qu’est-ce que le Network Function Virtualization

Il regroupe les fonctions de réseau virtualisé : Load-balancer, routeur et switch virtuels, firewall agent…

Entrons un petit peu plus dans les détails et voyons comment certains composants se comportent

 

  • Sofware Load Balancer :

Comme son nom l’indique, c’est un répartiteur de trafic logiciel (niveau 4) développé pour Azure. Ce répartiteur peut être dédié ou mutualisé entre les différents locataires. Il permet la gestion des réseaux virtualisés ou physiques et l’administration centralisée avec le rôle de Network Controller, éventuellement intégré avec l’interface graphique de SC VMM. Toutes les interfaces supporte des débits jusqu’à 10Gbps.

 

  • Pare-feu distribué :

L’application est située sur le port du vSwitch de la VM et offre une protection distribuée des réseaux virtualisés. Ce pare-feu peut protéger à la fois le trafic entrant et sortant par le biais de règles définies à l’aide du Network Controller qui distribue les différentes stratégies.

 

Les performances au service du cloud !

Microsoft a effectué quelques améliorations pour améliorer les performances dans le cadre d’une infrastructure de type cloud.

Nous avons résumé, ci-dessous, les grandes améliorations intéressantes apportées aux serveurs vNext :

  • Support de l’offload matériel utilisant le protocole d’encapsulation VXLAN
  • Support du teaming avec des cartes convergées de type RDMA+Ethernet. Pour cela, une priorisation avec Datacenter Bridging est effectuée.
  • Support des cartes réseau 40 et 100GBps
  • Elimination du goulot d’étranglement existant sur la partition parent lorsqu’une carte NIC était partagée entre plusieurs machines virtuelles
  • Amélioration au niveau du support des interfaces Linux. Notamment la prise en compte de débits allant jusqu’à 10Gbps
  • Intégration du nouveau modèle IO se nommant PacketDirect, extension de NDIS.

Au niveau DHCP, Microsoft a décidé de retirer le support de Network Access Protection.

Concernant le client DNS, Microsoft a décidé de mettre en place un support avancé pour les clients ayant plusieurs interfaces réseau. Côté serveur DNS, des statistiques avancées ainsi que des stratégies permettant de personnaliser les réponses DNS en fonction du contexte (adresse IP, géographie, heure, etc…) ont été intégrées.

 

En résumé, comme nous avons pu le remarquer, Microsoft a effectué des modifications orienté « cloud » et favorise de plus en plus l’utilisation de Powershell pour administrer les serveurs et s’oriente donc également vers une démarche DevOps.

Certes, de grands efforts ont été faits de la part de Microsoft mais tout cela devra être bien sur testé et analysé à la sortie de la version finale.

Si vous souhaitez effectuer vos premiers tests, sachez que vous pouvez déjà télécharger la version Technical Preview sur le site de Microsoft ou tout simplement démarrer une instance sur Microsoft Azure.

 >> Voir la présentation sur Slideshare

 

TECHDAYS(V) StorSimple v2: Bonnes pratiques et interconnexion dans le Cloud

 

Intervenants : Philippe Berthot (Microsoft) & Sébastien Crespin (Microsoft)

Quels sont les challenges du stockage ?

Comme vous le savez de plus en plus de données sont produites tous les jours. En effet, selon une étude menée par le Gartner, d’ici 2020, nous devrions connaitre une explosion de plus de 35 Zo et donc atteindre les limites des infrastructures « classiques » bien avant. Cette croissance des volumes de données ne va pas simplifier la gestion de celles-ci et il sera encore plus difficile de les sauvegarder et restaurer.

De nos jours, une infrastructure de stockage est souvent composée de différent type/niveau de stockage permettant la protection des données (stockage primaire, archive, sauvegarde sur disques, bandes, réplication et PRA). Ainsi le stockage est souvent (et sera) synonyme de complexité et de coûts, sachant que le budget alloué au stockage évolue en général très peu (de 1 à 4% par an).

A partir de ces constats, vient la réflexion d’une plateforme qui permettrait de profiter des avantages du cloud et donc de faire des économies matérielles. Effectivement, la mise en place d’un stockage cloud hybride peut être utile pour étendre du stockage SAN, stocker des snapshots ou même reconstruire des données directement depuis le cloud.

La solution Microsoft …

Etudions l’offre que propose Microsoft : StorSimple. StorSimple permet de consolider les données dans Azure. Cette solution présente divers bénéfices, comme :

  • Déduplication : Technologie visant à identifier et éliminer les « doublon » de données pour rendre le stockage de la donnée plus efficient.
  • Compression : Améliore les capacités et la performance en lecture/écriture
  • Chiffrement AES256 : Sécurise les données les plus sensibles par le biais de validation NIST/ CSEC
  • Snapshot : Création d’images cohérentes et consistantes
  • Auto Tiering : Tiering (déplacement des données) automatique basé sur l’algorithme BLockRank
  • Interface de gestion : Management web intuitif via le portail  Azure, qui est dynamique & user-friendly

Après avoir vu les avantages de StorSimple, découvrons une architecture typique :

 Cas d’étude : Veeam, StorSimple and Microsoft Azure

Les solutions StorSimple et Veeam peuvent être utilisées pour, simplement et efficacement, protéger vos données et les archiver dans le cloud Azure. En effet, les méthodes traditionnelles ne sont pas réellement optimisées pour les environnements virtuels.

Dans cette architecture, alors que Veeam utilise son méchanisme (agentless image level backup) pour protéger les machines virtuelles, StorSimple fournit sa technologie de tiering pour déplacer les données entre les disques SSD/SAS et Microsoft Azure en fonction des besoins.

Dans ce cas-là, la solution Veeam est installée sur l’hyperviseur Hyper-V. Cette solution se déploie en trois composants qui ont des prérequis CPU et RAM.

  • Backup Server :4Go RAM minimum  /  2 vCPU
  • Off-Host proxy : 2Go RAM minimum  /  2 vCPU
  • Repository : 4Go RAM minimum  /  2 vCPU

Téléchargez le screencast ICI.

,

TECHDAYS (IV) Implémenter son Cloud privé pour héberger des machines virtuelles

 Présenté par — Romain Serre (SOGETI)

Qu’est-ce qu’un Cloud privé ?

Un cloud privé est le fait de mettre à disposition des ressources (CPU, RAM, stockage etc.) à des locataires. Un aspect intéressant du cloud, qu’il soit privé ou public, est la facturation est à l’utilisation (« Pay-as-you-Go »), qui vous permet de réaliser des économies. Comme un cloud public, un cloud privé se doit d’être multi-locataire mais accessible qu’à un nombre de locataires restreints.
Ce type de cloud hérite d’avantages similaires au cloud public, comme le self-service, le provisioning qui se fait à la demande  ou encore le déploiement qui est quasiment instantané. De plus, il y a dans le cloud privé un aspect de la sécurité qui est très important pour une entreprise, le respect de la confidentialité de l’information et un respect de la gouvernance de l’entreprise.
Le cloud privé propose des services tel que :
– IaaS (Infrastructure-as-a-Service)
– PaaS (Platform-as-a-Service)
– DBaaS (DataBase-as-a-Service) : MySQL and SQL Server

Pourquoi implémenter un cloud privé ?

En effet, on pourrait se demander pourquoi mettre en œuvre une telle architecture alors que le cloud public offre les mêmes services. Cependant, quelques entreprises refuse de migrer l’ensemble de leur informatique dans un cloud public pour des raisons de sécurité ou alors tout simplement car ils veulent garder la main dessus une maitrise totale. Ces entreprises préfèrent donc garder leur informatique dans leur Datacenter. Dans le même temps, elles peuvent quand même vouloir mettre à disposition des services de type cloud à leurs employés, comme par exemple la création de machines virtuelles. C’est dans ce genre cas qu’est introduite la notion de cloud privé.

Implémenter un cloud privé Microsoft

Pour cela, il est nécessaire d’utiliser Windows Server 2012 R2, System Center et Windows Azure Pack. Microsoft Azure et Windows Azure Pack sont basés sur les mêmes technologies et possède qu’une seule interface utilisateur, ce qui fournit qu’une seule plateforme consistante (Cloud OS).

Ci-dessous un schéma en couches représentant l’implémentation d’un cloud privé visant à fournir seulement des machines ou des réseaux virtuels.

 

implmenter-son-cloud-priv-pour-hberger-ses-machines-virtuelles-15-638

 

Windows Azure Pack permet de fournir à vos clients un portail en libre-service et de provisionner à la demande.

Note : A savoir que l’utilisation des services tels que SMA, ADFS et RD Gateways est fortement recommandé par Microsoft.

TECHDAYS (III) Bâtir un Cloud hybride en mode IaaS ou SaaS

 

Comment bâtir un cloud hybride en mode IaaS ou SaaS et apporter le meilleur des deux mondes, cloud privé et cloud public, à vos utilisateurs tout en réduisant vos coûts opérationnels.

 

François BOTTON , Chef de produit stockage chez Hitachi

 

Aujourd’hui, les Datacenters se transforment pour répondre à de nouveaux besoins avec toujours plus d’agilité et de performance mais en parallèle, les DSI réfléchissent à l’optimisation et la réduction des coûts. Hitachi Data Systems propose de nouvelles solutions en mode Cloud Hybride capable de répondre à ces challenges. A travers les solutions de convergences Hitachi Unified Compute Platform pour Microsoft Private Cloud, Il est possible de bâtir un cloud hybride IaaS en s’appuyant sur la gestion logiciel de votre Datacenter (SDDC) et les packs d’intégration pour Microsoft Azure. Dans un second temps grâce à leurs solutions, il est possible d’intégrer un service de mobilité et de synchronisation aux utilisateurs Windows en mode cloud privé, tout en utilisant Azure pour l’archivage de vos données. Ainsi, il est possible de réduire les coûts opérationnels.

 

De nos jours, l’un des plus gros défis des équipes IT est de gérer la croissance exponentielle et non structurée des données. Effectivement, la croissance continue des emails, documents, vidéos, pages web, etc… augmente considérablement les risques et la complexité de gestion des données.

Ces défis peuvent être relevés grâce à la solution intégrée Hitachi Content Platform. Cette session avait pour but de présenter cette plateforme permettant de mettre en place un cloud hybride. Comme vous le savez, bâtir un cloud hybride consiste à intégrer votre cloud privé avec un ou plusieurs clouds publics, en tirant le meilleur de ces deux mondes.

De là, une première question peut se poser.

Mais pourquoi bâtir son propre cloud ?

Bâtir son propre cloud permet d’éliminer les silos existant au sein d’une infrastructure et de consolider la partie stockage. Mais cela permet également d’avoir la même flexibilité que dans un cloud public, c’est-à-dire de pouvoir augmenter la capacité à la demande. Le fait que toute l’infrastructure repose sur une plateforme unique permet la maîtrise des coûts matériels mais également simplifie la gestion. De fait, il sera beaucoup plus simple de sécuriser, sauvegarder et d’automatiser toutes les opérations liées à l’IT. Ajoutez à cela les avantages liés au cloud public, et les coûts seront réellement réduits. En effet, si on met en place des stratégies de placement de données au sein d’une structure, en plaçant les archives dans un cloud public plutôt que d’acheter de nouveaux systèmes de sauvegarde, de grosses économies seront réalisées.

Maintenant que vous avez quelques avantages du cloud hybride en tête, parlons un peu plus en détails de la plateforme HCP (Hitachi Content Platform) et posons-nous cette question qui est :

Qu’est-ce que HCP ?

Les composants d’HCP travaillent « main dans la main » pour protéger, consolider, automatiser, archiver, stocker et offrir de la mobilité aux données tout en respectant les besoins des entreprises. C’est évidemment un stockage cloud, autrement dit une plateforme de stockage de type objet, qui peut être divisée en plusieurs serveurs de stockage virtuels, chacun configuré pour le niveau de service souhaité.

Les avantages d’une solution telle que HCP sont les suivants :

  • Un traitement des données et des capacités de recherches intelligentes et efficaces
  • Une récupération rapide des données avec moins de sauvegarde sur bande
  • Le support d’options pour les clouds privés, publics et hybrides
  • La mobilité des données entre différentes localisations, matériels ou bien services cloud
  • Réduction des coûts liés au stockage et technologie « d’Erasure Coding » (EC) pour la protection des données rarement utilisées mais qui doivent rester sur site.

La famille des logiciels HCP est déclinée en trois composants et communique comme le montre le schéma ci-dessous :

  • HCP : Cloud storage – Protecteur des données
  • Anywhere (AW) : Entreprise Data Mobility – Portail web
  • HDI : Cloud File Gateway

Pourquoi choisir HCP ?

Aujourd’hui, Hitachi est parmi les leaders du marché du stockage objet. Cependant, beaucoup d’autres grands acteurs sont également présents tels que EMC avec sa solution Atmos ou encore NetApp avec sa solution Bycast. Les trois solutions apportent des fonctionnalités similaires même si Hitachi et EMC semblent des solutions plus matures que NetApp.

De là, on peut se demander ce que la plateforme d’Hitachi apporte de plus que celle d’EMC.

Techniquement, les deux solutions sont vraiment similaire même si HCP aurait des outils et fonctionnalités avancés de gestion des metadatas qu’Atmos n’aurait pas. Une autre différence est que HCP utilise XML comme format de sérialisation pour les metadatas persistantes et les requêtes de type XPATH sur celles-ci. Cette utilisation permet au système de retourner des réponses précises aux requêtes des utilisateurs, plutôt que plusieurs correspondances possibles.

Les deux solutions intègrent des mécanisme de tiering et de placement automatique des données et tout en supportant aussi bien des applications traditionnelles que des applications de type SaaS. Pour autant, la plateforme HCP est compatible avec un plus grand nombre de solutions de stockage classique et même de type cloud.

Un dernier point qui pourrait faire pencher la balance pour Hitachi, est que leur plateforme est la seule des deux à supporter la synchronisation et partage de fichier.

 

Une solution intégrée permettant la mobilité des effectifs et un cloud hybride sécurisé

 

Comme la croissance des données continue à grimper en flèche, les organisations recherchent de plus en plus les meilleures façons de stocker et d’accéder au contenu. Les solutions de type HCP permettent de mieux gérer l’expansion des données tout en gardant la main sur celles-ci et d’y ajouter une « intelligence » aux objets.

 

N’oubliez pas le Microsoft Azure Camp du 28 Mai prochain ! Au programme: les nouveautés, des retours d’expérience et des scénarios DevOps Open Source pour mieux connaître le Cloud Microsoft.

 

Adrien Huerre – Consultant DevOps Ilki

@AdrienHuerre

, ,

TECHDAYS (II) Introduction à DevOps

Nous continuons aujourd’hui avec Introduction à DevOps notre série d’articles avec nos retours des sessions TECHDAYS. Aussi, nous expérimenterons des nouveaux outils découverts lors des présentations et nous ne manquerons pas de vous faire part de nos commentaires et de nos recommandations.

Etienne Margraff, Developper (Microsoft)

Stanislas Quastana (Microsoft)

Dans certaines entreprises, l’informatique est divisé depuis toujours en deux univers : les personnes qui créent (Dev) et celles qui exploitent en production (Ops).

Cette séparation peut générer stress et frustration. Les équipes n’ont pas l’impression d’aller dans le même sens et cela nuit à la productivité. Pour les réconcilier, un ensemble de pratiques et d’outils ont été imaginées: elles se cachent derrière le terme DevOps.

Qu’est-ce que c’est exactement ? Quels problèmes cela résout-il? Comment le mettre en place? Nous vous proposons de découvrir la vision présentée lors de cette session d’introduction.

DevOps est la contraction des termes anglais « development » et « operations IT ». Pour schématiser, DevOps c’est unir deux forces en une seule.

Vous sentez la question venir : comment faire pour que deux corps de métier ne deviennent plus qu’un alors que tous les sépare : le vocabulaire, les technologies, le niveau de couche de travail, les responsabilités, mais aussi les méthodes de travail…

En effet, les développeurs parleront de SCRUM, KANBAN, WATERFALL alors que les personnes de la production/exploitation parleront d’ITIL, MOF ou encore AGILE. Malgré toutes ces différence, ces geek à chemise et à t-shirt se doivent de trouver un terrain d’entente pour, ensemble, accomplir leur tâche commune, celle de fournir le meilleur service aux utilisateurs : IT as a service !
Concrètement, DevOps c’est quoi?

Inventé par Patrick Debois en 2009 pendant le déroulement des premiers devopsdays, ce mouvement vise à réduire la friction organisationnelle entre les développeurs et les personnes plus opérationnelles. C’est unir la création et la production, les développeurs (ces geeks à tee-shirt) et les administrateurs (ces geeks en chemises).

L’approche DevOps consiste donc à prôner une meilleure communication entre les équipes de développement et d’exploitation afin d’améliorer la conduite de projet.

DevOps, pour qui ?

Cette approche aura donc pour cible les organisations où développeurs et les personnes de l’exploitation qui seront amenés à échanger. DevOps est plutôt conseillé pour les petites entreprises ou encore les startups. En effet, plus la structure est petite, moins il y aura de silos de compétences prédéfinis, donc la communication et la mise en place de cette approche apparaitra plus simple.

Néanmoins, de grandes organisations comme Facebook ou encore Amazon y adhérent, encore faut-il bien s’y prendre !

Au niveau applicatifs et services, cette approche est parfaite pour tout ce qui est application web et jeux par exemple. Elle le sera un peu moins pour des applications de type client/serveur. Toutefois en utilisant des outils facilitant le déploiement, elle reste envisageable.

 

DevOps, quels bénéfices ?

La vision pré-DevOps était « Vite vite on met en production ! ». Mais attention, il ne faut pas confondre vitesse et précipitation, la production c’est du sérieux !

De plus, lorsqu’un problème survenait lors d’un projet, une guéguerre commençait entre les différents acteurs pour déterminer à qui reviendrait la faute. En effet, les développeurs produisent du code à partir d’un cahier des charges précis et se préoccupent peu de l’impact que peut avoir leur code sur la production. En parallèle, les services de production sont quant à eux obnubilés par la stabilité de l’infrastructure donc ralentissent les mises en production et blâment le code du développeur si le résultat n’est pas satisfaisant pour les utilisateurs.

La vision DevOps tente de palier à ce problème en favorisant une répartition des responsabilités et l’implication de l’ensemble des acteurs de la chaine. Le développeur devient ainsi testeur de son code.

Les intérêts d’adoption d’une démarche DevOps peuvent être multiples :

  • Réduire le cycle et le coût de mise en production,
  • Avoir une approche plus fragmentée (petites évolutions),
  • Faire que les mises à jour deviennent transparentes,
  • Mise en commun des responsabilités (tout le monde dans le même bateau!)
  • Une amélioration continue du produit,
  • Répondre plus rapidement aux besoins des clients.

Tous ces points permettent à une entreprise d’être plus compétitive, et donc servir le business de l’entreprise avant tout. En effet, tant que le service/logiciel n’est pas sur le marché, il n’apporte aucune valeur au fournisseur/éditeur.

Pour bénéficier de tous ces avantages, les feedbacks internes sont essentiels. En effet, la boite à idées est un concept vieux de 100 ans mais néanmoins il reste très efficace. De plus, avec tous les outils modernes que nous possédons (Forum privé, Yammer, newsgroup, …) ce concept ne peut qu’être encore mieux.

Ci-dessous on retrouve un schéma décrivant une méthode de travail typiquement DevOps :

Si vous souhaitez mettre en place cette approche au sein de votre entreprise, commencez par faire un état des lieux. Effectivement, la première étape de l’amélioration est de prendre conscience de là où on en est !

De plus, il faut commencer sur un périmètre réduit, surtout si vous faites partie d’une grande organisation.

Quels outils pour DevOps ?

Souvent DevOps est perçu comme du « déploiement continu » dans l’esprit des gens. Mais les outils ne sont pas que pour le déploiement et plusieurs sont à votre disposition pour commencer votre « révolution ». Ils peuvent être regroupés en 6 grands groupes :

  • Outils de déploiement (VS Realase Management, Teamcity, …)
  • Outils de configuration (Visual Studio Online, Jenkins, Teamcity, …)
  • Outils d’organisation (…)
  • Outils de surveillance (SC Operation Manager, Azure Operational Insight, …)
  • Outils de feedback (Uservoice.com, Getsatisfaction.com, …)
  • Outils d’automatisation des tests (Visual Studio Premium, QTP, TestComplete, …)

En résumé, ce mouvement DevOps est encore à son démarrage mais il gagne de plus en plus de terrain et menace du doigt des corps de métiers (ex : administrateur réseau) qui se voient petit à petit disparaitre.

Cette vidéo de Rackspace résume bien ce qu’est DevOps et quels bénéfices cette approche apporte aux entreprises.

Pour en savoir davantage sur le mouvement DevOps, suivez nos actualités sur le blog Ilki ou demandez à l’un de nos experts.

« Start small, think big »

Maxime PIEDELEU, Consultant ILKI – DevOps

@mpiedeleu

Lire l’article “TECHDAYS (I) Openstack & Windows” ou comment concevoir un Cloud privé avec des composants Windows 

 

 

 

, ,

TECHDAYS (I) Openstack & Windows

Comment Windows s’intègre dans OpenStack ? Pourquoi et comment Hyper-V peut être utilisé dans un cloud OpenStack ? Quelles sont les options d’interopérabilité pour les clouds en mode hybride ? Voici quelques-unes des questions que nous aborderons dans cette session !

 

Intervenants :  

Alessandro Pilotti : CEO of Cloudbase Solutions

Arnaud Lheureux : Architecte infrastructure et cloud chez Microsoft


Cette session a commencé par une question posée par les intervenants : « Combien de personnes présentes dans cette salle ont déployé une solution Openstack facilement et sans problèmes ? ». Comme on peut s’en douter, quand on connait Openstack, seules une ou deux personnes ont levé la main.

Après avoir posé cette question très significative, les présentateurs ont enchaîné sur une rapide présentation et introduction sur Openstack.

Pour rappel, Openstack est un ensemble de logiciels open source permettant le déploiement de solutions IaaS, dans le but de gérer des clouds privés et publicsOpenstack a été développé par la NASA et Rackspace et possède aujourd’hui une énorme communauté qui ne cesse de grandir.
Différentes distributions d’OpenStack existent déjà: HP, REDHat, Mirantis et une nouvelle à la fin de cet article…

Ci-dessous un schéma rappelant l’architecture d’un cloud privé Openstack :

Architecture Cloud Privé Openstack

Architecture Cloud Privé Openstack

 

On dit souvent qu’une image vaut mieux qu’un long discours mais nous allons pas vous laisser sans une rapide description des composants Openstack et leur rôle :

  • Neutron fournit du « network as a service » entre les interfaces réseaux (vNICs) gérées par d’autres services Openstack comme Nova par exemple.
  • Nova : fournit la partie Compute d’Openstack. C’est évidemment le composant principal d’une infrastructure IaaS. Il pilote également les hyperviseurs.
  • Glance: gère les images et les metadatas des machines virtuelles
  • Swift/Cindergère le stockage des machines virtuelles. Swift est le projet basé sur le stockage objet et Cinder sur le stockage bloc.
  • Horizon : c’est le portail de gestion. Ce composant fournit une interface Web permettant de gérer les services Openstack tels que Nova, Swift, Keystone, etc
  • Keystone: permet la gestion des Identités dans l’environnement Openstack.

 

Ci-dessous la même architecture basée sur les composants Windows :

Architecture Cloud privé Windows

Architecture Cloud privé Windows

Il nous a ensuite été présenté une rapide description des composants Openstack sur Windows.

  1. Hyper-V Nova Compute

La mise en place de ce composant est simple car elle se fait par le biais d’un installateur Windows (.msi) développé en Python.

Ce composant d’Hyper-V peut être installé sur différentes distributions :

  • Windows Server 2008 R2
  • Windows Server 2012
  • Windows Server 2012 R2
  • Standalone and free Hyper-V Server

Il supporte la plupart des fonctionnalités d’Hyper-V tel que :

  • Shared nothing live migration
  • SMBv3
  • Gen 2 VM
  • RemoteFX
  • Etc …

Comme nous l’a dit Arnaud Lheureux, le but de Microsoft est de devenir l’un des premiers hyperviseurs pour Openstack, même si il reste de la « route » à faire avant d’y arriver.

  • Neutron Modular Layer 2 plugin for Hyper-V

Evidemment, comme son nom l’indique, ce composant va permettre à l’hyperviseur de gérer les opérations réseau. La configuration et l’installation de celui-ci sont intégrées dans le driver d’Hyper-V Nova Compute.

Ce plugin permet le déploiement de différentes solutions de cloud privé. En effet, la technologie du « Native VLAN » est supportée mais aussi le déploiement d’Open vSwitch avec l’encapsulation VXLAN.

  • Open vSwitch on Hyper-V

Ce composant, est une implémentation open source d’un commutateur virtuel multicouche sous licence Apache licence open source 2.0. Il utilise les mêmes outils et démons que sur Windows (porté par ovs-vsctl and ovs-vswitchd). Il utilise notamment le protocole OVSDB et est compatible avec OpenDaylight.

  • Heat : Deployment Automation

Ce composant permet d’organiser les déploiements à partir d’une automatisation classique de Windows effectuée avec cloudbase-init.

Il existe plusieurs templates pour des workloads Windows telles que :

  • Puppet Agent
  • IIS
  • MS SQL Server 2012
  • Active Directory Domain Controller
  • Sharepoint 2013
  • Exchange 2013
  • Juju and MAAS with Windows

L’outil MAAS (Metal as a Service) pour le déploiement baremetal est disponible pour les hôtes Linux et Windows.

Le composant Juju, développé par Ubuntu, est disponible nativement sur les les plateformes Windows. Il est intéressant d’utiliser Juju dans le cas de déploiement de :

  • Hyper-V Openstack Compute
  • IIS
  • SQL Server
  • Active Directory
  • Lync 2013
  • Sharepoint 2013
  • Exchange 2013
  • Horizon Dashboard

Horizon est le portail de gestion d’Openstack. Il peut être déployé sur la plupart des distributions récentes de Windows et de Linux et il permet par exemple l’accès direct à la console Hyper-V. Il utilise la passerelle open source FreeRDP WebConnect pour accéder aux serveurs via le protocole RDP.

  • Cinder-Volume on Windows Server

Cinder peut être utilisé avec l’”ISCSI Target” intégrée aux Windows Server 2012 et Windows Storage Server 2012.

Cinder supporte également le stockage basé sur SMBv3 pour les hyperviseurs Hyper-V et KVM.

  • Keystone – Identity

Comme nous le savons, Active Directory est la solution d’annuaire la plus utilisée dans les entreprises de nos jours. Le but est donc d’intégrer Keystone à ces environnements, ce qui a été fait par le biais du protocole LDAP. Après cette intégration, les utilisateurs et rôles peuvent être définis dans l’AD ou avec Keystone. Il suffira de faire une mise à jour du schéma AD.

Nous pouvons donc en conclure qu’un Active Directory et Keystone peuvent être facilement intégrés ensemble.

CONCLUSION

Cette session nous aura permis de mieux comprendre quels étaient les composants d’une solution Openstack et comment ceux-ci peuvent s’intégrer. L’intégration d’Hyper-V avec Openstack, maintenue par Cloudbase and Microsoft, est apparue avec la version IceHouse du projet.

D’après les dires des deux intervenants, Hyper-V serait aujourd’hui l’un des hyperviseurs les plus testé avec Openstack. Même si cela semble difficile à croire, contenu de l’avance qu’ont les hyperviseurs VMware, KVM ou bien XenServer dans ce domaine, nous comprenons bien tous les avantages que pourraient apportés le déploiement d’Hyper-V dans une infrastructure Openstack.

Il existe des scripts pour Puppet disponibles à l’adresse suivante : https://github.com/openstack-hyper-v.

Les deux intervenants ont profités de la session pour annoncer l’arrivée d’un produit intéressant,  V-magine. Cet outil permettra de déployer plus facilement une infrastructure Openstack entière, incluant l’interopérabilité des composants Windows et Linux date de sortie : 10/02/2015. Pour plus d’informations, visiter le site : http://www.cloudbase.it/v-magine.

Plus de sessions en vidéo ICI

Adrien HUERRE, Consultant Cloud & Virtualisation – Stockage ILKI  

@AdrienHuerre