dimanche 1 juin 2014

Faut-il virtualiser tous les étages du système d’information ?

A lire sur: http://www.silicon.fr/virtualiser-systeme-information-94338.html

La virtualisation s’invite de plus en plus dans les différentes couches des infrastructures du système d’information. Cependant, ce phénomène pose différentes questions sur l’intérêt, la finalité du tout virtuel et mêmes sur les compétences redistribuées au sein des entreprises.

Le Club de la Presse Informatique –B2B a organisé une matinée sur le thème de la virtualisation qui s’immisce de plus en plus dans les différentes couches du système d’information. « Aujourd’hui, il y a trois couches, serveur, stockage et réseau, plus une quatrième qui est le système convergé regroupant l’ensemble des briques », souligne Sébastien Verger, directeur technique d’EMC. Et d’ajouter : « L’idée est d’extraire l’intelligence du matériel pour la transférer vers le logiciel d’où l’expression Software Defined. » Il concède que certaines briques sont en avance par rapport à d’autres. « Sur les serveurs le taux de virtualisation atteint sa maturité. Sur le stockage, elle était comprise au départ comme un mode de migration et de récupération des données, pas comme l’évolution des fonctionnalités du matériel vers le logiciel. » Le spécialiste du stockage vient de faire récemment des annonces sur le SDS (Software Defined Storage) à travers son offre ViPr 2.0.

La finalité d’un IT as a Service

Pour David Dariouch, responsable des solutions virtualisation et stockage chez Oracle, « il n’y a quasiment plus de débat sur le fait que tout peut être virtualisable. La question est quel est le problème résolu par la virtualisation ? Il y a de multiples réponses, allant de la réduction des coûts à la consolidation avec une orientation métier, offrir un catalogue de service ». Il constate que « la virtualisation est vue actuellement par les clients comme un moyen de se détacher du fournisseur de matériel ». Dans le concret, « il est clair que cela commence par des besoins applicatifs avec la création d’environnement spécifique comme du Test as a service dans le cadre du développement ou du Database as a service », indique M. Dariouch. Un avis partagé par Anas Safla, consultant manager cloud chez Econocom-Osiatis, pour qui « la finalité de la virtualisation réside souvent dans la mise en place d’un catalogue de services ».

Tout n’est pas virtualisable

Il nuance quand même les propos du représentant d’Oracle, « si tout est potentiellement virtualisable, certaines choses ne le sont pas comme les annuaires d’entreprises et même certains ERP qui n’ont pas prévu la virtualisation ». Frédéric Leonetti, directeur avant-vente Converged Systems chez HP abonde en soulignant que « la facturation et l’enregistrement de transactions sont également peu virtualisés ». Cela ne signifie pas que ces process ne bénéficient pas de l’automatisation. « OpenStack prévoit avec le projet Ironic du provisionnement du matériel sans virtualisation », explique M. Leonetti.  Même le poste de travail prête le flanc à la critique sur sa virtualisation. « Il s’agit d’un vrai-faux sujet. Quel est le marché ? », s’interroge Sébastien Verger, CTO d’EMC France. « Cette technologie s’adresse à des sociétés ou des administrations qui disposent d’un parc d’ordinateurs fixes important. Mais pour la mobilité, on s’attend plutôt à lancer une application plutôt que d’avoir son bureau sur sa tablette. »

Un marché en pleine croissance

A la question du retour sur investissement de la bascule vers une virtualisation complète, Frédéric Leonetti parle pour les systèmes convergés intégrant à la fois serveur, stockage et réseau, « d’un ROI avec un facteur de 10 à 15. A la fois sur le nombre de serveur, l’espace au sol, la consommation énergétique ». Il complète en précisant que « le ROI est en général inférieur à 18 mois ».  Le marché de la virtualisation complète reste encore naissant mais avec un potentiel de croissance important. Sébastien Verger évoque les différentes plateformes de l’IT définies par Gartner : le mainframe, le modèle distribué et le cloud. La seconde plateforme (modèle distribué) représente en 2013 un revenu de 2000 milliards de dollars avec une perspective de croissance de 4% par an. La plateforme numéro 3 atteint 44 milliards de dollars avec 25% de croissance annuelle future.

Une redistribution des compétences

Pour autant, la virtualisation implique le facteur humain rappelle David Dariouch. « Il est impossible de faire du cloud et de la virtualisation sans avoir de compétences. » Mais ce besoin de compétences va redistribuer les cartes au sein de la DSI et casser certains silos entre les spécialistes du stockage, du réseau. « L’automatisation va supprimer des tâches répétitives et les spécialistes du stockage vont être amenés à faire des choses à valeur ajoutée comme gérer l’OS de stockage dans les VM, de s’intéresser au réseau. Ils seront amenés à avoir la triple compétence », résume Cyril Van Agt, responsable avant-vente partenaires chez NetApp. Un décloisonnement des compétences nécessaire selon Anas Safla. « Les équipes réseaux et stockage ont eu l’habitude de gérer leur domaine depuis des consoles dédiées. Elles sont obligées de travailler avec une console unique automatisée. » Sébastien Verger va plus loin en assurant « qu’on aura besoin de moins de spécialistes, mais plus de généralistes et plus d’hyperspécialistes ». Et d’avancer des chiffres d’une étude IDC : « En 2013, il y aura 28 millions de personnels IT dans le monde et 36 millions en 2020. » Il y a donc « une pénurie de compétences notamment dans le stockage plutôt qu’une vague de suppressions de postes », conclut le CTO d’EMC France.
La virtualisation s’invite de plus en plus dans les différentes couches des infrastructures du système d’information. Cependant, ce phénomène pose différentes questions sur l’intérêt, la finalité du tout virtuel et mêmes sur les compétences au sein des entreprises qui sont redistribuées.

Aucun commentaire:

Enregistrer un commentaire