Virtualisation à tous azimuts


Jean-François Ferland - 21/09/2012

La virtualisation des technologies de l’information se poursuivra et se diversifiera à court et à moyen terme, pour le bénéfice des organisations.

Grant Aitken, directeur général de VMware Canada, envisage une croissance du marché de la virtualisation du poste de travail au sein des organisations. « Ce créneau est loin encore du niveau de celui des serveurs, mais sa croissance est rapide et le développement des outils à cet effet continue d’évoluer. »

Également, M. Aitken s’attend à une évolution des outils complémentaires en fonction des infrastructures d’infonuagique privée « qui nécessitent des modèles différents en gestion, en sécurité et en déploiement, tout comme un niveau plus élevé de sophistication et d’automatisation. »

Selon David Senf, vice-président, Infrastructure et solutions d’infonuagique chez IDC Canada, l’avenir de la virtualisation se trouve en partie dans l’infonuagique hybride, qui permettra aux organisations de balancer leurs charges entre un nuage privé exploité en interne et des nuages publics localisés hors de l’organisation. « Nous ne sommes pas encore rendus à un processus où une machine virtuelle est automatiquement transférée d’un nuage à l’autre, mais la technologie progresse dans cette direction », souligne-t-il.

Xavier Tremblay, conseiller en virtualisation à la firme TechnoConseil à Québec, s’intéresse à la virtualisation du serveur physique, où un serveur qui sera composé seulement de mémoire vive et d’unités de traitement informatique aura une identité virtualisée. Ainsi, un serveur lame qu’on insérera dans une baie adoptera l’identifiant unique (UID), composé d’éléments comme une adresse de contrôle d’accès au support (MAC) et un nom de serveur, qu’on lui attribuera. « En cas de bris matériel, on remplacera le serveur par un nouveau, qui dès qu’il sera allumé, prendra l’identité de l’ancien serveur », indique M. Tremblay.

D’autre part, M. Tremblay porte l’attention sur la capacité d’ajouter, n’importe où au sein d’une infrastructure, un serveur qui joindra automatiquement un autre serveur en manque de ressource, comme s’il s’agissait d’un seul appareil physique. Google utiliserait déjà l’approche dans ses centres de données.

Le réseau virtualisé

L’élément technologique qui pourrait faire l’objet des importants développements technologiques et commerciaux en virtualisation est le réseau informatique. Au cours de l’été 2012, deux acquisitions de développeurs spécialisés ont été réalisées par des fournisseurs majeurs en TIC, soit l’achat de Nicira par VMware pour 1,26 milliard de dollars américains et l’obtention de Xsigo par Oracle pour un montant non dévoilé.

Ces développeurs misent sur l’approche des réseaux conçus par logiciel (Software defined network en anglais) où l’on redéfinit les réseaux selon les besoins, sans avoir à en remanier la couche matérielle, au moyen de la virtualisation.

Omar Cherkaoui, professeur à l’UQAM, est le fondateur et le directeur de la technologie de Noviflow, une entreprise de Montréal qui développe des solutions de conception des réseaux par le logiciel. Il affirme que la redéfinition du réseau par la virtualisation est un élément essentiel au déblocage de la virtualisation en général.

« Le marché des réseaux est encore très fermé et les coûts qui y sont associés sont vertigineux, affirme-t-il. L’approche du réseau conçu par logiciel permet de faire pour les routeurs et les commutateurs un peu comme ce que le développement libre a apporté aux logiciels et aux ordinateurs. Si on n’arrive pas à définir une nouvelle façon de faire l’Internet avec la virtualisation, on ne peut avancer. On restera avec la même technologie de réseau pendant encore vingt ans. »

M. Cherkaoui précise que Google applique déjà la conception de réseau par logiciel dans ses centres de données et que Microsoft, Amazon et d’autres exploitants s’y intéressent.

Il souligne l’existence du projet de standard ouvert Open Flow pour le développement de nouveaux protocoles de réseaux, auquel une communauté de chercheurs universitaires travaille depuis 2008.

David Senf d’IDC Canada constate également que le déploiement d’un réseau à l’aide d’un commutateur logiciel permettra aux organisations de refaire aisément l’architecture de leurs réseaux. « L’architecture traditionnelle à trois couches, où le trafic se fait dans l’axe « nord-sud », n’est pas optimale pour le trafic « est-ouest ». L’aplatissement du trafic au niveau du routage d’une des trois couches et une évolution vers le maillage du réseau (network fabric en anglais), au moyen des serveurs logiciels monofonctions, font partie du futur de la réseautique. »




Tags: , ,

À propos de Jean-François Ferland

Jean-François Ferland a occupé les fonctions de journaliste, d'adjoint au rédacteur en chef et de rédacteur en chef au magazine Direction informatique.
Google+