Le nuage informatique: un concept nouveau?

Un concept en continuité avec les services Web et les architectures orientées vers les services, le « nuage informatique » promet beaucoup, mais devra surmonter certains défis avant de livrer toutes ses promesses.

Le concept du « nuage informatique » (cloud computing, en anglais) fait beaucoup de vagues en ce moment. On parle d’un concept technologique d’avenir, qui va contribuer à rendre les technologies de l’information (TI) plus accessibles que jamais, tout en diminuant le fardeau financier assumé par les organisations utilisatrices. Cela rappelle le discours qu’il y avait autour des services Web et des architectures orientées vers les services (AOS ou SOA en anglais) il n’y a pas si longtemps. Mais qu’en est-il exactement?

En vertu du concept du « nuage informatique » les ressources logicielles et matérielles sont fournies sous forme de services utilisables à distance. Le traitement des applications est réparti parmi un grand nombre d’équipements reliés en réseau. Ce réseau peut-être public, dans quel cas il s’agit d’Internet, ou privé, dans quel cas on parle d’un réseau interne, fermé. Les données sont subdivisées en sous-groupes d’informations qui sont traités par plusieurs ordinateurs différents.

Les firmes d’analyse de marché s’entendent pour dire que 2009 sera une année importante pour l’adoption du concept par les organisations. C’est dans cette perspective qu’IDC s’attend à ce que les revenus générés par la prestation des services de nuage informatique triplent entre 2008 et 2012, alors qu’ils atteindront 42 milliards $ US mondialement. IBM, qui mise gros sur le concept, ayant mis en marché toute une gamme de produits et de services le supportant, incluant des services de consultation et d’homologation des fournisseurs, croit que les technologies de nuage informatique atteindront leur plein potentiel en 2009. Le fournisseur dispose, en outre, de centres de compétences aux États-Unis, en Irlande, en Chine, au Japon et en Afrique du Sud.

Industrialisation accrue

IBM, qui qualifie le concept d’« industrialisation de l’infrastructure TI », croit que l’utilisation des services de « nuage informatique » permet de réduire de 80 % la surface utilisée et de 60 % les coûts en électricité, tout en triplant l’utilisation des ressources TI. Le « nuage », qui est déployé sur une AOS, d’où son lien avec ce concept antérieur, tire profit de plusieurs techniques et technologies, dont la virtualisation, l’automatisation, incluant l’allocation dynamique des ressources, les normes ouvertes, le stockage évolutif et l’informatique fondée sur le Web.

« Le concept de « nuage informatique » focalise sur l’optimisation des ressources, c’est ce qui le distingue des services Web qui se limitent à donner accès à des capacités, sans se préoccuper de quelle façon les ressources sont utilisées, résume Gordon Kerr, ingénieur émérite chez IBM Canada. Et dans un environnement de « nuage », les ressources sont allouées seulement durant la période que le service est utilisé. Il y a plus d’intelligence au niveau de l’utilisation des ressources. La manière de facturer l’utilisation des services est aussi plus flexible. […] C’est un processus de maturation qui a commencé il y a dix ou vingt ans. »

« Avec le nuage, on déporte encore plus sur Internet les services offerts par les applications Web, qui sont hébergées chez des fournisseurs de solutions d’applications standard, ajoute Michel Fossé, directeur de pratique, Services-conseils, pour le Québec chez IBM Canada. Ça amène une flexibilité à l’emploi. […] Ça permet aussi de se libérer des préoccupations de compatibilité entre les applications. D’une manière générale, la complexité est déplacée chez le fournisseur. Ça s’inscrit dans la tendance observée chez les entreprises de vouloir se focaliser sur la valeur ajoutée et la personnalisation du besoin d’affaires. Il n’y a donc pas une grande nouveauté technologique [avec le concept du nuage], c’est la façon dont les ressources sont utilisées qui est différente. »

Limitations et défis

Dans sa forme actuelle, le concept de « nuage informatique » ne recèle pas que d’avantages. Figurent parmi ses limitations un niveau de performance imprévisible, une sécurité variable et une disponibilité perfectible des services fournis, lesquelles limitations peuvent varier d’un fournisseur à l’autre. C’est d’ailleurs pour pallier à cette incertitude qu’IBM a dévoilé en novembre dernier ses services d’homologation des fournisseurs.

« Le nuage amène des soucis supplémentaires pour les spécialistes de la sécurité, soutient Michel Fossé. […] Il y a premièrement tout l’aspect du respect des législations. Ça nécessite de mettre en place un modèle de gestion centrée sur l’information, cette dernière étant en définitive ce qui fait vivre l’entreprise. Il faut définir la valeur de chaque information et déterminer ce qui doit être protégé. Il faut donc classifier l’information et préciser de quelle façon on y accède.

« La protection de l’information doit être indépendante de l’infrastructure utilisée, alors qu’à ce jour, on a mis l’accent sur l’infrastructure. Il y a toute une culture à changer. Ça nécessite aussi de formaliser davantage les processus d’impartition, pour s’assurer que l’information est bien protégée. Il y a aussi tout l’aspect de la disparition possible du fournisseur dont il faut tenir compte. […] On sort d’un modèle centré sur les technologies et l’infrastructure et on se dirige vers un autre modèle basé sur l’information, alors qu’on n’a pas fini de faire ce qu’on avait à faire avec le modèle précédent. »

Sans nier l’importance du défi que présente la sécurisation d’un environnement de « nuage informatique », Joseph Tobolski, directeur de la pratique « nuage informatique » chez Accenture, croit que les organisations ont des attentes irréalistes à cet égard et accordent trop d’importance à cette composante du projet.

« Je crois que la plupart des objections des organisations quant à la sécurité du nuage sont par nature émotionnelles, dit-il. Certaines établissent des listes d’exigences pour la sécurité qu’elles ne mettent même pas en pratique dans leurs propres centres de données. »

Dans le cas des grandes entreprises cotées en bourse, comme les banques, les inquiétudes au chapitre de la sécurité sont encore plus grandes, ajoute Jean Bozman, une vice-présidente de la recherche chez IDC.

Avec le service de nouvelles IDG

Articles connexes

MISE À JOUR – Actions collectives contre Rogers suite à la panne de vendredi dernier

Le cabinet juridique montréalais LPC Avocat a déposé une demande d’autorisation d’action collective contre le géant des télécommunications Rogers Communications en raison de la panne de son réseau vendredi dernier qui a privé bon nombre de Canadiens de service durant au moins 15 heures.

Bell lance un service Internet 3 gigabits dans la ville de Québec

Bonne nouvelle pour les résidents de la ville de Québec : Bell lance aujourd’hui un service Internet pure fibre qui permet des vitesses de téléchargement de 3 Gbit/s. La vitesse de téléversement de ce service est également de 3 Gbit/s.

Telus investira 11 G$ et créera 7 000 nouveaux emplois au Québec

Telus annonce aujourd’hui des investissements de 11 milliards de dollars sur quatre ans dans son infrastructure réseau, dans ses activités opérationnelles et dans le spectre au Québec. Elle s’engage de plus à investir 70 milliards de dollars à l’échelle du Canada d’ici 2026.

Plus de 7,5 G$ de Québec pour « inventer, développer, commercialiser »

Le gouvernement du Québec annonce la Stratégie québécoise de recherche et d'investissement en innovation 2022-2027 sous le thème « Inventer, développer, commercialiser ».

Internet haute vitesse pour tous : l’initiative progresse

Le gouvernement du Québec annonce aujourd'hui l'octroi d'un financement de 50 M$ afin de déployer un service Internet haute vitesse par satellite de Starlink dans quelques 10 000 foyers québécois pour lesquels une connexion directe n’est pas possible.