Évolution marquée des centres de données

Des tendances lourdes caractérisent la conception et la gestion des centres de données. Les organisations bénéficient en cette matière de technologies de pointe permettant la concentration d’une grande puissance dans un espace restreint. Ce faisant, elles doivent composer avec une consommation importante d’énergie.

De façon générale, les difficultés économiques des dernières années ont forcé les entreprises à reporter la modernisation et les investissements requis dans leur centre de données (aussi appelés « centres informatiques » ou « centres de traitement »). Malgré la stagnation de l’économie, aux États-Unis particulièrement, les changements devront se faire tôt ou tard. Selon un sondage effectué en mai dernier par la firme Uptime Institute, 36 % des centres de données souffriront d’un manque d’espace, de puissance et de refroidissement cette année et l’an prochain. Conséquemment, une activité importante est prévue pour rectifier la situation dans les mois à venir.

On s’entend généralement pour dire que les organisations devront déployer des efforts considérables afin de faire le nécessaire, tout en continuant à offrir les mêmes niveaux de service. Dans ce contexte, des technologies comme l’informatique en nuage, l’automatisation et le logiciel libre deviennent essentielles, de même que la virtualisation, aujourd’hui incontournable et dont l’utilisation est en hausse.

Dirigeants et gestionnaires doivent donc être au fait des changements technologiques, lesquels se succèdent rapidement. « L’évolution des TI influe inévitablement sur les centres de données, indique Strahan McCarten, qui est directeur de la gestion des produits, Hébergement Bell, Services d’informatique en nuage chez Bell Canada. Il est important de tenir compte des besoins liés au développement des TI. »

Primauté de l’électromécanique

Bonne nouvelle à cet égard, l’Uptime Institute rapporte que davantage de présidents d’entreprises et de directeurs financiers s’intéressent aux centres de données, non seulement en ce qui a trait à la consommation d’énergie, mais au coût des installations et de l’infrastructure TI. Avec raison, car « la plus grande partie des investissements, des efforts et de l’expertise d’un centre de données réside dans ses aspects électromécaniques », dit à ce sujet le directeur-conseil, Services d’infrastructure, solutions et services-conseils de CGI, Peter Aglaganian.

L’importance de l’électromécanique s’explique par la capacité des centres de données. Ces derniers concentrent aujourd’hui quelque 200 watts par pied carré, soit cinq fois plus que dans les années 80, souligne Gilles Arcouet, ingénieur, chargé de projet principal et associé chez Pageau Morel. « Dans les salles à haute densité, la puissance peut atteindre 1 000 watts par pied carré… Ainsi, la capacité électrique requise est de plus en plus grande, ce qui implique à la fois un capital à investir et des coûts d’exploitation », indique-t-il.

Et comme cette électricité produit de la chaleur, il faut des systèmes de refroidissement de plus en plus performants. Selon le président de la firme Kelvin Emtech, Michel Chartier, les coûts d’un centre de données proviennent de l’électromécanique dans une proportion de 60 % à 70 %.

Pour toutes ces raisons, CGI a réalisé, en 2009, des investissements d’environ 10 millions de dollars à ses centres de données de Montréal et de Toronto afin d’en accroître la capacité électromécanique. L’entreprise gère en impartition les centres informatiques de plus de cent clients dans ses deux centres de données de Montréal. L’investissement a notamment permis de construire une aile de 10 000 pieds carrés dans l’un d’eux afin d’ajouter une génératrice et de l’équipement électrique. « La direction de CGI a compris que l’électromécanique est primordiale dans l’exploitation d’un centre de données », commente Peter Aglaganian.

Montée de l’informatique en nuage

L’informatique en nuage est un autre sujet très prisé des responsables de centres de données.

Voilà une technologie qui exerce une influence considérable sur l’évolution des TI et qui, par conséquent, mérite une attention particulière. « Il ne fait aucun doute que les centres de données vont commencer à reposer sur des plateformes infonuagiques, offrant une option supplémentaire dans l’éventail grandissant de possibilités de déploiement », peut-on lire dans la publication Data Center Knowledge.

Dans le sondage Uptime Institute mentionné précédemment, 74 % des répondants ont indiqué avoir mis en œuvre une forme quelconque d’informatique en nuage (privé surtout) dans leur centre de données, ou songeaient à le faire. Plus économique, plus souple et plus éconergétique, le nuage permet d’améliorer l’architecture orientée services (SOA), de même que la gestion de l’information et des services. « Il évite aux responsables de centre de données de s’astreindre à un long cycle de planification et de vente », souligne-t-on à l’Uptime Institute. En général, les serveurs sont utilisés à 15 % de leur capacité au maximum, mentionne pour sa part Michel Chartier. « Avec le nuage, on pourra passer à 80 % », estime-t-il.

L’adoption du modèle infonuagique dans les centres de données a été freinée par les réticences des dirigeants en matière de sécurité et de conformité – au sein des grandes entreprises tout particulièrement. « À première vue, le nuage ne semble pas compatible avec les recommandations de l’Uptime Institute exigeant qu’un centre de données de catégorie ” Tier IV ” soit aménagé dans un édifice appartenant à l’organisation qui l’exploite », fait observer Gilles Arcouet. Strahan McCarten croit néanmoins que le nuage privé représente un investissement très intéressant. Toutefois, ce concept utilise un environnement hautement virtualisé, donnant lieu à une infrastructure informatique dense qui, comme nous l’avons vu, consomme un grand volume d’énergie. On ne peut planifier la mise en œuvre d’un tel projet sur trois ou quatre années seulement, mentionne M. McCarten. En raison de l’importance de l’investissement en capital, les entreprises doivent le faire à beaucoup plus long terme – jusqu’à 25 ans. Elles doivent connaître à l’avance les sources où elles puiseront l’énergie nécessaire.

Révolution modulaire Cette longue fenêtre de planification exige une souplesse accrue. Si, par exemple, la capacité au mètre carré continue d’augmenter, on doit pouvoir ajuster facilement le refroidissement et faire les autres changements qui s’imposent. Par contre, si les fabricants parviennent à produire du matériel informatique moins énergivore, il ne sera peut-être plus nécessaire dans quelques années de tenir compte de l’augmentation prévue de la puissance. On veut donc éviter de faire inutilement un investissement initial substantiel dans l’infrastructure électromécanique.

À cette fin, on a de plus en plus recours à des composants normalisés, à des conceptions reproductibles et à la logistique de la chaîne d’approvisionnement dans la mise en œuvre des centres de données. L’ère des projets de construction massifs semble révolue, faisant place à la production en série, plus simple et plus économique que les traditionnels planchers surélevés. C’est ainsi que les organisations choisissent d’installer des solutions industrialisées et prêtes à l’emploi, fabriquées, testées et livrées par un seul fournisseur. « Idéalement, elles procurent un allègement des problèmes d’intégration », indique l’Uptime Institute. Ces composants préfabriqués peuvent même être livrés dans des conteneurs.

« C’est le concept du pay as you grow, autant pour la croissance architecturale que mécanique », indique Michel Chartier. La tendance existe au Canada depuis quelques années déjà, en raison des budgets plus limités dont disposent les entreprises en général », poursuit-il. Aux États-Unis, on commence seulement à faire appel à ce concept pour mieux faire face aux persistantes difficultés économiques.

En somme, les nombreux changements caractérisant les centres de données amènent nécessairement de nouvelles façons de faire. Selon Data Center Knowledge, les spécialistes de la question entrevoient à cet égard l’émergence d’une approche globale intégrant l’ensemble des technologies, des services et des processus qui, traditionnellement, ont posé des difficultés en matière de conception et de gestion des centres de données.

Pour consulter l’édition numérique du magazine de septembre de Direction informatique, cliquez ici

Articles connexes

Malgré les défis, l’embauche se poursuit au Canada selon une étude de Robert Half

Une nouvelle étude de la plateforme de recrutement Robert...

L’opposition tape sur la cheffe de l’ASPC concernant l’appli ArriveCAN.

Les députés de l'opposition ont sévèrement critiqué la cheffe...

Le monde selon Hinton: Ralentir l’IA n’est pas la solution

Y a huit mois, Geoffrey Hinton, professeur émérite à...

Avertissement : Campagne d’hameçonnage visant les cadres supérieurs

Des centaines de comptes d'utilisateurs Microsoft Office et Azure,...

Emplois en vedette

Les offres d'emplois proviennent directement des employeurs actifs. Les détails de certaines offres peuvent être soit en français, en anglais ou bilinguqes.