Datacenter Convergence

Il y a quelques années, IBM vantait dans sa publicité qu’il pouvait remplacer une salle informatique entière par un système ultra-compact. Depuis, les projets de datacenters ressurgissent et se multiplient comme jamais depuis la « bulle Internet ». Analysons ce paradoxe apparent pour en comprendre les causes, les enjeux et essayer d’en tirer quelques perspectives.

Convergence géographique

IBM n’avait pas tout à fait tort. La loi de Moore continue à être suivie par l’industrie des composants électroniques. Sur 5 ans, soit la durée de vie de nombreux serveurs, les gains de puissance sont de l’ordre de x 10, un ordre de magnitude.

Seulement en parallèle, les débits télécoms suivent une croissance constante également, même si elle est moins spectaculaire. La croissance de la capacité de traitement conduit donc à une re-centralisation des infrastructures. Alors que certaines organisations avaient parfois des centaines de « salles informatiques » (qui n’étaient guère plus que des locaux techniques dans certains cas), les entreprises peuvent maintenant les concentrer sur quelques sites spécialisés, où elles géreront les redondances de réseaux, alimentation électrique, administration de systèmes, sauvegarde, etc. Bref de vrais datacenters, en nombre restreint.

Se pose au passage la question du savoir-faire pour passer de l’état existant à l’état final mais la question des déménagements est une histoire que nous traitons par ailleurs (cf. www.demenagement-IT.com ).

Convergence des technologies

Outre son apport dans le développement des réseaux WAN qui permettent la concentration géographique, la standardisation sur IP fait également son œuvre dans les LAN des datacenters. On assiste à une éclosion de technologies comme on n’en avait plus connu depuis les années 2000. En se virtualisant, le « serveur » lui-même se décompose en spécialisant ses composantes, et en utilisant le LAN comme complément ou substitut aux bus internes. Par exemple, en plus des NAS, les stockages de blocs s’appuient de plus en plus sur le LAN (iSCSI, FC over Ethernet). On transfère des machines virtuelles comme des briques de légos et les middlewares se multiplient (firewall, load balancer, accélérateurs divers jusqu’à des nœuds de mémoire cache type memcache).

Évidemment cela pré-suppose des réseaux et des infrastructures capables de supporter ces nouveaux usages. L’innovation, si elle est porteuse d’opportunités, n’est évidemment pas sans risque car les architectures traditionnelles, qui raisonnaient par agrégations successives, n’ont pas été pensées par exemple pour des communications intra-serveurs (on parle de trafics Est-Ouest par opposition aux trafics Nord-Sud) et les idées les plus radicales comme la migration à chaud de VM entre Datacenters se heurtent tout de même à la question de la latence, même avec des liens multi-gigabits.

Convergence de l’ingénierie

La pression devient grande également au niveau de l’alimentation électrique et de la climatisation des datacenters puisque la densification a révélé ce facteur comme dominant dans les coûts de fonctionnement. Derrière les laïus marketing, la préoccupation Green est donc là pour durer.

Mais au-delà des gains apportés par telle ou telle astuce de conception, de notre point de vue, la conséquence de toutes ces pressions et tendances est l’obligation de travailler différemment. En effet, dans un monde avec un jeu de contraintes relativement statiques, chaque spécialiste cultive son jardin avec peu d’égard pour les autres spécialités. Si le Groupe Setec sait depuis plusieurs décennies aussi bien mener la construction d’un datacenter (avec Setec Industries) qu’organiser son équipement et son utilisation (avec Setec IS), il nous est arrivé de découvrir fortuitement que nous travaillons chez un client unique, les uns pour l’Immobilier, les autres pour la DSI, les deux de manière déconnectée par des frontières d’organisation.

Or comme l’a récemment fait remarquer James Hamilton le VP d’Amazon AWS et précédemment architecte des Datacenters de Microsoft, on continue à maintenir une température de consigné de 18° dans beaucoup de salles informatiques alors qu’il n’y a aucune étude sur l’impact de la température sur la fiabilité des serveurs x86 montrant un écart entre 20°, 25° voire 30°C. Dans un domaine en mouvement et en pleine recherche d’optimisations, il est indispensable d’avoir une approche systémique et de marier les compétences pour ne plus suivre aveuglément des règles qui ne sont plus systématiquement pertinentes.

Serveurs, réseaux, stockage, alimentation électrique, climatisation, sécurité, plus rien ne doit être pensé isolément. C’est par exemple le cas pour une entreprise qui se bâtit un nouveau siège avec un Datacenter et qui veut faire certifier son bâtiment HQE.

En tant que champion de l’ingénierie pluridisciplinaire, le Groupe Setec entend évidemment mettre toutes ses compétences à la disposition de ceux qui partagent cette analyse.

 Voir aussi :