Inscrivez-vous gratuitement à la Newsletter BFM Business
Toute une série d'innovations récentes corrigent les défauts de jeunesse des serveurs à haute densité. Elles leur permettent également de s'adapter à de nouvelles applications.
Les constructeurs de serveurs ont affûté leurs lames. A grands coups d'innovations et d'intégrations de technologies tierces, ils sont enfin prêts à répondre à la demande des entreprises. Il était temps. Depuis presque cinq ans, les
serveurs à haute densité promettent monts et merveilles. Ces configurations matérielles, qui regroupent dans un châssis unique plusieurs serveurs ?" avec un ou plusieurs processeurs, mémoires, stockages, connexions ?" partagent les mêmes
alimentations et les mêmes systèmes de ventilation.Une belle réussite en termes de concentration de technologies, qui en ces temps de consolidation et d'économies, a en théorie de quoi séduire. Mais les clients se sont vite trouvés face à des défis techniques difficiles à relever. Et
pourtant, on leur promettait une densité remarquable (de trois à dix fois supérieure à celle des serveurs traditionnels).Au premier banc des accusés, la consommation électrique démesurée d'une baie de lames pleine. Elle entraîne une dissipation de chaleur et, donc, un besoin tout aussi démesuré en climatisation. Ensuite, ces serveurs concentrés sur une
surface réduite occasionnent des problèmes de poids que les salles informatiques ne peuvent pas forcément assumer. Autre souci : le manque cruel de connectivité aux autres équipements du réseau réduit le champ applicatif possible. Vouloir faire
entrer un éléphant dans un dé à coudre devenait bien trop compliqué et coûteux, dans tous les sens du terme.
Problèmes de jeunesse
Jusque-là, les constructeurs, au début si fiers de leur serveurs-lames, faisaient profil bas. Même Sun, en attendant de faire beaucoup mieux (ses prochains produits sont prévus pour mi-2006), avait décidé de retirer ces offres de son
catalogue, les jugeant inaptes à satisfaire les besoins des clients.Toutes ces déconvenues ont tout de même profité aux constructeurs, puisque cela leur a permis de créer des services spécifiques, comme chez HP ou, plus récemment, chez Dell. Ces services auditent les salles informatiques des
entreprises, et déterminent leur éligibilité à la densité, et le cas échéant, préconisent des solutions pour y parvenir. ' On avait négligé l'aspect environnement. Nombre de problématiques, connues depuis longtemps des
utilisateurs de mainframes, ont ressurgi. Bien maîtrisées, elles ne sont plus désormais un frein ', assure Xavier Crombez, directeur marketing entreprise chez Dell.Certains, effrayés ou déçus, ont préféré faire marche arrière et conservé leurs serveurs rack, plutôt que de passer aux lames. HP cite le cas d'un client qui, prêt à débourser près de 100 000 euros en serveurs-lames, avait
finalement renoncé, car il aurait du débourser près de 2 millions d'euros... simplement pour mettre à niveau sa salle informatique.
Consommation à la baisse, puissance en hausse
Heureusement, les serveurs-lames ont franchi un nouveau cap. De multiples annonces viennent en effet combler les fonctions qui manquaient, et redorent ainsi le blason de ces serveurs. Les évolutions concernent toutes les aspects des
serveurs-lames. Les puces double-c?"ur des fondeurs AMD et Intel offriraient aux clients de 75 à 80 % de puissance en plus. Chez Fujitsu Siemens, il est même possible de passer d'un biprocesseur à un quadriprocesseur ou à un octoprocesseur
sans changer de matériel.La consommation électrique a été revue à la baisse, avec, comme chez HP, de nouvelles alimentations réduisant de 35 % les besoins en électricité, ou, chez IBM, une réduction du nombre de ventilateurs et d'alimentations dans le
châssis. Les fondeurs ont aussi sorti des puces à basse consommation. Le refroidissement a par ailleurs été optimisé avec de nouveaux systèmes de climatisation, tel celui de HP à eau froide, incorporé dans le châssis (à la manière des mainframes),
ou celui d'Egenera. Côté administration, de nettes améliorations sont également à noter, avec l'arrivée d'outils ou de modules de déploiement et d'automatisation des tâches et de maintenance, comme chez HP et IBM. Enfin, la connectivité a été
sérieusement améliorée, notamment grâce aux commutateurs-lames de Cisco (Ethernet ou Infiniband), ou encore ceux, en Fibre Channel 4 Gbit/s, de Brocade, McData ou QLogic. Lesquels autorisent les serveurs-lames à accueilir des applications de
stockage de type SAN, Fibre Channel ou iSCSI.Ainsi les nouveaux serveurs, plus puissants, moins gourmands en énergie et mieux climatisés, deviennent-ils des solutions viables pour des applications de bases de données, de datawarehouse, etc. Des domaines inenvisageables
jusqu'alors.Les lames étaient principalement utilisées sur le terrain du clustering, mais aussi pour les serveurs d'infrastructure, nécessitant aux entreprises de pouvoir augmenter rapidement la puissance. Initialement prévus pour consolider les
serveurs rack 1U destinés à des applications, telles que serveur web, sécurité, proxy, les lames ont dépassé ce cap. ' Aujourd'hui, ils peuvent être considérés comme une option tout à fait valable lors du remplacement des
serveurs existants, explique Wyndham WoodHouse, gérant de la société Dataswift, spécialisée dans les serveurs et le stockage. Et cela, qu'ils soient ' rackables ' ou au format tour, mono ou
quadriprocesseur, support d'une infrastructure réseau ou d'une application métier. ' L'offre est maintenant mature, les gammes proposées sont clairement identifiées et les constructeurs jouent la différenciation
principalement sur les fonctions périphériques de la lame : la connectivité, le management. Mais peut-on vraiment tout faire ? Si l'on en croit les analystes, il faudra encore attendre la troisième génération de ce type de serveurs,
attendue pour 2007/2008, pour qu'ils deviennent réellement des couteaux suisses de qualité.k.frascaria@01informatique.presse.fr