Pour Laurent Letourmy (Ysance), seul le cloud sait répondre à une montée en charge violente

Les utilisateur de Microsoft Azure témoignent sur les Techdays 2011. Laurent Letourmy, PDG de Ysance, explique son choix du cloud made in Microsoft.
Société de services spécialisée dans le cloud, Ysance fournit des prestations pour des sociétés telles que des éditeurs de jeux pour Facebook et dont la problématique est de faire face à des pics de trafic. « Seul le cloud sait répondre à une montée en charge violente », déclare Laurent Letourmy, CEO d'Ysance.
Le choix d'Azure s'est imposé dès lors que cette plate-forme a été capable d'interopérer avec d'autres technologies que .Net : PHP, MySQL, Tomcat avec du Java… « Le cloud, c'est la libération du développeur », conclut Laurent Letourmy.
Rapatrier leurs applications en cloud privé
Interrogé sur les attentes d'Ysance vis-à-vis de Microsoft, le CEO d'Ysance nous confie : « On attend beaucoup de Microsoft à propos d'un point sur lequel les clients nous interrogent : une fois déployées nos applications dans le cloud, comment faire pour les récupérer ces applications chez nous et les faire fonctionner en interne. C'est ce que les Windows Azure Appliance devraient faire. »
Pour préparer cette approche, Ysance essaye de développer en utilisant le plus possible les API. « Nous essayons de rendre les applications intelligentes. Le développeur accède à un serveur comme si c'était un composant », précise Laurent Letourmy. Ainsi, la transposition sur un cloud privé est facilitée.
Laurent Letourmy rêve d'une API standardisée, qui permettrait de transposer les applications d'un cloud à un autre. Selon lui, les gens se posent plus la question de savoir comment récupérer leurs données et leurs applications pour changer d'opérateur que des problèmes de sécurité, toutes ce questions qui faisaient un peu peur et qui sont en train de s'effacer.
Retrouvez toute l'actualité en direct des Techdays 2011 sur notre page spéciale.
-
jade83110
Soit ce monsieur est né APRES 1992, soit il est trop jeune pour avoir connu le 'minitel' (et les serveurs télématiques) ..!
Comment croit-il qu'on absorbait des montées en charge fabuleuse (1/60000), puis leur 'tenue' en charge entre 1976 et 1992 ?!?
Rappellez-vous, à l'époque, on avait pas de mémoire vice (RAM 256 Ko à 2 Mo max sur les grands systèmes, 4 Ko pour ne page minitel (2x2 Ko)), les disques durs étaient aussi lents que les dernières disquettes 3,5", très chers et d'une capacité ridicule (~80 Mo, 300 Mo pour les plus gros, c'est pour ca qu'a été inventé le RAID : Redndance Array of Inexpensive Disks), et des I/O télécoms entre 9,6 et 48 Kb/s !!!
Par contre, ... les ingénieurs (de l'époque) savait être 'ingénieux' !
On ne réclamait pas sans cesse plus de mémoire et/ou plus de puissance processeur !
La clusterisation performante (née par DEC) et la virtualisation (IBM, DEC, etc.) existaient déjà et fonctionnait très bien, 'groupant' des machines équipées de processeurs différents, parfois distants de milliers de Km ..!
Et ... créer des infocentres puissants et répartis ne coutaient pas si cher, ni à élaborer, ni à maintenir !
Votre opinion