Cloud computing
Upcoming SlideShare
Loading in...5
×

Like this? Share it with your network

Share
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
973
On Slideshare
973
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
26
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. CLOUD COMPUTING « Stratégie et révolution de linfrastructure informatique, de la manière de concevoir les applications et leur consommation dans le nuage sous forme de services » Réflexions & analysesFrançois Tonicrédacteur en chef Programmez! et de www.cloudmagazine.frSeptembre 2009 – Version 1.0
  • 2. Conditions dutilisation de ce documentLauteur ne peut être tenu responsable pour les propos contenus dans ce document ni sur lexactitudede ceux-ci, ni sur linterprétation faite.Lauteur autorise la reprise partielle du document en mentionnant impérativement et explicitementson origine (titre, nom de lauteur, ©). Pour une redistribution complète, veuillez contacter lauteur :ftonic2@orange.frCe document nest lié à aucun éditeur ou SSII.Toutes marques citées sont ©. Si des sources ont été oubliées dans le texte, lauteur sen excuse paravance et fera les rajouts nécessaires.© François Tonic, septembre 2009Livre blanc « Cloud Computing » par François Tonic 2
  • 3. Préambule : dopendoc à aujourdhuiDifficile de dire quand apparaît réellement la notion de cloud computing. Peu ou prou avec lagénéralisation de la virtualisation, même si le terme cloud computing nétait pas encore sur toutesles lèvres. Ce mouvement initié depuis plus de 18 mois est en réalité plus profond. Car finalement,la première charge vint des services en ligne, des services « hostés », de ce que lon appelle le SaaSaujourdhui dont la forme plus ou moins « primitive » était les applications ASP, que lon connaîtdepuis des années. Et IBM avait par ailleurs initié, il y a une dizaine dannées, linformatique à lademande, le « on demand ».Sans vouloir provoquer, nous dirions que le mouvement sinitia sur la façon de passer auxapplications plus dynamiques, plus simples, en opposition aux applications monolithiques pardéfinition lourdes, chères à maintenir et dune qualité variable. Or, cest notre modèle depuis ledébut de la micro-informatique. Il y a une quinzaine dannées, nous avions déjà plusieurs modèlesapplicatifs balbutiants : les applications ASP et le modèle Opendoc. ASP ne représentait pasdévolutions majeures au niveau applicatif mais dans la manière dappréhender sa consommation,son déploiement. Par contre, Opendoc au risque de passer pour archaïsant était un concept, unearchitecture logicielle totalement nouvelle. Initiée en particulier par Apple et IBM, opendoc neconnut pas le succès mérité car trop complexe dans son modèle C++ et la nécessité de prévoir « endur » linteraction avec les autres morceaux applicatifs.Pour résumer, une application opendoc se composait de deux éléments : un conteneur et desmorceaux dapplications (= une fonction). En fait, une application opendoc est au départ unecoquille vide, un simple conteneur dans lequel lutilisateur compose son application en ajoutant descomposants fonctionnels. Ainsi on pouvait avoir dans un conteneur des fonctions de navigateurweb, de traitement de web, des fonctions audio et vidéo, de messagerie, dimagerie, etc. Le toutétant capable dinteragir ensemble pour peu que le développeur ait bien respecté le modèle dedéveloppement imposé par les spécifications. Cette rigidité de modèle fut en partie la cause de sonéchec avec le manque de soutien des éditeurs et son manque de visibilité auprès des utilisateurs.Cependant, opendoc a montré une autre voie dans la manière de penser, de découper, de consommerune application.Lidée « actuelle » des applications composites et des mashups nest guère différente dans son esprità opendoc. Ce qui a changé ? Lacceptation du marché et surtout des technologies capables desimplifier linterface pour lutilisateur et surtout de simplifier le travail du développeur même sicertaines couches techniques ne sont guères triviales.Nous sommes donc en plein mouvement saas (Software As A Service = le logiciel comme unservice), les services en ligne, et désormais le cloud computing. Car finalement, toutes ces notionssont liées. Le saas représente une sous-partie du cloud. Pour certains, que nous ne suivons pas, cestlinverse.Car comme avec le web 2, nous assistons à une désinformation ou plus exactement de déformationdes idées, des concepts, avec le matraquage marketing. Cest linconvénient d’une idée conceptuellefloue et non structurée car on peut y mettre tout et nimporte quoi. Il y a un an, la mode était à tout« saasiser » ; aujourdhui il faut tout « cloudiser » même si cela na aucun sens et que lon trahitlesprit même de la technologie.Pourquoi ce « livre blanc » ? Sa prétention n’est pas de donner une parole d’évangile. Il s’agit devous proposer notre perception, notre analyse du marché, des technologies, des plate-formes. L’undes objectifs est de fournir les fondamentaux pour comprendre le cloud dans son ensemble etprendre conscience des nombreux enjeux qu’il recouvre.Livre blanc « Cloud Computing » par François Tonic 3
  • 4. Car on oublie souvent qu’en informatique, si une technologie ou une plate-forme est priseuniquement dans son focus, la plupart du temps le projet échouera ou accusera retard et problèmesdivers et variés. Le cloud impacte l’ensemble de son IT, des applications et même la manière depenser une infrastructure réseau et applicative. Cette approche globale comprend la stratégie,l’infrastructure, le IT, l’utilisateur et la technique.Le sujet est tellement vaste, et passionnant, que nous avons sûrement omis des éléments. Nousespérons pouvoir, grâce à vos commentaires, vos retours, améliorer ce document.Bonne lecture.François Tonic, 16 juillet 2009Livre blanc « Cloud Computing » par François Tonic 4
  • 5. Partie 1 : Architectures du cloud computing « Tout Saas est un service cloud mais tout cloud nest pas un service Saas. »Le terme Cloud Computing se traduit littéralement par « informatique dans les nuages », ces nuagesfaisant référence à Internet et au web. Pour bien comprendre cette terminologie, il faut rappelerqu’Internet est un réseau très complexe et difficile à appréhender car constitué de millions deconnexions utilisant des technologies très disparates (fibre optique, câble, ADSL, etc.). Ainsi, lemonde de l’Internet est complètement abstrait pour la plupart des utilisateurs : il n’a pas de réalitégéographique tangible.L’application de Cloud Computing que nous utilisons peut se trouver à San Francisco, dans unsatellite ou même sur la Lune : cela fait finalement peu de différence pour nous. Les nuages duCloud Computing font référence à cette abstraction. Ils font aussi référence au fait que l’onreprésente souvent Internet sous la forme d’un nuage dans les schémas informatiques.Le Cloud Computing signifie donc que les applications en ligne sont utilisées comme si elles étaientsituées dans l’éther, dans un espace sans réalité physique.Le concept de Cloud Computing englobe les concepts de Software as a Service (SaaS) et dePlatform as a Service (PaaS).1  Que  signifie  SaaS  ?  SaaS signifie Software as a Service, c’est-à-dire un logiciel fourni sous la forme de service et nonsous la forme de programme informatique (code binaire à installer sur une machine). Lesutilisateurs des applications SaaS accèdent à ce service via Internet.La différence entre SaaS et logiciel est essentielle. En effet, les SaaS proposent des logicielsopérationnels, prêts à l’emploi, sans passer par une étape d’installation, et sans aucune tâche demaintenance.Les SaaS sont exécutés sur des plates-formes mises à disposition par des acteurs (comme Google ouSalesforce) que nous appellerons opérateurs SaaS, car leur métier est plus proche de ceux desopérateurs télécoms que de celui d’éditeurs de logiciel. Les SaaS sont les successeurs des ASP(Application Service Providers). Ils se distinguent de ces derniers par :Livre blanc « Cloud Computing » par François Tonic 5
  • 6. • L’usage d’interfaces RIA ; • Des architectures dédiées et optimisées : les applications SaaS bénéficient d’un environnement d’exécution conçu pour un usage en ligne avec une forte charge utilisateur ; elles sont liées à cet environnement et ne peuvent pas être « déménagées » simplement sur un serveur en entreprise. • La mise en avant de fonctions collaboratives : les SaaS mettent l’accent sur les pratiques collaboratives héritées du web 2.0 ; • La fourniture d’API ouvertes : les SaaS fournissent des API permettant de faire appel à leurs fonctionnalités.2  Que  signifie  PaaS  ?  PaaS signifie Platform as a Service. Ce terme désigne une plate-forme d’exécution hébergée par unopérateur et accédée depuis Internet. Cette plate-forme peut être utilisée pour exécuter des SaaS, etpeut aussi être mise à la disposition des entreprises qui souhaitent faire héberger leurs applicationsissues de développements spécifiques.Amazon a été précurseur dans ce domaine avec Amazon Web Services (AWS).Les PaaS se distinguent des hébergeurs classiques par : • Une grande abstraction de la plate-forme. L’entreprise utilisatrice ne connaît pas les configurations des machines qui exécutent son application. • Une architecture à très haute disponibilité basée sur des datacenters répartis dans le monde entier, et garantissant une grande résistance aux sinistres (inondations, incendies, etc.)Les plateformes PaaS reposent généralement sur les composants suivants : • Un ensemble de datacenters : leur nombre est toujours supérieur à trois. Dans les cas de Microsoft ou de Google, les centres se comptent en dizaines. • Une couche d’exécution sur une machine virtuelle via un hyperviseur, ou sur un runtime de type Java, .NET... • Une couche de persistance accédée via HTTP sous forme de base de données ou de fichiers. • Une couche d’authentification en local ou déléguée à l ‘annuaire de sécurité de l’entreprise. • Une couche d’intégration : une API ou un bus d’intégration pour échanger des données avec l’entreprise. • Une console d’administration qui permet de gérer le déploiement et le versioning des applications, ainsi que le monitoring de la plate-forme.Cette partie a été écrite par Guillaume Plouin (directeur programme innovation SQLi, auteur deCloud Computing & SaaS, aux éditions Dunod, mars 2009). Avec son aimable autorisation.3 Le IaaSLe Iaas signifie Infrastructure as a Service. Il s’agit de la partie infrastructure du cloud, c’est-à-direles outils serveurs, administrateurs servant à fournir l’infrastructure comme les outils devirtualisation, la console d’administration, le système, les librairies. Un exemple d’Iaas : l’offreUbuntu, Amazon EC2. Dans le IaaS, on retrouvera donc les composants clés : le réseau (montée encharge, load balancing, firewall), la partie matérielle, la plate-forme de virtualisation, les outils defacturation et de contrôle de consommation, les niveaux de services.Le Iaas peut prendre plusieurs formes : fournisseur d’outils IaaS (Vmware, Eucalyptus, Ubuntu) etles fournisseurs d’infrastructure complète (Amacon EC2, gogrid, etc.).4 Un cloud mutualisé ou dédié ?Dans une architecture classique Cloud, nous sommes dans un contexte mutualisé, car en datacentersglobaux gérés ou loués par des fournisseurs. Aujourdhui, les grands éditeurs (IBM, Microsoft,Google, Apple, Salesforce, etc.) possèdent leurs centres de données. Plusieurs même pour assurer laréplication des données et des environnements que le fournisseur doit assurer contractuellement.Livre blanc « Cloud Computing » par François Tonic 6
  • 7. Est-il possible de disposer dun cloud dédié ? Pas dans les grands datacenters (ou tout le moins, paspour le moment). Par contre auprès des fournisseurs classiques dhébergement, de hosting, il est toutà fait possible de disposer de son cloud dédié, que lon peut ici nommé cloud privé (noussimplifions volontairement le terme). Dans ce scénario, les coûts varient énormément.5 La question du cloud privé (ou private cloud)Les hébergements, hosteurs tels que Ikoula et les éditeurs misent sur 5 piliers pour justifier del’intérêt du cloud privé (source : Ikoula) :- Flexibilité : votre infrastructure est évolutive. Redimensionner vos Virtual Machines ou réallouervos ressources vous permettent d’adapter rapidement votre infrastructure à vos besoins.- Réactivité : le clonage, les migrations à chaud, ou encore le déploiement de VM sont desopérations très rapides à réaliser.- Economies : avec des serveurs consolidés et une utilisation des ressources optimisée, la factureénergétique et l’investissement serveurs diminue fortement.- Respect environnemental : en dehors des économies réalisées, le Private Cloud permet de réduirefortement le gaspillage énergétique.- Sécurité : totalement dédié, le Private Cloud vous offre un niveau de sécurité maximal.L’isolation est garantie et des normes de sécurité sont définies spécifiquement pour l’entreprise.Dans l’architecture type est la suivante (source : Ikoula) :Pour une entreprise qui ne veut pas risquer une externalisation radicale de son SI, le cloud privé(hébergé localement ou sur des serveurs dédiés / réservés), peut être une solution à considérer. C’esten quelque sorte une forme d’intranet, d’extranet mais au niveau infrastructure et plate-forme. ALivre blanc « Cloud Computing » par François Tonic 7
  • 8. notre sens, il ne faut pas opposer cloud privé et cloud public, car rapidement, les deux serontamenés à travailler ensemble. Nous arriverons donc à des cloud hybrides mêlant les deuxapproches. Dans le public, on déportera les éléments non sensibles et dans le privé, on gardera lesdonnées, applications sensibles liées au business de l’entreprise.Désormais la guerre du cloud privé est lancée. Amazon a annoncé son Virtual Private Cloud.Amazon VPC est présenté comme un pont entre linfrastructure IT existante et le cloud dAmazon.Il sagit de déporter, tout en restant connecté à son IT, une partie de son infrastructure dans desinstances Amazon isolé pour avoir des ressources supplémentaires, avec accès en VPN. Il estintégré à Amazon EC2. Mais ce nest que la première étape. Et comme dhabitude on paie à laconsommation. les fonctions annoncées sont :- création de son VPC sur linfrastructure Amazon, avec des IP privées - possibilité davoir un ou plusieurs subnets- connexion sécurité via un tunnel VPN - rajout possible dinstance EC2 dans sa VPC - le trafic peut être surveillé par ces outils de sécurité- possibilité détendre ses pratiques de sécurité et de gestion de son infrastructure existante dans sa VPC6 Les pures players vs éditeurs traditionnelsLe Saas et le cloud favorisent l’émergence d’éditeurs et de prestataires uniquement dédiés à cesdomaines. On peut citer deux noms : Salesforce, ProcessOne ou encore yousaas. Ces pures playersjouent la carte du service en ligne et du cloud. L’avantage est de partir d’un héritage zéro alorsqu’un éditeur traditionnel doit s’adapter à la nouvelle donne technique sans pour autant cannibaliserou fragiliser ces fondamentaux.Souvent, nous nous interrogeons sur le potentiel des pures players à supplémenter les éditeurs.Lorsque l’on s’attaque frontalement à un géant comme SAP sur les progiciels, difficile d’imaginerun combat équitable. Sur de petits projets ou des projets précis dans une grande entreprise, le pureplayer a sa place. Mais l’éditeur traditionnel, quand il a vu la menace, a réagi soit en tissant desalliances avec le pure player, soit en commercialisant sa propre solution en ligne.Des pures players peuvent effectivement prendre des marchés, dans certains scénarios il y auracollaboration avec une solution traditionnelle ou bien l’éditeur traditionnel imposera ses services enligne. Nous sommes là sur du cas par cas. La difficulté pour les pures players, la plupart du tempsde petite taille, c’est la reconnaissance du marché et une visibilité auprès des utilisateurs. Enentreprise, quelle garantie offre un pure player quasi inconnu pour elle ? Même si la DSI a assouplises positions conservatrices, ce n’est pas pour autant qu’elle se lancera tête baissée avec un pureplayer. C’est à ce dernier de démontrer sa compétence, sa valeur ajoutée, sa qualité. La pérennitédemeure un argument.7 Les rachats secouent le cocotier : l’exemple VMware - SpringSourceDepuis des mois, les rachats se succèdent dans le domaine de la virtualisation, l’administration, lespures players cloud ou saas. L’été 2009 n’a pas été à l’écart du mouvement. Début août 2009,VMware annonce le rachat pur et simple de SpringSource, éditeur open source d’outils et dessolutions de développment web, avec le bien connu framework Spring. Quel intérêt pour VMwarede ce genre de rachat ?Livre blanc « Cloud Computing » par François Tonic 8
  • 9. Il y a à mon sens plusieurs éléments à considérer : VMware dispose d’un solide Iaas avec vSphere4, VMware reste absent du Paas et surtout possède une énorme faiblesse dans le modèle dedéveloppement. Or, pour prétendre concurrencer ou tout le moins devenir une alternative crédible àde l’Ubuntu, du Google, du Microsoft et bien entendu à Force.com, VMware n’avait pas le choix :il lui fallait un solide modèle de développement et d’administration, si possible Java. C’estmaintenant chose faite. Sur le cloud technique de SpringSource, voici un élément particulièrementintéressant.Comment mettre une application en production sur du cloud, par exemple en déploiement EC2 ?L’auteur pointe vSphere et le vApp. Avec le support de Open Virtualization Format, il est possibled’encapsuler les composants multi-tiers d’une application. Donc vApp est parfait pour lesdéploiements d’application blueprints. Dans « dm server » de Spring, il faut alors configurer lespropriétés vApp, puis le déploiement se fera sans connaissance particulière de l’environnementvApp et des machines virtuelles liées. En associant les deux mondes, on obtient un modèle PaaScouplé à un modèle de développement et un modèle Appliance d’application.Pour Vmware, un des accents est mis sur le choix du Paas. Et très clairement, Vmware veut être unealternative au PaaS actuel Google AppEngine et Force.com ! Et le schéma ci-dessous résume lafusion entre vSphere et le modèle applicatif Java à l’intérieur :Livre blanc « Cloud Computing » par François Tonic 9
  • 10. Le PaaS sera donc un des enjeux majeurs des prochaines années. Car le but est finalement deproposer un modèle de développement, de déploiement, d’administration unifiée, si possible le pluslarge côté langage. Force.com reste le fer de lance de ce marché mais VMware ouvre une (nouvelle)brèche.Sitôt racheté par VMware, SpringSource se lance dans le cloud avec CloudFoundry qui vient d’êtreracheté par… Spring Source... Le but est simple : proposer une plate-forme pour le déploiement etl’exécution pour les applications Java. Le tout respectant le cycle de l’application Java : build,exécution, administration. Foundry est donc une plate-forme de cycle de vie des applications Java,Spring et Grail. Le tout fonctionne sur Amazon EC2. Cette offre s’appuie sur Cloud Tools.Cloud Tools est une suite doutils open source pour déployer, manager et tester les applications JavaEE dans un contexte Amazon EC 2. Cette suite se compose de trois éléments :- Amazon Machine Images : configuré pour fonctionner avec Tomcat et EC2Deploy- EC2 Deploy : core framework. manager les instances EC2, à configurer MySQL, Tomcat,Terracotta et Apache. Permet de déployer les applications- Maven et Grails plug-ins utilisés par EC2Deploy quand on déploie lapplication sur EC2.8 Et côté matériel ?Quand on parle de Cloud Computing ou de Saas, on oublie souvent d’évoquer le matériel. Quelsimpacts ? En soi, cela ne change pas grand chose. Du moins dans un premier temps. Son ordinateur(bureau, portable), équipé d’un navigateur internet, d’une connexion web de bonne qualité, suffit àaccéder à son cloud.L’impact par contre se fait signification sur la partie serveur. Car en passant à une architecturedéportée telle que le cloud limite de facto la puissance serveur nécessaire. Excepté dans le cadred’un cloud privé hébergé sur ses serveurs. Mais, dans ce cas, la virtualisation permet de faire mieuxavec moins de serveur ou tout le moins on optimise au mieux l’utilisation de chaque serveur. Dansle cas d’un cloud entièrement déporté, la partie serveur (matériel) n’a plus besoin d’être aussiimportante car les fonctions prises en charger sont moindre. Pareillement dans une approche Saas.Par contre, vous devrez garder les services élémentaires (stockage, serveur de fichier,d’impression…). La même révision de son parc serveur devra être réalisée avec le saas.Théoriquement, l’usage du cloud ou de service saas ne nécessite pas de PC surpuissants. Cependant,mieux vaut disposer des dernières versions de navigateurs, d’une connexion haut débit et stable.Livre blanc « Cloud Computing » par François Tonic 10
  • 11. Il est vrai que si nous poussons plus loin la réflexion, le cloud peut être une renaissance des clientslégers et ultra clients. Car si on démarrage sur un cloudos, l’utilisateur doit-il disposer de la mêmepuissance machine ? Non. Car finalement, le traitement et la charge processeur se feront sur leserveur hébergeant le cloud. On déporte ainsi les besoins matériels de son poste utilisateur aunuage.Verra-t-on apparaître des CloudPC, des CloudBook ? Oui sans aucun doute. Dans un premiertemps, nous pensons que ce ne sera que des versions légèrement modifiées de PC actuelles, avec lapossibilité de démarrer sur un cloudos. Déjà, des « netbooks cloud » sont attendus sur le marché(gos cloud et gigabyte m912). Reste à ouvrir le cloud aux Smartphones ce qui ne tardera pas.Malgré tout, la partie purement matérielle du cloud, côté utilisateur, ne devrait pas évoluer à courtterme. Les enjeux pour les constructeurs sont trop importantes et les éditeurs logiciels ne sont paspassés à ce nouveau modèle « on demand ».Livre blanc « Cloud Computing » par François Tonic 11
  • 12. Partie 2 : les promesses du cloud (au sens large)« Le cloud computing permet de réduire la nécessité d’immobiliser des capacités informatiquesavant que ces capacités ne soient nécessaires. Le cloud permet de concevoir et de construire desnouveaux systèmes quand le business ralentit et les systèmes sont prêts et capable de monter encharge rapidement quand les conditions l’exigent. » Peter Coffee (director of Platform research –Salesforce.com)Quelles sont les promesses et les objectifs du cloud computing pour le développeur, lutilisateurfinal, ladministrateur et de lentreprise, voire même pour un éditeur ? Si on suit le manifeste OpenCloud, nous aurions comme buts : le choix, la flexibilité, la rapidité, lagilité et la qualification.Cependant, il ne faut pas généraliser ces objectifs et buts car cela dépend de quelle section du cloudnous parlons. Car il y a une différence de buts d’objectifs entre le cloud pur et les services Saas...Il semble difficile de donner des objectifs et des buts au cloud car son étendue est telle que celadépend finalement de ce que lon recherche réellement en le mettant en place. Pour notre part, nousplacerons en premier le choix et la flexibilité. Ensuite, il y a en vrac ladministration, ledéploiement, linfrastructure totalement ou partiellement déportée dans le nuage. Et surtout, neloublions pas : on paie ce que lon consomme réellement. Nous insistons sur ce point car laconsommation à la demande, même si ce nest pas nouveauté, se généralise (enfin pourrait-on dire).Nous reviendrons sur tout cela plus loin.1 Les avantages du Cloud computing selon le manifeste Open CloudLe manifeste cite les avantages suivants :- Montée en charge selon la demande (réelle)- Adaptabilité du datacenter pour laccès, lorganisation, la volumétrie des données- Minimiser les coûts daccès (au départ)- Améliorer le process businessA cela, nous rajoutons (liste non exhaustive) :- administration le plus souvent centralisée et simplifiée- gestion de linfrastructure simplifiée- adaptabilité de linfrastructure selon ces besoins réels à un instant T- souplesse du plan de reprise dactivitéClairement, le Cloud Computing propose de solides arguments. La souplesse, la flexibilité et lamontée en charge de linfrastructure cloud sont de vraies avancées par rapport à une infrastructuredite locale, le classique réseau – serveur. Ces avantages, nous les avions déjà avec la virtualisation(type serveur et VDI). Mais ici nous allons plus loin car nous déportons linfrastructure en dehors.Dautre part, cest au fournisseur de linfrastructure cloud à faire la mise à jour même siladministrateur doit toujours veiller à la bonne tenue de son infrastructure.Ces premiers arguments sont dautant plus forts que lon nimmobilise plus dans lentreprise desserveurs sous-utilisés avec des coûts de maintenance et de fonctionnement quils soient ou non àpleine charge. Linformatique à la demande devient donc ici linfrastructure à la demande danslaquelle on instancie de nouveaux serveurs quand cela est nécessaire. On peut alors ajuster au plusjuste la puissance serveur (stockage, CPU, bande passante, serveurs...) tout en veillant à unemeilleure charge d’utilisation (on oublie trop souvent la notion de saturation des machines et desprocesseurs). Et on paie, comme énoncé déjà à plusieurs reprises, ce que lon utilise. Sur ce pointprécis, attention tout de même à bien maîtriser la tarification car elle est souvent multiple (tempsdutilisateur, bande passante, CPU, stockage, nombre de serveurs, etc.). Avant tout choix dun cloud,le calcul dun retour sur investissement savèrera indispensable.Livre blanc « Cloud Computing » par François Tonic 12
  • 13. Sur lamélioration sur process business, nous ne serons pas aussi catégoriques car cela se voitsurtout dans la partie Saas. Même si effectivement, la fluidité de linfrastructure fait partie dunprocess business. Sur le coût daccès, nous sommes ici aussi prudents mais nous le détaillerons dansun autre chapitre. Par contre ladministration y gagne. Outre laspect purement matériel, les offrescloud misent sur la centralisation de la console (dans le navigateur, voire éventuellement en clientriche). Si des efforts restent à faire sur le monitoring de disponibilité, depuis les pannes fracassantesde Salesforces, Google, Azure, Mesh, les fournisseurs font des efforts de transparence. Il estimpératif pour lIT ou même pour un utilisateur avancé de voir exactement ce qui se passe sur soninfrastructure déportée. Voire de pouvoir établir des politiques de basculement automatique si desserveurs deviennent inaccessibles ou trop lents : il faut pouvoir basculer automatiquement vers unautre datacenter ou dautres serveurs.2 Les inconvénients du Cloud computing selon le manifeste Open CloudLe manifeste évoque les inconvénients et freins suivants :- la sécurité- linteropérabilité des données et des applications et de leur portabilité- gouvernance et administration- monitoring et métrique.Sur le monitoring et ladministration, ils peuvent être vus comme des points faibles mais les progrèsconstants permettent aujourd’hui une meilleure gestion au quotidien, que ce soit sur les consolesgraphiques ou les consoles en ligne de commande. Cependant, il est vrai que sur les métriques, lesmécanismes ne sont pas à la hauteur des outils « locaux ». Sur linteropérabilité, véritable point noirdu cloud, un chapitre abordera spécifiquement ce problème. Sur la sécurité, le problème n’est pasaussi dramatique que l’on voudrait bien nous le faire croire.Il est vrai quaujourdhui les clients du cloud regardent plutôt à déployer un cloud interne justementen raison du flou sécuritaire. Cependant, il ne faut pas être extrême car le cloud bénéficie desmécanismes éprouvés des réseaux et du web en général. Ensuite, si les mécanismes ne sont pasactivés ou mal déployés, ce nest pas la faute aux fournisseurs mais aux administrateurs,développeurs, utilisateurs. Depuis des années, les éditeurs et organismes sensibilisent lesdéveloppeurs à concevoir des applications, des sites web sécurisés. Mais cette évangélisation reste,malheureusement, bien trop souvent lettre morte, au mieux, limitée ou mal comprise et mise enœuvre. Les risques existent sur le cloud comme ailleurs. La sécurité totale nexiste pas et nexisterajamais (sauf à considérer le proof computing).3 La sécurité : l’autre enjeuIl est nécessaire de se poser des questions sur la surface de risques (réelle et supposée), lesmécanismes à utiliser. Finalement, ladministrateur et le RSSI garderont un rôle important. Ensuiteon peut se demander quelle intégrité de mes données, de mes applications, voire de mon interfaceavec lannuaire dentreprise, la fédération didentité, etc. Nayez aucune illusion. La sécurité sur lecloud aura un coût humain, financier et technique. Un audit précis sera donc nécessaire avant touteproduction de son cloud. Il faut impérativement des sessions sécurisées : VPN, SSL, https, cryptagedes données en transits, authentification forte, vérification de l’intégration des données en E/S,couplage du cloud avec les profils et politiques d’accès de l’entreprise, application des patchs desenvironnements serveurs, sécurisation des postes clients. La mise en place de monitoring et d’outilsspécifiques s’avèrera indispensable, ce que l’offre actuelle ne peut faire réellement.Le schéma suivant (Understanding Service Architecture, MSDN) illustre l’intervention du protocolehttps dans un contexte Azure :Livre blanc « Cloud Computing » par François Tonic 13
  • 14. La sécurité dans le cloud a un coût sur le temps de traitement, sur le budget et le temps dedéveloppement. D’autre part, le fait de développer dans le cloud ne dispense pas le développeurd’appliquer les règles du développement sécurisé. Le code doit être qualifié et sécurisé. Les testeursdoivent mettre en place des matrices de tests de sécurité et les appliquer scrupuleusement. Ledéveloppeur devra utiliser les mécanismes disponibles aussi dans le langage choisi et lesmécanismes offerts par la plate-forme.Livre blanc « Cloud Computing » par François Tonic 14
  • 15. Dans le schéma précédent (source : VMware), nous retrouvons l’architecture de l’offreinfrastructure vSphere v4 de VMware. La sécurité est dévolue en grande partie à deux modules :vShiled Zones (chaque application est soumise aux règles de sécurité dans un environnementpartagé) et VMsafe (pour utiliser des produits de sécurité fonctionnant de concert avec les couchesde virtualisation afin de « blinder » les machines virtuelles).Côté Amazon Web Services (dont EC2, source : Amazon Web Services overview of securityprocess june 2009), les recommandations sont claires : certifications et accréditations, design desécurité, sécurité physique, backup, sécurité réseau, sécurité liée aux services Amazon (EC, StorageService, SGBD…). Si on prend la sécurité réseau, l’éditeur veut prévenir les attaques DDoS via uneAPI à implémenter, génération automatique de certificat SSH quand on se logue, protection contrele spoofing IP et contre le scanneur des ports. Le schéma ci-dessous (source : Amazon AWS)montre une architecture firewall pour protéger l’infrastructure EC.Sur la partie virtualisation, Amazon pointe du doigt l’isolation des instances (Amazon est très actifautour de l’hyperviseur Xen). L’isolation des instances est capitale pour la stabilité del’infrastructure virtuelle et éviter ainsi toute fuite mémoire ou échange inter-instance non voulueprovoquant à terme l’écroulement de l’infrastructure (voir schéma ci-dessous).Livre blanc « Cloud Computing » par François Tonic 15
  • 16. On rajoutera les notions de qualité de services (SLA). Là encore, la vigilance reste indispensable :vérification des niveaux de qualité par contrat, quelles interventions possibles, quel niveau deredondance et de réplication des données (entre deux datacenters par exemple), etc. La partie légaledemeure encore assez floue car les implications pour toutes les parties savèrent importantes.4 Les avantages et inconvénients des services en ligne de type SaasL’une des plus remarquables success story du Saas est sans conteste Salesforce. Il s’agit pour ceséditeurs de bannir le logiciel du poste de travail. On déporte alors tout ou partie d’une solution,d’une application sous forme de services, de plate-formes de services en ligne. C’est le cas avec lesGoogle Apps, Acrobat.com, Microsoft Online, les services Lotus, etc. Aujourd’hui, on trouve desservices en ligne de type Saas pour tout et n’importe quoi : sécurité, mail, ERP, CRM, processusmétier, serveur de messagerie, environnement portail.Les avantages sont (liste non exhaustive) : - souplesse et facilité de mise en œuvre - fin du déploiement de solution monolithique et lourde - mise à jour du côté éditeur - tarification plus réelle à la consommation - migration des données vers les services en ligneMais les inconvénients ou points sensibles sont aussi nombreux : - quelle réversibilité d’un saas ? - interopérabilité entre les services - qualité et garantie contractuelle - définition des responsables légales en cas de panne, de perte de données - bien maîtriser les aspects coûts - agrégation des services entre eux5 Quels utilisateurs ?Cette question peut paraître bête mais lorsque nous avons testé les solutions Google, Force.com,Microsoft Online / Azure / Mesh, etc. et durant les discutions avec les éditeurs, l’interrogationLivre blanc « Cloud Computing » par François Tonic 16
  • 17. apparaissait plus que pertinente. Le marché premier reste clairement l’entreprise. Les grandesstructures commencent à considérer le cloud après le saas, qui commence « à prendre » ici et là. LaPME utilise déjà, même si le pourcentage reste faible, des services saas. Mais le cloud au sens strictdu terme ? Pour le moment, c’est la prudence et si cloud il y a, nous serons dans une approche cloudprivé pour des raisons de sécurité.Les offres d’un Amazon EC, Azure, Force.com, etc. ciblent uniquement l’entreprise. Rien pour legrand public à ce niveau. Même constat pour les offres webos vivant grâce à l’entreprise et non surl’utilisateur lambda. Par contre, des services de type Live Mesh peuvent intéresser un public mixte,« amateur » et professionnel. Mais quel utilisateur lambda à la maison s’amusera à configurer unApp Engine ou un Force.com ? Il faut être réaliste. Ces plate-formes et infrastructures sontinadaptées dans leur approche et leur ergonomie. Il faut d’autre part absolument des éditionspersonnelles / développeur gratuite ou à très faible coût, à côté des offres « normales ».La démocratisation du Saas et sans doute encore plus de l’approche hybride S+S (dans un premiertemps) viendra par un couplage avec des logiciels du quotidien. Depuis un traitement de textepouvoir accéder à un espace de stockage en ligne facilite un tel usage (voir Office 2007). Live Meshest un exemple à considérer et à suivre. Par son ergonomie, ses fonctions, il peut séduire un trèslarge public. Cependant, la réussite dépendra d’un élément incontournable, en plus de l’ergonomieet de la praticité : l’évangélisation.Les éditeurs doivent impérativement communiquer, expliquer, présenter, promouvoir. Non pas encentrant uniquement sur leurs propres solutions mais dans une approche macro : expliquer lesrudiments du cloud, du saas (c’est quoi, pourquoi faire, où, quand, comment). Ensuite, l’explicationmicro (plus en profondeur) sera possible. Mais une fois de plus, on confond les deux approches. Etmalheureusement, la presse ne constitue pas toujours un medium fiable. Ni les éditeurs.Quand nous entendons la question suivante durant une conférence de presse, « Windows 7 sera-t-ildistribué en SaaS ? », on mesure l’océan d’incompréhension.6 Le succès passera-t-il par des « AppStore » ?Jusqu’à récemment, nous n’avions pas réellement examiné la problématique des applications etsolutions prêtes à l’emploi, disponibles directement sur une plate-forme cloud. Dans le Saas,l’agrégation (que se soit par mashup ou applications composites) se répand « facilement » car ils’agit en quelque sorte d’un morceau ADN de ces services même si l’interopérabilité entre servicesest loin d’être garantie. Mais sur le cloud ?Après un test rapide de la plate-forme Force.com en édition personnelle / développeur (versiongratuite), il est facile de comprendre l’intérêt d’une boutique d’applications où l’on puise la solutionque l’on souhaite et qui répondrait le mieux à un besoin donné. C’est une autre manière, si nousvoulions faire un raccourci, de consommer des services en ligne. Mais là, les solutions disponiblesle sont pour une plate-forme donnée. Les logiciels disponibles sont gratuits ou payants. L’usageprofessionnel est une fois de plus mis en avant. Nous avons ainsi une sorte de AppStore, trèsprimitif sur Azure, Mesh Developer ou encore App Engine, bien plus développé sur Force.com.Nous pensons que ces boutiques constituent un des avenirs de la consommation de logiciels sur lecloud. Mais des progrès sur l’ergonomie et les procédures de déploiement restent à réaliser. Notreexpérience sur Force.com démontre à la fois le potentiel d’une telle approche mais les procéduresdemeurent trop lourdes et l’ergonomie laisse à désirer.Livre blanc « Cloud Computing » par François Tonic 17
  • 18. 7 Le Cloud IT est-il le futur du DSILe cloud impacte l’infrastructure, le système d’information, comme peut le faire un service Saas,mais à un périmètre moindre. Comme la virtualisation de serveur permet de consolider et derationaliser les serveurs physiques, le cloud externalise une partie de son infrastructure ou le rendplus réactive, mieux chargée si on garde le cloud chez soi.Le métier du DSI change aussi car il doit posséder une vision du cloud et savoir comment l’intégrerlorsque cela lui semble bénéfique. Il ne faut pas s’y lancer tête baissée. Il faut surtout auditer,définir le périmètre d’action du cloud, les conditions d’externalisation, de migration, de plan PRA etde retenir en interne si besoin. Le cloud nécessite donc une sérieuse redéfinition de l’architectureglobale de son infrastructure SI, aussi bien matérielle que logicielle. Même remarque pourremplacer une application par un service en ligne.Le DSI doit jouer son rôle : - vision à long terme du SI - maîtrise des coûts, investissements et évolutions - aligner le SI sur le métier de l’entreprise.En théorie, le cloud offre au SI une flexibilité dans la montée en charge, le load balancing, ledéploiement des applications. Si la DSI ne possède pas de compétence. Il faut procéder à une mise àniveau des compétences et s’adjoindre les compétences d’une SSII, d’un intégrateur spécialisé dansle domaine. Cependant, toute externalisation doit se faire dans les meilleures conditions et lamaîtrise technique doit être claire pour la DSI, les prestataires, les fournisseurs. Le directeurinformatique doit disposer du niveau de ROI, des alternatives en cas de besoin, des clausescontractuelles, etc.Aujourd’hui, pour une DSI, le cloud rejoint les problématiques d’externalisation, d’infogérance. Ilfaut franchir le pas mais aussi savoir ce que l’on veut faire à terme avec cette approche. Ladifficulté sera, comme vu plus haut, de définir strictement le périmètre que l’on souhaiteexternaliser. Ensuite, la conduite du projet est classique.Le Cloud IT sera la plupart du temps mixte. Il faut rester prudent tant que l’interopérabilité, laqualité de service, entre autre, ne seront pas clarifiées. Et comme toujours : quelle valeur apporte lecloud, le saas… au-delà de la simple commodité.Livre blanc « Cloud Computing » par François Tonic 18
  • 19. Partie 3 : Saas et S + S, les questions à se poserSous ce terme, les éditeurs y mettent tout est nimporte quoi. Nous prenons ici le parti unique duSaaS, soit le logiciel comme un service et un autre approche le Logiciel + Service ou Software +Services. Cette dernière est promue par Microsoft. Léditeur possède dailleurs une partie en ligneavec les services Live et les services Online. Le succès de Salesforce.com est là pour démontrer laviabilité d’un acteur « pure player ».1 le marché ne sera jamais tout SaasSimple constat pragmatique, le marché ne sera jamais 100 % Saas, Cloud. Aucun éditeur ouanalyste ne le pronostique. Cela pourrait devenir réalité mais dans un cycle long. Les estimationsdes principaux analystes (Gartner, IDC, etc.) oscillent sur une percée du logiciel de type Saas àhauteur de 12 à 15 % dici 2012 – 2013. Aujourdhui, les taux de croissance paraissent incroyablescar nous partons de zéro, cependant, même à 5 ou 7 % de volume (pas en valeur), les éditeurs nepeuvent pas omettre ce marché.Passer au tout Saas posera des problèmes énormes de disponibilité des services et aussi de pouvoirassurer une connexion web optimale tout le temps et nimporte où. Irréaliste aujourdhui. Par contre,le Saas devient une réalité pour les services de paie, dans lERP, le CRM, la messagerie, le stockagede données, la communication unifiée, la bureautique. Dans le nomadisme, le Saas (en lui assurantune synchronisation avec le poste de travail pour les données en mode connecté / déconnecté parexemple), offre un intérêt. Dans les applications nécessitant une forte puissance de calcul, le Saas nepeut assurer la même qualité quune application locale. Nous pensons à la CAO, les jeux, lacompression – décompression audio/vidéo... Rappelons que dans les infrastructures VDI(virtualisation du poste de travail), les protocoles d’interface déportée ne peuvent supporter lesexigences d’applications intensives.Le Saas devrait cependant simposer sur des fonctions basiques que lon peut qualifier decommodité. Nous les avons cités plus haut : messagerie, ERP, la bureautique, etc. Mais clairement,le Saas de commodité nest pas un modèle économique viable, ou trop limité. Il faut donc proposerdes services à valeur ajoutée comme le CRM, le process métier, le serveur de messagerie. Mais cesaas « valorisé » ne sera pas pertinent partout.Dautre part, pour un éditeur, le modèle Saas impose de nouvelles contraintes et un changementradical de modèle économique. Et le risque est de proposer du saas bradé ou de mauvaise qualité.Attention, même dans les pures players Saas, il y a le bon grain et le mauvais. Pour un éditeurvendant des licences, le saas oblige à repenser ces solutions. Jusquoù faut-il aller ?2 – La réalité à ne pas oublierIl ne faut surtout pas se lancer tête baissée. Il faut définir un plan d’action pragmatique et raisonné.Tout d’abord, définir le ou les applications que vous souhaitez déporter, et jusqu’à quellegranularité puis établir une liste de services susceptibles d’être compatibles avec vos attentes. Decette liste, vous devez définir le niveau fonctionnel offert et celui que vous attendez, la qualité, leniveau de contrat, les mécanismes de sécurité et notamment sur la réplication des données en cas decrash.La reprise de l’existant est un élément crucial pour beaucoup d’utilisateurs. Si vous migrez un ERP,un CRM, une messagerie, comment se passe la migration des données et quel niveau de migrationest offert. Cette question est loin d’être anodine dans un SGBD, une messagerie, un ERP, une paie.Mais il faut aussi se poser la question inverse. Si je reviens à un mode local, comment je migre lesdonnées. Et enfin, comment je migre d’un service à un autre.Livre blanc « Cloud Computing » par François Tonic 19
  • 20. 3 – Prévenir une indisponibilité par un PRAOn parle beaucoup de plan de reprise d’activité dans la virtualisation, le cloud mais plus rarementdans le Saas. Or, comment une entreprise peut prévenir une coupure de service sans faire tomberson business, une partie de son IT. Les pannes de Google, de Microsoft et de Salesforce montrentune forme de fragilité même si les pannes demeurent généralement limitées dans le temps etfinalement assez rare.Basiquement, pour un service A, il faudrait avoir 1 ou 2 services comparables sur lesquelsl’entreprise sera capable de basculer en cas de panne du service A. Mais là se pose la question del’interopérabilité des services et comme dans les Iaas et Paas, le Saas manque cruellementd’interopérabilité inter-services. Bref soyez très vigilant sur la qualité de service annoncée parl’éditeur.Pis, dans une agrégation de services, en cas de panne d’un service B, quelles conséquences sur lesservices A et C ? Et quelle responsabilité légale pour les éditeurs des services actifs et pour leservice tombé ? Dans le multi-prestataire, le flou actuel devra être scrupuleusement résolu, etrapidement.4 S+S : une approche hybrideSi le logiciel desktop demeurera majoritaire, cela ne signifie pas que le monde online et offline nesauront pas communiquer. Lapproche logiciel + services constitue une approche hybride alliant dulogiciel desktop et du logiciel en service (donc en saas). Par exemple, une suite bureautique desktopayant accès un espace de stockage en ligne. En allant plus loin, le service en ligne correspond peuou prou au logiciel desktop mais lutilisateur peut basculer de lun à lautre en cas de besoin parexemple en cas de coupure réseau par exemple lors dun déplacement. Microsoft prône ce modèlenotamment avec certains services live, le futur Office 2010. Dans un certain sens, des éditeurs ayantune offre saas peuvent faire un modèle hybride, dans le sens où le service en ligne vient encomplément et/ou sinsère dans le logiciel desktop.Un impératif toutefois, lutilisateur doit comprendre les fonctions et lutilité du service. A léditeurde bien communiquer et déviter des formulations ou une complexité dans loffre.Livre blanc « Cloud Computing » par François Tonic 20
  • 21. Partie 4 : léditeur traditionnel à lépreuve du SaasTexte paru dans Solutions & Logiciels n°7 dans une forme modifiéeAujourd’hui, le saas, les services en ligne, les services hébergés sont sur toutes les lèvres. Desconférences s’organisent, les éditeurs commencent sérieusement à y venir. Mais quand on nes’appelle pas Microsoft, IBM, Oracle, SAP, comment un éditeur, un ISV peut-il passer en saas sansmenacer son existence et son chiffre d’affaire ?« Comme toute nouvelle mode, la tendance est exagérée. Même si les fondements sont solides, il nefaut perdre la raison. Les avantages du saas freinent les éditeurs car il les alourdit. », commenteAvigdor Luttinger (Magic Software). Entre la demande des clients et les capacités de l’éditeur à yaller, il faut trouver un compromis.En France, nous avons plus de 2 500 éditeurs ; le plus souvent ce sont des solutions verticales, trèsspécialisées sur un secteur économique, un métier. Comme nous allons le voir, le vrai problème dusaas n’est pas réellement la technologie et la migration de l’application mais définir son modèleéconomique. Pour un ISV il s’agit d’une étape cruciale. « Nous avons identifié 3 problèmes :technique, commercial et financière. », avertit d’emblée Jean-Michel Bérard (président du directoireEsker).1- L’écueil du modèle économique« Il faut comprendre le Saas. Le passage en saas n’est pas qu’un problème technique mais business.Comment aller sur ce marché ? Il faut travailler sur comment on peut avoir des utilisateurs sanscannibaliser les ventes. Le Saas est un nouveau marché », analyse Colleen A. Smith (directriceSaas, Progress Software).Nous touchons le cœur du problème pour un ISV voulant se lancer dans le saas. L’équation peut serésumer ainsi (en simplifié) : − une licence est vendue 100 (hors mise à jour et services) − un abonnement est vendu annuel / par utilisateur est vendu 10Bref comment générer le même niveau de revenus en vendant des abonnements Saas ? Souvent, onévoque un délai de 2 à 3 ans avant de retrouver un niveau « normal » de revenus. Or, quand un ISV(et tous éditeurs) met en place du saas, cela implique plusieurs coûts cachés ou non : − migrer tout ou partie du code de son application pour le « saasiser » et coût technique / technologique − louer ou bâtir un Datacenter pour l’hébergement − garantir la disponibilité, administrer le service, assurer la montée en charge, les mises à jour − définir la stratégie tarifaire : abonnement mensuel ou annuel, politique de résiliation, etc. − migrer des données des utilisateurs du desktop au service en ligne − motiver et réorganiser une partie de son personnel (commercial, technique, support).La définition du modèle d’abonnement est là aussi cruciale. Faut-il un abonnement mensuel ouannuel ? Comment assurer la fin d’une souscription ? Le prix est un prix psychologique très fort. Ilne faut pas brader le saas ni le rendre trop cher. Et bien souvent, il faudra attendre plusieurssemaines, voire des mois avant que l’abonnement débute réellement, le temps que le service soitréellement implémenté dans l’entreprise cliente. A cela se rajoute le surcout engendré par le Saas :la disponibilité du service (côté serveur), une assistance / contrôle qualité du service en 24/7.2 - Quand les éditeurs aident les ISVDes éditeurs proposant une plate-forme complète de développement tels que Magic Software ouLivre blanc « Cloud Computing » par François Tonic 21
  • 22. Progress Software peuvent aider les ISV clients et basés sur ces solutions à passer en mode Saas.Techniquement, il aide à simplifier la migration. Chez Progress, on dénombre plus de 2 000 ISVclients, environ 250 sont passés au Saas. Quand un client Progress veut passer en Saas, l’éditeurfournit une plate-forme applicative facilitant le portage. Et l’éditeur supporte uniquement sa plate-forme.Magic Software propose ainsi la plate-forme UniPass (ex-eDeveloper). Ainsi une applicationdéveloppée avec anciennement eDeveloper peut passer en douceur au mode Saas. Il permet dedécoupler fortement l’interface et la logique métier dans une approche RIA (Rich InternetApplication pour l’interface sur le poste client, dans le navigateur) et le Saas (partie serveur avec lalogique métier). UniPass permet d’avoir plusieurs modes de déploiement : pure Web, déploiementlocal à la demande ou en pur Saas.3 - Les exigences techniques : ne pas les sous-estimerNous avons dit plus haut que, techniquement, il n’y a pas de réel problème pour passer d’uneapplication desktop à un modèle saas. Nous devons tout de même modérer cette affirmation. Et ce,pour plusieurs raisons.Aujourd’hui, quand on utilise une application desktop, déployer localement sur les postes de travailou en mode client / serveur classique, la plupart du temps, le logiciel est dit « fortement couplé ».C’est-à-dire qu’il y a une dépendance extrêmement forte entre les composants utilisés par le logicielet le système client. Or, le modèle saas exige une architecture logicielle web. Dans ce cas, nousavons alors un découplage, ou « couplage lâche », entre les éléments logiciels, la plate-formed’exécution et le système client. Le delta entre les deux approches ressemble à un fossé car il fautrepenser entièrement le logiciel et réécrire la solution, ce qui a un coût non négligeable, tout enconsidérant le fonctionnement en connecté / déconnecté. Le mode déconnecté permet de gérer uneapplication web (donc un service saas) dont la connexion réseau se rompt. Il faut alors gérer lapersistance des données sur le poste de travail, les mécanismes de synchronisation quand laconnexion réseau revient. Ce mode de gestion est important pour les utilisateurs mobiles.L’une des questions est de savoir si vous décidez de monter vous-même un mini Datacenter pourhéberger vos services saas ou si vous passez par un fournisseur cloud computing comme Google,Amazon. Chez Esker, un investissement de 300 000 euros a été réalisé pour acheter et mettre enplace des serveurs dédiés au Saas. Mais pour un ISV vertical, la solution du fournisseur est la plusrapide et la moins onéreuse.4 - Au-delà du business model, repenser l’organisation interne !Le Saas pour un éditeur, tout particulièrement de petite taille, est de convaincre les équipescommerciales de vendre ces services. Car nous l’avons vu plus haut, il n’y a pas de vente delicences et ni de chèques rapides. « Les commerciaux sont habitués à vendre de la licence avec duservice. Là, ce sont des souscriptions à quelques milliers d’euros, pas aussi valorisant. Il peut yavoir de la réticence sur le « on-demand », avoue Jean-Michel Bérard.Nous touchons à un problème souvent occulté : motiver ses commerciaux, lisser leur commission« on demand » sur le temps pour éviter une perte de salaire trop importante. Et vendre un servicesaas modifie aussi l’approche commerciale, le discours marketing. Mais « Le Saas a un avantage.On peut cibler de nouveaux clients, des entreprises plus petites, type TPE. Elles n’achetaient nossolutions car trop chères. Le saas ne nécessite pas d’équipes dédiées dans l’entreprise. D’autre part,on change aussi d’interlocuteur dans l’entreprise. On passait par le service informatique. Avec leSaas, on peut dialoguer avec les personnes directement concernées par le service, tel qu’un directeurfinancier. », précise d’emblée Jean-Michel Bérard. Mais l’éditeur Esker précise aussi un pointimportant que l’on évitait plus haut : il ne faut que le saas cannibalise son offre vendue en licence.L’éditeur propose ainsi du saas qui doit complémenter ses solutions « classiques ».Livre blanc « Cloud Computing » par François Tonic 22
  • 23. D’autre part, la notion de qualité de service constitue un autre défi non négligeable car pour unclient, le saas doit être tout le temps disponible. « Au départ, nous surveillions le service qu’auxhoraires de bureau. Mais des clients utilisent le service Saas la nuit, le week-end… Rapidement,nous avons mis en place des astreintes. Le week-end il y a toujours quelqu’un qui peut répondre auxproblèmes de la plate-forme. Nous avons aussi mise en place des machines vérifiant les services etgénérer des alertes si besoin. Sur le support / assistance, cela change peu de chose. », précise Jean-Michel Bérard. Et cela passe aussi par le déploiement d’un système de monitoring constant desserveurs, des services. Mais cela a un coût.5 - des métiers étendus ou redéfinis ?Il est trop tôt pour le dire. Ce qui est une évidence, c’est une évolution des rôles actuels par rapportau cloud et au saas. Cela nécessite une formation, une mise à jour des administrateurs, desintégrateurs, des développeurs.Pour l’utilisateur cela doit être le plus transparent possible. Cependant, une conduite du changementsera indispensable pour éviter tout conflit, toute réticence.Livre blanc « Cloud Computing » par François Tonic 23
  • 24. Partie 5 : une tarification complexeAvec larrivée de lopen source professionnel, de la virtualisation, du multi-coeur sur lesprocesseurs, la tarification a beaucoup évolué et pas toujours dans le bon sens notamment à causedes clauses spécifiques (ex. : sur la virtualisation ou encore sur le processeur physique ou parcoeur). Le même problème survient avec le Saas et le cloud computing. Dans le cloud, les offresd’infrastructure se multiplient mais seuls quelques noms se détachent réellement : Windows Azure,Amazon, Google App Engine, IBM. Ensuite des hébergeurs et hosteurs peuvent proposer desinfrastructures de cloud public ou privé. Notons aussi que les offres de cloud privé commencentelles aussi à se multiplier, à l’instar d’un Ubuntu.1 Comprendre une tarification complexeToute la difficulté aujourd’hui est de savoir comparer ce qui est comparable dans une grille detarification cloud computing de type infrastructure et/ou plate-forme. Ainsi si nous voulonscomparer un Amazon EC2 et un Windows Azure, nous pouvons le faire uniquement sur les aspectsinfrastructures pures mais nous rencontrons d’emblée quelques soucis : quelle type d’instanceAmazon EC2 considérée car nous avons 5 niveaux de puissances d’instances (processeur, mémoire,unité EC). Bref, si le chiffrage officiel est un premier élément de comparaison, allez au-delà dusimple chiffre pour voir la configuration des instances, les possibilités de personnalisation, le niveaude qualité offert, etc.Basiquement, la tarification cloud comprend : - le temps par heure du « compute » : c’est à dire le temps d’utilisation de l’information - le stockage : en génération par Go et par mois, avec parfois des tarifs dégressifs - les transactions (par rapport au stockage : en général par tranche de milliers, dizaine de milliers de requêtes, avec séparation des transactions entrantes et sortantes (In et Out) - la bande passante : avec bande entrante et sortante (In et Out).2 Tarification cloud computing : les exemples Azure, Google et AmazonPrenons comme base les offres EC2, Azure et Google App Engine. En dollars US. EC2 (Windows) Azure App EngineTemps de compute 0,125 0,12 0,1(heure)Stockage (go/mois) 0,10 0,15 0,15Transactions 0,01 0,01 (pour 10k) -Bande passante 0,10 (in) 0,10 (in) 0,10 (in) 0,17 (out/mois) 0,15 (out / gb) 0,12 (out)Disponibilité 99,95 % (globale) 99,9 % (transaction) - 99,95 % (instance)Les chiffres bruts permettent d’établir une estimation des coûts du cloud. On constate unedifférence de tarif non négligeable sur la partie stockage (avec partie dégressive chez EC2). Ce quien cas de volume important peut apporter une sérieuse économie. On constate aussi une différencedans l’approche de facturation dans la bande passante entre Amazon et Microsoft, là où Googleapparaît plus compétitif. Par contre, si EC2 et Azure s’orientent entreprises et production, AppEngine ne vise pas encore la production.Si on va plus loin dans la granularité tarifaire, on constate rapidement que Amazon EC2 est pluscomplet qu’Azure sur le choix de la puissance et la taille des instances (3 formats disponibles), ouencore sur la zone (tarifs US et Europe) ou encore sur les instances Windows ou Linux (tarifdifférent). D’autre part, en EC2, il est possible de différencier les instances standards et dite « Highcpu ». Il est même possible de réserver des instances sur 1, 3 ans ou par heure.Livre blanc « Cloud Computing » par François Tonic 24
  • 25. EC2 permet donc une très grande modularité et souplesse mais complexifie d’autant la grille tarifalors qu’un Azure sera plus simple à comprendre mais avec une rigidité de l’offre, pareil chezGoogle (dont plusieurs éléments restent flous). Enfin, un détail important, comme Azure est aussiune plate-forme, il ne faut pas oublier dans son calcul de ROI, le coût des .Net Services et de SQLAzure.3 La tarification de Force.comSalesforce propose aussi sa propre offre de cloud. Le but est d’y faire fonctionner ses applicationssur le cloud, dixit l’éditeur. Côté prix, là aussi c’est clair. Free Edition Enterprise Edition Unlimited EditionNombre applications 1 10 Illimité par utilisateurautoriséesNombre utilisateurs 100 Au-delà de 100 -supportésObjets SGBD 10 200 2000Stockage 1 Go Au-delà de 1 Go Au-delà de 1 Goprix Gratuit 50 $ user / mois 75 $ user / moisForce.com se veut le plus agnostique possible côté application supportant les principaux langagesde développement actuels. Il facilite aussi la connexion aux autres cloud (Amazon, AppEngine).4 Exemples de tarifications d’infrastructures cloud tiersAutre catégorie de prix, les offres de cloud privé ou sur d’autres technologies dans le cloud commeRuby. Dans le cas d’ubuntu, il s’agit de monter du cloud privé en proposant des services de supportet d’assistance annuels autour d’Ubuntu Enterprise Cloud. Basiquement, il s’agit de créer un cloudprivé sur 5 machines.Type infrastructure Support standard 9x5 Support avancé 24x75 serveurs physiques avec 25 4 750 $ 17 1500 $serveurs virtuelsServeur physique 1 250 $ 3 000 $supplémentaire + 10 serveursvirtuelsIllimité sur une zone 90 000 $ 150 000 $géographiqueAutre solution cloud mais pour plate-forme Ruby : heroku. Là, le modèle est déjà plus complexemême si l’architecture de l’offre est un peu particulière.Il sagit dun projet pour déployer rapidement des applications Ruby on Rails (mais aussi de lescoder en ligne). Pour ce faire, le projet sappuie sur linfrastructure Amazon Web Services pour lamontée en charge et les ressources matérielles. Heroku est une plate-forme dite « multi-tenant »couplée à un environnement de hosting. Laspect intéressant est sa partie Dyn Grid.Cest là que le code de son application Ruby sexécute. Et il occupe autant de slots que nécessaire (ledyno Grid se compose de slots qui sactivent selon les besoins de lapplication). Cette approchepermet doublier les serveurs. Cest la plate-forme qui gère. Tout cela se couple à un système deroutage puissant dans le dyno grid pour assurer le meilleur load balancing et garder la montée encharge. En fait, dyno se compose de plusieurs couches : un environnement Posix (base Debian), unemachine virtuelle Ruby (basé sur MRI), un serveur dapplications (Thin), un Rack (interface webLivre blanc « Cloud Computing » par François Tonic 25
  • 26. server), un middleware (Rack Middleware, optionnel), un framework (Rails mais pas seulement) etenfin son application. Heroku expose aussi son API pour gérer au mieux son environnementHeroku. Il sagit dun service REST. Les prix sont modulables selon les ressources (mutualisées oudédiées) et le nombre de dynos que lon souhaite. Notons que le dyno se loue à lheure. La facturepeut donc rapidement gonfler…On choisit tout d’abord la base de données qui varie selon la capacité de stockage, en fonction dumode mutualisé ou dédié. Cela va de gratuit à 50 $ puis de 200 à 1600 $. Puis on ajuste le nombrede Dyno. Le dyno se paie à l’heure. Le calcul se fait automatiquement.Autre exemple, GoGrid, un service de cloud hosting. (chiffres GoGrid) GoGrid EC2Serveur Windows 0,08 $ heure 0,125 heureServer 2003 1 Go ram,Xeon Core, 60 GostockageTransfert de données Gratuit (in, par Go) 0,10 $ (in, par go) 0,17 $ (out, par go) 0,17 $ (out, par go)Stockage 0,15 $ (go / mois) avec 0,15 $ (go / mois) 10 Go gratuit)Load Balancing Gratuit 72 $ / moisSi GoGrib a quelques avantages sur des fonctions précises par rapport à un EC2, ce hosteur misesurtout sur les outils et les services annexes pour se différencier d’Amazon. Ce n’est pas un hasards’il met en avant des solutions déployées comme ceux de la société f5 sur le load balancing.Et la concurrence fait rage sur le quadrant magique Gartner des hosteurs cloud : Savvis, IBM,Amazon, GoGrid, OpSource, SunGard, Media Temple, etc. Pour en savoir plus :http://mediaproducts.gartner.com/reprints/gogrid/article2/article2.htmlEn France, nous ne voyons pas encore cette vive concurrence mais elle viendra rapidement. Reste àespérer une qualité de service optimale. Car le prix est dans le hosting cloud un faux argument.5 Des services d’aide à la mise en cloudCôté open source professionnel, de plus en plus de projets autour du Cloud (comme Cloudora ouEucalyptus) proposent des solutions purement communautaires, donc gratuites, mais dès que l’oncherche à faire de la production, à avoir un support dédié, une aide active pour le déploiement, ceséditeurs proposent des supports spécifiques et payants. Ces services s’ajoutent au coût de soninfrastructure cloud. La facture peut donc rapidement grimper.6 Les services en ligneSur les applications en Saas et consorts, là aussi vous trouverez un peu de tout. L’abonnementmensuel est utilisé. Mais attention, certains éditeurs cherchent à abonner l’utiliser sur un an, voireen contrat pluri-annuel. Or, souvent, le saas commence à devenir plus cher que le logiciel desktopaprès 3 à 4 ans. Donc, il faut se méfier des contrats long terme.Parmi les points important à regarder : - les conditions de sortie - si le support est inclus ou non - le taux de disponibilité garanti - le coût pour augmenter ou diminuer les utilisateurs - les limitations de trafic, de stockageLivre blanc « Cloud Computing » par François Tonic 26
  • 27. - la migration des données vers le service est-elle incluse ou non (et prévue)Si nous prenons exemple de l’offre online de Lotuslive.com (IBM), on dispose tout d’abord de 5services (un 6e pas encore disponible). Chaque service dispose d’une matrice de fonctionnalités.Certaines offres peuvent s’acheter par mois ou par an mais à chaque utilisateur. Et des optionsexistaient. Ainsi dans le service Meeting, l’offre se chiffre à 39 $ par utilisateur pour 15 participantsmais monte à 79 $ pour 1000.Si nous regardons l’offre bureautique – stockage Acrobat.com (Adobe), le niveau basic revient à14,99 $ par mois, 39 pour la version Plus. Les limitations existent. Le niveau basic comprend 10documents PDF créés par mois, 5 personnes en meeting.Côté Google, l’offre se veut simple : 40 € pour utilisateur et par mois en édition Premier,comprenant l’ensemble des applications, le web mobile, 25 Go de stockage messagerie, un taux dedisponibilité de 99,9 %. La version standard reste gratuite.Depuis son lancement, le slogan de Salesforce est : interdit aux logiciels. Pour ce faire, l’éditeurpropose 4 éditions, plus des éditions personnelle et développeur. Mais surtout, Salesforce proposeun abonnement annuel (de 75 à 3 240 €), par utilisateur. C’est clair et toutes les options sontindiquées et précisées. Cette présentation a contribué à son succès.Mais attention, une véritable offre low cost existe sur le Saas. Faire du 1er prix n’est pas unesolution ni pour l’utilisateur, ni pour l’éditeur. Car le risque de dévaloriser le Saas existe réellementcar pourquoi à la maison, on paierait 10 et en entreprise 100. L’éditeur doit trouver le bon et justeprix avec une qualité de service, de la valeur ajoutée réelle. Ensuite, l’éditeur peut décliner sonoffre : personnelle, entreprise, illimité, etc.Livre blanc « Cloud Computing » par François Tonic 27
  • 28. Partie 6 : lopen source aura-t-il son mot à dire ?Basé sur un post sur cloudmagazine.fr du 3 juin 2009La question revient souvent. Pourquoi avoir un cloud ouvert, sappuyant sur des standards reconnuset rendre disponible les spécifications, les API ?La question de linteropérabilité se pose dès maintenant au cloud (et bien entendu au saas). Nousavions eu le même problème avec les web services et ce problème fut long à être résolu. Si le cloudne veut pas voir des guerres de chapelles, il faut absolument de la souplesse. Mais ce nest paslimage que les gros éditeurs du cloud donnent. Pourquoi le faire ?En quoi un amazon, google, microsoft, vmware aurait intérêt à être interopérable avec tout lemonde, donnant la possibilité de migrer son application dune plate-forme à une autre. Cela estencore un rêve impossible ou presque. Car si le cloud ouvert nexiste pas, les éditeurs croisent lesalliances : salesforces, google, amazon, etc. signent de nombreux accords pour héberger ou êtrecompatible avec untel. Cest un premier pas, certes propriétaire et unilatéral mais intéressant.Lopen cloud au sens strict du terme peut-il réellement exister ? Oui, mais pas dans limmédiat. Troptôt. Il faut déjà que les fournisseurs de plate-formes terminent la première génération. Lopen sourcenest pas encore à niveau pour offrir une réelle alternative à un amazon, microsoft, ibm, salesforcemalgré les efforts du manifest open cloud, de sun, dubuntu. Comme dans le logiciel, on aura lecloud open source et du cloud déditeurs. Mais à la différence de lopen source logiciel, le cloudnécessite dénormes moyens rien que pour les datacenters. Et derrière se profile la question dumodèle économique notamment pour les fournisseurs de cloud public.1 Un cloud trop fermé pour StallmanLe besoin dAPI, de spécifications, de formats communs savère nécessaire pour avoir une despromesses du cloud : flexibilité, montée en charge de linfrastructure et des applications. Et dautrepart, comment faire une infrastructure cloud redondante avec deux fournisseurs cloud si on narrivepas à être réellement 100 % interopérable ? Richard Stallman a déjà pointé du doigt les risquespropriétaires du cloud computing. Pour contourner cela, les éditeurs tissent des accords bilatérauxou ouvrent leur environnement cloud à des langages, outils. Une manière de faire un cloud ouvertmais profitant avant tout aux éditeurs concernés.Dans l’open source, les offres cloud se multiplient aussi bien pour créer des plate-formes que pourles outils d’administration, de déploiement : Ubuntu, Novell, Sun, Eucalyptus, AppScale, etc. Maisces offres devront proposer un double modèle pour vivre surtout dans les parties outils en proposantdes licences ou le plus souvent des services. Un cloud public / privé open source aura besoind’argent pour acheter du temps Datacenter ou le construire. L’opposition open source – propriétairese fera donc sur les fonctions, l’ouverture des API, etc. Par contre, plus des hosters proposeront ducloud open source, plus ces solutions se diffuseront, à condition d’offrir des niveaux identiques auxsolutions propriétaires.Si l’open source bouge, le rythme n’est pas assez rapide. A quelques exceptions, l’open source n’estpas aujourd’hui une alternative à un google appengine, amazon ec, Azure, etc.Livre blanc « Cloud Computing » par François Tonic 28
  • 29. 2 L’open source peut réussir sur les domaines actuelsDans la BI, lopen source sest taillé une belle place notamment grâce à Talend et JasperSoft.Aujourdhui, cette BI ouverte investit le cloud. Talend avait déjà une solution en ligne. Cestdésormais Talend, JasperSoft, Vertica et RightScale qui font cause commune. Le but est d’offrirune offre d’intégration de BI sur le cloud. Les éditeurs travaillent ensemble pour pouvoir sintégrersur la Manager Plat cloud de RightScale. Les outils Vertica, Talend et Jasper sont automatiquementconfigurés et les services sont accessibles en ligne avec paiement à lusage. Une versiondévaluation est disponible pour 30 jours.Livre blanc « Cloud Computing » par François Tonic 29
  • 30. Partie 7 : la révolution Mesh et le problème du WebOS dans un contexte cloudAvouons que nous nous sommes intéressés réellement à Mesh, par son usage quotidien, après avoirdiscuté du sujet avec Gregory Renard (Wygwam), expert reconnu des technologies Microsoft, etresponsable technologique du projet chez léditeur. Mais une fois plongé dans lunivers Mesh, oncomprend les implications possibles dune telle plate-forme. Car Mesh est une plate-forme au coeurdes services Live. Il comprend un espace de stockage en ligne accessible sur Desktop et smartphoneet depuis un bureau en ligne (Live Desktop). Voilà pour la partie la plus visible. Mais il y a aussi lapartie Mesh Developer.1 Mesh : le double visage et son Live DesktopLa partie développeur permet tout simplement de créer des applications capables de sexécuter surle Live Desktop. Cela offre des possibilités immenses surtout si on voit Mesh comme on devrait levoir : un webos. Accessible de partout, imaginer pouvoir à la fois accéder à vos données denimporte où et aux applications. Dautre part, Mesh possède aussi un puissant mécanisme desynchronisation. En installant le client Mesh sur nos PC Windows et MacOS X, on accède auxmêmes documents localement. Surtout, quand on rajoute des documents, ils sont alors répercutéssur le Live Mesh puis sur les autres Mesh Desktop quand ils sont connectés. Ainsi en voyage, endéplacement, je ne me soucie plus à mon retour de récupérer les nouveaux documents ou ceuxmodifiés. Mesh peut tout synchroniser. Même si aujourdhui ce mécanisme est encore limité et pastoujours rapide, Mesh préfigure ce que lon appelle aujourdhui linformatique ubiquitaire. On ne sesoucie plus du terminal utilisé pour accéder aux applications et aux données. Dans une certainemesure, le Cloud Computing promet cela. Même si bien entendu nous n’en sommes quau début.Bien entendu, il existe des concurrents à Mesh mais nous pensons quaucun n’a réellement comprisMesh et son ampleur. Il se limite la plupart des temps à proposer des services de stockage et desynchronisation. Certes cest un premier pas, mais Mesh est déjà à létape suivante avec son LiveDesktop et surtout sa plate-forme applicative. Mesh Developer préfigure ce qu’est réellement lebureau live de Mesh : un webos !Sur cette partie, nous vous conseillons vivement, si vous voulez en savoir plus, de vous rapporter ànos tutoriaux Mesh et surtout aux articles et analyses de Gregory Renard.2 Et si le Cloud OS était le véritable webos ?Basé sur un post sur cloudmagazine.fr du 17 janvier 2009La question est loin dêtre anodine. Aujourdhui, nous avons une approche plate-forme ou une approchesystème dans le cloud. Ainsi si nous prenons vCloud de VMware, de quoi parle-t-on ? Dune initiative pourdéfinir des "standards", des techniques pour gérer, déployer une virtualisation (VMware bien entendu) dansle nuage. Et là, VMWare sappuie sur des partenaires dans le datacenter, réseau, outils complémentaires àVMware. Bref, comment construire une infrastructure cloud autour doutils et de technologies VMware.Lavantage est de laisser aux clients un large choix de partenaires et espérer négocier un bon prix. Etlensemble des technologies et outils de VMware sont mis en oeuvre : VMotion, VMware Storage, vCenterServer, etc. Enfin, côté application, on pourrait déployer sur vCloud une simple appliance pour pouvoirlutiliser dans le nuage et y accéder. Un jeu dAPI est disponible pour les développeurs.Donc on ne casse pas, en théorie, son usage de VMware, ces appliances VMware. Léditeur a beau jeu decritiquer Microsoft avec Windows Azure. Windows Azure ouvre des perspectives aux partenaires,développeurs, éditeurs car Azure est attaquable par plusieurs langages de développement et si Microsoftveut réussir, il est condamné à louvrir et à ne pas le fermer sur le seul .Net. Azure est une plate-formecomplète, clés en mains, sans besoin dutiliser tel ou tel composant tiers. Nous sommes là sur du vraisystème cloud. Nous pensons que nous aurons cette double approche sur le marché. Il y a aura toujours desLivre blanc « Cloud Computing » par François Tonic 30
  • 31. entreprises, utilisateurs, développeurs qui voudraient un assemblage de briques et dautres du clés en mainsde bout en bout comme Windows et sa plate-forme.Pourquoi finalement opposer les deux modèles ? VMware est dans un rôle de défense de ses positions sur lavirtualisation car la bataille est rude. Et il sait quil doit trouver dautres marchés pour continuer à croître carsur lhyperviseur, la bataille est perdue étant donné sa quasi-gratuité.3 Le CloudOS n’est pas un webosMais finalement qu’est-ce que CloudOS au sens système d’exploitation que n’est pas vSphere ? Il s’agitd’un « OS » bootable au démarrage de son ordinateur. Ainsi au lieu d’accéder à son système desktopclassique, la machine se connecte au système cloud directement sur le web. Contrairement à un webos, onpeut donc se passer de l’OS local. Le projet gOS Cloud tente de matérialiser ce concept de CloudOS. Lenavigateur reste cependant l’outil central par où tout passe… Ce projet mise pour le moment surtout lemarché du netbook. Autre projet : Jolicloud.En tant que tel, le webos restera un marché limité et malgré quelques belles réussites comme exoplatform,nous ne voyons pas de percée significative de ces « systèmes ». Mais ce n’est pas pour autant que leCloudOS constitue l’avenir. Encore trop vague et par le manque de concret, ce marché existe à peine, pourne pas dire n’existe pas. Nous demandons à voir…Livre blanc « Cloud Computing » par François Tonic 31
  • 32. Partie 8 : la géo-localisation, problème ou faux problème ?Depuis plus dun an, quand nous discutions avec des développeurs, entreprises et éditeurs, un deséléments récurrents qui revient toujours et encore est la géolocalisation des données et desapplications. Le plus souvent, ce sont les utilisateurs qui se posent des questions sur la localisationdes données et des applications. C’est l’une des faiblesses actuelles du cloud.Par géo-localisation des données, on entend le fait de savoir où sont stockées nos données. C’est àdire dans quel centre de données et sa localisation géographique (au moins le pays). Cette demanden’est pas aussi anodine qu’il n’y paraît. Un centre de données (Datacenter) situé par exemple enAngleterre aura, en principe, des performances d’accès aux données, d’affichages, de traitements,plus lents qu’un centre localisé en France. Cette proximité joue un rôle non négligeable dans lesperformances des logiciels et des fichiers stockés dans le cloud. Mais dans un scénario pluscomplexe, imaginé pour une société internationale, de stocker des données selon le fuseau horaire etlactivité par zone géographique.Pas aussi simple que celaEn réalité, la géo-localisation pose plusieurs problèmes aux fournisseurs de Datacenter, aux éditeursde plate-forme et aux développeurs et administrateurs. Les premiers doivent disposer de plusieursdatacenters dans le monde pour proposer cette fonction de localisation mais il faut aussi disposer deconsoles dadministration pour automatiser la localisation et les politiques de localisation desdonnées, sans oublier la disponibilité de librairies de développement pour intégrer ces fonctionsdans les applications.On s’aperçoit que la géo-localisation demeure peu répandue. Le sujet restant sensible. Google nepropose rien. Microsoft, avec Azure, possède des librairies de développement, pour la géo-localisation. Dans le cas d’Azure pour exemple, à la création d’un nouveau projet hosté, on peutchoisir le Datacenter (2 au choix actuellement). Chez Sun, rien de disponible mais le sujet restedactualité chez eux. Ensuite, pour les éditeurs Saas, la situation est à étudier au cas par cas.Amazon propose, pour EC2, une gestion par régions. Ainsi, il est possible de spécifier une régioncomportant un Datacenter selon les besoins. L’un des intérêts est basculer dun cloud américain àun cloud européen, etc. selon les besoins immédiats.L’autre possibilité sera de pouvoir basculer d’un cloud à cloud quel que soit le fournisseur. Or, cettepossibilité est aujourd’hui impossible par l’absence d’intéropérabilité entre les plate-formes. C’estpour cela que des initiatives telles que Open Cloud, peuvent aider à bâtir un cloud transparent.Au-delà, la question de la donnéeMais avant de parler géo-localisation, lusager doit aussi déterminer quelles données il souhaitemettre dans le cloud. Car selon la nature des données, la géo-localisation naura pas ou peu dintérêt.Voici quelques cas de figures possibles : − localiser la donnée au plus proche de lutilisateur, du client pour des questions de performances − pour des questions légales : noublions pas que les entreprises ont des obligations légales par rapport à certaines informations comptables et laccès des données par un juge, une administration. Ainsi si légalement, des données doivent être disponibles et stockées dans la zone Europe, légalement, lutilisateur na donc pas le droit dutiliser un cloud américain. − Pour des questions de sécurité et localisation précise de la donnée.Livre blanc « Cloud Computing » par François Tonic 32
  • 33. Partie 9 : la question de linteropérabilitéComme sur le poste de travail, le serveur, les applications, les documents, la question delinteropérabilité devient une composante de plus en plus stratégique même si aujourdhui pour leséditeurs et les utilisateurs, la question se pose peu car le cloud computing reste en pleinematuration. Mais linteropérabilité dans le cloud se pose déjà. Contrairement aux web services quiavaient mis des années avant doffrir un niveau satisfaisant, le cloud se prépare à cette question maisavec des solutions pas toujours intéressantes pour lutilisateur.1 Open Cloud : et après ?Il y a quelques mois une initiative prônait un cloud computing ouvert et totalement interopérable.Linitiative avait connu des débuts assez laborieux mais aujourdhui elle mérite dexister et de poserles bonnes questions même si aujourdhui lidée repose sur des principes à respecter et desspécifications précises.Comment en effet assurer une interopérabilité sur le cloud ? Les principes énoncés par Open Cloudposent des idées simples : - laisser le choix - flexibilité - rapidité et agilitéMais pour cela, le manifeste s’appuie sur : - les providers cloud doivent travailler ensemble pour adopter et créer des standards - ces providers ne doivent pas utiliser leur position sur le marché pour verrouiller ledit marché ou bloquer les utilisateurs - ces providers doivent utiliser et adopter les standards existants et approprier - quand de nouveaux standards seront nécessaires, il faudra éviter les doublons et agir de manière pragmatique - les organisations, consortiums, communautés doivent travailler ensemble.2 linteropérabilité passe par quoi ?Il y a plusieurs paramètres à prendre en compte. Dans le cloud, il sagit de pouvoir déplacer soncloud dune infrastructure à une autre en toute transparence. De pouvoir déplacer, migrer cesapplications cloud dune plateforme cloud à une autre en toute transparence. Cela passe donc pardes spécifications paas et iaas communes ou tout le moins compatibles, des SDK et APIcompatibles sur plusieurs iaas et paas. Pour faire simple, nous pourrions passer dune cloud A à uncloud B pour une application Google App Engine ou Windows Azure.La notion dinteropérabilité doit concerner lensemble des éléments de son cloud, de son applicationcloud. Ou encore assurer quune partie seulement de son cloud doit migrer dune infrastructure /plateforme à une autre. Ainsi, nous pourrions passer dun stockage A à un stockage B, etc.Aujourdhui il existe de nombreux freins à cette interopérabilité. Les grands éditeurs jouent unepartie de leur avenir sur le cloud et les services cloud. Mais, dans le même temps, ils ne doivent pasnon plus trop fermer leurs solutions au risque de perdre des marchés.Actuellement, une application cloud basée sur des librairies, composants Azure impose un cloudAzure, pour le moment Microsoft mais des tiers pourront déployer lenvironnement Azure. CôtéGoogle App Engine, il existe le projet AppScale qui offre un support partiel de AppEngine (Python,Java prévu). Demain, nous aurons des applications cloud Linux, pures Java, Mono et pourquoi pasune déclinaison Flash – Flex, etc.Livre blanc « Cloud Computing » par François Tonic 33
  • 34. Dans la question de linteropérabilité, nous différencions bien les aspects plate-formes etinfrastructure car les enjeux ne sont pas forcément les mêmes ou tout le moins ne concernent pas lesmêmes personnes. Pour un développeur, la plateforme fournit les SDK, librairies, services. Il nedoit pas se soucier de la partie infrastructure qui est plutôt liée à ladministrateur. Par contre, audéveloppeur de tester et de valider, de concert ou non avec ladministrateur, le bon fonctionnementapplicatif sur un ou plusieurs iaas. Ne disons pas encore sur différents paas, ce serait un peu tropambitieux dans létat actuel des solutions du marché.Cependant, il ne faut pas non plus espérer disposer avec Azure dune plateforme dexécutionuniverselle même si les ouvertures sont là. Mais pour des applications « simples » non .Net, Azurepeut être une bonne solution. A lopposé, il nest pas possible dy faire fonctionner du App Engine etsur App Engine, pas possible dy faire exécuter des applications .Net. Par contre dans Sales.com,App Engine est présent grâce à des accords.Bref vous laurez compris, linteropérabilité ne va pas de soi et il faudra bien choisir son paas et iaastant que lon ne disposera pas de SDK, API, de spécifications ouvertes, reconnues. Les accordsbilatéraux sont donc à lheure actuelle une bonne solution, en attendant mieux.Nous retombons dans les travers des plate-formes RIA. C’est à dire que l’on est obligé de choisirune plate-forme avec une ou plusieurs solutions complémentaires. L’interopérabilité est clairementun enjeu que les éditeurs doivent absolument clarifier. Et au moins être parfaitement précis parrapport à la portabilité des applications d’un cloud à un autre. Gros point noir dans notre cloud.Livre blanc « Cloud Computing » par François Tonic 34
  • 35. Web 4.0 en guise de conclusion provisoireConclure sur le cloud computing est illusoire car depuis les premières lignes de ce document,lunivers du nuage a évolué avec de nouvelles offres, de nouvelles tendances mais il faut aussisavoir se poser et réfléchir à un moment donné. Car depuis des mois, la succession des annonces etautres initiatives fait perdre la tête. Pas un jour ou presque sans quun éditeur nous sorte unenouvelle déclinaison dun service en ligne. On atteint parfois la déraison total en tentant de nousfaire passer une offre basique pour du cloud nouvelle génération alors quil sagit simplement defaire de la virtualisation sur des serveurs distants... Il faut arrêter avec tout cela. Car il est toujoursdangereux de trop noyer la technique dans une marée marketing. Personne ne sy retrouve.Comme avec toute technologie, il faut savoir garder la tête froide et analyser, comprendre. Carcomme vous laurez compris si on applique une stratégie cloud de bout en bout ou même partiellecela change pas mal de choses notamment dans la manière de conduire son SI ou tout simplementde consommer ces applications. Les conséquences sont multiples et pas toujours comprises parléditeur venant dans ce type de technologies et par lutilisateur.Au printemps dernier, nous avons entendu dire que le cloud computing sera le web 4.0. Pourquoipas ? Cependant, il faudrait déjà que lon digère la vague 2.0 avant davoir lobscur web 3 dont lescontours changent toutes les semaines. Il faut arrêter avec cette volonté de donner des numéros auweb. Car en réalité nous ne sommes déjà plus réellement dans le web 2 notamment à cause destechnologies riches de type RIA. Et le cloud est-il encore du web au sens actuel du terme ? Nous nele pensons pas.Que le cloud soit ou non le web 4, cela importe peu finalement. Car il préfigure dune manière oudune autre, une des pistes du futur de linformatique, des applications. Les prochains mois serontpassionnants. Et si finalement, nous avions dans quelques années un simple PC allégé, un systèmeclient minimum appelant des services en ligne ou alors bootant directement sur un Cloud OS...Livre blanc « Cloud Computing » par François Tonic 35
  • 36. AnnexesPour aller un peu plus loin, voici une petite sélection darticles et de tutoriaux afin douvrirlapproche...Livre blanc « Cloud Computing » par François Tonic 36
  • 37. Live Mesh : ma première applicationMesh de Microsoft, un service dans le Cloud Computing, propose un puissant service de stockageavec synchronisation entre les différents terminaux (PC, Mac et bientôt mobiles). Mais combiner àWindows Azure, il permet de déployer en quelques clics des applications visibles et utilisablespartout sur son compte en ligne !Les pré-requisAvant toute chose, vous devez disposer de :Windows XP ou Vista. Nous avons rencontrer quelques petits soucis avec Windows 7 Bêta.1 Visual Studio 2008 SP1 ou Visual Web Developer Express 2008 SP1.2 SQL Server Express 20083 Et bien entendu du Framework .Net.Attention : il est très important d’installer le SP1 car les SDK Azure et Mesh ne fonctionneront passinon !Ensuite, installez dans l’ordre :1 Silverlight Tools for Visual Studio2 SDK Live Framework (attention : pour ce dernier il doit être placé dans le dossier MicrosoftSDKs3 Installer Live Tools for Visual StudioCréer un projet MeshLa création d’un projet Mesh est aussi simple qu’un projet WPF ou WinForm. Dans la fenêtreprojet, on sélectionne Mesh enabled Web Application. Dans notre exemple nous avons utiliséVisual Web Developer Express 2008. Deux templates Mesh sont disponibles : Mesh enabled webapplication et Silverlight Mesh enabled Web Application.Dans le gestionnaire de projet, on dispose des fichiers nécessaires : index.html, fichiers javascript.Livre blanc « Cloud Computing » par François Tonic 37
  • 38. Il suffit ensuite de coder en javascript ce que l’on souhaite avoir dans son application.Une fois le codage terminé, on build le projet (menu Build -> Build). Notre projet est prêt à êtredéployé.Déploiement de son projet Mesh dans AzureAprès avoir réalisé le build du projet, encore faut-il le déployer sur son espace Mesh. Tout d’abord,vous devez créer un compte utilisateur sur le service Azure Services Developer Portal. C’est lui quiva en effet permettre le déployer de la solution. Nous préférons le déploiement en ligne que depasser par l’IDE car nous avons rencontré des soucis de connexion.Connectez-vous à votre compte. On crée un nouveau projet.Livre blanc « Cloud Computing » par François Tonic 38
  • 39. On sélectionne Create a Mesh enabled Web application.Votre projet s’affichage dans la colonne de gauche et automatiquement l’onglet summary apparaît.Pour déployer son application, les étapes sont lui suivantes :Livre blanc « Cloud Computing » par François Tonic 39
  • 40. 1 cliquez sur le bouton upload package2 ensuite on indique l’emplacement du package zip de notre projet (via le bouton Browse).3 Bouton Deploy pour charger le projet.Azure s’occupe de charger les fichiers. Nous n’avons rien à faire ! Quand l’opération est terminée,il suffit de cliquer sur le bouton Publish. Quand le projet est publié, le label du bouton indiqueraUnpublish.Déploiement dans Mesh !La publication dans Azure de son application n’est que la première étape. Il faut maintenant ladéployer dans Mesh pour l’utiliser.Livre blanc « Cloud Computing » par François Tonic 40
  • 41. Pour cela il faut aller sur developper.mesh-ctp.com et non sur son compte Mesh qui ne supporte pasle déploiement d’application. Mais son compe Mesh fonctionne sur la partie Mesh Developer. Onconnecte sur le Live Desktop.Nous cliquez sur l’onglet Apps (en haut) pour accéder à la partie application. Pour installer sonprojet, on clique alors sur Browser more applications. Notre application est dans la liste. On lasélectionne puis on valide par le bouton Add to Mesh.Par sécurité, Mesh demande l’autorisation d’accès (Allow Access). On clique. On peut alors revenirsur la partie Desktop et une icône apparaît sur le bureau : MeshApp1. Un double clic et l’applications’exécute.Livre blanc « Cloud Computing » par François Tonic 41
  • 42. C’est tout. Et comme Mesh fonctionne aussi sur MacOS X, on peut utiliser une application Meshavec son Mac.D’autre part, dans un projet Silverlight Mesh, il est possible de créer et de modifier l’interface vial’outil Expression Blend. Les fichiers d’interface étant des fichiers purs XAML.Livre blanc « Cloud Computing » par François Tonic 42
  • 43. Ma première application Google App Engine Java dans le cloud computing !Après notre tutoriel sur Mesh, nous vous proposons aujourd’hui de voir comment en quelques clicson génère une application dans le nuage avec Google App Engine Java, Eclipse et le cloudcomputing de Google.Pré-requisVous devez disposer des éléments suivants pour ce tutoriel : − Eclipse 3.3 ou 3.4 (aucune garantie de fonctionnement avec la 3.5 ou e4) − Compte App Engine actif avec une instance d’application disponible − Connexion internetPour notre part, la configuration utilisée pour notre exemple se compose de : − Eclipse 3.4.1 − MacOS X 10.5.6 − Connexion internet haut débitInstallation des plug-ins et SDK GooglePour pouvoir démarrer notre exemple, nous devons préalablement installer les composants Googledans Eclipse. Pour ce faire, nous utiliserons le module Software Updates (menu Help).L’opération est très simple : clique sur le bouton Add Site. La fenêtre Add Site apparaît. Il suffitalors de rajouter le site suivant :http://dl.google.com/eclipse/plugin/3.4Automatiquement, Eclipse rajoute le site et liste les éléments Google disponibles. Nous cochonsalors sur Plugin et SDKs pour tout rajouter (Google Plugin for eclipse 3.4, App Engine SDK etGWT SDK). Lancez l’installation (bouton Install). Puis cliquez sur Finish pour validerl’installation.Livre blanc « Cloud Computing » par François Tonic 43
  • 44. L’installation s’occupe de tout, à la fin, Eclipse demandera la validation des modifications (boutonYes pour accepter).Après le redémarrage, il est très facile de voir si Google est présent. La toolbar Eclipse doit affichertrois nouveaux icones : Google web application, GWT et App Engine.Rajouter de son application dans App EngineAvant d’aller plus loin dans Eclipse, créons dès maintenant une instance applicative dans notrecompte App Engine.Livre blanc « Cloud Computing » par François Tonic 44
  • 45. La première étape est de se connecter à son compte App Engine. Nous créons une nouvelleapplication (bouton Create an application).Deux éléments à renseigner : − l’identification de l’application (ID) : c’est le nom de domaine de son application dans le cloud Google. Attention : vérifiez toujours la disponibilité de l’ID ! − Puis on renseigne le titre de l’application. Nous allons l’appeler : programmez2009.Voilà, programmez2009 est disponible sur App Engine. Pour vérifier il suffit d’aller sur son tableaude bord (Dashboard). Notre application est dite « no version deployed » car aucune application n’aété déployé pour le moment.Projet EclipseCréons maintenant notre projet dans Eclipse. Faisons un nouveau projet, dans l’assistant, onchoisira : Google -> Web Application Projet. Bouton Next.Livre blanc « Cloud Computing » par François Tonic 45
  • 46. Livre blanc « Cloud Computing » par François Tonic 46
  • 47. Nous donnerons comme nom au projet : programmez2009. Nous gardons la configuration pardéfaut de GWT et de la version de App Engine. Bouton Finish pour créer l’ossature du projet.Build et déployerComme notre « hello world » sera notre projet créé, cliquons maintenant sur le bouton App Engine.Livre blanc « Cloud Computing » par François Tonic 47
  • 48. Dans la fenêtre Deploy Projet to Google App Engine, renseignons tout d’abord : − le nom du projet : programmez2009 − nom utilisateur et mot de passe de son compte App EnginePuis, on configure le projet App Engine en allant sur App Engine project setting pour y indiquerl’application ID : programmez2009 et la version (ici 1). Bouton OK pour valider.Si la mention « ready to deploy application programmez2009, version 1 apparaît sur la fenêtreDeploy projet to Google App Engine, tout est prêt et nous pouvons cliquer sur le bouton Deploy.Maintenant Eclipse s’occupe de tout. Comme il est ce fait tard, une petite tisane fera passer letemps…Dans le log d’activité d’Eclipse : deployment completed successfully couronnera de succès notredéploiement sur le cloud ! Vérifier cela sur notre compte App Engine.L’application est dans le cloudA défaut d’être dans le pré, programmez2009 est censé être sur le cloud de Google. Nousretournons sur le navigateur web et cliquons sur Dashboard pour mettre à jour notre compte AppEngine. Comme prévu, la version 1 de programmez2009 est reconnue par App Engine. Il suffitd’aller sur Show All Applications (au niveau du Dashboard) pour la voir.Livre blanc « Cloud Computing » par François Tonic 48
  • 49. Pour exécuter programmez2009, cliquons simplement sur la 1 (de current version).Livre blanc « Cloud Computing » par François Tonic 49
  • 50. Sauvegarde et stockage en ligne : y aller ou non ?Avertissement : article paru dans Solutions & Logiciels n°5Le stockage et la sauvegarde en ligne reste un petit marché par rapport aux matériels classiques(NAS, RAID, bande, CD/DVD, etc.), mais la tendance est là. Rien qu’en France, on trouve desdizaines d’offre, à tous les prix, à tous les services de qualité, pour grand public et entreprise. « Il nefaut pas confondre stockage et sauvegarde » prévient Gilles Fauriaux (directeur commercial,Database-Bank). « Une sauvegarde externe peut sécuriser. Autre solution, avoir une sauvegardelocale et externe.» poursuit M. Fauriaux. Dans le cas de Datbase-Bank, une offre couplée permetcela avec un serveur résistant (serveur Wooxo).Aujourd’hui, les solutions en ligne viennent en complément aux unités locales (desktop et réseau),on parlera alors souvent d’architecture ou de sauvegarde sécurité, de secours. Dans certainesconditions, le stockage en ligne peut servir de stockage primaire. La sauvegarde ne doit pas êtreprise à la légère. « Les entreprises ne sauvegardent pas » affirme Dylan Goubin-Dahan (gérantassocié de neobe). « La télésauvegarde reste un petit marché mais la tendance est à la croissance. Lehaut débit autorise cela. Les utilisateurs ont moins de manipulations à faire. Les échanges sontsécurisés. On gagne du temps. » poursuit Dylan Goubin-Dahan. D’autre part, il ne faut pas oublierque les entreprises ont l’obligation de posséder une copie de sauvegarde des documents comme lacomptabilité.Le pur internetLes solutions purement Internet sont très nombreuses. Dans ce cas de figure, nous passonsuniquement par un navigateur pour charger sur votre espace de sauvegarde vos fichiers,pareillement pour accéder aux fichiers et les récupérer ou tout simplement à la console de contrôle.Les fonctionnalités offertes varient avec les prestataires. On trouve aussi régulièrement des espacesde stockages en ligne couplés avec des logiciels ou des services en ligne, surtout des services departage, de collaboration. « Office Live Workspace peut servir de stockage mais on le voit commeune extension à la suite Office. C’est ni plus ni moins un sharepoint hébergé même si on peut ystocker des fichiers de tout type ! On peut y accéder de n’importe où. On peut y poster, faire unglisser-déposer… On peut définir les droits d’accès. » indique Franck Halmeart (chef de projetOffice – Microsoft France).Client + WebLe plus fréquent dans le stockage en ligne est de disposer d’un logiciel client. Ce client permet decrypter et de sécuriser les échanges entre l’espace de stockage et le poste de travail. Il permet ausside configurer les backup, de les automatiser. Bien entendu, les échanges se font via une sessionsécurisée, le plus souvent en https avec ou sans cryptage des fichiers. Dylan propose en plus uninstant de n’importe où avec une authentification par une clé USB sécurisée.Des constructeurs proposent aussi de genre de services. Ainsi HP a lancé le service upline.Malheureusement pas encore accessible en France, cette offre propose une déclinaison pro entre 3 à100 utilisateurs avec stockage illimité et des services de backup en ligne, une fonction depublication, recherche, partage e prochainement la possibilité de sauvegarder sa messagerie !EMC autre acteur informatique majeur propose aussi son service ligne en rachetant en 2007 leservice Mozy et depuis l’été dernier, Mozy est utilisé par les portables Thinkpad Lenovo (LenovoOnline Data backup). Aux Etats-Unis, Mozy est un des leaders du marché. En France, Mozy sepositionnera en premier vers les TPE / PME.Aujourd’hui, les outils les plus avancées permettent de se synchroniser sur les profils utilisateursLivre blanc « Cloud Computing » par François Tonic 50
  • 51. présents dans un annuaire d’entreprise, bien pratique pour simplifier le travail de l’administrateur.Surtout, si à la première sauvegarde, l’ensemble des fichiers est transféré, ensuite, on fonctionne enmode incrémentale. Cela signifie que l’outil vérifie l’ajout de fichiers ou ceux modifiés. Celapermet d’optimiser le temps de sauvegarde.Surveiller les services et leurs qualitésSi les offres pullulent, il faut savoir faire le tri. Plusieurs éléments vous aideront à choisir : − quelle disponibilité des données : par contrat, le prestataire propose-t-il du 24/24 ? En cas de panne, un délai de retour en disponibilité est-il précisé ? − les données stockées sur le service sont-elles répliquées sur plusieurs datacenters ? − la restauration intégrale des données stockées est-elle clairement indiquée et spécifiée par contrat ? − le contrat et/ou les conditions générales d’utilisation doit clairement reconnaître que vous êtes le seul et unique propriétaire des fichiers déposés sur l’espace de stockage du fournisseur.Cette liste peut vous paraître exagérée mais de nombreuses déconvenues sont survenues par le passéet vous devez réellement vous montrer très prudent sur la qualité de service proposée. Pour uneentreprise, surtout si le stockage en ligne est massivement utilisé, le service doit être accessible sanscoupure et sa dégradation des données stockées.D’autre part, avec l’explosion des offres, on trouve de plus en plus un stockage illimité. Si ce n’estpas le cas, vérifiez le coût par Go supplémentaire. La facture peut alors monter très vite ! D’autrepart, quelle est la tarification ? Est-ce par mois ou annuelle ? Vous trouverez les deux, HP facture àl’année, par exemple. Enfin, le fournisseur doit préciser le mode de sécurité et de cryptage desdonnées. La sécurité est un élément vital à ne pas négliger. Autre détail, le support et assistance. Sivous prenez un prestataire étranger, le support se fera souvent par mail et en anglais. Un prestatairefrançais ou ayant une filiale en France facilite l’assistance (en général).Livre blanc « Cloud Computing » par François Tonic 51
  • 52. A propos de lauteurHistorien et journaliste, François Tonic fut développeur et testeur de progiciels durant près de dixans sur plate-forme Windows, Macintosh, Java, SGBD. Il débute dans la presse informatique en1997. Depuis son côté geek na jamais cessé. Journaliste reconnu et fin connaisseur des technologieset des stratégies IT, il a collaboré avec une douzaine de magazines papiers et Internet. Travaillantaussi bien sur Windows, Linux que MacOS X, il aborde toutes les problématiques de lIT actuelle.Rédacteur en chef du magazine spécialisé Programmez! depuis 2002, dont il fut journaliste dès1999, il travaille aussi à Solutions & Logiciels, spécialisé sur le IT. Plongé dès les origines du Saaset du cloud, il fonde début 2009, un blog dédié à ces technologies : www.cloudmagazine.fr.En 2001, il fonde aussi un magazine entièrement dédié à lEgypte des Pharaons dont il est toujoursle rédacteur en chef. François est aussi auteur de plusieurs ouvrages archéologiques et historiques etde très nombreux articles sur ces domaines principalement dans les magazines Histoire de la Marine(12 numéros) et Les Grands Secrets de l’Archéologie (actuellement au numéro 13).Pour le contacter : ftonic2@orange.frSite officiel : www.francoistonic.comLivre blanc « Cloud Computing » par François Tonic 52