Conclusion Générale
De l'informatique utilitaire des années 60, au
service bureau des années 70, tout en passant par
l'émergence d'internet et des avancées de virtualisation, le
Cloud Computing comme les tendances nous le conforme, est promis à
un bel avenir.
Le Cloud met en oeuvre l'idée d'informatique
utilitaire du type service public, proposée par John McCarthy. Il
peut aussi être comparé au cluster de calcul dans lequel
un groupe d'ordinateurs se relient pour former un ordinateur
virtuel unique permettant le calcul de haute performance (HPC), mais
aussi à l'informatique en grille (Grid Computing) où des
ordinateurs reliés et repartis géographiquement permettent
la résolution d'un problème commun.
Le Cloud Computing n'impose aucune dépense en
immobilisation puisque les services sont payés en fonction de
l'utilisation. Cela permet aux entreprises de ne plus se focaliser sur
la gestion, la maintenance et l'exploitation de l'infrastructure ou des
services applicatifs. Les fortes avancées dans le domaine de la
virtualisation ont rendu possible le Cloud Computing. Cette virtualisation
permet d'optimiser les ressources matérielles en les partageant
entre plusieurs environnements (« time - sharing »). De
même, il est possible de coupler l'application (et son
système d'exploitation) et le matériel (encapsulé dans
la machine virtuelle), cela assure également un
« provisionning », c'est-à-dire la capacité
de déploiement d'environnement, de manière automatique.
Le Cloud couplé, aux technologies de virtualisation,
permet la mise à disposition d'infrastructures et de plate-forme
à la demande. Mais le Cloud ne concerne pas seulement l'Infrastructure
(IaaS), il bouleverse la plate-forme d'exécution (PaaS).
Etant donné que le Cloud computing repose sur un
ensemble de machines interconnectées et massivement
distribuées, cela permet d'être tolérant face aux
défaillances matérielles et logicielles (par des
mécanismes de redondance, réplication, SLA). De plus, le Cloud
permet une élasticité, une flexibilité. Ainsi la
puissance de calcul ou les capacités de stockages peuvent
être très facilement augmentées par l'installation
de nouveaux équipements au sein ou en dehors du Cloud, la charge
sera alors répartie en fonction de ces nouveaux
équipements. Il en va de même avec les applications et les
données : elles pourront être hébergées
à différents « endroits ». En cas de
montée en charge, le Cloud créera plusieurs instances afin
d'y répartir la charge et d'assurer une disponibilité
maximale.
Force de constater que dans un Datacenter classique, le
taux moyen d'utilisation peine à dépasser les 25% (le but
est de saturer la charge serveur pour exploitation optimale), la
moyenne étant de 10%. Les serveurs sont sous - utilisés et en
cas de pic de charge, il faut acheter de nouveaux serveurs pour
pallier à la demande. Cela signifie donc que le nouveau
matériel restera en exploitation même inutilisé
après les pics. Ces infrastructures sont monolithiques dans le
sens où elles ne permettent aucune exploitation dynamique et
flexible, nécessitant une lourde administration et des coûts
induits.
Avec le Cloud , cela devient obsolète : au lieu
de faire tourner vos applications vous - même , le tout est
géré par un « Virtual Datacenter »
partagé. Lorsque le besoin se fait ressentir de déployer
une nouvelle application, il suffira de s'identifier sur le Cloud, de
sélectionner dans un catalogue de services ou d'envoyer directement
l'application souhaitée, puis de la personnaliser et de
lancer. En quelques minutes, (voire quelques secondes), l'application sera
fonctionnelle et pourra être consommée. C'est aussi valable
pour une infrastructure ou une plate-forme. Si une entreprise a
besoin, de trois serveurs Windows et d'un serveur Linux, il suffira de
sélectionner dans le catalogue et d'instancier cette
infrastructure « à la demande ».
|