Etude comparative d'un système cloud computing dans les produits Gmail, youtube et facebook.par Paul Kondo Université Liberté - Diplôme d'ingénieur en réseau et télécommunication 2017 |
3.2. ANALYSE COMPARATIVE3.2.1. Du point de vue protocoleLe protocole est un ensemble de contraintes permettant d'établir une communication entre deux entités. Les différents protocoles utilisés par Gmail, YouTube et Facebook sont :
Page | 58
Tableau 3 : Différentes protocoles 3.2.2. Du point de vue stockageA. Datacenter Google Google géant américain de la Moutain View possède plusieurs centres de stockage et de traitement des données. La topologie du Google, est un réseau constitué de 34 centres de données reparties dans le monde, dont on retrouve 19 aux Etats-Unis (2 autres encours de construction), 11 Page | 59 autres en Europe, 3 autres en Asie ainsi 1 au brésil ( https://fr.m.wikipedia.org/wiki/Plateforme_Google, 2017). Mettre ses données dans un data center externe permet de sécuriser ses données sans investir dans son propre matériel et sans assumer la maintenance de l'infrastructure. Google avec c'est multitude des services que l'on retrouve de plus en plus dans notre quotidien (Gmail, Google Drive, Android, YouTube, etc). Mais au coeur de Google, nous retrouvons toujours la même constante l'information. Et bien sûr, il faut stocker ces informations. Sans révéler les informations exactes il semblerait que Google possède aujourd'hui près d'une quarantaine de Datacenter dans le monde entier. Environ une vingtaine sont située aux USA, le reste étant principalement basé en Asie et en Europe. Bien que les chiffres ne soient pas publiés, certains estiment que Google maintient près de 2 millions de serveurs Ils assurent en permanence, 7J/7 et 24h/24, le fonctionnement de Google, Son moteur de recherche indexe 20 milliards de pages par jour pour répondre à 3,3 milliards de requêtes quotidiennes et 40 000 par seconde. Mais ce n'est pas du tout Google c'est aussi 425 millions d'utilisateurs de sa messagerie Gmail disposant chacun d'un espace de stockage de 10 Go, soit 4,25 Eo (exa octets). La société compte aussi 250 millions de membres sur le réseau social Google+. Ajoutons aussi 500 millions d'utilisateurs du système d'exploitation mobile maison Android. Autant de données qui demandent une immense capacité de stockage et d'opérations qui nécessitent une grande puissance de calcul. Côté vidéo, YouTube recense 800 millions d'utilisateurs qui passent 4 milliards d'heures à regarder des vidéos chaque mois. Ils envoient aussi 72 heures de vidéos par minute pour 1,3 milliard de vidéos hébergées en tout. Selon WordStream la régie publicitaire Double Click que Google décrit comme sa « pierre angulaire », affichait 180 milliards de publicités par mois, ciblant 90% des internautes. B. Datacenter Facebook L'architecture réseau pour supporter l'évolutivité sans cesse croissante des besoins du média social. Quand on s'appelle Facebook la question de la topologie réseau prend un sens particulier lors de la construction d'un Datacenter. Les problématiques sont connues, un grand volume de données et de requêtes qui circulent tous les jours, un besoin de haute disponibilité en temps réel, la prise en charge des liens vers des clients et prestataires externes. Le réseau social a donc repansé son architecture traditionnelle de réseau avec l'extension de son Datacenter à Altoona dans l'Iowa. Page | 60 Ce dernier alimenté par des énergies 100% renouvelables via un parc éolien, a construit son réseau sur la technologie dite « data center fabric ». Alexey Andreyev ingénieur réseau chez Facebook, explique dans un blog qu'il faut distinguer « le trafic » « machine to user » qui se définit comme les requêtes, ou la création de contenu d'applications est très important, il s'agit de la partie émergée de l'iceberg. Le trafic « machine to machine » au sein du Datacenter est en croissance exponentielle et le volume double en moins d'une année. Un saucissonnage en pod de 48 racks serveurs, d'où l'idée d'avoir une approche désagrégée de l'architecture réseau, au lieu d'avoir des clusters avec beaucoup d'équipements réseaux, nous avons cassé le réseau en plusieurs petites unités identiques des serveurs pods et créer une connectivité haute performance entre les pods au sein du Datacenter. La taille de ces petites unités est de 48 racks de serveurs, chaque Pod est relié à 4 commutateurs fabric (spécialement élaboré par Facebook) avec des liens 40 G permettant d'atteindre une capacité de bande passante de 160 G pour un rack de serveurs connectés en 10 G. Une partie software adaptée à l'avantage de cette solution modulaire est de pouvoir la répliquer au sein du Datacenter et de requérir que des commutateurs basiques pour gérer l'agrégation top of rack, cette simplicité autorise plusieurs options de routage via le protocole BGP 4 (le seul retenu par l'entreprise). Dans le même temps, Facebook souligne avoir travaillé sur un contrôleur BGP centralisé qui permet de contourner les chemins de routage via un logiciel, cette approche flexible est dénommée « DCCO (distributed control, centralized override) », cela signifie aussi que le réseau social a élaboré son propre logiciel de gestion et de configuration du Datacenter fabric. Quand la firme veut intégrer un nouvel équipement, il est automatiquement reconnu et configurer en cas de problème, cela ressemble au même processus que le commissionnement d'une machine virtuelle. Facebook disposerait 30000 serveurs et 80 milliards d'images Des chiffres toujours plus impressionnants publiés autour de l'infrastructure du mastodonte des réseaux sociaux qu'est devenu Facebook. Il doit stocker chaque jour 500 To de nouvelles données sur son infrastructure informatique. Un volume de données stocké via un cluster Hadoop d'une capacité de 100 petabytes Page | 61 |
|