2.2.4. Il est essentiel de
sécuriser l'accès :
Il faut ensuite des moyens de calcul et de stockage : les
"noeuds" de la Grille. Or ceux-ci sont légion puisque tous les
calculateurs des centres de recherche, tous les ordinateurs de laboratoires et
toutes les bases de données ont vocation à être
interconnectés. Le maillage pourrait même s'étendre,
imagine un responsable du projet, à des entreprises, à des
banques ou à des services publics. Ainsi l'imagerie médicale,
à commencer par les banales radiographies, va-t-elle produire une
pléthore de documents numérisés, qui doivent être
archivés tout en restant immédiatement accessibles aux
médecins.
Pourquoi ne pas aller plus loin en élargissant la Grille
aux ordinateurs domestiques ? Il reste à développer des outils
logiciels qui assureront la synergie de ces multiples noeuds. Il s'agit
à la fois de contrôler et de sécuriser l'accès au
réseau, sous peine que sa formidable puissance de calcul ne soit par
exemple exploitée par des hackers pour casser des clés de
décryptage, et de mobiliser au mieux ses ressources. Ce qui demande des
protocoles de communication, des systèmes d'analyse des requêtes
et de répartition des tâches, des dispositifs de redistribution en
cas de panne locale...
Les Européens ne sont bien sûr pas seuls à
travailler à la mise en place d'une grille de calcul. Plusieurs projets
similaires existent aux Etats-Unis, à l'initiative de la NASA notamment,
et au Japon. A terme, toutes ces grilles sont appelées à
être connectées entre elles, ou du moins connectables. Ne
serait-ce que parce que les grands instruments scientifiques sont de plus en
plus internationaux, comme il en va pour le futur accélérateur du
CERN dont les américains sont partie prenante. En attendant de pouvoir y
observer les premières collisions de protons, les physiciens ont
d'ailleurs prévu de tester le principe de la grille en commençant
par les centres de calcul de Lyon et de Stanford (Californie).
C'est un premier pas vers l'ubiquité de la Grille.
Les physiciens ne sont pas les seuls à s'intéresser
au calcul distribué. D'autres disciplines très gourmandes en
ressources informatiques sont elles aussi directement concernées. C'est
le cas de la biologie et en particulier de la gênomique. Chaque nouvelle
séquence de gène vient en effet grossir des bases de
données dont la taille double tous les six mois, au niveau mondial,
tandis que la modélisation en trois dimensions des protéines fait
une consommation pantagruélique de temps de calcul. C'est
également le cas des sciences de la Terre qui amassent une
quantité astronomique de mesures réalisées aussi bien par
des satellites d'observation que par des capteurs terrestres ou des balises
océanographiques et qui font appel à des modèles de
simulation numérique d'une complexité extrême. Un nouvel
idéal est né un peu partout pour les chercheurs : celui
porté par la possibilité de traiter de gigantesques, plus que
titanesques volumes de données.
|