L'arrivée d'Internet, et plus
généralement l'avènement des réseaux, a
accentué l'ensemble des besoins : accessibilité,
disponibilité, diffusion et interopérabilité. Les premiers
outils de consultation de données géographiques en environnement
Internet, en facilitant l'accès aux données et en augmentant les
opportunités d'échanges, aiguisent les problèmes
organisationnels et socio- techniques.
IV-1 Conséquences socio-
techniques
L'évolution technologique du monde géomatique,
si elle n'est pas originale dans son mécanisme, est d'une ampleur
considérable. Elle affecte tous les domaines et toutes les phases
techniques de la géomatique, déstabilisant des professionnels
souvent traditionalistes.
En conséquence, tout le secteur
géomatique a vu sa composition et les rôles de chacun se
renouveler et a dû apprendre à composer avec de nouveaux venus
comme les informaticiens. On peut constater aujourd'hui une stabilisation
progressive de ces différentes composantes professionnelles sur leur
métier de base. Et selon, ECOBICHON (1994), les effets majeurs de cette
dématérialisation de l'information géographique ne semble
pas encore être unanimement appréciés.
D'abord, remarquons que tous les processus automatiques de
saisie, de traitement et d'édition de l'information géographique
ont, à la fois, intégré une part du savoir faire de
l'opérateur, du spécialiste et cumulativement remplacé une
proportion importante des subtilités opératoires de l'homme par
le systématisme et la répétitivité des
appareillages électroniques. La conséquence est la moindre
spécialisation des métiers de mis en oeuvre ouvrant aussi des
brèches importantes dans des murailles séculaires.
De plus, la mise en mémoire informatique, qui
n'était initialement qu'une métamorphose à
l'intérieur d'un appareillage, puis une forme technologique de stockage
et d'archivage dans le service, est devenu un service à part
entière. Et puis, l'utilisateur est lui aussi de plus en plus demandeur
de données sous la forme numérique, parce qu'il souhaite,
grâce aux outils dont il dispose désormais et aux
compétences qu'il commence à acquérir, être
maître de la forme de leur présentation, et faciliter leur
réemploi ultérieur. Cette évolution n'est pas sans
embarras. En effet, nomenclatures accordées entre sources
différentes et ajustement de la base de données aux usages
effectifs sont les problèmes essentiels des clients.
Ensuite, pour ce qui des modalités de mise à
disposition, il s'agit, selon ECOBICHON, d'un transfert matériel- les
CD-ROM plutôt que les feuilles- comportant un ensemble très global
d'information.
Le numérique offre, par ailleurs, des aptitudes, des
fonctionnalités nouvelles : il est par exemple possible de
procéder à des changements de découpage, d'échelle,
des variations de composantes, des diversifications des représentations
graphiques et des sélections thématiques lors du traitement.
Cette «flexibilité» de l'information était impensable
avec le support papier.
En bref, la numérisation de l'information
géographique facilite non seulement toutes sortes de traitement mais
également libère cette information des contraintes de sa forme
papier, bouleversant globalement les critères de qualité.
IV-2 La résurgence du critère
qualité de l'information
La qualité d'un produit est, selon DENEGRE, sa
capacité à répondre, au mieux, aux besoins de
l'utilisateur. L'Agence Française de la Norme (AFNOR) la définit
comme « un ensemble des propriétés et
caractéristiques d'un produit ou service qui lui confère
l'aptitude à satisfaire des besoins exprimés ou
implicites».
L'avènement de l'information géographique
numérique a conduit à développer des aspects jusqu'ici
implicites de la qualité. En effet, la diversité des applications
des SIG, ajoutée à leur diffusion sans cesse croissante, exige en
contrepartie une connaissance précise de la qualité des
données que l'on veut traiter. Ces limitations éviteront à
l'utilisateur de se trouver en face de résultats aberrants.
Ainsi, aux critères pré- existants comme la
précision métrique ou la cohérence globale dont
l'importance s'est relativisée, s'adjoignent avec la multiplication de
l'information, de concepts nouveaux découlant de la diversification des
usages. Ce sont : la capacité attributaire, la vérité
temporelle (ou actualité), la fidélité de la
géométrie (forme et position relatives et absolues), la
cohérence topologique (respect des voisinages, des intersections...), la
cohérence logique (cohérence interne des données), la
durabilité.
Cette nouvelle donne exige des producteurs, une sorte de
labellisation de leurs produits qui doivent répondre aux
spécifications publiées. Ces produits doivent être
correctement décrits de façon à dégager la
responsabilité du producteur et à informer clairement
l'utilisateur sur ce qu'il obtient. Pour les aider dans cette démarche
qualité, les normes ISO 9000 évaluent l'excellence d'une
entreprise (ses processus) sans contrôler directement ses produits.
IV-3 Echanges et partage des
données numériques: l'importance des Normes
A l'heure de l'Internet, des satellites
métriques, du GPS, l'information géographique numérique ne
connaît plus les frontières posant du coup le problème
relatif à l'uniformatisation des normes. Mais, la normalisation dans le
domaine de l'information géographique numérique a
été justifiée au départ par le besoin de partager
et échanger des informations entre un émetteur et un
récepteur. En effet, il est capital pour les SIG de pouvoir
échanger les données car c'est un moyen d'acquisition (des
données) qui participe à la constitution des bases dans la phase
initiale, mais aussi qui intervient pour les compléter et les enrichir.
Le partage d'information contribue également à favoriser les
collaborations entre acteurs d'un même territoire.
La normalisation facilite le partage de
ressources par la définition de références communes. Dans
le domaine de l'information géographique, il existe deux façons
d'envisager les ressources. La première considère les
données proprement dites. La normalisation a alors pour objet la plus
grande automatisation possible de leurs transferts et porte sur les formats
d'échange, la modélisation, la localisation, la qualité et
les métadonnées10(*). La deuxième approche donne aux ressources une
acception plus large intégrant les traitements. Dans ce cas, les
ressources sont les moyens permettant obtenir de l'information
géographique (données, services...)
Les acteurs de la normalisation
Les activités de normalisation ont
démarré, vers le milieu des années 80, au plan national
dans plusieurs pays, et au plan international dans certains domaines comme la
défense ou l'hydrographie. De nombreuses initiatives sont en cours
aujourd'hui, visant à constituer et entretenir des bases de
données mondiales, à édicter des normes liées aux
données, aux systèmes et aux services.
Ces pages ne prétendent pas donner
une vue complète de ce qui se passe à travers le monde de
l'information géographique mais plutôt d'indiquer les actions qui
concernent tous les pays et de souligner les coopérations ou relations
existantes dans le monde francophone.
La normalisation internationale en information
géographique se déroule soit au sein de comités officiels
généralistes qui essayent de couvrir l'ensemble des applications
soit au sein de groupes d'utilisateurs sur des thématiques
particulières, soit, enfin, à l'initiative d'industriels qui
souhaitent accélérer les processus de normalisation. Ainsi les
comités 287 du CEN (Comité Européen de Normalisation) ou
211 de l'ISO (International Standard Organisation) sont des comités
officiels visant à couvrir l'ensemble de la problématique
information géographique. En parallèle, des groupes
d'utilisateurs ont développés des normes destinées
à satisfaire leurs besoins propres: les constructeurs automobiles pour
l'assistance à la conduite, les services hydrographiques au sein de l'
OHI (Organisation Hydrographique Internationale) ont mis en place la norme S57,
les militaires dans le cadre OTAN avec la norme DIGEST (Digital Geographic
Information Exchange Standard). Enfin, plus récemment, les industriels
les plus importants se sont regroupés au sein d'OpenGIS Consortium (OGC)
pour mettre au point leurs propres normes d'interopérabilité. Il
s'agit d'affranchir l'utilisateur de toute contrainte liée à un
environnement informatique particulier, de lui permettre des échanges et
des traitements transparents, sans qu'il ait à se préoccuper de
leur compatibilité ou d'interface, en d'autres termes, de le laisser se
concentrer sur son application en le déchargeant de
préoccupations liées à son montage technique.
L'interopérabilité est, en fait, la
capacité d'un système (ou de ses composantes) à fournir
des informations permettant un travail de coopération avec un autre
système (ou d'autres composantes). Dans le contexte de l'OpenGIS
Specification, il s'agit de composants qui collaborent pour supprimer les
tâches de conversion, les obstacles à l'import et l'export des
données, les barrières d'accès aux ressources
distribuées (au sens informatique) liées à
l'hétérogénéité des matériels et des
logiciels. Elle passe par la mise en place au sein des applications,
d'interfaces capables de communiquer entre elles et s'appuie sur :
- les normes de communication réseaux
(Internet) ;
- les normes de communication inter plates- formes :
COM/OLE et CORBA (technologies distribuées orientées- objets
élaborées respectivement par Microsoft en environnement Windows
et SUN MicroSystems en environnement UNIX), SQL ;
- les formats les plus modernes issus du Consortium
W3C11(*) : XML
(eXtensible Markup Language) conçu pour permettre à des
documents richement structurés (comme c'est le cas pour l'information
géographique) de circuler sur le web (ce dont ni HTML12(*), ni SGML ne sont
réellement capables), GML (Geography Markup Language) qui
permet d'encoder des objets géométriques et leurs
propriétés dans un format texte. (BORDIN, 2002).
Mais ce groupement à forte connotation des Etats Unis
n'est pas le seul; les canadiens ont par exemple constitué avec le
même but Open Geospatial Datastore Interface (OGDI)
En France, la multiplication des formats de constructeurs a
conduit le CNIG à créer une organisation de certification des
Echanges de Données Informatisés Géographiques (la norme
EDIGEO) chargée de répondre aux besoins des utilisateurs. Elle
fait suite à une demande issue d'un séminaire du CNIG de juin
1992 confirmée par les deux enquêtes publiques
réalisées par l'AFNOR au sujet de la norme Z-13-150.
Le principe d'EDIGEO repose sur un modèle conceptuel de
données flexible permettant de modéliser n'importe quel lot de
données suivant des principes normalisés. EDIGEO permet de
transférer des données en mode vecteur, topologique ou
maillé et de décrire la qualité des informations
géographiques.
L'échange de données est un aspect fondamental
de l'information géographique numérique. La faisabilité de
l'échange est conditionnée par la normalisation de l'information,
qui est un objectif de l'ensemble de la communauté géographique,
tant nationale qu'internationale. La normalisation porte notamment sur le
format des données, ce qui permet d'éviter les conversions de
format quand on passe d'un système à l'autre, ce qui est souvent
très lourd à réaliser. Le fait de disposer d'une norme
permet de limiter le nombre de conversions. La normalisation à
l'échelon national (AFNOR, avec la norme EDIGEO) puis européen
(Comité Européen de Normalisation), a été
amorcée au début des années 90 puis étendue
à l'ISO, dans l'optique de favoriser l'inter- opérabilité
des systèmes.
La normalisation est aussi un outil de
pénétration de marché par la réduction de
barrières entre les différents systèmes. Les enjeux se
situent à deux niveaux : une plus grande circulation des
informations pour permettre le développement du marché et une
plus grande mise à disposition d'informations décrivant l'espace
géographique et ses territoires pour mieux les connaître et mieux
les gérer.