Internet : Une nouvelle dimension du Système
International
Sous la direction de Mr Igor LEFEVRE Université
des Sciences Sociales - Toulouse 1
Remerciements
Remerciements tout d'abord à notre directeur de
mémoire, Mr LEFEVRE, qui par son expérience, son écoute et
son humour a réussi à encadrer et à mettre en valeur une
recherche motivée mais parfois désordonnée.
Remerciements à toutes les personnes que j'ai pu
interviewer en direct ou par email : Mme Anne-Rachel INNE, Mr Joseph BREHAM, Mr
Louis POUZIN et Mr José BALLANCHO. Sans eux, ce mémoire n'aurait
pu exister. Merci à eux de leur disponibilité et de leur aide
jamais démenties.
Remerciements à ma mère qui m'a aidé,
notamment par ses relectures, ses commentaires, son aide matérielle et
son point de vue profane qui m'a obligé à revoir mes propos et
mon travail. Merci à elle pour tout cela.
Introduction
Avec 1, 35 milliards d'utilisateurs en 2007 d'après une
étude du cabinet d'analyse Research and Markets1, des revenus
estimés à 524 milliards de dollars par des économistes
français2 en 2001 et une croissance égale à 50%
de l'augmentation du PIB des Etats-Unis, Internet est devenu un enjeu des plus
actuels.
La structure du « réseau des réseaux »
ou « Inter-Networks », Internet, est complexe et pourtant très
intéressante à étudier car certaines de ces
spécificités techniques ont engendrées des enjeux
conséquents. Le premier exemple et le plus connu est celui du service
DNS, équivalent d'un annuaire permettant de relier une adresse physique
(IP)3 à une adresse virtuelle tapée sur un clavier
(URL - Ex. :
www.univ-tlse1.fr). La
gestion de ce service est essentielle car sans lui, Internet ne serait pas
accessible à la plupart des utilisateurs : on pourrait dire qu'il ne
fonctionnerait pas. Le second exemple tient à la nature « neutre
» ou bien encore à l'intelligence «
décentralisée » du réseau. Cela signifie qu'Internet
est un simple outil de transmission : peu lui importe la nature de ce qu'il
transporte puisque c'est « au bout » de la chaîne de
transmission que l'information va être analysée,
décodée et utilisée. Au final, ces aspects purement
techniques ne doivent pas être écartés en raison des
importants enjeux politiques qu'ils entraînent. Ces enjeux trouvent
notamment un écho dans les relations internationales et c'est l'objet de
ce travail de décrypter ces enjeux et d'en donner une brève
analyse.
Le second aspect d'Internet est celui de sa gestion proprement
dite, de sa « gouvernance ». Le retard affiché par la
quasi-totalité des Etats (mis à part les Etats-Unis) au regard de
l'importance croissante que prend le réseau en termes d'économie
ou bien encore de diffusion de la démocratie..., a pour effet de donner
un « coup de fouet » à la prise en compte politique et
diplomatique de cet objet dans les Relations Internationales. Cependant,
s'arrêter aux Etats pour analyser l'importance d'Internet serait une
erreur,
1 Information extraite de la Veille Stratégique concernant
Internet disponible à :
http://arnaudgarrigues.blog.com
.
2 Gaudeul A., & Julien B. (2001), Revue Economique., V. 52
3 Il est difficile d'être pertinent à propos
d'Internet sans être technique. Cependant, tous les termes seront
abondamment expliqués dans la première partie. Quant à
ceux-là, ils paraissent encore abordables.
d'autant plus que la plupart des acteurs habituellement
décrits dans le système international ont à un niveau ou
à un autre, intégré le réseau.
Par ailleurs, il ne s'agit pas de décrire une
géopolitique d'Internet comme plusieurs auteurs ont pu le
faire4. Le terme géopolitique renvoie par trop à la
notion de territoire et bien évidemment, de géographie. Or, ici,
l'objet est tout sauf unidimensionnel. En effet, on peut d'abord le diviser en
deux parties : celle des enjeux techniques d'une part et des enjeux de la
gouvernance d'autre part. Une subdivision est encore possible dans la partie
technique : on considérerait alors trois niveaux de réflexions :
le niveau des infrastructures physiques du réseau, le niveau des
protocoles basiques du réseau et enfin, le niveau de la nature des
données transportées par le réseau. On ne peut donc se
référer simplement à un cadre géopolitique car bien
qu'il soit bidimensionnel (géographique et politique), il est par nature
incapable de rendre compte des phénomènes liés à
Internet. Enfin, il est encore possible de diviser la partie purement politique
d'Internet, les phénomènes créés par la simple
existence et l'utilisation du réseau, en plusieurs parties. En effet, en
terme de relations internationales, Internet agite tous les niveaux, que ce
soit le système, les états ou bien les autres acteurs.
Enfin, un dernier commentaire s'impose. En raison des enjeux
que le système Internet induit, des acteurs qu'il implique et des
dynamiques que l'on peut y trouver, on ne peut s'empêcher de penser au
pétrole ou bien encore au nucléaire. L'importance prise par ce
qui ne peut être vu à la base que comme des outils (pour
l'industrie, pour la stratégie militaire) et les enjeux qui en
résultent en termes de relations internationales, tout cela constitue un
ensemble de phénomènes très proches de ceux que l'on peut
observer à propos d'Internet. Ce sera donc l'objet de ce mémoire
que de montrer en quoi Internet constitue une nouvelle dimension du
Système International.
4 Notamment : Godeluck, S. (2002). La Géopolitique
d'Internet : La découverte ou bien encore le dossier du même titre
dans le 3ème numéro de 2006 de la revue
spécialisée Politique Etrangère.
Prolégomènes
L'objectif de cette partie sera de mettre en valeur plusieurs
points déterminants : le cadre d'analyse choisi, la
problématique et les hypothèses qui ont été
construites, la justification et l'annonce du plan et les outils
de recherche utilisés et méthodologiquement justifiés
et expliqués.
Le but est ici de mettre en avant tous les choix
méthodologiques qui ont été faits que ce soit dans le
choix du type d'analyse ou bien des outils de recherche utilisés. Par
ailleurs, cela permet de construire l'articulation logique de ce
mémoire, de donner aux analyses qui seront développées
plus de pertinence et ainsi donner à ce travail un caractère plus
scientifiq ue.
Analyse Stratégique :
Analyser Internet conduit à se poser des questions
entrant dans des dimensions multiples. Actuellement, une simple recherche sur
Internet dans les catalogues des facultés permet de voir que l'aspect
social ou économique d'Internet (blogs, nouvelles formes de
démocratie,...) est très en vogue. Or ici, l'intérêt
est porté uniquement sur une vision stratégique d'Internet et
dans les relations internationales plus précisément. Ainsi, il
est donc nécessaire de bien définir le sens de l'analyse dans
laquelle nous allons inclure cette recherche.
Le type d'analyse choisi est donc l'analyse stratégique.
En effet, Raymond Aron a affirmé que
« toute étude concrète des relations
internationales est une étude sociologique »5. Or, ici,
il
est question d'analyser un objet social (Internet) dans une
optique de Relations Internationales. Une analyse de type sociologique
paraît donc pertinente. L'intérêt porté aux enjeux et
aux relations de pouvoirs, de dominations...renvoie de façon
immédiate à une analyse stratégique. Cependant, Il semble
nécessaire à ce niveau de justifier une telle affirmation qui,
sans cela, serait péremptoire et pour ce faire, de décrire plus
précisément les fondements et la méthode de l'analyse
stratégique.
5 ARON, R. (1967). Qu'est ce qu'une théorie des Relations
Internationale, Revue Française de Science Politique, 17 (5), Octobre
1967, p. 837-861.
Les travaux de Michel Crozier et de Francis
Pavé6 ont livré une méthode et une
description de l'analyse stratégique permettant de fixer le cadre
d'analyse et les modèles logiques liés à ce type
d'analyse.
Tout d'abord, l'analyse stratégique se situe dans une
logique heuristique : elle a pour but de découvrir un objet social. La
pratique du raisonnement, les techniques d'investigation lui sont propres et
sont bien particulières.
Elle repose sur divers postulats, qui peuvent être
contestés ainsi que le disent les auteurs, mais qui permettent de fonder
une représentation de l'objet social en vue d'un but bien particulier.
Dans le cadre de ces idées, elle met en place trois notions
fondées sur des postulats :
L'Acteur. C'est l'objet central de l'analyse. Il est
capable de calcul et de choix : il est rationnel au moins en partie. L'analyse
ne se pose pas de questions sur la nature de l'acteur : il est acteur
simplement parce qu'il appartient à un contexte d'action (il agit sur
Internet ou sur la nature, l'évolution d'Internet), c'est presque un
agent. L'étude permet de reconstruire empiriquement l'acteur et c'est
pourquoi on ne se pose pas de questions sur lui : seules ses
caractéristiques par rapport à l'objet social intéressent.
L'acteur est l'élément de premier plan de l'analyse et selon les
auteurs, cela s'explique par le fait qu'il est le seul à avoir la
capacité à mobiliser et faire exister les contraintes, les
problèmes, les solutions et les opportunités.
Le Pouvoir : c'est la seconde notion pertinente de
l'analyse. Le postulat lié à cette notion est une vision des
rapports humains « médiatisés » par des relations de
pouvoir. Si, pour des relations humaines, le postulat est contestable, il
paraît en revanche, parfaitement adapté à l'étude du
système international. L'objet est ici de montrer que cette vision est
adaptée à l'étude d'Internet. Cette façon de voir
permet d'introduire différents éléments : l'existence de
conflits, d'accords ou d'alliances et évite une vue trop consensuelle.
Par ailleurs, son plus grand avantage est de considérer
l'instabilité et la conflictualité comme normales et de chercher
à expliquer la stabilité, la régularité.
L'adaptation de cette vision à un système international
considéré comme anarchique, hobbesien est manifeste. L'intuition
la rapproche d'une certaine vision d'Internet, apportée notamment par
les éléments que j'ai pu citer au début du
résumé de la phase exploratoire (inflation normative, lien entre
le terrorisme et le réseau...). Par ailleurs, une telle vision a le
mérite d'expliquer l'absence de
6 Voir Bibliographie en fin de mémoire
« comportements à logique linéaire »
de certains acteurs en lien avec la considération du pouvoir comme une
motivation : il s'agit tout simplement d'expliquer les « stratégies
» entendues ici au sens commun. Cette vision concentre aussi le
raisonnement sur les relations entre les acteurs, l'existence de
minorités et de volonté de domination et la capacité des
acteurs à créer des compétences et des capacités
pour répondre à leur motivation. Cette vision n'est pas sans
rappeler la guerre de l'information à laquelle fait
référence Jean Guisnel7.
Système : adopter une analyse
stratégique, c'est sous-entendre l'existence d'un système. En
effet, l'étude du pouvoir comme motivation absolue est un postulat qui
entraîne l'existence de relations d'interdépendances entre les
acteurs. Cela veut donc dire que l'on fait un « pari » sur
l'existence de ces relations dans la réalité sans quoi, il est
impossible de faire une telle analyse. Le postulat donc, ou «
hypothèse heuristique », est qu'il existe un ordre ou une
interdépendance des acteurs. Les conséquences d'un tel postulat
sont que l'on s'abstient de rechercher la cause de cet ordre (bien que l'on
puisse le faire dans un autre cadre d'analyse) au bénéfice du
« comment ».
Problématique et Hypothèses :
Au final, l'enchaînement des postulats donne le
raisonnement suivant : la motivation est le pouvoir, ce qui entraîne une
interdépendance des acteurs dans la recherche de pouvoir, ce qui donc
explique les phénomènes. On parle alors
d'endogénéisation des phénomènes : on trouve leur
explication dans les relations entre les acteurs. C'est pourquoi la notion de
système s'intègre à l'analyse stratégique. La
relation avec le système international est donc immédiate : la
vision réaliste s'adapte tout particulièrement bien à ce
type d'analyse et l'objet du mémoire est donc de montrer l'existence
d'un tel système. Or précisément, la délimitation
du système est un objet de recherche comme disent les auteurs. Cela
permet donc de constituer une partie de la problématique.
Après avoir décrit les principaux fondements de
l'analyse stratégique, il est alors possible de donner la
problématique de mon mémoire :
7 GUISNEL, J. ((2005).Guerres dans le Cyberespace - Services
secrets et Internet : La Découverte
La question principale que l'on peut se poser est la suivante
: En quoi Internet est-il certes un univers nouveau mais où les
dynamiques observables sont comparables à celles du système
international contemporain et où les acteurs impliqués dans ces
dynamiques sont aussi ceux du système international ?
Cette problématique a plusieurs mérites. Le
premier est qu'elle rappelle qu'Internet est un « univers nouveau »,
ce qui renvoie à la fois à sa spécificité qu'il
faudra expliquer mais aussi aux capacités des acteurs à
créer des compétences, des moyens et à faire surgir les
opportunités comme il a été dit plus haut à propos
de l'analyse stratégique. Le second aspect est qu'elle permet à
la fois de revenir sur les acteurs, cela est dit de façon explicite mais
aussi de revenir sur les relations de pouvoir. En effet, la mise à jour
des « dynamiques » évoquées dans la
problématique devrait, pour autant que les hypothèses soient
justes, mettre en avant des relations entre acteurs basées sur un besoin
de pouvoir et de contrôle. Enfin, le dernier atout d'une telle
problématique est de permettre de reconstruire un système, que ce
soit en premier lieu, un système Internet ou bien encore une fois, si
les hypothèses sont justes, le Système International
d'aujourd'hui. Si l'on peut reconstruire un tel système en
étudiant Internet, c'est que ce dernier est intégré dans
un système plus général et donc, qu'il constitue bien une
nouvelle dimension du Système International.
Evoquant les hypothèses, il paraît judicieux de
les développer rapidement. Ayant amplement développé la
méthode et les caractéristiques de la problématique,
énoncer ces hypothèses est dorénavant aisé.
La première et la plus évidente est qu'Internet
constitue un système bien particulier qui va au-delà d'un simple
outil. Il a été fait référence dans l'Introduction
à une comparaison avec le nucléaire ou le pétrole en
raison des « débordements » ayant lieu au-delà de la
simple nature d'outils. La première hypothèse est donc celle-ci :
Internet est un objet social en plus d'un outil dont les conséquences
issues de l'utilisation de masse et du développement vont bien
au-delà de sa nature simple d'outil de communication.
La seconde concerne l'existence d'un système Internet
que l'on peut décrire stratégiquement. La vision «
cachée » derrière cette hypothèse est plutôt
« réaliste » au sens des théories des Relations
Internationales et peut être dédoublée en deux
sous-hypothèses : l'existence de relations de pouvoirs d'une part et
d'acteurs d'autre part tels que définis dans la méthodologie de
l'analyse Stratégique.
La dernière hypothèse repose sur la
définition des acteurs et des dynamiques ou des relations mises à
jour. Cette étude prétend montrer que les identités des
acteurs en présence sont les mêmes que celles des acteurs du
Système International et que les relations de pouvoir y sont de
même nature. C'est-à-dire qu'elles prétendent
défendre ou obtenir les mêmes choses et ce pour les même
raisons : du contrôle, de la sécurité, une capacité
de réponse voire de contrainte plus forte en raison de la
souveraineté.
La démonstration de ces hypothèses entend
montrer par corollaire qu'Internet est devenu un enjeu du Système
International, qu'il est intégré dans le Système
International et doit donc être considéré comme tel pour
les politiques futures.
Justification du Plan :
Le fonctionnement d'Internet est relativement complexe et ce,
pour plusieurs raisons. Toutes ces raisons n'ont pas forcément pour
corollaire immédiat de créer des enjeux mais il est
nécessaire de maîtriser les concepts et les termes pour comprendre
les analyses qui suivront. Il s'agit aussi de décrire « l'univers
nouveau » évoqué dans la problématique.
Cependant, certains aspects du fonctionnement sont
effectivement en tant que tels des enjeux et, afin d'éviter des
descriptions plus tardives, la description sera faite de telle manière
que ces problématiques apparaîtront clairement.
Internet est une structure multidimensionnelle par nature. En
premier parce que le fonctionnement n'est pas abordable de façon
linéaire, la plupart des actions de base de l'internaute débutant
déclenchant des réactions en chaîne à plusieurs
« étages » nécessaires à la réalisation
de l'opération envisagée. Cela veut donc dire que le
fonctionnement technique du réseau est difficile à expliquer et
nécessite déjà un travail important.
Ensuite, il y a l'aspect administratif et politique
correspondant à la gestion d'Internet, à sa gouvernance. Les
interactions entre l'ICANN8, le gouvernement américain, celui
des autres états, les entreprises se font dans un cadre précis
qu'il convient de décrire. Ces relations en tant que telles seront
abordées dans la seconde partie.
Pour respecter ce premier double aspect, la division la plus
pertinente paraissait être la suivante : « l'Architecture du
réseau » où seront expliqués le fonctionnement
technique et l'aspect « Administration » où sera
développée et définie la gouvernance d'Internet.
8 Voir la Première Partie pour un exposé sur
l'ICANN.
Tout cela constitue donc une première partie qui
sera nommée : « Histoire et fonctionnement d'Internet d'un point de
vue stratégique ». On décrira donc les
éléments cités plus haut en insistant sur l'aspect
stratégique qui leur sont liés.
Une fois les concepts et l'histoire maîtrisés,
l'analyse en tant que telle peut débuter. La problématique du
mémoire consistait à relever les principaux enjeux
stratégiques de l'objet et à montrer que malgré les
aspects nouveaux (dus principalement à l'aspect technique, ce qui donne
tout son sens à la première partie), les acteurs et les
dynamiques fondamentales de la prise de pouvoir ne changeaient pas par rapport
à ce que l'on pouvait trouver dans le système international
contemporain. Au final, les lectures, les interviews et la veille
stratégique faite sur Internet m'ont conduit à recenser diverses
problématiques et différentes façons de les expliquer ou
de les concevoir. C'est ce qui va être développé dans la
seconde partie.
Aussi, adopter un outil utilisé dans les
théories de relations internationales semble pertinent et c'est pourquoi
la seconde partie se fonde sur les niveaux d'analyses. En effet, le propre de
ce type d'outil est de considérer la multicausalité des
phénomènes sociaux comme évidente et de proposer des
explications les plus larges possibles. C'est ce qu'affirme Barry BUZAN dans
son article : « The level of analysis problem is about how to identify and
treat different types of location in which sources of explanation for observed
phenomena can be found».9 Autrement dit : « Le
problème des niveaux d'analyses est de savoir comment identifier et
traiter différentes sources auprès desquelles on peut trouver des
explications aux phénomènes observés ».
Pour cette raison, le choix de cet outil apparait des plus
pertinents lorsque l'on considère qu'Internet est un
phénomène mondial qui conserve pourtant des
caractéristiques bien particulières aux niveaux des états
ou des individus.
Le choix du nombre des niveaux d'analyse et de leur
signification relève d'une seconde réflexion. Une fois, le choix
de cet outil méthodologiquement justifié, il faut savoir comment
s'en servir. Plusieurs théoriciens des relations internationales ont
travaillé sur le nombre de niveaux d'analyse, leurs significations et
leurs distinctions.
K. WALTZ retenait trois niveaux : systémique,
étatique et individuel. J.ROSENAU, quant à lui retient 5 niveaux
(systémique, sociétal, gouvernemental, rôle de l'individu,
particularités de
9 BUZAN B., (2001), The level of Analysis Problem Reconsidered,
Theories in International Relations : University of Pennsylvania Press
10 Ibid.
l'individu) et PAPP en adopte 6 en rajoutant un niveau, les
sous-systèmes.10L'approche défendue par WALTZ
paraît ici la plus à même de permettre de traiter l'objet
dans l'optique choisie. Cependant, c'est en quelque sorte la qualité des
développements qui permettront de justifier définitivement ce
choix.
Cette approche veut respecter les particularités
d'Internet, à savoir l'importance de l'individu par rapport au groupe
auquel il peut appartenir (terroriste, criminel...) et le fait que l'anarchie
au sens littéral du terme (absence de pouvoir central)
caractérise particulièrement bien ce système.
Tout cela constitue donc une seconde partie qui sera
nommée : « Analyse des enjeux ». Les subdivisions seront au
nombre de 3 : une première pour le Système, une seconde pour
l'Etat et une dernière pour l'Individu.
Concernant la dernière partie, son but est
double : montrer une approche critique du travail réalisé
auparavant et pouvoir apporter des éléments
récoltés notamment au niveau des entretiens ou des lectures de
tous les « bords » politiques ou encore idéologiques.
Par ailleurs, considérant que le lecteur est maintenant
averti des différentes problématiques, dynamiques et tendances se
développant sur ou autour du réseau, il est possible de montrer
un affrontement de nature plus philosophique derrière ses
développements stratégiques.
Enfin, comme dit précédemment, la question de la
validité, de la généralisation des observations et
peut-être même des prénotions imposées, doit
être posée. C'est l'objet de cette partie.
Par ailleurs, ce développement aura pour objectif de
reprendre les différents outils utilisés et de montrer que par
nature, ils induisent des biais de compréhension et de
représentation de la réalité. Il faut noter aussi que
l'utilisation de ces outils conduit à définir certaines variables
et ces définitions peuvent conduire à des erreurs de
compréhension.
Ce seront donc ces deux aspects qui seront
développés ici. La démonstration de l'utilisation des
outils et le choix des variables seront, eux, développés dans la
suite de cette partie.
Un second développement à l'intérieur de
cette partie aura pour objet de développer les philosophies ou les
grandes idées sous-tendant les actions et les prises de positions des
différents acteurs d'Internet.
En effet, et c'est la première critique, le
rédacteur n'a pas été totalement exempt de partispris et
ses opinions ont sans doute influencé les développements
précédents. Il sera donc intéressant d'essayer de donner
un écho à certaines opinions ou prises de positions afin de
permettre une plus grande objectivité des éléments
déjà exposés. Il s'agit de faire « parler les acteurs
». Par ailleurs, il faut bien voir que l'étude a deux biais
relativement importants que l'on ne peut ignorer :
- Un temps d'étude trop court : cela a pour
conséquence une sorte d'étude à partir d'une «
photographie » d'Internet. A la fois parce que l'objet est très
jeune et parce qu'il évolue à une vitesse impressionnante, un tel
mémoire ne peut bien rendre des enjeux, des stratégies et des
développements. Certains évènements ont eu lieu pendant
l'étude et les étudier est particulièrement difficile
à ce niveau de temps et d'expérience de recherche.
- L'objet est réellement vaste et l'appréhender
à la fois, dans sa généralité et dans ses
particularismes est de l'ordre de l'impossible en si peu de temps et de place.
Cela dit, cela permet d'avoir des axes de recherche et de poser des questions
pour des recherches ultérieures.
Outils méthodologiques de recherche :
Après avoir défini la problématique et
justifié le plan, il convient de justifier les méthodes
utilisées pour l'étude et la résolution de ce
problème. Pour cela, il semble pertinent de faire à nouveau un
rapide retour méthodologique sur l'analyse stratégique et surtout
ses implications en termes de modèle de logique.
Selon M. CROZIER, la posture intellectuelle naturelle
liée à une telle analyse est une posture d'induction. Il s'agit
effectivement de reconstruire un modèle représentant la logique
et les propriétés d'un « ordre local »11.
11 CROZIER M., &PAVE F. (1994), Analyse stratégique -
Colloque de Cerisy: Ed. Du Seuil, p. 133 -153
Cela implique plusieurs éléments fondamentaux.
Le premier est qu'une posture d'induction entraîne la construction d'un
modèle mimétique fondé sur des observations empiriques. Il
s'agit ici uniquement des idées tirées d'une reprise du
cours12.
Le second élément est propre à l'analyse
stratégique. En effet, selon les auteurs, reconstruire sous forme de
modèle un ordre local a une première implication : la
nécessité d'avoir une description et une analyse des faits
poussées. La seconde implication est l'utilisation de la comparaison
afin de mettre en exergue les faits significatifs et d'avoir à
disposition des résultats d'études faites à
proximité du sujet.
Au final, la méthode utilisée est donc une
méthode inductivo-comparative. Le lien avec mon sujet est fait sans
effort car il postule l'existence d'un « Système Internet » et
l'induction va permettre de construire ce système ou alors d'infirmer
cette hypothèse. Quant à la comparaison, elle est satisfaite par
le rapport au système international tel que présenté dans
nos cours et en empruntant des éléments au paradigme
réaliste (les relations liées au pouvoir) et au transnationalisme
(un certain dépérissement de l'Etat et des relations
dépassant les frontières étatiques habituelles).
Ce retour méthodologique permet donc d'avoir des
précisions quant aux méthodes les plus adaptées pour
fournir des réponses.
La méthode utilisée est bipartite : elle a un
aspect comparatif et un aspect inductif. L'aspect comparatif et les sujets de
comparaison amènent logiquement à considérer l'analyse
documentaire comme un moyen privilégié d'acquérir les
outils, notions et connaissances nécessaires à cette étape
de l'analyse.
L'aspect inductif a plusieurs conséquences : la
première est qu'étant donné que les hypothèses sont
empiriques, formulées à partir de constatations faites en
recherche préliminaire sur Internet, il faut se confronter au
réel pour pouvoir les tester. De plus, les indicateurs permettant de
s'orienter dans l'analyse et de confirmer ces hypothèses sont
données par le réel : ce n'est qu'une conséquence de ce
qui a été dit plus haut. Il faut donc un « aller-retour
» entre le réel et le conceptuel pour pouvoir dégager des
hypothèses, construire un modèle testé par les
réponses aux hypothèses et enfin obtenir par le biais des
indicateurs, les résultats des tests des hypothèses et donc la
validité du modèle.
Dans ce cadre là, c'est l'entretien semi-directif qui
paraît être la meilleure façon de se confronter au
réel. En effet, l'analyse stratégique met en avant les acteurs et
l'entretien
12 Cours de Travaux Dirigés de Mr LEFEVRE.
permet de rencontrer ces acteurs. De plus, cela permet de
recueillir un matériau de recherche précis et de qualité,
permettant ainsi de construire le système.
Par ailleurs, il paraît intéressant de noter que
si l'entretien semi-directif est performant, il a besoin d'une grille
précise, préalablement préparée, pour obtenir les
informations souhaitées13. Or, la recherche documentaire
effectuée dans le cadre de la comparaison permet de réduire le
champ des investigations, de constituer les indicateurs de comparaison et donc
de construire une partie de la grille de questions.
Ayant ainsi justifié les méthodes au regard du
cadre d'analyse, il convient maintenant de les confronter au terrain. Il faut
donc dans un premier temps, faire un point rapide sur la nature et les
caractéristiques du terrain.
Le terrain choisi est donc Internet. Cependant, la
problématique postule une analyse stratégique d'Internet,
à la fois phénomène et objet. Cela a pour
conséquence d'avoir des acteurs ayant entre eux des relations
liées au pouvoir. Cela modifie donc le terrain qui devient donc à
la fois Internet mais aussi tous les acteurs ayant des comportements
stratégiques sur Internet. Par ailleurs, le type d'analyse choisi
amène à la constitution d'un système et l'aspect
comparatif de cette méthode est lié au système
international. En résumé, il s'agit donc d'étudier
Internet en se demandant en quoi il s'intègre dans le Système
International et donc d'étudier les acteurs ayant des menées
stratégiques dans le Système International et à fortiori,
Internet. On a donc la définition du terrain et il ne reste plus
qu'à montrer que les méthodes choisies sont parfaitement
adaptées à un tel terrain.
Premièrement, la comparaison avec le système
international nécessite une bonne documentation sur ce sujet. Cela
nécessite de bien connaître les différentes actions se
menant sur le réseau ou autour, de même que les tendances, les
dynamiques. Tout cela conduit à se documenter sur les analyses
réalisées par des spécialistes des Relations
Internationales ou d'Internet ou bien des spécialistes dans les deux
matières. L'analyse documentaire paraît donc être la
méthode la plus indiquée.
Deuxièmement, la confrontation avec le réel est,
on l'a vue, nécessaire pour pouvoir tester les hypothèses. Or, le
« réel » de ce terrain est constitué principalement
d'acteurs qui sont prépondérants dans cette analyse. La
confrontation au réel passe donc par la confrontation avec ces acteurs.
On a ainsi la seconde méthode : l'entretien semi-directif qui permet de
tester les hypothèses et de faire produire de l'information à
l'acteur d'Internet.
13 Voir la Grille en question en annexe
Les méthodes ainsi justifiées par rapport au
cadre d'analyse et au terrain, il faut maintenant préciser les
conditions d'utilisation de ces méthodes.
La nature du terrain est bien particulière et le cadre
d'analyse choisi également : il s'agit d'une analyse stratégique
d'Internet avec une orientation certaine dans le domaine des relations
internationales.
De cela, on tire plusieurs conséquences : la
première est qu'il ne s'agit pas d'analyse du type de celles que peut
proposer la sociologie électorale par exemple. On est dans le cadre
d'une analyse stratégique : on observe les acteurs, de quelque nature
qu'ils puissent être, et leurs relations de pouvoir. Donc, étant
donné la diversité des acteurs (états, individus, firmes
multinationales...), il est très difficile de recourir à certains
outils que sont par exemple les questionnaires ou même les focus groups.
Cela est corroboré par la nature des relations étudiées :
les relations de pouvoirs sont par nature discrètes et les acteurs, peu
enclins à les divulguer où à les expliciter. Donc,
certains outils sont à proscrire de par leur caractère
inadéquat.
La seconde conséquence est la complexité du
terrain. En effet, Internet reste quand même à la fois un espace
vaste mais aussi un monde extrêmement complexe et notamment, en termes de
relations internationales ou d'acteurs ayant pour objectif un relatif
contrôle de cet objet. Aussi, en raison des contraintes de temps de cette
étude, de l'évolution très rapide de l'objet et des
contraintes liées à la nature des acteurs, il était
nécessaire à la fois de trouver des sources fiables et
préalablement renseignées, d'essayer d'avoir une vision de
l'intérieur de certains des acteurs et enfin de maintenir une connexion
avec l'évolution de l'objet très rapide. Il aurait
été dommage de rendre une étude dont certaines
informations étaient périmées alors qu'il aurait
été possible de les mettre à jour.
Tout cela a pour conséquence de valoriser certains
outils et ce sont ceux qui ont été utilisés : l'analyse
bibliographique, l'entretien semi-directif et le processus de veille
stratégique qui constitue une analyse bibliographique bien
particulière. Un retour rapide sur ces outils s'impose maintenant.
Concernant l'analyse bibliographique, le corpus choisi a
été surtout celui des périodiques de langue
française et anglo-saxonne. Plusieurs raisons à cela : la
première est que si le nombre d'ouvrages consacrés à
Internet commence à devenir important, la plupart s'intéresse
à la sociologie d'Internet dans le monde du travail ou encore de
l'éducation pour ne citer que ceux-là. En effet, peu d'entre eux
s'intéressent à la configuration des pouvoirs dans ou autour
d'Internet et étant donné à la fois, la relative jeunesse
de l'objet et l'intensité actuelle
de la question stratégique, les périodiques
paraissaient tout indiqués. Le choix des périodiques
résulte d'une « stratégie » simple tenant
essentiellement à des questions pratiques : le corpus a
été limité aux revues de la Bibliothèque
Universitaire de l'Université Toulouse 1 traitant des questions de
relations internationales, de stratégique, de sécurité et
de défense. Ainsi construit, ce corpus paraissait à même
d'apporter une conscience relativement large du sujet et en même temps,
de respecter une certaine diversité de points de vue (Europe,
Etats-Unis), de façon de travailler (France, Etats-Unis) ou encore
d'aspects du sujets (défense, sécurité...).Concernant les
choix bibliographiques, tout paraît avoir été
explicité mais les défauts de la méthode et les
défauts dans l'utilisation de la méthode seront explicités
en partie 3.
Les entretiens semi-directifs ont été
réalisés à partir d'une grille d'entretien basée
sur les hypothèses de travail. Idéalement, il aurait
été souhaitable de rencontrer des représentants de tous
les types d'acteurs sur Internet : l'ICANN, les états, les hackers, les
firmes multinationales, l'ONU... Au final, trois entretiens ont
été réalisés en direct et un dernier par e-mail. Le
premier a été fait avec un membre de l'ICANN, Mme INNE, ayant un
travail politique de liaison avec une région bien particulière du
monde, l'Afrique. Le second a été réalisé avec une
personne ayant réalisé un mémoire de DEA sur l'incitation
au terrorisme et ayant travaillé pour l'ONUDC, notamment en relation
avec l'informatique, Internet et le terrorisme, Mr BREHAM. Le dernier a
été réalisé avec un spécialiste de
l'informatique, Mr POUZIN ayant participé à la création de
réseaux dans les années 70, réseaux à structure
proche de celle d'Internet. Dernièrement, il a participé aux
travaux préparatoires du SMSI14 et au sommet lui-même.
Il milite actuellement au sein d'une association pour la promotion des langues
dites naturelles au sein d'Internet. Enfin, l'entretien par e-mail s'est
déroulé avec un officier de la Marine spécialisé
dans la communication, Mr BALLANCHO.
La grille d'entretien a été
réalisée notamment en se basant sur les cours et sur des ouvrages
méthodologiques15. Elle a donc été construite
de façon à permettre à la fois d'obtenir des informations
sur l'acteur interrogé et sur ces relations de pouvoir tout en jouant
avec les contraintes du « non-dit » de ces relations de pouvoir. Au
final, elle s'est articulée autour de deux grands thèmes : les
tendances, les dynamiques sur Internet en premier et les acteurs participant
à ces dynamiques en second. Une subdivision était apportée
afin d'éviter les biais : il était demandé une vision
professionnelle et une vision plus personnelle de la
14 Sommet Mondial de la Société de l'Information
qui s'est tenu pour la première fois à Genève en 2003.
15 Cités dans la bibliographie.
situation. Enfin, des éléments plus libres de
considération générale étaient également
demandés à la fois pour des questions d'intérêt
général et aussi, afin d'avoir un meilleur aperçu de la
personne interrogée.
Le dernier outil, la veille stratégique, a
été réalisé sur 6 sites web d'informations
générales ou spécialisées16. Le choix de
ces sites témoigne de deux considérations. La première est
que ces sites ont été désignés par des
spécialistes en informatique et Internet comme les meilleurs,
informations recoupées par le simple fait que toutes les données
relevées ailleurs ont toujours été retrouvées par
la suite sur ces mêmes sites. Par ailleurs, des sites d'informations
générales comme Google News dont le fonctionnement simple
consiste à afficher les informations statistiquement les plus
répandues dans le cadre de sujets généraux, ont toujours
donné ces sites comme sources. Ces 6 sites ont donc été
consultés très régulièrement (entre 3 et 5 fois par
semaines) et ont été relevées toutes les informations
relatives à l'aspect stratégique des évolutions
d'Internet. Ce relevé présente donc chaque information,
datée, résumée et la ou les sources. Il a permis beaucoup
de découvertes et une meilleure compréhension de certains
évènements.
Voilà donc, développés les outils
méthodologiques de recherche utilisés. Bien évidemment,
chacun présente des failles en tant que tel ou dans leurs utilisations
mais comme il a déjà été dit, la dernière
partie traitera de ces différents biais ou problèmes.
16 Les sites sont dans la partie Bibliographie. La veille est
disponible à cette adresse :
http://arnaudgarrigues.blog.com
Plan
Introduction p. 4
Prolégomènes p. 6
Partie 1 : Histoire et fonctionnement d'Internet d'un point de
vue stratégique p. 21
I- Histoire p.21
A- 1969-1998 : le temps des professionnels p. 21
B- 1998 à nos jours : l'apparition du reste du monde p.
24
II- Fonctionnement p. 26
A- Architecture du système p.26
a) Infrastructures p. 27
b) Protocoles Techniques Basiques p. 29
B- Administration, Gouvernance et Politique p. 34
a) Une structure contestée : l'ICANN p. 35
b) SMSI et FGI p. 37
Partie 2 : Analyse des enjeux p. 39
I- Le système Internet et le système International
p. 40
A- Internet : Une égale répartition de la
Ressource ? p.40
B- Eléments de Gouvernance et de Contrôle p. 42
a) Economie Mondialisée p. 42
b) Démocratie et Cultures p. 45
C- Internet : un Système Stable ? p.46
II- Les Etats : Du Nord au Sud, une préoccupation
désormais commune p. 48
A- Les Etats et Internet : La souveraineté p. 48
B- Les Etats et Internet : Sécurité et
Contrôle p. 52
III- Les Individus et Internet : activisme,
cybercriminalité, terrorisme p. 57
A- Activisme et Internet p. 57
B- Cybercriminalité p. 59
C- Terrorisme p. 61
Partie 3 : Vision critique méthodique et quelques
éléments d'évolutions envisageables p. 64
I- Des outils de recherche biaisés par nature et par
utilisation p. 64
A- Biais Norm atifs p. 64
B- Biais Méthodologiques p. 66
II- Que faut-il attendre des évolutions d'Internet ? p.
68
Conclusion p. 71
Bibliographie p. 74
Annexes p. 78
Première Partie : Histoire et fonctionnement
d'Internet d'un point de vue stratégique
Après cette longue mais nécessaire introduction
relative à la méthodologie de tout ordre, il paraît
nécessaire de s'intéresser au coeur du sujet. Comme il a
été dit précédemment, un rappel de l'histoire et du
fonctionnement d'Internet doit être fait. On se consacrera en premier
lieu à l'histoire de l'objet toujours en mettant en avant l'aspect
stratégique.
I- Histoire
Ainsi qu'on va pouvoir le constater, l'évolution
d'Internet s'est faite en deux temps. Cette distinction n'est pas arbitraire.
En effet, avant 98, Internet a été le fruit d'une conception
universitaire administré par les tenants de la « Woodstock-era
». Cette expression imagée provient de Kenneth Neil Cukier dans un
article paru dans la revue spécialisée Foreign
Affairs17 et entend démontrer, en référence au
mouvement hippie qui suivit la tenue de cet évènement, à
quel point la gestion et le développement d'Internet par les
universitaires avait quelque chose de fondamentalement idéaliste.
Cependant, en 98, naît l'ICANN et c'est à ce moment là
qu'Internet devient à la fois un objet de « business » mais
aussi commence à connaître son développement sans
précédent. Voilà donc pour la distinction.
A- De 1969 à 1998 : le temps des professionnels
C'est en 1969 qu'Internet naît dans les laboratoires des
universités américaines. Le projet a été
commandité par l'armée des Etats-Unis qui, en ces temps de Guerre
Froide et d'incertitude stratégique, a voulu développer et
construire un réseau susceptible de remplacer les réseaux
habituels au cas où ceux-ci seraient détruits lors d'une attaque
nucléaire ou stratégique contre les réseaux de
télécommunications. Ce sera l'Agence pour les Projets
Technologiques Evolués (Advanced Research Projects Agency - ARPA)
17 CUKIER, K.N., (1995), Who Will Control the Internet, Foreign
Affairs, 84, 6, Nov.-Dec 1995., p. 10
appartenant au Département de la Défense
américain qui fournira les fonds et s'occupera du projet.
De 1969 à 1982 seront développés les
grands protocoles qui permettent à Internet de fonctionner aujourd'hui
(TCP/IP, FTP, Telnet...). En effet, comme on le montrera dans le II de cette
partie, ce sont toujours ces protocoles fondés dans les années
70-80 qui permettent à Internet de fonctionner. Différentes
universités vont être intégrées au projet et vont
héberger des « noeuds », c'est-à-dire des serveurs
« ressources » d'Internet : le Massachusetts Institute of Technology
(le célèbre MIT de Boston), University of California Los Angeles
(UCLA), University of South California (USC). Le Département de la
Défense américain abrite aussi un de ces noeuds. Par ailleurs, il
est à noter qu'à ce moment là, Internet existe sous le nom
d'Arpanet en raison du nom de l'agence américaine qui en a fait la
commande. En 1974, Vint CERF et Bob KAHN finissent l'écriture des
protocoles TCP et IP en leur donnant leurs spécifications techniques.
Jusqu'en 1980, le développement du réseau n'est
pas encore finalisé et s'il commence à se diffuser aux USA, il
reste très largement cantonné aux universités et au monde
universitaire qui voit en lui un moyen formidable de partage des connaissances.
On voit déjà se dessiner une certaine opposition dans la
façon de concevoir le Net. En 1982, les protocoles TCP et IP sont
implantés et on peut donc dater la naissance d'Internet à ce
jour. En 1983, 562 noeuds sont interconnectés et forment le
réseau Arpanet. C'est à cette époque que la division se
fait entre Internet qui est alors créé en tant que tel et Milnet,
la version militaire du réseau. Internet continuera sa croissance
jusqu'à atteindre le million d'ordinateurs connectés environ 10
ans plus tard, en 1992.
Une personne est à citer aussi, il s'agit de Jon
POSTEL. Universitaire et informaticien parmi la poignée de main
d'ingénieurs qui ont participé à la construction
d'Internet c'est lui qui va gérer Internet jusqu'en 98. Ce sera lui qui
écrira notamment les « Request For Comments » ou RFC : cet
ensemble de textes constitue en quelque sorte la « Bible »
d'Internet18, le socle de son fonctionnement à la fois
technique mais aussi administratif. Les sujets traités sont assez larges
et il a même prévu la gestion des noms de domaines dans ces
textes.
Dans les années 80-90, le problème commence
à venir du nombre d'ordinateur interconnectés et de la
capacité de tel ordinateur à rejoindre tel autre. En effet, le
problème des doublons d'adresses et la difficulté à
trouver sa route vont obliger Jon POSTEL à mettre
18 L'expression provient de la retranscription de l'interview
effectuée avec Mme INNE, membre de l'ICANN.
en place le service DNS19 (Domain Name System).
Cela se traduira notamment par la création des noms de domaines qui
proviennent en fait d'une liste de codes conservée à l'ISO, la
liste des codes-pays 3166/1. C'est à ce moment que furent
créés les Country Code Top Level Domains (CCTLD)20,
c'est à dire tous les domaines réservés au pays.
Cependant, la gestion de ces noms de domaines sur lesquels les pays
détiennent en général la souveraineté a
été faite par POSTEL jusqu'en 98 et de manière
plutôt aléatoire.
Les CCTLD ont été créés en
même temps que les GTLD (Generic Top Level Domains) qui correspondent eux
aux .com, .biz... Or, ces domaines plus généraux ne correspondent
à aucun droit de souveraineté et des entreprises ont
immédiatement vu le potentiel de tels outils.
En 1992, fut créé l'ISOC (Internet Society),
sorte d'association, ayant pour objectif de promouvoir Internet de par le monde
et plus généralement l'interconnexion des systèmes de
communication. Son siège est à Reston en Virginie et elle
entretient des contacts étroits avec l'ICANN et les organisations
affiliées. Toute personne peut devenir membre de l'ISOC.
C'est ainsi que Network Solutions (aujourd'hui Verisign) s'est
« porté volontaire » en 1996 pour gérer, non
gratuitement, bien évidemment, le .com. Le département du
Commerce américain qui s'était vu transmettre la gestion de la
ressource par le Département de la Défense qui avait obtenu le
réseau militaire souhaité et dont l'objet n'était
sûrement pas une gestion commerciale d'Internet, a donc passé un
contrat avec cette entreprise. Or, dans le même temps, J. Postel
continuait sa gestion plus aléatoire et « universitaire » des
CCTLD, dans une vision totalement différente d'Internet.
La multiplication des demandes de contrats et les pressions
persistantes pour une gestion commerciale de la ressource a conduit le
Département du Commerce à envisager une autre possibilité
de gestion d'Internet. C'est ainsi que sous l'administration Clinton, une sorte
de plénipotentiaire fut désigné afin d'engager des
pourparlers avec toutes les parties en présence afin de
déterminer la meilleur solution de gestion dans l'avenir. Ira MAGAZINER
fut donc chargé de ces consultations.
Après plusieurs consultations et de très
intenses négociations (si intenses que J. POSTEL mourut à ce
moment-là d'une crise cardiaque), c'est en 98 que l'ICANN fut
créé. L'Internet Corporation for Assigned Names and Numbers est
un nom trouvé par J. POSTEL lui-même et
19 Se reporter au II pour l'explication
20 Ex. : .fr pour la France, .de pour l'Allemagne etc. ...
il devait en devenir le premier employé avant son
décès. Esther DYSON, première présidente du Conseil
d'Administration nomma le premier PDG, Mike ROBERTS et réussit à
donner à l'ICANN sa structure de fonctionnement et sa capacité de
travail actuelle. Cette société de droit privé californien
basée aux environs de Los Angeles a donc la possibilité de signer
les contrats avec les entreprises souhaitant acquérir des noms de
domaines et les administrer.
B- De 1998 à nos jours : l'apparition du reste du
monde
A partir des années 2000, on peut sans conteste
affirmer que la croissance d'Internet fut fulgurante. Du million d'ordinateurs
connectés en 92, le milliard d'ordinateurs connectés a
été franchi courant 2005.
Hormis les USA qui ont présidé à la
création d'Internet, les Etats se sont « éveillés
» petit à petit à Internet. L'utilisation de plus en plus
importante du réseau par les entreprises, le phénomène des
start-up et la bulle Internet et son éclatement ont contribué
à la diffusion du réseau à grande échelle.
Les grandes capacités d'échange de savoir, les
contenus dérivés comme la télévision, le
téléphone ont contribué à l'essor d'Internet et
à son nombre grandissant d'utilisateur.
Dans un autre ordre d'idée, la constatation des
dégâts causés par les hackers, leurs
démesurées capacités de nuisance, la
cybercriminalité, le terrorisme ont obligé les états
à se saisir du problème.
Si certains états ont légitimement des questions
concernant la sécurité et la souveraineté, d'autres, plus
autoritaires, y voient la fin de leurs régimes et mettent en place des
répressions intenses contre les internautes se positionnant contre le
régime en place. C'est notamment le cas de la Chine ou de la Tunisie. Il
existe une liste « noire » de pays opposés à
Internet.
Tout cela induit une difficulté de
compréhension, des problèmes nouveaux et la
nécessité de réponse à toutes des questions a
conduit l'ONU, par ailleurs relativement absente de cette problématique,
à organiser le premier sommet mondial de la société de
l'information à Genève en 2003. Cela a permis une première
prise en compte du problème et la rencontre des différents
acteurs entre eux. La France a envoyé un ambassadeur à ce sommet
montrant ainsi que les implications pouvaient devenir cruciales.
En 2004, Kofi Annan a créé eu sein de l'ONU, un
groupe de 40 personnes chargées de rendre un rapport sur la question de
la gouvernance d'Internet. Ce rapport réclamait notamment le transfert
de la gestion d'Internet à l'ONU. Cependant, conscient de la
montée des revendications nationales de plus en plus fortes, Washington
qui auparavant, pensait garantir une autonomie totale à l'ICANN pour
2006, a refusé d'y souscrire. La preuve en est que des accords ont
été repassés entre la société et le
Département du Commerce américain en 2006.
La seconde phase du SMIS s'est tenue à Tunis en 2005.
La tension internationale du moment sans doute exacerbée par d'autres
évènements et la position des Etats-Unis à propos
d'Internet ont conduit ce sommet à un relatif fiasco. Relatif car la
participation a été surprenante, notamment de la part de la
société civile : 18 000 personnes se sont rendus làbas.
Relatif échec encore à cause de la création de Forum pour
la Gouvernance d'Internet, qui bien que n'ayant aucun pouvoir de
décision, constitue un lieu de débat ouvert à tous.
La première session de ce Forum s'est tenue à
Athènes en novembre 2006. 1200 participants se sont rendus là bas
ainsi que des représentants de l'ONU. La nature du Forum étant
telle, aucune décision n'a été prise. Mais le nombre de
proposition pour accueillir le Forum témoigne de l'importance de la
question et de la volonté des pays de prendre en charge la question.
C'est à l'occasion de telles réunions qu'a été
dévoilée la conception d'Internet par l'ONU : selon
l'organisation, il s'agit d'une « ressource publique mondiale ».
Cependant, à côté de ces élans
démocratiques pour la gouvernance d'Internet, il ne faut pas oublier de
tenir compte des tendances à la balkanisation que peut connaître
actuellement Internet. Le développement de protocoles incompatibles avec
le reste du réseau, la création de service DNS «
personnalisés » par la Chine ou l'Arabie Saoudite sont une tendance
plutôt homicide par rapport au réseau.
L'évolution depuis la création d'Internet, du
besoin militaire allié à la vocation universitaire à la
récupération par les entreprises à des fins
économiques pour terminer par la peur des états, montre combien
cette question peut-être importante. Il ne faut pas oublier que cette
évolution est d'une rapidité saisissante. En effet, à
peine environ 40 ans séparent Aujourd'hui des premiers pas du projet. Et
la plupart des grands changements ne datent que de 10 ans à peine. C'est
donc un phénomène d'une importance considérable en
relations internationales car ainsi que l'on peut le voir, absolument tous les
acteurs ont été cités au
cours de cette histoire et tous ont approché le
réseau avec l'intention de profiter de ce qu'il offre ou avec une
certaine peur, une envie mais aucun ne l'a considéré avec «
dédain ».
Cet aperçu rapide de l'histoire d'Internet comporte un
certain nombre de sigles techniques et de concepts difficiles à
appréhender. Aussi, la partie suivante sera consacrée à
l'explicitation du fonctionnement du système Internet.
II- Fonctionnement d'Internet
Ce développement sera divisé en deux. La
première partie sera essentiellement technique et remplira un
double-rôle : rendre compte du fonctionnement d'Internet d'un point de
vue technique en insistant sur les aspects pouvant créer des enjeux et
donner les explications des sigles et des concepts techniques. En effet, si on
a pu rapidement utiliser ces concepts auparavant, la suite fera montre d'un
usage beaucoup plus intensif. La seconde partie quant à elle, abordera
l'architecture des différents organes de gestion, de contrôle et
de gouvernance d'Internet. A cette occasion, nous nous attarderons quelque peu
sur la notion de gouvernance, non pas en tant que concept nouveau dans la
science politique mais dans son sens pour Internet.
A- Architecture du Système technique
Avant de commencer à traiter de ce sujet, deux notions
importantes doivent être expliquées. La première est celle
de réseau « de bout en bout » ou « end-to-end » ou
bien encore à « intelligence décentralisée ».
Comme on a pu le faire remarquer plus haut, Internet a été
créé en dehors de tout contexte de normalisation21.
Cela a pour conséquence une très forte volonté des
concepteurs d'interconnecter des réseaux qui pouvaient avoir des
conceptions différentes. Aussi, le réseau est-il à la fois
adaptable et surtout indépendant du contenu qu'il transporte. Cela veut
dire que quelque soit le contenu transporté, ce sont les «
terminaux » ou encore les ordinateurs en fin de chaîne de
transmission qui vont créer les données, les coder puis, les
analyser, les retranscrire et enfin, les utiliser.
21 Se référer aux notes de retranscription de
l'entretien avec Louis Pouzin, notamment sur les réseaux Cyclades.
Un Ex. : Lorsque vous « surfez » sur le Web, les
pages que vous affichez dans votre navigateur vous sont envoyées
directement sur votre ordinateur par les serveurs sur lesquelles elles sont
enregistrées. Il n'est nulle part question d'une « fenêtre
» de lecture sur ces mêmes serveurs. De même, l'envoi d'un
film sur Internet n'est significatif pour le receveur que s'il le lit sur son
ordinateur. Dans les deux cas, pour Internet lui-même, il n'y a aucune
différence de nature entre la page et le film.
La seconde notion permettra de clarifier les explications.
Elle a été empruntée à Lawrence Lessig22
dans son article sur Internet paru dans Foreign Policy. Il construit une
représentation en trois niveaux d'Internet particulièrement
efficiente et c'est celle-ci que nous allons utiliser. Le premier niveau, de
base concerne les infrastructures, les serveurs, les « câbles »
de transmission. Le second concerne les protocoles réseau de base (TCP/
IP, DNS) permettant l'acheminement des données. Le dernier quand
à lui est tout simplement celui du contenu (Pages Web, Mp3,
films...).
En combinant les deux notions exposées, le lecteur
pourra se faire une idée bien plus claire de la nature du réseau
et de son fonctionnement.
a) Infrastructures
Le coeur d'Internet est constitué de systèmes
intermédiaires ou réseaux de taille inférieure
reliés entre eux par des liens que sont les supports de transmissions
comme les câbles de fibres optiques transocéaniques23,
le tout constituant un maillage.
Par ailleurs, le coeur du service DNS (annuaire) est
géré par 13 serveurs racines (root servers). Ils sont
répartis de la façon suivant et cela constitue déjà
un enjeu : 9 aux USA, 2 en Europe, 1 au Japon et 1 au Kenya. La racine (les 13
serveurs) est complétée par un grand nombre de serveurs DNS de
niveau inférieur.
Cependant, peut-être conscient de l'apparente
fragilité du système encore attaqué il y a peu de temps,
l'ICANN a mis en place un nombre relativement important de serveurs miroirs
(identique) à ces 13 serveurs. Le nombre de ces miroirs est entre 120 et
130.
22 LESSIG, L. (2001), The Internet Under Siege, Foreign Policy,
Nov.-Dec. 2001, p. 56-65
23 Cette définition de base est très largement
empruntée à l'ouvrage Internet, de la célèbre
collection « Que sais-je ? ». Voir bibliographie.
Par ailleurs, il faut être bien conscient que la plupart
du temps, les requêtes (ex. : lorsque vous tapez une adresse ou cliquez
sur un lien hypertexte) ne passent pas par les serveurs racines. Malgré
le peu d'information relatif dont disposent les serveurs de plus bas niveau, le
très grand nombre de ces serveurs et l'existence des « caches
»24 ont pour conséquence une utilisation relativement
rare de ces serveurs racines25.
L'organisation du DNS est faite de façon
hiérarchique en fonction de l'organisation des noms de domaines.
Cependant, cette organisation des serveurs DNS pose problème. En effet,
Paris par exemple, ne possède pas de tel serveur et est donc
obligé d'être connecté en plus à la fois à
celui du Kenya et à Tokyo. Par ailleurs, cela met aussi des pays en
situation de dépendance à Internet car malgré tout, le
service DNS reste indispensable dans le fonctionnement d'Internet.
Après avoir réussi à résoudre
l'adresse, l'ordinateur sait donc « où » il doit aller
chercher les informations. Cependant, il ne connaît pas toujours la route
à emprunter pour y aller. Or, ce « routage » comme est
appelé cette opération technique nécessite d'autres
serveurs et surtout des points de passages entre des réseaux
différents.
Ce routage est effectué très souvent par des
serveurs imposants, importants à des points de contacts qui ont
été décidés par des réseaux
différents. Par exemple, il n'existe que 7 points de contacts entre le
réseau des Etats-Unis et le réseau européen. Cela permet
donc de relativiser car il faut bien imaginer que tout le trafic passe par
là. Il peut certes emprunter des routes différentes et plus ou
moins longues et c'est ce qui fait la richesse d'Internet mais il reste certain
que ces autres routes auront aussi des points de passages obligés. Or,
ces points de passages sont gérés par des serveurs de taille plus
que conséquente, ce qui fait que certaines entreprises seules sont
capables de concevoir de telles machines et bénéficient d'un
marché important et d'une capacité d'action sur les flux
très importants aussi. C'est notamment le cas de CISCO.
Enfin, il est à savoir que ces routeurs entretiennent,
pour fonctionner, des tables de routage indiquant les prochains points de
passage pour les routes, gardant en fait en mémoire toutes
24 La mémoire cache est la mémoire contenue dans
les ordinateurs et qui mémorise à la fois les chemins
empruntés pour aller à telle ou telle adresse mais aussi les
liens entre les IP et les URL, se passant ainsi du service DNS.
25 Il existe 13 serveurs DNS pour la France, de niveau
intermédiaire et dont s'occupe notamment l'AFNIC, l'Association
Française pour le Nommage Internet en Coopération qui gère
en même temps le .fr.
les informations quant à ces routes. Cependant,
à la fois, la capacité de ces serveurs est limitée en
termes de mémoire d'abord et de capacité de gestion du nombre de
requêtes, ce qui crée aussi un enjeu.
Il est à noter qu'il existe aussi un maillage Internet
réalisé par satellite mais l'utilisation de cette technologie
pour certaines zones oubliées par les câbles, reste relativement
limitée. Par ailleurs, l'existence de la fracture numérique
montre bien l'incapacité de certaines zones à se doter d'Internet
et le fait que les grandes « lignes » de support de
télécommunication ont « oublié » ces zones. A ce
sujet, il est intéressant de savoir que la Banque Mondiale vient
d'approuver le déblocage de 123 milliards d'euros pour financer des
infrastructures Internet à haut-débit pour le Kenya, Madagascar
et le Burundi qui en sont dépourvus.
Enfin, il ne faut pas oublier actuellement le
développement des technologies WiMax26, transmission par
ondes radios à des échelles départementales ou
régionales, l'arrivée de la fibre optique chez les particuliers
(Fiber to The Home - FTH), et le financement par la commission
européenne27 d'un dernier support de transmission, le CPL ou
Courant Porteur en Ligne. Tout cela montre l'importance que prennent
actuellement la capacité de connexion et les enjeux que l'on peut
imaginer.
Avec l'exposé de ces dernières techniques prend fin
le développement concernant l'infrastructure d'Internet. Nous allons
maintenant nous intéresser aux protocoles de base.
b) Protocoles techniques basiques
En fait, nous allons surtout expliquer le service DNS. Cependant,
quelques précisions seront faites auparavant.
Tout d'abord, la première question que l'on doit se poser
est : qu'est-ce qu'une adresse IP ?
Une adresse IP est une suite de chiffres
présentés comme suit : 234. 245. 165. 168. Il s'agit donc d'une
suite de quatre groupes de chiffres. Ces chiffres peuvent être au nombre
de 1, de 2 ou de 3. Ex. : 1. 245. 65. 167. Le terme IP signifie Internet
Protocole.
26 Sorte de Wifi à l'échelle régionale.
Certains départements ont fait le choix de cette technologie pour
désenclaver certaines zones.
27 A hauteur de 9 millions dans le cadre du projet OPERA.
La première constatation de ce type d'adresses est que
son nombre est limité. En effet, la première adresse serait donc
0.0.0.0 et la dernière 255.255.255.255. Cela constitue donc ce que l'on
appelle actuellement une ressource rare. En effet, le nombre d'adresses maximum
est de 232 avec cette version de l'IP encore la plus répandue
IPv428. C'est pour cela qu'un nouveau type d'adressage a
été conçu, l'IPv6 qui lui, conçu
différemment est virtuellement inépuisable. En
réalité, il y aurait 2128 d'adresses possibles et on
comprend mieux le « virtuellement ».
En terme pratique, toute machine se connectant à un
réseau dit « TCP/IP », c'est-à-dire un réseau se
servant des protocoles d'Internet doit donner à chaque terminal ou
ordinateur connecté, une telle adresse. Cependant, tous les ordinateurs
ne sont pas connectés à Internet : ils peuvent être
connectés à un réseau qui lui est connecté
grâce à un ordinateur à Internet. Ainsi, X ordinateurs
appartenant à un réseau Y auront chacun une seule et unique IP,
Z, sur Internet, tout en ayant X IP internes sur le réseau «
interne » ce qui relativise tout de même la raréfaction de
ces adresses.
Enfin, lorsqu'on sait que ces adresses font l'objet de
transactions économiques et que chaque fournisseur d'accès
à Internet est obligé d'acheter des IP sous des formes de
transactions économiques parfois originales, on comprend que des enjeux
puissent se constituer. Nous y reviendrons dans la suite de ce
mémoire.
Le protocole TCP - Transmission Control Protocol- est souvent
associé au protocole IP. On désigne généralement
Internet et les réseaux qui utilisent les mêmes protocoles comme
des réseaux « TCP/IP ». Ce protocole est celui qui garantit le
transfert des données entre les différents ordinateurs. Il est
important de préciser une chose dans le cadre de ces transferts.
L'information envoyée d'un ordinateur à un autre sur Internet est
divisée en « paquets », en partie d'information. Ces
informations sont envoyées munies de l'adresse de l'expéditeur et
de l'adresse du récepteur. Cela implique qu'il n'est pas
nécessaire que toutes les informations passent par les mêmes
groupes de réseaux de niveau inférieurs. En d'autres termes,
elles n'empruntent pas forcément le même chemin et passent
à différents endroits et par différents noeuds. Les
concepteurs d'Internet avaient conscience de cela et surtout du fait que le
passage par différent réseau impliquait probablement des
redécoupages de ces paquets ou des agencements différents. C'est
pour cela que les protocoles ont été conçus sur le
principe de l'adaptation et de l'interconnexion. Contrairement aux
réseaux Cyclad,
28 Pour Internet Protocole version 4.
basés sur un pari de normalisation des réseaux,
Internet supporte les différences de réseaux et de normes et
c'est ce qui en fait la richesse. Cependant, une tendance actuelle tend
à contrecarrer cela et engendre un mouvement de balkanisation
d'Internet. Nous y reviendrons plus tard.
Le dernier protocole auquel on s'intéressera concerne
le DNS - Domain Name Service. C'est sans doute le plus intéressant et
certains n'hésitent pas à dire que maîtriser le DNS, c'est
maîtriser Internet.
L'acronyme DNS regroupe plusieurs choses : une
procédure technique permettant de « résoudre » les
adresses, des serveurs avec des fonctions spécifiques et une
organisation hiérarchique des membres d'Internet.
Concernant la procédure technique, il s'agit d'un
annuaire hiérarchisé mettant en rapport les adresses web URL
(Uniform Ressource Locator) du type :
http://ww.univ-tlse1.fr et
les adresses IP correspondantes telles que nous avons vues plus haut.
Comme nous l'avons dit plus haut, chaque « machine »
connectée en permanence et qui héberge des sites web a besoin
d'une adresse IP pour être intégrée sur le réseau.
Cependant, plusieurs choses sont alors possibles : la première, c'est le
simple fait qu'un serveur hébergeant des sites web peut en
héberger plusieurs et qu'il lui est nécessaire de savoir ce que
l'on veut obtenir de ce serveur. La seconde raison est que les routeurs qui
indiquent la route à suivre fonctionnent avec les IP, tout simplement
parce que la gestion des sites ou des domaines est très difficile en
raison, entre autres, de leur capacité de mouvement29. Donc,
satisfaire une requête de la part d'un internaute, c'est-à-dire
tout simplement afficher le site demandé réclame la connaissance
de deux éléments : l'IP et l'adresse en tant que telle du site.
C'est là qu'intervient les serveurs DNS, en fournissant la ou les IP
nécessaires pour arriver au site, l'URL provenant elle de la
mémoire de l'internaute, de son navigateur ou bien des moteurs de
recherche30. Ainsi, l'absence de DNS a pour conséquence
l'incapacité de la machine à utiliser Internet et à se
diriger dans le réseau : il ne s'agit alors pas d'un manque d'indication
sur la route à suivre mais tout simplement qu'elle ne sait pas où
aller.
29 Ex. : le site radioblog a changé de domaine (. Fr
à .com) en moins d'une semaine car il était devenu illégal
en France.
30 Google, Yahoo et les autres
Cependant, le DNS existe en raison de l'organisation
d'Internet en domaines. L'expansion de l'ordinateur et la difficulté de
gestion du routage dans les années 90 ont eu pour conséquence un
phénomène orignal mais gênant : il était devenu plus
facile d'indiquer la route à suivre que l'IP de destination ou encore
l'adresse. C'est pour cela que Jon POSTEL a créé les CCTLD et
qu'ont été créés les GTLD.
Les CCTLD31 et les GTLD32 correspondent
donc à la partie supérieure de l'organisation hiérarchique
des domaines. Le premier désigne les domaines appartenant au pays et les
seconds sont plus généraux et généralement
gérés comme une ressource économique pour les entreprises.
La liste des noms de domaines et leur organisation hiérarchique est
disponible en annexe.
Pour expliciter la nature de ces noms de domaine, nous
prendrons 3 exemples :
1er Ex. :
http://www.univ-tlse1.fr :
Lorsqu'on analyse cette adresse, nous avons tout d'abord une suite de lettre et
de sigles techniques « http:// » qui ne nous intéressent pas
ici. Les trois « w » désignent le World Wide Web,
c'est-à-dire l'espace particulier de contenu dans lequel nous naviguons.
Le reste est plus intéressant : le « univ-tlse1 » est le nom
du sous-domaine dans lequel nous naviguons et qui appartient lui, à un
domaine plus important, celui du CCTLD français, le .fr. Si vous vous
référez à l'annexe 1, vous comprendrez aisément
cette disposition hiérarchique.
2ème Ex. :
http://arnaudgarrigues.free.fr
: Il s'agit ici d'une page personnelle mise à disposition par un
fournisseur d'accès à Internet. Nous avons ici une subdivision
supplémentaire. Nous sommes dans le sous-domaine « arnaudgarrigues
»appartenant au sous domaine « free » qui appartient lui au
CCTLD français.
3ème exemple :
www.google.com : Le site du
moteur de recherche bien connu lui nous montre seulement que quelque soit la
nature du domaine de niveau supérieur envisagée, qu'il soit
général ou bien « national », la rédaction est
la même. Seul le nom de domaine change.
Cependant, il ne faut pas oublier de préciser que le
«
arnaudgarrigues.free.fr
» est un nom de domaine bien particulier et constitue un domaine bien
particulier. De même que le «
google.com » ou le «
univ-tlse1.fr ». Il y a une
responsabilité sur ce domaine et des droits
31 Country Code Top Level Domains: .fr, .de
32 Generic Top Level Domains: .com, .biz
patrimoniaux33 de même qu'il y a
souveraineté sur les CCTLD. C'est pourquoi tout cela créé
des enjeux.
La conséquence première du DNS est son
caractère obligatoire pour le fonctionnement d'Internet. La seconde est
que toute personne voulant créer un site doit en passer par les noms de
domaines. En conséquence de quoi, la gestion du DNS et son
évolution sont devenues un des aspects les plus importants d'Internet et
des plus controversés.
Le dernier aspect de l'architecture d'Internet auquel nous
allons nous intéresser est celui des contenus. On sait donc maintenant
comment sont positionnées les infrastructures dans le système et
nous avons décrit les protocoles basiques et permis ainsi une meilleure
compréhension d'Internet.
Cependant, aucun mot n'a été dit à propos
du Web, de la Toile... Lorsque vous surfez sur Internet à l'aide des
moteurs de recherche ou des sites enregistrés sur votre ordinateur, vous
utilisez des programmes spéciaux appelés Navigateurs. Ces
navigateurs vont aller chercher pour les utilisateurs les informations
nécessaires sur les serveurs où elles sont enregistrées et
les compiler, les traiter afin d'afficher les pages web auxquelles nous sommes
habitués.
Le Web ou plus exactement le World Wide Web a
été inventé par Tim-Berners LEE, un chercheur du
CERN34, dans les années 90. C'est lui qui va inventer les
protocoles clés que sont le HTTP, les URL et le langage de programmation
de base des sites web, le HTML. En 93, aux Etats-Unis, naît le premier
navigateur Mosaic qui sera rapidement remplacé par Netscape. Cette
interface entre l'utilisateur et le système va permettre aux
non-spécialistes d'y accéder plus facilement et c'est à
partir de ce moment que l'utilisation d'Internet va grimper en flèche.
Si le Web n'a pas de conséquence immédiate en termes de politique
ou de Relations Internationales, il paraît important de savoir comment le
placer dans le système Internet.
D'autres logiciels ont vu le jour, concernant les contenus, et
se sont rapidement popularisés. C'est notamment le cas des logiciels de
Peer-to-Peer (P2P) comme Kazaa ou eMule. Ou bien
33 J. POSTEL a écris dans les RFC que les noms de domaine
n'appartiennent en théorie à personne. Tant que vous payez pour
l'obtenir, il est à vous. L'arrêt de ces paiements entraîne
la disparition de ces noms de domaine. Cependant, cela n'est pas vrai pour les
CCTLD en raison de la souveraineté.
34 Conseil Européen pour la Recherche Nucléaire
encore les logiciels de discussion en ligne tels que MSN
Messenger. La dernière innovation est le Web 2.0 dont l'évolution
passionne actuellement un certain nombre de chercheurs et dont
l'évolution principale concerne la relation entre les internautes et
leurs utilisations de plus en plus importantes d'Internet dans la vie de tous
les jours et pour des tâches qui auparavant, ne concernaient en rien le
Web. C'est notamment le cas de l'administration en ligne qui pose des
problèmes comme la sécurité ou l'indépendance de
ces systèmes.
Ici se termine donc l'exposé de l'architecture
d'Internet. De plus, l'importance du DNS entraîne l'importance accrue de
la personne chargée de la gestion de ce service. C'est pourquoi nous
allons nous intéresser dans la partie suivante à cette personne
morale : l' I CAN N.
B- Administration, Gouvernance et Politique du
Système Internet
Après les développements à propos du
fonctionnement technique d'Internet, nous allons maintenant aborder l'aspect
plus « politique » de la gestion du réseau. La nature
décentralisée de l'objet le rend très difficile à
contrôler et de plus, la tendance libertaire existant depuis la
création ne rend pas facile une telle prise de contrôle. C'est
pour cela que la notion d'Administration du réseau, dans le sens d'une
gestion où l'aspect politique est pris en compte peut être
pertinente. La notion de gouvernance quant à elle sera d'abord
explicitée dans la strict cadre d'Internet et peut être
rattachée à la tendance actuelle qui a permis la création
des Sommets Mondiaux de la Société de l'Information (SMSI) et du
Forum sur la Gouvernance d'Internet (FGI). Enfin, l'aspect politique du
réseau constituera une approche transcendante de cette partie afin
d'obtenir une vision non pas seulement technique mais aussi politique et
surtout stratégique de l'articulation des différents organes se
préoccupant à la fois de la bonne marche d'Internet et de son
devenir.
Aussi, nous nous intéresserons dans un premier temps
à l'ICANN qui constitue la structure principale dans le Système
Internet avant de revenir sur les SMSI, leurs conséquences et plus
particulièrement sur le FGI.
a) Une structure contestée : l'ICANN
Fondée en 98 et baptisée par J. POSTEL, l'ICANN
est une entreprise à but non lucratif de droit privé californien.
Cette première information a son importance. En effet, l'installation en
Californie provient en partie de la possibilité légale, rarement
offerte ailleurs, de créer des firmes à but non lucratif. Comme
on se le rappelle, l'ICANN a d'abord constitué la solution aux
problèmes de passation des contrats qui se posait au Département
américain du Commerce. C'est pour cette raison qu'il fallait qu'elle
soit une entreprise et non pas une simple association ou une agence de l'Etat.
L'aspect non-lucratif permet de garder un certain idéal dans la gestion
d'Internet, justement par ailleurs soumis aux règles du jeu
économique.
La mission première de l'ICANN est essentiellement
technique : son mandat est limité à la gestion du service DNS,
des noms de domaine et aux évolutions techniques que l'on peut y
apporter35. L'aspect « gestionnaire » lui permet de passer
les contrats nécessaires avec les entreprises souhaitant avoir une
gestion commerciale de certains noms de domaine. C'est l'exemple du .com dont
la gestion est assurée par Verisign. Cependant, la
nécessité de mise à jour de la racine (root dans l'Annexe
1) a pour conséquence une persistance des relations avec l'ICANN.
Autrement dit, les registry36 comme Verisign doivent un certain
nombre de contreparties contractuelles à l' ICAN N.
Par ailleurs, la multiplication des revendications politiques
liées à certain sujets37 a obligé l'ICANN
à se saisir de certains problèmes politiques et à les
intégrer dans son administration du DNS. C'est pourquoi par exemple, il
y a longtemps eu débat autour du .xxx et que finalement, l'ICANN s'est
prononcé contre alors même que les propositions commerciales
autour étaient cohérentes et auraient permis la création
et une gestion correcte de ce domaine38.
Cependant, si les critiques adressées à Internet
sont souvent ciblés contre l'ICANN, cela démontre avant tout une
méconnaissance de toutes les organisations existant autour. On
35 DNSSEC par exemple est une innovation relativement
récente censée permettre une meilleure sécurisation
à la fois des serveurs mais aussi du service.
36 Les registry sont les entreprises chargées de la
gestion d'un GTLD. A un niveau inférieur, les registrar se chargent de
la vente de ces différents GTLD directement au client lambda.
37 Notamment le cas du point .xxx pour les sites à contenu
pornographique.
38 Eléments provenant de l'entretien réalisé
avec la représentante de l'ICANN, Mme INNE.
peut affirmer qu'il existe une sorte d'univers autour de
l'ICANN constitué d'un certain nombre d'entités que nous allons
décrire maintenant.
La première organisation à laquelle nous allons
nous intéresser est l'ISOC ou Internet Society. Fondée en 1992 et
basée à Reston aux Etats-Unis, on peut l'assimiler à une
association de par le simple fait que toute personne qu'elle soit physique ou
morale peut faire partie de l'ISOC. Répartie dans un grand nombre de
pays, son but principal est de promouvoir Internet, la coordination et
l'interconnexion. L'oublier aurait été une erreur en raison du
nombre relativement important de membres individuels, 20 000 et surtout du
nombre d'organisations membres, 100. C'est pour ces deux raisons que l'ISOC se
définit comme une organisation internationale.
Concernant l'ICANN, il faut savoir qu'en parallèle de
cette organisation existent deux structures en parallèle. La
première de ces structures est l'IETF ou encore Internet Engineering
Task Force dont le but premier est de travailler sur les évolutions
techniques de demain. L'IANA ou Internet Assigned Number Authority, a pour
tâche la gestion technique des IP, la mise à jour de la racine et
autres procédures technique nécessaires.
A propos de la structure interne de l'ICANN, on peut
établir un schéma hiérarchique. La tête étant
constituée d'un Conseil d'Administration (souvent appelée «
Board ») à côté duquel travaille un Ombudsman,
appellation fort ancienne de ce qui est aujourd'hui en France, un
médiateur comme le Médiateur de la République.
Le niveau immédiatement inférieur de l'ICANN est
constitué d'une équipe de 60 personnes qui constituent le
personnel en tant que tel de la société. A sa tête, un
Président, actuellement Paul TWOMEY depuis mars 2003.
A la suite de ces organes appartenant en propre à
l'ICANN, foisonnent plusieurs comités dont les rôles sont
très divers et qui couvrent la totalité des questions techniques
et politiques d'Internet. Les voici :
ASO - Adress Supporting Organisation : Il s'agit du
comité central de gestion de la distribution des adresses IP dans le
monde. Par ailleurs, cette distribution est faite au sein de 5 régions
divisant le globe à l'intérieur desquelles agissent des RIR
(Registre Internet Régional), qui gèrent cette distribution pour
la région en question. Ces divisions correspondent aux cinq continents
et celui de l'Eu rope est nommé RIPE.
GNSO - Generic Name Supporting Organisation : Le but de ce
comité est de traiter toutes les questions politiques liées au
GTLSD. A l'intérieur de cette structure, il existe un grand
nombre d'autres comités plus spécialisés
qui vont se charger de la question de la propriété
intellectuelle, des questions liées au FAI ou ISP39.
CCNSO - Country Code Name Supporting Organisation : Ce
comité est le pendant du précédent. Il va traiter de
questions équivalentes bien que plus spécialisées car
dépendant des Etats. Cependant, il n'est pas question de
représentation des Etats en tant que tel ici.
GAC - Gouvernmental Advisory Commitee : C'est au coeur de ce
comité que les gouvernements vont avoir un siège et un droit de
parole. En revanche, ils n'ont pas réellement de pouvoir de
décision, seulement un pouvoir de recommandation. C'est ici que vont
être abordées certaines des grandes questions qui touchent
actuellement Internet.
Les derniers comités (SSAC, RSSAC et TAG) constituent
des comités à vocation essentiellement techniques. On va y
discuter des spécifications techniques liées à la
sécurité par exemple.
Société à but non lucratif, l'ICANN ne
bénéficie d'aucune aide du gouvernement américain. En
effet, elle est financée en fait au niveau des registry (comme Verisign)
qui leur reversent une commission sur tous les noms de domaines vendus. Par
ailleurs, les contrats prévoient aussi des frais d'accréditation,
d'enregistrement...Les pays dont le nombre de nom de domaine est très
important participent parfois de façon aléatoire en octroyant
certains montants. C'est notamment le cas de l'Allemagne, second pays
consommateur de noms de domaines avec 11 millions de .de.
Après cet exposé sur l'ICANN, il est important
de savoir que n'importe qui, qu'il soit simple citoyen ou bien Etat ou encore
entreprise peut participer aux réunions de l'ICANN.40
b) SMSI et FGI
Rapidement, afin de terminer cette première partie nous
allons nous intéresser aux SMSI et au FGI.
39 Fournisseur d'Accès à Internet ou encore
Internet Service Provider.
40 La dernière s'étant tenue à Lisbonne fin
Avril 2007.
Les SMSI sont le fruit d'un travail de l'ONU. Le premier s'est
déroulé en Genève en 2003 avec la présence du
Secrétaire Général de l'ONU, Kofi ANNAN et a permis la
rencontre entre les différents acteurs d'Internet et la prise en compte
de l'étendue des problématiques. En effet, Mr POUZIN a pu
évoquer la « perplexité » des membres de la
délégation français qui ont fait appel à lui,
notamment pour participer aux travaux préparatoires de ce sommet.
Le second sommet s'est tenu lui à Tunis en 2005. Ce
sommet peut en revanche être qualifié d'échec en raison de
l'incapacité des différents acteurs qui entre temps, avaient pris
conscience (pour ceux qui ne l'avaient pas réalisé auparavant) de
l'importance de la ressource et du caractère original de son mode de
gestion, à obtenir des Etats-Unis, des concessions sur ce mode de
gouvernance. Cependant, ce sommet a permis la création de l'Internet
Governance Forum, sorte d'agora rassemblant les différentes «
parties » d'Internet ayant une volonté de débattre autour de
la gouvernance. C'est aussi à ce sommet qu'a été retenue
une définition de la gouvernance d'Internet qui sera celle que nous
retiendrons aussi. Le groupe de travail sur la gouvernance l'a défini
comme « l'élaboration et
l'application par les Etats, le secteur privé et la
société civile, dans le cadre de leurs rôles respectifs, de
principes, normes et règles, procédures de prise de
décisions et programmes communs propres à modeler
l'évolution et l'utiisation d'Internet ».
Le FGI s'est tenu à Athènes en novembre 2006. Il
comprenait un petit nombre de représentants par rapport au sommet
mondial de Tunis : 18 000 membres contre 1200. Néanmoins,
Françoise MASSIT-FOLLEA, écrivant pour le site Homo-Numericus a
pu remarquer la grandissante professionnalisation des acteurs d'Internet.
D'autres sujets ont été abordés comme l'IPv6 ou encore le
problème des langues naturelles, grand enjeu et cheval de bataille de Mr
POUZIN.
Avec cela se termine cette première partie
essentiellement descriptive. Cependant, la lecture de ces développements
auront mis en évidence un certain nombre d'enjeux probables ou certains
que nous décrypterons dans la seconde partie.
Seconde Partie : Analyse des enjeux
Après avoir abondamment développé le
fonctionnement de ce que l'on pourra dorénavant appeler le
Système Internet, nous allons maintenant nous intéresser aux
enjeux dont la présence a pu être dévoilée dans la
première partie.
La partie « Prolégomènes »
consacrée, dans l'Introduction, à la mise en place des
différents outils méthodologiques de référence a
mis en avant l'utilisation d'un outil plébiscité dans les
théories de relations internationales et sur lequel a notamment
travaillé Barry BUZAN. Le choix opéré de se consacrer
uniquement à trois « points de vue » ne veut pas dire que les
autres acteurs auront été oubliés. Seulement, certains
acteurs comme les entreprises ne méritaient pas, au sens de l'auteur,
une partie qui leur soit consacrée en raison du fait qu'elles
s'intègrent dans un ensemble plus général que l'on
pourrait qualifier « d'économie internationale ». Or, ce genre
de thématique s'intègre bien mieux dans l'aspect
systémique des enjeux d'Internet que dans une vue plus rigide qui aurait
privilégié les acteurs. Par ailleurs, si l'Etat peut
paraître complètement remis en cause par la croissance de la
valeur de l'information et son aspect transnational41, son
implication actuelle dans la « question » Internet et le grand nombre
de problématiques qui ont dépendu ou dépendent encore
à l'heure actuelle de l'Etat, justifient amplement une partie qui lui
soit consacré. La dernière partie consacrée à une
vision par l'Individu sera peut-être plus difficile à justifier a
priori mais, au sens de l'auteur, Internet ne peut se comprendre sans accorder
une valeur très importante à l'individu en ce que le Net lui
apporte un pouvoir de nuisance démesuré ou une tribune, une
audience et une écoute tout aussi démesurée au regard des
moyens em p loyés.
Nous allons donc nous intéresser maintenant aux enjeux
systémiques que l'on peut rencontrer à l'égard d'Internet.
Il faut toutefois préciser que cet exposé aborde un certain
nombre de thématiques ou de problématiques tout en étant
certain de n'avoir pas tout relevé à leurs propos. Il n'est pas
plus certain que toutes les thématiques envisageables ici aient
été relevées. Cet exposé sera constitué des
points saillants qu'il a été possible de relever au cours des
entretiens ou bien des lectures de l'analyse bibliographique.
41 Pour plus d'information, se référer à
l'article de Nye et Keohane cité en bibliographie : Power and
Interdependance in the Information Age.
I- Système Internet et Système
International
Dans ce développement, nous aborderons trois points. Le
premier concernera l'égalité de l'accès à Internet
au sens large du terme. Le second développement s'intéressera aux
éléments de gouvernance et de contrôle liés à
Internet. La dernière fera un rapide point sur l'aspect de la
sécurité du système dans son ensemble.
A- Internet : une égale répartition de la
Ressource ?
NON : Pour plusieurs raisons, on peut affirmer qu'Internet est
assez inégalement réparti dans le monde. Pour certains auteurs,
cela constitue même des enjeux géopolitiques. On peut voir dans
les efforts financiers de la Banque Mondiale en faveur des pays africains, un
élément de confortation de cette idée42. Dans
cette partie, nous aborderons 4 points afin de démontrer des
défauts de répartition dans le monde. Cependant, il est à
noter que l'importance d'Internet est un présupposé obligatoire
bien que non démontré formellement.
Le premier point que nous allons aborder concerne les adresses
IP. Comme nous avons pu le développer dans la première partie,
cette adressage machine et « physique » est obligatoire : une IP
désigne toute machine désirant se connecter au réseau et
être reconnu. Cependant, le nombre d'IP à disposition dans la
version actuelle est limité et constitue une ressource rare. La gestion
de cette ressource rare devient un élément de première
importance que l'on peut relativiser toutefois avec l'apport de l'IPv6,
dernière version plus complexe mais disponible de façon
quasi-infinie. Cependant, il faut bien se rendre compte que l'IPv6 n'est pas
encore complètement déployée et que cela ne résout
pas tous les autres problèmes. D'après Mr POUZIN, 72% des IPv4
sont actuellement alloués43, c'est-à-dire qu'elles ne
sont plus disponibles. Par ailleurs, le principe de distribution de ces IP est
tel que l'on peut observer prés de 40% de ces IP alloués
uniquement aux Etats-Unis. Cela signifie
42 123 Milliards d'Euros débloqués. Fait
évoqué dans la Première Partie.
43 Les dernières vérifications (février
2007) sont: 72 % de l'espace IP a été alloué. Les USA
détiennent 50 % de l'espace total, soit 70 % de l'espace
alloué.
que tous les autres pays se partagent le reste et que le
nombre d'IP disponible par personne dans certains pays est ridiculement bas.
Cela constitue donc un premier enjeu d'importance stratégique. De plus,
l'apparition d'une nouvelle tendance, l'Internet des objets qui consiste
à mettre en place toute une informatique de réseaux à
propos des objets, permettant de le situer, de connaître leur
déplacement...porte un sérieux coup à l'idée de
l'infinie disponibilité de l'IPv6. L'absence de véritable accord
et les inégalités que l'on peut observer constitue à coup
sûr un enjeu de premier ordre.
Cette constatation nous amène au second point,
concernant lui les RIR. Ces structures, dépendantes de l'ICANN à
un certain degré ont pour objectif de gérer de façon
optimale la ressource IP. Cependant, la certitude quant à
l'optimalité de l'organisation de ces « gestionnaires » n'est
pas certaine. En effet, dans chaque région, les RIR ont formé des
associations avec les opérateurs de télécommunication
locaux et leur vendent des IP par le biais de tarifs d'adhésion, les RIR
étant des entités à but non lucratif. Toujours selon Mr
POUZIN, cette gestion s'apparente à celle d'un cartel et ne permet pas
une gestion optimale des IP. En effet, cela conduit à la création
de tables de routage44 énormes due en particulier à
une répartition non géographiquement déterminée de
ces IP. Or, non seulement ces tables de routage font approcher dangereusement
la limite des possibilités en terme de serveurs mais aussi, cantonnent
le choix des serveurs utilisés au plus performant du marché et
offrent à certaines entreprises des marchés gigantesques et des
quasi-monopoles.
Cette allusion aux routeurs et aux infrastructures nous
amène à notre point suivant. Concernant ces mêmes
infrastructures, il faut savoir que les grands noeuds et les grands points de
contact entre les différents réseaux « continentaux »
dépendent des accords passés entre les grands opérateurs
de télécommunications. Cela a pour conséquence une gestion
économique mais qui ne bénéficie pas à tous et
l'observation de l'Annexe 5 montre bien cela. En effet, on peut bien voir que
certaines zones sont particulièrement mal desservies et donc très
dépendantes (Australie, Asie du Sud-est, Amérique du Sud,
Afrique). Par ailleurs, lorsqu'on sait que tout le trafic Internet a
été interrompu pour un grand nombre de pays d'Asie du Sud-est
dernièrement, on comprend mieux les enjeux que cela peut
représenter. En effet, une catastrophe naturelle ayant entrainé
la rupture des câbles fibres optiques entre la Californie et l'Asie et
étant donnée la dépendance de cette région à
l'Etat Californien, il a fallu un temps important ne serait-ce même que
pour rerouter les télécommunications par les serveurs
européens. Cela montre donc bien à quel point cette
44 Pour le routage et son utilisation, reportez-vous à la
première partie. La table de routage n'est que le mémoire des
routes et des IP, en tant que départs et destination, qu'entretiennent
les routeurs en question.
dépendance est dangereuse pour certains pays. L'absence
a priori de plan de déploiement politiquement soutenu et beaucoup plus
général a pour conséquence une inégalité
dans l'accès à Internet de certains pays.
Cette inégalité se manifeste notamment au
travers de ce que l'on a appelé la Fracture Numérique. Les
Annexes 3 et 4 montrent bien que certains pays n'ont pas d'accès
à Internet ou bien que les accès sont en très petit
nombre. Effectivement, certains pays comme la Tunisie ou la Chine, en raison de
leur attitude autoritaire vis-à-vis d'Internet ne doivent pas être
pris en compte. Cependant, un certain nombre de pays d'Afrique, une bonne
partie de la Russie et à une moindre échelle, l'Amérique
du Sud, tout cela constitue des sortes « d'espaces vides »
d'Internet. L'intervention de la Banque Mondiale prouve bien la prise en compte
de ce phénomène qui a pu être abordé dans les SMSI.
Quoi qu'il en soit, cela constitue un enjeu important et pourrait
s'intégrer à certains agendas dans les années à
venir.
Ainsi se termine ce premier exposé sur la
répartition de l'accès à Internet. Cette ressource comme
n'hésitent plus à l'appeler certains auteurs a donc des
problèmes que l'on connaît déjà. En effet,
l'incapacité de la logique commerciale non contrôlée
politiquement à amener les ressources partout est bien connue. Aussi,
cette situation met en jeu des acteurs bien connus et des situations que l'on
pourrait qualifier de « déjà-vu ».
B- Eléments de Gouvernance et de Con trôle
L'objectif de cette partie est de tenter d'analyser et de
donner quelques explications aux phénomènes de revendication et
de volonté de contrôle que l'on peut observer de façon
actuellement. Nous nous intéresserons donc à l'économie
mondialisée, à la diffusion de la démocratie et au
problème des langues.
a) Economie Mondialisée
Concernant l'économie mondialisée, ce terme
générique ne cherche pas à poser des concepts mais
à englober de la manière la plus large possible des
phénomènes économiques
de natures parfois très différentes. Aussi
doit-il être conçu comme une généralisation sans
doute abusive mais utile afin de définir un contexte.
Dans ce contexte ainsi défini, nous aborderons trois
points. Le premier concerne l'implication d'Internet en ce que le
système a engendré de phénomènes
économiques. A cet égard, le premier exemple qui vient à
l'esprit est l'extraordinaire essor qu'a connu ce que l'on a appelé les
« start-up ». Ce nom montre bien leur caractéristique
principale : leur capacité de croissance très importante
très peu de temps après leur création. Cet univers de
service a depuis perdu de sa fantastique attractivité, notamment depuis
l'éclatement de la bulle Internet. L'éclatement de cette bulle a
pu montrer qu'une économie ne pouvait se construire sans production
industrielle. Cependant, l'apport considérable d'Internet à des
petites entreprises ou le développement bien connu de certains sites de
ventes en ligne montre bien comment Internet peut apporter un réel
changement dans l'économie mondiale. Que ce soit par la création
de sites censés appuyer la vente traditionnelle (
Fnac.com par exemple) ou de sites de
ventes en ligne exemptés de taxes, de frais de stock et de toute
l'infrastructure couteuse (Amazon par exemple), Internet est devenu un outil
prépondérant dans les pratiques économiques. Les chiffres
de la Revue économique, anciens mais révélateurs parlent
de sommes autour de 500 milliards de dollars, soit la moitié du PIB
français environ. Par ailleurs, les économies
réalisées pour des entreprises grâce à Internet
peuvent être conséquentes (100 millions de dollars pour
Caterpillar par exemple). Le travail de R. LITAN montre bien quelles sont les
différentes facettes du renouveau économique par rapport à
Internet en démontant quelques idées reçues mais en
montrant aussi qu'il est difficile de quantifier réellement l'apport
d'Internet. La vision stratégique sera satisfaite en ajoutant
l'élément suivant : la volonté actuelle des entreprises de
préserver Internet de la domination des Etats est
révélateur des enjeux qu'Internet cristallise.
Le second point concerne notamment un des problèmes
majeurs actuellement sur Internet : la propriété intellectuelle
et ce que l'on appelle Peer-to-peer ou encore P2P45. Cette partie
aurait pu être traitée avec la cybercriminalité mais la
notion de crime paraissait trop importante par rapport à celle de
piratage de musique ou de films. L'article « Internet Under Siege »
aborde cette question d'un point de vue original et par chance,
particulièrement adapté à ce mémoire. Constatant
que toute innovation technologique majeure entraîne des changements
économiques considérables (Ex. : La révolution
Industrielle), il démontre que ces bouleversements ont pour
conséquences de scinder ce monde en deux « camps ». Le
45 Cet acronyme désignant les échanges de fichiers
entre Internautes par le biais de logiciel de partage que sont les Kazaa, eMule
et autres fonctionnant sur le même système de base.
premier, doté des richesses de la première
période, va refuser les changements et se « battre » contre,
tandis que le second, bien évidemment, va tout mettre en oeuvre pour
profiter du changement et abattre les fortunes héritées de
l'ancien système. A cet égard, l'exemple de l'industrie de la
musique est révélateur. Auparavant, 5 compagnies
contrôlaient 84% du marché de la musique et donc, non seulement se
trouvaient en situation d'oligopole mais pouvaient en plus, dans une certaine
mesure, imposer les goûts des clients. Depuis l'apparition d'Internet, ce
marché est complètement remis en cause. Non seulement, le
piratage informatique génère des pertes certaines pour les
multinationales de l'industrie de la musique mais de plus, Internet rend
difficile le maintien de contrôle. Ces pertes ont des conséquences
notables : la proposition de musique à meilleure marché sur des
sites « légaux », ce qui est une bonne chose, une inflation
législative désordonnée et inadaptée46
et l'incapacité à répondre à certains sites comme
Radioblog47. La seconde conséquence est l'incapacité
de ces multinationales à garder le monde de la musique sous
contrôle. En effet, si auparavant un artiste voulant réussir
devait à un moment ou à un autre, passait par ces firmes,
dorénavant, il existe un moyen alternatif par Internet. De plus,
Internet leur offre des tribunes d'écoute gigantesque leur permettant de
ne pas payer le très couteux tribut que constituait l'enregistrement de
maquettes sur CD.
Le dernier point de cette partie concerne les infrastructures
d'Internet. L'installation des réseaux de
télécommunications que sont les câbles de fibres optiques
constitue des marchés économiques importants et cependant, cela
ne répond pas totalement aux besoins mondiaux. Cela a été
démontré dans la partie précédente. Cependant, le
problème vient de la concentration réelle et de l'élitisme
de ces firmes. En effet, comme on a pu le montrer, l'organisation d'Internet
favorise les firmes les plus avancées technologiquement. Par ailleurs,
ces firmes n'étant pas nombreuses, cela constitue des oligopoles qui non
seulement, ne sont pas réellement aptes à répondre
à toutes les demandes mais cela crée aussi des dangers lorsqu'une
de ces entreprises se met en faillite et n'assure plus ces services. Ainsi,
l'opérateur KPNQWest qui assurait 60% du trafic européen s'est
mis en faillite en 2002 faisant craindre une désorganisation totale du
trafic européen. Les FAI, prévenus à temps ont pu prendre
des mesures correctives d'urgence. Mais le fait demeure que l'organisation ne
présente pas toutes les garanties voulues de stabilité en grande
partie à cause de ces
46 La dernière loi en date est une transposition d'une
directive européenne. Elle a été adoptée en 2006
après plusieurs autres lois et décision sans réels effets
sur le sujet.
47 Ce site propose l'écoute sans
téléchargement de musique. Interdit par la SACEM, il est
allé s'enregistrer dans un serveur non français et a
réapparu une semaine après.
oligopoles. Par ailleurs, la concurrence relative de ces
marchés entraîne des surcoûts exorbitants et donc
l'incapacité des pays émergents, pauvres ou en
développement de les financer et donc d'obtenir des accès
à Internet. Ce qui leur permettraient d'obtenir des
débouchés économiques.
Ainsi se finit cet exposé sur l'économie
mondialisée et les conséquences à propos d'Internet. Nous
allons maintenant aborder un aspect plus politique, notamment avec la diffusion
de la démocratie et le problème des langues naturelles.
b) Démocratie et Cultures
L'administration américaine actuelle se constitue en
porte-étendard de la démocratie. La démocratie devient
actuellement un standard et un enjeu ne serait-ce que parce qu'elle constitue
souvent le préalable dans certains tractations internationales. De ce
point de vue, on peut dire qu'Internet peut favoriser la démocratie en
permettant l'expression des points de vue de tous, de passer outre la censure
des pays autoritaires et en favorisant les appels à la «
société internationale ». Cependant, Internet est aussi une
arme de guerre et si les démocrates l'utilisent, les terroristes
l'utilisent aussi, de même que les différentes milices et autres
combattants de la liberté que l'on peut trouver partout dans le monde.
Par ailleurs, les états-majors ont intégré depuis un
certain temps, la guerre de l'information à leur arsenal. C. HARBULOT,
directeur de l'école de guerre économique, parle de guerre
cognitive et de toutes les techniques permettant la « création de
connaissance con çues pour façonner les modes de pensées
et orienter les règles de conduites ». Dans ce cadre là,
Internet devient non plus un média pacifiste empreint d'idéalisme
mais une arme de guerre en tant que telle. C'est pourquoi le contrôle
d'Internet revêt des tels enjeux : la défense en temps de guerre,
qu'elle soit économique ou « réelle », et la
possibilité de diffuser la démocratie.
Un des problèmes d'Internet que l'on peut associer
à la mondialisation est sa tendance, abondamment décrite dans les
médias, à faire disparaître les cultures
particulières au profit d'une culture générale. Nous
n'allons pas discuter cette affirmation. Cependant, le problème des
langues sur Internet est un des plus sérieux actuellement et peut
être rattaché à cette conception de la mondialisation. En
effet, il est difficile de détacher Internet des Etats-Unis du moins
d'un point de vue culturel, l'Annexe 6 montrant bien la répartition
linguistique des internautes.
Cependant, le problème vient surtout de la conception
actuelle d'Internet qui ne comprend, pour toute la partie technique, que
l'utilisation d'un unique type de caractère, le standard IDN
défini par l'IETF. En conséquence de quoi, tous les noms de
domaines et toutes les URL seront écrits à partir de ce standard
composé d'un alphabet « occidental » basique qui
n'intègre même pas les accents. C'est pourquoi ce
phénomène devient si important : il est légitime pour les
internautes du monde entier de vouloir et de pouvoir écrire les parties
techniques d'Internet dans leur langue (et ses caractères) maternelle.
Cette affaire est si intense qu'elle a été abordée au
cours des différents SMSI. L'implication de L. POUZIN n'est sans doute
pas étrangère à la notoriété de cette
question. L'association EUROLINC dont il est membre ou l'initiative NETPIA, du
nom d'une entreprise coréenne qui permettrait justement ce type
d'écriture sont parmi les résultats de cette prise de conscience.
Pour autant, l'absence d'intégration à la racine de ces langues
ne permet pas encore d'avoir un système généralisé.
Par ailleurs, la mondialisation et son impact sur les cultures sont au coeur de
nombreux enjeux et c'est pourquoi celui-ci, malgré son apparent
caractère technique, ne doit pas être considéré
comme minoritaire.
Ainsi se termine cette partie consacrée à
l'exposé de certaines des raisons conduisant à cette
volonté de contrôle et de construction des modèles de
gouvernance alternatif. Ces raisons sont entendues au niveau
systématique. Nous allons maintenant aborder un passage sur la
stabilité du système et ses conséquences.
C- Internet : Un système stable ?
Pas vraiment : Cette partie assez courte abordera trois
des principaux problèmes d'Internet afin de montrer que l'absence de
capacité d'entente à un niveau international conduit à une
diffusion du réseau bien plus large que les capacités de
contrôle des organismes existants.
La première raison de cette instabilité concerne
encore une fois les infrastructures. Comme on a pu le voir, l'organisation de
ces réseaux de télécommunication n'est pas construite de
façon à ce que le réseau puisse réellement
fonctionner sans interruption quoi qu'il arrive. En effet, l'exemple de la
coupure d'Internet dans l'Asie du Sud-est ou encore la faillite de
l'opérateur européen ont montré certes, la capacité
de réponse relativement rapide des acteurs d'Internet mais aussi et
surtout, les failles qui existent. En effet, que l'on observe l'organisation
des réseaux de télécommunications ou l'organisation des
serveurs et des
routeurs, le tout souffre de failles certaines et reconnues
qui remettent en cause la stabilité d'Internet. L'existence de seulement
7 points de contacts entre l'Europe et les Etats-Unis est-elle une solution
viable pour aujourd'hui mais surtout pour demain avec la croissance que
connaît Internet ? Cela donc, constitue un enjeu de
sécurité car s'il est vrai qu'Internet s'arrêtant est
déjà sans doute une catastrophe au moins économique en
soi, le problème provient des nombreux VPN (Virtual Private Network) -
des réseaux privés et sécurisés qui utilisent les
infrastructures d'Internet. En effet, ces réseaux appartenant parfois
à des agences des Etats ont des besoins de continuité de service
peut-être encore plus importants que les entreprises. Voilà donc
un enjeu crucial.
Le second problème provient de l'organisation du DNS.
Selon Mr POUZIN, elle est inutile et mal calibrée. Des standards de
modèle de communication à l'international comme celui du GSM
devraient inspirer une nouvelle répartition du DNS. En fait, pour Mr
POUZIN, c'est l'existence de la racine en elle-même qui est inutile :
elle devrait être remplacé par une répartition
géographique de ces serveurs, plus à même de satisfaire des
exigences de sécurité et de transport des données plus
rapides et plus logiques. Parlant de sécurité, le DNS n'est pas
forcément un service fiable et sécurisé, la
création du protocole DNSSEC montre bien à quel point cela
concerne les services techniques. Par ailleurs, les attaques
répétées des pirates sur ces serveurs montrent bien la
conscience qu'ils ont eux, de leur probable capacité à mettre en
panne ces serveurs, ce qui serait la fin d'Internet. Enlevez les serveurs DNS
dont l'adresse est enregistrée sur votre ordinateur et si la connexion
pourra être établie, la navigation sera impossible. Par ailleurs,
la multiplication des « miroirs » des serveurs sources
déjà évoquée peut être
interprétée comme une tentative de pallier à un
système instable ou dépassé.
Enfin, le dernier aspect est purement sécuritaire.
Toujours selon Mr POUZIN, deux remarques sont à faire. La
première est que le nombre de « zombies », c'est-à-dire
des ordinateurs ou des serveurs contrôlés par des pirates et
programmés pour effectuer des actions menant à l'arrêt du
système, est très grand (environ 4,5 millions en 2006 selon la
société de conception de logiciels de sécurité
SYMANTEC). Cela veut dire qu'Internet pourrait être « mis à
plat 48» très rapidement. Par ailleurs, cela
veut aussi dire que ces serveurs sont contrôlés notamment pas des
cybercriminels qui y voient un avantage certain à préserver un
système qui leur rapporte de très importantes sommes d'argent.
48 Expression imagée mais réelle empruntée
à Mr POUZIN.
Ainsi se termine cette analyse systémique des enjeux
d'Internet. Un certain nombre d'enjeux de niveau systémique doivent donc
être compris comme étant à propos ou au coeur d'Internet.
Cette analyse terminée, nous allons nous intéresser aux enjeux
que l'on peut analyser du point de vue de l'Etat.
II- Les Etats : du Nord au Sud, une
préoccupation désormais commune
Une approche simpliste d'Internet et mal documentée
aurait très probablement pour conséquence une absence de prise en
considération de l'Etat dans le « problèmes » Internet.
Cependant, si l'Etat peut paraître une entité de
référence déplacée pour analyser Internet, il n'en
reste pas moins un cadre pertinent par le nombre et l'importance des
problématiques que l'on peut traiter à son niveau d'analyse.
Concernant l'Etat, notre approche sera très similaire
à celle utilisée dans la partie concernant le système.
Nous nous attacherons en premier lieu à l'examen des questions
liées à la souveraineté avant d'analyser celles concernant
la sécurité. Ces deux thématiques principales pourront
montrer combien aussi reste pertinente la notion d'Etat, même pour
analyser des phénomènes comme ceux qui ont lieu sur ou autour
d'Internet.
A- Les Etats et Internet : la Souveraineté
La souveraineté, telle qu'elle est conçue en
science politique, possède deux faces. La première, interne, a
pour conséquence que l'autorité souveraine ne connaît pas
d'autorité qui lui soit supérieure dans les limites du territoire
où cette souveraineté s'étend. La seconde, externe, a pour
conséquence la capacité d'un pays, aussi petit soit-il à
refuser les intrusions politiques de toute sorte de la part d'un autre pays. En
d'autres termes, un Etats souverain est indépendant des autres dans le
Système International et il ne connaît pas d'autorité
supérieure à lui à l'intérieur de son pays. Cette
distinction guidera notre exposé de la première partie et aussi,
pourrons-nous peut-être montrer que le concept actuel de
souveraineté est sans doute dépassé.
Les statuts d'Internet prévoient la souveraineté
des Etats sur leur CCTLD49. Cette souveraineté se traduit
notamment par un certain nombre de droits sur leur domaine
réservé. En France, l'AFNIC ou Association Française pour
le Nommage Internet en Coopération a la charge de gérer tout ce
qui a trait au nommage dans le cadre du .fr. Cela a par ailleurs un certain
nombre de conséquences relativement importantes en termes de
contrôle. En effet, si l'AFNIC possède certaines
prérogatives de gestion, elle n'a en revanche aucun pouvoir de police
lié par exemple à l'utilisation concomitante de domaine de
même nom. Cela démontre une relative inefficacité dans la
capacité de résoudre les litiges et les conflits
régulièrement. Cependant, cette souveraineté conserve tout
de même des implications pratiques : la preuve en est du conflit entre le
registrar luxembourgeois EuroDNS et l'AFNIC. Ce registrar avait, dans le cadre
d'une affaire complexe, détourné la charge de l'AFNIC et cela
avait conduit au blocage d'un nombre de domaine assez important (environ 4500).
Par ailleurs, un décret assez récent a pour objectif de redonner
au .fr un aspect plus policé, contrôlé.
Extrait : un nom de domaine en .fr « ne peut porter
atteinte au nom, à l'image ou à la renommée de la
République française, de ses institutions nationales, des
services publics nationaux, d'une collectivité territoriale ou d'un
groupement de collectivités territoriales, ou avoir pour objet ou pour
effet d'induire une confusion dans l'esprit du public ».
Ce court extrait montre bien que l'Etat français entend
bien faire de son domaine, une zone de droit, une sorte d'extension virtuelle
du territoire français. Ainsi, la notion de souveraineté à
propos d'Internet trouve un écho relativement important.
Par ailleurs, il ne faut pas oublier que l'existence en tant
qu'Etat implique la détention d'un CCTLD. Cela a des implications
politiques relativement importantes. Cela garantit notamment un siège
à l'ICANN en tant qu'Etat, c'est-à-dire au niveau du GAC ou du
CCNSO. Il est intéressant de noter que si l'ICANN réfute
l'établissement d'une souveraineté ou la naissance d'un Etat
à cause de la création d'un CCTLD, cela a pu poser des
problèmes. En effet, la création du .tw pour Taïwan a
entraîné des protestations de la part de la Chine qui a pu y voir
une reconnaissance implicite de la souveraineté de l'île. On peut
très bien imaginer que dans un avenir proche, la création de tels
noms de domaine prenne une importance accrue avec le développement
d'Internet et donc se pose en témoins de reconnaissance de
souveraineté. Autrement dit, la question qui s'ensuit
immédiatement est la capacité de l'ICANN à reconnaitre
cette souveraineté, en fonction de quels critères et sous
quels
49 Repris dans l'agenda de Tunis en 2005.
contrôles ou influences. On comprend donc la gêne
de la firme californienne lors du conflit avec la Chine et ses multiples
dénégations quant aux implications de la création d'un
CCTLD.
D'un point de vue plus international ou cosmopolite, la prise
en compte des implications et la volonté politique de gérer de
façon logique et continue ces domaines n'est pas uniforme. Cela est
dû à plusieurs choses : tout d'abord, les Etats n'ont pas de suite
reconnu le formidable potentiel d'Internet et ont donc accumulé des
années de retard dans la prise en compte des nouvelles données
politiques, techniques et internationales. C'est aussi pour cela que les pays
du Sud manifestent un peut-être plus grand intérêt dans tous
les débats organisés autour de la Gouvernance d'Internet.
L'absence relative du réseau leur permet d'espérer encore une
croissance contrôlée de la ressource et la possibilité d'en
profiter un maximum. Par ailleurs comme a pu le faire remarquer Mr POUZIN ou
Mme INNE, les grands états ne proposent pas forcément
d'alternatives, ne sont pas forcément capables de reprendre le
contrôle dans une dispersion déjà très
avancée et ont tendance à se servir d'Internet comme biais de
négociation dans un cadre plus large, notamment avec les EtatsUnis. La
conséquence peut être interprétée comme un
alignement sur la politique des EtatsUnis envers Internet, tel
qu'observé par Mr POUZIN, dans les grands sommets afin d'obtenir une
sorte de « dette » diplomatique qui pourra être
capitalisée dans d'autres négociations. Le problème, si
cette vision est réelle, est la perte que cela engendre en termes de
préoccupations à propos du Réseau et de son devenir. La
seconde raison à cette absence se trouve dans la gestion faite par Jon
POSTEL. L'attribution de la gestion des CCLTD de façon non
systématique a eu pour effet un désengagement des Etats. Pour
autant, le retour de l'Etat est marqué notamment par l'exemple suivant
que nous allons traiter : la polémique du .iq, irakien.
A en croire, certaines sources50, le début
de la seconde guerre en Irak en 2003 aurait coïncidé avec la «
disparition » du CCTLD irakien. Des analystes ont sauté à la
conclusion que les Etats-Unis s'étaient purement et simplement
débarrassé de ce domaine pour des raisons de représailles
et de sécurité. Cela a bien pu montrer l'importance que pouvait
dorénavant revêtir Internet dans un conflit et donc, d'un point de
vue stratégique. Cependant, l'interview réalisée avec Mme
INNE, membre de l'ICANN, a donné une toute autre version. En effet, les
RFC rédigés par Jon POSTEL affirment que l'absence de gestion
d'un domaine a pour conséquence sa disparition progressive au sein du
DNS. En d'autres termes, si les ordinateurs et les serveurs hébergeant
des sites du domaine en question étaient toujours connectés et
accessibles, ils devenaient littéralement introuvables sur le
Réseau.
50 Notamment la revue Politique Etrangère.
La gestion du .iq avait été donnée par
J.POSTEL à un américano-irakien qui y avait enregistré des
sites pour ses entreprises (le .iq ne comprenait que 6 sous-domaines). Il s'est
avéré, sans que l'on puisse connaître le poids des
coïncidences, que cet homme avait réalisé des
opérations de trafic de toutes sortes, notamment pour le compte de
terroristes. Il a dont été arrêté et se trouve
encore à l'heure actuelle en prison. En conséquence de quoi, la
gestion de ce CCTLD a été arrêtée et il a fini par
disparaître des serveurs DNS. Cela permet donc de relativiser les raisons
de cet arrêt d'un point de vue des faits mais ne change rien à
l'importance stratégique accordée par les auteurs à une
telle action du gouvernement des Etats-Unis, action conçue de cette
manière bien particulière.
Il est à noter que selon Mme INNE, une opération
de cette sorte serait impossible, ce qui garantit la souveraineté des
Etats et permet aussi de montrer l'importance que l'on peut y accorder. Un des
problèmes posés aussi par cette souveraineté d'un point de
vue internationale est bien explicité par les bases de données
« Who Is ». Cette allusion humoristique au célèbre
annuaire de la haute société britannique se réfère
néanmoins à des besoins plus prosaïques. En effet, cela
désigne simplement les coordonnées et les informations
nécessaires au bon fonctionnement des noms de domaines, informations
relatives aux détenteurs de nom de domaine, à l'intérieur
de domaine plus important. L'ICANN juge nécessaire ces informations afin
de pouvoir assurer la continuité du service. Cependant, les
différences législatives ont pour conséquence de
créer des conflits : la CNIL, par exemple, en France impose un strict
contrôle sur de telles bases de données. Aussi, malgré
l'enjeu de continuité de service Internet et les problèmes que
cela peut poser en cas de faillite de ces registry ou registrar, le conflit
autour de ces bases de données reste important. Peut-on imaginer la
France donnant à l'ICANN les informations à propos des
détenteurs de domaines en .fr alors même qu'elle est souveraine
sur ce domaine ? Difficilement, en raison de la souveraineté et
là réside tout le problème.
A propos de la souveraineté, il est intéressant
de noter qu'Internet induit des phénomènes de mutation de la
considération qu'on lui donne. En effet, l'excellent article de D.
DREZNER51 montre très bien l'existence d'un marché des
CCTLD, un marché à l'intérieur duquel de très
petits états vont aller vendre à des grandes entreprises des
domaines comme ces CCTLD. Offrant ainsi à ces entreprises un cadre
Internet légalement protégé, cela constitue pour ces
états des sources de revenus conséquentes : le .tv pour
l'île de Tuvalu a été vendu pour 4
51 DREZNER, D. W., Sovereignty for Sale, Foreign Policy,
Sep.-Oct., 2001.
millions de dollars par an pendant 10 ans. Cependant, il est
à noter que ces ventes engendrent des phénomènes de
création de paradis fiscaux ou de blanchiment d'argent (ce qui va
souvent ensemble). Le Fonds Monétaire International, FMI, estime
à 1,5 milliard de dollars, le montant blanchi grâce à ce
système de vente de souveraineté.
Enfin, le phénomène des micro-états
développé par F. LASSERRE pour le Groupe de Recherche en Economie
et Sécurité est très intéressant. Il montre bien
à quel point la notion de souveraineté peut être
diluée ou redéfinie dans l'univers Internet. La multiplication
des Nations, des Royaumes ou des Souverainetés sur Internet ne doit
cependant pas être pris pour un jeu. Si certain sont fantaisistes,
d'autres peuvent être dangereux ou poser des questions jurid iques
épineuses. En effet, la Principauté de Sealand installée
sur une ancienne plate-forme en eau territoriale de la marine britannique
émet des passeports dont certains ont été retrouvés
sur des criminels dans d'autres pays. Elle a aussi été pressentie
pour accueillir des serveurs Internet, serveurs qui auraient
hébergé le très célèbre site, The Pirate
Bay, plate-forme de téléchargements P2P. Voici donc un exemple
des enjeux que constitue la création sur Internet de ces
micronations.
Ainsi se termine cet exposé à propos de la
souveraineté. Nous avons pu voir à quel point le concept de
souveraineté pouvait être en mutation entraînant des enjeux
importants. Non content de devoir s'adapter aux exigences d'Internet, il est
soit remis en cause par les pratiques de quelques uns soit
considéré comme une ressource commerciale. Nous allons maintenant
nous intéresser aux problématiques de contrôle et de
sécurité à propos d'Internet, du point de vue des
Etats.
B- Les Etats et Internet : Sécurité et
Contrôle
Dans cette partie, nous allons aborder plusieurs
problématiques au travers notamment de deux exemples, celui de la Chine
et celui de la cryptographie.
Tout d'abord, la première question que l'on doit se
poser en termes de Sécurité est de savoir exactement en quoi
Internet peut-il constituer un danger.
Une première réponse est que la quantité
de données transitant par Internet est positivement impressionnante. La
première conséquence pour les agences de renseignements et de
sécurité des gouvernements est leur incapacité
réelle à analyser
toutes ces données. En effet, si l'on peut agir sur les
flux Internet de façon relative, en les bloquant en partie ou en les
filtrant, notamment en fonction de leur nature, il est impossible de les
analyser en totalité. Même des outils développés
dans les agences gouvernementales américaines comme le système
Echelon (qui dépend aussi d'accords internationaux) ne peuvent pas
prétendre à tout analyser. Le renseignement sur Internet peut
donc être vu comme cela : il est à l'heure actuelle possible pour
les services de renseignements d'obtenir pratiquement toutes les informations
qu'ils veulent à deux conditions. La première concerne une
idée précise de la localisation des informations
recherchées et la seconde, la possibilité d'avoir à
côté de la pratique informatique pure, des moyens de
renseignements et de pressions autres52.
La seconde réponse se trouve dans le système
Internet. En effet, il n'est pas faux de considérer qu'une information
transitant sur Internet est comme une carte postale dans les systèmes
postaux : tout le monde peut lire le contenu et voir à la fois
l'expéditeur et le destinataire. Par ailleurs, les derniers modes de
connexion tel que le Wifi ou connexion sans fil par ondes radio ne sont
absolument pas sécurisés dans la transmission, par exemple, entre
vos ordinateurs et les routeurs de l'Université. La cryptographie permet
donc de pallier aux problèmes du contenu mais pas des adresses.
La sécurité, c'est aussi la volonté des
entreprises de se protéger de l'espionnage industriel dont les
conséquences en termes de sommes d'argent ne peuvent être
ignorées. C'est pourquoi il existe des formations à la protection
informatique et Internet dispensés par du personnel appartenant à
l'administration française, preuve de l'importance du sujet. Cette prise
en considération s'est traduite notamment par un assez intense conflit
à propos de la cryptographie, en France et aux Etats-Unis de la
même façon. Nous traiterons de cet exemple afin de montrer un des
enjeux d'Internet.
Enfin, la Sécurité, c'est à la fois pour
un pays, la volonté de protéger ses administrations et ses
infrastructures53 contre les déstabilisations mais aussi
contre le terrorisme. Mais c'est aussi parfois une interprétation
agressive faite par les pays, notamment les pays à régime
autoritaire.
52 Eléments issus d'un entretien à propos d'une
opération de la DGSE où l'interviewé avait
participé de façon marginale.
53 Lire la veille à propos de la désorganisation de
la distribution de carburant en Argentine par la faute d'un pirate
informatique.
Intéressons-nous à la cryptographie dans un
premier temps afin de montrer au travers d'un exemple, les enjeux de
sécurité qui peuvent être issus d'Internet.
La cryptographie remonte très loin dans l'histoire. Une
des premières utilisations de l'informatique dans cette matière a
été pour casser les codes de la machine Enigma utilisé par
les Allemands durant la Seconde Guerre Mondiale. Sur Internet, la cryptographie
a posé plusieurs problèmes.
Le premier venait des Etats : leur incertitude quant à
ce média et les problèmes qui pouvaient en survenir ont
très tôt par exemple obligé les Etats-Unis à vouloir
contrôler et même interdire la cryptographie54. De la
volonté d'imposer une puce de contrôle à tout
micro-ordinateur (le Clipper Chip) à l'interdiction de tout moyen de
codage qui serait impossible aux militaires de briser, les évolutions
ont donné de nombreux conflits.
En effet et c'est le second problème, que ce soit les
entreprises, pour un évident besoin de confidentialité ou les
individus, pour la protection de la vie privée, un vaste mouvement de
protestation a eu lieu, affirmant la nécessité de la
cryptographie dans un monde où l'information devenait primordiale et de
plus en plus dangereuse. En France, si les cryptages liés aux
authentifications ne sont pas contrôlés, tous les autres
étaient soumis jusqu'en 90 à l'autorisation expresse du Premier
Ministre. Aujourd'hui, c'est une autorité qui est chargée de
délivrer les autorisations mais la distinction demeure. Or, sur
Internet, le cryptage devient une nécessité dés lors que
de plus en plus de services sensibles passent par ses infrastructures : la
consultation de vos comptes bancaires ou le paiement en ligne par exemple.
Le problème de la cryptographie vient de la
création d'un « espace immatériel » complètement
inaccessible à l'Etat. C'est pourquoi cela la rend si dangereuse du
point de vue des Etats. La situation était donc bloquée jusqu'
à l'apparition d'un nouveau mode de cryptage révolutionnaire
parfaitement adapté à Internet et qui a remis en cause tout le
contrôle étatique sur Internet. L'administration Clinton a donc
décidé de traiter Internet comme une zone de
libre-échange, donc exempt de contrôle total, sans appartenance,
en dehors du droit national. La notion prouve le problème et les enjeux
que cela engendre.
Ce mode de cryptographie, appelé PGP pour Pretty Good
Privacy, que l'on pourrait traduire par « Plutôt Bonne
Intimité » a été développé par un
américain, Philip ZIMMERMANN. Son logiciel est tellement
révolutionnaire et problématique qu'il a été
poursuivi par les autorités
54 L'ouvrage de Jean GUISNEL est à cet égard
très complet.
qui ont fini par abandonner les poursuites, certainement sans
réelles bases légales, mais politiquement catastrophiques. Le
logiciel pallie au principal défaut de la cryptographie en supprimant le
besoin de communiquer le code de codage au destinataire. En effet, le principe
est celui de la cryptographie asymétrique et se base sur l'utilisation
de deux clés de codage dépendantes l'une de l'autre : une
clé publique et une clé privée. La première est
disponible à la vue de tous et permet à celui qui veut faire
passer un document à son titulaire de coder le document susdit et de
l'envoyer. Ainsi codé, l'expéditeur ne peut le décoder :
seul le destinataire le pourra en employant ses deux clés. La clé
privée n'étant jamais montrée à qui que ce soit, ni
même enregistrée sur un ordinateur s'il le fallait. Ainsi, plus de
problèmes de transmission des codes et ceci, associé aux
capacités de codage très grande associées à ce
système, il est devenu pratiquement impossible de casser ce type de
code. Ainsi la cryptographie, si elle résolvait les problèmes des
entreprises et des individus, pose dorénavant un problème grave
aux Etats notamment en matière de terrorisme et de
cybercriminalité.
Deux atténuations tout de même, le nombre
d'utilisateurs reste restreint, seuls de réels professionnels ou
passionnés d'Internet étant au courant de ces innovations et par
ailleurs, cela ne résout pas le problème de la lisibilité
des expéditeurs et destinataires.
Ainsi, au travers de la cryptographie, nous avons pu voir
quels ont été les enjeux importants de Sécurité
induits par l'existence d'Internet. Nous allons maintenant nous
intéresser notamment aux derniers développements technologies
adoptés pour des raisons sécuritaires. C'est ici que nous
parlerons de la Chine.
La première innovation est celle des logiciels libres.
Cette tendance au début concentrée autour du développement
d'un système d'exploitation concurrent de Windows, LINUX, a ensuite
atteint tous les types de logiciels autour de deux façons de voir. La
première est que la création des logiciels doit être libre
et ne doit pas être commercialisée du tout, c'est pourquoi chacun
doit pouvoir accéder à tout sans restriction. C'est là le
rôle d'Internet. Les logiciels sont alors mis à disposition de
même que les codes-sources, ce qui permet de les modifier et de les
enrichir. La seconde vision témoigne d'une certaine révolution
dans la vente de ces logiciels. Partageant la façon de voir de la
première ou alors témoignant d'un marketing original, ces
entreprises construisent des logiciels gratuits mais font payer les services
qui peuvent être nécessaires à côté ou
constituer des « plus ». Par ailleurs, ils vont aussi
développer des logiciels plus spécialisés : tout cela
constituant de la discrimination économique bien organisée.
Cependant, et c'est ce qui va donner tout son essor à
cette communauté, ces logiciels vont attirer un grand nombre d'Etats. En
effet, l'avantage de ces logiciels est d'amener de la diversité dans un
monde informatique largement encore dominé par des informaticiens
anglo-saxons. Microsoft est très présent, à la fois pour
les systèmes d'exploitations mais aussi pour les logiciels bureautiques
ou de navigation. La crainte de possibles attaques ou d'invasion informatique
par le biais de portes cachées dissimulées dans les codes de ces
logiciels ont conduit des Etats comme Cuba à programmer
l'équipement de tous ses services avec des logiciels libres
retravaillés par leurs propres informaticiens. Par ailleurs, la
gratuité de ces produits n'est pas sans intéresser les Etats et
on peut y voir une raison de l'implication de la France dans cette tendance.
La seconde innovation concerne le DNS, encore une fois. En
effet, la Chine vient de mettre en place un nouveau protocole appelé
IPv9. Ce protocole qui paraît ne pas être un protocole d'adressage
comme ceux que l'on a pu voir aurait notamment créé une zone
réseau en dehors d'Internet ou bien juste connecté au
réseau mondial par des plates-formes surveillées et
sélectionnées. Cependant, un certain flou règne à
propos de cette notion bien que l'on sache que l'Arabie Saoudite prépare
une infrastructure de même type. Les raisons principales que l'on puisse
trouver à ce phénomène inquiétant, parfois
appelé « balkanisation d'Internet » sont de deux ordres : la
crainte liée à un contrôle trop omniprésent des
Etats-Unis sur Internet et l'absence trop importante d'autre langue que
l'anglais. En effet, la particularité de ces infrastructures serait
d'offrir une navigation dans la langue de leur concepteur et une
majorité de sites et de noms de domaines dans cette même langue.
On comprend mieux pourquoi ces pays ont voulu mettre en place ce type
d'initiative mais il ne faut pas oublier que ce genre de tendance fait craindre
la fin d'Internet ainsi conçu aujourd'hui.
Pour terminer avec cette partie liée au contrôle,
il ne faut pas oublier de parler des « 13 ennemis » d'Internet :
Arabie Saoudite, Belarus, Birmanie, Chine, Corée du Nord, Cuba, Egypte,
Iran, Ouzbékistan, Syrie, Tunisie, Turkménistan, Viêt-Nam.
Cette liste a été notamment établie à partir des
travaux de l'ONG Reporters Sans Frontières. Il s'agit en fait des pays
pratiquant certaines ou toutes es activités suivante à propos
d'Internet : censure, filtrage, poursuite, condamnation et emprisonnement des
internautes, contrôle des blogs, poursuite des blogueurs...La liste est
longue mais il est certain qu'aujourd'hui, un certain nombre de régimes
considèrent Internet comme un danger pour leur stabilité (des
régimes, pas des pays) et n'hésitent pas à tout essayer
pour s'en préserver. Par ailleurs, certains pays indiqués dans
l'Annexe 3 comme n'ayant pas d'accès à Internet, sont aussi des
pays considérés comme opposés à Internet : Tunisie
et Corée du Nord, notamment.
Ainsi se finit ce développement consacré
à l'Etat et ses problématiques au travers d'Internet. Comme on le
voit, la préservation de la souveraineté et la
sécurité, de même que les questions de culture et de
démocratie appartiennent aux dynamiques nourries par Internet. Or,
toutes ces questions sont au coeur de problématiques comparables dans le
Système International. Abordons maintenant l'Individu et ses
implications sur Internet.
III- Les Individus et Internet : Activisme,
Cybercriminalité et Terrorisme
Ce dernier développement de la seconde partie a pour
but de montrer à quel point le développement d'Internet a
été, est et reste très influencé par les individus
qui y interagissent. En effet, l'auteur établit comme hypothèse
de présentation pour cette partie l'importance de l'individu, importance
dont l'existence est corroborée par la grande présence de cette
société civile au SMSI.
Afin de montrer cette importance, nous aborderons trois points
principaux dans cette partie : l'activisme sur et à propos d'Internet,
la cybercriminalité et le terrorisme. Cependant, sans réaliser
une étude précise de chacune de ces thématiques, nous
évoquerons quelques éléments susceptibles d'appuyer cette
hypothèse.
A- Activisme et Internet
Si le lien entre l'activisme et Internet n'est pas aisé
à faire, nous allons démontrer qu'il est dû principalement
à des affrontements à propos de conception sur la nature profonde
du réseau. Par ailleurs, l'activisme dont on parle ici n'a rien à
voir avec le terrorisme ou la révolution : il s'agit plus d'un conflit
politique généralisé ayant pour but la victoire d'une
conception d'Internet sur une autre en vue de favoriser tel type de
développement et d'obtenir tel Internet demain.
Les premiers activistes auxquels nous nous
intéresserons seront notamment J. POSTEL et P. ZIMMERMANN. La gestion
d'Internet réalisée par POSTEL alors même que le
DOC55venait de
55 Département du Commerce des Etats-Unis.
« vendre » la gestion du .com à Verisign et
que celui-ci en faisait une utilisation commerciale intensive et
généralisée montre bien comment cette conception a pu
être tenace. Par ailleurs, l'intensité des débats ayant
précédé la création de l'ICANN et sa participation
active à ces débats controversés montre bien l'importance
de la question. ZIMMERMANN, quant à lui, a inventé le
système révolutionnaire PGP dans une vision résolument
égalitaire et pourrait-on dire « démocratique » du
système. Il a ainsi pu dire : « PGP donne aux gens le
pouvoir de prendre en main leur intimité. Il y a un
besoin social croissant pour cela. C'est pourquoi je l'ai créé.
». Il explique aussi que « Si l'intimité est mise hors la loi,
seuls les horsla-loi auront une intimité. Les agences de renseignement
ont accès à une bonne technologie cryptographique. De même
les trafiquants d'armes et de drogue. Mais les gens ordinaires et les
organisations politiques de base n'avaient pour la plupart pas eu accès
à ces technologies cryptographiques de «qualité
militaire» abordable. Jusqu'à pré sent. ». Ces quelques
citations
montrent bien à quel point cette vision d'Internet a pu
être importante. En effet, il est de notoriété publique que
la réaction américaine à la mise à disposition de
ce logiciel a été très négative et l'on comprend
facilement pourquoi à la lumière des éléments
décrits dans les développements sur l'Etat.
Dans un autre type d'action, il y a la création en 1990
de l'EFF ou Electronic Frontier Foundation. Créée par des hommes
d'affaires, John Perry BARLOW et Mitchell KAPOR, cette fondation a pour but
d'élargir la prise de conscience à propos de la
sécurité sur Internet et sur l'importante notion que si Internet
est un terrain parfait pour des activités immorales ou illégales,
il est possible de faire autre chose d'Internet. Ainsi, dans les textes
constitutifs :
« Dans les conditions présentes, le cyberespace
est une région frontière, peuplée par quelques
technologues endurcis capables de supporter les interfaces primitives des
ordinateurs, les protocoles de communication incompatibles, les barricades des
propriétaires, les ambiguïtés culturelles ou légales,
et l'absence totale de guides ou de commodité. Sans aucun doute, les
vieux concepts de propriété, d'expression, d'identité, de
mouvement et de contexte ne s'appliquent pas dans un monde où ils ne
peuvent pas exister. La souveraineté sur ce monde n 'est pas non plus
correctement définie. De grandes institutions réclament
déjà des fiefs, mais la plupart des actuels indigènes de
ce territoire sont solitaires et indépendants, parfois à un
degré pathologique. C'est donc un terrain parfait pour que se
développent à la fois les hors-la-loi et les milices ».
L'activisme « bénéf ique » ne peut
être abordé sans parler du travail de Mr Louis POUZIN. Ce
récipiendaire de la légion d'honneur a participé à
la création des réseaux Cyclades et développé les
protocoles de base qui seront repris en grande partie par Vint CERF dans la
création d'Internet. Participant toujours à la vie d'Internet, il
s'est engagé dans le problème
des langues naturelles sur Internet, notamment au travers de
l'association Eurolinc ou de l'initiative NETPIA. Le but de cette association
est de conserver à Internet une capacité toujours plus grande
à toucher le monde entier, notamment en supprimant ce qui peut
être considéré comme un barrage important : celui des
langues. Il est très difficile de naviguer sur Internet sans un minimum
d'anglais et toute l'infrastructure ne prend en compte que des
caractères « occidentaux ». Aussi, il est nécessaire de
changer cela pour garder une unicité d'Internet.
Dans un autre registre, des groupes
hétéroclites, composés à la base de
Hackers56 comme le Computer Chaos Club ont vu le jour. Il refuse la
censure de toute nature, prône la liberté et se joue
généralement des frontières du Web afin de montrer leur
utilité. Hackers à la base mais cependant bien plus que cela
comme en témoigne le piratage d'une banque et le vol de milliers de
Deutsche Mark avant de les restituer le lendemain. Ce groupe atypique pouvait
donc être classé parmi les activistes du Web.
Comme on a pu le montrer ici, l'activisme sur le Web a
toujours existé. Basé sur les individus en grande partie, cet
activisme cible des individus en prônant l'égalité et le
refus de toute censure ou pervertissement d'Internet. Cependant, tous les
individus n'ont pas des aspirations morales aussi élevées et nous
allons maintenant nous intéresser à la
cybercriminalité.
B- Cybercriminalité
Le problème de la cybercriminalité a
été longtemps à la fois un problème de
définition mais aussi un problème d'intention. En effet, on a
longtemps associé le piratage des systèmes
hyper-protégés à des petits génies, seuls ou en
petits groupes à la recherche de l'exploit et de la démonstration
de leurs capacités intellectuelles. Seulement et plus récemment,
la cybercriminalité a rejoint le cadre général de la
criminalité sans toutefois perdre cet aspect plus « joueur ».
Sans réellement entrer dans le détail de la
cybercriminalité, il s'agira de montrer quelles sont les grandes
tendances de la cybercriminalité et les enjeux que cela
entraîne.
56 Pirates informatiques.
Concernant la cybercriminalité purement
économique, on trouvera notamment le SPAM ou courrier publicitaire non
désiré et à des fins malhonnêtes ou encore pourriel
dont le coût est actuellement 50 milliards de dollars57 aux
entreprises par an. Le problème vient de la très grande
difficulté à mettre fin à cela en raison de l'utilisation
de serveurs zombies dont nous parlions dans la partie consacrée au
Système. Aussi, le SPAM devient-il un enjeu important à propos
d'Internet.
La guerre économique, elle qui diffère de ce
procédé et qui compte l'espionnage économique, le vol de
renseignements et le piratage informatique à fin de recueil de
données couteraient 59 milliards de dollars par an aux 1000
premières entreprises américaines.
La contrefaçon elle, représente un des moyens
les plus efficaces pour les organisations criminels de se financer. Elle trouve
évidemment sur Internet, un moyen privilégié de diffusion,
notamment pour des DVD pirates ou autres. La veille stratégique a permis
de recenser l'arrestation et le démantèlement récent d'un
trafic de cigarettes organisés sur plusieurs pays. L'arrestation de la
branche française fait douter de la réelle efficacité de
ce type d'opération sur ce type de trafic et montre bien en quoi
Internet peut constituer une plate-forme d'organisation des plus utiles et
démontre aussi la difficulté à obtenir des
opérations coordonnées et des résultats au niveau
international.
D'un point de vue moins économique, les
problèmes des virus sont importants. Qu'ils soient virus, trojans ou
vers, c'est-à-dire voués à la destruction, ou à
permettre d'accéder à certain ordinateurs ou destinés
à bloquer le trafic, ces opérations ont des coûts
relativement importants à la fois pour les personnes et les
entreprises58. Par ailleurs, le blocage voire la destruction des
ordinateurs personnels de certains, les vols d'identités, d'informations
personnelles, bancaires et autres constituent des enjeux très importants
pour les individus. Dans le cadre bien particulier de la fraude dite «
nigériane » qui utilise Internet pour abuser de la
crédulité des personnes visées, on a même
assisté à des assassinats des victimes qui s'étaient
rebellés. Ce type d'escroquerie est censé rapporter des centaines
de millions de dollars à leurs auteurs selon les autorités
américaines.
De même, les très nombreuses chaînes de
messages à renvoyer à plusieurs personnes de votre entourage sous
peine généralement de « malchance éternelle »
sont souvent des
57 Pour ces éléments et les suivants, merci
à Mr LACOSTE pour son cours de cybercriminalité
internationale.
58 130 000 dollars en moyenne par attaques de virus.
opérations destinées à perturber voire
à rendre inutilisables certains serveurs de messagerie qui
s'écrouleraient sous le trop grand nombre d'emails à traiter. De
même que les célèbres Hoax ou faux messages
annonçant par exemple la fermeture immédiate du service de
messagerie MSN.59 Les enjeux liés à ce type de
pratiques ne sont pas immédiats et dépendent surtout de
l'information que l'on cherche à faire passer.
Le piratage informatique présente des coûts pour
les entreprises, les banques et des risques de pertes d'identité.
Cependant, le risque d'une interruption d'Internet pourrait être
particulièrement grave. En effet, certaines attaques contre le service
DNS, appelées DOS ou Denial of Service comme celle du 6 février
2007 sur les serveurs racines. Plus grave encore est la réussite d'un
pirate (ou d'un groupe) ayant réussi à désorganiser la
distribution de carburant en Argentine en s'introduisant dans les
systèmes et en modifiant les bases de données. Une réunion
de crise a dû se tenir pour pallier aux problèmes et reprendre les
distributions. Ici, les enjeux deviennent très graves car cela touche
des infrastructures clés des Etats. Cependant, ce problème n'est
pas nouveau et les intrusions réalisées dans les systèmes
de la NASA ou du Département de la Justice par des hackers
motivés ont permis de mieux prendre en compte ce genre de
problème.
Enfin, la pédophile a trouvé en Internet un
moyen privilégié d'expansion. Le réseau Bouclier,
association de lutte contre la pédophilie en France aurait
recensé plus de 200 000 sites pédophiles sur Internet. Ainsi, la
pédophilie et ses conséquences deviennent un enjeu de premier
plan sur Internet.
La liste et la rapide description non exhaustive de ces
phénomènes liés à la cybercriminalité a
permis de montrer en quoi les individus, constitués en groupes ou en
« réseau » peuvent avoir une influence sur Internet et
engendrer des enjeux très importants sur Internet. On va maintenant
s'intéresser au phénomène du terrorisme uniquement en ce
qu'il est lié à Internet.
C- Terrorisme
59 A ce propos, en cas de doute, consultez
HoaxBuster.com.
Cette relativement courte partie aura pour objectif de montrer
la liaison entre Internet et les phénomènes terroristes. Si cette
liaison relève de l'intuition, nous allons montrer qu'elle peut
s'articuler autour des deux tendances principales.
La première tendance que l'on peut observer est que
jusqu'à il y a peu de temps, le terrorisme considérait Internet
comme un support de leurs activités et de l'organisation. En effet, un
certain nombre d'auteurs ont montré que plusieurs des responsables
d'Al-Qaïda maitrisaient parfaitement les technologies de communication
liées à Internet. L'excellent article de J. FOREST60
à propos du terrorisme montre que les démocraties, en raison,
notamment des libertés individuelles et de la capacité des
individus à accéder et à interagir sur Internet, ont un
désavantage stratégique dans ce qu'il appelle un champ de
bataille des communications. Plus important et inquiétant, il
étudie un site de propagande et de recrutement et plus
précisément, le concours de réalisation du site Internet
du mouvement. Le gagnant du concours remporterait la bénédiction
de Dieu et la possibilité de lancer trois rockets contre une base
américaine. Par ailleurs, une autre étude a recensé un
certain nombre de documents sur Internet montrant une préoccupation de
plus en plus importante des terroristes à viser des atouts
économiques américains ou occidentaux comme des pipelines. Pire
encore, ces documents donnaient des indications d'une remarquable
précision à propos des opérations de destructions
envisagées, éléments visiblement recensés à
partir d'Internet. Une organisation à but non lucratif, basée
à Washington et qui traque les terroristes internationaux a
découvert un document de 10 pages donc long et bien
détaillé, avec des liens vers des sites procurant des cartes et
des informations à propos de ce pipeline. L'auteur ajoute que les
islamistes extrémistes sont partout sur Internet et ont su
complètement s'intégrer et se dissimuler au sein du
réseau.
Par ailleurs, une interview réalisée a
apporté à ce mémoire des informations à propos
d'une opération contre un site Web, opération montée par
une agence gouvernementale. Cette opération a pu surveiller le site Web
en question mais le point important est que l'information quand à la
localisation et l'existence de tels sites ne venaient pas forcément
d'Internet. Et si, après des opérations longues, ils ont pu
accéder au site et à la personne qui l'hébergeait et le
gérait, on peut en tirer des conclusions relativement alarmantes. Tout
d'abord, les informaticiens n'appartenaient pas à l'agence en question
et donc, cela relativise la capacité de ces agences de renseignement
à utiliser Internet pour lutter contre le terrorisme. La longueur des
opérations techniques et le besoin de recourir à des tactiques
60 James J.F. Forest, The Democratic Disadvantage in the
Strategic communication Battlespace, Democraty and Security, N°1,
Jan.-Jun., 2006.
non pas basées sur Internet mais sur l'influence
humaine pour obtenir des informations montrent bien les problèmes que
pose Internet aux services de renseignement dans la lutte contre le terrorisme.
Enfin, il est tout à fait nécessaire pour obtenir des
informations fiables de savoir préalablement ce que l'on cherche et
où on le cherche.
Pour finir cette partie, il faut savoir que le 12 Mars 2007,
des terroristes reconnus comme proche de Ben Laden, ont essayé de
pirater un centre de stockage de données et d'hébergement parmi
les plus importants d'Europe. Ce centre héberge notamment des
informations concernant de très importantes institutions. TeleHouse
Center (nom du data center - centre de stockage de données) a
été attaqué pour perturber le fonctionnement de la bourse
d'après les enquêteurs. Les atteintes auraient pu perturber de
façon importante les banques et les institutions financières de
la City (comme la Bourse). Ces informations proviennent de la veille
stratégique. Cette attaque amorce peut-être un changement de
stratégie des terroristes qui paraissaient auparavant ne pas avoir
tenté ce genre d'opération selon Mr BREHAM et les informations
recueillies. Cependant, il semble peut probable qu'ils n'y aient jamais
pensé.
Ainsi se finit cette troisième partie sur les enjeux
politiques et en Relations Internationales que l'on peut trouver sur Internet
où à son propos. Nous allons donc maintenant nous
intéresser à une troisième partie nécessaire pour
relativiser la méthode et donner un certain recul aux propos tenus ici
et dans la première partie.
Troisième Partie : Vision critique
méthodique et quelques éléments
d'évolutions envisageables
Toute étude, toute recherche en science sociale se base
sur une méthode et sur un cadre d'analyse. La méthode, les outils
méthodologiques de recherche utilisés tout autant que le cadre
d'analyse présentent des défauts, des biais. Ces biais sont de
plusieurs natures : principalement, ils seront méthodologiques ou bien
normatifs. Méthodologiques lorsqu'on s'intéressera aux outils de
recherche et à leur utilisation, normatifs lorsqu'on
s'intéressera aux partis-pris du chercheur dans le cadre logique de son
analyse ou dans les développements. Cela constituera le premier sujet de
cette partie.
La seconde doit permettre de relativiser et de donner une
ampleur plus importante aux sujets traités dans ce mémoire. Ce
sera aussi le moment de donner un écho plus philosophique,
réflexif notamment en tenant compte des différentes croyances et
des différentes tendances des personnes interrogées ou des
auteurs des textes appartenant à la bibliographie.
I- Des outils de recherche biaisés par nature et
utilisation
De façon logique, ce développement sera
divisé en deux. La première partie sera consacrée aux
biais normatifs qui ont pu être développés par l'auteur de
ce mémoire au cours de la recherche et dans ces développements.
La seconde partie reviendra sur la capacité des outils
méthodologiques utilisés à approcher la
vérité et les biais méthodologiques qu'ils peuvent induire
par nature et par utilisation.
A- Biais Normatifs
On s'intéressera d'abord aux biais normatifs analytiques
avant de s'intéresser aux biais normatifs relevant plus du parti-pris ou
de l'opinion.
Par biais analytiques, on se réfèrera aux
limites du cadre d'analyse et du cadre logique utilisés et aux limites
dans l'utilisation de ces cadres de travail.
Le cadre d'analyse choisi était donc une analyse
stratégique. Le but était d'étudier et d'essayer de mettre
à jour les différentes « stratégies » que l'on
pouvait observer de la part des différents acteurs du système.
Cependant, le but final reste toujours la problématique qui est
d'essayer de montrer l'intégration d'Internet à
l'intérieur d'un cadre plus général, celui du
Système International. Cette volonté de pouvoir constater
l'intégration nécessitait deux vérifications : la mise
à jour d'acteurs identiques et déjà connus et le
développement de dynamiques déjà observées dans le
système international.
On peut se poser la question de savoir, et c'est une
première limite, si l'analyse stratégique a pu bien
établir cette analogie. En effet, si l'analyse stratégique a pour
but la reconstruction d'un système, on peut d'abord se demander si le
passage de ce système Internet ainsi construit au Système
International, est aussi facile que ce qu'il a été
prétendu au début de ce mémoire. En effet, une fois ce
système reconstruit, l'étude concernant l'analogie n'a sans doute
pas été assez poussée car cela aurait pu nécessiter
un second travail de réflexion en tant que tel.
Par ailleurs, une analyse stratégique se base sur un
certain nombre d'indicateurs dont la définition n'a pas
été assez précisée. Cela se retrouve notamment dans
l'exercice de veille stratégique : quels ont été les
indicateurs (identiques à ceux utilisés dans l'analyse
bibliographique) qui ont présidé aux choix des articles retenus ?
Cela n'a pas du tout été réalisé ou alors de
façon incomplète dans l'exposé sur l'analyse
stratégique et l'importance des relations de pouvoir.
Concernant les partis-pris ou les opinions, il est possible
d'en relever un certain nombre, essentiellement dus aux positions de l'auteur
sur certains sujets et à sa propre expérience.
On peut d'abord noter une certaine indulgence à
l'égard de certains acteurs. Les hackers, les membres d'Internet «
underground » ont toujours inspirés une certaine crainte
révérencielle et une certaine envie de pouvoir réaliser ce
qui est souvent désigné, sans doute à tort, par «
leurs exploits ». Par ailleurs, l'utilisation des moyens mis à
disposition par Internet pour obtenir de la musique à peu de coûts
ou bien des oeuvres cinématographiques ont un effet néfaste sur
le normal détachement qu'aurait dû éprouver l'auteur. De
manière générale, on peut noter un préjugé
favorable envers Internet, préjugé assez
généralisable malgré la
connaissance certaine des dérives très
dangereuses que peut apporter Internet (terrorisme, cybercriminalité
à grande échelle, soutien de la grande criminalité...).
Dans un autre registre, on peut noter un certain agacement de
l'auteur à la vue des menées orchestrées par les
états pour essayer de rattraper un retard dans la prise en compte de
leurs desideratas. En effet, la conception d'Internet défendue par
l'auteur reste très largement celle des débuts. Si l'auteur reste
persuadé de la nécessaire évolution de l'ICANN, ne
serait-ce que parce que la résistance aux pressions de toutes parts ne
sera possible que pour un temps, il n'est pas du tout certain que la gestion
par les états lui conserve les caractéristiques qui en font un
objet si précieux. Cependant, l'auteur néglige aussi très
certainement le problème déjà traité de cette
balkanisation d'Internet tout en restant sceptique devant une gestion
exclusivement privée ou « commerciale » de la ressource.
Enfin, l'excellent contact avec le personnel de l'ICANN n'a sans doute pas
aidé à garantir l'objectivité des analyses liées
à cette institution.
Ces quelques éléments développés,
nous allons maintenant essayer de réaliser une analyse critique des
outils méthodologique de recherche.
B- Biais Méthodologiques
Trois outils ont été principalement
utilisés : l'analyse bibliographique, l'entretien semidirectif et la
veille stratégique. Chacun de ces outils sera critiqué, à
la fois en tant qu'outil mais aussi et surtout dans leurs utilisations.
Le premier outil qui sera observé est celui de
l'entretien semi-directif. Le principal problème de l'entretien provient
de l'incapacité à contrôler complètement les
différentes relations qui existent et se nouent au cours de l'entretien.
Les biais qui peuvent se créer ainsi offrent prise à des
distorsions dans l'analyse et ne facilitent pas le détachement.
Malgré la grande qualité d'information que peut apporter
l'entretien, il n'est pas facile de garder un caractère
détaché. Par exemple, l'entretien réalisé avec la
représentant de l'ICANN, Mme INNE, s'est très bien passé,
à la fois, personnellement et en raison de la qualité
d'information et du fait qu'il m'a permis d'avoir un autre entretien non
prévu. Ce premier entretien très bien réussi m'a
gêné lors de la rencontre avec Mr POUZIN dont les opinions
critiques vis à vis l'ICANN contredisaient en partie les miennes et le
sentiment de l'entretien réalisé avec Mme INNE. Pour autant,
cette rencontre fut au moins aussi fructueuse et tout autant réussie
à mon
sens. Dans un autre registre, la grille d'entretien qui a
été utilisée, pour autant qu'elle témoigne de
l'organisation logique du mémoire, n'a pas été du tout
facile à suivre lors de ces entretiens. Sa construction sans doute trop
idéale et trop intellectuelle n'a pas facilité l'entretien bien
que ceux-ci aient été dans l'ensemble une réelle mine
d'information. Par ailleurs, le nombre d'entretiens est insuffisant et il
aurait été nécessaire de rencontrer au moins un
représentant de chaque acteur envisagé. Cependant, l'obtention
d'entretiens avec ce type de personne à responsabilités est
difficile et le temps de réalisation, court.
L'analyse bibliographique, quant à elle, n'a pas
posé de réels problèmes. Les réputations des
périodiques choisis témoignent en général de leur
sérieux. Cependant, reste le problème de la vérification
des sources, pas toujours évident et la persistance d'un certain nombre
d'erreurs trouvées dans certains articles. Cependant, ces erreurs
qualifiées ainsi par l'auteur le sont notamment d'après d'autres
sources de même niveau ou de réponses apportées au cours de
l'entretien peut-être avec un certain parti-pris. Par ailleurs, le corpus
de texte a pu être assez réduit en raison de la
méconnaissance de l'auteur à propos du champ des
périodiques spécialisés, il s'est donc
référé à ceux disponibles à la
bibliothèque universitaire. Il est à noter cependant, l'aide
très importante apportée par Internet dans la recherche et
l'acquisition des articles de ces périodiques. La dernière
critique que l'on peut émettre concerne la qualité des analyses
que l'on peut remettre en cause. En effet, le manque d'expérience et de
connaissances de l'auteur a sans doute conduit à de mauvaises
conclusions ou estimations des données ou des propos recueillis à
certains endroits.
Concernant la veille stratégique, les critiques sont
facilement identifiables. Premièrement, le nombre de sites choisis est
réduit et malgré leurs remarquables contenus, certaines choses
ont certainement été oubliées. Par ailleurs, le temps
réduit d'observation (2 mois), s'il a pu permettre l'observation de
phénomènes isolés ne peut réellement suffire
à émettre des conclusions plus générales.
Avec cela se terminent les critiques que l'on peut adresser
d'un point de vue méthodologique aux travaux précédents.
La partie suivante aura un caractère plus libre, notamment en mettant en
valeur les différents courants de pensée, ce qui permet de
relativiser les affirmations et les résultats de la seconde partie. On
comprendra ainsi mieux la position de certa ins acteurs.
II- Que faut-il attendre des évolutions
d'Internet ?
61 Anarchiste américain
Cette partie, plus libre sera notamment constituée des
divers éléments recueillis au cours des entretiens ou bien des
tendances diverses auxquelles appartiennent les différents
théoriciens et chercheurs qui ont écrit sur Internet et les
différents acteurs.
La première tendance à laquelle on
s'intéressera relève de l'antiaméricanisme. Cette tendance
relayée par une partie des médias en France et à
l'étranger a sans doute cristallisé une partie de l'opinion et
permis aux états de se positionner dans une logique d'opposition
relativement stérile. En effet, si l'intention des Etats-Unis a pu
être de donner une indépendance totale à l'ICANN, il n'en
est désormais plus rien. Cependant, il faut bien voir que les
modèles actuels de gestion, de gouvernance paraissent
complètement inadéquats face à une ressource telle que
celle-ci. Au cours de l'entretien, Mme INNE a pu ainsi admettre que
malgré leurs revendications fortes, les gouvernements n'avaient pas de
proposition viable ou de plan de transition. La position de Mr POUZIN
paraît à cet égard beaucoup plus intéressante car
malgré ses critiques sur le gouvernement américain et sur
l'ICANN, ses revendications linguistiques ont la qualité technique
suffisante pour être écoutées et de plus, cet enjeu,
très politique n'est pas celui, inabordable en tant que tel d'une
gouvernance globale. A cet égard, le peu d'articles que j'ai
trouvé à propos d'Internet dans les périodiques
français de Relations Internationales et les possibles fautes ou
à tout le moins, le manque de précision qui y a été
décelé montrent bien l'incapacité latente à
maîtriser totalement le sujet.
Mr BREHAM a pu faire établir une liaison entre certains
« espaces » d'Internet et les zones d'autonomie temporaire
décrites par Hakimbey61. L'émergence de telles zones
de liberté où la notion d'Etat devient quelque peu floue,
lointaine et éloignée permet sans doute de comprendre la remise
en question de nos sociétés que l'on peut y trouver. Cette
allusion engendre plusieurs remarques, la première est que cela peut
constituer une explication aux phénomènes de répression
que l'on peut observer dans les pays à régime autoritaire. La
seconde se retrouve dans la référence relativement persistante
qu'a pu faire Mr POUZIN à l'Etat. En effet, sa proposition par exemple
de considérer le routage et le service DNS en fonction d'une
répartition territoriale par états est sans doute
intéressante mais elle remet
« dans le jeu » l'Etat alors qu'il est aujourd'hui
relativement absent même si les problématiques actuelles et les
enjeux y font clairement référence.
Au final, on peut établir trois tendances de
pensées et de positionnement face à Internet. Ces trois «
modes » de pensées sont le fruit d'un travail de réflexion
beaucoup plus transversal des éléments que j'ai pu réunir
et ne constituent pas une analyse en tant que tell e.
Le premier mode de pensée est celui qui a
présidé à la création d'Internet. Il s'agit d'une
conception universitaire de la ressource et c'est notamment celle de la plupart
des ingénieurs et universitaires qui ont participé au projet.
C'est aussi celle qui a conduit J. POSTEL à écrire certaines des
conditions des RFC, notamment sur la non-appartenance et le caractère de
ressource commune d'Internet. C'est encore cette vision qui lui a dicté
sa gestion particulière des CCTLD en son temps. Des auteurs comme
Laurence LESSIG développent bien cette vision et insistent bien sur
cette notion de bien commun appartenant à tous. Dans cette vision,
l'ICANN, bien que lié au gouvernement ne doit pas être
considéré comme la « bête noire » de la
démocratie à propos d'Internet. C'est donc une vision très
idéaliste d'Internet et les conséquences paraissent cependant
incertaines quant à la suite à donner. Une chose reste certaine :
la volonté sans faille qu'Internet garde ce potentiel de liberté
et de créativité qu'il a. On peut peut-être y voir aussi la
volonté d'un certain statu-quo.
Le second mode de pensée est plus «
économique ». Ses premières conséquences se sont
produites lors du contrat signé par Network Solutions à propos de
la gestion du .com. Il existe, comme le montre LESSIG, une certaine tendance
aux Etats-Unis à vouloir faire gérer le plus possible toutes les
ressources « délicates » par le secteur privé.
Hérité entre autres, sans doute, de la peur d'un certain
absolutisme et d'une présence trop importante de l'Etat, cette vision
prône que le meilleur avenir pour Internet se trouve dans une gestion
plus importante de la ressource par le secteur privé. Evidemment, les
profits que l'on peut envisager d'une gestion d'Internet par ce biais sont
énormes et l'on comprend mieux ainsi les objectifs de cette vision. Par
ailleurs, il n'est pas certain que cela n'entraîne pas une
réduction du potentiel d'Internet, notamment si des personnes morales
privées ayant plus d'intérêt dans un système sans
Internet (les majors de la musique, du DVD...) participent à la gestion
de la ressource.
Le dernier mode de pensée est celui que l'on pourrait
nommer « public » ou encore « étatique ». Si on peut
le considérer comme le « paradigme » montant, les
conséquences qui en sont issues sont encore assez rares. Les questions
de souveraineté, de sécurité, de
dépendance ont une telle importance pour les
états que leurs protestations et revendications de plus en plus
importantes à participer à la gestion d'Internet ne peuvent
continuer longtemps sans avoir des conséquences. En effet, il ne faut
pas oublier les dernières innovations de la Chine en matière
d'Internet, les SMSI et la volonté de l'ONU de se saisir du
problème et la volonté partagée par tous les états
de se voir confier la gestion et le contrôle d'Internet, que ce soit
personnellement ou bien alors au sein d'une structure qu'ils contrôlent
parfaitement en tant qu'Etats. Si l'ONU reste une organisation où les
Etats ont le pouvoir, leur présence à l'ICANN ne leur apporte pas
de pouvoir de décision. Cependant, il est évidemment certain que
la gestion par l'ONU d'Internet ne saurait garantir une meilleure
sécurité sur Internet tout en garantissant le maintien du
potentiel d'Internet. Au final, cette vision, à priori une des plus
raisonnables, pourrait cependant apporter la fin d'Internet tel qu'il existe
aujourd'hui.
Conclusion
Après une critique difficile mais que l'auteur a
essayé de rendre la plus objective, nous allons pouvoir conclure.
La conclusion a pour but premier de revenir sur les
hypothèses et la problématique de départ. Aussi, c'est ce
que nous allons faire. Le but de départ était de réaliser
une analyse stratégique à propos d'Internet et de ses enjeux. La
question que l'on peut se poser est si cet objectif a été
atteint. De même, une réponse à la problématique
a-t-elle été trouvée ? Les hypothèses ont-elles
été validées ?
Concernant l'analyse stratégique, le travail
effectué a permis l'appréhension réelle d'un
Système Internet. En effet, les différents acteurs ont
été étudiés dans la seconde partie, de même
que les relations de pouvoir ont été explicitées au
travers de plusieurs exemples. Ainsi, on peut réellement affirmer que la
partie analyse stratégique a été correctement faite. La
lecture de ce mémoire prouve bien l'existence d'un système
Internet avec ses spécificités, ses acteurs, ses relations et ses
évolutions sur un mode bien particulier.
A propos de la problématique et des hypothèses,
il faut consacrer un rapide exposé à cette question. La
problématique posait une première question, qui conduisait
à la première hypothèse de l'existence d'un système
bien particulier, original qui aurait obligé les acteurs à se
mobiliser et à créer les diverses compétences pour faire
exister les opportunités. L'existence de ce système est
avérée, non seulement grâce aux preuves qui ont conduit
à l'écriture du paragraphe précédent mais aussi
grâce aux démonstrations qui ont eu lieu dans la première
partie et qui ont bien montré l'existence d'un tel système. La
mobilisation des acteurs a été prouvée par la seconde
partie.
La seconde présomption de la problématique
concernait les acteurs et les dynamiques. S'appuyant une fois encore sur les
deux parties, on peut affirmer que la plupart des acteurs habituellement
présents dans le Système International ont été
abordés et traités démontrant ainsi leur existence dans le
Système Internet. Cependant, la différence est nette en ce qui
concerne l'ONU ou les organisations internationales dont l'influence ici n'a
pas du tout le poids même symbolique qu'il peut avoir dans les affaires
de la politique
internationale. Cependant, cela évolue très vite
et étant donné l'incapacité des SMSI à faire
changer l'état actuel, cela pourrait être amené à
évoluer. Par ailleurs, l'individu acquiert ici une importance qu'il n'a
jamais eue dans les relations internationales auparavant. Souvent décrit
au travers de sa fonction ou bien de son style, d'éléments assez
peu en rapport avec sa capacité d'action, l'individu sur Internet peut
avoir une force déstabilisante bien plus importante et décisive
parfois. Concernant les ONG et autres associations internationales, les
résultats restent mitigés avec la présence très
grande de la société civile au SMSI, constituée souvent en
association comme a pu le faire Mr POUZIN. Cependant, l'acteur a dû
évoluer pour avoir une réelle présence dans le
Système Internet. Concernant tous les autres acteurs, la preuve
paraît avoir été faite de leur présence et de leur
influence en tant que tel.
Concernant les dynamiques, le travail paraît avoir mis
à jour des problématiques ayant trait à la
Sécurité, à la Souveraineté et à la Culture
pour les états, à l'enrichissement et l'accès à une
ressource dans les meilleures conditions qui puissent exister pour les
entreprises. Il faut noter aussi l'existence de problématiques de
développement partagé, des problématiques souvent
associées aux ONG. Aussi, la mise en exergue de toutes ces dynamiques
paraît valider l'hypothèse de l'équivalence des dynamiques.
Ayant validé à la fois les acteurs avec des nuances mais aussi
les dynamiques, on peut donc affirmer que la seconde hypothèse est
partiellement validée.
Avec la validation même partielle de cette
hypothèse, on peut affirmer donc avoir répondu à la
problématique. Internet peut donc être considéré
comme une dimension nouvelle du Système International. Cependant, cet
objet ne doit pas être réduit à cela en ce qu'il bouleverse
la donne internationale en faisant interagir des acteurs habituellement absents
ou moins présents. Si l'aspect original d'Internet prend peut-être
le pas sur l'aspect équivalent, on peut néanmoins affirmer que si
pour le moment, Internet est et reste une nouvelle dimension du Système
International (et doit être considéré comme telle), on peut
envisager des bouleversements de ce Système ou bien des bouleversements
d'Internet afin de rétablir un certain équilibre. En bref, soit
le Système s'adapte, soit Internet s'adapte.
La fin de la troisième partie a permis de mettre
à jour diverses conceptions du système, trois conceptions
différentes que l'on pourrait nommer Idéaliste, Commercial et
Etatique. Il serait intéressant de porter un intérêt plus
grand à certaines de ces conceptions car il ne faut pas douter
qu'Internet de demain sera issu des conflits et des affrontements de ces
visions.
Par ailleurs, l'étude des différents
modèles de gouvernance et de l'essoufflement des modèles
traditionnels constituerait une approche de théorie politique
particulièrement intéressante, ces théories pouvant
être aussi étudiées d'un point de vue stratégique ou
de
théorie des jeux. De même, il serait à la
fois opportun, pertinent et stratégique de réaliser une
étude à propos de l'approche d'Internet par les terroristes
notamment en raison de leurs dernières actions à
Londres.62
Enfin, l'étude d'Internet dans les relations
internationales dans une optique de Théorie des Jeux, issue des travaux
de Norbert Elias ou J. NASH serait susceptible de donner des résultats
très intéressants et pertinents afin d'évaluer les
évolutions et les méthodes employées pour obtenir ces
évolutions, notamment dans une perspective de Relations
Internationales.
FIN
62 Voir la seconde partie, le développement à
propos du terrorisme.
Bibliographie
Ouvrage :
Dufour, A., & Ghernaouti-Hélie, S. (2006). Internet :
Que sais-je ?
Godeluck, S. (2002). La Géopolitique d'Internet : La
découverte
Guisnel, J. (2005).Guerres dans le Cyberespace - Services secrets
et Internet : La Découverte
Manuel :
Blanchet A., (2000). Les techniques d'enquête en sciences
sociales - Interviewer : Ed. DUNOD. P. 81-126.
Beaud, S. & Weber, F. (2003). Guide de l'enquête de
Terrain : Ed. La découverte.
BACH ELET, R., Cours de Sociologie des organisations : L'analyse
stratégique des projets - Cour dispensés à L'Ecole
Centrale de Lille.
CROZIER, M., & PAVE, F. (1994) Analyse Stratégique -
Colloque de Cerisy : Ed. Du Seuil, p. 133-153.
LACOSTE, J.M., (2006), Cybercriminalité Internationale,
Cours dispensés dans le cadre du Diplôme Universitaire de Droit
Pénal International et Analyse des Conflits - Université Toulouse
1.
Périodique :
Dossier : Géopolitique de l'Internet, Politique
Etrangère, 2006,3.
Dossier : La communication, enjeu stratégique, La Revue
Internationale et Stratégique, 56, Hiver 2004-2005.
SWETT, C. (1998), L 'Internet : Evolution stratégique,
Revue Stratégique, N°69.
FALQUE PIERROTIN, I., Internet et le droit à la
Sécurité, Cahiers de la Sécurité Intérieure,
N°34.
GRAMOVSKY, SMITH & RIGHT, Nouvelles technologies, Nouveaux
Délits, Cahiers de la Sécurité Intérieure,
N°34.
BOISSEAU, G., Tiers de Confiance ou de Défiance - La
sécurité collective face à la cryptographie
asymétrique, Cahiers de la Sécurité Intérieure,
N°34.
Phil Williams, Timothy S., & Dunlevy C., Intelligence
Analysis for Internet Security, Contemporary Security Policy, 23:2, 1 -38.
Faisal O. Al-Rfouh, Mass Communication and National Security,
Democracy and Security, 1:1, 41 - 62.
James J.F. Forest, The Democratic Disadvantage in the Strategic
communication Battlespace, Democraty and Security, N°1, Jan.-Jun.,
2006.
DEBAT, A., La Planète Renseignement, Politique
Internationale, N°102, Hiver 2003-2004. GAUDEUL, A. & JULIEN, B.,
Revue Economique, 2001
Nazli Choucri, International Political Science Review / Revue
intern ationale de science politique, Vol. 21, No. 3, CyberPolitics in
International Relations. CyberPolitique et relations internationales. (Jul.,
2000), pp. 243-263.
Christian Brodhag, International Political Science Review /
Revue internationale de science politique, Vol. 21, No. 3, CyberPolitics in
International Relations. CyberPolitique et relations internationales. (Jul.,
2000),pp. 311-327.
Max Kaase, International Political Science Review / Revue
internationale de science politique, Vol. 21, No. 3, CyberPolitics in
International Relations. CyberPolitique et relations internationales. (Jul.,
2000), pp. 265-282.
David Lewis Feldman, International Political Science Review /
Revue internationale de science politique, Vol. 21, No. 1., (Jan., 2000), pp.
23-42.
SHAPIRO, A., The Internet, Foreign Policy, N°115, 1999.
LITAN, R., The Internet Economy, Foreign Policy, N° 123,
2000. KALATHIL, S., China's Dot-Communism, Foreign Policy, Jan.-Feb. 2001
KALATHIL, S., Dot Com for Dictators, Foreign Policy, Mar.-April 2003. KEARNEY,
A. T., Measuring Globalization, Foreign Policy, N° 134, 2003. DREZNER, D.
W., Sovereignty for Sale, Foreign Policy, Sep.-Oct., 2001. LESSIG, L., The
Internet Under Siege, Foreign Policy, Nov.-Dec. 2001.
KRASNER, S. D., Sovereignty, Foreign Policy, Jan.-Feb. 2001.
HACHIGIAN, N., China's Cyber Strategy, Foreign Affairs,
Mar.-April. 2001.
HAMMOND, A. L., Digitally Empowered Development, Foreign Affairs,
Mar.-April 2001. BLEHA, T., Down to the Wire, Foreign Affairs, May-June
2005.
BAIRD Z., Governing Internet, Foreign Affairs, Nov.-Dec. 2002.
CUKIER, K.N., Who will control the Internet?, Foreign Affairs,
Nov.- Dec. 2005. CUKIER, K.N., No joke, Foreign Affairs, December 2005.
KEOHANE, R., & NYE, J., Power and Interdependence in the
Information Age, Foreign Affairs, V. 77, 5.
KOLH MAN N, E.F., The real Online Terrorist Threat, Foreign
Affairs, Sept.-Oct. 2005. BARSHEFSKY, C., Trade Policy for a Networked World,
Foreign Affairs, Mar.-Apr. 2001. BLEHA, T., & WEISER, P. J., Which
broadband Nation?, Foreign Affairs, Sept.- Oct. 2005.
LASSERRE, F., Les Hommes qui voulaient être Roi -
Principautés et Nations sur Internet,
Analyses et Perspectives, N°1, 2000.
Presse :
RAMONET, I. Menaces sur l'information, Le Monde Diplomatique,
Janvier 2007. KLINNENBERG, E. Médias en Amérique, Le Monde
Diplomatique, Janvier 2007.
Site Internet :
www.isoc.fr : Chapitre
français du site de l'Internet Society, organisme à but non
lucratif représentant les internautes de la planète.
www.homo-numericus.net/breve843.html
: Dernier sommet de l'Internet Governance Forum.
www.journaldunet.com/0611/061103-icann.shtml
: même sujet
www.hcci.gouv.fr/lecture/note/nl150.html
: notes de lecture sur « la géopolitique d'Internet »,
ouvrage cité dans la précédente bibliographie
www.homo-numericus.net
: même sujet
www.enssib.fr : notes de
lecture sur « Guerres dans le cyberespace », ouvrage cité dans
la bibliographie.
http://fr.wikipedia.org/wiki/Accueil
: Encyclopédie libre en ligne Wikipédia.
http://www.nicolas-guillard.com/cybergeography-fr/atlas/cables.html
: Atlas concernant les télécommunications.
Sites utilisés pour la veille stratégique
:
http://news.google.fr/?ned=fr&topic=t
: Site de Google News, partie « Science-Tech ».
http://www.pcinpact.com/
http://www.generation-nt.com/
http://www.zdnet.fr/actualites/
http://www.zataz.com/
http://strategique.free.fr/
ANNEXES
Annexe 1 Organisation hiérarchique et
liste des noms de domaines
63
63 Image extraite de : Dufour, A., & Ghernaouti-Hélie,
S. (2006). Internet : Que sais-je ?
Annexe 2 Grille d'entretien utilisée
Mémoire : Analyse stratégique d'Internet
(Qui, Quoi, Où, Quant, Comment, Combien)
Présentation :
- Qualité de l'Interviewé
- Travail
- Domaine
- Expériences
Analyse des Dynamiques et des tendances : Cadre
professionnel :
- Que se passe-t-il dans son domaine qui se passe sur Internet
et dans le
monde et qui atteint le coeur de son travail, sa raison
d'être ? (tri)
- En quoi votre travail est-il lié à Internet ?
En quoi utilise-t-il Internet ? En quoi
Internet a-t-il modifié votre travail ? La façon
de faire votre travail ?
- Pourquoi ? Causes ?
- Comment ? Modalités ?
- Conséquences ?
Perceptions personnelles :
- Que se passe-il sur Internet en général ?
- Pourquoi ?
- Comment ?
- Conséquences ?
Analyse des acteurs et de leurs activités :
Cadre professionnel :
- Qui sont les parties prenantes aux
évènements décrits avant ?
- Activités sur Internet et dans le monde ?
- Modalités de leurs actions sur Internet et dans le monde
?
- Responsabilités
- Prérogatives
- Revendications
Perceptions person nelles :
- Qui sont les parties prenantes aux dynamiques
décrits avant ?
- Activités sur Internet et dans le monde ?
- Modalités de leurs actions sur Internet et dans le monde
?
- Responsabilités
Prédictions et Prescriptions : question libre,
éléments de connaissance à gagner qui auraient
été oubliés dans les questions précédentes
:
- Que pensez-vous de l'avenir d'Internet ?
- Quelles sont les formes de régulation ou de gouvernance
qui vous paraissent le plus adaptée ?
- Quel est le débat ou le problème sur Internet le
plus important du moment pour vous ?
Annexe 3
Accès Internet dans le Monde
64
64 Image extraite de : Nazli Choucri, International Political
Science Review / Revue intern ationale de science politique, Vol. 21, No. 3,
CyberPolitics in International Relations. CyberPolitique et relations
internationales. (Jul., 2000), pp. 243-263.
Annexe 4
65 Ibid.
Vision stylisée de la Fracture Numérique
65
Annexe 5
Répartition des infrastructures de
télécommunication
66
66 Câbles sous-marins d'Alcatel seulement. Publiée
sur le site :
http://www.nicolasguillard.com/cybergeography-fr/atlas/cables.html
.
67
67 Ibid. Réalisée par le cabinet
TeleGeography.Ink.
Annexe 6
Répartition de la langue maternelle des Internautes
sur le réseau
68
68 Dossier : La communication, enjeu stratégique, La Revue
Internationale et Stratégique, 56, Hiver 2004-2005.
|