Le paradigme de la relation banque - clients dans les services bancaires sur internet( Télécharger le fichier original )par Sébastien ENONGA Université Catholique d'Afrique Centrale - Option Quantitative de la Maitrîse en Economie de Gestion 2006 |
2. Le développement d'Internet en questionInternet est le produit d'une longue histoire de Recherche - Développement sur les réseaux d'ordinateurs. L'idée d'associer informatique et télécommunications est née avec l'ordinateur dans les années soixante. Plusieurs normes d'échange de données se développent en même temps et celle qui permet de résister à des ruptures des réseaux de télécommunications, et donc à une attaque nucléaire, inventée en 1964 en Californie par Paul Baran, prend le dessus, avec le soutien des centres de recherche militaires américains. L'adoption du protocole TCP/IP par la Fondation Nationale de la Recherche pour constituer un réseau national à haut débit donne un coup de fouet à la recherche et Internet s'étend. Le world wide web, synthèse des protocoles existants, qui permet l'accès à des bases de données hétérogènes, est inventé au Centre de recherche nucléaire, le CERN, à Genève. En Amérique du Sud, les grandes universités ont été reliées d'abord, mais ce sont des ONG, en particulier l'Alliance for progressive communication (APC) qui ont développé le courrier électronique. En Afrique francophone, le réseau RIO de l'ORSTOM puis celui de l'AUPELF ont été précurseurs. Dès le début des années soixante - dix, les grandes entreprises et notamment les banques développent des réseaux de terminaux dont certains traversent l'Atlantique. Ces réseaux sont centralisés. Des terminaux alphanumériques permettent d'interroger des bases de données et plus rarement d'envoyer des messages électroniques vers l'utilisateur d'un autre terminal. Le « réseau » est composé d'un ordinateur et de terminaux. L'interconnexion non plus de terminaux mais d'ordinateurs, c'est-à-dire de calculateurs fonctionnant chacun de manière autonome, rend nécessaire la définition d'un standard de communication appelé « protocole ». Les premiers protocoles de réseaux sont propriétaires, c'est à dire mis au point par et pour une marque et un type de machine. Le premier standard non propriétaire qui va permettre de relier de très nombreux ordinateurs est appelé « réseau à commutation de paquets » (norme X 25). Il est mis en service en France à la fin des années soixante - dix avec le Réseau Transpac, puis généralisé à de nombreux pays, notamment européens. Le réseau Minitel synthétise le savoir de l'époque en plaçant sur un même réseau des ordinateurs hétérogènes (serveurs) et des terminaux. Il s'appuie sur Transpac. L'utilisateur dispose d'un terminal bon marché, très simple à utiliser et choisit un service, sans avoir à se soucier de la liaison et du type d'ordinateur avec lequel il est en contact. Le réseau Minitel lui apparaît comme un ensemble homogène. Au début des années quatre - vingt, plusieurs millions de Minitels sont en service. Le premier réseau télématique grand public est né. Il faudra attendre 15 ans pour qu'il soit détrôné, définitivement, par Internet. Dès le début des années soixante - dix, les chercheurs en physique et informatique s'intéressent à la « téléinformatique ». Ils ont besoin d'accéder à des bases de données éloignées (notamment de la Côte Ouest à la Côte Est des Etats-Unis, et réciproquement) et d'effectuer leurs calculs sur les ordinateurs les plus puissants. De multiples techniques, plus ou moins bricolées sont utilisées. Deux grands réseaux émergent : Bitnet et UUCP, BitNet et EARN. Les ordinateurs de l'époque étaient d'énormes machines occupant plusieurs dizaines de mètres carrés et coûtant plusieurs millions. En échange du choix d'IBM49(*), la compagnie offrait, dans le cadre de son programme d'aide aux universités, une ligne spécialisée pour relier le site à un autre du même type. BitNet a ainsi constitué un réseau maillé de tous les grands centres de calcul. Cela a aidé la firme à marginaliser ses concurrents dans ce secteur et à mettre au point des protocoles réseau de plus en plus fiables. Le programme à été étendu à l'Europe occidentale et s'est appelé EARN (European Academic Research Network). Ce réseau a incontestablement été le plus important des précurseurs. BitNet et EARN comptaient plus de 3000 noeuds dans 40 pays et des dizaines de milliers d'utilisateurs à la fin des années quatre - vingt. Aujourd'hui, les réseaux Bitnet et EARN se sont "convertis" à Internet dans lequel ils ont réinvesti une bonne part de leur expérience. UUCP est le nom d'un protocole (Unix to Unix Copy Program) qui permet à deux machines d'échanger des données à travers le réseau téléphonique. Il désigne aussi un réseau basé sur cette technique. Lorsque BitNet et EARN faisaient communiquer les grands centres de calcul équipés de "main frame", UUCP reliait les petites équipes disposant d'ordinateurs plus modestes (mini-ordinateurs). En 1990, UUCP comprenait plusieurs dizaines de milliers de noeuds. Mais le réseau était moins fiable que celui d'IBM. Ce réseau s'est entièrement fondu dans l'Internet aujourd'hui. Le protocole UUCP est encore utilisé pour accéder au « e-mail50(*) » avec un modem lent ou une ligne téléphonique bruyante. Il reste très apprécié des associations qui peuvent développer des services réseau pour un coût minimum. En 1964, Paul Baran, chercheur de la Rand Corporation, définit un réseau de communication sans concentrateur, ni commutateur central, supportant des liens redondants et capables de résister à des ruptures de liaisons Télécom et donc à une attaque nucléaire. En 1969, une première expérimentation de cette technologie est testée à l'UCLA (Université de Californie à Los Angeles) puis étendue au début des années soixante - dix entre les ordinateurs des centres de recherche militaires américains (ARPA). En 1972, le réseau ARPAnet relie 37 noeuds. Afin d'améliorer le protocole NCP (Network Control Protocol), un groupe de travail est constitué par l'ARPA. C'est au sein du « InterNetwork Working Group » que vont se retrouver Vint Cerf et Bob Kahn pour mettre au point « IP » (Internet Protocole), puis « TCP » (Transfert Control Protocol), c'est à dire la base technique fondamentale de l'Internet. En 1983, l'Université de Berkeley travaille à l'intégration de TCP/IP dans le système d'exploitation UNIX. Cette nouvelle version, appelée « UNIX BSD » va être adoptée par les jeunes industriels de la « Silicon Valley » qui préparent une nouvelle génération d'ordinateurs : les stations de travail. Ces machines vont connaître un succès étonnant dans les milieux scientifiques. D'une puissance très supérieure aux micro-ordinateurs individuels, elles offrent des possibilités nouvelles en matière de graphisme et d'images comme de réseau. Intégrant sur une même plate-forme, toutes les fonctionnalités nécessaires aux travaux scientifiques, elles vont être diffusées dans toutes les universités américaines puis européennes. La station Sun en est la réalisation la plus caractéristique. En 1984, la National Science Foundation (NSF) aux Etats-Unis lance un programme d'équipement en « super-ordinateurs ». Ces calculateurs « vectoriels » de grande puissance et d'un coût élevé, doivent être partagés par plusieurs universités. La NSF décide de constituer un réseau national à haut débit (56 Kbs) reliant les supers ordinateurs et d'installer des dessertes régionales vers les universités. La norme TCP/IP est choisie pour l'ensemble du réseau. « NSFnet » va ainsi devenir l'épine dorsale de ce qui s'appelle aujourd'hui Internet. Très vite, le réseau est exploité bien au delà des objectifs fixés. Le judicieux choix technologique des dirigeants de la NSF lui confère des possibilités très étendues. Au lieu du simple partage d'un super calculateur, il permet l'interconnexion deux à deux de tous les ordinateurs du réseau. Son succès va être tel que, dès 1987, le débit des lignes principales sera multiplié par 20 (1,5 Mbs) et puis à nouveau par 30 (45 Mbs) en 1992. L'accès aux bases de données et le courrier électronique deviennent les principales applications du réseau. Chaque station de travail du réseau constitue un serveur d'informations en même temps qu'un poste d'accès aux autres serveurs. Les universités développent des banques de logiciels et des bibliothèques électroniques ; elles les mettent à la disposition de la communauté scientifique. Ces informations peuvent être copiées sans droit d'auteur. La libre circulation des produits de la recherche à travers Internet va donner un coup de fouet à la production scientifique et créer aux Etats-Unis une « culture informatique » dont on n'a pas encore tiré tous les enseignements. Très vite, l'expérience de NSFnet fait école. Internet s'étend plus ou moins rapidement à tous les pays développés. La croissance de Internet est impressionnante, de 200 machines reliées en 1981, on atteint 200 000 en 1990 et plus de deux millions actuellement. Il est indéniable que le caractère ouvert - publicité des standards et des méthodes, gratuité et accès aux sources des logiciels - a considérablement favorisé l'imagination et l'innovation. Aux services de base de TCP/IP, que sont le courrier électronique (SMTP pour Simple Mail Transfert Protocol), le transfert de fichier (FTP pour File Transfert Protocol) et l'accès à distance (Telnet pour Terminal Network), vont très vite s'ajouter de nouveaux services. Le système d'information (NNTP) est repris des réseaux UUCP et le système de liste est hérité de BitNet. Puis Wais va permettre d'indexer des bases de données documentaires et d'effectuer des recherches sur un réseau mondial de ces bases. Gopher, en 1991, est le premier navigateur multimédia. Il sera vite détrôné par le Word Wide Web qui réussit la synthèse des expériences et protocoles pré-existants dans une interface unique. Inventé au CERN à Genève (par Tim Berners-Lee en 1991), il est destiné, au départ à faciliter l'accès à des bases de données hétérogènes et dispersées à travers les laboratoires de physique du monde entier. C'est l'interface « Mosaïc » développée par le NCSA (National Center for Supercomputing Applications - University of Illinois) qui le fait découvrir au delà de la communauté des physiciens. Le « Web » est aujourd'hui confondu avec Internet. C'est cette technologie qui a fait du réseau Internet un grand réseau de télématique grand public, détrônant tous les systèmes antérieurs et notamment le Minitel. Depuis 1993, des fournisseurs d'accès proposent Internet par téléphone et dans le même temps, les modems se sont perfectionnés passant de 9600 bits par seconde en 1992 (soit environ 1000 caractères) à 56 000 bps (6000 caractères) en 1997. La progression du réseau continue autour de 90 ou 100 % par an tant en terme d'abonnés qu'en termes de services d'information. Chaque entreprise a son site et les particuliers s'y mettent. La croissance de la demande de « bande passante » est telle que le système reste au bord de la saturation malgré de constantes améliorations des réseaux. Le son haute fidélité et l'image animée sont exigés par les l'internautes. L'accès par téléphone a maintenant donné son maximum. L'Amérique latine a été le premier « continent du Sud » a être relié. Les grandes universités de Sao Paolo et Rio de Janeiro étaient dans le réseau Bitnet dès la fin des années 1990. Mais c'est la technologie UUCP portée par des ONG qui a initié le plus grand nombre de pays au « courrier électronique ». Les principaux acteurs ont été l'APC (Alliance for Progressive Communication, http://www.acp.org) en Amérique latine et l'ORSTOM (devenue IRD, Institut de recherche pour le développement) avec le projet RIO en Afrique. Ces réseaux, reliés entre eux et connectés tant à Internet naissant qu'à BitNet et EARN, assuraient essentiellement des services de messagerie et de conférence électronique. En 1992, au Sommet de la Terre (Conférence de l'ONU sur l'Environnement et le Développement) à Rio de Janeiro, les réseaux de l'APC et de l'ORSTOM ont assuré un service de communication entre les délégations et leurs bases. En Afrique francophone, l'aventure de l'Internet a commencé à Dakar, en 1989 avec l'installation d'un serveur Sun Microsystemes au Centre de Recherche océanographique. L'ORSTOM avait décidé d'associer ses partenaires africains à la construction des « réseaux de la recherche », l'acronyme Internet n'était pas encore en vogue. Ce réseau baptisé « RIOnet » s'est très rapidement étendu aux autres pays francophones. En 1993, il reliait une centaine d'établissements dans les pays suivants : Sénégal, Mali, Niger, Burkina-Faso, Côte d'Ivoire, Cameroun, Congo, Madagascar et Guinée-Conakry. Basé sur une association des technologies TCP/IP (grappes locales) et UUCP (liaisons de moyenne et longue distance), il est relié aux autres réseaux européens et américains à travers une passerelle située à Montpellier et une autre à Rocquencourt (INRIA). A partir de 1992, le projet RIO de l'ORSTOM veut accélérer la prise en main du réseau par les établissements et structures africaines. Il encourage la création de centres d'enregistrement des noms de domaine, les Network Information Center (NIC) afin de créer les bases des domaines nationaux. C'est ainsi qu'on été ouvert le domaine « sn » par l'ENSP (aujourd'hui école polytechnique) de Dakar, « bf » par l'ESI à Ouagadougou (aujourd'hui à Bobo-Dioulasso), « mg » par l'ESPA à Antananarivo, « ci » par l'INSET de Yamoussouko, « ml » par le CNRST de Bamako, « cm » avec l'Ecole Polytechnique de Yaoundé. D'importantes opérations de formation sont engagées afin de renforcer les capacités nationales dans chacun de ces pays. Le programme « Internet en Afrique » est lancé en collaboration avec l'Institut de formation de l'ONU, l'UNITAR (United Nations Institute for Training and Research). En fin 1995, on pouvait considérer que le dispositif mis en place par les ingénieurs de l'ORSTOM était totalement géré par les structures universitaires africaines. Parallèlement, en 1994, l'AUPELF (Association des universités partiellement ou totalement de langue française) lance le projet REFER (Réseau Francophone de l'Education et de la Recherche) afin de développer les contenus francophones. En cinq ans, REFER aura permis le développement d'une centaine de sites Web africains. Dès 1996, avec l'Initiative Leland de l'USAID, Internet va sortir du cadre universitaire. Ce programme de la Coopération américaine propose à certains pays africains (une vingtaine) l'installation de liaisons spécialisées à haut débit (64 à 128 Kbs) entre l'Internet américain et l'opérateur national de télécommunications. Il inclut l'installation des infrastructures et la formation de quelques techniciens. En échange l'USAID exige que le pays s'engage dans une politique de libéralisation du marché des télécommunications51(*). Ce programme aura des effets directs comme au Mali ou au Sénégal, mais aussi des effets indirects. Le Burkina-Faso et le Cameroun, non éligibles à l'Initiative Leland, ont choisi de s'équiper, dans le même temps sur leurs fonds propres. En 1998, on constate que tous les pays d'Afrique sont reliés, à l'exclusion des pays en crise profonde dans la zone des Grands Lacs. Les pays en développement sont donc loin d'être totalement à l'écart du phénomène Internet. Tous ou presque sont connectés. Cependant, ces liaisons ont des débits limités (128 Kbs à 256 Kbs) pour la plupart des pays d'Afrique francophone en 1998. Les centraux téléphoniques sont souvent vétustes et imposent généralement de limiter la vitesse du modem à 9 600 bps. « La situation est donc très différente du Sud au Nord, mais Internet est là ; même timidement, il est disponible ». * 49 International Business Machines. * 50 Electronic mail ou adresse électronique en français. * 51 Déclaration du chef de la délégation américaine à la conférence du G7 « Information Society and dévelopment » en mai 1996 à Midrand, Afrique du Sud. |
|