L'incitation aux actes de terrorisme( Télécharger le fichier original )par Joseph Breham Université Toulouse 1 - Master II Juriste International 2006 |
ii.Les méthodes avec utilisation des médias :L'utilisation des médias recèle de nombreux avantages pour ceux qui désirent inciter à la commission d'actes terroristes. En premier lieu, ils permettent de toucher un large public tout en restant ciblés. Par exemple, Filastin alMuslimah est diffusé dans plusieurs pays (Angleterre, pays du moyen orient, Canada, France....) et mis à disposition en version électronique, imprimable depuis tous les pays du monde. En deuxième lieu, concernant les radios, elles permettent une réactivité par rapport à l'actualité et une interactivité avec les auditeurs qui n'a d'égale qu'Internet. Enfin, les médias rendent crédibles les informations reçues. Ainsi, une idée traitée par eux qu'elle soit lue, entendue ou vue, sera moins remise en question. ·La presse écrite : Les exemples d'utilisation de la presse écrite sont légions, soit parce que certains organes de presse généraux diffusent des messages d'incitation (c'est assez rare) soit que des organes de presse soient crées dans le but de diffuser des messages incitateurs (c'est le cas de Filastin alMuslimah91). ·La radio : L'importance de la radio n'est plus à démontrer. Pour s'en assurer, il suffit de regarder l'empressement qu'ont mis les forces de Tsahal à atteindre les locaux de la radio utilisée par le Hezbollah, dans le sud de Beyrouth. Ce moyen de communication a l'avantage d'être réactif, interactif et de pouvoir être recu dans des conditions beaucoup plus rudimentaires qu'Internet, par exemple. 91 ibidem. ·La télévision : L'exemple qui vient immédiatement à l'esprit en ce qui concerne les chaînes de télévision est celui d'AlManar92. À son propos, le Conseil d'Etat a rendu une décision 93 par laquelle il demandait à Eutelsat, société qui la diffusait en France, de suspendre sa diffusion. Néanmoins, cet exemple n'est pas pertinent en ce qui concerne l'incitation à des actes de terrorisme ou à la haine car la juridiction administrative n'a sanctionné ni antisémitisme ni de telles incitations, mais invoqué un trouble à l'ordre public. Récemment, le département d'État des ÉtatsUnis a annoncé avoir placé AlManar sur sa liste des organisations terroristes et les EtatsUnis l'ont, à leur tour, interdite de diffusion, en raison de ses incitations à commettre des activités terroristes. L'opérateur satellitaire GlobeCast, filiale de France Télécom, a retiré AlManar de son bouquet de diffusion. Malheureusement, aucun exemple des incitations supposées commises n'a été donné comme fondement à cette décision. 2.Internet94 : Internet est un formidable vecteur de connaissance et donc de progrès pour l'homme, mais son utilisation contribue, aussi, à la diffusion de messages à caractère raciste, xénophobe et d'incitation à la violence. Il semble être le médium le plus utilisé par les groupes terroristes car d'un coût modeste, il offre l'avantage de l'internationalité, de la rapidité et surtout d'une absence apparente de législation95. En effet, la publication sur support papier est relativement chère et les publications doivent ensuite être physiquement distribuées, ce qui les rend facile à contrôler et donc à réguler. 92 Il s'agit de la télévision qui sert de moyen de diffusion au Hezbollah. 93 Ordonnance du juge des référés du13 décembre 2004 N°274757. Le texte du jugement est disponible sur : http://www.conseiletat.fr/ce/jurispd/index_ac_ld0460.shtml. 94 Cf. « Nature transfrontière du réseau Internet et ordre public » par Alexis Guedj, disponible sur : http://www.droitsfondamentaux.org/article.php3?id_article=39. 95 G. Panczer, « L'internationale négationniste sur le net », disponible sur www.Amnistia.net. La radio et la télévision sont des médias qui ont des coûts de distribution assez faible mais sur un spectre d'onde peu important et fortement régulé et qui nécessitent un matériel onéreux pour la réalisation des messages. Le danger d'Internet a déjà été souligné aux Nations Unies, notamment par le rapporteur spécial pour la liberté d'expression, M. Habib Hussain, qui a estimé que les inquiétudes exprimées par les Etats, quant à la diffusion de documents réalisés par des groupes néo nazis et/ou d'autres groupes animés par la haine96 (donc les groupes terroristes), sont légitimes. Il convient de les conjurer en appliquant judicieu[sement] les normes internationales régissant la liberté d'expression et le droit de rechercher, de recevoir et de répandre des informations97. Le comité des ministres du Conseil de l'Europe a posé les termes de cette problématique dans sa déclaration relative à une politique européenne pour les nouvelles technologies de l'information : [Les Etats Membres doivent ] assurer le respect des droits de l'homme et de la dignité humaine notamment de la liberté d'expression ainsi que (...) la protection de l'individu contre (...) toute forme d'incitation à la violence dans l'utilisation et le développement des nouvelles technologies de l'information98. Les problèmes posés par l'utilisation d'Internet pour l'incitation ne sont pas spécifiques à l'incitation terroriste. Ce sont les mêmes que ceux qui se posent pour la pornographie, la pédophilie ou tout autre motif. Les mêmes difficultés (techniques et juridiques) se posent dès que l'on veut censurer l'accès à quelques formes d'informations que ce soit sur la toile. Ainsi, les solutions techniques et juridiques utilisées pour lutter contre la discrimination et le racisme sur Internet peuvent être transposées pour l'incitation à des actes violents. Ces problèmes sont simples mais leurs solutions plus complexes. Sommairement, la question est d'empêcher efficacement les 96 « Promotion et protection du droit à la liberté d'opinion et d'expression », 18 janvier 2000, E/CN.4/2000/63, p2122, paras. 5657. 97 ibidem 98 ibidem utilisateurs nationaux d'Internet d'accéder à des sites dont le nom, l'adresse, l'hébergeur et la « nationalité » peuvent être modifiés (quasiment) à volonté tout en respectant les principes fondamentaux que sont la liberté d'expression ou encore la liberté d'accès à l'information, etc. Afin de répondre à cette problématique, une approche juridique puis une approche factuelle seront tour à tour proposées. i.Approche juridique : Sans viser à l'exhaustivité quelques législations européennes intéressantes sur le plan des solutions seront étudiées avant de s'intéresser à la législation française. ·La GrandeBretagne : En GrandeBretagne, un système d'autoréglementation a été retenu. ISPA et LINX (les deux principales associations de fournisseurs de service) ont crée en 1996 l'Internet Watch Foundation. Trois buts principaux lui sont alors attribués : l'évaluation et la dénonciation de contenu offensant et la responsabilité des fournisseurs d'accès Internet (FAI). La dénonciation consiste à encourager les internautes à signaler les sites offensants. Cette méthode semble être efficace car le nombre de sites signalés a diminué et qu'il n'y a pas eu, à ce jour de poursuite devant les tribunaux99. La responsabilisation consiste à pousser les prestataires techniques d'Internet à trouver des moyens techniques pour empêcher que des sites aux contenus offensants ne soient accessibles. ·L'Allemagne : Le dispositif antidiscriminatoire est assez développé, en Allemagne, et des poursuites ont été engagées contre des groupes Usenet, vecteur de message révisionniste et négationniste. Par exemple, en 1995, une injonction temporaire fut adressée à Compuserve pour qu'il suspende la possibilité pour les internautes de se connecter à 99 Paul Sturges, « La liberté d'expression et les réseaux de communication »rapport établi pour le Conseil de l'Europe, Conseil de la coopération culturelle, juin 1998. certains newsgroup où des propos discriminatoires et négationnistes florissaient. À la suite de cette affaire, une loi visant à réglementer les services d'information et de communication a été élaborée. Concernant Internet, cette loi pose le principe de la responsabilité des fournisseurs de services d'information pour le matériel transitant par leur biais100. Ainsi, en Allemagne comme en GrandeBretagne, les deux approches juridique ont aboutis à une responsabilisation des acteurs techniques d'Internet. ·La France : Le système français est proche du système allemand en ce que le pouvoir législatif est intervenu (en 2000 puis en 2004) pour responsabiliser les acteurs techniques de l'Internet. En parallèle, la jurisprudence a développé le système juridique et notamment dans le jugement Yahoo101. La loi sur la presse de 1881 s'applique aux publications sur Internet, tant à l'égard des diffuseurs de contenu qu'aux utilisateurs, qui constituent un public au sens de l'article 23 de cette loi. De plus, la jurisprudence fait peser sur les hébergeurs de sites une obligation de moyen : ils sont tenus d'une obligation de vigilance et de sécurité quant aux contenus des sites qu'ils accueillent et dont ils assurent la connexion102. Cette obligation porte sur les précautions à prendre et les contrôles à mettre en oeuvre pour empêcher ou arrêter le stockage, la fourniture de contenus contraire aux dispositions légales en vigueur. Cette obligation n'existe qu'au stade de la formation et de l'exécution du contrat. Les fournisseurs d'hébergement, depuis le 1er août 2000 (date où la loi de 1986 relative à la liberté de communication fût modifiée), abritant des sites au contenu contraire aux lois françaises, devront empêcher promptement l'accès à ce contenu (sur requête d'un juge). Dans le cas contraire, l'hébergeur pourra être tenu civilement et pénalement responsable (article 438 de la loi). Depuis l'arrêt Yahoo, le fournisseur d'accès Internet (FAI) doit informer l'internaute des risques de sanctions qu'il encourt 100Ibidem. 10120 Novembre 2000 TGI de Paris. 102Cour d'Appel de Versailles 08 juin 2000. s'il consulte des sites dont le contenu contrevient aux lois françaises. La loi du 21 juin 2004 précise les contraintes pesant sur les prestataires techniques d'Internet, ceux ci ne peuvent pas voir leur responsabilité civile engagée s'ils n'avaient pas effectivement connaissance du caractère illicite (...) ou si, dés le moment où ils ont eu cette connaissance, ils ont agi promptement pour rendre l'accès à ces informations impossible (ou les retirer)103. Ils doivent en plus indiquer aux internautes qu'il existe des systèmes de filtrage et doivent leur proposer un de ces moyens104. Ce cadre légal permet donc de mettre automatiquement en jeu la responsabilité (civile et pénale) de l'hébergeur s'il ne répond pas aux injonctions du juge d'empêcher l'accès aux sites qui contreviennent à la loi française. Il permet également la mise en jeu, s'il y a faute, de la responsabilité civile du FAI. L'objectif de cette législation est double. Il s'agit de tenter de responsabiliser les utilisateurs d'Internet et de pousser les acteurs d'Internet à mettre en place des systèmes techniques qui empêchent l'accès aux sites contraires aux lois françaises. Toutefois, ces barrières techniques, lorsqu'elles ne sont pas mises en place sur la base du volontariat des utilisateurs (donc sur leur ordinateur) sont difficilement viables techniquement. ii.Les problèmes techniques qui limitent l'effet pratique du droit : Les systèmes juridiques en place reposent sur l'idée que les prestataires techniques peuvent de façon pratique restreindre l'accès à certains contenus. Afin de bien comprendre l'inanité de cette idée, il est nécessaire de savoir ce qu'est le « réseau », c'est à dire, comment il fonctionne et d'appréhender les méthodes utilisées pour filtrer ou bloquer l'accès à certains contenus. 103Article 62. 104Article 61. ·La nature d'Internet et son contenu : Internet relie des ordinateurs du monde entier en un seul réseau sans (ou avec peu) de considération pour leur localisation. Des ordinateurs à l'autre bout du monde sont aussi accessibles que des ordinateurs situés dans la même ville, avec un temps de réponse un peu moins rapide à cause des distances. Il s'agit d'un réseau unique mais constitué de plusieurs, petits ou grands, réseaux autonomes. Il n'est ni possédé, ni contrôlé, ni sous la responsabilité d'aucune société, organisation ou gouvernement. L'accès à ce réseau se fait généralement grâce à des fournisseurs d'accès Internet (FAI). Leur service inclut généralement au moins deux éléments : L'accès à Internet depuis l'ordinateur de l'utilisateur : l se connecte d'abord au FAI, via un modem analogique ou une connexion ADSL ou câble. Un hébergement optionnel de sites : les souscripteurs pouvant créer leurs propres pages web et les héberger sur le serveur de leur FAI. Ces pages sont ensuite disponibles n'importe où dans le monde et à n'importe quel moment. Ainsi Internet n'est qu'un réseau d'ordinateurs qui transmet tout ce qui peut être converti sous forme numérique et transporté d'un ordinateur à l'autre, qu'il s'agisse de textes, d'images, de sons ou de vidéos. Ce contenu peut être publié sur un site, envoyé par courriel, posté dans un newsgroup105, discuté dans des groupes ou transféré comme des fichiers. Les FAI, et autres prestataires qui font fonctionner Internet, voient uniquement des paquets de données (sous formes binaires) avec l'adresse de la source et du destinataire. Les vidéos, textes, pages web, courriels et sons ont la même forme pour les routeurs qui assurent la transition du paquet vers leur destination finale. C'est seulement lorsque les paquets de données sont arrivés à destination qu'ils sont réassemblés pour être 105Un newsgroup est un lieu où des messages postés par différents utilisateurs situés dans des lieux différents sont stockées et conservé, généralement grâce au système Usenet. Les newsgroup sont techniquement différents (mais on une utilisation similaire) des forums de discussions sur le world wide web. Des logiciels, appelés newsreader sont nécessaires pour lire le contenu des newsgroup. interprétés par les ordinateurs comme un tableau de Rembrandt, une symphonie de Mozart ou un texte faisant l'apologie des attentats du 11 septembre. Internet est plus que la toile (le web), il est composé, entre autres, du World wide web (la méthode la plus commune d'accès au contenu d'Internet), des newsgroup (ils ont débuté comme des forums de discussions par échanges de courriels mais sont aujourd'hui surtout utilisés pour stocker des données en grande quantité), des sites ftp (le « file transfer protocol » est utilisé pour transférer des fichiers d'un ordinateur à l'autre) et des forums de discussions (les « chats106 »). ·Le blocage et le filtrage107 : Il existe principalement trois approches différentes pour filtrer le contenu d'Internet. oAutoriser le contenu reconnu comme « bon » (la filtration inclusive ou liste blanche). Cette méthode est la plus efficace car elle ne permet l'accès qu'à des sites reconnus « acceptables » et bloque l'accès au reste d'Internet. Il s'agit d'une approche par « présomption de culpabilité » des sites : tout site qui n'est pas reconnu comme « bon » va être bloqué. Cependant, cette méthode est contraire à la liberté d'expression et de communication qui inclut le droit de rechercher, de recevoir et de répandre les informations108. En effet, elle bloque l'ccès à toute information qui 106Un forum de discussion est un mécanisme disponible sur le world wide web pour discuter entre utilisateurs. Les forums du web ont une fonction similaire aux newsgroup des années 80et 90. Une communauté virtuelle se développe dans les forums qui ont des utilisateurs réguliers. La technologie, les jeux et la politique sont les thèmes principaux de ces forums mais tout type de sujet peuvent être traités. 107Dans un souci de simplification et de vulgarisation seuls seront expliquées les méthodes principales et sans entrer dans leurs spécificités techniques. Ainsi ne seront pas abordés les méthodes de filtrage par adresse IP, par URL, par paquets de données et par « auditing », ni leur contremesures que ce soit par le « tunelling », l'utilisation de proxies ou autres. 108Article 19 du Pacte relatif aux droits civils et politiques. n'aura pas été validée par des « censeurs ». En sus, cette approche fait perdre tout son intérêt à Internet comme vecteurs de connaissance et de progrès. Enfin, elle pose des problèmes juridiques, pratiques et techniques. Quelle autorité déciderait de quels sites doivent ou non être accessibles ? Quels recours seraient possibles et devant quelles juridictions ? Et surtout les moyens nécessaires pour analyser tout le réseau Internet en permanence (des sites, pages ou newsgroup apparaissent toutes les heures) seraient considérables. En effet, la masse d'information accessible au public était, en 1999109, de plus de 800 000 000 de pages et de plus de 15 téraoctets (15 000 000 000 000 d'octets) de données (pour comparaison les 40 premières pages de ce mémoire en format utilisé par le logiciel Microsoft Word utilisent 204 kilooctets). En 2005 Yahoo recensait plus de 19,2 milliards (19 200 000 000) de pages web. Ainsi en six ans le nombre de pages a été multiplié par environ 20. oInterdire le contenu reconnu comme « mauvais » (la filtration exclusive ou liste noire) La méthode de filtration exclusive, comparée à la première (la filtration inclusive), à l'avantage, de ne pas être trop réductrice des droits des individus. Cependant, ce que cette méthode gagne en légitimité est perdue en efficacité. Elle est fondée sur des « liste noire » de sites connus comme étant contraires aux lois en vigueur. Il s'agit d'une approche avec « présomption d'innocence » : tout contenu qui n'est pas reconnu comme « non acceptable » (dans notre cas comme incitant à la commission d'actes terroriste) sera autorisé. Cette méthode à l'avantage de respecter les droits de l'individu mais pour être efficace elle nécessite des « armées » de personnes analysant les informations. De plus, l'efficacité de ces méthodes est nécessairement limitée car dès que les sites les « contenants » en général - auront connaissance de 109« Accessibility and Distribution of Information on the Web », Lawrence and Giles, Nature, n°400, p.107109. a voir aussi : www.metrics.com leur inclusion sur cette liste noire, il leur suffira de modifier leur adresse IP110 ou leur URL111 ou encore plus simplement de modifier leur proxy112. En plus de ces questions d'efficacité, il existe certains problèmes juridiques similaires à la méthode inclusive : quelle autorité décide ? Quels recours sont possibles ? Quel droit s'applique ? oExaminer le contenu et en bloquer l'accès lorsqu'il ne satisfait pas les tests de compatibilité Cette méthode, contrairement aux deux précédentes, permet, a priori, à l'utilisateur un accès à l'ensemble d'Internet et ne bloque éventuellement qu'après examen du contenu des sites par des programmes. Elle est attractive en ce qu'elle permet une approche dynamique et évite les problèmes inhérents aux « listes », c'est à dire, l'énorme quantité de données disponibles, leur évolution permanente et les problèmes de ressource humaine que posent leur traitement. Le principal obstacle 110Une adresse IP (avec IP pour Internet Protocol) est le numéro qui identifie chaque ordinateur sur Internet, et plus généralement, l'interface avec le réseau de tout matériel informatique (routeur, imprimante) connecté à un réseau informatique utilisant le protocole Internet. En version 4, ce numéro est généralement noté avec quatre nombres compris entre 0 et 255, séparés par des points, par exemple : 212.85.150.133. 111 URL, sigle signifiant uniform resource locator en anglais, littéralement « repère uniforme de ressource » :Une adresse réticulaire (du latin rete qui signifie « filet » donc par extension réseau) est une chaîne de caractères utilisée pour identifier les ressources dans le World Wide Web : document HTML, image, son, forum Usenet, boîte aux lettres électronique.... Pour naviguer sur Internet, il est possible de taper soit l'URL de l'endroit que l'on désire visiter (par exemple www.viveBenLaden.com) soit l'adresse IP de l'ordinateur contenant les informations (par exemple 192.168.125.1). 112Un serveur mandataire (proxy server en anglais) est un serveur qui a pour fonction de relayer différentes requêtes et d'entretenir un cache (de les conserver en mémoire pour un accès ultérieur plus rapide) des réponses, inventé par le Centre européen de recherche nucléaire en 1994. Il a été prévu à l'origine pour relier à Internet des réseaux locaux n'utilisant pas le protocole TCP/IP; il a été depuis doté de nouvelles fonctions concernant le cache, la journalisation des requêtes (logging ou conserver dans un journal les diverses requêtes qui lui sont adressées), la sécurité du réseau local, le filtrage et l'anonymat. Aujourd'hui, les réseaux locaux utilisent le protocole TCP/IP et peuvent être reliés à Internet via une simple passerelle ou un routeur, mais l'utilité des serveurs mandataires est toujours aussi importante, notamment dans le cadre de la sécurisation des systèmes d'information. En relayant les requêtes, le serveur proxy modifie obligatoirement l'adresse réticulaire (URL) source ou destination de celle ci. Ainsi un site inscrit sur la liste noire n'aurait qu'à modifié son proxy pour que les routeurs aient l'impression d'avoir à faire à un site complètement différent car l'adresse de destination (ou d'origine) des requêtes ne seraient plus la même. technique est de déterminer exactement quel contenu est « acceptable » et lequel ne l'est pas. En effet, les différentes approches techniques sont : un système de filtrage par motclef. Ainsi, tout contenu Internet incluant les mots « terrorisme » ou « Ben Laden » ou « Carlos »... ne sera plus accessibles. Plusieurs problèmes se posent dans ce système. Tout d'abord, cette méthode ne filtre que des mots. En conséquent, des image, vidéos ou bandes sonores incitatrices ne peuvent pas être bloquées. Ensuite, il faut prendre en compte toutes les langues écrites et tous les alphabets du monde : « vive les attentats du 11 septembre » ne serait pas bloqué par un système de filtre fondé sur des mots clefs en anglais. Enfin, ces filtres doivent être capables de distinguer le sens des mots en fonction de leur contexte. Si ces filtres n'en sont pas capables, ils bloqueront l'ensemble des contenus liés au terrorisme. Par exemple, ce mémoire serait bloqué car il contient à de nombreuses reprises les mots « terrorisme », « incitation » ou encore « attentat ». Un système de filtrage par phraseclef. Cette méthode est une évolution du filtrage par motsclefs, qui, lorsqu'elle est correctement mise en oeuvre, permet d'éviter le dernier inconvénient de la méthode précédente, à savoir le blocage de sites de façon indiscriminée. Cependant, tous les autres inconvénients existent toujours (seuls les textes sont filtrés, le problème des langues demeurent, etc). En outre, il existe une difficulté supplémentaire de devoir énumérer l'ensemble des phrases considérées comme « non acceptables ». Un système de filtrage par « profil ». Cette méthode filtre le contenu en se fondant sur diverses caractéristiques. Les principales sont le ratio imagestextes (cette caractéristique est efficace en ce qui concerne les sites pornographiques), le nombre de liens renvoyant vers des sites « indésirables », etc. L'analyse par profil utilise une importante quantité de ressourceprocesseur113 et induit 113Le processeur est la partie de l'ordinateur qui effectue les calculs. Les ressources processeurs sont les capacités utilisées par un ordinateur pour effectuer ses calculs. Ainsi plus la quantité de ressource donc une lenteur importante (techniquement) des accès à Internet. Ainsi, ce type de filtrage ne peut être mis en place que sur des ordinateurs individuels (qui peuvent tolérer un délais de 0,1s supplémentaire pour traiter les requêtes) et non au niveau des serveurs qui ne peuvent tolérer une telle perte de temps (0,1 seconde perdues par requête lorsque plusieurs millions de requêtes par seconde doivent être traitées n'est pas tolérable car elles induiraient une diminution particulièrement significative des temps de connexion). Cependant, la mise en place de tels systèmes de filtrage sur les ordinateurs personnels ne peut se faire que sur la base du volontariat, ce qui ne touchera certainement pas les personnes intéressées par la « cause » terroriste. De plus, même si de tels systèmes étaient automatiquement et obligatoirement mis en place sur les ordinateurs individuels, le manque de sécurité et de stabilité des systèmes d'exploitation de ces ordinateurs rendraient ces mécanismes facilement piratables et contournables. En effet, ces systèmes seraient installés une seule fois et définitivement. Or, en informatique un système qui n'évolue pas est un système sans avenir. À titre d'exemple, Sony a installé en janvier 2000 sur tous ses disques compacts originaux des mesures techniques pour empêcher leurs gravures sans droits. En février 2000, de nombreux logiciels étaient disponibles pour contourner cette mesure technique. En juin 2000, soit 6 mois après la sortie du dispositif, Sony décidait d'abandonner cette technique. En outre, ces systèmes par analyse du contenu ont une faille fondamentale : pour pouvoir analyser le contenu d'Internet, il est nécessaire que celuici soit « en clair ». Or, il est techniquement possible (et assez aisé) de crypter toutes les informations qui arrivent à un utilisateur. Il suffit pour cela que cet utilisateur définisse un proxy, comme intermédiaire entre lui et tous les sites et qu'il demande à ce proxy de crypter toutes les informations qu'il reçoit. Ces manipulations ne requièrent que peu de connaissances informatiques et de moyens : des logiciels de cryptage particulièrement efficace114 sont processeur utilisés pour une tache donnée est importante moins il en restera de disponible pour d'autre taches donc plus l'ordinateur mettra du temps à les réaliser et donc plus il sera lent. 114Ces logiciels de cryptage sont fondés sur un système de clef public et de clef privé. Toute les informations sont crypté en utilisant la clef publique de chaque utilisateur (clef disponible par tout un chacun sur Internet) mais ne sont décryptables que par la clef privée que le récepteur est le seul à détenir. disponibles gratuitement sur Internet (Gpg par exemple). Le temps nécessaire pour crypter dépend de la puissance de calcul des ordinateurs utilisés comme proxy ce qui peut engendrer une perte de rapidité de connexion. C'est dire qu'aucun moyen pratique ne permet d'empêcher l'accès complet à l'Internet de l'incitation, tout en respectant les droits humains tels que définis dans les divers instruments internationaux (Pacte international relatif aux droits civils et politiques, Convention européenne de sauvegarde des droits de l'homme et des libertés fondamentales). Tout au plus les diverses méthodes permettent de limiter l'accès à de tels sites pour des utilisateurs inexpérimentés, mais toute personne qui désire réellement contourner ces limitations peut le faire facilement (ne seraitce que par l'utilisation de proxy ou du cryptage). Ainsi la Chine115 emploie plus de 60 000 personnes, dépense des millions (et n'est pas réputé pour son respect des droits de l'homme) afin de limiter l'accès à Internet pour ses concitoyens. Malgré tous les moyens mis en oeuvre, l'accès aux sites interdits par le gouvernement chinois est une chose facile. Ce qui est possible en Chine, où les connaissances en informatique ne sont pas aussi diffusées qu'en Europe, est tout à fait envisageable en France et en Europe. Il suffit de quelques recherches sur Internet, d'un peu de motivation et de temps pour pouvoir rendre inopérant tous les systèmes de filtrage et de blocage existants. Toutefois, il existe d'autres moyens de lutte, qui seront examinés dans la deuxième partie de ce mémoire. 115 « Internet filtering in China in 20042005 : A Country Study » disponible sur www.opennetinitiative.net/studies/china |
|