La visualisation des informations( Télécharger le fichier original )par Christel Morvan CNA- cefag - master 2 management multimédia option art numérique 2011 |
I - 3 Vers une hyperinformationLes nouvelles modalités de partage et de diffusion des données et des informations nous ouvrent de nouvelles perspectives. Mais il faut aussi prendre en compte l'impact qu'elles ont sur la manière dont les utilisateurs captent l'information, la comprennent, la lisent. Les limites de la donnée brute La libération des données permet aux utilisateurs d'avoir accès à une masse incroyable d'information. Mais la donnée ouverte est-elle vraiment pertinente? Une des caractéristiques de la donnée ouverte25 est son état primaire : elle doit être brute, rudimentaire, et son format doit pouvoir être traité et automatisé par ordinateur. Autrement dit, la donnée ouverte se présente sous forme de tableurs, de fichiers exploitables par la machine. Visuellement, il s'agit de listes de chiffres, de mots, non agrées, et complets. La donnée la plus importante et la plus insignifiante sont au même niveau, et se lisent donc de la même manière. Si un des objectifs premier de la donnée ouverte est l'accessibilité à tous, dans les faits, le principe n'est pas tout à fait exact : en effet comment l'utilisateur lambda peut réellement comprendre de la donnée brute? Comme nous l'avons vu précédemment, la donnée ne devient de l'information qu'au moment où elle est interprétée. Hors seul un spécialiste est réellement en mesure d'appréhender la donnée dans le cadre d'un sujet précis. 25 Op. cité Illustration 3: Extrait d'une feuille de données brutes disponible sur le site datablog du guardian, Swine flu data in the UK: see how bad cases are where you live De la même manière, la plupart des données brutes utilisent un jargon élitiste, que seul certaines personnes sont en mesure de comprendre. Ajoutons à cela l'aspect complexe de la donnée ouverte26 : il est avéré qu'un masse de données trop importantes et représentées par des chiffres, de manière linéaire, ne peux que décourager la plupart des utilisateurs. Un tableau de chiffres ne permet pas de « se représenter » les choses, à moins de procéder à une analyse longue et minutieuse. Pour que la donnée ait un sens, elle doit nécessairement être interprétée. Le processus de transformation de la donnée en information est compliqué, long, et demande la plupart du temps un minimum de connaissances et de pré-acquis. Il faut commencer comprendre ces données, les agréer, autrement dit les classer, reconnaître les plus pertinentes et les plus significatives, et les contextualiser. Tout le monde ne peux pas capter de l'information à partir des données brutes : il est donc essentiel que quelqu'un se charge de les interpréter en amont. Là encore, la donnée ouverte atteint ses limites. Un de ses avantages premier et la raison pour laquelle elle a un tel succès est son caractère objectif. Seulement, au moment où on interprète la donnée, autrement dit au 26 Un fichier de données brutes est souvent imposant et complexe puisqu'une des propriétés de la donnée brute est d'être complète, autrement dit, tous les chiffres, du plus important au plus insignifiant doivent être indiqués. moment où on la comprend, elle perd cette caractéristique et devient forcément subjective. Ce qui signifie que la donnée ne peux rester objective que si elle n'est pas comprise, ou qu'elle ne transporte aucune information. La donnée brute, par sa difficulté de lecture et d'appréhension, peut donc nuire à l'information, voir même décourager les utilisateurs dans leur recherche d'information. Pour autant, la libération des données est une bonne chose, et les utilisateurs doivent avoir la possibilités d'accéder aux sources de l'information. Certains utilisateurs vont même jusqu'à exploiter la donnée brute dans des applications. Mais pour véhiculer de l'information au plus grand nombre, les données doivent être traitées. Mais la libération des données a un impact plus global sur les usages du web. Car du coup, c'est un nombre incroyable de données qui nous sont rendues accessibles. « Il y a encore un an, on militait pour accéder aux données et aujourd'hui on croule sous les données que nous recevons »27, affirme Simon Rogers. « Etant donné l'abondance des données que ce soit dans les réseaux sociaux, les blogs, les forums, il est impossible pour une seule personne de trouver la meilleure information(...). Aujourd'hui, on ne l'utilise qu'avec d'immenses bases de données qui restent inaccessibles pour les profanes que nous sommes. Mais peut-être que dans le futur, on apprendra à créer des modèles concis de cette masse d'information à la manière d'un moteur de recherche, mais qui serait guidé par une analyse humaine »28. De la densité et de la complexité Crowdsourcing, réseaux sociaux, données ouvertes sont autant de caractéristiques du flux d'information aujourd'hui. Et la multiplicité de ses canaux de diffusion contribuent à densifier l'importance du flux de manière exponentielle... Aujourd'hui, la quantité de données et d'informations qui nous parviennent devient étouffante. Entre les informations que nous cherchons, celles que nous subissons, il devient presque impossible de garder la tête « hors de l'océan de l'information ». L'utilisateur se noie au milieu de ces informations, si bien qu'il ne trouve pas la bonne, se perd, est dérouté dans sa recherche. La surabondance de l'information nuit aussi à la concentration : à trop solliciter l'utilisateur, son attention finit par se disperser. Le signal, autrement dit l'information utile, est dégradé par les informations non pertinentes, que l'on appelle le bruit. Chercher une information précise noyée dans le bruit généré par les milliards d'informations co-existante sur internet revient de plus en plus à chercher une aiguille dans une botte de foin. Guillaume Champeau, chercheur à la FING, confie son expérience : « A l'arrivée de RSS, je me suis abonné à des centaines de flux jusqu'à être 27 Déclaration de Simon Rogers dans son interview sur l'atelier des médias, op. cité 28 Extrait du billet Une étude montrant l'étendue de la crise du journalisme paru dans le blog Maniac Geek en 2010 submergé : quels flux lire ? quelles informations lire au sein de chaque flux ? » 29 Et l'augmentation du nombre d'informations n'est pas prête de décélérer : rappelons que chacun peut être producteur d'information et que n'importe quelle information peut être produite : de l'humeur d'un utilisateur au rapport d'un scientifique. Il devient alors primordial d'organiser ce flux, même si cela ne réduit pas pour autant sa densité, comme l'expliquent Jannis Kallinikos et JoséCarlos Mariátegui : « La croissance de la quantité d'information exige des outils qui permettent de la gérer. Les moteurs de recherche sont aujourd'hui indispensables pour ?organiser l'information globale», comme le dit la devise de Google ; ils offrent une aide précieuse pour s'orienter dans la déroutante matrice de données et d'images qui peuplent l'infospace de la vie contemporaine. Pourtant, même si cela peut sembler contre-intuitif, le fait d'ordonner et de gérer l'information n'en réduit pas la quantité mais au contraire l'augmente. Car l'organisation des données est en elle-même de l'information - au sens strict, une mise en forme. »30 La surabondance de l'information crée du bruit, c'est à dire des informations indésirables ou dénuées de sens, mais elle crée aussi de la redondance : une information est diffusée sur internet une fois, puis elle est reprise, déformée, rediffusée et redistribuée (c'est le principe du tweet). Une étude de l'Université de Columbia The state of the news media 200631 démontre par exemple qu'en une journée Google News offre aux internautes 14.000 articles, mais qu'ils recouvrent en réalité 24 sujets. Cette redondance créée des détériorations dans l'information et perpétue les erreurs, les producteurs de l'information, du bloggeur au journaliste, étant de moins en moins enclins à faire des enquêtes pas eux-mêmes pour privilégier la requête sur les moteurs de recherche. Ils recyclent plus souvent les informations qu'ils ne les créent, et bien souvent n'en vérifient ni la source ni la véracité. Et si une information erronée apparaît en masse sur internet, alors elle devient véridique aux yeux de l'utilisateur qui ne vérifie pas non plus la véracité de l'information, devenant en quelque sorte une « opinion universellement partagée ». Nous sommes donc dans une ère de l'hyperinformation32. Mais le flux de l'information n'est pas seulement dense, il est aussi complexe. En théorie de l'information, la complexité se défini une abondance de choses simples. Autrement dit un système d'éléments simples. Par exemple, un texte est complexe lorsqu'il contient un nombre important d'informations. La complexité s'observe le plus souvent lorsque les relations entre les différents éléments sont si nombreuses qu'il devient difficile d'appréhender 29 Extrait de l'article de Guillaume Champeau de l'UPFing06 : les réseaux sociaux 30 Voir l'article de Jannis Kallinikos et José-Carlos Mariátegui, la société de l'hyperinformation, disponible en ligne sur le site de TELOS 31 Voir le site stateofthemedia.org 32 Terme inventé par Gérad Ayache dans son livre Homo Sapiens 2.0, vers une société de l'hyperinformation, op. Cité. l'objet dans son ensemble. Le flux d'information, de par la quantité de réseaux qui le composent, est donc de nature complexe. Illustration 4: Visualisation de Jon Schulls représentant la complexité des informations émises sur un blog Hubert Guillaud nous explique que la transmission de l'information est un exemple représentatif de complexité: « Il y a quelques années, en rédigeant sa thèse, Manuel Lima a créé un outil permettant de visualiser comment l'information se répand à travers les blogs : Blogviz, qui a suscité l'intérêt de nombreux chercheurs. C'est cette recherche sur la nature de la blogosphère qui a conduit Lima à s'intéresser plus avant aux structures fondamentales des réseaux, et à créer Visual Complexity. Ce site est un véritable catalogue illustré des systèmes complexes existant «à l'ère de l'interconnectabilité infinie», un bestiaire de tous les types de réseaux existant dans notre univers. »33 Dans le flux de l'information, la complexité se traduit par la multitude des réseaux et des émetteurs, des typologies et des niveaux d'informations. L'information se qualifie selon ces propriétés, mais elle est également liée à d'autres informations en fonction de ces propriétés. La connexion entre les informations et multiple et complexe. L'utilisateur doit donc gérer cette complexité. Aujourd'hui, les moteurs de recherche et les bases de données tels quels ne permettent pas une telle gestion, j'ai moi-même fait l'expérience de cette limite au moment où j'ai entré « travestissement de l'information » sur Google... Il devient de plus en plus difficile de trouver une information précise au milieu de cette complexité. Pour dompter le flux de l'information, il va donc falloir créer des nouveaux systèmes pour se repérer, naviguer en son sein, afin que la complexité et la densité ne soient plus un frein à l'information. Une nouvelle lecture de l'information La manière dont sont diffusées les informations est aussi en train de changer la manière dont on la reçoit et on la cherche. Les capacités du média qu'est internet nous ont peu à peu amené à une nouvelle manière de lire, mais aussi à une nouvelle manière d'appréhender l'information. La densité et la complexité du flux nous poussent à « consommer » plusieurs informations à la fois, à surfer d'une information à l'autre en suivant les liens hypertexte qui nous sont proposés, et rester statique, attentif à une information à la fois devient de plus en plus difficile. « Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l'argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n'est plus que rarement le cas. Désormais, ma concentration commence à s'effilocher au bout de deux ou trois pages. Je m'agite, je perds le fil, je cherche autre chose à faire. J'ai l'impression d'être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une lutte ». Déclare Nicolas Carr dans son article sur les nouveaux paradigmes de la lecture34. Internet aurait donc changé notre manière de penser l'information. Ce changement de paradigme, le théoricien des médias Marshall McLuhan le prédisait déjà dans les années 6035 en faisait remarquer que les média ne sont 33 Voir l'article d'Hubert Guillaud, Embrasser la complexité, disponible sur le site internetactu 34 Voir l'article de Nicolas Carr : Est-ce que Google nous rend idiots? 35 Cf. l'essai de Marshall McLuhan, Pour comprendre les média : les prolongements technologiques de l'homme sorti en 1964. pas uniquement un canal passif d'information. Selon lui, ils fournissent les bases de la réflexion et modèlent également le processus de la pensée. Ainsi, le média qu'est internet nous a habitué à recevoir, de manière volontaire ou non, un flux d'informations complexe et rapide, et cela a un eu impact sur nos habitudes de réflexion, notre manière de penser l'information. Avant internet, pour avoir des informations,il fallait nécessairement lire des ouvrages, se concentrer pendant plusieurs heures sur un texte : obtenir des informations relevait d'un processus relativement lent. Et si ces textes peuvent renvoyer à d'autres par leur bibliographie ou leurs notes de bas de page, le passage d'un livre à l'autre n'est pas immédiat et instantané. Aujourd'hui, l'internaute glane les informations, il saute de lien en lien, tout doit être rapide, instantané, efficace, accessible. Il supporte mal les textes longs et ses capacités de concentration sont érodées. Il ne lit plus de manière horizontale, sa lecture est segmentée, inspirée par les pratiques héritées du MEMEX36 Par ses particularités, Internet a défini des nouveaux codes de lectures et d'apprentissage. |
|