Télévision haà¯tienne par cà¢ble et couleur locale ( la télé Haà¯ti )( Télécharger le fichier original )par Joêl Lorquet Université d'état d'Haà¯ti faculté des sciences humaines - Licence en sciences de la communication collective et du journalisme 1999 |
C- Théorie de l'informationEn effet, le terme "information"5(*) évoque dans le langage courant, à la fois l'acte de recueillir et celui de donner des renseignements, en passant par le langage judiciaire, où il désigne la procédure de recherche et de constatation d'une infraction, il s'est haussé au langage scientifiquer pour qualifier l'une des théories de la cybernétique et fournit la dérive qui la désigne (l'informatique). Pour les journalistes, le vocable "information" se définit comme étant un "compte rendu d'actualité sur des événements, faits et opinions qui intéressent un grand nombre de gens".6(*) Cette définition est d'ailleurs reprise dans le Glossaire des Termes de Presse qui le présente comme une "annonce et premier récit d'un événement social, nouveau, circonstancié et de nature à intéresser le public; renseignement qui permet d'établir ce récit; ensemble des activités qui ont pour objet la collecte, la transmission et la diffusion des nouvelles d'intérêt général".7(*) Pour Duane Bradley, l'information est le compte rendu honnête, impartial et complet d'événements qui intéressent et préoccupent le public. Pour Francis Vanoye, c'est l'ensemble de renseignements concernant des faits et personnes, etc., toutefois, la théorie de l'information a donné à ce terme un sens beaucoup plus restreint et beaucoup plus rigoureux. La quantité transmise par un message a été exprimée par Shannon. En effet, on peut mesurer la grandeur d'une information indépendamment de son sens. Ainsi, apprendre par le journal qu'un chien mord un homme est une information sans importance, mais un homme mord un chien constituerait en revanche une information sensationenelle, parce qu'absolument inattendue d'où la grandeur de l'information est fonction de sa probabilité. Plus le message est imprévisible, plus l'information est grande. Les questions binaires permettent de mesurer l'information. Cette quantité est exprimée en bits (binary digits) constitués par des réponses (oui/ non) nécessaires pour déterminer sans équivoque les éléments du message. Du point de vue pratique, le récepteur identifie les signes du message avec les signes de son code. Si les signes du message sont aisément identifiables, si leur degré de probabilité est grand, l'identification est aisée, rapide, l'information est fiable. Le message le plus économique est celui qui véhicule le plus grand nombre d'informations possibles dans un minimum de signes. Exemple: Le télégramme. Toutefois, dans les communications interpersonnelles, un message trop "économique" serait intransmissible, le destinataire aurait du mal à identifier des signes denses et inattendus. Le but de la communication n'est pas dans l'économie mais dans la bonne réception du message. Il faut tenir compte de l'aptitude d'un être humain à recevoir des informations nouvelles. Cette aptitude est évaluée d'après Shannon à 16 bits par seconde. La théorie de l'information reçoit des applications multiples: dans le domaine des télécommunications, de l'informatique, de la linguistique, etc. * 5- Réf. Fernand Terrou, dans: L'information, Col. Que sais-je? P.U.F., Paris, 1980, p. 1. * 6- Réf. Garvey E. Daniel et Rivera L. William, dans L'information radiotélévisée, Nouveaux Horizons, p. 3. * 7- Réf. CFPJ, Glossaire des termes de presse, Paris, 1982 |
|