effets sémantiques pervers qui font que l'on entretient
facilement une confusion sur le fond et la forme.
Cette ouverture scientifique a attiré de nombreux
esprits qui se sont efforcés d'élaborer une théorie
scientifique de l'information, voire d'appliquer la théorie de
l'information à la science. Léon Brillouin est parmi ceux-ci. On
lui doit une première grande synthèse dans ces domaines.
Contrairement à certains disciples qui agissent dans
le champ des sciences humaines, il prend soin de définir le champ de
validité de sa conception en restreignant le concept d'information
à une seule dimension. Il en donne une définition unique qui
écarte a priori ce qu'il appelle la "valeur humaine de l'information",
c'est-à-dire le sens, le contenu qu'elle véhicule, et qui n'est
compréhensible, évaluable que par les individus qui la
reçoivent. Comme la subjectivité de l'appréciation rend
particulièrement difficile la mesure de l'information, il est
nécessaire, pour établir une définition applicable au plan
scientifique, d'écarter cette "valeur humaine" de l'information. Pour
traiter l'information sur le plan quantitatif, pour pouvoir la mesurer, il faut
ignorer l'intérêt que présente l'information, sa valeur
d'usage, pour reprendre un concept de l'économie politique.
Après avoir circonscrit le concept d'information dans
son application scientifique, il peut recevoir une première
définition. L'information est reliée à la réduction
de l'incertitude. Plus un système peut connaître d'états
différents, plus grande est l'incertitude, plus la quantité
d'information devra être grande pour la réduire. L'information se
présente alors comme une "fonction du rapport des réponses
possibles après et avant qu'on l'ait reçue"6. Si l'on obtient une
information, le nombre des réponses possibles diminue et lorsque
l'information est complète il est possible qu'une seule réponse
soit pertinente. On peut déjà entrevoir l'usage lapidaire qui
peut être fait de cette conception dans le domaine de la gestion de
l'entreprise quand, rompant avec la stricte délimitation de Brillouin,
certains auteurs étendent les concepts sans précaution.
Dans ce cas l'information réduit le degré
d'incertitude et conduit à une prise de décision ou
réponse plus rationnelle, moins arbitraire. Plus le degré
d'incertitude initial est grand, plus la masse d'information nécessaire
pour définir la solution sera importante.
Brillouin fait ensuite remarquer, à la suite de
Léo Szilard et de Claude Shannon, que l'information a un lien
remarquable avec la notion employée dans la thermodynamique que l'on
nomme entropie. Il n'entre pas dans notre propos d'aller plus avant dans ce
domaine. Il y a cependant un aspect de cette théorie qui revêt une
importance particulière, sinon capitale. En mettant en relation
l'entropie d'un système et l'information, Brillouin montre que toute
information se traduit par un accroissement de l'entropie. Dans les cas
limites, la précision la plus grande mobiliserait une énergie
infinie. Dans une telle conception, l'observateur n'est pas neutre dans le
système et il faut que le coût en entropie d'une observation soit
négligeable en regard de l'entropie du système pour pouvoir
l'ignorer.
Quant à l'information, elle a un prix, un coût,
une valeur croissante, consommatrice des ressources internes. Plus elle est
précise, plus le coût croît. En d'autres termes, le
coût de production marginal est croissant. Ce qui se constate dans le
physique des particules au niveau de la microphysique, nous le retrouvons au
niveau de la société et de l'entreprise, sur le plan
économique, qu'il soit macro ou micro économique.