Problème épistémologique
Loin de l'analyse du contenu,
nous n'allons pas chercher à savoir qui est derrière ces paroles
et quelles sont les valeurs sous-jacentes construites volontairement afin de
faire adhérer un auditoire à ses propos. Nous nous interrogerons
sur les éléments qui composent ces actes de langage. Notre
travail ne relèvera ni de la linguistique ni de l'analyse de contenu car
nous ne traiterons directement ni de la langue ni de la parole. Nous
travaillerons sur le vocabulaire, sur des unités de sens simples. Nous
nous placerons au carrefour de l'interprétation politique, de
l'histoire, de la sémiotique et de la statistique. Nous pourrions
rapprocher la lexicométrie de la sociologie dans la mesure où
leurs objets d'études sont les mêmes, bien que la
lexicométrie offre un point de vue particulier en se basant sur le
vocabulaire16(*). Il nous
apparaît en effet essentiel de travailler sur une base exhaustive avec
des méthodes fiables ne laissant la place à aucune
subjectivité afin de disposer de résultats incontestables.
Pour répondre à
nos questions, notre méthode consistera en une analyse
lexicométrique des discours effectuée à l'aide du logiciel
Lexico 3.45 développé par André Salem de
l'Université la Sorbonne Nouvelle - Paris III.
Tout d'abord, il convient
d'effectuer un bref rappel de cette méthode quantitative qui ne fait pas
l'unanimité. La lexicométrie est entièrement basée
sur la notion de fréquence. Le discours est segmenté dans sa plus
petite unité, la forme graphique. Il s'agit d'une suite de
caractères délimités par deux espaces blancs que nous
nommerons occurrences. L'ensemble des formes d'un texte constitue son
vocabulaire. Afin de pouvoir effectuer des comparaisons, il est
nécessaire de traiter tous les textes avec une méthode de
dépouillement strictement identique. Nous avons opté pour les
normes mises en place par Dominique Labbé en 199017(*). Il convient alors de
procéder à une fastidieuse désambiguïsation manuelle
des homographies afin d'éviter des erreurs de sens18(*).
Depuis les années
1950, de grands chercheurs issus de disciplines diverses ont construit et
défendu la lexicométrie. Guiraud, Muller, Brunet,
Tournier19(*) se sont
opposés au courant subjectiviste en bâtissant une nouvelle science
sociale basée sur les sciences dures. Frédéric Bon
reconnaît que « l'objectivité scientifique de la mesure
a une définition bien précise : elle signifie simplement que
plusieurs chercheurs appliquant les mêmes critères obtiendront les
mêmes résultats ». Le choix de l'objet et de cette
méthode nous permettra de nous appuyer sur les publications de
références de Denis Monière et de Dominique
Labbé20(*) afin de
pouvoir replacer nos analyses dans une perspective historique plus large et de
les comparer aux corpus précédemment
étudiés.
Mais la simple
fréquence d'un terme suffit-t-elle pour affirmer que ce vocable
revêt une importance particulière dans le texte
étudié ? De nombreuses études ont démontré
que les termes lourds de sens étaient aussi les plus
répétés21(*), donc « la fréquence des termes
paraît un indicateur sûr de leur importance objective22(*) ».
La lexicométrie
s'impose par sa rigueur et la fiabilité de ses résultats. Des
comparaisons entre des discours ont rarement été traitées
par des auteurs dont les recherches reposent sur des méthodes aussi
fiables que les données quantitatives. Par ailleurs, la
lexicométrie présente des résultats tout à fait
explicites et très représentatifs. De plus, l'application de
cette méthode est particulièrement simplifiée par le
recours à l'informatique. Une lecture intuitive superficielle pourrait
entraîner de fausses évidences, alors que l'ordinateur se
révèle comme un puissant outil de dépouillement. Damon
Mayaffre souligne à ce propos que :
« l'ordinateur fait
preuve à la fois de rigueur et de souplesse. Rigueur par
l'exhaustivité et la systématicité de l'indexation, donc
des explorations, donc des relevés d'information. Souplesse car
l'ordinateur peut balayer le texte en quelques secondes, avancer et revenir en
arrière sans se lasser, surfer sur la vague d'informations sans se
laisser laminer par elle23(*). »
Le logiciel Lexico 3.45 nous
permettra de disposer des mots les plus fréquents, donc les plus
répétés. Des fonctions récemment
développées nous permettrons ensuite de disposer des
spécificités du vocabulaire24(*) et des segments répétés25(*). Nous avons aussi
effectué artisanalement un certain nombre de mesures afin de disposer de
la diversité du vocabulaire d'un orateur, et de tous les indicateurs
nécessaires à la description de son style. Nous traiterons
principalement de fréquences relatives. Cela serait susceptible de
biaiser nos résultats car la fréquence relative d'un mot
dépend de la longueur du texte. Mais, dans la mesure où les
discours de notre corpus sont approximativement d'une longueur
équivalente, nous estimons que le choix des fréquences absolues
ne s'imposait pas.
Il apparaît essentiel
de faire émerger certaines critiques et limites de la
lexicométrie. Nous nous positionnerons face à celles-ci pour
justifier notre cadre d'analyse.
Tout d'abord, il convient de
souligner que nous ne cèderons pas à l'isomorphisme entre lexique
et parti politique. Cela apparaîtrait réducteur et nous
préférerons utiliser des notions de relation. Nous nous
plaçons dans la ligne de Jean-Baptiste Marcellesi selon lequel cet
isomorphisme conduirait à prêter au locuteur une
naïveté linguistique et politique dans la mesure où il
serait incapable de tenir des discours différents26(*). Le vocabulaire ne peut pas
être considéré comme une étiquette fixée
à un groupe politique car cela imposerait une rigidité qui ne
correspond pas à une réalité de
chassés-croisés lexicaux. Nous pourrons nous placer
au-delà de cet isomorphisme en procédant à l'étude
de l'univers lexical. Les mots ne seront pas séparés de leur
environnement lexical adjacent.
Lorsqu'un mot est
utilisé, le choix du mot suivant n'est plus aléatoire27(*). On pourrait penser que la
lexicométrie ne tient pas compte de ce déterminisme. Cependant
pour faire face à cette limite nous disposerons de deux outils qui sont
respectivement l'analyse des cooccurrences, qui consiste à prendre en
compte des vocables qui apparaissent à proximité de chaque terme,
et l'inventaire des segments répétés qui permet de
repérer les expressions qui se répètent dans un texte. Il
faut cependant reconnaître que ces techniques sont loin d'être au
point pour faire face à cette limite.
De plus, le fondement
même de la méthode lexicométrique peut être remis en
cause par l'importance de notions employées à très faible
fréquence. En effet, « c'est quelquefois la rareté
même de certaines notions qui sera davantage révélatrice
parce qu'elle renvoie au non-dit ou à ce qui doit être dit avec
circonspection28(*) ». C'est pourquoi nous travaillerons sur
les fréquences les plus élevées mais aussi les moins
élevées, comme nous travaillerons sur les
spécificités positives et négatives de chaque
discours.
Enfin, notre travail ne
comportera presque aucun recours à la récente technique de
lemmatisation des textes. Les vocables d'une même racine sont
regroupés sous le même lemme (souvent à l'infinitif),
l'objectif étant de disposer d'une unité de sens pertinente
linguistiquement29(*).
Outre le fait que nous ne disposons pas des moyens techniques pour effectuer un
tel ouvrage, nous considérons que cette méthode présente
d'importantes lacunes. Maurice Tournier soulignait d'ailleurs que « la
lemmatisation ne résout rien et empire tout ». Le renvoi d'un
vocable à « une entrée canonisée du
dictionnaire30(*) » ne fait pas disparaître le
problème du sens, et impose une norme extérieure au vocabulaire
du locuteur. Cela permet certes le traitement statistique de nouvelles
données linguistiques, mais le texte lemmatisé dénature la
réalité originelle du corpus.
* 16 Régine Robin,
Histoire et linguistique, Paris, Armand Colin, 1973, page 35.
* 17 Dominique Labbé,
Normes de saisie et de dépouillement des textes politiques,
Grenoble, Université Pierre Mendès-France Grenoble II - Institut
d'Études politiques de Grenoble, Cahiers du CERAT, Cahier
n°7, Avril 1990, 119 pages.
* 18 Par exemple, nous avons
dû effectuer une distinction entre le verbe à l'infinitif pouvoir
et le substantif le pouvoir. Il en était de même pour
Français et français, État et état...
* 19 Maurice Tournier fut le
principal animateur du laboratoire de lexicologie politique de l'ENS Fontenay
Saint-Cloud. Les réussites de ce groupe entraînèrent la
création en 1980 de la revue MOTS (Mots, Ordinateurs, Textes,
Sociétés), puis dans les années 1995 des JADT
(Journées d'analyse des données textuelles).
* 20 Dominique Labbé
et Denis Monière : « La connexion intertextuelle.
Application au discours gouvernemental
québécois ». Lausanne, Actes des
5ème journées internationales d'analyse statistique
des données textuelles, 2000, 10 pages ; « Essai
de stylistique quantitative. Duplessis, Bourassa et
Lévesque », Saint-Malo, Actes des 6ème
journées internationales d'analyse statistique des données
textuelles, 2002, 9 pages ; Le discours gouvernemental - Canada,
Québec, France (1945-2000), Paris, Editions Honoré Champion,
Collection Lettres numériques, 2003, 181 pages.
* 21 Groupe Saint Cloud,
La parole syndicale, Étude du vocabulaire confédéral
des centrales ouvrières françaises, Paris, Presses
Universitaires de France, 1982, 270 pages ; et Antoine Prost, Vocabulaire
des proclamations électorales de 1881, 1885 et 1889, Paris, Presses
Universitaires de France, Publications de la Sorbonne, série NS
Recherches, 1974, 196 pages.
* 22 Antoine Prost,
« Les mots », in René Rémond,
Pour une histoire politique, Paris, Éditions du Seuil, Seconde
édition, 1996, 387 pages, page 259.
* 23 Damon Mayaffre,
« L'herméneutique numérique »,
L'Astrolabe. Recherche littéraire et informatique,
novembre 2002.
* 24 Un calcul de
probabilité permet de mesurer si des termes sont ou ne sont pas
caractéristiques d'un discours.
* 25 Groupes de formes
composés de 2 à 5 occurrences présents fréquemment
dans le texte.
* 26 Jean-Baptiste
Marcellesi, Le Congrès de Tours : (décembre 1920),
étude sociolinguistique, Paris, Pavillon, 1971, 359 pages.
* 27 Antoine Prost,
« Les mots », in René Rémond,
Pour une histoire politique, Paris, Éditions du Seuil, Seconde
édition, 1996, 387 pages, pages 266 à 267.
* 28 Gilles Bourque, Jules
Duchastel, Restons traditionnels et progressifs, Pour une nouvelle analyse
du discours politique. Le cas du régime Duplessis au Québec,
Montréal, Les Éditions Boréal, 1988, page 61.
* 29 Ainsi, les vocables
est, suis, sont, sera, fut seront
regroupés sous le lemme être.
* 30 Damon Mayaffre,
« De la lexicométrie à la
logométrie », L'Astrolabe.
|