UNIVERSITE CLAUDE-BERNARD LYON I INSTITUT "TECHNIQUE DE
READAPTATION"
Directeur Professeur Michel EYSSETTE
PRESERVATION DE L'ENVELOPPE TEMPORELLE POUR LA
COMPRESSION DU SIGNAL DE PAROLE
MEMOIRE présenté pour l'obtention du
DIPLOME D'ETAT D'AUDIOpROTHESISTE
par GALLEGO Stéphane
Autorisation de reproduction Lyon le 20 novembre 1998
Professeur Alain Morgon N° 155 Responsable de
l'enseignement
INSTITUT "TECHNIQUES DE RÉADAPTATION"
UNIVERSITÉ CLAUDE-BERNARD . LYON I
Président Pr. Marc DECHAVANNE.
Vice-Président "Santé" Pr. Jacques
DOURY
Vice-Président "Sciences" Pr. Yves
LEMOIGNE
Secrétaire Général Mr. Jacques
FLACHER
FÉDÉRATION SANTÉ
U.F.R. DE MÉDECINE LYON GRANGE BLANCHE Doyen Pr.
U.F.R. DE MÉDECINE LYON R.T.H. LAENNEC Doyen Pr.
|
PELLET Hélène
VITAL-DURAND Denis
|
U.F.R. DE MÉDECINE LYON-NORD
|
Doyen
|
Pr.
|
PATRICOT Louis Marc
|
U.F.R. DE MÉDECINE LYON-SUD
|
Doyen
|
Pr.
|
GERARD Jean-Pierre
|
U.F.R. D'ODONTOLOGIE
|
Doyen
|
Pr.
|
DOURY Jacques
|
INSTITUT DES SCIENCES PHARMACEUTIQUES
|
Directeur
|
Pr.
|
COLLOMBEL Christian
|
ET BIOLOGIQUES
|
|
|
|
INSTITUT TECHNIQUES DE RÉADAPTATION
|
Directeur
|
Pr.
|
EYSSETTE Michel
|
DÉPARTEMENT DE FORMATION ET CENTRE
|
Directeur
|
Pr.
|
MORNEX Jean-François
|
DE RECHERCHE EN BIOLOGIE HUMAINE
|
|
|
|
DÉPARTEMENT DE FORiviA7i1ON À LA
|
Diret-leUl
|
i)f.
|
ILJWILLE Maurice
|
RECHERCHE ET À L'ÉVALUATION
|
|
|
|
PÉDAGOGIQUES
|
|
|
|
FÉDÉRATION SCIENCES
CENTRE DE RECHERCHE ASTRONOMIQUE Directeur Mr. BACON Roland
DE LYON - OBSERVATOIRE DE LYON
U.F.R. DES SCIENCES ET TECHNIQUES
DES ACTIVITÉS PHYSIQUES ET Directeur Mme ROUARD Annie
SPORTIVES
U.F.R. DE MATHÉMATIQUES APPLIQUÉES,
DE GESTION ET D'ÉCONOMIE Directeur Pr. AUGROS
Jean-Claude
U.F.R. DE GÉNIE ÉLECTRIQUE ET DES
PROCÉDÉS Directeur Pr. GILLES Gérard
U.F.R. DE PHYSIQUE Directeur Pr. VIALLE Jean-Louis
U.F.R. DE CHIMIE ET BIOCHIMIE ·Directeur Pr. SCHARFF
Jean-Pierre
U.F.R. DE BIOLOGIE Directeur Pr. DEBOUZIE Domitien
U.F.R. DES SCIENCES DE LA TERRE Directeur Pr. ELMI Serge
I.U.T. A Directeur Pr. ODIN Michel
I.U.T. B Directeur Pr. MAREST Gilbert
DÉPARTEMENT DE 1 ER CYCLE
PLURIDISCIPLINAIRE SCIENCES Directeur Mr. PONCET Pierre
INSTITUT DES SCIENCES ET DES Directeur Pr. TROMPETTE Philippe
TECHNIQUES DE L'INGÉNIEUR DE
LYON
U.F.R. DE MÉCANIQUE Directeur Pr. GENCE Jean-Noël
U.F.R. DE MATHÉMATIQUES Directeur Pr. MORVAN Jean-Marie
U.F.R. D'INFORMATIQUE Directeur Pr. VANDORPE Denis
Je remercie vivement :
Mademoiselle Marie Bontoux pour m'avoir enseigné
l'audioprothèse et assumé la direction de ce mémoire.
Monsieur Jean Rouquet pour m'avoir accueilli dans un de ses
établissement. Monsieur le professeur Berger-Vachon pour le
coencadrement ce mémoire.
Monsieur Christian Lorenzi pour l'aide sur la revue
bibliographique sur la modulation d'amplitude
La société MXM pour m'avoir permis d'effectuer la
formation d'audioprothèse en même temps que mon travail.
Enfin, je remercie Pauline et Andrea pour leur patience durant
toute cette période difficile.
SOMMAIRE
RESUME 9
ANATOMO-PHYSIOLOGIE DE L'AUDITION 11
L'OREILLE 11
L'OREILLE EXTERNE 11
L'OREILLE MOYENNE 11
L'OREILLE INTERNE 14
ORGANISATION FONCTIONNELLE DES VOIES AUDITIVES 21
NERF AUDITIF 21
NOYAU COCHLEAIRE 21
LE COMPLEXE DE L'OLIVE SUPERIEURE (COS) 23
LEMNISQUE LATERAL 23
COLLICULUS INFERIEUR (CI) 23
LE COLLICULUS SUPERIEUR 23
THALAMUS AUDITIF 23
LE CORTEX AUDITIF 23
PATHOLOGIE : LES GRANDS TYPES DE SURDITE 26
LES SURDITES DE TRANSMISSION 26
LES SURDITES DE PERCEPTION 26
LES NIVEAUX DE SURDITE 27
ETAT DES VOIES AUDITIVES DANS LES SURDITES DE PERCEPTION
27
RAPPELS ACOUSTIQUES ET PHONETIQUES 29
LES SONS 29
LES VOYELLES 30
LES CONSONNES 30
LA CHAINE PARLEE 32
L'ENVELOPPE TEMPORELLE DES OBJETS SONORES 34
TRAITEMENT PERCEPTIF DES FLUCTUATIONS TEMPORELLES
34 DECOMPOSITION TEMPORELLE DE L'OBJET SONORE 35
L'ENVELOPPE 36
LA PERIODICITE 37
LA STRUCTURE FINE 38
L'ENVELOPPE TEMPORELLE DES SONS 39
ASPECTS PERCEPTIFS 39
SENSIBILITE A L'ENVELOPPE 40
EFFET D'UN DEFICIENT AUDITIF PERIPHERIQUE 41
ASPECTS ACOUSTICO-PHONETIQUES 42
DEGRADATION DE L'ENVELOPPE ET INLIGIBILITE 43
RECONNAISSANCE DE LA PAROLE PAR L'ENVELOPPE 50
OBJECTIF 50
MATERIEL ET METHODE 51
TRAITEMENT DU SIGNAL 51
LISTE DE MOTS 54
EXPERIMENTATION 55
SUJETS TESTES 56
RESULTATS & DISCUSSION 56
CONCLUSION 58
COMPRESSION ET EXPANSION PAR L'ENVELOPPE 60
OBJECTIF 60
MATERIEL ET METHODE 61
TRAITEMENT DU SIGNAL 61
LISTE DE MOTS 64
EXPERIMENTATION 64
SUJETS TESTES 65
RESULTATS & DISCUSSION 65
CONCLUSION 67
CONCLUSION GENERALE 68
BIBLIOGRAPHIE 70
RESUME
Des auteurs travaillant sur le signal de la parole ont
montré l'importance des modulations d'amplitude sur
l'intelligibilité. Plusieurs autres travaux décrivent une
préservation des performances psychoacoustiques sur la modulation
d'amplitude pour une population atteinte de surdités
sensori-neurales.
L'objectif de ce mémoire est
- de faire une revue bibliographique assez complète sur
l'enveloppe du signal de parole,
- d'évaluer l'importance de l'enveloppe du signal de
parole sur l'intelligibilité,
- d'évaluer un nouveau type de compression du signal qui
permet de préserver la forme de l'enveloppe et la structure fine du
signal.
Les résultats obtenus ont :
- confirmé le fort taux d'intelligibilité de
l'enveloppe temporelle du signal,
- montré que le type de compression
développé a une grande immunité au bruits et n'engendre
pas de dégradation de l'intelligibilité par rapport au signal
d'origine.
ANATOMO-PHYSIOLOGIE
DE L'AUDITION
ANATOMO-PHYSIOLOGIE DE L'AUDITION
Le système auditif collecte les vibrations acoustiques de
l'air puis les transforme en sensations auditives et permet d'établir
une communication avec l'environnement.
L'appareil auditif est composé de l'oreille (3 parties),
du nerf auditif, des voies auditives centrales (noyaux du tronc
cérébral) et de leurs projections corticales.
L'OREILLE
Elle est constituée d'un ensemble de cavités
creusées dans le rocher, on peut distinguer l'oreille externe, l'oreille
moyenne et l'oreille interne. Chacune assure un rôle spécifique
dans l'audition.
L'OREILLE EXTERNE
L'oreille externe comprend le pavillon et le conduit auditif
externe.
Le pavillon capte et concentre les ondes sonores. Le son
pénètre ensuite dans le conduit auditif externe qui renforce par
résonance, les fréquences conversationnelles.
L'OREILLE MOYENNE
Anatomie
L'oreille moyenne est composée par le tympan, la caisse du
tympan, la trompe d'Eustache, la chaîne des osselets, la fenêtre
ovale et la fenêtre ronde.
Le tympan, double membrane, vestige d'une structure branchiale,
sépare l'oreille externe de l'oreille moyenne. Il s'articule avec les
osselets pour former la chaîne tympano-ossiculaire. Les deux
fenêtres isolent le milieu aérien de l'oreille moyenne des
liquides de l'oreille interne et participent à la propagation de l'onde
sonore.
Fonction
L'oreille moyenne assure trois fonctions principales :
1 - La transmission de l'onde sonore (interface qui
réduit les pertes énergétiques du passage de l'onde entre
le milieu aérien et milieu liquidien) : la chaîne
tympano-ossiculaire transforme les vibrations aériennes en variations de
pression dans les liquides de l'oreille interne. La transmission des variations
de pression s'effectue grâce au jeu des fenêtres ronde et ovale qui
vibrent en opposition de phase et compensent l'incompressibilité des
liquides (le rapport de surface entre tympan et fenêtre permet une
amplification).
2 -- L'adaptation d'impédance : elle évite les
réflexions de l'onde lors du passage de l'air dans un liquide et la
perte d'énergie qui en découlerait. Elle est due à deux
mécanismes complémentaires : l'amplification liée au
système de levier des osselets et l'amplification liée au rapport
des surfaces entre le tympan et la platine de l'étrier.
Cette phase de la transmission des sons est mécanique.
3 - La limitation de l'énergie sonore : grâce au
réflexe stapédien (contraction des muscles de l'étrier),
l'oreille moyenne peut limiter l'énergie sonore à l'entrée
de l'oreille interne (Le Poncin-Charanchon et al, 1981).
1 0 1 6 1 5 14
2
18
19
17
13
11 8 12
Figure 1 : Schéma de l'appareil auditif et
vestibulaire droit (vue antérieure), Rohen et Yokochi, 1981
Oreille externe
1 Auricule (pavillon)
2 Lobule de l'auricule
3 Hélix
4 Tragus
5 Méat acoustique externe
Oreille moyenne
6 Membrane tympanique
7 Malléus (marteau)
8 Incus (enclume)
9 Stapes (étrier)
10 Cavité tympanique
11 Processus Mastoïdien
12 Trompe auditive
13 Muscle tenseur du tympan
Oreille interne
14 Canal semi-circulaire antérieur
15 Canal semi-circulaire postérieur
16 Canal semi-circulaire latéral
17 Cochlée
18 Nerf vestibulo-cochléaire
19 Partie pétreuse de l'os temporal
L'OREILLE INTERNE
Située dans le rocher l'oreille interne a une structure
anatomique et histologique complexe. Elle contient les organes de l'audition et
de l'équilibration (la cochlée est sensible aux fréquences
de 20-20000 Hz et le vestibule aux fréquences inférieures
à 20 Hz), Elle est constituée de deux formations anatomiques
essentielles : le labyrinthe osseux qui a un rôle protecteur et le
labyrinthe membraneux qui renferme les éléments fonctionnels de
l'audition et de l'équilibration. La cochlée, partie auditive du
labyrinthe, comporte une partie non enroulée : le crochet et une partie
enroulée : le limaçon.
Ligne de division des tours
18
16000 Hz
Ligne de division des segments
Figure 2 : Segments cochléaires
Le limaçon comprend deux tours et demi de spires : le tour
basal, le tour médian et le tour apical. On peut décrire 4
segments à la cochlée (Deguine 0, 1990) :
Segment I Base -- 6 mm crochet
Segment II 6 -- 15 mm partie médiane du tour basal
Segment III 15 --22 mm partie latérale du tour basal
Segment IV 22 -- Apex tours médian et apical
Ces segments permettent de situer histologiquement les structures
cellulaires de l'organe de Corti et du ganglion spiral.
Le labyrinthe osseux
Formé de cavités creusées dans le rocher,
le labyrinthe osseux ou capsule otique est divisé en deux parties : le
labyrinthe postérieur comprenant les organes de l'équilibration
(vestibule et canaux semi-circulaires) et le labyrinthe antérieur
formant la cochlée ou limaçon.
La cochlée est un tube osseux de 3 cm enroulé
sur lui-même en deux tours et demi de spire autour d'un pilier osseux :
la columelle. La lame spirale est une lame osseuse qui partage le tube en deux
parties qui contiennent de la périlymphe : la rampe tympanique
abouchée à la fenêtre ronde et la rampe vestibulaire
abouchée à la fenêtre ovale. Les deux rampes communiquent
au sommet de la cochlée par une petite ouverture,
l'hélicotréma. Les deux fenêtres s'ouvrent en direction de
l'oreille moyenne.
Le labyrinthe membraneux
Situé à l'intérieur du labyrinthe osseux,
le labyrinthe membraneux ou canal cochléaire constitue un
troisième compartiment. Il est limité en bas par la membrane
basilaire sur laquelle repose l'organe sensoriel récepteur, l'organe de
Corti ,en haut par la membrane de Reissner et à l'extérieur par
la strie vasculaire. Il est rempli d'endolymphe, liquide dont les mouvements
font vibrer les cils des cellules sensorielles auditives.
La rigidité de la membrane basilaire tendue entre la
lame osseuse et le ligament spiral, lui confère des
propriétés mécaniques et conditionne les modes de
propagation de la vibration acoustique.
L'organe de Corti, partie neurosensorielle de
la cochlée comprend des cellules de soutien associées à
deux types de cellules ciliées , internes et externes. Au sommet de
toutes les
cellules ciliées , des stéréocils rigides
alignés en 3 ou 4 rangées dessinent des « V »
très ouverts vers le centre du canal cochléaire qui
véhicule l'onde acoustique. Ces stéréocils sont
composés de filaments d'actine , protéine qui leur assure
rigidité et flexibilité (Morgon et al, 1990).
Figure 3 :Mise en place schématique du canal
cochléaire (Morgon et al, 1990)
1 - Strie vasculaire 5 -- Cellules du ganglion spiral
2 - Membrane de Reissner 6 --Limbus spiral
3 - Proéminence spirale 7 -- Membrane tectoriale
4 - Membrane basilaire 8 -- Ligament spiral
Les cellules ciliées internes, au
nombre de 3500, réparties sur une seule rangée le long de la
spire cochléaire, sont entourées à la base par les
cellules de soutient. A leur pôle apical se trouve la plaque cuticulaire
faite d'un mélange de protéines contractiles et de
protéines liées au calcium. C'est sur cette plaque que
s'insèrent une centaine de stéréocils alignés en 3
ou 4 rangées de taille croissante. Les cils de chaque rangée sont
attachés les uns aux autres par des ponts transversaux de
matériel fibrillaire.
Le sommet de chaque cil court est relié au cil plus
long situé juste derrière lui. L'ensemble de la touffe ciliaire
est donc solidaire, ce qui permet de comprendre l'ouverture des canaux ioniques
situés à l'intérieur des stéréocils. Sous
l'effet d'une stimulation sonore, le déplacement des
stéréocils agités par les mouvements liquidiens
entraîne l'ouverture des canaux ioniques. Il s'ensuit une
dépolarisation de la cellule ciliée interne sous l'effet d'une
entrée d'ions potassium. Un neurotransmetteur, le Glutamate, est alors
libéré au pôle basal des cellules ciliées, dans les
synapses avec les fibres auditives. Celui-ci déclenche la transmission
d'un message vers le cerveau.
Figure 4 : Dynamique des stéréocils (Morgon
et al, 1990)
Chaque cellule ciliée interne est en rapport avec 10
fibres de type I (dendrites des neurones de type I, myélinisés,
de gros diamètre, bipolaires). Ces fibres représentent 95% des
fibres du nerf nochléaire. Chaque fibre de type I se définit par
une bande de fréquence audible (dont la fréquence
caractéristique est notée Fc), un seuil d'excitation et une
activité spontanée (élevée si le seuil neuronal est
bas, faible si le seuil est fort).Ce câblage constitue le système
afférent radial. Il existe aussi un système efférent
latéral constitué de fibres non myélinisées en
provenance du système olivo-cochléaire et qui ont des contacts
pré-synaptiques avec les fibres afférentes. Le système
efférent est vraisemblablement un système inhibiteur qui limite
l'intensité des stimulations trop fortes et favorise la
sélectivité (mécanismes actifs par rétrocontrole).
Grâce à leur système de câblage deux cellules
ciliées contiguës peuvent envoyer un message
légèrement différent au système nerveux central :
c'est la base de la discrimination fréquentielle.
Les cellules ciliées externes se
répartissent sur 3 rangées dessinant un « w » le long
de la spire cochléaire. De forme cylindrique très
régulière, leur taille varie de la base à l'apex de la
cochlée. Maintenues par les cellules de Deiters (elles-mêmes
ancrées sur la membrane basilaire), elles baignent dans la
périlymphe. Les stéréocils des cellules ciliées
externes présentent un gradient de longueur de l'apex à la base
de la cochlée (ils sont quatre fois plus long au tour basal qu'au tour
apical). Les plus longs sont implantés dans la membrane tectoriale.
Les afférences des cellules ciliées externes,
peu nombreuses, sont constituées par les terminaisons dendritiques des
fibres spirales provenant des neurones ganglionnaires de type II. Ces fibres
fines, non myélinisées, représentent les 5% restant des
fibres du nerf nochléaire. Une seule fibre innerve 10 à 20
cellules ciliées externes.
Les efférences des cellules ciliées externes,
très nombreuses, sont formées par des grosses fibres
myélinisées constituant le système efférent
médian. Chaque fibre établit de larges contacts synaptiques avec
15 à 30 cellules ciliées externes.
Sous l'effet d'une onde de faible intensité, les
cellules ciliées externes se contractent en phase avec la
fréquence stimulante. Elles ont un rôle d'amplification des
mouvements de la membrane basilaire, le gain apporté par leur
contraction est de l'ordre de 50 décibels.
Figure 5 : Organe de Corti . 1° tour de spire .
Grossissement 2000 (Pujol, 1990)
Fonctionnement cochléaire
Les cellules ciliées internes sont des
récepteurs sensoriels passifs qui transforment l'énergie
vibratoire transmise par les vibrations de la membrane basilaire (après
avoir été amplifiée par les cellules ciliées
externes) en énergie électrique conduite par le neurone (Pujol,
1990)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Excitation d'une Cellule ciliée interne
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Dépolarisation de la cellule ciliée interne
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Excitation de
plusieurs cellules
ciliées externes
|
|
|
Amplification Filtrage
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
·
|
|
Système afférent radial
·
Variation du potentiel membranaire des cellules
ciliées externes
Contraction rapide des cellules ciliées externes
Emission d'un message auditif
· ·
·
Contraction lente des cellules ciliées externes
· ·
·
·
Système efférent latéral
Figure 6 : Fonctionnement cochléaire
ORGANISATION FONCTIONNELLE DES VOIES AUDITIVES
NERF AUDITIF
L'association du nerf vestibulaire et du nerf
cochléaire constitue le nerf VIII. Les fibres du nerf auditif
correspondent aux axones des neurones du ganglion spiral ( 95 % de neurones de
type I et 5 % de neurones de type II), elles se terminent dans le tronc
cérébral au niveau du noyau cochléaire. Le nerf auditif
transmet le message codé au système nerveux central. Il effectue
:
le codage spatial de la fréquence (tonotopie)
le codage temporel de la fréquence (synchronisation)
le codage de l'intensité (taux de décharge et
système relais)
le renforcement des codages temporels (adaptation nerveuse
à court terme)
- le renforcement des contrastes spectraux
NOYAU COCHLEAIRE
La totalité des fibres du nerf auditif se terminent
dans le noyau cochléaire, premier relais des voies auditives. C'est un
complexe nucléaire formé de trois noyaux : le noyau
cochléaire antéro-ventral (NCAV), le noyau cochléaire
postéro-ventral (NCPV) et le noyau cochléaire dorsal (NCD).
Le noyau cochléaire présente une grande
variété cellulaire, corrélée à une grande
diversité de réponse (latence, décharge, inhibition). Ces
fibres suivent une organisation tonotopique selon la fréquence
caractéristique : des basses Fc dans le NCPV jusqu'aux hautes Fc dans le
NCD. Le noyau cochléaire traite divers aspects de l'information qu'il
reçoit du nerf auditif :
information temporelle
renforcement de la modulation d'amplitude
- codage du spectre des sons complexes
Après avoir été traités les
signaux sont distribués aux voies auditives supérieures. Le NCAV
se projette principalement par le corps trapézoïde sur l'olive
supérieure latérale (OSL) ipsilatérale et sur l'olive
supérieure médiane (OSM) des deux côtés. Le NCPV se
projette principalement dans le complexe de l'olive supérieure et les
noyaux pré-olivaires par le corps trapézoïde. Les cellules
de la partie centrale du NCPV se projettent principalement par la strie
acoustique intermédiaire sur les noyaux pré-olivaires. Le NCD se
projette principalement sur le colliculus inférieur controlatéral
par la strie acoustique dorsale.
NOCG
CGM
NVCG NMCC
OCI
NPCI
CI NE. CI
NCCI
POIL
Nul
NVLL
NCVA
NC
NCO
NCVP
UNI] 001. 05M
NCT
N P.O
Figure 7 : Principales voies ascendantes du système
auditif
NPeO noyaux péri-olivaires CT
corps trapézoïde
NCT noyau du corps trapézoïde OSM
olive supérieure médiane OSL olive
supérieure latérale NprO noyaux
pré-olivaires
NC noyau cochléaire
NCVA noyau cochléaire ventral
antérieur NCVP noyau cochléaire ventral
postérieur NCD noyau cochléaire dorsal
LL lemnisque latéral
NLL noyau du lemnisque latéral
NDLL noyau dorsal du lemnisque latéral NVLL
noyau ventral du lemnisque latéral CI
colliculus inférieur
NCCI noyau central du colliculus
inférieur NECI noyau externe du colliculus
inférieur NPCI noyau péricentral du colliculus
inférieur CGM corps genouillé médian
NDCG noyau dorsal du corps genouillé
NVCG noyau ventral du corps genouillé NMCG
noyau médian du corps genouillé AI aire
corticale auditive primaire
AII aire corticale auditive secondaire
LE COMPLEXE DE L'OLIVE SUPERIEURE (COS)
Il est composé du noyau olivaire supérieur
latéral (OSL), du noyau olivaire supérieur médian (OSM) et
du noyau médian du corps trapézoïde (NMCT).
Les trois structures du COS ont des types de neurones
différents, elles sont organisées de façon tonotopique
:
- l'OSL est voué au moyennes et hautes
fréquences
- l'OSM traite les basses fréquences.
Le COS est le lieu de convergence de l'information provenant des
deux oreilles. Il a principalement un rôle dans la localisation spatiale
des sources sonores.
LEMNISQUE LATERAL
Il est divisé en deux zones contenant chacune
différents types cellulaires : le noyau dorsal (NDLL) et le noyau
ventral (NVLL). Ses propriétés sont peu étudiées
mais il semble être organisé tonotopiquement.
COLLICULUS 1NFERIEUR (CI)
Il est composé de trois noyaux : le noyau central
(NCCI), le noyau péricentral (NPCI) et le noyau externe (NECI). C'est la
principale structure auditive du mésencéphale, la grande
majorité des structures sous-corticales y aboutissent. Les cellules du
NCCI ont une bonne sélectivité tonale et sont organisées
de façon tonotopique et topographique. Sensibles à des stimuli
complexes, elle intègrent l'information d'autres modalités
sensorielles. Les cellules du NPCI et du NECI sont disposées par ordre
croissant selon la Fc, leurs courbes de réponses sont
irrégulières.
Le CI est au carrefour des traitements ascendants et descendants
du système auditif, c'est un centre de haute intégration de
l'information. Il joue un rôle important dans :
l'analyse fréquentielle
la localisation de la source sonore
l'éveil auditif (orientation de la tête et des yeux
aux bruits).
Certaines régions du CI traitent l'information des deux
oreilles, d'autres sont spécifiques à une oreille. Il contient la
cartographie de plusieurs caractéristiques de la stimulation sonore :
carte de la périodicité
carte des fréquences
- carte de l'intensité.
LE COLLICULUS SUPERIEUR
Particulièrement sensible aux indices de localisation, il
pourrait contenir la carte des délais interauraux.
THALAMUS AUDITIF
Les neurones du CI se projettent dans le corps
genouillé médian du thalamus, dernier relais avant le cortex. Le
thalamus auditif est composé du corps genouillé médian
(CGM), du groupe postérieur du thalamus (PO),et du noyau
réticulé du thalamus (NRT). Ces régions se subdivisent en
différentes parties qui sont à la base d'une organisation
parallèle en trois systèmes distincts : tonotopique, diffus et
polysensoriel (Roman et al, 1992).
LE CORTEX AUDITIF
Une des caractéristiques très importante du
cortex auditif est son organisation en plusieurs zones distinctes. Sur le plan
de la cytoarchitectonie on distingue des aires primaires et des aires
secondaires. Dans le cerveau humain le cortex auditif primaire se situe dans la
partie médiane du gyrus transverse de Heschl (lobe temporal), il est
entouré par des aires
secondaires qui répondent elles aussi à des
stimuli auditifs. Le noyau ventral du CGM se projette sur l'aire auditive
primaire, le noyau dorsal se projette sur une aire secondaire et le noyau
médian envoie des fibres à toutes les subdivisions du cortex
auditif L'aire Al envoie des projections descendantes au noyau ventral du CGM
et aux noyaux central et péricentral du CI. Elle se projette aussi sur
les aires auditives de l'hémisphère opposé. Le rôle
des différentes aires de projection auditive du cortex a pu être
apprécié par l'étude des conséquences de
lésions localisées du système nerveux auditif sur les
possibilités de détection et d'identification des sons. Les aires
auditives corticales chez le singe et le chat jouent un rôle essentiel
dans :
- l'identification de l'ordre chronologique des séquences
sonores
- la mémorisation à court terme de
séquences sonores
- la localisation des sons dans l'espace.
Des données convergentes sont en faveur d'une
spécialisation de l'hémisphère droit dans le traitement de
l'information tonale. Plusieurs faits montreraient qu'il serait possible de
dissocier les aires primaires et secondaires dans le traitement de la hauteur.
Certaines données suggèrent qu'un réseau neuronal
distribué dans le cortex temporal et frontal droit permet d'extraire
l'information tonale et de la maintenir en mémoire à court
terme.
L'hémisphère gauche semble
spécialisé dans le traitement de la parole et la zone de Broca
semble impliquée dans la tâche phonétique, en accord avec
la théorie motrice de la parole. L'aire de Broca et le lobe
Pariétal gauche pourraient être responsables de la transformation
d'une onde sonore en une représentation articulatoire permettant des
jugements de catégorie phonétique (Zatorre, 1993).
PATHOLOGIE : LES GRANDS TYPES DE SURDITE
LES SURDITES DE TRANSMISSION
Tout obstacle à la transmission normale de la vibration
sonore pourra être à l'origine d'une surdité de
transmission. Ce type de surdité se caractérise par
l'altération de la conduction aérienne avec conservation de la
conduction osseuse.
Les surdités de transmission par atteinte de l'oreille
externe peuvent avoir des causes variées : bouchon de cérumen,
corps étranger dans le conduit, otites externes, malformation du
pavillon ou du conduit.
Les principales causes des surdités de transmission par
atteinte de l'oreille moyenne sont les otites moyennes (aiguës ou
chroniques ), les obstructions tubaires, les traumatismes (directs ou
indirects) et l'otospongiose.
Ces surdités peuvent le plus souvent
bénéficier d'un traitement médical ou chirurgical, les
réhabilitations prothétiques ne sont envisagées qu'en cas
d'échec de ces traitements.
LES SURDITES DE PERCEPTION
Une surdité de perception est une atteinte de l'appareil
de réception qui peut se situer à différents niveaux :
1. surdités de perception cochléaires :
toxiques (médicamenteuses ou causées par des produits
toxiques), traumatiques (traumatisme crânien, traumatisme sonore,
traumatisme pressionnel), brusques (vasculaires ou virales), maladie de
Ménière et presbyacousie (processus physiologique normal
lié au vieillissement).
2. surdités de perception
rétrocochléaire dont la principale cause est le
neurinome de l'acoustique.
3. lésions centrales au delà du premier
neurone dont les causes sont variées : tumeur, lésions
vasculaires, maladies dégénératives...
Dans les surdités de perception la conduction
aérienne et la conduction osseuse sont altérées.
LES NIVEAUX DE SURDITE
Le Bureau International d'Audiophonologie définit quatre
types de surdité basés sur la perte pondérée sur
les fréquences conversationnelles :
· surdité légère 20 à 40 dB de
perte
· surdité moyenne 40 à 60 dB de perte
· surdité sévère 70 à 90 dB
· surdité profonde à partir de 90 dB (peut
être de type I, II ou III)
· surdité totale ou cophose
La réhabilitation des surdités de perception est
essentiellement prothétique. L'implant cochléaire peut être
proposé aux sujets atteints de surdité profonde ou totale par
atteinte de l'oreille interne avec un Nerf Auditif encore fonctionnel et qui ne
tire pas de profit de l'utilisation d'une prothèse conventionnelle (Le
Poncin-Charanchon et al, 1981).
ETAT DES VOIES AUDITIVES DANS LES SURDITES DE
PERCEPTION
L'atteinte de la cochlée varie avec la cause de la
surdité (Deguine, 1990).
L'organe de Corti peut être intact ou partiellement
détruit dans les surdités par ototoxicité, occlusion
vasculaire, les fractures temporales limitées et l'otospongiose
localisée. Il est le plus souvent détruit dans les fractures
temporales étendues, les méningites, les labyrinthites, certaines
malformations cochléaires et la maladie de Ménière.
Les cellules du ganglion spiral sont conservées dans les
malformations cochléaires ne concernant pas le conduit auditif
interne, les fractures temporales limitées et récentes, les
otospongioses limitées, la maladie de
Ménière, les surdités brusques, les surdités par
ototoxicité. Elles ont de fortes chances de
dégénérer au cours du temps dans les fractures temporales
étendues, les labyrinthites et les méningites.
Dans les méningites, les labyrinthites
bactériennes, certaines fractures et les otospongioses on peut observer
des ossifications.
Les noyaux cochléaires et les voies auditives centrales
peuvent dégénérer à la suite d'une atteinte
périphérique ou en l'absence de stimulation auditive. Au cours du
développement embryonnaire, il pourrait exister une période
critique où l'absence de stimulation entraînerait des
lésions irréversibles.
RAPPELS ACOUSTIQUES ET PHONETIQUES
LES SONS
Les sons sont des phénomènes vibratoires qui se
propagent dans l'air à 340 m. s-1. Un son peut être
apériodique (impulsionnel ou continu) ou périodique (simple ou
complexe).
Un son périodique simple peut être
représenté par une courbe sinusoïdale, un son
périodique complexe par une courbe complexe régulière.
L'analyse fréquentielle de Fourier permet de décomposer une onde
périodique complexe en ses composantes sinusoïdales , les
harmoniques, caractérisés chacun par une fréquence et une
amplitude. Les fréquences des harmoniques sont des multiples entiers
d'une fréquence de base : le fondamental.
L'oreille est sensible aux caractéristiques de hauteur
(fréquence du fondamental), intensité (amplitude), timbre
(densité relative des harmoniques) et durée (temps de la
vibration).
Pour produire les sons du langage il faut qu'un courant d'air
venu des poumons via la trachée (la soufflerie sub-glottique) rencontre
un obstacle : d'un point de vue acoustique cet événement est la
source du son. L'obstacle peut être constitué par les cordes
vocales (on obtient un flux laryngé périodique) ou par un
rétrécissement ou une occlusion dans les cavités
supraglottiques (on obtient un bruit). Le flux laryngé est modulé
par le système pharyngobuccal (pharynx, langue, lèvres, joues,
cavités nasales) qui a un rôle de résonateur, c'est
à dire qu'il détermine des zones de renforcement
fréquentiel : les formants. La forme, la section et le volume des
résonateurs déterminent la fonction de transfert qui modifie le
timbre de la source. Pour la voix parlée la fréquence du
fondamental se situe :
·
|
chez l'homme
|
entre 100 et 150 Hz
|
·
|
chez la femme
|
entre 200 et 300 Hz
|
·
|
chez l'enfant
|
entre 300 et 450 Hz
|
LES VOYELLES
Elles résultent du passage du flux d'air laryngé
à travers les cavités supraglottiques qui en déterminent
le timbre. D'un point de vue articulatoire on peut les décrire en
fonction de leur lieu d'articulation (antérieur ou postérieur),
de leur degré d'ouverture, de leur caractère oral ou nasal et du
degré d'arrondissement des lèvres. D'un point de vue acoustique
les voyelles du français sont caractérisées par les
fréquences des deux premiers formants F 1 et F2. La fondamentale FO et
le troisième formant F3 (invariables chez un même sujet quelle que
soit la voyelle) permettent de caractériser un locuteur et donnent les
valeurs absolues de F I et F2.
F21-4,
Fl 3000 2000 1000
Représentation biformantique des voyelles
orales du français
LES CONSONNES
Le système consonantique du français peut
être décrit phonologiquement à partir des critères
mode d'articulation (occlusif ou constrictif), lieu articulatoire (labiale,
dentale, palatale), nasalisation (orale ou nasale) et source sonore
(voisée ou non-voisée).
occlusives voisées
/b/ 1 bande grave 0 - 600
/g/ 2 bandes grave 0 - 600 aiguë
/d/ 2 bandes grave 0 - 600 aiguë
Répartition spectrale en Hz constrictives non
voisées
/f/ 2 bandes grave étroite 16 - 100 aiguë large
/ch/ 1 bande large de 2000 10.000
/s/ 1 bande aiguë large
constrictives voisées
/v/ 2 bandes grave 20 - 400 aiguë
/ / 2 bandes grave 100 - 600 aiguë
/z/ 2 bandes grave 100 - 600 aiguë
|
|
|
sombre
|
1600
|
-
|
5.000
|
médian
|
2000
|
-->
|
10.000
|
clair
|
|
|
|
Timbre
|
1000
|
-316.000
|
médian
|
3.000
|
|
16.000
|
clair
|
4000
|
-
|
16.000
|
|
1600
|
-
|
8.000
|
médian
|
3000
|
-
|
12.000
|
clair
|
occlusives non-voisées
/p/ 1 bande grave 0 - 400 sombre
/k/ 2 bandes grave 20 - 100 aiguë large 1600 - 10.000
médian
/t/ 2 bandes grave 20 - 100 aiguë large 2000 --> 16.000
clair
les liquides
/R/ et /1/ : leur structure formantique est influencée par
leur entourage vocalique.
LA CHAINE PARLEE
Dans la parole les sons ne sont pas isolés, ils
s'influencent les uns les autres. Une séquence
voyelle--consonne--voyelle peut se décomposer de la façon
suivante :
1. Voyelle stable
2. Voyelle--consonne (transition formantique)
3. Consonne
4. Consonne-voyelle (transition formantique)
5. Voyelle stable
L'information sémantique est essentiellement
véhiculée par les transitions formantiques. Elles sont plus
marquées pour les occlusives que pour les constrictives, pour la
voisée que pour la non-voisée correspondante.
Les éléments suprasegmentaux (mélodie,
accent, rythme) sont principalement liés à la source
périodique. La mélodie est définie par les variations de
la fondamentale en fonction du temps, l'accent par les variations de
l'intensité en fonction du temps. Le rythme est lié à la
position des accents, le débit, à la vitesse d'élocution.
L'intonation dépend de la hauteur, de l'intensité et de la
durée.
ETUDE
BIBLIOGRAPHIQUE
SUR
L'ENVELOPPE TEMPORELLE
L'ENVELOPPE TEMPORELLE DES OBJETS SONORES
TRAITEMENT PERCEPTIF DES FLUCTUATIONS TEMPORELLES
L'analyse fréquentielle est une opération
primordiale du système auditif dont la localisation est
cochléaire, donc périphérique. A ce titre, l'oreille est
généralement modélisée et simulée à
l'aide d'un banc de filtres auditifs passe-bandes, dont les bandes passantes se
recouvrent et les fréquences centrales s'échelonnent
continûment de 20 à 20 kHz (Fletcher, 1940 ; Patterson, 1976).
100
80
O .c
t 60 et 40 aa
"" 20
o
cr) 0
|
|
0.1 0.2 0.5 1 2 5 10 20 50
Frequency (kHz)
Figure 8: Courbe d'accord au seuil de la réponse des
neurones du nerf auditif chez les cochon d'Indes (d'après Palmer,
1987)
A l'instar de la sélectivité spectrale, la
résolution temporelle est une propriété majeure de la
perception auditive, dans la mesure où la plupart des sons naturels que
nous cherchons à percevoir, tels que la parole ou la musique,
évoluent dans le temps. Le timbre, la hauteur tonale ou pitch (en
anglais), la localisation de sources sonores sont autant de
propriétés des objets sonores pouvant être comprises sur la
base de mécanismes temporels. Cette résolution temporelle est
doublement importante dans la mesure où, très souvent, le bruit
masquant en
provenance de l'environnement varie en fonction du temps. En
lien étroit avec la capacité de démasquage de l'oreille,
l'analyse primitive des scènes auditives utilise la cohérence des
fluctuations temporelles des composantes sonores afin d'organiser ces
dernières en entités sonores ou flux auditifs (Bregman, 1990). Le
décodage acoustico-phonétique, l'organisation perceptive de
l'environnement sonore et la perception des qualités des sons telles que
la hauteur, le timbre ou le rythme dépendent donc étroitement de
notre capacité à résoudre des variations temporelles
fines.
5 10 15 20
5 10 15 20 0
15
10
20 0
5 10
5 10 0
510 15 20
D 1.5 kHz 2 3 4/sec
E F
2.0 kHz 2.3 kHz
1 7 8/sec 83/sec
41414414 s
k4
(r)
a) C
o
E
120
60
C 1.0 kHz 1 8 2/sec
A 0.408 kHz 7 2/sec
120
60
B 0.85 kHz 1 7 9/sec
Duration of Interval (ms)
Figure 9 : Histogramme des intervalles `interspike' pour
à neurone isolé du nerf auditif (Rose et al, 1968).
DECOMPOSITION TEMPORELLE DE L'OBJET SONORE
Une partition des fluctuations temporelles des sons est
généralement réalisée en trois intervalles, ce
en raison des corrélats perceptifs et linguistiques distincts de chaque
type de
fluctuation (Rosen, 1992). Ces trois types de fluctuation,
illustrés par la figure ci-après, sont traditionnellement
désignés par les termes d'enveloppe, de périodicité
et de structure fine.
fréquence de la fluctuation temporelle
Figure 10 : Partition des fluctuations temporelles en trois
intervalles distincts
L'ENVELOPPE
Les fluctuations de l'amplitude globale des sons comprises
entre 2 et 50 Hz correspondent à l'enveloppe du signal. Les
caractéristiques acoustiques de l'enveloppe, telles que
l'intensité, le temps de montée et le temps de descente,
déterminent respectivement les sensations de force, d'attaque et de
chute, elles mêmes impliquées dans certaines distinctions
phonétiques. Figure 11 : Représentation de l'enveloppe
temporelle d'un son.
Une différence de force sonore peut nous renseigner sur
la présence ou l'absence de voisement produit par la vibration des
cordes vocales au moment de l'articulation. Elle permet ainsi la distinction
entre consonnes sonores et sourdes. La distinction entre une consonne sonore
/b/ et une consonne sourde /p/ est visible sur les enveloppes des deux phrases
présentées ci-après.
Figure 12 : Enveloppes de deux
her bull phrases obtenues d'après le filtrage
her pool passe-bas à 20 Hz (Rosen, 1992)
1 00m s
De plus, ces basses fréquences de fluctuation
temporelle engendrent la sensation de tempo ou de rythme, et correspondent
précisément à la fréquence d'occurrence des
syllabes ou des mots dans la parole continue (Houtgast & Steeneken, 1985 ;
Plomp, 1983).
Nous reviendrons plus en détails sur cette partie.
LA PERIODICITE
Les fluctuations de l'amplitude du son comprises entre 50 et
500 Hz environ correspondent à la périodicité du signal et
engendrent une sensation de hauteur tonale (Ritsma,1962) dénommée
hauteur fondamentale. Les bruits larges-bandes modulés en amplitude
produisent aussi une sensation de hauteur fondamentale lorsque la
fréquence de modulation est comprise entre 50 et 500 Hz (Burns &
Viemeister, 1976, 1981). La figure ci-après présente cet
intervalle de fluctuations.
100
............z
....... ·-::::::::_.....
./
· / ,..
//
;' , , \
- ,'-_,(." \
\ .,
e/
9. \
il \ \
ii \ \
\s,a
·
- il e \ \ \ -
_. ..'.
\ \\,, \ _
· · ·.,,t
1
.1.
\ : -
o
80
20
50 100 _ 200 400 800
MOOULATION FREQUENCY (Hz)
Figure 13 : Région d'existence de la hauteur des
bruits modulés en amplitude. Chaque courbe correspond à un sujet
(Burns et Viemeister, 1976).
Le signal de parole présente une
périodicité (ou voisement) produite par la vibration des cordes
vocales dans le larynx. Une distinction phonétique majeure et commune
à toutes les langues du monde est effectuée entre signaux
périodiques et apériodiques ( /b/ et /p/ par exemple).
|
[b)
[pl
|
Figure 14 :Ondes de pression produites par deux consonnes
/b/ et /p/. /p/ n'est pas voisé (très irrégulier), /b/ est
voisé (casi-périodique). D'après Rosen, 1992.
|
|
|
|
|
|
|
|
10 m s
|
|
|
|
LA STRUCTURE FINE
La structure fine des sons se réfère finalement
aux fluctuations temporelles comprises entre 600 et 10 kHz environ. Elle
renseigne essentiellement sur les variations de la forme spectrale du signal
(par exemple, les transitions formantiques dans les sons de parole), et par
conséquent sur le timbre des sons complexes (voyelles ...).
L'ENVELOPPE TEMPORELLE DES SONS
L'organisation perceptive de l'environnement sonore, la
perception du timbre des sons et l'intelligibilité de la parole
dépendent étroitement de la capacité du système
auditif à résoudre les variations temporelles lentes de
l'amplitude des sons, i.e., l'enveloppe temporelle des sons.
ASPECTS PERCEPTIFS
L'enveloppe au sens strict correspond aux fluctuations lentes
de l'amplitude globales des sons, comprises entre 2 et 50 Hz. Les
caractéristiques acoustiques de l'enveloppe, telles que
l'intensité, le temps de montée, le temps de descente, et la
fréquence de fluctuation déterminent respectivement les
sensations de force, d'attaque, de chute, de rugosité et de tempo. La
forme de l'enveloppe temporelle est également impliquée dans la
perception du timbre et dans les processus de reconnaissance d'objets sonores.
Une note de piano, par exemple, possède une attaque rapide et une chute
relativement lente. Cette même note enregistrée sur une bande puis
écoutée en sens inverse change de timbre et évoque celui
d'un accordéon. Cet effet souligne bien l'importance des indices
temporels dans la perception du timbre car les spectres de puissance des
versions 'avant' et 'arrière' du signal sont identiques.
Des travaux portant sur la mesure de l'activation des zones
corticales avec une stimulation sonore on montrés que le traitement
cortical d'un signal de parole était très différent des
versions 'avant' et 'arrière'. Le signal de parole émis à
l'envers (par rapport au temps) n'était pas traité par le cerveau
comme un signal de parole.
SENSIBILITE A L'ENVELOPPE
Une question se pose donc : comment mesurer la
sensibilité auditive d'un patient à l'enveloppe temporelle ?.
Cette capacité à suivre ces fluctuations est directement
reliée à l'acuité (ou la résolution) temporelle du
système auditif. La description de cette acuité par
l'évaluation du plus court intervalle de silence détectable (gap
détection) au sein d'un son constitue une approche limité, car
elle ne nous renseigne pas sur la nature de la `représentation auditive
interne' des fluctuations, i.e., sur le type de filtrage effectué par le
système auditif dans le domaine temporel. Une description plus
complète de la résolution temporelle du système auditif
peut être réalisée en mesurant la fonction de transfert de
modulation temporelle (TMTF, pour Temporal Modulation Transfer Function). Dans
ce paradigme psychoacoustique (Viemeister, 1979), les stimuli sont des bruits
larges bandes modulés sinusoïdalement en amplitude à une
fréquence donnée. La TMTF relie la performance de
déduction de la modulation d'amplitude à la fréquence de
modulation. La performance (ou le seuil) de détection de la modulation
d'amplitude, mesurée en décibels (20 log(m)), correspond à
la plus petite profondeur de la modulation d'amplitude, m, permettant de juste
discriminer un bruit non modulé. Les TMTFs obtenues par Viemeister
(1979) présentent une caractéristique passe-bas : la performance
de détection est constante jusqu'à environ 8 Hz. Elle se
réduit de 3dB à environ 50 Hz, puis elle décroît de
manière monotone de 3-4 dB/octave (on parle de 'pente
d'atténuation') jusqu'à approximativement 800 Hz. Le seuil de
détection de la modulation d'amplitude est constant au-delà de 1
kHz. La fréquence de coupure à --3dB de la TMTF permet de
déterminer la constante de temps du filtrage passe-bas sous-jacent,
à savoir 2-3 ms.
E
0 -15
o
C,J
-20
-25
-10
-30
-5
o
t 1 1 I I' 1 1 I!
//
2 4 8 16 32 64 125 250 500 1000 2000 4000 0
f,,,
Figure 15 : Fonction de transfert de modulation
d'amplitude (TMTF) mesurées chez quatre sujets. La porteuse est un
bruit large bande. D'après Viemeister, 1979.
EFFET D'UN DEFICIENT AUDITIF PERIPHERIQUE
Les résultats obtenus chez des patients
présentant une surdité sensorineurale sont similaires à
ceux obtenus chez des sujets normo-entendants, lorsqu'un certain nombre de
précautions méthodologiques sont prises, tel que le
contrôle du niveau de stimulation et de la bande passante audible (Bacon
& Viemeister, 1985 ; Moore, Shailer & Shooneveldt, 1992 ; Lorenzi et
al, 1997, Demany et Lacher-Fougère, 1997). Ces Résultats montrent
que le mécanisme responsable de l'intégration temporelle des sons
(et de l'extraction de l'enveloppe) n'est pas affecté par une atteinte
cochléaire. Ils suggèrent donc que ce mécanisme se situe
à un niveau central (rétro-cochléaire) plutôt que
périphérique (cochléaire).
-30
- 25 -20
E
° -15
o ru
- 10
-5
0
- 30 -25
- 20
E
° -15
ru
-10
- 5
. .
.
.
.
I
|
AW
f
|
1
|
I
|
I 1
I
|
f
|
- --
_
--
|
-- .....,.,
..
PM
|
-
A impaireo ear
· normal ear equal SPL
normal ear equal SL -11141144`
.
Iligt, _,
|
.
.
|
F P
|
|
|
Illiiiiig-1144
1111111,
|
--
--
|
I
|
I
Mean
|
1 I I I 1
. . .
|
I
-
-
|
4 8 16 32 64 128 256 512 4
8 16 32 64 128 256 512
Modulation frequency (Hz)
Figure 16 : Comparaison de la Fonction de transfert de
modulation d'amplitude (TMTF) entre le normo-entendant et le sujet atteint
d'une surdité de perception cochléaire. D'après Moore
et al, 1992.
Les TMTFs obtenues chez des patients porteurs d'un implant
cochléaire (Shannon, 1992) et de patients implantés au niveau du
noyau cochléaire (Shannon & Otto, 1990) sont également
similaires à celles obtenues chez des sujets normo-entendants (Shannon,
1992 ; Kohlrausch, 1993).
D'autres données montrent que la perception de la forme
de l'enveloppe temporelle mesurée à l'aide de paradigmes
psychoacoustiques différents de celui de la TMTF, n'est pas
dégradée chez les patients implantés cochléaires
(Hochmair & Hochmair-Desoyer, 1985). Dans certains cas, elle peut
même être meilleure que celle des sujets normo-entendants (Lorenzi,
Gallégo & Paterson, 1997). Ces résultats confortent donc
l'hypothèse selon laquelle les facteurs limitant
la détection de l'enveloppe temporelle sont
situés au-delà du nerf auditif. Ceci indique également que
l'information d'enveloppe (rythme syllabique, timbre) reste accessible dans le
cas d'une atteinte cochléaire.
Nucleus Device 1000 Hz Carrier 100 msec/phase
--
· · ·
· ·
... e ...... ·
.`.. ·
·
NI
O (1.2) 6 dB SL
· (21.22) 17 dB SL
I i 111111
|
'e....,,f...r.___V\\
..s,
·
N2
(20.22) 4 dB SL --- Bacon and Viemeister 1985
|
--
....
--
·
,,-.
|
I- II
.....
· u ·
lv,
·
.. . ..._._____.,... ·
--
·
_ N3 1 CI (1.2) 7 dB SL
(21.22) 9 dB SL
|
I
--
|
I I IIIIII1 I I II
N4 A ', A (1.2) 12 dB SL
(21.22) 16 dB SL --
|
_
|
|
--4
--30
--20
20
10
--10
--30
10 100 500 10 100 500
Modulation Frequency (Hz)
Figure 17 : TMTF mesurées chez quatre sujets
porteurs d'un implant cochléaire. (symbole plein : électrode
apicale, symbole vide :électrode basale). D'après Shannon,
1992.
Certains auteurs montrent que les performances de
reconnaissance des sujets porteurs d'un implant cochléaire sont
liées à la qualité d'extraction d'un schème de
l'enveloppe continue
dans un train de pulse (Collins et al, 1994) mais aussi a la
forme de la TMTF en fonction de la fréquence de stimulation (Cazals et
al, 1994).
ASPECTS ACOUSTICO-PHONETIQUES
Une fréquence de fluctuation de 4 Hz correspond
à la fréquence d'occurrence des syllabes ou des mots dans la
parole continue. La perception des ces fluctuations d'amplitude lentes jouent
donc un rôle certain dans la délimitation des unités
linguistiques (voyelles, syllabes ou mots).
Ces fluctuations d'enveloppe sont également
impliquées dans plusieurs distinctions phonétiques importantes.
Une différence de force sonore peut nous renseigner sur la
présence ou l'absence de voisement produit par la vibration des cordes
vocales au moment de l'articulation. Elle permet ainsi la distinction entre
consonnes sonores et sourdes (/b/ versus /p/, par exemple). Une
différence d'attaque nous informe également sur la nature
fricative ou affriquée (4/ versus hl, par exemple) des consonnes.
Finalement, plusieurs études ont montré que la reconnaissance des
signaux de parole pouvait être effectuée sur la base des indices
d'enveloppe temporelle.
Table 4-1.
|
Assignment of consonant features
|
|
|
|
Consonant
|
Voicing
|
Nasalité
|
Frication
|
Duration
|
Place
|
Envelope
|
m
|
2
|
2
|
I
|
1
|
1
|
4
|
n
|
2
|
2
|
1
|
1
|
2
|
4
|
f
|
1
|
1
|
2
|
1
|
1
|
3
|
V
|
2
|
1
|
2
|
1
|
1
|
2
|
s
|
1
|
1
|
2
|
2
|
2
|
3
|
I
|
1
|
I
|
2
|
2
|
3
|
3
|
a
|
2
|
1
|
2
|
1
|
1
|
2
|
z
|
2
|
1
|
2
|
2
|
2
|
2
|
P
|
1
|
1
|
1
|
1
|
1
|
I
|
b
|
2
|
1
|
1
|
1
|
1
|
2
|
t
|
1
|
1
|
1
|
1
|
2
|
I
|
d
|
2
|
1
|
1
|
1
|
2
|
2
|
k
|
1
|
1
|
1
|
1
|
4
|
1
|
g
|
2
|
I
|
1
|
I
|
4
|
2
|
d3
|
2
|
1
|
2
|
1
|
3
|
2
|
I
|
2
|
1
|
1
|
1
|
2
|
4
|
Figure 18 : Decomposition des consonnes en partie
élémentaires indissociable qu'est le trait phonétique.
L'enveloppe, la durée et le voisement (voicing) sont des traits
définis uniquement par des caractéristiques temporelles.
D'après Wilson et al, 1990.
|
|
b. 'a ta'
1 2 3 0lI
|
|
|
|
|
70 Cc/ J3 .74 lel le
|
|
|
c. 'a no' d ma'
e. 'a wa'
f. 'a yo'
i. 'a tha'
13g4ÎIL0.400J,
Figure 19 : Exemple de
l'amplitude de l'enveloppes sur 9 consonnes comprise entre
deux voyelles. D'après Summerfield, 1985
Katz et Berry (1971), Van Tassel et al (1987), et plus
récemment Shannon (1995) ont obtenu d'excellents scores
d'intelligibilité de la parole en modulant des bruits blancs ou des
bandes de bruits par l'enveloppe de signaux de parole.
100
80
ir7--
U
CJ -
a. 20
°F Consonants Vowels Sentences
1 2 3 1 1 2 3 4 1 2 3 4
Number of bands
A
4
C
g, 40 r
g. 20 67A1°
73 l-
'
LI/
Vcicing F Manne
c.:
0 Place
f
2 3 4 1 2 3 4 1 2 3 Number of bands
Figure 20 : Reconnaissance des
consonnes, voyelles et phrases chez huit sujets
normo-entendants en fonction du nombre de bandes de bruits filtrés
à la place de la structure fine du signal. D'après Shannon et al,
1995
a
o
u
Y
10
90
10
10
70
10 10 50
90
50
10
90
50
50 90 10
10
90
a
en o
D
e
I--
y
25133142
IIIIIIIIIIII
RESPONSE
r
m
n ,j
b
d
g p
k
h sh
s
RESPONSE
I rmnj vbdgp t k h shs f
501
|
|
3
|
16
|
13316
1
|
13 1
|
I I
|
1
|
|
1 1 1
|
|
I
|
|
94
|
|
|
6
|
|
|
|
|
|
|
|
|
|
42
|
53
|
6
|
|
|
|
|
|
|
|
|
|
17
|
72
|
11
|
|
|
|
|
|
|
|
|
14
|
|
|
22
|
44 14
|
|
|
|
|
|
|
|
|
|
11
|
6
|
14 53
|
3
|
3
|
|
|
|
|
11
|
|
|
|
|
6
|
8 22
|
42
|
14
|
8
|
|
|
|
|
|
|
|
|
6
|
8
|
11
|
61
|
8
|
|
|
3
|
3
|
|
|
|
|
|
6 8
|
6
|
|
81
|
|
|
|
|
|
|
|
|
|
|
|
3
|
6
|
67
|
3
|
11
|
|
|
|
|
|
|
3
|
3
|
|
19
|
47
|
17
|
3
|
|
|
|
|
|
|
|
3
|
8
|
19
|
69
|
|
|
|
|
6
|
8
|
|
|
|
|
|
|
|
86
|
|
|
|
|
|
|
|
|
|
|
|
6
|
89
|
|
6
|
|
|
|
|
|
|
|
|
|
22
|
56
|
22
|
Figure 21 : Reconnaissance sans lecture labiale des
voyelles et consonnes chez un groupe de six sujets porteur d'un implant
cochléaire mono-électrode Vienna de 3M D'après Hochmair
et Hochmair-Desoyer, 1985.
RESPONSE
cn
D
--1 s
D sh
20 13
F-- ch
z 7 7 rn
d
bdgp 1001
7 60 33
20 80
60 33 7 7 80 7
20 80
20 13
7
111111111113 1
k s sh th ch z rn n n 1 y
1111111
100
13 47 7
7 53:27
20 60
13
7 7
7 13
47 13 7
27 60 7..«
I 187
1
7
7
100
7 93
40 20
Figure 22 : Reconnaissance sans lecture labiale des
consonnes chez un groupe de trois sujets porteur d'un implant cochléaire
Inaired à quatre canaux. D'après Dorman et al, 1990.
RESPONSE RESPONSE
bdgp t ksshthchz mn · I b d g k s sh th ch z nv
I y
b 51 120
|
1 6
|
|
13 13
|
|
601201
|
|
|
|
d 14 48
|
28
|
|
|
d
|
40 20
|
|
|
40
|
g 3 31
|
48
|
6
|
3 9
|
|
|
20 40
|
20
|
|
|
20
|
P
|
|
46
|
43_6
|
|
|
|
|
|
|
|
100
|
t --
|
|
23
|
28 46
|
|
|
|
|
80
|
20
|
|
|
k 3
|
|
1 1
|
26 57
|
3
|
|
|
|
|
|
|
|
60
|
.1 6
|
3
|
17
|
6
|
26 14
|
6 6
|
·
|
|
|
|
4800
|
20
|
sh
|
|
|
97
|
3
|
·
|
|
|
100
|
|
th 20 3
|
3 9
|
|
17 37
|
3 3
|
th
|
40 20
|
|
|
20 20
|
|
|
|
|
83
|
ch
|
|
|
20
|
60 20
|
z 6
|
|
3 3
|
|
60 14 3
|
z
|
|
|
|
80 20._
|
in 1 3
|
|
3
|
60
|
6 20
|
|
|
|
|
20 40
|
40
|
|
|
|
14:57
|
14 14
|
|
|
|
|
20 60
|
20
|
|
|
|
74 17
|
|
|
|
|
|
100
|
|
|
|
6 3
|
60:23 9
|
|
|
|
60 20
|
20
|
III 1 1 1 1 1 1 1 1 1 I 1100 y
|
11111111111 002011
|
|
Les bonnes performances d'intelligibilité de la parole
obtenues chez des sujets porteurs d'implants cochléaires
mono-électrodes (Hochmair et Hochmair-Desoyer, 1985.) ou du
système percutané Inaired à quatre canaux (Dorman et al,
1990) témoignent également de l'importance des indices
d'enveloppe dans la compréhension de la parole.
Des études (Lawson, Wilson et Finley, 1992), montrent
que l'intelligibilité chez les sujets porteurs de l'implant
cochléaire Inaired est fonction du nombres de canaux actifs. Avec six
canaux, le score est proche du sans faute.
Voi
.5. Nsl
E- Fric
·7.3
Dur
Pic
Figure 23 : Identification de la parole et des trait
phonétiques en fonction du nombre de canaux utilisés par
l'implant cochléaire Inaired. D'après Lawson, Wilson et Finley,
1992
Env
4 3 2 1
Channels
Des comparaisons entre le système Inaired à
quatre canaux (qui fait principalement passer des informations temporelles) et
le système Nucleus à 20 canaux (qui fait principalement passer
des informations tonotopiques) montrent une supériorité dans la
discrimination des consonnes (signaux non-stationnaires) pour le système
Inaired et au contraire une supériorité du système Nucleus
dans la discrimination des voyelles (signaux casi-périodiques) (Tyler RS
et al, 1997).
DEGRADATION DE L'ENVELOPPE ET INLIGIBILITE
Des études chez le normo-entendant, principalement
investiguées par l'équipe de Drullman (Drulman et al,
1994a,b,1995, 1996 ; Noordhoek & Drullman, 1997) ont
caractérisé la perte d'intelligibilité en fonction de la
dégradation de l'enveloppe temporelle des mots. Les résultats
montrent que l'information est principalement contenue dans les
fréquences comprises entre 1 à 32 Hz. Plus le spectre de
l'enveloppe est réduit plus l'intelligibilité est faible.
Envelope cutoff frequency
I Hz 2 Hz 4 Hz 8 Hz 16 Hz 32 Hz
LP
|
0.17
|
0.29
|
0.49
|
0.70
|
0.82
|
0.89
|
HP
|
0.94
|
0.84
|
0.60
|
0.37
|
0.20
|
0.15
|
Tableau I : Intelligibilité en fonction du filtrage
de l'enveloppe du signal de parole (en passe-bas et en passe-haut).
D'après Drullman et al, 1994.
ETUDE
EXPERIMENTALE
SUR
L'ENVELOPPE TEMPORELLE
RECONNAISSANCE DE LA PAROLE PAR L'ENVELOPPE
OBJECTIF
L'étude bibliographique a montrée l'importance
de l'enveloppe du signal de parole sur l'intelligibilité. Contrairement
à la structure fine du signal, l'analyse de l'enveloppe du signal ne
demande pas une analyse très complexe par le système auditif
périphérique. En effet, l'intégration temporelle des sons
(mesures de TMTF) n'est pas affectée par une atteinte
cochléaire.
Nous avons voulu évaluer l'importance de l'enveloppe de
la parole en éliminant toute la structure fine du signal. Ce genre de
traitement peut présenter un intérêt pour les
surdités ayant une forte dégradation de la
sélectivité fréquentielle ou seul le facteur temporel peut
intervir (par exemple les surdités profondes ou sévères
ont une tonotopie cochléaire très frustre, seules les
caractéristiques temporelles du signal peuvent être codées
; ce traitement peut aussi être intéressant pour l'implant
cochléaire).
Son principe de base est de garder l'enveloppe du signal pour
différents canaux (1 à 4) et de remplacer la structure fine de
chaque canal par un bruit passe-bande équilibré en
énergie.
Contrairement aux travaux de Shannon (1995), nous ne voulons
pas qu'il y ait une séance d'entraînement longue qui permet
d'améliorer les scores de reconnaissance (8 à 10 heures par sujet
testé). Cela permet, d'éviter un recodage des sons.
L'expérience sans entraînement permet de mesurer
l'intelligibilité correspondant à celle obtenue par un traitement
de la voix le plus naturelle possible.
MATERIEL ET METHODE
TRAITEMENT DU SIGNAL
Afin d'analyser l'intelligibilité de l'enveloppe du
signal de parole, nous avons due développer un traitement du signal qui
extrait l'enveloppe temporelle pour différents canaux
fréquentiels et qui remplace la structure fine par un bruit ayant un
spectre moyen équivalent.
8
3 4 5
2
2
5
0 -6 -12 -18 -24 -30
Les bandes passantes de chaque canal
Figure 24 : Spectre de la parole à long terme et
spectre procurant la meilleure intelligibilité. Les échelles de
décibels portées en ordonnées sont arbitraires.
D'après Gelis, 1993.
I
100 200 500 1000 2000 5000 10000 Hz
Le choix des bandes de fréquences à utiliser est
délicat car il va influencer directement l'intelligibilité du
signal traité.
Beaucoup de travaux sur les vocodeurs et sur la reconnaissance de
la parole ont étudié l'intelligibilité en fonction des
zones de fréquences du signal.
La zone des fréquences médium (1000-4000 Hz) est
celle qui fournit le plus d'informations sur le signal de parole. La zone des
fréquences graves (0-500 Hz) comporte peu d'informations pertinentes et
beaucoup de bruit. Des études récentes, notamment dans le domaine
de l'implant cochléaire ont aussi démontré l'importance
des fréquences comprises entre 4000 et 8000 Hz sur
l'intelligibilité.
Afin d'obtenir un compromis entre le nombre restreint de
canaux, l'équilibre en énergie de chaque canal et
l'intelligibilité, nous avons choisi quatre bandes d'un octave chacune
comprises entre 500 et 8000 Hz (500-1000, 1000-2000, 2000-4000 et 4000-8000
Hz).
Bruit de remplacement
Dans chaque canal la structure fine est remplacée par
un bruit passe-bande filtré dont le spectre moyen doit correspondre au
spectre moyen de la structure fine contenue dans le canal. Comme le montre la
figure 24 le spectre à long terme de la parole correspond
grossièrement au spectre moyen d'un bruit rose.
densité spectrale dB/Hz
bruit blanc
fréquence
densité spectrale dB/oct
·
. . · : · · : · : ·
: · : · : · :
· : · : : · : : · : : ·
: · : : ·
bruit blanc
· : · : ·
t 3 dB
· · ·
bruit
octaves
Figure 25 : Spectres de bruit blanc et de bruit rose en
bandes fines et en bandes d'octaves. D'après Gelis, 1993.
Plutôt que d'utiliser comme Shannon, un bruit blanc
filtré en passe bande nous avons préféré utiliser
un bruit rose filtré en passe bande. Cela a permis d'équilibrer
chaque bande d'octave en énergie sans qu'il y ait de correction à
faire. Le bruit rose avant filtrage est le même dans tout les canaux,
cela évite d'engendrer des problèmes de perception de
fréquences fantômes situées à la jonction de chaque
bruit filtré.
Mesure et bande passante de l'enveloppe :
L'enveloppe de chaque canal est obtenu en redressant le
signal puis en le filtrant par une fonction de type passe-bas. La
fréquence de coupure à été choisie à 250 Hz
pour faire passer l'enveloppe et une partie de la périodicité.
Une voix d'homme à été utilisée pour les tests (le
fondamental laryngé est à environ 100-110 Hz dans ce cas).
./\ A
vm411iMMINYIPOPPOPM
Figure 26 :Exemple avec le mot 'terrain' avant et
après traitement sur 4 canaux.
Comme le montre la figure 26, le signal traité
préserve l'enveloppe et une partie de la périodicité du
signal d'origine, par contre la structure fine du signal a disparu.
Un schéma général sur le traitement
effectué pour un système à quatre canaux est
représenté figure 27. Pour les cas où l'on n'utilise que
1, 2 et 3 canaux, le principe de traitement est le même (il suffit de
supprimer une partie du schéma).
0
·
·
|
|
|
Redressement
|
Filtre passe bas
|
|
500-1000 Hz
|
|
250 Hz
|
|
|
Filtre
|
Redressement
|
Filtre passe bas
|
Signal de
|
|
1000-2000 Hz
|
|
250 Hz
|
Parole
|
|
Filtre
|
Redressement
|
Filtre passe bas
|
|
|
2000-4000 Hz
|
|
250 Hz
|
|
Filtre
|
Redressement
|
Filtre passe bas
|
|
4000-8000 Hz
|
|
250 Hz
|
|
Filtre
500-1000 Hz
Bruit rose
Filtre 1(100-2000 Hz
Filtre 2000-4000 Hz
·
Filtre
4000-8000 Hz
Signal Traité
Figure 27 : Schéma simplifié du traitement de
signal effectué pour remplacer les structures fines de chaque canal
par un bruit rose filtré.
LISTE DE MOTS
Nous avons choisi les listes utilisées classiquement en
cabinet d'audioprothèse pour mesurer l'intelligibilité. Ce
sont 40 listes de 10 mots dissyllabiques numérisées sur CD ROM,
elles ont été élaborées par monsieur Fournier.
Elles sont prononcées par deux locuteurs différents de
sexe opposé, seule la voix d'homme a été
utilisée dans cette expérience (la mesure de son fondamental
laryngé est comprise entre 100 et 110 Hz).
EXPERIMENTATION
Pour chaque sujet testé nous avons passé deux
listes par condition sur l'oreille droite. L'intensité de stimulation
est à environ 30 dB SL
Pour chaque sujet normo-entendant quatre conditions dans un
ordre aléatoire ont été choisies :
- un canal (2000-4000 Hz),
- 2 canaux (1000-2000, 2000-4000 Hz),
- 3 canaux (1000-2000, 2000-4000, 4000-8000 Hz),
- 4 canaux (500-1000, 1000-2000, 2000-4000, 4000-8000 Hz)
Pour chaque sujet presbyacousique une condition a
été choisie ; le nombre de conditions a été
réduits par rapport aux normo-entendants car le test était plus
difficile pour eux :
- 4 canaux (500-1000, 1000-2000, 2000-4000, 4000-8000 Hz).
Pour ne pas surprendre le sujet testé et pour l'habituer
au signal déformé, avant de commencer le test, une liste de mots
traités avec quatre canaux a été passée.
Chaque mot de chaque liste a été
écouté 3 fois, une seule réponse était
demandée à la fin de la troisième passation.
Pour chaque mot deux mesures d'intelligibilité ont
été effectuées :
1- la reconnaissance du mot (0 ou 100%),
2- le pourcentage de phonèmes reconnus dans la liste de
mots (de 0 à 100%).
SUJETS TESTES
20 sujets normo-entendants ayant une perte auditive sur
l'oreille droite inférieure à 10 dB sur les fréquences
125, 250, 500, 1000, 2000, 4000 et 8000 Hz ont participé à cette
étude. L'âge des sujets est en moyenne de 28 ans (déviation
standard de 5 ans). La population est composée de 10 hommes et 10
femmes.
4 sujets atteints d'une surdité de perception
(presbyacousie) ayant une perte auditive moyenne sur l'oreille droite de 12 dB
à 125 Hz, 14 dB à 250 Hz, 16 dB à 500 Hz, 19 dB à
1000 Hz, 26 dB à 2000 HZ, 48 dB à 4000 Hz et 65 dB à 8000
Hz ont participé à cette étude. L'âge des sujets est
en moyenne de 83 ans (déviation standard de 7 ans). La population est
composée de 4 femmes.
100
80
so
-V" 40 20 0
100
80
· 60 40 20
RESULTATS & DISCUSSION
1 2 3 4 1 2 3 4
Nombre de tonus Nombre de comme
Figure 28 : Pourcentage et déviation standard de
phonèmes reconnus (graphe de gauche) et pourcentage et
déviation standard de mots reconnus (graphe de droite) en fonction
du nombre de canaux pour une population de 20 normo-entendants.
Les mots et phonèmes sont très bien reconnus par
les normo-entendants (90 % pour les mots et 95 % pour les phonèmes chez
certains sujets). Les résultats sont similaires à ceux
décrit par Shannon et al, 1995, mais dans ses conditions
expérimentales, il y avait un entraînement au préalable
d'une dizaine d'heures. Ces résultats corroborent aussi ceux de Lawson
et al, 1992 obtenus chez les sujets implantés cochléaires.
L'intelligibilité (des mots et des phonèmes)
croit en fonction du nombre de canaux. Une analyse statistique par Anova montre
des différences statistiques de performances en fonction du nombre de
canaux utilisés (p<0.001 : 43, 42, 41, 32, 32, 21).
Les résultats montrent qu'un système auditif qui
peut faire la différence entre les quatre fréquences 750, 1500,
3000 et 6000 Hz et qui a une résolution temporelle normale peut avoir un
intelligibilité d'environ 95 % sans qu'il soit besoin de recoder
l'information auditive sous une forme différente.
60
40
· _
cr
· _
20
C
0
Figure 29 : Pourcentage et déviation standard de
phonèmes et mots reconnus avec 4 canaux pour une population de 4
sujets presbyacousiques.
Les résultats obtenus chez les presbyacousiques sont
loin d'être médiocre en effets les sujets ont environ 45% de
reconnaissance sur les phonèmes et 15% sur les mots. Il est bon de noter
que le signal est envoyé à 30 dB SL et qu'il n'y a pas de facteur
correcteur d'amplification de chaque bande en fonction de l'audiogramme des
sujets. Les performances seraient sûrement améliorés si
l'on corrigeait les amplification de chaque canal en fonction de la perte de
chaque sujet.
CONCLUSION
Cette expérience a démontré
l'intérêt de l'enveloppe du signal de parole sur
l'intelligibilité. Quatre canaux fréquentiels, où l'on
fait uniquement passer l'enveloppe temporelle, sont suffisants pour obtenir 90
à 95 % de reconnaissance phonétique.
Cela peut en partie expliquer les bonnes performances
obtenues, chez certains enfants sourds profonds utilisant la prothèse
à transposition de fréquence de Lafon (Lafon, 1996), chez
certains patients implantés cochléaires en mono-électrode
(Hochmair & Hochmair-Desoyer, 1985) ou avec le système Inaired
à 4 canaux (Dorman et al, 1990).
Il serait intéressant de poursuivre cette étude
sur des populations plus importantes de sujets sourds (pour différents
types et niveaux de surdités). De plus, il serait bon
d'équilibrer en énergie, chaque canal en fonction de la perte
auditive du sujet testé.
L'utilisation de l'enveloppe chez les sujets atteints d'une
surdité de perception est actuellement mal adaptée avec les
appareils conventionnels.
Lorsque l'on adapte l'énergie acoustique par une aide
auditive au sujet atteind d'une surdité de perception, on utilise
actuellement des systèmes de compression qui ont des seuils de
déclenchement avec des temps d'attaque et de retour variables. Cela
entraîne évidemment des distorsions de l'enveloppe temporelle du
signal en dynamique (par contre pour un signal stationnaire, il n'y a pas de
distorsions fréquentielles ; cf figure 30). Une compression qui
permettrait de ne pas déformer l'enveloppe tout en préservant le
spectre fréquentiel instantané serait sûrement plus
avantageuse.
Signal d'entrée
Effet du temps de réponse
Signal de sortie
Effet du temps de retour
Figure 30 : Circuit classique de compression en
régime dynamique. Le temps d'attaque et le temps de retour modifient la
forme de l'enveloppe mais aussi engendrent des distorsions sur la structure
fine. D'après Gelis, 1993.
COMPRESSION ET EXPANSION PAR L'ENVELOPPE
OBJECTIF
L'expérience précédante a montré
l'importance de l'enveloppe sur l'intelligibilité et a soulevé le
problème de distorsion de l'enveloppe lors de la compression du signal
dans les aides auditives actuelles (cf figure 30).
Nous avons ensuite voulu estimer les performances d'un nouveau
type de compression ou d'extension du signal de la parole. Des tests
d'intelligibilité dans le bruit ont été choisis pour
évaluer la qualité de la compression. La technique
utilisée pour compresser ou étendre le signal se base sur la
modification de l'enveloppe temporelle en préservant sa forme et la
structure fine du signal. L'avantage de ce type de technique est
d'éliminer tout effet indésirable de distorsion lorsque le signal
n'est pas stationnaire.
Lorsqu'un sujet à un recrutement important, il est
intéressant d'utiliser cette technique de compression car elle
préserve la structure fine et la forme de l'enveloppe du signal. Moore,
1992 montre que pour simuler une surdité avec une audition normale
(surdité de perception) l'enveloppe du signal doit être
comprimée par sa racine carrée (compression de 1/2).
MATERIEL ET METHODE
TRAITEMENT DU SIGNAL
L'objectif du traitement du signal est de préserver le
spectre instantanée et la forme de l'enveloppe temporelle du signal lors
d'une compression. Il est donc nécessaire d'extraire
séparément l'enveloppe et la structure fine du signal, puis de
compresser uniquement l'enveloppe.
Redressement
Filtre passe bas 250 Hz
Puissance (X-l)
Filtre passe bas 250 Hz
Signal de Parole
Signal Traité
Figure 31 : Schéma simplifié du traitement de
signal effectué pour compresser l'enveloppe du signal bruité.
Si l'on veut compresser par 1/2 la puissance sera --1/2.
Pour pouvoir compresser l'enveloppe nous avons tout d'abord
extrait l'enveloppe du signal (par redressement et filtrage passe bas à
250 Hz). Nous avons ensuite élevé l'enveloppe à une
puissance X-1, X étant le facteur de compression. Puis nous avons
refiltré l'enveloppe par un filtre passe bas de 250 Hz pour
éliminer les fréquence induites par le passage à la
puissance. Pour finir nous multiplions le signal d'origine par l'enveloppe
traitée (on retrouve donc l'enveloppe à la puissance X-1 +1=X ;
cf figure 31)
20 40 60 80
Intensité d'entrée (dB SL)
0
0
80
U)
o
, 40
-o
Figure 32 : fonction entrée sortie de la compression
de l'enveloppe pour des X=1/8, 1/4, 1/2, 1, 2 et 4.
Nous avons choisi les compressions suivantes, X=1/8, 1/4, 1/2,
1, 2 et 4. Les fonctions entré/sortie de la compression sont
représentées figure 32. X=1, correspond au signal d'origine,
X=2,4 correspond à une extension du signal, X=1/2, 1/4 et 1/8 correspond
à une compression du signal.
La figure 33 nous donne un exemple des différents
traitement obtenu sur les mots 'le bouchon' prononcé avec un rapport
signal sur bruit (S/B) de 12dB (cf X=1). Comme le montre la figure 33 dans cet
exemple, la compression du signal diminue le rapport signal sur bruit (pour
X=1/2 S/B passe de +12 à +6dB, X=1/4 S/B passe de +12 à +3dB,
X=1/2 S/B passe de +12 à +1.5dB). Par contre l'extension du signal
augmente le rapport signal sur bruit (pour X=2 S/B passe de +12 à +24dB,
X=4 S/B passe de +12 à +48dB). Les modification des rapport S/B devrait
influencer l'intelligibilité.
Figure 33 : Exemple du traitement de signal pour le mots
'le bouchon' pour les différents X pour un rapport signal sur bruit
de +12 dB
X
|
-6
|
0
|
6
|
12
|
4
|
-1.5
|
0
|
1.5
|
3
|
2
|
-3
|
0
|
3
|
6
|
1
|
-6
|
0
|
6
|
12
|
1/2
|
-12
|
0
|
12
|
24
|
1/4
|
-24
|
0
|
24
|
48
|
1/8
|
-48
|
0
|
48
|
96
|
Tableau I: S/B après traitement en fonction de X et
du S/B avant traitement.
Comme le montre le tableau I, le traitement effectue modifie
grandement les S/B donc a priori, cela devrait se répercuter sur
l'intelligibilité.
LISTE DE MOTS
Nous avons choisi les mêmes listes que dans
l'expérience précédante. Afin de rendre le test plus
difficile, pour chaque liste, on surajoute un bruit rose pour masquer en partie
le spectre de la parole (cf figure 24). Différents rapports signal bruit
sont testés (12, 6, 0 et --6 dB).
EXPERIMENTATION
Pour chaque sujet testé nous avons passé une liste
par condition sur l'oreille droite. L'intensité de stimulation est
à environ 30 dB SL
Pour chaque sujet six types de compressions avec quatre rapports
signal sur bruit ont été choisies (soit 24 listes) :
- compression de 1/8, 1/4, 1/2, 1 et expansion de 2 et 4.
- rapport signal sur bruit de 12, 6, 0 et --6 dB
Pour chaque mot deux mesures d'intelligibilité sont
effectués :
1- la reconnaissance du mot (0 ou 100%),
2- le pourcentage de phonèmes reconnus dans la liste de
mot (de 0 à 100%).
SUJETS TESTES
Dans cette deuxième expérience seule la
population de normo-entendant a été testée. L'objectif
étant, dans un premier temps, de vérifier que la compression du
signal n'engendre pas de détérioration sur
l'intelligibilité en fonction du S/B.
20 sujets normo-entendants ayant une perte auditive sur
l'oreille droite inférieure à 10 dB sur les fréquences
125, 250, 500, 1000, 2000, 4000 et 8000 Hz ont participé a cette
étude. L'âge des sujets est en moyenne de 28 ans (déviation
standart de 5 ans). La population est composée de 10 hommes et 10
femmes.
RESULTATS & DISCUSSION
le,
100
I »
0
-6 0 6 11
dopdodol idedoll/bne (de)
-6 0 4 12
Reopeel 166061/6.ull (0S)
-6 0 6 11
Reooen skreibte (011)
E 0
I
î 40
20
0
I
Id 100
0
-6 0 6 11 Roman signel/Oeu« (011)
Roma sionel/ausi (a)
Figure 34 : Intelligibilité des phonèmes pour
différentes compressions à différents rapport signal
sur bruit du signal d'entré sur une population de 20 sujets.
L'exemple figure 33 nous montre que le fait de compresser un
signal diminue le rapport signal sur bruit, ce qui est logique si l'on regarde
aussi la figure 32. Inversement une extension du signal augmente le rapport
signal sur bruit.
Malgré cela les résultats figures 34 et 35 ne
montrent pas de différence statistique (par une anova à deux
facteurs à mesure répété) de
l'intelligibilité en fonction du facteur de compression (ou
d'extension). Ce type de compression ne modifie apparemment pas
l'intelligibilité dans le bruit pour différent S/B du signal
entré.
Comme nous nous y attendions, le traitement du signal
utilisé permet de préserver la forme de l'enveloppe ainsi que les
structures fines du signal, ce qui se traduit par la stabilité de la
compréhension de la parole dans le bruit.
-6 0 6 12
Rommel skpotetwe (OS)
-6 0 6 12
Rommel skpessus os)
·
"
so
4o 20
o
-6 0 6 12
· 4 · · ·1 sksel/beu11
(OS)
z
100 g6° 60 40 20
1,7
100
160
1 40
I "
--100
6°
4
40
20
0
-6 0 6 12
Ro00so1 es ·olibee (M)
17 100
I e°
40 20
-5 0 6 12
Roct0o11 t15 oo/W ·1 (dl)
oo
100
4
· "
to
20
-5 0 6 12
1000011 sbeogeewl (te)
Figure 35 : Intelligibilité des mots pour
différentes compressions à différents rapport
signal sur bruit du signal d'entré sur une population de 20
sujets.
CONCLUSION
Bien qu'artificiellement le rapport signal sur bruit se
modifie lors d'une compression (figure 33, table I), l'intelligibilité
reste néanmoins identique. L'utilisation de ce type de traitement semble
être intéressant pour les aides auditives par rapport aux
compressions utilisées actuellement.
Afin de valider ce type de compression, il semble
intéressant de poursuivre ces investigations sur des sujets atteints
d'une surdité cochléaire. Plusieurs sous-groupes, en fonction du
niveau de surdité, doivent être étudiés (de la
surdité moyenne à profonde).
Il semble aussi intéressant d'utiliser ce même
traitement sur plusieurs canaux fréquentiels.
CONCLUSION GENERALE
De ce mémoire ressort plusieurs points importants:
- Le signal de parole peut grossièrement se
décomposer en deux partie, la structure fine et l'enveloppe
temporelle.
- La structure fine d'un signal de parole nécessite une
analyse très précise par la cochlée. Les surdités
cochléaires viennent donc perturber son traitement.
- L'enveloppe du signal ne semble pas être
prétraitée par la cochlée puisqu'elle est perçue de
la même manière par une population atteinte d'une surdité
cochléaire (stimulation électrique par l'implant
cochléaire y compris) que par une population normo-entendante.
- L'enveloppe du signal acoustique est suffisante pour comprendre
(avec de l'entraînement) la parole ; l'intelligibilité est sans
entraînement supérieur à 90 % pour 4 canaux
fréquentiels.
- Un traitement du signal qui sur plusieurs canaux
fréquentiels préserve l'enveloppe du signal lors d'une
compression serait donc bénéfique aux surdités
cochléaires.
- Une compression du signal avec une préservation de
l'enveloppe ne détériore pas l'intelligibilité, ceci
quelque soit le S/B ; des études complémentaires, notamment chez
une population atteint d'une surdité cochléaire, doivent
être effectuées afin de valider ces hypothèses.
Les Maîtres de Mémoire : Vu et PERMIS D'IMPRIMER
Marie Bontoux Lyon, le 20 novembre 1998
Pr Christian Berger-Vachon
Le responsable de l'Enseignement Professeur Alain Morgon
BIBLIOGRAPHIE
Bacon SP, Veimeister NF. Temporal modulation transfer functions
in nomal-hearing and hearing impaired subjects. Audiology, 1985, 24,117-134
Bregman AS, Levitan R, Liao C. Fusion of auditory components.
Effects of frequency of amplitude modulation. Perception and Psychophysics,
1990, 47, 68-73
Burns EM, Viemeister NF. Nonspectral pitch. J Acous Soc Am, 1976,
60, 863-869
Burns EM, Viemeister NF. Played-again SAM : Further observations
on the pitch of amplitude-modulated noise. J Acous Soc Am, 1981, 70,
1655-1660
Cazals Y, Pelizonne M, Saudan O, Boex C. Lowpass filtering in
amplitude modulation detection associated with vowel and consonant
identification in subjects with cochlear implants. J Acoust Soc Am, 1994, 96,
2048-2054
Collins LM, Wakefield GH, Feinman GR. Temporal pattern
discrimination and speech recognition under electrical stimulation. J Acous Soc
Am, 1994, 96, 2731-2737
Deguine O. Implants cochléaires. Acquisition et
controverses. Thèse de médecine, 1990 Demany L,
Lacher-Fougère S. Consequences des pathologies cochléaires sur la
perception des modulations sonores. Cahier de l'audition, 1997, 10, 3; 15-17
Dorman MF, Soli S, Dankowski K, Smith L, McCandless G, Parkin
J. Acoustic cues for consonant identification by patients using Inaired
cochlear implant. J Acous Soc Am, 1990, 88, 2074-2079
Drullman R, Festen JM, Houtgast T. Effect of temporal modulation
reduction on spectral contrasts in speech. J Acous Soc Am, 1996, 99,
2358-2364
Drullman R, Festen JM, Plomp R. Effect of reducing slow temporal
modulations on speech recognition. J Acous Soc Am, 1994, 95, 2670-2680
Drullman R, Festen JM, Plomp R. Effect of temporal envelope
smearing on speech recognition. J Acous Soc Am, 1994, 95, 1053-1064
Drullman R. Temporal envelope and fine structure cues for speech
intelligibility. J Acous Soc Am, 1995, 97, 585-592
Fletcher HF. Auditory patterns. Review of Modern Physics, 1940,
12, 47-65
Gelis C. Bases techniques et principes d'application de la
prothèse auditives. Sauramps medical Eds, 1993.
Hochmair-Desoyer IJ, Hochmair ES, Stiglbrunner HK.
Psychoacoustic temporal processing and speech understanding in cochlear
implants patients. In RA Schindler & MM Merzenich (Eds), Cochlear implants,
New York :Raven Press, 1985, 291-394
Houtsma T, Steeneken HJM. A review of the MTF concept in room
acoustics and its use for estimating intelligibility in auditoria. J Acous Soc
Am, 1985, 77, 1069-1077
Katz SJ, Berry RC. Speech modulated noise. 81nd Meeting of
Acoustical Society of America, 1971.
Kohlrausch A. Comment on 'Temporal modulation transfer functions
in patients with cochlear imlants'. J Acous Soc Am, 1993, 93, 1649-1650
Le Poncin-Charanchon D, Monteil JP, Tran-Ban-Huy P. L'audition.
Les cahiers Baillère, Paris, 1981
Lafon J.C. Transposition et modulation pour que les sourds
entendent. Bull. Audiophonologie, 1996, 12, 3&4
Lorenzi C, Gallégo S, Patterson RD. Discrimination of
temporal asymmetry in cochlear implantees. J Acous Soc Am, 1997, 102,
482-485
Lorenzi C, Micheyl C, Berthommier F, Portalier S. Modulation
masking in listeners with sensorineural hearing loss. J Speech & Hear Res,
1997, 40, 200-207
Lawson DT, Wilson BS, Finley CC. New processing strategies for
multichannel cochlear protheseses. Progress in brain research, 1992.
Moore BJC, Shailer MJ, Schooneveldt GP . Temporal modulation
transfer functions for bandlimited noise in subjects with cochlear hearing
loss. Brit J Audiol, 1992, 26, 229-237
Morgon A, Aran JM, Collet L, Dauman R, Fraysse B, Freyss G,
Pujol R, Sens A, Sterkers O, Tran Ba Huy P, Uziel A. Données actuelles
sur la physiologie de l'oreille interne. Armette société
française d'ORL et de pathologie cervico-faciale, 1990
Noordhoek IM, Drullman R. Effect of temporal intensity
modulations on sentence intelligibility. J Acous Soc Am, 1997, 101, 498-502
Palmer AR. Physiology of the cochlear nerve and cochlear nucleus.
Hearing (Ed. MP Haggard & EF Evans), 1987, 838-855
Patterson RD. Auditory filter shapes derived with noise stimuli.
J Acous Soc Am, 1976, 59, 640-654
Plomp R. The role of modulation in hearing. In R Klinke &
Hartmann (Eds), Hearingphysiologycal bases and psychophysics, 1983, 270-275
Pujol R. Le traitement de du son dans l'oreille interne. Pour la
science, 1990, 154, 20-29 Ritsma RJ. Existence region of the tonal residue. J
Acous Soc Am, 1962, 34, 1224-1229 Rohen JW, Yokochi C. Anatomie Humaine. Atlas
photographique de l'anatomie systématique et topographique. Vigot,
1991
Romand R. Le système auditf central. Ed INSERM/SFA,
1992
Rose JE, Brugge JF, Anderson DJ, Hind JE. Patterns of activity in
single auditory nerve of the cochlea. Nature, 1968, 349, 413-414
Rosen S. Temporal information in speech : Acoustic, auditory and
linguistic aspects. Proceeding of Royal Society of London series B, 1992, 336,
367-373
Shannon RV, Zeng FG, Kamath V, Wygonski J, Ekelid M. Speech
recognition with primarily temporal cues. Science, 1995, 270, 303-304
Shannon RV. Temporal modulation transfer functions in patients
with cochlear implants. J Acous Soc Am, 1992, 91, 2156-2164
Summerfield AQ. Speech-processing alternatives for electrical
auditory stimulation. In RA Schindler & MM Merzenich (Eds), Cochlear
implants, New York :Raven Press, 1985, 195222
Tasell D Van, Solli SD, Kirby VM, Widin GP. Speech waveform
envelope cues for consonant recogniton. J Acous Soc Am, 1987, 82, 1152-1161
Tyler RS, Parkinson AJ, Woodworth GG, Lowder MW, Gantz BJ.
Performance over time of adult patients using the Inaired or Nucleus cochlear
implant. J Acous Soc Am, 1997, 102, 508-522
Viemeister NF. Temporal modulation transfer functions based upon
modulation thresholds. J Acous Soc Am, 1979, 66, 1364-1380
Wilson B, Lawson D, Finley C. Speech processors for auditory
protheses. IVth quaterly progress repport on NIH project N01 DC 9 2401, 1990,
4-24
Zatorre R. Fonctions cérébrales et traitements
auditifs complexe. Revue de Neuropsychologie. 1993, 3, 4, 407-425
|