Pour Peck, le véritable avenir du jeu
repose dans le bruitage, c'est à dire le procédé qui
consiste à capturer le son de tout ce que l'on voit à l'image.
(NDT : est-ce utile de préciser que le son direct est inexistant
dans le jeu vidéo ?)
L'introduction de bruitage dans l'audio du jeu crée une
expérience sonore plus complexe qui capture des sons humains beaucoup
plus réalistes.
Si vous dirigez un personnage et le déplacez dans un
FPS (NDT : First Person Shooter = jeu de tir à la première
personne, voire aussi « Doom-Like »), il est très
important d'être capable de renforcer l'illusion avec le tintement de
l'armure, le cliquetis de l'arme, le bon son de bottes dans la neige
grinçante », dit Peck, soulignant l'importance de pouvoir
apporter au jeu les détails et les nuances du son.
Je pense à l'exemple très frappant d'un FPS
multijoueur hilarant que j'affectionne énormément, Time
Splitters : Future Perfect, qui propose un bonus inédit.
En effet, au bout de quelques heures de jeu, on a la
possibilité de remplacer les sons très travaillée des
armes, des véhicules par les même sons, mais bruités
à la bouche !
Je sais que Nick Peck ne pensait pas à ce genre de
« sacrilège », lorsqu'il parlait de bruitage, mais
compléter le look farfelu des personnages (Le Dinosaure, L'Ours, Le
Robot Poisson, ou Léo Krupps, le célèbre dompteur mi
homme-mi lion), l'action démesurément violente et volontairement
confuse par des « Fiouuuuuuuuuuuuuuuuuuuuuuuu PRRRRRRRR »
et autres « TAGADAGADAGADA » scandés sans retenue
par une voix enfantine est vraiment une idée tordante !
L'axe de la qualité pure
« Tant que les capacités sonores des ordinateurs
ressemblent plus à des téléphones, on ne pourra pas parler
de bande son dans le jeu » entendait-on au début des années
90.
Mais après avoir résolu les problèmes de
qualité purement audio en passant en une petite décennie de la
qualité « téléphone » à une
qualité proche du CD audio1, force est de constater que le son dans la
plupart des jeux reste souvent une superposition d'éléments
sonores plus ou moins harmonieuse et aléatoire. Les coupures sonores
intempestives, les boucles insupportables, les répétitions
systématiques de son, les désynchronisations ou des
décrochements importants entre le son et l'image, sont encore le
quotidien des joueurs.
L'axe du rendu sonore en « temps réel
»
Il a bien fallu se rendre à l'évidence, la
qualité du son ne suffit pas pour créer une bande sonore dans un
jeu comme on l'entend au cinéma. L'adéquation du son avec l'image
est encore trop hasardeuse. Mais pour parvenir à suivre les choix des
joueurs, les déplacements des personnages dans l'espace du jeu, le son
ne peut être calculé à l'avance. Cette charge doit
être du ressort de l'ordinateur lui-même. Cette modification du son
en temps réel réclame une puissance de calcul importante au
regard de ce que l'ordinateur doit déjà gérer par
ailleurs. Qu'à cela ne tienne ! Comme il y a des cartes vidéo
dédiées au calcul de l'image, les cartes sons
équipées de processeurs dédiés (DSP) s'en
chargeront !
Hélas, ces cartes ne se répandent pas si
rapidement, et il n'existe pas de norme suffisamment installée pour
encourager les développeurs à implémenter des technologies
que, par-dessus le marché, ils ne maîtrisent pas. Par ailleurs le
surcoût que cela pourrait occasionner n'est pas jugé rentable par
la majorité des productions.
Cet axe est pourtant une évidence pour qui travaille
sur le son des jeux vidéo mais l'usage de moteur audio 3D
nécessite toujours des réglages complexes et des choix
artistiques que l'ordinateur ne peut pas faire. On rencontre ce genre de
problèmes par exemple lors des changements de position de caméra
qui entraîne automatiquement des changements de rendu sonore des plus
inaudibles (un champ/contrechamp par exemple qui fait passer un son de gauche
à droite de façon très fatigante pour l'auditeur/joueur).
Les règles qui rendent cohérent le point de vue et le point
d'écoute dépendent d'un grand nombre de facteurs, pas toujours
les mêmes en fonction de la scène, et qui sont très
difficile à modéliser.
Dans un jeu vidéo, nous sommes souvent obligés
de faire le constat suivant :
L'interactivité d'un jeu va à l'encontre de
certaines lois et fonctions du son.
Ces lois quelles sont elles ?
Au cinéma, devenu parlant, le son a totalement
modifié le montage des plans en introduisant la continuité. Des
plans discontinus se retrouvent, grâce au son, reliés entre eux
dans le temps et aussi dans l'espace. Par exemple la même ambiance de
foule donnera la cohérence d'ensemble au montage d'un concert
filmé à des endroits et à des moments différents.
Dans d'autres cas, le son relie deux plans en anticipant
légèrement la scène à voir (ex : dans Star
Wars, le thème de l'étoile noire qui démarre quelques
secondes avant que n'apparaisse cette dernière et l'introduit en grandes
pompes). Dans tous les cas le son « lisse », en quelque sorte, le
montage image.
Mais dans un film, le réalisateur est totalement
maître du rapport image/son et il peut créer l'effet qu'il
souhaite en déclenchant les éléments sonores en parfait
adéquation avec l'image. Dans un jeu en revanche Le joueur se retrouve
à la fois dans la position du monteur,
déclenchant des évènements sonores au moment qu'il
décide et mixeur, par sa position dans l'espace du jeu.
Les synchronisations ne sont déterminées que ponctuellement (une
animation/un bruitage) pour le reste, les enchaînements sont
imprévisibles, à plus forte raison dans le jeu online où
on peut vite se retrouver avec 30 monteurs/mixeurs dans un même
décor..
Par conséquent comment le son peut-il encore assurer
son rôle de « continuum spatio-temporel » dans un jeu où
l'interactivité rompt constamment cette continuité ?
|