c) Analyse des résultats obtenus par l'utilisation
des différentes méthodes
i. Mesure des performances
L'évaluation des performances et de l'efficacité
des méthodes et algorithmes de reconnaissance de tableau semble
difficile mais non impossible. En fait, comme nous le montre
Shahab26 , les concepteurs des systèmes de reconnaissance de
tableaux ne donnent pas explicitement l'implémentation des algorithmes
qu'ils utilisent, rendant ainsi difficile la reproduction de leurs
système.
Ce problème est d'autant plus préoccupant que
jusqu'à nos jours, il n'existe pas encore de méthodes quasi -
universelles permettant d'évaluer la performance des systèmes de
reconnaissance de tableaux. Afin d'apporter une solution à ce
problème, Shahab pense qu'une analyse comparative et ouverte de
différentes méthodologies appliquées jusqu'alors en
reconnaissance de tableaux s'avère nécessaire. Ainsi propose - il
deux critères de base devant sous - tendre cette comparaison et
permettant d'évaluer la performance des algorithmes de reconnaissance de
tableaux, à savoir : la précision et l'exactitude de
représentation. Ces deux critères, ajoute - t - il, doivent
être examinés à l'aide des mesures basées sur les
« rapports de surface ». Et c'est dans cet ordre d'idée que,
dans leurs travaux, Shafait et Smith (cités par Chen et
Lopresti27) utilisent les boîtes de délimitation pour
décrire les tableaux détectés et les tableaux réels
(ou physiques).
En appellant Gi, la boîte de délimitation pour le
ième tableau physique et Dj, la boîte de
délimitation pour le jème tableau
détecté dans l'image du document, Shafait et Smith
définissent le rapport de chevauchement entre les deux tableaux comme
suit :
~pq#?s1p
AlG1,D+) = ,A E [0,1]
|q#|/ps1p
26 A. Shahab et al., «An open approach towards
the benchmarking of table structure recognition systems», in Proc.
DAS'10, 2010, pp. 9 - 11.
27 Op. cit.
38
où 'Gin/D,' est la surface d'intersection
entre les deux tableaux ; 1G11 et 1D11 sont les surfaces individuelles
des deux tableaux
De là, Shafait et Smith arrivent à
distinguer les résultats suivants :
- La détection correcte : lorsque IAD
>_ 0,9 avec une correspondance «un - à - un » entre
les tableaux détectés et les tableaux physiques.
- La détection partiale : lorsque 0,1 <
A < 0,9 avec une correspondance «un - à - un »
entre les tableaux détectés et les tableaux
physiques.
- La sur-segmentation : lorsque plusieurs tableaux
détectés correspondent à un seul tableau
physique.
- La sous-segmentation : lorsque plusieurs tableaux
physiques correspondent à un seul tableau
détecté.
- Tableau manquant (ou non trouvé): lorsque
les tableaux réels possèdent des marges de chevauchement avec les
tableaux ; c'est-à-dire A < 0,1 ;
- Fausse détection positive : lorsque les
tableaux détectés possèdent des marges de chevauchement
avec les tableaux réels; c'est-à-dire A <
0,1.
· La précision de surface est
calculée comme suit :
Surface des régions réelles dans les
régions détectées
Surface de toutes les régions
détectées du tableau
· L'exactitude de représentation de surface
est calculée comme suit :
Surface des régions réelles dans les
régions détectées
Surface de toutes les régions réelles
du tableau
ii. Résultats expérimentaux a)
Modalités de tests
D'une manière générale, les
différents algorithmes et méthodes présentés plus
haut ont été testés par leurs auteurs sur des documents
physiques en tenant compte des paramètres suivants :
1) Le type de documents de test
39
Ce paramètre est d'autant plus important qu'il est
déterminé par la méthodologie ou l'algorithme
utilisé(e). Au fait, c'est le concepteur du système de
reconnaissance de tableaux qui précise les documents que son algorithme
est capable de traiter.
Pour la plupart des méthodes qui ont été
soumises à l'expérimentation, le test s'est déroulé
sur des documents suivants :
- des images des documents imprimés et sans bruits (Cfr.
M2 et M8) ;
- des images de tableaux contenant toutes sortes d'objets et
d'écritures manuscrites (Cfr. M3) ;
- des images de tableaux avec ou sans bordures et contenant des
figures, des graphiques, etc. (Cfr. M4) ;
- des images de formulaires - tableaux manuscrits ou
imprimés (Cfr. M5) ;
- des images de documents manuscrits en langue arabe (Cfr. M6)
- des documents texte ASCII et des images de documents
imprimés (Cfr. M7) ;
Par ailleurs, Il sied de signaler que, dans certains cas, parmi
les documents qui ont été choisis pour le test, certains ont
servi pour l'apprentissage du système et d'autres pour évaluer la
performance dudit système.
2) Le nombre de documents de test (images
scannées)
Ainsi que nous l'avons remarqué, ce nombre est
variable d'un auteur à un autre et est choisi uniquement à titre
expérimental. Cependant, il importe de souligner que certaines
méthodes ont été testées sur un nombre
élevé de documents. C'est le cas de la méthode M8 qui a
été testée su 1125 documents et la méthode M3,
testée sur 305 documents. En examinant sérieusement la raison du
choix d'un nombre si élevé pour la base de test, nous constatons
que, pour certaines méthodes, ce nombre améliore l'apprentissage
du système de reconnaissance de tableaux (Cfr. la méthode M8 pour
laquelle 560 documents ont été utilisés rien que pour
l'apprentissage du système !).
3) La taille ou résolution de l'image
d'entrée
Afin de faciliter leur traitement, le degré de
clarté ou de finesse dans les détails des images ou documents
d'entrée doit être prédéfini à
l'entrée du système de reconnaissance de
40
tableaux. Selon les algorithmes ou méthodologies
utilisées, ce nombre total de pixels défini dans chaque image
d'entrée influencera ou n'influencera pas les résultats des
traitements. Ainsi, comme nous l'avons constaté, lors de leurs tests,
certains algorithmes sont restés insensibles à la
résolution de l'image d'entrée (c'est le cas de M2, M4, M7 et
M8). D'autres, par contre, nécessitaient que l'image d'entrée ait
une résolution de 300 X 300 pixels (ou 300 dpi) - c'est le cas de M3, M5
et M6.
|