WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site:
1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
Dogecoin (tips/pourboires):
DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp
Rechercher sur le site:
Home
|
Publier un mémoire
|
Une page au hasard
Memoire Online
>
Sciences
Traduction automatisée des langues africaines. Cas du lingala.
par
Assandé Jacob TANO
International Data Science Institute - Master Data Science - Big Data 2020
Disponible en
une seule page
suivant
DEDICACES
REMERCIEMENTS
SOMMAIRE
PARTIE II: ETUDE DES APPROCHES EXISTANTES DE TRADUCTION AUTOMATIQUE ET CHOIX
LISTE DES TABLEAUX
LISTE DES FIGURES
LISTE DES ABREVIATIONS
GLOSSAIRE
AVANT-PROPOS
RESUME
INTRODUCTION GENERALE
PARTIE I : ENVIRONNEMENT DE LA MISSION
I- PRÉSENTATION DE LA STRUCTURE D'ACCUEIL
1. Structure d'accueil
2. Les domaines de compétences de la structure d'accueil
II- PRÉSENTATION DU CAHIER DES CHARGES
1- Motivation du choix des langues
2. Objectif général
3. Objectifs spécifiques
III- PLANNING PREVISIONNEL
1- Planning d'exécution du projet
IV- ANALYSE DE L'EXISTANT
1. Constat
2. Commentaires
PARTIE II : ETUDE DES APPROCHES EXISTANTES
DE TRADUCTION AUTOMATIQUE ET CHOIX D'UNE
APPROCHE
I - PRÉSENTATION DES APPROCHES DE TRADUCTION AUTOMATIQUE
1 - Traduction Automatique Basée sur des Règles (TABR)
2 - Traduction Automatique Statistique (TAS)
3 - Traduction Automatique Neuronale (TAN)
II - CHOIX D'UNE APPROCHE
1. Choix
2. Motivations du choix
PARTIE III : DESCRIPTION DE LA TRADUCTION
AUTOMATIQUE NEURONALE
I- LA TRADUCTION AUTOMATIQUE NEURONALE
1- Réseau de neurones artificiels
a- Définition du neurone formel
b- Formulation mathématique du neurone formel
2- Type de Réseaux de neurones
a- Les réseaux de neurones à propagation avant - Feed Forward Neural Networks (FFN)
b- Les réseaux de neurones convolutionnels - Convolutional Neural Network (CNN)
c- Les réseaux de neurones récurrents - Recurrent Neural Networks (RNN)
II- LES RÉSEAUX DE NEURONES RÉCURRENTS
1- Généralité
a- généralité sur Le perceptron multicouches (MLP)
b- du perceptron multicouche au réseau de neurone récurrent
2- Architecture du réseau de neurones récurrents - Recurrent Neural Network (RNN)
3- Les Variantes du réseau de neurones récurrents
a- Long Short-Term Memory - LSTM
b- Gated Recurrent Unit - GRU
III- MODÈLES NEURONAUX DE TRADUCTION AUTOMATIQUE
1. Méthodologie
2. Le modèle sequence-to-sequence
a- Description du fonctionnement
b- Procédés d'amélioration d'un modèle Sequence-to-Sequence
3- le modèle `Transformer'
a. Architecture
b. Description
IV- EVALUATION D'UN MODÈLE DE TRADUCTION AUTOMATIQUE
1- La métrique BLEU
2- Exemple de calcul du BLEU Score
a- calcul manuel
b- Vérification du calcul manuel à l'aide de la bibliothèque «nltk» de python
PARTIE IV : IMPLEMENTATION DU MODELE
DE TRADUCTION AUTOMATIQUE
I- PRÉSENTATION DU PROCESSUS GLOBALE DE TRAITEMENT
1- Processus globale de traitement
2- Prérequis
II- COLLECTE ET PRÉPARATION DES DONNÉES
1- La collecte des données
2- Préparation les données
a- Minuscules
Tableau 7 : Exemple de mise en minuscule des mots du jeu de données b- Suppression du bruit
c. Harmonisation des écrits
d. Tokenisation
e- Vectorisation
3- Répartition des données
III- CONSTRUCTION DU MODÈLE DE TRADUCTION AUTOMATIQUE
1- présentation des différents modèles construit
IV- PRESENTATION DES RESULTATS
1- Evaluation
2- Commentaires
3- Interface et quelques traductions
a- Interface de traduction
b- Quelques traductions
CONCLUSION GENERALE
BIBLIOGRAPHIE
ANNEXES
TABLE DES MATIERES
PARTIE II: ETUDE DES APPROCHES EXISTANTES DE TRADUCTION AUTOMATIQUE ET CHOIX
suivant
Rechercher sur le site:
"Les esprits médiocres condamnent d'ordinaire tout ce qui passe leur portée"
François de la Rochefoucauld