P a g e | i
Épigraphe
C'est bien de travailler dur mais il faut le faire
intelligemment pour ne pas s'épuiser avant d'atteindre
l'objectif.
William Sinclair M.
P a g e | ii
J
e dédie ce modeste travail à mon cher père
SHANGA KAPINGA Denis. Que j'aime plus que tout au monde. A lui je dois toute ma
vie et toutes mes réussites, car sans lui je ne serais pas arrivé
jusqu'ici. J'espère rester toujours fidèle aux valeurs morales
qu'il m'a apprises.
A ma défunte chère mère DIMUKA NGULUBI
Mélanie. Aucun mot ne saurait exprimer mon immense amour, mon estime, ma
profonde affection et ma reconnaissance pour tous les sacrifices qu'elle a
consenti pour mon bonheur et ma réussite.
A toi mon épouse UKOLAMA MUTOMBO Kevine et à mon
fils chéri SHANGA MUTOMBO Ethan pour la force, la motivation, la
patience et l'amour qu'ils me procurent.
Eddy MUTOMBO SHANGA
P a g e | iii
Remerciements
N
|
ous remercions le Dieu Tout - Puissant de nous avoir
donné le courage, la volonté, la force et la patience afin de
parvenir à élaborer ce modeste travail.
|
Nous tenons à remercier sincèrement notre
encadreur le Professeur Ruffin-Benoît NGOIE MPOY pour
avoir accepté de diriger ce travail et de nous avoir accompagné
tout au long de sa réalisation avec beaucoup d'intérêt et
de disponibilité ainsi que pour tout le soutien, l'aide, l'orientation,
la guidance et ses encouragements qu'il nous a apportés et d'avoir mis
son expérience à notre profit dans son encadrement.
Nous souhaitons adresser nos remerciements les plus
sincères aux personnes qui nous ont apporté leur aide et qui ont
contribué à l'élaboration de ce mémoire ainsi
qu'à la réussite de cette formidable année
académique.
Nos remerciements s'adressent aussi aux membres du jury qui
ont eu la tâche d'évaluer ce modeste travail pour le raffiner.
Finalement, nous adressons aussi nos remerciements
sincères à nos familles, nos soeurs et frères et à
nos amis.
P a g e | iv
Sigles et abréviations
ABCD : Asymmetry
Border Irregulatity Colour and
Dermoscopic
structure.
API : Application
Programming Interface (Interface de
Programmation d'Application).
BD : Base de
Données.
BIG-DATA : Donnes
très Volumineux.
CASH : Combined
Algorithm Selection and
Hyperparameter.
CNN : Réseaux
Neuronaux Convolutionnels.
CNTK : Microsoft
Cognitive Toolkit.
CPU : Central
Processing Unit.
DAO : Diagnostic
Assisté par Ordinateur.
DATA-SET : Jeu de
Données
DNN : Deep
Neural Network (Réseau de Neurones
Profond).
ELU : Exponential
Linear Unit (Unité Linéaire
Exponentielle).
FCRN : Neonatal Fc
Receptor.
GAC : Contour
Actif Géodesique.
HCA : Analyse de
Classification Hiérarchique.
IA : Intelligence
Artificielle.
ISIC : International
Strandard Industrial
Classification.
ML : Machine
Learning (Apprentissage Automatique).
MLP (PMC) : Multi
Layer Perceptron (Perceptron Multi Couche)
MVS OU SMM : Machine
Vector Support (Machines à Vecteurs
Supports).
OMS : Organisation
Mondiale de la Santé.
P a g e | v
ONEIROS : Open-ended
Neuro-Electronic Intelligent
Robot Operating
System.
PCA : Analyse des
Composants Principaux.
RELU : Rectified
Linear Unit (Unité Linéaire
Rectifiée).
RGB : Red
Green and Blue.
RNN : Réseaux
Neuronaux Récurrents.
ROI : Région
d'Intérêt.
SVM : Support
Vector Machine (Séparateurs à vaste
marge).
TDNN : Time
Delay Neural NetWork (Réseau
de Neurones à Retard
Temporel).
TDS : Total
Dermoscopic Score.
UV :
Ultra-Violets.
XGBOOST : eXtreme
Gradient Boosting.
P a g e | vi
Liste des figures
Figure 1. Apprentissage supervisé. 17
Figure 2. Neurone biologique et neurone artificiel.
18
Figure 3. Apprentissage non supervisé. 19
Figure 4. Apprentissage par renforcement. 20
Figure 5. Les approches et les algorithmes de l'apprentissage
automatique. 21
Figure 6. Le choix de l'algorithme d'apprentissage selon
certains facteurs. 21
Figure 7. Les sous-bronches de l'intelligence artificiel.
27
Figure 8. Un perceptron multicouche. 27
Figure 9. Les différentes aires du cortex visuel.
32
Figure 10. Structure générale d'un CNN.
33
Figure 11. L'architecture des réseaux de neurones
convolutifs. 33
Figure 12. Opération convolutive sur une image.
34
Figure 13. Représentation générale des
cartes de caractéristiques. 35
Figure 14. Convolution sur une histologie. 35
Figure 15. Dimensions d'une image et des cartes de
caractéristiques. 36
Figure 16. Exemple applicatif des différents Pooling.
37
Figure 17. Résultat de différents Pooling sur
une histologie. 38
Figure 18. Stride(ligne,colone). 38
Figure 19. Exemple de dépassement d'une image par un
filtre. 39
Figure 20. Exemple de filtre passant par un pixel. 39
Figure 21. Exemple applicatif d'un Padding-Same. 40
Figure 22. Opération convolutive sans Relu. 41
Figure 23. Opération convolutive avec Relu.
41
Figure 24. Architecture générale d'un CNN.
42
Figure 25. Reconnaissance d'une image avec CNN. 43
Figure 26. Types des mélanomes (a) superficiel
extensif, (b) nodulaire, (c) lentigo
et (d) acral. 45
Figure 27. Dermoscope. 47
Figure 28. Schéma bloc d'un DAO. 47
Figure 29. Segmentation d'une lésion : a) illustration
de ROI, b) masque de la
lésion. 48 Figure 30. Échantillon des
lésions bénignes et malignes de la base des images
dermoscopiques PH2. 52
Figure 31. Interface de Jupyter Notebook (source Jupyter)
57
Figure 32. Logo de l'IDE Spyder. 58
Figure 33. Logo de Framework FLASK 58
Figure 34. Différents types des graines de
beauté de mélanome. 62
Figure 35. Importation bibliothèques. 63
Figure 36. Chargement des données à partir du
Dataset. 64
Figure 37. Chargement des données pour cas exemple.
64
P a g e | vii
Figure 38. Mise à l'échelle des
données. 64
Figure 39. Augmentation des données. 65
Figure 40. Implémentation CNN. 65
Figure 41. Implémentation de la compilation du
modèle. 66
Figure 42. Entraînement de la solution finale.
66
Figure 43. Résultat de l'entrainement du
modèle. 67
Figure 44. Perte et précision de données.
67
Figure 45. Enregistrement du modèle (CNN).
68
Figure 46. Résultats d'un cas testé via le
modèle. 68
Figure 47. Module de prédiction pour l'API.
69
Figure 48. Le logo de l'API. 69
Figure 49. Démarrage de l'API. 70
Figure 50. Interface graphique de prédiction.
70
Figure 51. Exploration des images. 71
Figure 52. Interface de prédiction à
l'état prêt. 71
Figure 53. Résultat du diagnostic via l'API.
72
P a g e | viii
Liste des tableaux
Tableau 1 : Comparaison entre l'apprentissage automatique et
l'apprentissage en
profondeur. 29
P a g e | ix
Table des matières
Épigraphe i
Remerciements iii
Sigles et abréviations iv
Liste des figures vi
Liste des tableaux viii
Table des matières ix
INTRODUCTION GENERALE 12
1. Contexte et Motivation. 12
2. Méthode et Organisation du travail. 14
Chapitre premier : Apprentissage automatique &
Apprentissage profond. 15
1.1. Introduction. 15
1.2. L'apprentissage automatique Machine Learning.
15
1.2.1. Définitions et types d'apprentissage
automatique. 15
1.3. Le choix d'un type d'apprentissage automatique.
21
1.4. Champs industriels d'apprentissage automatique.
22
1.4.1. La reconnaissance de forme. 22
1.4.2. La fouille de données ou datamining. 22
1.4.3. Caractéristique d'apprentissage automatique.
23
1.4.4. Tache d'apprentissage. 24
1.4.5. L'espace des données d'apprentissage.
25
1.5. De l'apprentissage automatique à l'apprentissage
en profondeur. 25
1.6. L'apprentissage en profondeur « Deep Learning
». 26
1.6.1. Définitions et les architectures
d'apprentissage en profondeur. 26
1.7. Comparaison entre l'apprentissage automatique et
l'apprentissage en
profondeur. 29
Conclusion partielle. 30
Chapitre deuxième : Réseau des neurones
à convolution (CNN). 31
2.1. Introduction. 31
2.2. Motivations des réseaux de neurones convolutifs.
31
2.3. Le cortex visuel. 32
2.4. CNN et structure générale. 32
2.5. CNNs et fonctionnement. 33
P a g e | x
2.5.1. Les filtres (Kernel). 34
2.5.2. Cartes de caractéristiques. 34
2.5.3. Profondeur de l'image et des filtres. 35
2.5.4. Le Pooling. 36
2.5.5. Le Stride. 38
2.5.6. Le zero-Padding. 39
2.5.7. Padding-valid, Padding-Same. 40
2.6. Fonction Relu. 40
2.7. Couche de Correction (RELU). 41
2.8. Couche entièrement connectée (FC).
41
2.9. Couche de perte (LOSS). 42
2.10. Deep Neural Network (DNN) final. 42
2.11. Structure générale d'un CNN. 42
2.12. L'application des réseaux neuronaux convolutifs.
42
2.13. Avantages de CNNs. 43
Conclusion partielle. 44
Chapitre troisième : État de l'art sur les
méthodes de segmentation & de
classification d'images. 45
3.1. Introduction. 45
3.2. Le mélanome. 45
3.2.1. Facteurs de risques. 46
3.2.2. Développement du mélanome. 46
3.2.3. Détection et traitement du mélanome.
46
3.2.4. Diagnostic assisté par ordinateur. 47
3.3. Segmentation des lésions cutanées.
48
3.3.1. Segmentation basée clustering. 48
3.3.2. Segmentation basée C-moyennes floues (FCM).
49
3.3.3. Segmentation basée K-means. 49
3.3.4. Segmentation basée sur les réseaux
neuronaux convolutifs. 50
3.4. Classification des lésions cutanées.
52
Conclusion partielle. 55
Chapitre quatrième : Implémentation &
interprétation des résultats. 56
4.1. Introduction. 56
P a i e | xi
4.2. Les outils et les détails
d'implémentation. 56
4.2.1. Environnement de développement. 56
4.2.2. Langage de programmation. 60
4.3. Présentation du problème. 61
4.3.1. Aperçu général sur le cancer
de la peau. 62
4.3.2. Information sur les données. 63
4.3.3. Implémentation du cas en Python. 63
4.4. L'exploitation de modèle (Déploiement).
69
4.4.1. Quelques codes sources de déploiement de
l'API PrediCancerPeau
avec Flask. 72
Conclusion partielle. 74
CONCLUSION GENERALE 75
Bibliographies : 76
Webographie : 79
P a g e | 12
|