WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site:
1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
Dogecoin (tips/pourboires):
DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp
Rechercher sur le site:
Home
|
Publier un mémoire
|
Une page au hasard
Memoire Online
>
Informatique et Télécommunications
>
Intelligence artificielle
Prévison de date de passage des jalons avec les méthodes de machine learning
par
Amassin NACERDDINE
Université Paris VIII Vincennes St-Denis - Master Big Data et fouille de données 2021
Disponible en
une seule page
suivant
Introduction
Chapitre I
I.1 Introduction
I.2 Contexte
I.3 Contexte Logiciel
I.4 Jalonnement adopté
I.5 Semaines entre chaque jalon
I.6 Indicateurs
I.7 Conclusion
Chapitre II
II.1 Objectif
II.1.1 Métier
II.1.2 Technique
II.1.3 Stratégique
II.2 Règle
II.3 Données
II.3.1 Composition de données
II.3.2 Schéma de données
II.3.3 Nommage des projets
II.3.4 Zone architecture
II.4 Difficultés rencontrées
II.5 Décomposition du problème
II.6 Data pre-processing
II.6.1 Nettoyage des données
II.6.2 Chercher les valeurs aberrantes
II.6.3 Application des lois statistiques
II.6.3.1 Loi de Benford
II.6.3.2 Loi de Zipf
II.6.3.3 Loi normale
II.6.4 Sélection des caractéristiques intéressantes
II.6.5 Transformer les données
II.6.5.1 TF-IDF
II.6.5.2 Word2Vec
II.6.5.3 LabelEncoder
II.6.5.4 Normalisation
II.6.6 Augmentation de données
II.7 Conclusion
Chapitre III
III.1 Introduction
III.2 Machine Learning
III.3 Apprentissage supervisé
III.4 Régression ou classification III.4.1 Problème de classification
III.4.2 Problème de régression
III.5 Algorithmes linéaires ou non linéaires
III.6 Modèles paramétriques ou non paramétriques
III.7 Apprentissage hors ligne ou incremental
III.8 Modèles géométriques ou probabilistes
III.9 Les principaux algorithmes
III.9.1 La régression linéaire
III.9.2 Les K plus proches voisins
III.9.3 Les arbres de décision
III.9.4 Les forêts aléatoire
III.9.5 Les machines à vecteurs de support
III.9.6 MLP
III.9.6.1 rétropropagation
III.9.6.2 Initialisation judicieuse
III.9.6.3 Utiliser le bon nombre de couches et de neurones par couche
Chapitre IV
IV.1 Performance d'un modèle et sur-apprentissage
IV.2 Évaluation de la classification IV.2.1 La matrice de confusion
IV.3 Évaluation de la régression
IV.3.1 RSS
IV.3.2 MSE
IV.3.3 RMSE
IV.3.4 RMSLE
Chapitre V
V.1 Classification
V.1.1 Sur l'ensemble du jeux de données
V.1.1.1 Random forest
V.1.1.2 XGBOOST
V.1.1.3 KNN
V.1.2 Sur un jeux de test aléatoire
V.1.3 Temps d'entraînement des algorithmes
V.2 Régression
V.2.1.1 Random forest
V.2.1.2 KNN
V.2.3 Temps d'entraînement des algorithmes
Chapitre VI
VI.1 Introduction
VI.2 Méthode SCRUM
VI.3 Diviser pour régner
VI.3.2 Diviser notre problème
VI.3.2.1 Les IHM
VI.3.2.2 Les données
VI.3.2.3 Les APIs et les Frameworks
VI.3.3 Diviser le temps
VI.3.3.1 Sprint 1
VI.3.3.2 Sprint 2
VI.3.3.3 Sprint 3
VI.3.3.4 Sprint 4
Chapitre VII
VII.1 Introduction
VII.2 Logiciels et outils utilisé
VII.2.1 Python3
VII.2.2 Jira
VII.2.3 Pandas
VII.2.4 D3.js
VII.2.5 TensorFlow
VII.2.6 Scikit-Learn
VII.2.7 Keras
VII.2.8 Google Cloud Plate forme
VII.2.9 Flask
VII.2.10 HTML/CSS/JS
VII.2.11 Git & GitHub
VII.3 Aperçu de l'outil
Conclusion
Bibliographie
suivant
Rechercher sur le site:
"Ceux qui vivent sont ceux qui luttent"
Victor Hugo