I.2.4. Les grandes étapes d'un projet
d'Informatique décisionnelle
Un système d'information décisionnel doit passer
par quatre grandes étapes à savoir : I.2.4.1. La
collecte
La première étape qui est celle de collecte
des données ou le Datapumping consiste à aller
chercher les données où elles se trouvent. Ces données
applicatives métier étant naturellement stockées dans une
ou plusieurs bases de données correspondant à chaque application
utilisée.
La collecte est donc l'ensemble des tâches consistant
à détecter, sélectionner, extraire et filtrer les
données brutes issues des environnements pertinents pour obtenir des
indicateurs utiles dans le cadre d'aide à la décision.
Ces données applicatives sont extraites,
transformées et chargées dans un entrepôt de données
ou Data warehouse par un outil de type ETL (Extract-Tranform-Load) qu'on pourra
expliciter plus tard.
9
projet de type décisionnel et est la plus
délicate à mettre en place dans un système
décisionnel complexe.
I.2.4.2. L'intégration
Cette deuxième étape est l'intégration
des données. Elle consiste à concentrer les données
collectées dans un espace unifié, dont le socle informatique
essentiel est l'entrepôt de données. Ce dernier est
l'élément central du dispositif dans le sens où il permet
aux applications d'aide à la décision de bénéficier
d'une source d'information homogène, commune, normalisée et
fiable. Cette centralisation permet surtout de s'abstraire de la
diversité des sources de données.
Une fois les données centralisées par un outil
d'ETL, celles-ci doivent être structurées au sein de
l'entrepôt de données. Cette étape est toujours faite par
un ETL grâce à un connecteur permettant l'écriture dans le
data warehouse. L'intégration est en fait un prétraitement ayant
pour but de faciliter l'accès aux données centralisées aux
outils d'analyse.
C'est lors de cette étape que les données sont
filtrées, triées, homogénéisées,
nettoyées et transformées en vue du maintien de la
cohérence d'ensemble.
I.2.4.3. La diffusion
Cette fonction appelée autrement Distribution a pour
rôle de mettre les données à disposition des utilisateurs.
L'objectif prioritaire de cette étape est de segmenter les
données en contextes informationnels fortement cohérents, simples
à utiliser et qui correspondent à une activité
particulière.
Ceci est dit dans la mesure où un entrepôt de
données peut héberger des centaines ou des milliers de variables
ou indicateurs, mais un contexte de diffusion ne présente que quelques
dizaines au maximum pour rester dans l'optique d'une simple exploitation.
Généralement un contexte de diffusion est
multidimensionnel, cela veut dire qu'il est modélisable sous forme d'un
hypercube et peut donc être mis à disposition via un outil
OLAP.
10
|