SECTION 2 : IMPACT DU BIG DATA SUR LE CONTROLE DE
GESTION
De nos jours Le Big Data représente l'une des fameuses
technologies qui fait une révolution remarquable dans le monde de
business, dans cette section nous présentons la définition du Big
Data et ses paramètres connus sous le nom des 5V, puis nous mettons en
évidence ses opportunités pour le contrôle de gestion en
finissant par ses limites et ses risques pour cette fonction.
1. Définition du Big Data
La définition exacte et homogène du terme «
Big Data » est pratiquement impossible, les non-spécialistes qui
cherchent à comprendre ce concept se trouvent devant une multitude de
définitions.
Le Gartner Group définit le Big Data comme un ensemble
d'informations très variées, à haut volume et à
grande vitesse qui exigent des formes de traitement de l'information innovantes
et peu coûteuses pour améliorer la compréhension et la
prise de décision (cité par :Thourot et Folly 2016).
Une définition traditionnelle et assez populaire
créée par le McKinsey Global Institute (Institut mondial
McKinsey, 2011) : "Big Data" fait référence aux ensembles de
données dont la taille dépasse la capacité des outils
logiciels de base de données typiques à les saisir, les stocker,
gérer et analyser" (cité par : Kubinaa et al 2015).
Cette définition met l'accent sur le problème,
qui est à l'origine des Big Data pour les entreprises. La
quantité et le type de ces données sont si vastes et si
variées qu'il n'est pas possible de travailler avec elles de
manière traditionnelle et avec des outils traditionnels comme les
entreprises y étaient habituées.
2. Les 5V du Big Data
Pour bien comprendre la technologie du Big Data il convient de
mettre en lumière les principes de base de son usage qui sont connus
sous le nom des 5V.
2.1 Le volume
Le volume correspond aux énormes quantités
d'informations produites chaque seconde, l'unité de mesure de la masse
de données générée n'est plus en gigabits ou en
même térabits qui sont des unités de mesure des disques
durs d'ordinateurs, mais en zettabits ou en brontobits,
40
aujourd'hui la quantité de données produite
chaque minute est aussi grande que toutes les données qui ont
été engendrées (livres, oeuvres d'art, musique) depuis
l'invention de l'écriture jusqu'à la fin de 2008 (Bourany
2018).
L'accroissement exponentiel de cette masse de données
remet en cause la capacité des outils « traditionnels »
à stocker et analyser cette quantité importante des
données ce qui nécessite d'innover de nouveaux outils de stockage
(cloud, systèmes distribués) et d'analyse statistique pour en
tirer profit et donner une nouvelle dimension à ce domaine (Vloet,
2016).
|