II) La digitalisation comme nouvel enjeu de ces
transformations
« Innover c'est facile, la difficulté c'est de
transformer une innovation en vrai business » (Michael Dell, fondateur de
Dell). Si l'arrivée en masse de nouvelles technologies numériques
dans notre quotidien n'est plus un secret pour personne, il reste en revanche
un défi de transformation et d'adaptation majeur pour les entreprises.
Ce processus issu du développement des technologies du digital (A) a
durablement changé l'économie et les entreprises, entrainant donc
tout naturellement Michelin dans la digitalisation (B).
A. Le développement des technologies du
digital
Ce développement repose avant tout sur
l'évolution des technologies du numériques (1) qui ont eu des
impacts sur l'économie et les entreprises (2). Cette situation toute
particulière, au-delà des nécessités de
transformation qu'elle impliquait, a vu l'émergence d'entreprises
data-driven (3).
1. L'évolution des technologies
numériques
Il nous serait difficile de parler de numérique et de
digitalisation sans définir au préalable ce que l'on peut
entendre par « technologie numérique ». Comme nous l'avons vu
lors de notre introduction, le terme de « digital », avec comme
équivalent français « numérique », renvoie au
traitement informatique (Legrenzi, 2015).
Il faudrait donc s'appuyer sur le concept de «
révolution numérique », qui regroupe habilement la notion de
« révolution » qui comprend un « changement brusque,
d'ordre économique, moral, culturel, qui se produit dans une
société » selon le Larousse, et la notion de «
numérique ». En ce sens, on peut donc comprendre que le traitement
informatique entraîne un changement profond de nos sociétés
et des acteurs qui les composent, et donc des entreprises.
Mais le numérique a son histoire qui ne tient pas
à l'invention du premier ordinateur, et si l'on retrouve des outils
automatisés de calculs très anciens, comme le boulier dès
l'antiquité (Ball, 2001), la machine d'Anticythère datée
de 87 avant Jésus-Christ (Price, 1959) ou encore la pascaline issue de
son inventeur Blaise Pascal datée de 1645, on ne peut raisonnablement
parler
20
d'ère du numérique et des ordinateurs modernes
qu'à la suite de la seconde guerre mondiale qui apporta nombre
d'innovations avec notamment le calcul numérique qui s'imposa face au
calcul analogique.
Après de nombreuses innovations avant tout militaire
durant la seconde guerre mondiale, comme par exemple la machine de chiffrement
électromagnétique à cylindre Enigma utilisée par
l'armée allemande, ou encore Colossus Mark 1, un calculateur
électronique développé par le Royaume-Uni et
utilisé dès 1943 pour déchiffrer les codes de la machine
Enigma, nous pouvons dire que le premier ordinateur qui voit le jour est
l'Electronic Numerical Integrator And Computer (ou ENIAC) crée en 1945
à l'intiative de John William Mauchly bien que la mise au point de cet
outil sera financé par l'armée américaine (Michael
Riordan, 1999), considéré comme tel notamment car premier
instrument de calcul entièrement électronique.
Dès lors, les ordinateurs initialement destinés
à des usages militaires tomberont progressivement dans le civil à
la suite de la commercialisation d'ordinateurs dès le début des
années 50 avec le modèle Ferranti Mark 1 qui sera le premier
ordinateur électronique vendu de l'histoire en 1951 comptant neuf
exemplaires écoulés jusqu'en 1957 (Lavington, 1998). Ces
débuts de commercialisation s'accompagnent de découvertes
majeures qui vont également contribuer grandement d'une part au
développement de la performance des ordinateurs mais aussi de leurs
usages. En effet, en 1947 l'invention du transistor par des chercheurs des
laboratoires Bell (The Nobel Prize in Physics 1956, 2014) offrira au monde de
l'informatique un nouveau composant plus petit et plus fiable, et donc
utilisable pour accroître les performances, lequel entraînera une
deuxième génération d'ordinateurs avec des modèles
toujours plus performants et plus petit.
Par la suite, l'invention du circuit intégré en
1957 par l'américain Jack Kilby (rédaction, 2010), marquant le
passage à la troisième génération des ordinateurs,
offrira une fois encore des performances de calcul améliorées
mais surtout une capacité de réduction de l'espace occupé
par les composants d'un ordinateur et donc de sa taille générale.
Cela ouvrira la voix au développement de « mini-ordinateurs »,
« Machine informatique s'inscrivant de par sa puissance et/ou son logiciel
entre les micro-ordinateurs et les ordinateurs classiques » (Centre
National de Ressources Textuelles et Lexicales, 2014) avec des outils dont la
taille se situe donc à mi-chemin entre celle de nos ordinateurs
personnels et les ordinateurs imposants dédiés aux calculs
(pouvant occuper plusieurs mètres carrés de surface dans une
pièce). Le succès de ce type d'ordinateur sera de courte
durée, déclinant ainsi à la fin des années 80 au
profit des ordinateurs personnels (Paul Bocij, 2008).
21
Enfin la quatrième génération
d'ordinateurs sera celle issue de l'invention du micro-processeur par la
société Intel en 1971 (Le second xxe siècle : (1939-2000)
: les 12 thèmes-clés) qui permettra d'aboutir d'un part à
la mise au point de supercalculateurs, et d'autres part à celle des
ordinateurs personnels qui se sont grandement répandus dans nos foyers
ces dernières décennies.
A cela s'ajoute en parallèle une innovation tout aussi
révolutionnaire et également liée au développement
des ordinateurs personnels : Internet.
C'est à partir d'un projet du département
américain de la Défense qui cherchait à créer, au
cours des années 60, un réseau de télécommunication
décentralisé capable de fonctionner malgré des coupures de
lignes et destructions de certaines infrastructures, que l'on aboutira en 1969
au projet « Advanced Research Projects Agency Network (ARPANET) »
(Ghernaouti, 2012), l'ancêtre d'internet.
A la fin des années 80, l'administration des Etats-Unis
finance et met en place des centres informatiques surpuissants permettant
à des utilisateurs de se connecter au réseau ARPANET et d'y
échanger des ressources numériques (Ghernaouti, 2012), mais ce
n'est véritablement qu'à partir des années 1990
qu'apparaît le « web », élément le plus connu
d'Internet qui n'est en réalité qu'une application d'Internet
(Française, 2019), un système hypertexte révolutionnaire
permettant à l'aide d'un navigateur de consulter des pages
associées à des sites Internet et reliées entre elles.
Cet outil ne cessera de se développer au cours des
années qui suivront, devenant de plus en accessible à tous par le
développement dans le même temps des ordinateurs personnels et
autres outils technologies permettant d'accéder au web. Ainsi en 2018,
le nombre d'utilisateurs d'Internet a dépassé les quatre
milliards (Annexe 1, page 3) alors qu'il n'était que de trois milliards
en 2014 (Shutterstock, 2014), lesquels ont dépensé en moyenne 25%
de leurs temps quotidien sur Internet (Annexe 1, page 3).
A cette diffusion vertigineuse s'ajoute également
d'autres éléments chiffrés pertinents comme le fait qu'en
2017, deux cents millions de personnes recevaient le premier outil mobile de
connexion à distance alors que 68% de la population possédait
déjà son propre téléphone mobile (Annexe 1, page
7). Ceci démontre donc, en plus de développement d'Internet que
les outils permettant son accès partout se sont tout autant largement
répandus dans la population mondiale.
22
Ces développements techniques issus donc de la
révolution numérique ont marqué une rupture fondamentale
dans nos économies et nos sociétés, mais ce qu'il faut
retenir de cela n'est pas tant le génie de ces inventeurs qui auront
changé le XXème siècle, mais surtout la mise à
disposition pour chaque individu d'outils interactifs, performants et en
communication avec leur environnement d'une telle manière que
l'accès à divers produits de consommations et services n'a jamais
été aussi rapide et étendue, de la même
manière que les entreprises y ont trouvé un levier important
d'amélioration de leurs performances internes et de leurs business. Ces
outils ont par voie de conséquence eu des impacts considérables
sur l'homme et les organisations.
|