Introduction
Plus de puissance de calcul, une rapidité accrue du
traitement de l'information et une meilleure protection de nos systèmes,
voilà ce que nous promet les technologies quantiques. La soif de
progrès nous pousse à toujours rechercher l'évolution de
nos appareils, logiciels, protocoles et algorithmes.
L'essor du nombre d'appareils connectés, notamment avec
l'IoT, entraine inéluctablement un besoin de cyber protection
supplémentaire. Les logiciels certes, de plus en plus performants, mais
également de plus en plus gourmands en ressources, sont soumis à
la puissance de calcul du ou des processeurs de la machine hôte. Le
besoin en bande passante s'accroit, les besoins en matière de protection
des flux réseau également.
L'informatique tend, dans un premier temps, à
répondre aux besoins des professionnels : Les supercalculateurs actuels,
certes performants, paraissent obsolètes face aux ordinateurs quantiques
et leur puissance de calcul bien supérieure. Certaines opérations
complexes, notamment la modélisation de phénomènes
climatiques ou médicaux ou encore des estimations extrêmement
précises pourront s'effectuer bien plus rapidement qu'a l'heure
actuelle, avec nos superordinateurs.
Les technologies quantiques ne s'appliquent pas uniquement
à l'aspect matériel, de nouvelles méthodologies
algorithmiques, qui seront en capacité d'exploiter
l'accélération quantique et les principes d'intrication et
superposition devront être développées, ne serait-ce que
pour un souci de compatibilité entre la couche logicielle et
matérielle.
Malgré l'ensemble des aspects positifs que
présente l'informatique quantique, cette dernière expose ceux qui
n'y sont pas préparés à des risques de sabotage. Les
technologies quantiques seront aptes à déchiffrer les algorithmes
de sécurité actuels. Les appareils, base de données et
tout autre type de biens matériel ou immatériel
protégé par des algorithmes traditionnels sont exposés aux
algorithmes dits « quantiques ».
La première partie du mémoire permettra de
définir les bases de l'informatique quantique, en démontrant
certains principes fondamentaux de la mécanique quantique, tout en
s'appuyant sur des faits. Nous analyserons également l'impact des
technologies quantiques au sein des réseaux dits quantiques.
La deuxième partie du mémoire sera
consacrée à l'analyse des risques engendrés par l'essors
des technologies quantiques. Nous nous pencherons également sur les
actions défensives possibles et entreprises notamment par les hautes
instances gouvernementales.
4
1. En quoi consiste l'informatique quantique ?
Étant donné que les principes de physiques
« classiques » ne permettaient pas d'expliquer certains
phénomènes, le principe de physique quantique a été
admis au cours du XXème siècle. Il regroupe un ensemble de
théories physiques décrivant le comportement des atomes et des
particules. Elle agit donc au niveau atomique.
La physique quantique est utilisée dans l'ensemble des
domaines recourant aux lois de la mécanique quantique, l'informatique,
et plus précisément l'architecture de nos microprocesseurs, en
fait partie.
L'informatique quantique découle de la physique
quantique, et se présente comme une révolution technologique. Si
l'on devait résumer les apports potentiels des technologies quantiques,
ces dernières permettraient de démultiplier la vitesse de calcul
et de traitement des données de nos appareils et programmes, tout en
apportant des algorithmes de cryptage bien plus robustes que ceux
utilisés de nos jours.
Constat de l'existant : pourquoi adopter une démarche
quantique dans le cadre de l'informatique ?
Au rythme actuel, et avec les technologies conventionnelles
d'aujourd'hui, il est estimé que nous pourrons miniaturiser nos
appareils technologiques durant encore les vingt prochaines années. Le
quantique promet également une amélioration de la puissance de
calcul des processeurs, tout en réduisant leur consommation
d'énergie grâce au principe de superposition, qui sera
développé plus tard. Une vitesse accrue du traitement des
informations permettrait de résoudre plus rapidement des
problèmes mathématiques, renforcer les systèmes de
cybersécurité, développer de nouveaux algorithmes de
chiffrement, traiter de plus grandes quantités d'informations
L'objectif serait de garder notre rythme de croisière
en matière d'évolution technologique le plus longtemps
possible.
Comment fonctionnent les algorithmes quantiques?
La plupart des algorithmes quantiques suivent le schéma
suivant:
· Étape de préparation: préparer
les qubits d'entrée et définir la valeur initiale de ces
derniers. Habituellement, une partie de cette préparation consiste
à mettre les qubits les uns sur les autres.
· Étape de calcul: Lancement de la conversion des
qubits afin de minimiser les résultats incorrects. Pour cela, des qubits
intriqués sont généralement nécessaires.
· Etage de mesure: mesure le qubit, détruisant
ainsi l'état interne de l'amplitude du sous-bit mesuré et
obtenant la sortie classique de 1 et 0.
5
·
Étape itérative: Les résultats obtenus
étant probabilistes et pas toujours les résultats attendus,
il est généralement nécessaire de
vérifier si les résultats obtenus sont valides ou il est
nécessaire de redémarrer l'algorithme. À d'autres moments,
vous pouvez obtenir le résultat statistiquement attendu en le
répétant plusieurs fois.
Loi de Moore
Cette loi, énoncée en 1965 par Gordon E. Moore,
l'un des co-fondateurs de la société Intel, repose sur
l'évolution de la taille et du prix des microprocesseurs.
Elle postule qu'à coût égal, le nombre de
transistors présents sur une puce double tous les ans.
Elle a été revisitée en 1975 par cette
même personne, et postula que désormais, ce doublement aurait lieu
tous les deux ans jusqu'en 2015 au minimum.
De nombreux experts, dont Gordon E. Moore, postulaient que
cette loi atteindrait ses limites dès lors que les limites physiques de
la micro-électronique seraient atteintes, et ce fût le cas ; la
courbe d'évolution de nombre de transistors décline depuis
environ 2015.
La quantité toujours plus importante de transistors
amène de nouvelles problématiques, dont celle de la gestion et de
la dissipation de la chaleur générée par la
fréquence en Hertz des microprocesseurs. Cette dernière stagne
depuis environ 2004 pour, en partie, les mêmes raisons.
Les limites de la Loi de Moore
Nous sommes en droit de nous demander jusqu'à quelle
date cette loi sera fiable. Jusqu'où les limites technologies peuvent
allées ? Comment l'améliorer lorsque ces dernières
stagneront ?
Le quantique tend à répondre partiellement
à ces questions, en proposant un champ technologique nouveau,
basé sur des principes technologiques encore très peu
exploités. La transition vers de nouvelles lois commence à
être opérée.
Les limites de notre technologie
Au fur et à mesure de la progression de la puissance
de calculs et de la quantité d'informations traitées par les
microprocesseurs, nous constatons les limites d'une architecture binaire.
L'informatique quantique permettrait de modifier la manière dont les
informations sont traitées et conçues, ce qui amènerait un
accroissement des performances des algorithmes de calculs et de traitement des
données.
6
Loi de Neven
La loi de Neven, nommée en l'honneur d'Hartmut Neven,
scientifique de renom chez Google, est présentée et pressentie
comme la remplaçante et l'évolution de la loi de Moore. Elle
dicte la rapidité avec laquelle les processeurs quantiques
s'améliorent ou accélèrent le traitement des calculs par
rapport aux ordinateurs classiques.
Cette loi constitue l'une des raisons qui a poussé
Google à annoncer qu'ils venaient d'atteindre la «
suprématie quantique », le 23 octobre 2019.
D'après eux, leur ordinateur quantique aurait
été capable de résoudre un calcul en 3 minutes et 20
secondes, tandis que cela prendrait environ 10 000 ans au supercalculateur
traditionnel le plus rapide du monde.
Relation entre la physique quantique et l'informatique
Pour commencer, il est bon de savoir comment une
donnée est stockée et transmise. Un bit (Binary
Digit) désigne d'une part la plus petite
quantité de donnée possible pouvant être transmise par un
message, et d'autre part l'unité de mesure de base de l'information.
Un bit peut avoir deux états : 0 et 1. En adoptant une
démarche humainement logique, nous pouvons considérer qu'un bit
peut adopter les états « faux », associé au 0, et
« vrai », associé au 1.
Les « qubits », évolution du « bit
»
Un « qubit » ou « bit quantique » partage
le même principe qu'un bit, mais embarque une structure plus complexe. La
grande différence s'identifie dans le fait qu'il soit capable d'adopter
plusieurs états à la fois, lui permettant de contenir plus
d'informations tout en ayant la possibilité de les traiter
simultanément, ayant pour effet d'augmenter la vitesse de traitement des
données. Le qubit est soumis à de nouveaux principes
nommés « superposition » et « intrication »
Le bruit
L'état d'un bit peut, dans certains cas, être
modifié à causes de perturbations extérieures (radiations,
champs électromagnétiques), de sorte que la valeur 0 peut
être convertie en la valeur 1 et inversement. Ce phénomène
se dénomme SEU, pour Single Event Upset.
Ce phénomène s'observe la plupart du temps dans
les domaines de l'aéronautique et du spatial, du fait principalement du
rayonnement solaire. La miniaturisation constante de nos appareils les rend
plus vulnérables aux SEUs, de par le fait que moins d'électrons
circulent dans ces derniers. L'altération d'un système comportant
un faible nombre d'électrons à plus de chance de modifier
l'état des bits transmettant l'informations, ce qui entraine une
détérioration de la fiabilité.
7
Spin quantique
Le spin est une caractéristique quantique des
particules intimement liée à leurs propriétés de
rotation. Il s'agit d'une manifestation du magnétisme de la particule
dans le champ de la mécanique quantique
Valeurs discrètes & valeurs continues
Une variable discrète est une variable qui ne peut
prendre des valeurs que dans un ensemble d'éléments, tandis
qu'une variable continue prendra ses valeurs dans un intervalle.
Bien qu'à l'échelle classique, le processeur
utilise un "support continu" pour placer des données discrètes,
il est impossible de faire de même au niveau quantique. En effet,
à cette échelle, le niveau d'énergie n'est plus une
donnée continue mais discrète. Puis est apparu un problème
théorique qui ne pouvait pas être résolu par la
mécanique classique, le soi-disant problème du corps noir. Le
terme « corps noir » fait référence à un objet
capable d'absorber tout rayonnement qui lui est dirigé, quel que soit le
type de rayonnement. Un tel objet ne réfléchit pas la
lumière, c'est pourquoi on l'appelle aussi corps noir. En fait, ce corps
ne sera pas complètement noir. En fait, s'il absorbe du rayonnement,
cela signifie qu'il chauffe. Or, tout objet chauffé émet un
rayonnement, ce qui est le vrai principe des ampoules électriques.
Le chat de Schrödinger
Le chat de Schrödinger est une expérience
imaginée en 1935 par le physicien autrichien Erwin Schrödinger,
considéré comme l'un des pères de la physique
quantique.
Le chat peut adopter 2 états ; s'il est mort, son
état est considéré comme 0, et s'il est encore vivant, son
état est considéré comme 1.
Le chat est placé dans une boîte fermée,
contenant un flacon de gaz motel (de l'acide cyanhydrique, d'après le
physicien) et une source radioactive.
Il est impossible de voir le contenu du chat de
l'extérieur. Dans la boîte est également placé un
dispositif conçu pour libérer des poisons si la
désintégration des atomes est détectée.
L'appareil ne peut fonctionner que pendant un temps
limité, après quoi il y a 50 % de chances de trébucher.
Une fois l'expérience commencée, il est
impossible de connaître l'état du chat, alors la
probabilité qu'il soit encore en vie est égale à la
probabilité que le poison ne soit pas libéré, et la
probabilité qu'il soit mort est égale à la
probabilité que le poison soit libéré.
Cependant, la libération de poison est
aléatoire. Si nous pouvons calculer la probabilité, Il est
impossible d'en être sûr. Ce n'est que par l'observation directe du
chat, c'est-à-dire la «mesure», que nous pouvons
connaître sa véritable condition.
8
|