Ludovic SACHOT
Titre RNCP de niveau 7 | Expert Informatique et
systèmes d'information
2021-2022
Tuteur établissement : Madame GASSIER Esther Tuteur
Entreprise : Madame GLAUME Sophie
Table des matières
Introduction 4
1. En quoi consiste l'informatique quantique ?
5
Constat de l'existant : pourquoi adopter une démarche
quantique dans le cadre de
l'informatique ? 5
Comment fonctionnent les algorithmes quantiques? 5
Loi de Moore 6
Les limites de notre technologie 6
Loi de Neven 7
Relation entre la physique quantique et l'informatique 7
Les « qubits », évolution du « bit »
7
Le bruit 7
Spin quantique 8
Valeurs discrètes & valeurs continues 8
Le chat de Schrödinger 8
1.2 Les concepts apportés par l'informatique
quantique 9
Principe de superposition 9
Principe d'intrication 9
Stabilité des qubits 9
Intégration des technologies quantiques dans la couche
réseau 10
Comment un réseau quantique est-il agencé ? 10
Composition d'un réseau quantique 11
Le principe d'intrication appliquée sur des noeuds
quantiques 12
Boites quantiques (quantum dots) 12
Téléportation quantique 13
Canal quantique (EPR) 14
État quantique adiabatique (AQT) 14
Cristaux temporels 14
Cryptographie 15
Code César 15
Primitives cryptographiques 15
Le transfert inconscient (Oblivious Transfert => QOT) 15
Projet Nessie 16
Sélection des primitives 17
Cryptographie actuelle et enjeux quantiques 17
Échange de clés « Diffie Hellman » 17
1
Protection des communications numériques 18
Distribution de clés quantiques (QKD) 20
TLS 21
IPSec 22
Comment intégrer QKD dans les protocoles de
sécurité actuels ? 23
Utilisation de QKD dans IPsec et TLS 24
Les différents types de certificats 24
1.3 Acteurs engagés et secteurs concernés
25
Les géants de l'informatique et les startups 25
QuTech Research Center : Mise en place du réseau à
trois noeuds quantiques 27
Des scientifiques de la NASA et leurs partenaires
réalisent pour la première fois une
"téléportation
quantique" à longue distance. 28
La place de la France dans cette course au quantique 28
Les secteurs visés 29
Quantum Cloud 29
Quantum Gaming 30
Médecine & santé 30
Machine Learning et Intelligence artificielle 31
Automobile 32
Finance 32
Conquête de l'espace. 33
PROBLÉMATIQUE 35
2. Les technologies quantiques ont-elles le pouvoir de
compromettre les technologies actuelles ? 36
Etat des lieux des risques rencontrés avec l'informatique
37
Usage militaire potentiel 38
Intelligence artificielle 39
Crypto monnaie et blockchain 40
Qu'est-ce qu'une crypto-monnaie ? 41
Biométrie 43
Document de voyage électronique lisible à la
machine 43
La migration vers des eMRTD à preuve quantique prendra du
temps 44
Internet of Things (IoT) 44
2.2 Comment endiguer la menace et devrait-on s'y atteler
dès aujourd'hui ? 46
Existe-t-il un moyen d'éliminer ou d'atténuer les
risques liés aux crypto-monnaies ? 46
Adaptation des protocoles de cryptage utilisés dans les
documents de voyage électroniques
lisibles à la machine pour atteindre une
sécurité quantique. 47
2
Déploiement de documents de voyage électroniques
lisibles par machine à sécurité quantique
49
Comment protéger les données face à la
puissance du quantique ? 50
Cryptographie post-quantique 50
Standardisation de la cryptographie post quantique 51
Les mots de passe et les systèmes de cryptages en danger
56
Alternatives non-quantiques pour se protéger 57
Le protocole ZRTP (Zimmermann Real-time Transport Protocol) 57
Législation européenne relative à L'IA 58
AI Act 58
Projet RISQ. La France se place comme un acteur imposant 59
Conclusion 61
Bibliographie commentée 62
Ouvrages 62
Articles scientifiques 63
Revues 65
3
Introduction
Plus de puissance de calcul, une rapidité accrue du
traitement de l'information et une meilleure protection de nos systèmes,
voilà ce que nous promet les technologies quantiques. La soif de
progrès nous pousse à toujours rechercher l'évolution de
nos appareils, logiciels, protocoles et algorithmes.
L'essor du nombre d'appareils connectés, notamment avec
l'IoT, entraine inéluctablement un besoin de cyber protection
supplémentaire. Les logiciels certes, de plus en plus performants, mais
également de plus en plus gourmands en ressources, sont soumis à
la puissance de calcul du ou des processeurs de la machine hôte. Le
besoin en bande passante s'accroit, les besoins en matière de protection
des flux réseau également.
L'informatique tend, dans un premier temps, à
répondre aux besoins des professionnels : Les supercalculateurs actuels,
certes performants, paraissent obsolètes face aux ordinateurs quantiques
et leur puissance de calcul bien supérieure. Certaines opérations
complexes, notamment la modélisation de phénomènes
climatiques ou médicaux ou encore des estimations extrêmement
précises pourront s'effectuer bien plus rapidement qu'a l'heure
actuelle, avec nos superordinateurs.
Les technologies quantiques ne s'appliquent pas uniquement
à l'aspect matériel, de nouvelles méthodologies
algorithmiques, qui seront en capacité d'exploiter
l'accélération quantique et les principes d'intrication et
superposition devront être développées, ne serait-ce que
pour un souci de compatibilité entre la couche logicielle et
matérielle.
Malgré l'ensemble des aspects positifs que
présente l'informatique quantique, cette dernière expose ceux qui
n'y sont pas préparés à des risques de sabotage. Les
technologies quantiques seront aptes à déchiffrer les algorithmes
de sécurité actuels. Les appareils, base de données et
tout autre type de biens matériel ou immatériel
protégé par des algorithmes traditionnels sont exposés aux
algorithmes dits « quantiques ».
La première partie du mémoire permettra de
définir les bases de l'informatique quantique, en démontrant
certains principes fondamentaux de la mécanique quantique, tout en
s'appuyant sur des faits. Nous analyserons également l'impact des
technologies quantiques au sein des réseaux dits quantiques.
La deuxième partie du mémoire sera
consacrée à l'analyse des risques engendrés par l'essors
des technologies quantiques. Nous nous pencherons également sur les
actions défensives possibles et entreprises notamment par les hautes
instances gouvernementales.
4
1. En quoi consiste l'informatique quantique ?
Étant donné que les principes de physiques
« classiques » ne permettaient pas d'expliquer certains
phénomènes, le principe de physique quantique a été
admis au cours du XXème siècle. Il regroupe un ensemble de
théories physiques décrivant le comportement des atomes et des
particules. Elle agit donc au niveau atomique.
La physique quantique est utilisée dans l'ensemble des
domaines recourant aux lois de la mécanique quantique, l'informatique,
et plus précisément l'architecture de nos microprocesseurs, en
fait partie.
L'informatique quantique découle de la physique
quantique, et se présente comme une révolution technologique. Si
l'on devait résumer les apports potentiels des technologies quantiques,
ces dernières permettraient de démultiplier la vitesse de calcul
et de traitement des données de nos appareils et programmes, tout en
apportant des algorithmes de cryptage bien plus robustes que ceux
utilisés de nos jours.
Constat de l'existant : pourquoi adopter une démarche
quantique dans le cadre de l'informatique ?
Au rythme actuel, et avec les technologies conventionnelles
d'aujourd'hui, il est estimé que nous pourrons miniaturiser nos
appareils technologiques durant encore les vingt prochaines années. Le
quantique promet également une amélioration de la puissance de
calcul des processeurs, tout en réduisant leur consommation
d'énergie grâce au principe de superposition, qui sera
développé plus tard. Une vitesse accrue du traitement des
informations permettrait de résoudre plus rapidement des
problèmes mathématiques, renforcer les systèmes de
cybersécurité, développer de nouveaux algorithmes de
chiffrement, traiter de plus grandes quantités d'informations
L'objectif serait de garder notre rythme de croisière
en matière d'évolution technologique le plus longtemps
possible.
Comment fonctionnent les algorithmes quantiques?
La plupart des algorithmes quantiques suivent le schéma
suivant:
· Étape de préparation: préparer
les qubits d'entrée et définir la valeur initiale de ces
derniers. Habituellement, une partie de cette préparation consiste
à mettre les qubits les uns sur les autres.
· Étape de calcul: Lancement de la conversion des
qubits afin de minimiser les résultats incorrects. Pour cela, des qubits
intriqués sont généralement nécessaires.
· Etage de mesure: mesure le qubit, détruisant
ainsi l'état interne de l'amplitude du sous-bit mesuré et
obtenant la sortie classique de 1 et 0.
5
·
Étape itérative: Les résultats obtenus
étant probabilistes et pas toujours les résultats attendus,
il est généralement nécessaire de
vérifier si les résultats obtenus sont valides ou il est
nécessaire de redémarrer l'algorithme. À d'autres moments,
vous pouvez obtenir le résultat statistiquement attendu en le
répétant plusieurs fois.
Loi de Moore
Cette loi, énoncée en 1965 par Gordon E. Moore,
l'un des co-fondateurs de la société Intel, repose sur
l'évolution de la taille et du prix des microprocesseurs.
Elle postule qu'à coût égal, le nombre de
transistors présents sur une puce double tous les ans.
Elle a été revisitée en 1975 par cette
même personne, et postula que désormais, ce doublement aurait lieu
tous les deux ans jusqu'en 2015 au minimum.
De nombreux experts, dont Gordon E. Moore, postulaient que
cette loi atteindrait ses limites dès lors que les limites physiques de
la micro-électronique seraient atteintes, et ce fût le cas ; la
courbe d'évolution de nombre de transistors décline depuis
environ 2015.
La quantité toujours plus importante de transistors
amène de nouvelles problématiques, dont celle de la gestion et de
la dissipation de la chaleur générée par la
fréquence en Hertz des microprocesseurs. Cette dernière stagne
depuis environ 2004 pour, en partie, les mêmes raisons.
Les limites de la Loi de Moore
Nous sommes en droit de nous demander jusqu'à quelle
date cette loi sera fiable. Jusqu'où les limites technologies peuvent
allées ? Comment l'améliorer lorsque ces dernières
stagneront ?
Le quantique tend à répondre partiellement
à ces questions, en proposant un champ technologique nouveau,
basé sur des principes technologiques encore très peu
exploités. La transition vers de nouvelles lois commence à
être opérée.
Les limites de notre technologie
Au fur et à mesure de la progression de la puissance
de calculs et de la quantité d'informations traitées par les
microprocesseurs, nous constatons les limites d'une architecture binaire.
L'informatique quantique permettrait de modifier la manière dont les
informations sont traitées et conçues, ce qui amènerait un
accroissement des performances des algorithmes de calculs et de traitement des
données.
6
Loi de Neven
La loi de Neven, nommée en l'honneur d'Hartmut Neven,
scientifique de renom chez Google, est présentée et pressentie
comme la remplaçante et l'évolution de la loi de Moore. Elle
dicte la rapidité avec laquelle les processeurs quantiques
s'améliorent ou accélèrent le traitement des calculs par
rapport aux ordinateurs classiques.
Cette loi constitue l'une des raisons qui a poussé
Google à annoncer qu'ils venaient d'atteindre la «
suprématie quantique », le 23 octobre 2019.
D'après eux, leur ordinateur quantique aurait
été capable de résoudre un calcul en 3 minutes et 20
secondes, tandis que cela prendrait environ 10 000 ans au supercalculateur
traditionnel le plus rapide du monde.
Relation entre la physique quantique et l'informatique
Pour commencer, il est bon de savoir comment une
donnée est stockée et transmise. Un bit (Binary
Digit) désigne d'une part la plus petite
quantité de donnée possible pouvant être transmise par un
message, et d'autre part l'unité de mesure de base de l'information.
Un bit peut avoir deux états : 0 et 1. En adoptant une
démarche humainement logique, nous pouvons considérer qu'un bit
peut adopter les états « faux », associé au 0, et
« vrai », associé au 1.
Les « qubits », évolution du « bit
»
Un « qubit » ou « bit quantique » partage
le même principe qu'un bit, mais embarque une structure plus complexe. La
grande différence s'identifie dans le fait qu'il soit capable d'adopter
plusieurs états à la fois, lui permettant de contenir plus
d'informations tout en ayant la possibilité de les traiter
simultanément, ayant pour effet d'augmenter la vitesse de traitement des
données. Le qubit est soumis à de nouveaux principes
nommés « superposition » et « intrication »
Le bruit
L'état d'un bit peut, dans certains cas, être
modifié à causes de perturbations extérieures (radiations,
champs électromagnétiques), de sorte que la valeur 0 peut
être convertie en la valeur 1 et inversement. Ce phénomène
se dénomme SEU, pour Single Event Upset.
Ce phénomène s'observe la plupart du temps dans
les domaines de l'aéronautique et du spatial, du fait principalement du
rayonnement solaire. La miniaturisation constante de nos appareils les rend
plus vulnérables aux SEUs, de par le fait que moins d'électrons
circulent dans ces derniers. L'altération d'un système comportant
un faible nombre d'électrons à plus de chance de modifier
l'état des bits transmettant l'informations, ce qui entraine une
détérioration de la fiabilité.
7
Spin quantique
Le spin est une caractéristique quantique des
particules intimement liée à leurs propriétés de
rotation. Il s'agit d'une manifestation du magnétisme de la particule
dans le champ de la mécanique quantique
Valeurs discrètes & valeurs continues
Une variable discrète est une variable qui ne peut
prendre des valeurs que dans un ensemble d'éléments, tandis
qu'une variable continue prendra ses valeurs dans un intervalle.
Bien qu'à l'échelle classique, le processeur
utilise un "support continu" pour placer des données discrètes,
il est impossible de faire de même au niveau quantique. En effet,
à cette échelle, le niveau d'énergie n'est plus une
donnée continue mais discrète. Puis est apparu un problème
théorique qui ne pouvait pas être résolu par la
mécanique classique, le soi-disant problème du corps noir. Le
terme « corps noir » fait référence à un objet
capable d'absorber tout rayonnement qui lui est dirigé, quel que soit le
type de rayonnement. Un tel objet ne réfléchit pas la
lumière, c'est pourquoi on l'appelle aussi corps noir. En fait, ce corps
ne sera pas complètement noir. En fait, s'il absorbe du rayonnement,
cela signifie qu'il chauffe. Or, tout objet chauffé émet un
rayonnement, ce qui est le vrai principe des ampoules électriques.
Le chat de Schrödinger
Le chat de Schrödinger est une expérience
imaginée en 1935 par le physicien autrichien Erwin Schrödinger,
considéré comme l'un des pères de la physique
quantique.
Le chat peut adopter 2 états ; s'il est mort, son
état est considéré comme 0, et s'il est encore vivant, son
état est considéré comme 1.
Le chat est placé dans une boîte fermée,
contenant un flacon de gaz motel (de l'acide cyanhydrique, d'après le
physicien) et une source radioactive.
Il est impossible de voir le contenu du chat de
l'extérieur. Dans la boîte est également placé un
dispositif conçu pour libérer des poisons si la
désintégration des atomes est détectée.
L'appareil ne peut fonctionner que pendant un temps
limité, après quoi il y a 50 % de chances de trébucher.
Une fois l'expérience commencée, il est
impossible de connaître l'état du chat, alors la
probabilité qu'il soit encore en vie est égale à la
probabilité que le poison ne soit pas libéré, et la
probabilité qu'il soit mort est égale à la
probabilité que le poison soit libéré.
Cependant, la libération de poison est
aléatoire. Si nous pouvons calculer la probabilité, Il est
impossible d'en être sûr. Ce n'est que par l'observation directe du
chat, c'est-à-dire la «mesure», que nous pouvons
connaître sa véritable condition.
8
1.2 Les concepts apportés par l'informatique
quantique
Principe de superposition
Ce principe définie la capacité d'une
architecture quantique à pouvoir se trouver dans plusieurs états
à la fois. Lorsque l'on parle d'une particule, nous pouvons imaginer
qu'elle puisse se trouver dans deux états différents => A et
B
La particule ne se trouvera pas dans ces deux états au
même moment, mais pourra se déplacer entre A et B. Un principe de
proportion peut également s'appliquer ; une particule peut avoir plus de
probabilité de se trouver dans un état bien particulier
plutôt qu'un autre.
Ce principe permettrait aux processeurs de traiter plusieurs
opérations de calcul en même temps, augmentant drastiquement la
vitesse de traitement des informations reçues.
Lorsque l'on parle d'un bit, nous pouvons remplacer les
états « A » et « B » par « 0 » et « 1
».
Principe d'intrication
Ce principe se base sur le fait que deux qubits forment un
système lié, ayant des états dépendants des uns des
autres peu importe la distance, du moins en théorie.
Ce concept est encore méconnu et difficile à
concevoir ; La modification d'état d'un des qubit intriqué
engendrerait une modification sur l'autre qubit intriqué, et ce sans
connexion, support pour véhiculer l'information entre les deux
qubits.
Selon le physicien Nicolas Gisin « L'intrication permet
à un événement aléatoire de se manifester en
plusieurs endroits ».
Toutefois, en 2017, une équipe chinoise a battu le
record de distance entre deux particules intriquées, des photons
émis par le satellite Micius. Les chercheurs les ont
séparés puis captés dans deux stations au sol, distantes
de 1 200 km. Malgré la distance, les particules intriquées
l'étaient toujours, malgré la distance.
Stabilité des qubits
L'une des principales problématiques réside
dans le fait de multiplier les interactions entre les qubits ainsi que leur
durée de vie ; Une superposition peut se rompre du fait d'un manque de
stabilité lors des processus d'échanges d'informations. S'en suit
la destruction du qubit, et la perte de l'information.
9
Intégration des technologies quantiques dans la couche
réseau
Un réseau quantique promet de permettre la
communication quantique sur de longues distances et d'assembler de petits
dispositifs quantiques en une grande grappe de calcul quantique, tout en
garantissant un haut niveau de sécurité des données en
transit.
Chaque noeud quantique du réseau pourrait être
considéré comme un petit ordinateur quantique à quelques
qubits. Les qubits peuvent être envoyés par des liens physiques
directs reliant ces noeuds quantiques proches par
télétransmission ou par téléportation sur une
intrication préétablie entre des noeuds de réseau
distants. Une telle intrication forme effectivement un raccourci - un lien
quantique virtuel - utilisable une fois.
La communication quantique offre des avantages
inégalés par rapport à la communication classique.
Côté sécurité, la distribution de clés
quantiques qui permet à deux parties d'établir une clé de
de chiffrement avec des garanties de sécurité qui sont
manifestement impossibles à obtenir de manière classique.
Néanmoins, la communication quantique offre un large éventail
d'autres applications allant des protocoles cryptographiques aux protocoles de
communication efficaces, des applications dans les systèmes
distribués, ou encore une meilleure synchronisation des horloges
Alors que la distribution de clés quantiques est
déjà disponible dans le commerce sur de courtes distances, le
maintien d'un état stable pour les qubits sur de longues distances reste
un défi important qui nécessite la construction d'un
répéteur quantique (cet élément sera
détaillé par la suite).
Cependant, le fait de parcourir de longues distances ne
suffit pas. Il est également nécessaire de permettre à la
communication d'être fiable et d'arriver à destination, et ce
même lorsque plusieurs noeuds communiquent simultanément. Pour
cela, de nombreux qubits sont nécessaires.
Comment un réseau quantique est-il agencé ?
Chaque noeud d'un réseau quantique est un petit
ordinateur quantique qui peut stocker et exploiter
quelques qubits. L'objectif d'un réseau quantique est
d'envoyer des qubits d'un noeud à l'autre ou, de manière
équivalente, d'établir une intrication entre eux.
Il est possible de créer un cluster de calcul
quantique afin d'obtenir un plus grand potentiel de calcul. Des ordinateurs
moins puissants peuvent être reliés de cette manière pour
créer un processeur plus puissant. Cela est analogue à la
connexion de plusieurs ordinateurs classiques pour former un cluster
d'ordinateurs dans l'informatique classique. Tout comme l'informatique
classique, ce système peut être mis à l'échelle en
ajoutant de plus en plus d'ordinateurs quantiques au réseau.
10
Composition d'un réseau quantique
Tout d'abord, les noeuds finaux sur lesquels les applications
sont finalement exécutées. Ces noeuds finaux sont des processeurs
quantiques d'au moins un qubit. Certaines applications nécessitent
malgré tout des processeurs quantiques de plusieurs qubits ainsi qu'une
mémoire quantique aux noeuds finaux.
Deuxièmement, pour transporter les qubits d'un noeud
à l'autre, nous avons besoin de lignes de communication. Pour la
communication quantique, on peut utiliser des fibres de
télécommunication standard. Pour l'informatique quantique en
réseau, dans laquelle les processeurs quantiques sont reliés
à de courtes distances, différentes longueurs d'onde sont
choisies en fonction de la plate-forme matérielle exacte du processeur
quantique.
Troisièmement, pour utiliser au maximum
l'infrastructure de communication, il faut des commutateurs optiques capables
de fournir des qubits au processeur quantique. Ces commutateurs doivent
préserver la cohérence quantique, ce qui les rend plus difficiles
à réaliser que les commutateurs optiques standard.
Enfin, un répéteur quantique est
nécessaire pour transmettre des qubits sur de longues distances. Ce
dispositif permet de capturer et traiter les qubits, tout en les stockant afin
de préparer le reste du réseau à les
réceptionner.
La perte de photons et l'impossibilité d'amplifier le
signal a conduit au développement du concept de répéteurs
quantiques, qui augmentent la distance de communication en utilisant les
propriétés non locales de l'intrication, sa distribution par
téléportation et mémoires quantiques .
Divers protocoles de répéteurs quantiques ont
été développés au fil des ans, et les premiers pas
vers leur réalisation ont été faits très
récemment.
Des répéteurs apparaissent entre les noeuds
d'extrémité. Comme les qubits ne peuvent pas être
copiés, l'amplification conventionnelle du signal ne peut pas être
effectuée. Selon les besoins, le mode de fonctionnement des
répéteurs quantiques est fondamentalement différent de
celui des répéteurs traditionnels.
11
Le principe d'intrication appliquée sur des noeuds
quantiques
Il existe de nombreuses façons d'enchevêtrer des
noeuds quantiques, mais l'une des méthodes les plus courantes consiste
à enchevêtrer les qubits stationnaires (qui forment les noeuds du
réseau) avec des photons, avant de tirer les photons les uns sur les
autres. Lorsqu'ils se rencontrent, les deux photons s'emmêlent
également, ce qui a pour effet d'emmêler les qubits. Cela lie les
deux noeuds stationnaires qui sont séparés par une certaine
distance. Toute modification apportée à l'un d'eux se traduit par
une modification instantanée de l'autre.
Boites quantiques (quantum dots)
Les boites quantiques sont des cristaux nanométriques
qui peuvent transporter des électrons. Lorsque les rayons ultraviolets
frappent ces nanoparticules semi-conductrices, elles peuvent émettre de
la lumière de différentes couleurs. Ces nanoparticules
semi-conductrices artificielles ont trouvé des applications dans les
matériaux composites et les cellules solaires.
Les nanoparticules semi-conductrices ont été
théorisées dans les années 1970 et ont été
créées au début des années 1980. Si les particules
semi-conductrices sont suffisamment petites, les effets quantiques commencent
à fonctionner, ce qui limite l'énergie des électrons et
des trous dans les particules. Puisque l'énergie est liée
à la longueur d'onde (ou à la couleur), Cela signifie que les
propriétés optiques des particules peuvent être
ajustées en fonction de la taille des particules. Par conséquent,
ce n'est qu'en contrôlant la taille des particules que les particules
peuvent émettre ou absorber la lumière d'une longueur d'onde
(couleur) spécifique.
Les points quantiques sont des nanostructures artificielles
qui peuvent avoir de nombreuses propriétés différentes
selon leurs matériaux et leurs formes. Par exemple, en raison de leurs
propriétés électroniques particulières, ils peuvent
être utilisés comme matériaux actifs dans les transistors
à un électron. Les propriétés des points quantiques
dépendent non seulement de leur taille, mais également de leur
forme, de leur composition et de leur structure, par exemple s'ils sont pleins
ou creux. Les technologies de fabrication fiables qui utilisent les
propriétés des points quantiques - dans diverses applications
dans les domaines de la catalyse, de l'électronique, de la photonique,
du stockage d'informations, de l'imagerie, de la médecine ou de la
détection - doivent être capables de produire un grand nombre de
nanocristaux, chaque lot étant basé sur le même
paramètre.
Parce que certaines biomolécules peuvent effectuer la
reconnaissance moléculaire et l'autoassemblage, les nanocristaux peuvent
également devenir une partie importante des nanodispositifs fonctionnels
auto-assemblés. L'état d'énergie atomique des points
quantiques contribue en outre à des propriétés optiques
spécifiques, telles que l'effet des particules de longueur
12
d'onde fluorescentes en fonction de la longueur d'onde, qui
peuvent être utilisées pour fabriquer des sondes optiques pour
l'imagerie biologique et médicale
Jusqu'à présent, les points quantiques
colloïdaux ont obtenu le plus d'applications dans les domaines de la bio
analyse et du biomarking. Bien que les points quantiques de première
génération aient prouvé leur potentiel, il a fallu
beaucoup d'efforts pour améliorer les propriétés de base,
en particulier la stabilité colloïdale dans les solutions salines.
Au départ, les points quantiques étaient utilisés dans des
environnements très artificiels, et ces particules ne seraient
déposées que dans des échantillons
«réels» (comme le sang).
Téléportation quantique
La téléportation quantique est basée sur
l'intrication partagée et la mesure quantique, et fournit une
méthode pour transférer des états quantiques inconnus
entre des systèmes à longue distance. La
téléportation est l'élément de base requis pour
effectuer diverses tâches de calcul quantique dans les réseaux
quantiques.
Afin de mettre en place une téléportation
quantique fonctionnelle, un état quantique intriqué doit
être créé pour que le qubit soit transmis. L'intrication
impose une corrélation statistique entre d'autres systèmes
physiques différents en créant ou en plaçant deux ou
plusieurs particules différentes dans un seul état quantique
partagé.
Cet état intermédiaire contient deux particules
dont les états quantiques dépendent l'un de l'autre car ils
forment une connexion: si une particule se déplace, l'autre particule se
déplacera avec elle. Tout changement dans une particule dû
à l'intrication se produira également pour l'autre particule, de
sorte que la particule intriquée agit comme un état quantique
unique. Ces corrélations sont maintenues même lorsqu'elles sont
sélectionnées et mesurées indépendamment, et il n'y
a pas de relation causale entre elles.
L'émetteur prépare la particule dans le qubit
et la fusionne avec l'une des particules intriquées dans l'état
intermédiaire, ce qui entraîne un changement de l'état
quantique intriqué.
L'état modifié de la particule intriquée
est ensuite envoyé à l'analyseur, qui mesurera ce changement de
l'état intriqué. La mesure des «changements» permettra
au récepteur de recréer les informations originales dont dispose
l'expéditeur, de sorte que les informations puissent être
transmises ou transportées entre deux personnes à des endroits
différents. Puisque les informations quantiques initiales sont
«détruites» lorsqu'elles font partie de l'état
intriqué, le théorème de non-clonage est maintenu car
l'information est recréée à partir de l'état
intriqué et ne sera pas copiée pendant le processus de
téléportation.
13
Canal quantique (EPR)
Un canal quantique est un mécanisme de communication
utilisé pour toute la transmission d'informations quantiques et un canal
utilisé pour la téléportation (la relation entre un canal
quantique et un canal de communication traditionnel est similaire au fait que
les qubits sont des analogues quantiques de bits classiques). Cependant, en
plus des canaux quantiques, les canaux traditionnels doivent également
être utilisés pour accompagner les qubits afin de «
préserver » les informations quantiques. Lors de la mesure du
changement entre le qubit d'origine et la particule intriquée, le
résultat de la mesure doit être transmis via un canal traditionnel
afin que les informations quantiques puissent être reconstruites et que
les informations d'origine puissent être obtenues par le
récepteur. En raison du besoin de canaux traditionnels, la vitesse de
transmission furtive ne peut pas être supérieure à la
vitesse de la lumière (elle ne viole donc pas le théorème
de non-communication).
Le principal avantage de ce système est qu'il peut
utiliser les photons du laser pour partager l'état de Bell, ce qui
permet de réaliser une transmission furtive en espace libre sans avoir
besoin d'envoyer des informations via des câbles physiques ou des fibres
optiques.
État quantique adiabatique (AQT)
Les chercheurs ont démontré pour la
première fois une méthode d'utilisation des qubits de spin
électronique pour transférer des informations entre les qubits,
appelée transfert d'état quantique adiabatique (AQT).
Contrairement à la plupart des méthodes qui reposent sur des
impulsions de champ électrique ou magnétique soigneusement
réglées pour transmettre des informations entre les qubits, la
transmission de l'état quantique adiabatique n'est pas affectée
par les erreurs d'impulsion et le bruit.
Les chercheurs ont prouvé l'efficacité de l'AQT
en utilisant l'intrication. Ces derniers peuvent utiliser l'AQT pour
transférer l'état de spin quantique des électrons à
travers quatre chaînes d'électrons dans des semi-conducteurs
à points quantiques, à l'échelle nanométrique avec
d'excellentes performances.
Cristaux temporels
Les cristaux temporels sont un état de la
matière dans lequel l'interaction entre les particules qui composent le
cristal peut stabiliser indéfiniment les oscillations du système.
Imaginez une horloge fonctionnant à l'infini ; le pendule oscille avec
le temps, comme un cristal temporel oscillant.
En imposant une série d'impulsions de champ
électrique aux électrons, il est possible de créer un
état similaire à un cristal temporel. Il est ensuite possible
d'utiliser cet état pour améliorer le transfert des états
de spin des électrons dans les chaînes de points quantiques
semi-conducteurs.
Actuellement, les ordinateurs quantiques utilisent les spins
des électrons pour construire la mémoire, les différents
spins représentant des 1 ou des 0 binaires. Un problème,
cependant, est que les spins des électrons ne sont pas si stables, et
que des forces externes telles que thermiques ou magnétiques
14
peuvent facilement interférer avec le spin choisi. Les
données ultérieures deviendront inexactes. Cependant, les
cristaux temporels constituent un système stable et
répétitif qui peut être gravé au laser selon des
motifs spécifiques. Une fois que nous pouvons écrire ou
réécrire les oscillations de ces systèmes stables, le
système résultant est une forme supérieure de stockage de
données.
Cryptographie
Code César
La cryptographie est une technique de fabrication et de
décodage de codes et de communication sécurisée. Son
histoire d'application militaire, diplomatique et commerciale remonte à
l'Antiquité. Le code César est un exemple bien connu de
système cryptographique. Chaque lettre de César est
remplacée par 2 lettres plus loin dans l'alphabet. C'est ce que l'on
appelle de la substitution ( Le C peut être remplacé par le F, par
exemple et ainsi de suite).
Primitives cryptographiques
Les primitives cryptographiques servant de briques de base
dans l'élaboration de systèmes de sécurité plus
complexes, elles se doivent d'être extrêmement fiables,
c'est-à-dire qu'elles doivent se conformer exactement à leurs
spécifications. Ainsi, si une fonction de chiffrement prétend ne
pouvoir être cassée qu'avec un nombre N d'opérations
informatiques alors, s'il est possible de la casser avec un nombre
inférieur à cette valeur nominale, on dit de cette primitive
qu'elle est compromise. Si une primitive cryptographique est compromise, tout
protocole l'utilisant devient virtuellement vulnérable.
Ce n'est qu'en les combinant au sein de protocoles de
sécurité que l'on peut résoudre une problématique
de sécurité complexe. Les primitives cryptographiques en
elles-mêmes, de par leur nature, sont assez limitées. Elles ne
peuvent être considérées comme un système
cryptographique à part entière.
L'exemple le plus ancien de primitive cryptographique
normalisée est le chiffrement par blocs Data Encryption Algorithm (DEA),
qui fait partie de la norme Data Encryption Standard (DES) publiée par
le gouvernement américain. Le gouvernement américain a ensuite
publié la description de la fonction de hachage SHA et de la signature
DSA. Cette normalisation n'a cependant pas été effectuée
de manière publique, ce qui posait des problèmes de confiance.
L'AES fut le successeur du DES, dont la normalisation a cette fois-ci
été publique.
Le transfert inconscient (Oblivious Transfert => QOT)
En tant que protocole cryptographique de base important, le
protocole de transfert inconscient est l'une des technologies clés pour
la protection de la vie privée en cryptographie. Ce dernier est un
15
protocole dans lequel l'expéditeur envoie de nombreuses
informations potentielles au récepteur, mais l'expéditeur
lui-même n'est pas au courant du contenu spécifique de la
transmission. Le concept de transfert inconscient quantique a été
proposé pour la première fois par Crépeau en 1994. Par la
suite, de nombreux travaux ont été consacrés à ce
protocole.
En 1994, la sécurité du "transfert inconscient"
contre toute mesure individuelle permise par la mécanique quantique a
été prouvée par Mayers et Salvail.
Depuis lors, une série de travaux ont
étudié d'autres primitives cryptographiques qui pourraient
exister dans le monde quantique. Cependant, le résultat ultérieur
était négatif. Mayers et Lo, Chau ont prouvé que la
participation idéale et sécurisée du qubit et la
transmission par inadvertance sont impossibles, de sorte que tout type de
calcul sécurisé entre deux parties est impossible.
il a également été montré que
plusieurs variantes imparfaites de ces primitives sont possibles. Trouver les
meilleurs paramètres pour ces primitives de base a toujours
été un problème non résolu. La raison pour laquelle
nous nous intéressons à ces primitives abstraites est qu'elles
constituent la base de tout protocole cryptographique que l'on pourrait
souhaiter construire, y compris les protocoles de sécurité. Les
protocoles cryptographiques que les gens peuvent souhaiter construire
comprennent les systèmes d'identification, les signatures
numériques, le vote électronique.
Projet Nessie
Le projet NESSIE, financé par l'Union
européenne sous le numéro IST-1999-12324, avait pour objectif
principal la sélection d'un portefeuille de primitives cryptographiques,
à recommander aux industriels européens.
Les primitives ci-dessous ont été
étudiées dans le cadre de ce projet :
· Chiffrement de flot. C'est une primitive
symétrique pour la confidentialité, qui consiste principalement
en la génération d'une suite de bits parfaitement
aléatoire en apparence.
· Chiffrement par bloc. C'est une autre primitive
symétrique pour la confidentialité, qui sert à chiffrer un
message de taille fixe (le bloc).
· Fonction de hachage cryptographique. C'est une
fonction en apparence injective, qui fabrique un condensé de taille fixe
à partir d'un message quelconque.
· Authentification de message (MAC). C'est une primitive
symétrique qui fabrique un condensé à partir d'un message
et d'une clé secrète.
· Chiffrement asymétrique. Il s'agit ici de
décrire un algorithme public permettant de chiffrer un message, tel que
seul le détenteur de la clé secrète soit capable de le
déchiffrer.
16
·
Signature numérique. Il s'agit ici de décrire un
algorithme public permettant de vérifier une signature d'un message, tel
que seul le détenteur de la clé secrète soit capable
d'avoir engendré une signature valide.
Sélection des primitives
Quatre chiffrements par blocs ont été
sélectionnés, deux d'entre eux pour une taille de bloc de 128
bits (Rijndael et Camellia), un pour 64 bits (Misty1) et un pour 256 bits
(Shacal-2)
· Aucun chiffrement de flot n'a été
sélectionné, car aucun n'atteint le niveau de
sécurité exigé.
· Quatre fonctions de hachage cryptographique ont
été sélectionnées (Whirlpool, SHA-256, SHA-384 et
SHA-512).
· Quatre techniques d'authentification de message ont
été sélectionnées (UMAC, TTMAC, EMAC et UMAC.
· Trois systèmes de chiffrement
asymétriques ont été sélectionnés (PSEC-KEM,
RSA-KEM et ACE-KEM.
· Trois systèmes de signature numérique
ont été sélectionnés (RSA-PSS, ECDSA et SFLASH.
Cryptographie actuelle et enjeux quantiques
La cryptographie et la sécurité des
réseaux sont des technologies clés pour assurer la
sécurité des systèmes d'information. La cryptographie
quantique est une branche importante de la cryptographie, combinant
mécanique quantique et cryptographie classique.
Échange de clés « Diffie Hellman »
L'échange de clés Diffie-Hellman a
été la première méthode populaire pour
élaborer et échanger des clés en toute
sécurité sur des canaux non sécurisés. Cet
algorithme permet de créer en toute sécurité une
clé partagée, même à travers un canal non
sécurisé qu'un attaquant peut surveiller, même si vous ne
l'avez jamais rencontré auparavant.
L'échange de clés Diffie-Hellman établit
un secret partagé entre deux parties qui peut être utilisé
pour des communications confidentielles afin d'échanger des
données sur des réseaux publics. Nous allons prendre un exemple
qui met en scène 2 personnes souhaitant échanger des couleurs.
Le processus commence avec Alice et Bob, ils choisissent une
couleur de départ qui n'a pas besoin d'être gardée
secrète (mais elle doit être différente à chaque
fois).
Dans cet exemple, la couleur est le bleu. Chaque personne
choisit également une couleur secrète à garder
elle-même - le vert et le rose dans ce cas. Alice et Bob mélangent
chacun leurs propres couleurs
17
secrètes avec les couleurs partagées, puis
échangent publiquement les deux couleurs mélangées. Enfin,
ils mélangent chacun les couleurs reçues de leur partenaire avec
leurs propres couleurs privées. Le résultat est le même
mélange final de couleurs que le mélange final de couleurs de son
partenaire.
Lorsqu'un tiers écoute l'échange, il ne
connaît que la couleur commune (bleu) et la première couleur
mélangée, mais il lui est difficile de déterminer la
couleur secrète finale. Cette décision est très exigeante
en termes de calcul afin de rendre l'analogie avec un échange
réel en utilisant un grand nombre de couleurs.
Protection des communications numériques
Aujourd'hui, presque toutes les communications
numériques sont protégées par trois systèmes
cryptographiques :
· Le chiffrement asymétrique (également
appelé chiffrement à clé publique, ou PKC) :
Solution retenue suite au projet Nessie, cette primitive
utilise une clé accessible au public pour permettre aux personnes de
chiffrer les messages envoyés au destinataire, qui est la seule personne
à disposer de la clé privée requise pour le
déchiffrement. Il est principalement utilisé pour établir
un canal crypté entre deux parties, que ce soit pour la
vérification d'identité ou la signature numérique.
Malheureusement, le cryptage à clé publique est
beaucoup plus lent que le cryptage à clé symétrique.
L'algorithme RSA est un exemple éminent de la PCC, qui s'appuie
fortement sur la structure algébrique de la factorisation des nombres
premiers ou des courbes elliptiques.
Les signatures numériques sont une autre application de
la PCC qui est utilisée plus largement. Dans ce cas, le détenteur
de la clé privée chiffre le hachage du document et joint le
condensé du message au document. Toute personne possédant la
clé publique peut vérifier que le document a été
signé par le détenteur de la clé privée. Les
algorithmes PKC sont sûrs du point de vue informatique et leur
sécurité repose sur la difficulté des calculs
mathématiques, comme la factorisation de grands nombres entiers. Il
n'existe aucun algorithme connu capable de résoudre ce type de calcul en
un temps raisonnable sur un ordinateur ordinaire. Lorsque la taille du facteur
premier augmente, le calcul devient plus difficile (pour les ordinateurs
normaux), ce qui a pour effet d'augmenter la taille de la clé.
· Cryptographie symétrique (également
connue sous le nom de cryptographie à clé, ou SKC) : Consiste en
des algorithmes qui chiffrent et déchiffrent les messages en utilisant
la même clé. L'utilisation de la même clé des deux
côtés (chiffré et décryptage) est un
inconvénient, car la
18
distribution des clés peut être difficile dans
certains cas. Il existe deux grandes classes d'algorithmes dans le SKC :
o Le chiffrement par flux, qui traite un message comme un flux
d'octets ou de lettres (généralement des octets), en chiffrant un
octet à la fois
o Le chiffrement par blocs, qui prend plusieurs bits et les
crypte en un seul bloc. La longueur du texte en clair doit être un
multiple de la taille du bloc, il est donc complété si
nécessaire. Les algorithmes de chiffrement par blocs couramment
utilisés sont AES, Twofish, Blowfish, RC4 et IDEA.
· Le hachage : Une fonction de hachage cryptographique
est un algorithme mathématique qui fait correspondre un condensé
ou un hachage de message de longueur fixe à des données ou des
messages de taille arbitraire.
Cependant, il existe certaines limitations. Les
condensés de messages doivent être calculés relativement
rapidement. La même entrée doit produire la même valeur de
hachage. Il doit être impossible de générer un message qui
donne une valeur de hachage spécifique. Il doit également
être impossible de trouver deux messages différents avec le
même condensé de message (collision).
Même une modification d'un bit dans le message original
peut avoir un effet si important sur le hachage de sortie que le nouveau
hachage n'a aucune corrélation discernable avec l'ancien. Cependant, en
raison de la longueur et du nombre arbitraires des valeurs d'entrée et
du nombre fixe de valeurs de sortie résultant d'une longueur fixe du
condensé de message, les collisions sont inévitables. En raison
des caractéristiques des ordinateurs quantiques, de nombreux
chiffrements à clé publique existants ne seront plus
sécurisés dans les ordinateurs quantiques. Cela montre que pour
résister aux ordinateurs quantiques, de nouveaux systèmes de
cryptage doivent être explorés. Ce n'est qu'ainsi que la
sécurité des informations pourra être assurée.
L'objectif principal de la recherche sur la cryptographie
quantique est de concevoir des algorithmes et des protocoles cryptographiques
qui entrent en conflit avec les attaques informatiques quantiques. Comme
mentionné précédemment, l'exploration des protocoles
cryptographiques quantiques constituera une partie importante des futurs
problèmes de sécurité du cyberespace Internet.
19
Distribution de clés quantiques (QKD)
Quantum Key Distribution (QKD) utilise les principes de la
mécanique quantique pour envoyer des communications
sécurisées, permet aux utilisateurs de se distribuer en toute
sécurité des clés et permet des communications
cryptées qui ne peuvent pas être décryptées par des
espions. Le système QKD protège la communication, mais ne crypte
pas les données de communication comme les certificats de
sécurité quantique.
Le système QKD établit une clé
privée partagée entre deux parties connectées et utilise
une série de photons (particules lumineuses) pour transmettre des
données et des clés via des câbles à fibres
optiques.
L'échange de clés avec QKD fonctionne sur la
base du principe d'incertitude de Heisenberg en mécanique quantique,
à savoir que les photons sont générés de
manière aléatoire dans l'un des deux états quantiques
polarisés et que la propriété quantique d'un photon ne
peut être mesurée sans altérer l'information quantique
elle-même.
Ainsi, les deux extrémités connectées
d'une communication peuvent vérifier la clé privée
partagée et la sécurité de son utilisation, tant que les
photons ne sont pas altérés. Si un acteur malveillant
accède à un message ou l'intercepte, le fait d'essayer de
connaître les informations clés modifie la propriété
quantique des photons. Le changement d'état d'un seul photon est
détecté et les parties savent que le message a été
compromis et qu'il n'est pas digne de confiance.
Bennett et Brassard ont proposé le premier protocole
QKD pratique en 2011. Ils ont pris les devants dans la réalisation du
protocole de distribution de clé quantique en utilisant la technologie
de polarisation à photon unique. Par la suite, de nombreux efforts ont
été faits dans le domaine du QKD pour améliorer la
sécurité et l'efficacité.
En 1991, Ekert a proposé un accord basé sur le
théorème de Bell. En 1992, Bennett a proposé des
améliorations au plan. En utilisant deux états non orthogonaux
quelconques, cette amélioration est plus efficace et simple.
Après cela, de nombreux protocoles QKD utilisant les principes de base
de la mécanique quantique ont été proposés.
Les protocoles de cryptographie quantique comprennent
également les protocoles d'engagement de bit quantique (QBC) et les
protocoles de signature quantique (QS).
Pour fonctionner correctement, tout système utilisant
QKD doit transmettre des données quantiques et non-quantiques à
partir de sources et destinations spécifiques, gérer des
clés secrètes partagées entre des noeuds de confiance
adjacents sur un mécanisme à sauts multiples.
20
Pour les données non-quantiques, une
fonctionnalité similaire peut être fournie par le biais de
protocoles de niveau inférieur par défaut tels que TCP/IP,
Ethernet, etc., mais la transmission des données quantiques
nécessite l'établissement de nouveaux protocoles de cryptage.
Nous devons donc concevoir une nouvelle interface de service pour fournir une
solution de cryptage performante à la partie quantique du flux de
protocole.
L'interface de service doit fournir les services suivants :
Protocole de la couche réseau pour la gestion des sous-réseaux
QKD, synchronisation/démultiplexage des clés QKD et clé
QKD multi-sauts. Identique aux autres niveaux de QKD Les messages entre pairs
de la couche service doivent être protégés en termes
d'intégrité, alors que les messages de configuration de routage
de la couche réseau peuvent ne pas l'être.
Mais avant que les professionnels ne puissent obtenir une
solution de cryptage capable de faire face à la puissance de traitement
des ordinateurs quantiques, il reste encore de nombreux problèmes
à résoudre.
Le premier est la taille de la clé elle-même.
Dans l'algorithme post-quantique en cours de développement, la taille de
la clé varie de 40 000 octets à un mégaoctet (par rapport
aux centaines ou milliers de bits de l'algorithme actuel). Cela signifie
trouver un moyen efficace de stocker ces clés.
Lors du développement de la cryptographie
post-quantique, les besoins en bande passante sont également un
problème, car avec l'avènement des ordinateurs quantiques, les
besoins en bande passante peuvent augmenter considérablement. Il en va
de même pour l'infrastructure et l'architecture réseaux existants,
qui peuvent nécessiter une mise à niveau ou même un
remplacement pour prendre en charge ces nouvelles solutions. En clair, il
s'agit actuellement d'une technologie coûteuse qui nécessite un
matériel spécialisé. La transition n'en est encore
qu'à ses débuts, et les distances de transfert sont
limitées tant qu'il n'y aura pas de répéteurs quantiques
performants.
Par rapport aux méthodes actuelles d'échange de
clés purement logicielles, à travers le réseau, QKD est
limité au sous-réseau auquel son matériel est
connecté. Ainsi, si QKD est entre deux noeuds du réseau, certains
contrôles supplémentaires sont nécessaires pour la
vérification.
L'urgence de la situation est un problème en soi : le
chiffrement est profondément enraciné dans de nombreux
systèmes différents, ce qui signifie qu'il faudra un certain
temps pour les démêler et déployer de nouveaux
systèmes.
TLS
Le protocole TLS (Transport Layer Security) est basé
sur le protocole SSL (Secure Session Layer) antérieur et est
invoqué explicitement par les applications. Bien qu'il soit maintenant
largement utilisé
21
parmi diverses applications, il est le plus souvent
utilisé pour chiffrer le trafic entre les serveurs web et les
navigateurs.
Le TLS « handshake » permet à deux parties
de convenir d'une méthode d'accord de clé et d'algorithmes de
chiffrement et MAC (collectivement appelés suites de chiffrement)
utilisés pour protéger les données.
Les deux parties utilisent ensuite un processus de partage de
clés pour convenir d'un secret maître commun que l'une ou les deux
parties peuvent authentifier au cours de ce processus. Enfin, elles utilisent
la clé maîtresse pour obtenir les clés de chiffrement et
MAC. Le protocole d'enregistrement TLS utilise des clés et des
numéros de séquence établis pour chiffrer et
protéger l'intégrité des paquets (empêche le tri
malveillant des paquets dans le flux de données).
Le mécanisme de sécurité TLS ne repose
sur aucun algorithme cryptographique particulier et met en oeuvre un
modèle de confiance à clés publiques et
pré-partagées. L'algorithme par défaut est
spécifié pour favoriser l'interopérabilité. Le
premier échange aller-retour du protocole de poignée de main TLS
spécifie la suite de chiffrement à utiliser pendant et
après la session TLS. Les échanges sont utilisés pour
établir un secret partagé et authentifier une ou les deux
parties.
IPSec
IPSec est un ensemble de protocoles qui assurent la
sécurité des communications Internet au niveau de la couche
réseau. IPsec doit donc également gérer toute erreur non
malveillante dans le flux de données. L'utilisation la plus courante
d'IPsec aujourd'hui consiste à déployer un réseau
privé virtuel (VPN) entre deux sites (gateway-to-gateway) ou entre des
utilisateurs distants et le réseau de l'entreprise (host-to-gateway).
IPsec fournit également une sécurité de bout en bout.
Des contrôles de sécurité existent pour
les communications réseau à différents niveaux du
modèle ISO. Les contrôles appliqués à la couche
réseau s'appliquent à toutes les applications et ne sont pas
spécifiques à une application. Par exemple, toutes les
communications réseau entre deux hôtes ou réseaux peuvent
être sécurisées à ce niveau sans qu'il soit
nécessaire de modifier l'application sur le client ou le serveur. Les
contrôles de la couche réseau fournissent également aux
administrateurs de réseau un moyen d'appliquer des politiques de
sécurité spécifiques.
Un autre avantage des contrôles de la couche
réseau est que, puisque les informations IP (par exemple, les adresses
IP) sont ajoutées à cette couche, les contrôles peuvent
protéger à la fois les données contenues dans les paquets
et les informations IP de chaque paquet. Cependant,
les contrôles de la couche réseau offrent moins
de contrôle et de flexibilité pour protéger des
applications spécifiques que les contrôles des couches transport
et application.
22
IPsec est un protocole comportant les éléments
suivants :
· Deux protocoles de sécurité,
Authentication Header et Encapsulating Security Payload. L'entête AH
assure la protection de l'intégrité sans confidentialité.
ESP et AH fournissent tous deux une authentification de l'origine des
données, un contrôle d'accès et, en option, une protection
contre le rejeu et/ou une protection contre l'analyse du trafic.
· Le protocole IKE (Internet Key Exchange) est le
protocole de gestion des clés privilégié pour IPsec. IKE
négocie les algorithmes de chiffrement et les paramètres connexes
pour AH et ESP. IPsec utilise également IKE pour négocier les
paramètres de connexion IPsec ; authentifier les points
d'extrémité ; définir les paramètres de
sécurité pour les connexions protégées par IPsec ;
gérer, mettre à jour et supprimer les canaux de communication
protégés par IPsec.
La protection assurée par IPsec et par IKE pour son
propre trafic d'échange de clés nécessite l'utilisation
d'algorithmes de chiffrement, notamment des algorithmes de cryptage, des MAC
(Message Authentication Codes for Integrity Protection) et des Prfs (Fonction
pseudo-aléatoire qui génère les clés et autres
valeurs utilisées dans le protocole IPsec). Les mécanismes de
sécurité IPsec ne dépendent pas d'un algorithme de
chiffrement spécifique. Cependant, des algorithmes standard sont
spécifiés pour favoriser l'interopérabilité.
Comment intégrer QKD dans les protocoles de
sécurité actuels ?
Nous pouvons appliquer deux modèles pour connecter QKD
aux applications sécurisées. L'un est l'interface de service QKD
fournit la clé pour l'application, et l'application permet à
l'application de traiter les données de l'application. Les messages sont
chiffrés, authentifiés et transmis comme ils le sont
actuellement. Ce qui permet à cette interface d'agir comme la fonction
d'échange de clés pour l'application de sécurité.
Un autre modèle est Enregistrer les clés dans l'interface de
service QKD et demander à l'application de les transmettre Les messages
sont chiffrés, authentifiés et transmis de bout en bout. en ont
besoin pour cela L'application sécurisée fournit à
l'interface de service QKD les chiffres chiffrés et Le MAC
utilisé pour l'algorithme d'intégrité, et la destination
du message de bout en bout.
Alors que les deux modèles devraient être
capables d'atteindre le même niveau de sécurité, nous
pensons que le traitement des messages par la couche de support QKD reproduit
la fonctionnalité existante du protocole de sécurité,
introduisant potentiellement des conséquences inattendues et contournant
tous les efforts de spécification et de validation. Prouvé.
Tout en suivant le modèle d'échange de
clés, nous essayons de minimiser l'impact sur les protocoles existants
en maintenant l'intégration de la QKD dans la plus petite partie
possible de l'application.
23
Une façon d'intégrer QKD à IPsec est de
conserver QKD dans IKE au lieu de créer une fonction d'échange de
clés parallèle. IKE accède à la clé QKD sur
commande au lieu de la calculer. Cette approche a deux objectifs. Tout d'abord,
elle évite de développer une autre fonction d'échange de
clés qui serait source de duplication des efforts, de bogues et de
conséquences involontaires. Les fonctions sont pleines de duplications,
de bogues et de conséquences involontaires.
Deuxièmement, il encapsule QKD en dehors du protocole
de sécurité lui-même. Bien que TLS ne dispose pas d'une
fonction d'échange de clés explicite comme IKE, cette fonction
est intégrée au protocole et l'intégration de QKD devrait
minimiser tout impact.
Utilisation de QKD dans IPsec et TLS
IPsec et TLS développent tous deux un secret
partagé, qui est ensuite utilisé pour calculer les clés de
chiffrement et de protection de l'intégrité. Par
conséquent, le matériel QKD peut être utilisé dans
TLS, IPsec et IKE en tant que secret partagé, clé secrète
ou comme mot de passe à usage unique :
Les clés quantiques peuvent être
utilisées pour établir des secrets partagés pour les
sessions TLS ou les SA IKE. Dans ce cas, la clé quantique remplacera la
clé partagée calculée dans IKE et la clé
pré-maître ou maître dans TLS, éliminant ainsi la
nécessité de calculer la clé partagée.
Les différents types de certificats
· Certificat PKI traditionnel : Le certificat PKI
traditionnel est aujourd'hui la référence en matière
d'authentification et de cryptage d'identité numérique. Ces
certificats sont dits « traditionnels » car ils utilisent des
algorithmes de chiffrement ECC ou RSA existants. La plupart des systèmes
PKI continueront à utiliser les certificats PKI traditionnels pendant un
certain temps encore. Ils offrent une protection efficace contre les attaques
informatiques existantes, mais à l'avenir, ils seront obsolètes
contre les ordinateurs quantiques et les attaques quantiques sur les cryptages
ECC et RSA.
· Certificat de sécurité quantique : Les
certificats de sécurité quantique sont des certificats X.509 qui
utilisent des algorithmes de chiffrement de sécurité
quantique.
· Certificat hybride : Les certificats hybrides sont des
certificats à signature croisée qui contiennent des clés
et des signatures traditionnelles (RSA ou ECC) et des clés et signatures
de sécurité quantique. Les certificats hybrides sont une voie de
migration pour les systèmes qui ont plusieurs composants et ne peuvent
pas être mis à niveau ou remplacés en même temps. Les
certificats hybrides permettent au système de migrer progressivement,
mais finalement tous les systèmes qui utilisent le cryptage ECC ou RSA
doivent migrer vers le nouvel algorithme de cryptage de sécurité
quantique.
24
·
Certificat composite : Les certificats composites sont
similaires aux certificats hybrides en ce qu'ils contiennent plusieurs
clés et signatures, mais ils diffèrent en ce qu'ils utilisent une
combinaison d'algorithmes de chiffrement existants et d'algorithmes de
chiffrement de sécurité quantique. Le certificat composite est
comme une porte avec plusieurs serrures : Il faut avoir toutes les clés
de toutes les serrures pour ouvrir la porte.
L'objectif de la clé composite est de dissiper la
crainte qu'un algorithme de chiffrement, qu'il soit actuellement disponible ou
disponible à l'avenir, ne soit craqué par un ordinateur
quantique. Si une vulnérabilité exploitable est trouvée
dans un algorithme de chiffrement, l'ensemble du système restera en
sécurité.
https://sectigo.com/resource-library/quantum-cryptography
1.3 Acteurs engagés et secteurs concernés
Les géants de l'informatique et les startups
C'est en 2016 que la société IBM a mis au point
un ordinateur à cinq Qubits via le Cloud. Ce dernier aurait
évolué en 2017 et embarque désormais vingt Qubits.
La firme a également, durant cette même
année, mis en place un ordinateur à cinquante Qubits ( qui ne se
trouve pas dans le Cloud). L'état de cette machine fut cependant
instable et ne tenait son état quantique que pendant 90
microsecondes.
Selon le CEO d'IBM, Arvind Krishna, une commercialisation des
premiers ordinateurs quantiques devrait être possible pour 2023.
25
L'entreprise à dévoiler une feuille de route de
l'évolution de leur progression en matière d'informatique
quantique. L'entreprise à d'or et déjà commencé le
développement du processeur Quantique « Eagle » doté de
127 qubits.
https://www.ibm.com/blogs/research/2020/09/ibm-quantum-roadmap/
Des startups se sont également lancées dans
l'étude des systèmes quantiques, comme D-wave, startup
canadienne, qui a annoncé avoir mis au point un ordinateur à 2000
qubits, ou Rigetti, startup Californienne, qui privilégie la
stabilité plutôt que le nombre de qubits. Ce mode
opératoire pourrait leur permettre de créer un véritable
ordinateur quantique utilisable.
La Chine s'est également lancée dans la course.
Après que Google ait annoncé avoir atteint la «
suprématie quantique » en 2019, grâce à leur
processeur quantique « Sycamore » ait effectué en 3 minutes et
20 secondes une tâche qui nécessiterait 10 000 ans à un
ordinateur classique.
Les chercheurs chinois annoncent en 2020 que leur
système « Jiuzhang » serait « dix milliards de fois plus
rapides que Sycamore ». La différence fondamentale entre le
système américain de Google et le système chinois
réside dans la composition des qubits.
Pour appuyer leurs dires, un calcul complexe, «
l'échantillonnage de boson », qui consiste à calculer la
production d'un circuit optique extrêmement complexe où des
photons rebondissent contre des miroirs, a été résolu en
quelques minutes. A titre de comparaison, les chercheurs ont estimé que
le superordinateur le plus puissant aujourd'hui, Fugaku, aurait mis six cents
millions d'années à résoudre ce même
problème.
26
Les qubits de Google étaient à base de
métal, tandis que les qubits chinois étaient à base de
photons. Cette nuance aurait grandement aidé Jiuzhang à atteindre
de tels résultats, de par la non nécessité de refroidir le
système car les photons restent stables même à
température ambiante, contrairement à son homologue
américain, qui impose un contrôle minutieux du refroidissement de
ce dernier.
Cette expérience démontre d'une part des
résultats sans précédent, mais d'autre part que des
systèmes quantiques basés sur la lumière sont capables de
prouesses calculatoires, agrandissant de fait le champ des possibles en
matière de technologie quantique.
https://andisama.medium.com/quantum-computing-challenges-opportunities-b13286203a2b
QuTech Research Center : Mise en place du réseau à
trois noeuds quantiques
Les chercheurs du centre de recherche QuTech, basé sur
Delft aux Pays-Bas, ont créé le système, qui se compose de
trois noeuds quantiques. C'est la première fois que plus de deux qubits
sont reliés entre eux en tant que noeuds
La plus grande difficulté résidait dans le fait
de maintenir l'intrication entre 2 qubits. Une nouvelle fois, ce cas pratique
illustre la place centrale qu'offre le principe d'intrication au sein des
technologies quantiques.
Étendre un réseau quantique de deux noeuds
à trois noeuds, et éventuellement de trois à plusieurs
noeuds, n'est pas aussi simple que d'ajouter plus de liens. Le fait que le
bruit (qui détruit les informations quantiques) et les niveaux de
puissance optique varient considérablement dans tout le réseau,
ce qui complique la tâche.
27
L'équipe de Delft résout ce problème en
utilisant un système stable à deux volets. Le premier
élément ici est de stabiliser l'enchevêtrement entre le
qubit de communication et le qubit «volant».
À cette fin, l'équipe a mesuré la phase
de la lumière réfléchie par la surface du diamant pendant
le processus d'enchevêtrement et a utilisé un faisceau laser plus
puissant pour améliorer ce signal de phase faible. Le choix de la
polarisation garantit que la lumière réfléchie n'atteint
pas le détecteur qui enregistre l'intrication, ce qui peut produire un
faux signal d'intrication. La phase de la lumière amplifiée est
mesurée par d'autres détecteurs, et
l'interféromètre est stabilisé en renvoyant le signal de
phase mesuré au contrôleur piézoélectrique où
son miroir est placé.
La deuxième partie intégrante de la
stabilité consiste à diriger une certaine lumière laser
vers un interféromètre séparé, qui est
utilisé pour créer un enchevêtrement entre les noeuds.
Mesurer l'interférence et coupler le signal à une rallonge de
fibre dans le bras de l'interféromètre. En étirant la
fibre optique, la phase de la lumière dans le bras peut être
contrôlée et l'interféromètre peut être
stabilisé. Le schéma de stabilité local et global peut
être adapté à n'importe quel nombre de noeuds, ce qui
permet d'étendre le réseau.
L'objectif de l'entreprise est de relier les villes de Deflt
et La Haye, distantes l'une de l'autre de dix kilomètres. Actuellement,
leur système multinoeud sont situés à une distance de dix
à vingt mètres.
Des scientifiques de la NASA et leurs partenaires
réalisent pour la première fois une "téléportation
quantique" à longue distance.
Pour la première fois, un groupe de scientifiques et
de chercheurs a réussi à réaliser une
"téléportation quantique" haute-fidélité et durable
- la transmission instantanée de l'unité de base "qubit" de
l'information quantique. La NASA et son équipe ont
démontré avec succès la transmission à distance et
continue de qubits de photons avec une fidélité supérieure
à 90%. En utilisant les détecteurs à photon unique les
plus avancés et l'équipement standard, les qubits sont transmis
à 44 kilomètres (27 miles) à travers un réseau de
fibre optique.
La place de la France dans cette course au quantique
La France entend bien participer au développement des
technologies quantiques, et en devenir un puissant acteur.
Un budget d'1.8 Milliard d'euros est prévu
d'être alloué dans les domaines de la recherche, de l'industrie et
de la formation aux technologies quantiques.
Selon Monsieur Emmanuel Macron « Le quantique fait
partie des quelques clés du futur que la France doit avoir en main
». La France compte déjà des scientifiques,
ingénieurs et indépendant se consacrant à l'étude
des technologies quantiques. Nous aurions toutes les cartes en main pour
assurer une
28
souveraineté et une indépendance en la
matière, seul un besoin budgétaire est requis pour permettre
l'évolution de la R&D quantique.
Afin de concurrencer Les États-Unis et la Chine, la
France compte bien coopérer avec le reste de l'Europe. Des programmes de
financement sont également prévus pour nos voisins
européens tels que l'Allemagne, l'Angleterre ou encore les Pays-Bas. La
France espère des résultats concrets en 2026, notamment
l'achèvement d'un ordinateur quantique entièrement
fabriquée et assemblée sur notre territoire. Cette
expérience tente de démontrer deux points:
· L'état superposé ne peut pas exister
à une échelle macroscopique. En fait, il est impossible d'avoir
un chat à la fois mort et vivant.
· La mesure a en effet changé l'état du
système, il est dans un état de superposition quantique, et est
maintenant dans un état défini.
L'existence de cette superposition d'états montre
clairement qu'après une certaine étape de miniaturisation, les
calculs classiques à base de bits ne peuvent plus être
utilisés. Sans valeurs stables de 0 et 1, le résultat ne peut
être garanti, ce qui va à l'encontre des principes de base du
calcul. Cependant, il est possible d'utiliser le fait qu'il y a à la
fois 0 et 1 en même temps pour calculer la possibilité de deux
valeurs en même temps. C'est là qu'intervient l'informatique
quantique.
Les secteurs visés Quantum Cloud
Azure Quantum
Le 1er février 2021, Microsoft a lancé Azure
Quantum en avant-première (version beta), rendant sa plateforme de cloud
computing quantique accessible à tous
Azure Quantum est un service fourni par Microsoft via son
cloud Azure. Le service comporte deux parties différentes,
l'informatique quantique et l'optimisation. Les deux peuvent être
déployés en créant des ressources Quantum Workspace dans
Azure.
Avec l'informatique quantique Azure, nous pouvons utiliser le
langage de programmation Q# et
QDK (Quantum Development Kit) pour développer des
algorithmes quantiques. Q# et QDK sont tous deux open source. QDK comprend des
bibliothèques spécifiques pour la
chimie, l'apprentissage automatique et le calcul quantique.
Nous pouvons utiliser nos outils préférés : Visual Studio,
VS Code et Jupyter Notebooks. Les algorithmes mis en oeuvre peuvent être
exécutés à petite échelle à l'aide du
simulateur QDK local, ou il est possible de télécharger sur le
cloud en tant que tâches à l'aide de l'espace de travail
Quantum.
29
Quantum Gaming
Grâce aux jeux vidéo, il est devenu possible de
découvrir les limites des systèmes informatiques, ce qui a
également contribué à l'amélioration des premiers
jeux vidéo pour PC quantiques, les jeux vidéo sur les
systèmes informatiques quantiques. Tant du côté d'IBM
Quantum que de Microsoft, des didacticiels simples et faciles à
utiliser, avec des facteurs ludiques, ou même des didacticiels sur la
création de jeux vidéo et de différents logiciels sur des
systèmes informatiques quantiques ont également vu le jour. Les
premiers essais de jeux vidéo sur des systèmes informatiques
quantiques ont été réalisés en 2017 sur le premier
dispositif IBM Quantum accessible au public, à l'aide du kit
d'amélioration de la machine récemment lancé, le Project
Q. Adapté pour correspondre à l'électricité des
qubits disponibles à l'époque, le jeu « Cat/Box/Scissors
», inspiré du « Pierre/Feuille/Ciseaux », fut le premier
jeu fonctionnant sur un ordinateur quantique.
Ce jeu s'inspire des règles du classique «
Pierre/Feuille/Ciseaux », mais avec une dimension hasardeuse
apportée par le quantique.
Un autre jeu a été développé,
« Quantum Battleship ». Ce dernier est capable d'englober plus
clairement les phénomènes quantiques d'intrication entre qubits
et de cohérence dans un qubit, car ces derniers contenaient une grande
quantité de bruit. Ces deux jeux vidéo étaient
entièrement jouable en ligne de commande.
Un ordinateur quantique est capable de créer à
l'avance certains types de données souhaitées pour un jeu, ce qui
donne par conséquent la possibilité de développer un jeu
quantique qui pourrait être plus rapide et plus réactif qu'un jeu
classique exécuté sur un ordinateur quantique. Cela a conduit
à l'amélioration du Quantum Solitaire, un jeu de cartes sur
Internet développé à l'aide d'Unity. Dans ce jeu, le
caractère aléatoire est généré de
manière traditionnelle, mais en se basant totalement sur les
possibilités calculées à partir d'un prototype de PC
quantique.
Ainsi, même si le jeu fait appel à la
non-localité quantique à un moment donné, il est
régi par un exemple où ce phénomène a
été mis en oeuvre de manière honnête. Dans ce jeu,
l'objectif consiste à rassembler toutes les cartes rouges et noires en
utilisant le moins de tours possible. Ici, le participant peut également
utiliser l'expertise de la mécanique quantique pour tirer des
conclusions sur les combinaisons possibles afin de tirer les meilleures
combinaisons de cartes à jouer qui offrent les meilleures chances de
succès.
Médecine & santé
Le domaine de la santé serait l'un des secteurs les
plus friands des technologies quantiques ; des modélisations d'atomes de
molécules seront possibles avec la puissance de calcul d'un ordinateur
quantique. Ces dernières pourront servir à l'élaboration
de nouveaux procédés médicaux, à la
30
conception de médicaments. Des maladies comme Alzheimer
ou Parkinson seront peut-être curables notamment grâce à
l'apport technologique qu'offre les technologies quantiques.
L'amélioration de la puissance de calcul pourra
également permettre d'apporter des soins plus personnalisés aux
patients. Les modèles de facteurs de risques déjà
existants, qui permettent de définir les antécédents
médicaux d'un patient et ainsi estimer le risque de développer
certaines maladies, seront plus complets et précis.
Au cours des deux dernières décennies, le
domaine de l'information et de l'informatique quantiques a progressé au
point que l'on peut théoriquement démontrer que les ordinateurs
quantiques peuvent exploiter des effets quantiques tels que l'intrication et la
superposition quantiques pour résoudre des problèmes de calcul
qui sont actuellement insolubles par toute méthode conventionnelle. Des
machines à résoudre, y compris les superordinateurs les plus
puissants actuellement disponibles.
La médecine deviendra de plus en plus performante au
fil du temps, à mesure que la quantité de données
biologiquement pertinentes disponibles et que la puissance et les
méthodologies de calcul augmentent. À cet égard, il existe
une marge d'amélioration considérable grâce à
l'utilisation de puissants outils de théorie des réseaux, tels
que ceux développés dans les domaines de la
géométrie des réseaux et des algorithmes quantiques.
Machine Learning et Intelligence artificielle
Le machine learning est devenu un concept utilisé dans
des environnements traitant de fortes quantités de données. Les
algorithmes quantiques d'apprentissage automatique peuvent être
classés selon qu'ils suivent une approche tolérante aux pannes,
une approche à court terme ou une combinaison des deux.
Les modèles quantiques peuvent produire des
corrélations qui sont difficiles à représenter de
manière classique. Toutefois, ces derniers sont confrontés
à de nombreux défis, tels que la capacité d'apprentissage,
la précision et les performances, qui doivent être relevées
afin de maintenir les espoirs d'un avantage quantique à l'échelle
de ces dispositifs quantiques à court terme.
Cependant, l'apprentissage automatique quantique semble
très prometteur pour trouver des améliorations et des
accélérations afin de renforcer considérablement les
capacités actuelles.
Les systèmes équipés d'algorithmes
d'intelligence artificielle ont la particularité de traiter
d'énormes quantités de données à très grande
vitesse. Les systèmes d'IA ont particulièrement besoin des
technologies quantiques qui leurs permettront de considérablement
améliorer la vitesse de traitement des données.
31
Automobile
Les constructeurs l'ont bien compris, les voitures autonomes
semblent toutes disposées pour profiter de la puissance des algorithmes
quantiques.
Ces derniers pourraient permettre notamment de faire
évoluer les points suivants :
· Sécurité et fiabilité :
L'informatique quantique peut résoudre les problèmes de
sécurité et de fiabilité des voitures à conduite
autonome. L'informatique quantique contribue à faciliter ce parcours,
car les voitures à conduite autonome ont encore un long chemin à
parcourir avant leur commercialisation.
· Congestion du trafic : L'informatique quantique
réduit les embouteillages en analysant les données des capteurs
des voitures autonomes et garantit l'optimisation des itinéraires.
· Entraînement des algorithmes : Vous pouvez
utiliser l'informatique quantique pour entraîner les algorithmes de
conception des véhicules autonomes afin d'améliorer la
sécurité et le rendement énergétique.
· Recherche & Développement : L'informatique
quantique peut également aider les acteurs de l'automobile à
passer à l'ère du véhicule électrique, notamment en
stimulant la recherche et le développement de nouvelles technologies.
· Efficacité énergétique : Les
ordinateurs quantiques peuvent être utilisés lors de la conception
des véhicules pour obtenir diverses améliorations, notamment : B.
Minimiser la traînée et améliorer le rendement
énergétique. L'informatique quantique n'en est encore qu'à
ses débuts, mais elle s'est déjà
révélée bénéfique pour les voitures à
conduite autonome.
Finance
De nombreux cas d'utilisation financière exigent la
capacité d'évaluer un large éventail de données.
Afin d'y parvenir, les institutions financières utilisent des
modèles statistiques et des algorithmes pour prédire les
résultats futurs. Ces techniques sont assez efficaces mais pas absolues.
Dans un monde où d'énormes quantités de données
sont générées quotidiennement, les ordinateurs capables
d'effectuer des calculs prédictifs avec précision deviennent un
besoin majeur.
C'est pourquoi certaines institutions financières se
tournent vers l'informatique quantique, qui promet d'analyser de grandes
quantités de données et de calculer des résultats plus
rapidement et avec plus de précision qu'un ordinateur classique.
32
Conquête de l'espace.
Observation et gravité
L'Agence Spatiale Européenne (ESA) croit en la
puissance de l'informatique quantique, et à l'intention de l'exploiter
dans le cadre de leurs missions, notamment durant les phases de surveillance et
l'analyse de la Terre.
Compte tenu du réchauffement climatique, l'observation
de la Terre est peut-être l'activité scientifique la plus
importante de notre époque. Aujourd'hui, l'étude des
phénomènes de transport de masse à l'échelle
planétaire à l'aide de la gravimétrie par satellite
fournit des informations importantes sur l'évolution de notre
planète et le changement climatique en améliorant notre
compréhension de la distribution de l'eau et de ses changements. Plus
récemment, la mission gravimétrique « Grace »
menée par la NASA a permis de découvrir que la température
de l'eau dans les crevasses des profondeurs de l'océan n'a pas
changé au cours des dernières décennies. Aujourd'hui, elle
est utilisée comme système d'alerte aux inondations et aux
sécheresses dans le Midwest américain, important sur le plan
agricole, et dans les forêts tropicales congolaises.
Toutefois, il a été démontré que
les mesures classiques ne peuvent être poussées plus loin en
raison des limites de nos moyens techniques. Les capteurs quantiques offrent
une stabilité à long terme bien supérieure et une plus
grande sensibilité. Pour cette raison, ces derniers sont
déjà officiels, et permettront d'améliorer notre
capacité à observer la Terre.
Le développement et le déploiement d'une
infrastructure de communication quantique (QCI) avec des composantes terrestres
et spatiales est également l'une des priorités de la Commission
européenne, qui s'efforce de faire entrer l'Europe dans l'ère
quantique.
L'initiative quantique "EuroQCI" (European Quantum
Communication Infrastructure) vise à faire mûrir de nouvelles
technologies qualifiées pour l'espace.
L'UE veut assurer des communications spatiales
ultra-sécurisées et à chiffrement quantique entre les
institutions nationales et les infrastructures critiques dans toute l'Union
Erupéenne. Par conséquent, la définition des cas
d'utilisation et de l'infrastructure QCI associée, le soutien à
la R&D pour faire mûrir la technologie, ainsi que la
définition et le lancement d'un banc d'essai sont des étapes
importantes du déploiement de QCI. Le développement de la
technologie nécessaire pour faire d'EuroQCI une réalité
contribuera à renforcer les capacités scientifiques et
technologiques de l'Europe en matière de cybersécurité et
de technologies quantiques. Il permettra également d'améliorer la
souveraineté numérique et la compétitivité
industrielle de l'Europe.
33
Optique
L'informatique quantique pourrait également permettre
une augmentation de la fréquence fondamentale du domaine des ondes radio
au domaine optique (oscillateur optique stable et peigne de fréquence)
et du développement d'horloges optiques (contrôle d'état
quantique). Le décalage de fréquence a déjà
été démontré sur la liaison terrestre par un
câble en fibre optique de 920 km de long.
Cette étape est cependant dépendante de
l'évolution en parallèle de la technologie laser car cette
dernière, si trop vétuste, ne permettra pas d'exploiter
pleinement les nouveaux standards quantiques en matière d'optique.
L'utilisation des avancées technologiques apportera
des améliorations dans la qualité des applications existantes ou
permettra la construction d'architectures de systèmes plus efficaces.
Les services de diffusion de temps et de mesures bénéficieront
d'améliorations en direct à trois grands niveaux. Les horloges
spatio-temporelles de haute précision fourniront une base de temps
sûre et indépendante pour le chronométrage mondial.
Mesure du temps et de la fréquence (TFT)
TFT est à la base de nombreuses applications sociales
modernes à haute valeur ajoutée. Les techniques de base du TFT
sont maintenant bien établies, permettant des services dans les domaines
des communications, des mesures et du système mondial de localisation
par satellite (GNSS). Avec la disponibilité des horloges atomiques
optiques et de la transmission de fréquence optique, QT permet
d'augmenter les performances des TFT à plusieurs niveaux.
Ces performances accrues permettent de répondre aux
besoins croissants en communications (horodatage) et GNSS
(géolocalisation), tout en permettant de nouvelles applications
(géodésie, observation des ondes gravitationnelles, optique
à ouverture synthétique). Une composante spatiale pertinente pour
les applications avancées en permettant la transmission sur de longues
distances, une sécurité avancée et une
disponibilité globale.
L'informatique quantique et les techniques de
modélisation des données par apprentissage automatique peuvent
permettre aux institutions financières d'identifier les risques
potentiels avec une plus grande précision. Les institutions
financières devraient se préparer en étudiant
l'utilisation de protocoles quantiques sécurisés et,
potentiellement, de la cryptographie quantique, chacun ayant ses propres
possibilités d'utilisation dans la couche réseau.
34
PROBLÉMATIQUE
De telles avancées technologiques ne
représenteraient-elles pas un danger pour l'ensemble de
l'humanité ?
35
2. Les technologies quantiques ont-elles le pouvoir de
compromettre les technologies actuelles ?
L'humanité a connu bien des épisodes de
transition en matière d'évolution technologique dans de multiples
domaines. Que ce soit en matière d'automobile, de mécanique,
d'informatique, de nucléaire ou encore d'aéronautique, l'homme ne
cesse de progresser et d'innover.
L'invention de ce que l'on nomme aujourd'hui la voiture a
permis à l'Homme, sur une même durée, de traverser de plus
grandes distances par rapport au cheval, qui lui-même a pu apporter ce
même bénéfice à une époque où les
Hommes se déplaçaient à pied.
L'avènement de l'informatique et des systèmes
de communication ont permis à une personne disposant de ces technologies
de communiquer avec n'importe qui dans le monde (j'exclue toute forme de
blocages potentiels, comme une mauvaise réception du signal ou un
blocage logiciel de type règle de flux).
De tels progrès, s'ils sont exploités d'une
manière non nuisible, ne peuvent qu'en théorie améliorer
notre quotidien, nous permettre de réaliser des actions auparavant
impossibles dans tous les domaines, comme l'archéologie, l'astronomie ou
encore l'agriculture.
En revanche, il est également possible de se servir de
ces découvertes de manière offensive, par le biais de nouvelles
armes. L'humanité a déjà connu des attaques
nucléaires de grande ampleur ayant causés de gros
dégâts matériels et des pertes humaines
considérables, ou encore des virus pouvant paralyser des systèmes
informatiques complexes pouvant engendrer également des pertes
humaines.
Les standards en matière d'armement se
renouvèlent sans cesse. Les capacités de destruction, de
miniaturisation ou d'économie des couts évoluent et permettent de
meilleures performances et de fait de meilleurs résultats pour ceux qui
en bénéficient.
Nous tenterons d'une part d'analyser le lot des risques
apportés par le futur avènement de l'informatique quantique, mais
d'autre part se pencher sur les actions défensives possibles et
envisagées par les hautes instances de cybersécurité du
globe, notamment le NIST et l'ENISA.
36
Etat des lieux des risques rencontrés avec
l'informatique
Malgré tous les bienfaits & avantages connus de
l'informatique (automatisation de processus, économie de papiers,
communication instantanée et bien d'autres), les dangers & risques
encourus lors de l'utilisation des technologies informatiques sont
réels.
· Une dépendance à l'informatique peut
entrainer des complications lorsque cette dernière est compromise par
une attaque informatique ou une détérioration physique des
systèmes qui embarquent le code informatique. Les entreprises y sont
particulièrement vulnérables mais également les
établissements d'utilité publique comme les hôpitaux. C'est
ce qui est arrivé à l'hôpital de Castellucio, en Corse, le
lundi 28 mars 2022. (Source =)
· La facilité avec laquelle il est aujourd'hui
possible de communiquer avec un ou des individus à travers le monde
apporte son lot de dangers, notamment par le biais des réseaux sociaux.
De nombreux cas de harcèlement, de « fake-news » ou encore
d'arnaques ont lieu tous les jours.
· « Les conflits de demain vont être
numériques, tous les grands Etats s'y préparent ». Cette
citation du directeur général de l'Agence nationale de la
sécurité des systèmes d'informations (ANSSI), Monsieur
Guillaume Poupard, nous alerte du potentiel offensif des cyberattaques. Les
trois cybermenaces traitées par l'ANSSI sont aujourd'hui la
déstabilisation, l'espionnage et le sabotage de systèmes
d'informations.
La révolution quantique apporte des outils
défensifs supplémentaires, mais également des outils
offensifs. Des puissances de calculs démultipliées peuvent
permettre d'exécuter bien plus rapidement n'importe quel type de code,
tout en le rendant plus discret lors de l'exécution. Par extension, des
programmes plus puissants, plus sécurisés via une méthode
de cryptographie plus performante et potentiellement plus dévastatrice
pourrait voir le jour.
Le plus grand risque potentiel pour la sécurité
lors de la migration vers l'informatique quantique est lié au cryptage.
La sécurité mondiale d'internet repose sur la cryptographie, qui
constitue le fondement de réseaux sécurisés. Les
algorithmes complexes utilisés de nos jours pour créer des
clés publiques et privées afin de déchiffrer des
données cryptées ne sont pas adaptés à un
environnement quantique. L'idée de base du cryptage par mot de passe est
que toute personne souhaitant lire un fichier crypté doit disposer de la
clé ou du code permettant de déverrouiller le fichier. Plus la
clé est longue, plus il faudra de temps pour la démanteler, et
plus les fichiers seront sécurisés.
37
Usage militaire potentiel
Le domaine de la science de l'information quantique donne
naissance à de multiples nouvelles applications liées à la
défense qui sont souvent regroupées sous l'appellation unique de
"quantique", mais qui méritent d'être examinées
indépendamment. La distribution de clés quantiques (QKD), la
cryptanalyse quantique et la détection quantique sont autant de
promesses qui devraient avoir un impact significatif sur la
sécurité stratégique. La distribution de clés
quantiques offre aux défenseurs un avantage à court terme pour
protéger leurs communications, tandis que la cryptanalyse quantique est
une capacité offensive, bien qu'elle soit développée
à un rythme plus lent. Les ordinateurs quantiques
généralisés offriront de nombreuses autres
possibilités.
La forme la plus courante de cryptage quantique consiste
à utiliser une QKD lors de l'initiation d'une session de communication
sécurisée. Selon le principe d'incertitude d'Heisenberg,
l'état exact des photons est incertain jusqu'à ce qu'ils
soient isolés et mesurés - ce n'est qu'à ce
moment-là qu'ils présentent un état de polarisation
spécifique, ce qui fournit au QKD un moyen précieux de savoir si
les communications sont interceptées et examinées (par exemple,
par une attaque de type man-in-the-middle). Cela s'apparente à l'envoi
d'une lettre par le biais d'un réseau postal standard en utilisant une
enveloppe inviolable. La technologie QKD fonctionne bien avec les
systèmes de communication cryptés existants, mais jusqu'à
ces dernières années, il était difficile de la mettre en
oeuvre sur de longues distances, ce qui la rendait peu pratique en dehors
d'environnements limités.
La cryptanalyse quantique fait référence
à l'application spécifique de l'informatique quantique pour
décrypter les informations des messages cryptés. Les normes de
cryptage actuelles reposent principalement sur des algorithmes
mathématiques pour coder les données, qui sont effectivement
incassables dans un laps de temps raisonnable. Par exemple, le cryptage 256
bits de l'Advanced Encryption Standard (AES) 256 bits de l'armée
américaine nécessiterait théoriquement des milliards
d'années pour que les ordinateurs modernes puissent craquer le code par
des méthodes de force brute (c'est-à-dire par "essais et erreurs"
de toutes les solutions possibles).
Les ordinateurs quantiques, cependant, seront
éventuellement en mesure de remplacer l'approche séquentielle des
méthodes d'essai et d'erreur pour traiter de tels problèmes
mathématiques complexes par d'autres méthodes alternatives
permettant d'envisager simultanément de nombreuses possibilités.
La perspective prometteuse de la cryptanalyse quantique est si
séduisante que certains pays ont déjà commencé
à collecter des communications étrangères cryptées
dans l'espoir de pouvoir extraire des secrets de ces données.
L'informatique quantique pourrait probablement poser d'autres
problématiques, bien qu'il soit encore trop tôt au stade de la
recherche et du développement pour
38
prévoir quelles inventions futures nous attendent ou
comment les différents états et gouvernements pourraient les
exploiter.
L'informatique quantique ne supplantera pas
complètement les méthodes de calcul classiques basées sur
les transistors et les micropuces en silicium. Au lieu de cela, l'informatique
quantique devrait être considérée comme une technologie
alternative, complémentaire, voire synergique, capable de
résoudre certains problèmes que les ordinateurs actuels ne
peuvent pas résoudre, mais qui sera très probablement
relativement inefficace, ou seulement marginalement meilleure, pour
résoudre d'autres problèmes.
Les implications géopolitiques de la technologie
quantique méritent également d'être prises en
considération. Certains craignent que l'avènement de la
technologie quantique ne fasse qu'élargir la fracture numérique
entre les nations et creuser les écarts de sécurité. La
cryptanalyse quantique pourrait être une solution universellement viable
en théorie, mais en pratique, elle pourrait ne fonctionner que dans les
pays riches et avancés qui sont capables d'exploiter les installations
nécessaires.
La relation hégémonique peut persister si
quelques pays peuvent à la fois améliorer la transparence des
communications de leur adversaire tout en se protégeant grâce
à des algorithmes de cryptage QKD ou post-quantique. Il en va de
même pour le traitement massif des données, qui fournit des
informations en temps réel et des avantages opérationnels aux
pays technologiquement avancés.
Intelligence artificielle
Les dangers associés à l'IA sont nombreux,
notamment les cyberattaques sur les systèmes d'IA existants, la mise en
oeuvre de l'IA dans les guerres militaires conventionnelles ou encore les
menaces générales plus importantes pour notre
sécurité nationale. Les systèmes d'IA actuels ont
commencé à détecter des violations de données
provenant de sources inconnues en raison de l'insécurité des
serveurs centraux contenant des informations clé. Cela crée une
cible facile pour obtenir des informations en masse de ces bases de
données. Une cyberattaque contre une base de données d'IA
pourrait causer des ravages chez les particuliers, les entreprises et nos
gouvernements.
L'IA peut également apporter des avancées
technologiques significatives à la guerre militaire conventionnelle,
notamment la mise en oeuvre de systèmes d'armes aux capacités
entièrement autonomes et de technologies capables d'utiliser des
capacités complexes de résolution de problèmes et de
réflexion, à l'image des comme les humains.
Cela pourrait conduire à un développement accru
des armes de guerre embarquant de l'IA et éventuellement des soldats IA.
L'idée d'avoir de la robotique en temps de guerre a influencé
de
39
nombreux fondateurs de la robotique et de l'IA qui postulent
le danger que représente celle-ci en temps de guerre.
L'intégration des domaines de l'IA et du cyber a
créé des défis sur le front international qui ont
affecté les relations internationales. Les tensions entre les
États-Unis, la Chine et la Russie ont augmenté en raison du
développement de la technologie de l'intelligence artificielle. En
juillet 2017, la Chine a publié les détails de son « Plan de
développement de l'intelligence artificielle de nouvelle
génération » expliquant ses objectifs afin d'atteindre leur
but, qui est de réaliser une percée "majeure" d'ici 2025 afin de
devenir un leader mondial de l'IA d'ici 2030. La réponse
américaine a été diplomatique et visait à ralentir
les progrès technologiques de la Chine. Pour y, les États-Unis
ont mis en place des tarifs ciblés, augmenté le nombre de
poursuites pour espionnage économique contre des agents chinois et mis
davantage l'accent sur les opérations et la recherche de
contre-espionnage (Hass, Balin, 2019).
L'émergence de l'IA dans la guerre moderne a
également des conséquences sur la sécurité. Le
développement de l'ère numérique peut potentiellement
représenter un grand danger. En tant que nation qui veut être un
leader mondial à l'ère numérique, nous devons travailler
pour protéger notre environnement en ligne et le rendre résistant
aux futures attaques. Nous devons encourager et la formation aux nouvelles
technologies de cybersécurité pour les particuliers et les
entreprises afin de protéger leurs systèmes informatiques. Les
institutions publiques doivent également renforcer les effectifs en
recrutant du personnel compétant.
Crypto monnaie et blockchain
Les crypto-monnaies sont de plus en plus
intégrées dans le courant financier et économique mondial.
L'une des raisons en est que son cryptage sécurisé, la
technologie de la blockchain est largement immunisée contre les
cyberattaques ou les vols traditionnels.
Cependant, la crypto-monnaie est particulièrement
vulnérable aux futures attaques de l'informatique quantique, ce qui rend
le chiffrement vulnérable à l'algorithme de Shor est le
chiffrement à courbe elliptique commun à toutes les technologies
de blockchain.
Les crypto-monnaies deviennent monnaie courante, cependant,
en soutenant la sécurité cryptographique par la cryptographie
post-quantique ou la cryptographie quantique, les crypto-monnaies pourront
rester l'épine dorsale du système financier mondial pendant des
décennies.
40
Qu'est-ce qu'une crypto-monnaie ?
Une crypto-monnaie est une forme numérique de monnaie
qui s'appuie sur une blockchain en ligne pour protéger ses
transactions.
Au fur et à mesure que la liste des transactions
enregistrées (appelées blocs) s'allonge, chaque enregistrement
est vérifié et confirmé par un réseau d'ordinateurs
"peer-to-peer". Chaque ordinateur fait office de serveur pour les autres
ordinateurs.
Il n'y a aucune donnée à modifier dans
l'ensemble de données publiques, au contraire, elles font parties d'une
chaîne permanente de blocs de transactions antérieures. Le terme
"blockchain" est donc devenu synonyme de technologie de grand livre
distribué (DLT), qui utilise des "hachages" ou des empreintes
cryptographiques pour enregistrer et sécuriser chaque transaction
à des fins d'authentification.
Bien que la technologie DLT puisse être utilisée
pour d'autres méthodes d'enregistrement et de sauvegarde des
données, elle est étroitement liée au système
blockchain qui sous-tend toutes les transactions en crypto-monnaies.
Tous ces avantages de l'utilisation de la blockchain ont
permis une explosion des crypto-monnaies. Le bitcoin est de loin la
crypto-monnaie la plus célèbre - ou peut-être la plus
connue - qui existe.
D'autres amateurs de crypto-monnaies admirent la technologie
qui sous-tend les crypto-monnaies, la version blockchain du DLT, et pensent
à juste titre que le système de traitement et d'enregistrement
décentralisé et son cryptage par hachage sont plus sûrs que
les méthodes traditionnelles de transactions financières en
ligne.
Mais quel est le degré de sécurité des
bitcoins - ou des autres crypto-monnaies ?
L'avènement de l'informatique quantique rend la
réponse à cette question importante pour l'avenir des
crypto-monnaies et celui des marchés financiers en
général.
La popularité et la notoriété croissantes
des crypto-monnaies et de leur technologie blockchain sous-jacente
s'accompagnent d'une augmentation du risque cybernétique dans le
secteur. Si le ledger distribué (DLT) ou la technologie blockchain
sous-jacente des systèmes de crypto-monnaies n'est toujours pas à
l'abri des intrusions informatiques classiques, les systèmes
cryptographiques sous-jacents au DLT pourraient bientôt être
vulnérables aux attaques quantiques.
Les caractéristiques de conception inhérentes
qui ont conduit au succès de la technologie blockchain, associées
aux menaces émergentes basées sur le décryptage quantique,
font de l'espace des crypto-monnaies une cible extrêmement
vulnérable et lucrative pour les cyberacteurs malveillants.
41
En outre, l'intégration croissante des crypto-monnaies
dans les marchés et actifs financiers traditionnels expose ces
dernières à une menace systémique au niveau de la
stabilité financière et la santé économique des
États qui en profitent. Par conséquent,
l'insécurité future de la DLT est une cible de choix pour les
criminels et les acteurs antiétatiques économiquement
motivés.
Avant même de considérer la menace de
l'informatique quantique avancée, il faut analyser la conception de base
d'un système de blockchain comme une faiblesse potentielle plutôt
que comme l'attrait principal de la technologie. Bien qu'aujourd'hui, leur
nature décentralisée représente l'un des attraits
fondamentaux des crypto-monnaies dérivées de la technologie DLT
et fait partie intégrante de l'innovation blockchain.
Si leur nature décentralisée est aujourd'hui
l'un des attraits fondamentaux des crypto-monnaies dérivées de
DLT et fait partie intégrante de l'innovation blockchain, dans un futur
environnement quantique cryptographiquement peu sûr, cette
décentralisation augmente le risque de sécurité des
cryptomonnaies car liées à la blockchain, qui pourra
potentiellement se faire attaquer
Alors que la dépendance à l'égard d'une
autorité centralisée dans les grands livres financiers
numériques et les systèmes bancaires traditionnels est exactement
un aspect du système financier actuel que la DLT cherche à
remplacer, la complexité des systèmes centralisés masque
effectivement les intrus du réseau, en particulier les acteurs pouvant
user des technologies quantiques.
Bien que les systèmes centralisés et
décentralisés utilisent tous deux un schéma de chiffrement
à clé publique/privée pour sécuriser l'accès
et la confidentialité des données, dans les systèmes
centralisés modernes, les données sont séparées de
la clé de chiffrement, la clé de chiffrement elle-même
étant gérée par un organisme central du réseau.
À l'inverse, dans les réseaux DLT dont la
sécurité repose sur la transparence, les données
protégées et le cryptage de protection sont cousus ensemble.
Par conséquent, si le propriétaire d'un actif
tel qu'un portefeuille Bitcoin perd ou oublie sa clé de chiffrement
privée, l'actif sera irrémédiablement perdu. Face à
des failles de sécurité telles que le décryptage des
clés privées, les crypto-monnaies protégées sont
définitivement volées.
Alors qu'ils étaient traditionnellement
considérés comme un marché isolé, le bitcoin et les
autres crypto-monnaies sont de plus en plus intégrés dans le
système financier au sens large. Si l'on considère cette
intégration synergique du marché en conjonction avec la taille du
marché des crypto-monnaies, on peut facilement imaginer
l'instabilité financière systémique potentielle dans un
scénario de crash des crypto-monnaies.
42
Biométrie
Document de voyage électronique lisible à la
machine
Le document de voyage électronique lisible à la
machine (TAG/MRTD) est conçu pour permettre l'identification
sécurisée de son titulaire en stockant ses données
d'identité et ses données biométriques (portrait et
empreinte digitale facultative) afin de lier les données
d'identité du titulaire.
Le TAG/MRTD est une application intégrée
sécurisée qui repose sur du matériel
sécurisé, comme le précise le document 9303 de l'OACI, et
qui est conçue pour être intégrée à un
document d'identité.
Le TAG/MRTD fournit divers services de sécurité
tels que l'intégrité et l'authenticité des données
d'identité et des données biométriques qu'il contient, la
preuve d'authenticité contre le clonage, l'intégrité des
communications lors de la lecture du contenu du TAG/MRTD, la
sécurité et la confidentialité de l'authenticité,
et le contrôle de l'accès aux données sensibles, comme les
empreintes digitales.
Les documents de voyage électroniques lisibles
à la machine sont essentiels à presque tous les documents
d'identification. Ils sont utilisés pour les passeports
électroniques (réglementés par l'OACI) et également
pour les pièces d'identité des marins (réglementées
par l'OIT).
Délivrée par les États membres, elle
doit comporter des documents de voyage électroniques lisibles par
machine. La même analyse s'applique au permis de séjour, qui est
une carte d'identité pour les étrangers. Au sein de l'UE, selon
le règlement 1030/20029, les permis de séjour
délivrés par les États membres doivent inclure un document
de voyage électronique lisible par machine.
L'avènement possible de l'informatique quantique
constitue également une menace pour les documents de voyage
électroniques lisibles par machine.
Les possibilités offertes par les ordinateurs quantiques
sont multiples :
· Les attaquants écoutent et interceptent les
communications avec les documents de voyage électroniques lisibles par
machine afin de les utiliser pour utiliser des ordinateurs quantiques en temps
réel ou plus tard (hors ligne).
· Un attaquant utilise un ordinateur quantique pour
fabriquer une clé privée correspondant à la clé
publique contenue dans le certificat traité par l'eMRTD pour
authentifier une entité externe privilégiée (le
système d'inspection). Ce modèle d'attaque nécessite la
collecte de certificats auprès d'entités nommées et un
échange en temps réel avec les eMRTD.
43
·
Un attaquant utilise un ordinateur quantique pour
découvrir la clé privée correspondant à la
clé publique stockée dans l'eMRTD et cloner l'eMRTD. Ce
modèle d'attaque nécessite la collecte de clés publiques
à partir de documents de voyage électroniques lisibles par
machine.
· Les attaquants utilisent des ordinateurs quantiques
pour découvrir les clés privées correspondant aux
certificats d'authentification passive et falsifier des documents de voyage
électroniques lisibles par machine ou des identités. Ce
modèle d'attaque nécessite l'obtention du certificat de
l'entité émettrice.
La migration vers des eMRTD à preuve quantique prendra
du temps
Il faudra des décennies à l'infrastructure des
documents de voyage électroniques lisibles par machine pour atteindre la
preuve quantique. Tout d'abord, elle ne peut être lancée pour le
moment en raison du manque de normes et de produits. De plus, l'adaptation des
protocoles de cryptage utilisés dans les eMRTD aux preuves quantiques
est un défi et, en définitive, le déploiement des eMRTD
à preuve quantique prendra du temps.
Internet of Things (IoT)
L'internet des objets (IoT) consiste à
développer des objets intelligents et connectés dont les
données récoltées peuvent être rendues accessibles
via un écran intégré ou un accès Web. Ces appareils
diffèrent des appareils traditionnels connectés à
l'internet en ce sens qu'ils sont capables d'exécuter des tâches
même complexes avec une interaction humaine minimale ou nulle.
Malheureusement, avec l'avènement des technologies quantiques, la
sécurité est devenue une préoccupation majeure pour les
réseaux IoT.
Les efforts récents incluent la réinvention de
solutions cryptographiques en utilisant des opérations
légères. Cependant, après avoir assisté au
développement des ordinateurs quantiques, on peut conclure que les
techniques cryptographiques actuelles ne sont pas encore assez fiables. Par
conséquent, il est nécessaire de développer des solutions
qui peuvent et sont facilement résistantes aux cyberattaques.
L'internet des objets (IoT) est un ensemble de technologies
qui nécessitent des protocoles, une infrastructure, des
mécanismes de stockage de données et des canaux de communication
liés aux technologies de l'information. L'allocation intelligente des
ressources est l'une des exigences les plus importantes lorsqu'il s'agit de
dispositifs IoT, car ils sont limités en termes de puissance, de
mémoire et de ressources informatiques. La technologie de communication
utilisée pour traiter et gérer les données est
également très importante.
44
L'écosystème IoT est confronté à
de nombreux défis liés aux performances, à la
sécurité, au routage, à la résilience ou à
la confidentialité. Ce nouveau paradigme de connexion des objets doit
intégrer des technologies de nouvelle génération.
L'augmentation significative de l'utilisation des appareils
IoT présente de nombreuses opportunités commerciales. Cependant,
le fabricant ne peut toujours pas garantir aux clients que ces appareils sont
sûrs. Ainsi, malgré ces avantages, les problèmes de
sécurité de ces appareils semblent être une énorme
pierre d'achoppement qu'il semble nécessaire d'endiguer.
Le déploiement involontaire d'un grand nombre de
noeuds IoT non sécurisés et vulnérables peut conduire les
attaquants à lancer des attaques telles que des attaques par déni
de service distribué (DDoS). La prolifération et l'ouverture de
ces dispositifs présentent des défis de sécurité
liés à l'établissement de la confidentialité,
à la sécurité des communications et du stockage, au
contrôle d'accès et à l'authentification. Jusqu'à
présent, la confusion régnait entre les fabricants et les
consommateurs de ces dispositifs, qui se rejetaient mutuellement la
responsabilité des vulnérabilités de ces dispositifs. Du
point de vue des fabricants, les consommateurs sont responsables de la mise
à jour de leurs appareils et de la modification des mots de passe de
temps à autre, et les consommateurs ont reproché aux fabricants
de ne pas fournir de fonctions de sécurité adéquates dans
les appareils eux-mêmes.
Bien que l'IoT soit toujours confronté à des
menaces de sécurité, avec l'avènement de l'informatique
quantique, ces menaces de sécurité sont susceptibles d'augmenter
à un rythme sans précédent. les entreprises qui s'appuient
sur des applications IoT en temps réel doivent se rendre compte que
l'informatique quantique devient un défi menaçant.
La technologie quantique percera les normes de cryptage
actuelles plus rapidement que prévu et devrait être une source de
préoccupation majeure pour toute organisation publique ou privée
basée sur l'IoT et cherchant à protéger ses données
avec le cryptage actuel à l'avenir.
Avec l'avènement de l'Internet des objets, les objets
que nous utilisons dans notre vie quotidienne sont capables de communiquer
entre eux via Internet. Cependant, divers problèmes se posent avec
l'utilisation de technologies hétérogènes, parmi lesquels
les problèmes de sécurité sont les plus importants.
Cependant, avec l'avènement des idées de
l'informatique quantique, ces méthodes de cryptographie ne seront plus
assez fiables. Par conséquent, il est nécessaire de
développer des solutions cryptographiques qui peuvent fournir le niveau
de sécurité souhaité dans les réseaux IoT
post-quantiques.
45
Par conséquent, afin d'endiguer les attaques
générées par les ordinateurs quantiques, il est
nécessaire d'abandonner les algorithmes cryptographiques basés
sur les problèmes mathématiques traditionnels, et d'adopter et de
développer des algorithmes basés sur des techniques
mathématiques modernes, qui peuvent résister aux attaques dans le
monde post-quantique de l'IoT.
2.2 Comment endiguer la menace et devrait-on s'y atteler
dès aujourd'hui ?
Existe-t-il un moyen d'éliminer ou d'atténuer
les risques liés aux crypto-monnaies ?
L'une des possibilités est la cryptographie
post-quantique. Les chercheurs étudient les moyens d'améliorer la
sécurité des signatures logicielles et des échanges de
clés qui resteront efficaces lorsque les ordinateurs quantiques seront
suffisamment puissants pour craquer les cryptosystèmes à
clé publique existants. De nombreux produits combinent différents
algorithmes pour créer des hybrides, dont certains sont
déjà déployés et opérationnels.
Certains outils utilisent eux-mêmes la technologie
quantique, et les solutions de cryptage basées sur l'intrication peuvent
améliorer la sécurité actuelle. Il s'agit notamment du
générateur de nombres aléatoires quantiques (QRNG) et de
la distribution de clés quantiques (QKD).
Les nombres aléatoires sont
générés par des processus dont les résultats sont
totalement imprévisibles et ne peuvent être reproduits de
manière fiable à l'aide du même processus. De nombreuses
applications de jeu utilisent les nombres aléatoires pour un cryptage
sécurisé.
Heureusement, la physique quantique est fondamentalement
aléatoire. Les générateurs de nombres aléatoires
quantiques sont des dispositifs basés sur les quantas qui
intègrent le caractère aléatoire de la physique quantique
pour générer des nombres véritablement aléatoires
à utiliser dans les messages cryptés et autres applications
cryptographiques.
Améliorer la génération de nombres
aléatoires à l'aide des QRNG peut être un moyen
d'améliorer la sécurité aujourd'hui.
La deuxième solution, QKD, représente une
nouvelle façon de distribuer ces nombres aléatoires et de
générer des clés sécurisées entre
différents sites sur une base de confiance de pair à pair.
Les crypto-monnaies sont en plein essors. Les solutions
à sécurité quantique garantiront que ces crypto-monnaies
resteront stables et sûres pendant longtemps. D'autre part,
l'avènement des ordinateurs quantiques représente une
réelle menace pour la DLT et son cryptage.
46
Adaptation des protocoles de cryptage utilisés dans les
documents de voyage électroniques lisibles à la machine pour
atteindre une sécurité quantique.
Les documents de voyage électroniques lisibles
à la machine utilisent des protocoles de cryptage très
spécifiques conçus pour répondre à des
caractéristiques de protection des données très
exigeantes.
Il s'agit de PACE10, PACE-CAM11 et de la certification des
puces. La version actuelle est basée sur l'échange de clé
Diffie Hellman. Cependant, la portée du concours du NIST - et l'examen
par les pairs de la communauté cryptographique - n'inclut que la
signature et le mécanisme d'encapsulation de clé (KEM).
Si les mécanismes d'encapsulation de clés
peuvent être utilisés pour la génération de
clés, ils ne sont pas exactement analogues aux accords de clés
classiques. Cela entrave quelque peu la possibilité de conserver les
protocoles de chiffrement existants et de remplacer simplement les primitives
de clé Diffie Hellman par des primitives de protocole à
sécurité quantique.
En outre, dans le cas de PACE-CAM, le calcul du jeton
d'authentification de la puce est étroitement lié aux
mathématiques sous-jacentes, car il repose sur des
propriétés spécifiques des calculs liés à
DH. Par conséquent, la migration vers la cryptographie à
sécurité quantique doit également être
réorganisée.
Cette situation exige que l'on envisage sérieusement de
concevoir des protocoles cryptographiques entièrement nouveau, en
remplaçant les primitives cryptographiques par des primitives
cryptographiques à sécurité quantique.
Il faut se concentrer sur les propriétés de
sécurité et de confidentialité requises plutôt que
sur la conception des protocoles cryptographiques actuels. À cet
égard, il convient également de créer une preuve formelle
de sécurité - comme cela a été fait
précédemment pour ces protocoles cryptographiques - afin de
prouver qu'elle est exempte d'erreurs et, en fin de compte, de susciter la
confiance des utilisateurs.
Cette tâche prendra un certain temps, mais elle est
absolument nécessaire pour ne pas dégrader la
sécurité globale de la vie privée obtenue par les
documents de voyage électroniques lisibles par machine, tout en essayant
de la rendre résistante à l'informatique quantique.
D'autre part, l'authentification active, l'authentification
passive ou l'authentification du terminal sont des protocoles de documents de
voyage lisibles par une machine électronique qui semblent plus faciles
à convertir en versions résistantes aux quantas. Il suffit de
remplacer la primitive de signature par une primitive à
sécurité quantique.
47
Toutefois, les inconvénients des signatures à
sécurité quantique (taille, performances...) peuvent signifier
que la conception de ces protocoles d'authentification doit être
modifiée pour passer des signatures à sécurité
quantique à des mécanismes d'encapsulation des clés.
Des algorithmes à sécurité quantique
sont actuellement conçus, vérifiés et analysés dans
le cadre du concours du NIST, qui devrait se terminer vers 2024. De nombreux
chercheurs et scientifiques du monde entier sont impliqués dans ce
processus. Toutefois, il faudra peut-être plusieurs années de
recul à certaines agences de sécurité nationale avant de
pouvoir faire pleinement confiance à cette nouvelle
génération de cryptographie.
Deux méthodes sont possibles :
· La première est une approche hybride, qui
combine des algorithmes traditionnels avec des algorithmes à
sécurité quantique. Cela pourrait être un bon moyen de
concilier la nécessité de commencer dès que possible la
migration vers un eMRTD à sécurité quantique.
· Une autre approche est celle de l'agilité
cryptographique, selon laquelle les services de sécurité
pourraient être réalisés à l'aide de plusieurs
algorithmes basés sur différents problèmes
mathématiques. À tout moment, un seul est utilisé pour un
service de sécurité donné, mais si un algorithme
cryptographique est menacé, un autre peut être ajouté (si
nécessaire) et être instantanément utilisé à
la place.
Les algorithmes cryptographiques à
sécurité quantique à employer doivent pouvoir être
exécutés sur des éléments/des puces
sécurisés utilisés pour l'eMRTD.
Le code exécutable de l'algorithme cryptographique et
les clés nécessaires doivent tenir dans la mémoire
disponible, et il doit aussi s'exécuter très rapidement pour ne
pas nuire à l'expérience de l'utilisateur ou à la
fluidité du contrôle.
Cette capacité limitée du matériel eMRTD
ajoute de la complexité et des recherches sont nécessaires pour
s'assurer que le protocole proposé est approprié. Il faudra
possiblement développer un nouveau matériel en utilisant des
coprocesseurs ou des ressources dédiées pour obtenir des
performances raisonnables. Une autre raison de commencer les travaux dès
que possible.
Le passage à la cryptographie quantique
sécurisée eMRTD nécessitera également une action
des organismes de certification et des laboratoires d'évaluation de la
sécurité (FSTI) pour évaluer la solidité de la mise
en oeuvre de ces algorithmes. Il conviendra en particulier d'examiner les
nouvelles possibilités offertes par les ordinateurs quantiques afin de
déterminer la bonne manière de les tester.
48
Déploiement de documents de voyage électroniques
lisibles par machine à sécurité quantique Les documents de
voyage électroniques lisibles par machine permettent de prouver
l'identité d'une personne lors de ses déplacements. Malgré
de nombreuses initiatives visant à numériser ces derniers, comme
les DTC, les documents de voyage physiques lisibles à la machine, les
documents de voyage physiques (livrets de passeport avec des puces de
sécurité) continueront probablement à être
utilisés pendant des décennies et ne disparaîtront pas dans
un avenir proche.
Contrairement aux documents de voyage numériques, les
documents de voyage physiques ne nécessitent pas de connexion internet,
de batterie ou de source d'énergie pour être utilisés, il
est donc possible de les utiliser pour prouver son identité à
tout moment et en tout lieu.
En outre, l'acquisition ou l'utilisation de documents de
voyage numériques nécessite des compétences
numériques et d'autres outils (smartphones, accès à
internet...), ce qui peut constituer un obstacle pour certains groupes de
personnes, soit en raison de leur analphabétisme numérique, soit
parce qu'elles n'en ont pas les moyens. Par conséquent, les documents de
voyage réels sont un facteur clé de l'inclusion sociale.
De plus, la population n'a pas forcément l'habitude de
manipuler les passeports sous forme numérique. Enfin et surtout, des
considérations de sécurité et de convivialité
imposent d'organiser la flexibilité des moyens de prouver
l'identité d'un individu. La preuve d'identité doit être
maintenue si le téléphone mobile ou l'internet/cloud est
piraté, compromis ou indisponible.
Pour toutes ces raisons, il est certain que les documents de
voyage physiques verront leur utilisation généralisée dans
les décennies à venir. Ainsi, les stratégies de
déploiement des documents électroniques à
sécurité quantique ne peuvent pas s'appuyer sur leur remplacement
par des documents électroniques purement numériques, qui offrent
une plus grande flexibilité et polyvalence.
Les documents électroniques- tout comme les documents
de voyage électroniques numériques - doivent être mis
à niveau vers la sécurité quantique. Cette situation aura
une incidence directe sur le scénario de migration.
La meilleure option pour déployer des documents
électroniques résistants aux quanta est de mettre
régulièrement les mettre à jour. Par conséquent, le
temps de déploiement est long, équivalent à la
période de validité des eMRTD, généralement 10 ans
pour les passeports.
Il n'est de plus pas réaliste d'envisager de remplacer
du jour au lendemain les eMRTD sur le terrain par des eMRTD à
sécurité quantique. Cela entraînera d'importants goulets
d'étranglement dans la capacité de production et les
installations d'enregistrement, mais compromettra également la
capacité de
49
contrôler les eMRTD et donc de les valider les
identités humaines (l'infrastructure a également dû
être mise à niveau du jour au lendemain).
Toutefois, si la menace posée par l'informatique
quantique n'est pas anticipée à l'heure actuelle, nous pourrions
être confrontés à une situation dans le futur où il
n'y aurait pas assez de temps pour déployer des documents de voyage
électroniques lisibles par machine résistants à
l'informatique quantique par régénération naturelle avant
l'émergence de l'informatique quantique. Il est important
d'éviter cette situation très lourde et potentiellement
coûteuse.
Par conséquent, il est très important et urgent
de commencer à s'attaquer dès maintenant aux menaces que
représente l'informatique quantique.
Comment protéger les données face à la
puissance du quantique ?
Cryptographie post-quantique
La recherche d'algorithmes censés être
résistants aux attaques des ordinateurs classiques et quantiques s'est
largement concentrée sur les algorithmes à clé publique.
Il en existe de plusieurs sortes :
· Cryptographie basée sur les treillis
: Les cryptosystèmes basés sur les problèmes de
treillis ont suscité un regain d'intérêt pour un certain
nombre de raisons. De nouvelles applications, notamment le chiffrement
entièrement homomorphe). La cryptographie en treillis permet
l'obscurcissement du code et le chiffrement grâce à attributs. La
plupart des algorithmes de génération de clés basés
sur des treillis sont relativement simples, efficaces et hautement
parallélisables. En outre, il a été démontré
que la sécurité de certains systèmes basés sur des
treillis est plus sûre que le cas moyen dans les hypothèses de
gravité les plus défavorables. D'autre part, il est difficile
d'estimer avec précision la sécurité des systèmes
à grilles, même contre les techniques de cryptanalyse connues.
· Cryptographie à base de codes
: La plupart des primitives basées sur le code souffrent d'une
taille de clé très importante. Des variantes récentes ont
introduit plus de structure dans le code pour réduire la taille de la
clé, mais la structure ajoutée a également conduit
à des attaques réussies sur certaines propositions. Bien qu'il y
ait eu quelques propositions de signatures basées sur des codes, la
cryptographie basée sur des codes a connu plus de succès dans les
schémas de cryptage.
· Cryptographie polynomiale multivariée
: Ces schémas sont basés sur la difficulté de
résoudre des systèmes polynomiaux multivariés sur des
champs finis. Au cours des dernières décennies, plusieurs
crypto-systèmes multivariés ont été
proposés, dont beaucoup ont été cassés. Bien qu'il
y ait eu quelques propositions de systèmes de cryptage à
plusieurs variables, la
50
cryptographie à plusieurs variables a eu historiquement
plus de succès en tant que méthode de signature.
· Signatures basées sur le hachage :
Les signatures basées sur le hachage sont des signatures
numériques créées à l'aide d'une fonction de
hachage. Leur sécurité, même contre les attaques
quantiques, est bien connue. L'inconvénient de bon nombre des
systèmes de signature basés sur le hachage les plus efficaces est
que le signataire doit enregistrer le nombre exact de messages
précédemment signés, et toute erreur dans cet
enregistrement introduit une incertitude. Un autre inconvénient est
qu'ils ne peuvent générer qu'un nombre limité de
signatures. Le nombre de signatures peut même être augmenté
jusqu'à être virtuellement illimité, mais cela augmente
également la taille de la signature.
Il semble peu probable qu'un algorithme actuellement connu
remplace les algorithmes utilisés aujourd'hui. Un défi qu'il
faudra peut-être surmonter est que la plupart des algorithmes
résistants aux quantas ont une longueur de clé plus grande que
les algorithmes qu'ils remplaceront.
Standardisation de la cryptographie post quantique
Initiée par le NIST (National Institute of Standards
and Technology), cette standardisation vise à permettre aux acteurs
concernés d'adopter des solutions de cryptage efficaces.
Afin d'élire les candidats, le NIST organise un
concours, comportant des rounds qui sont au maximum de 4. . Les rounds sont
à considérer comme une chance supplémentaire. Les
candidats ont donc 4 chances pour faire valoir l'efficacité de leur
algorithme.
Le concours s'étale sur plusieurs années. Un
concours se déroule actuellement, depuis le 30 novembre 2017, et le
quatrième round a commencé le 5 juillet 2022.
Pour cette édition, les candidats doivent proposer un
ou des algorithmes de cryptographie à clés publiques, ou un ou
des algorithmes de signature digitale capables de résister aux attaques
quantiques. Les vainqueurs verront leur algorithme devenir un standard mondial,
qui pourra être appliqué et introduit dans divers systèmes,
appareils nécessitant une couche de sécurité quantique.
Concernant les algorithmes de cryptage de clés
publiques (KEMs), le NIST a d'ores et déjà
sélectionné l'algorithme « CRYSTALS-Kyber».
CRYSTALS-KYBER est un mécanisme d'encapsulation de
clés publiques sécurisé IND-CCA2 dont la
sécurité repose sur la force de la résolution du
problème de l'apprentissage par l'erreur (LWE). Ses avantages
comprennent une clé de chiffrement relativement petite qui peut
être facilement échangée entre deux parties, et la
rapidité de son fonctionnement.
51
Concernant les algorithmes de signature, Le NIST a
également sélectionné trois algorithmes :
· CRYSTALS-Dilithium
· FALCON
· SPHINCS+
Les examinateurs ont noté la grande efficacité
des deux premiers, et le NIST recommande CRYSTALS-dilithium comme algorithme
principal pour FALCON pour les applications qui nécessitent des
signatures plus petites que ce que dilithium fournit.
Le troisième SPHINCS+ est légèrement
plus grand et plus lent que les deux autres, mais se démarque par son
utilité en tant que sauvegarde pour une raison principale : il utilise
des mathématiques différentes des trois autres choix du NIST. Les
2 premiers sont basés sur une série treillis structurés,
tandis que SPHINCS+ utilise une fonction de hachage.
Le quatrième round a débuté le 5 juillet
2022, les algorithmes proposés par les candidats sont les suivants
· BIKE
· Classic McEliece
· HDC
· SIKE
BIKE et HQC sont tous deux basés sur des codes
structurés, et tous deux conviennent comme KEMs génériques
qui ne sont pas basés sur la grille. Le NIST prévoit de
sélectionner au maximum un de ces deux candidats à la
normalisation d'ici la fin du quatrième tour.
Classic McEliece est un finaliste, mais n'est pas
actuellement normalisé par le NIST. Bien que Classic McEliece soit
largement considéré comme sûr, le NIST ne pense pas qu'il
sera largement utilisé en raison de la grande taille de sa clé
publique. Le NIST peut tout de même choisir de normaliser le Classic
McEliece d'ici la fin du quatrième tour.
Concernant les algorithmes entrant dans le quatrième
tour, le NIST permet aux équipes de soumission de fournir des
spécifications et des implémentations mises à jour
("optimisations"). La date limite pour ces ajustements est le 1er octobre
2022.
En prenant en considération les qualités
respectives de chaque algorithme retenu, le NIST propose un objectif de
réussite aux participants. En effet, malgré le fait que les
algorithmes standardisés soient considérés comme
pertinent, ils ne sont pas infaillibles.
52
Aujourd'hui, Le NIST appelle aux intéressés
à proposer un algorithme de signature numérique avec signature
courte et vérification rapide. Le NIST prévoit également
de lancer un appel à propositions pour de nouveaux algorithmes de
signature numérique à clé publique (résistants aux
quanta) d'ici la fin de l'été 2022.
Comment les entreprises vont-elles devoir procéder
pour basculer vers de nouveaux standards quantiques ?
De nombreux systèmes d'information manquent de
souplesse en matière de cryptage. C'est-à-dire qu'ils ne sont pas
conçus pour encourager l'adoption rapide de nouvelles primitives et de
nouveaux algorithmes cryptographiques sans apporter de changements majeurs
à l'infrastructure du système.
Par conséquent, les organisations n'ont pas toujours
le contrôle total de leurs mécanismes et processus de chiffrement,
ce qui peut engendrer des complications lors de la modification de ces
derniers.
Il est possible d'imaginer un processus de
vérification et de rationalisation des systèmes
intrinsèques à une entreprise, afin de permettre une transition
vers de nouveaux standards quantiques :
· Identifier l'existence d'algorithmes
hérités (par exemple, dans des applications populaires
algorithmes de cryptage tels que le courrier électronique crypté
ou les réseaux privés virtuels, le code de gestion des
accès dans les systèmes d'exploitation et les serveurs de
réseau, les utilitaires de signature de code, les logiciels
d'identification, etc..).
· Connaissance des formats de données des bases
de données cryptographiques et des interfaces de programmation
d'applications pour prendre en charge les changements et substitutions
nécessaires.
· Analyse du matériel, détection des
problèmes de compatibilité et mise au clair des ressources
physiques (RAM, CPU...) nécessaires.
· Identifier le système d'exploitation et le code
d'application qui utiliseront l'algorithme.
· Identifier tous les dispositifs de communication avec
des protocoles vulnérables.
· Identifier les dépendances des protocoles
cryptographiques aux caractéristiques algorithmiques.
Une fois qu'une entreprise a déterminé
où et pourquoi elle utilise la cryptographie à clé
publique. Les organisations peuvent déterminer les
caractéristiques d'utilisation telles que, par exemple :
· Limitations matérielles/logicielles sur la
taille actuelle des clés et sur la taille future des clés et des
signatures.
· Seuils de latence et de débit.
· Processus et protocoles de négociation du
chiffrement.
53
·
Protocole de poignée de main de génération
de clé à jour, chaque processus de chiffrement se déroule
sur la pile.
· Comment chaque processus cryptographique est
invoqué (par exemple, en invoquant des bibliothèques
cryptographiques, en utilisant des processus intégrés dans le
système d'exploitation, en invoquant des applications, en utilisant la
cryptographie en tant que service).
· L'existant soutient-elle le concept d'agilité
cryptographique ?
· Peut-elle être mise en oeuvre par une mise à
jour du logiciel ?
· Prospecter les fournisseurs et propriétaires de
tout matériel/logiciel/processus de chiffrement.
· Origine des clés et des certificats.
· Conditions contractuelles et légales
imposées par le fournisseur.
· Fin du cycle de vie du support ou fin de vie
prévue de la mise en oeuvre (si spécifié par le
fournisseur).
· L'impact de la migration sur la propriété
intellectuelle.
· Sensibilité des informations
protégées.
Après avoir choisi un algorithme alternatif, il existe
des considérations opérationnelles supplémentaires qui
peuvent accélérer l'adoption et la mise en oeuvre dans
l'entreprise :
· Développer une approche basée sur les
risques qui prend en compte les exigences de sécurité, les
opérations commerciales et l'impact de la mission.
· Développer des outils de vérification pour
la mise en oeuvre.
· Identifier les situations où une mise en oeuvre
provisoire (par exemple, hybride) est nécessaire pour maintenir
l'interopérabilité pendant la migration.
· Mettre à jour les processus et procédures
du développeur, du service chargé de l'implémentation et
de l'utilisateur.
· Créer un plan de communication qui sera
utilisé au sein de l'organisation.
· Considérer l'impact sur les clients et partenaires
externes.
· Identifier le calendrier de migration et les ressources
nécessaires.
· Mettez à jour ou remplacez les normes,
procédures et meilleures pratiques en matière de
sécurité.
· Établir les conditions d'approvisionnement pour
acquérir la technologie Quantum Safe.
· Fournir une documentation sur l'installation, la
configuration et la gestion.
· Tester et valider les nouveaux processus et
procédures.
54
Le NIST recommande vivement aux entreprises de se
préparer dès maintenant à la transition en suivant une
feuille de route pour la cryptographie post-quantique, qui comprend les
éléments suivants :
· Inventorier les systèmes de l'organisation pour
les applications qui utilisent le chiffrement à clé publique.
· Tester la nouvelle norme de cryptographie
post-quantique dans le cadre d'un POC. Les organisations devraient attendre la
publication officielle pour mettre en oeuvre la nouvelle norme dans un
environnement de production.
· Élaborer un plan de migration des
systèmes de l'organisation vers une nouvelle norme de cryptage,
notamment :
o Effectuer une analyse d'interdépendance pour identifier
les problèmes qui peuvent affecter l'ordre de transition des
systèmes.
o Décommissionner les anciennes technologies qui ne
seront plus prises en charge après la publication de la nouvelle
norme.
o S'assurer que les produits qui adoptent la nouvelle norme
soient validés et testés
· Créer des stratégies de collecte pour la
cryptographie post-quantique. Ce processus devrait inclure :
o Établir de nouveaux niveaux de service pour la
transition.
o Enquêtes auprès des fournisseurs pour
déterminer l'intégration possible dans la feuille de route de
votre entreprise et pour identifier les technologies habilitantes
nécessaires.
· Informer le service informatique de votre entreprise
et les fournisseurs de la transition à venir.
· Former les employés et fournir une formation
adéquate.
Il est urgent de commencer à préparer une
migration en douceur vers la PQC (cryptographie post-quantique), comme le
recommande le NIST, mais également de disposer d'une expertise
substantielle en cryptographie, du matériel au logiciel en passant par
la co-conception matériel/logiciel, pour être en mesure
d'examiner, d'analyser et d'évaluer les architectures de
sécurité/chiffrement existantes d'une organisation, tant au
niveau du logiciel que du matériel. En outre, toute exigence
réglementaire à respecter pour protéger les données
sensibles doit être incluse dans l'analyse.
En fonction des résultats, il est possible
d'élaborer une stratégie spécifique de lutte contre les
menaces quantiques adaptée à chaque organisation, qui comprendra
une feuille de route pour la cryptographie post-quantique. Ensuite, un ensemble
approprié de solutions Crypto-Agile qui permettent une
55
transition rapide et en douceur vers la prochaine norme de
cryptographie post-quantique, le tout en maintenant
l'interopérabilité et la rétrocompatibilité sans
compromettre la sécurité.
Les mots de passe et les systèmes de cryptages en
danger
Malgré ses faiblesses apparentes, l'authentification
par mot de passe est encore largement utilisée. L'utilisateur moyen peut
avoir des centaines de comptes en ligne protégés par des mots de
passe qui nécessitent un mot de passe pour décrypter et
démarrer un ordinateur ou accéder à des réseaux
Wi-Fi ou encore VPN.
Les raisons pour lesquelles les utilisateurs continuent
d'utiliser des mots de passe sont notamment pour leur intuitivité et
leur facilité d'utilisation, ainsi que l'écosystème" des
stratégies d'adaptation (telles que la réutilisation des mots de
passe et le choix de mots de passe aux motifs prévisibles pour
contourner les restrictions liées aux mots de passe).
Le hachage des mots de passe est un élément
essentiel de la sécurisation des mots de passe. Pour les mots de passe
stockés dans une base de données ou chiffrés sur un
disque, il est préférable d'utiliser les fonctions de hachage
suivantes :
· Le salage : Le salage est une donnée
aléatoire utilisée comme entrée supplémentaire dans
une fonction à sens unique qui permet de hacher des données, des
mots de passe ou des phrases de passe. Le sel est utilisé pour
protéger les mots de passe en mémoire. Auparavant, seul le
hachage crypté du mot de passe était stocké sur le
système, mais des mesures de protection supplémentaires ont
été développées pour empêcher
l'identification des mots de passe dupliqués ou partagés.
· L'itération : Au lieu d'utiliser une seule
fonction de hachage sur par exemple un mot de passe, il est possible d'hacher
ce même mot de passe à de multiples reprises, ce qui permet de
faire perdre du temps à l'attaquant, s'il utilise une méthode de
force brute car ce dernier devra outrepasser plusieurs couches de hachage.
· chiffrement dur en mémoire (MHF) : Il s'agit
d'une fonction qui sollicite une quantité importante de mémoire
vive, ce qui demande à l'attaquant de disposer de beaucoup de ressources
matérielles s'il souhaite outrepasser cette fonction de hachage.
Avec l'informatique quantique, de nombreuses primitives
cryptographiques sont à haut risque. En particulier, la cryptographie
à clé publique populaire d'aujourd'hui, basée sur des
problèmes de factorisation ou de logarithme discret, comme le
cryptosystème RSA, peut être craquée par l'algorithme de
Shor. La situation est différente avec la cryptographie
symétrique.
56
Les ordinateurs quantiques peuvent trouver des prototypes de
mots de passe hachés plus rapidement que les ordinateurs conventionnels.
Les progrès des technologies informatiques classiques et quantiques ont
rendu nécessaire une cryptographie plus forte.
La première transition d'un cryptage plus faible
à un cryptage plus fort était basée sur un paradigme de
bits sécurisés qui mesurait la sécurité d'un
algorithme en termes de complexité temporelle d'une attaque utilisant un
ordinateur classique. Malheureusement, le paradigme des bits
sécurisés ne tient pas compte de la sécurité des
algorithmes et de la cryptanalyse quantique, il n'est donc pas suffisant pour
guider notre transition vers une cryptographie performante contre les
technologies quantiques. Il n'existe toujours pas de consensus sur les
longueurs de clé qui offrent un niveau acceptable de
sécurité contre les attaques quantiques.
Alternatives non-quantiques pour se protéger
Les utilisateurs qui ne veulent pas entamer une migration
vers des systèmes post-quantiques avant la standardisation officielle du
NIST, mais qui sont préoccupés par la confidentialité
à long terme de leurs données transmises peuvent protéger
leurs systèmes en incluant des données secrètes
partagées dans la dérivation de la clé en plus de la
clé publique « Retains » en plus du matériel de
clé obtenu par l'opération. Cela se fait au prix de la sauvegarde
des données partagées par paire, et ne convient donc qu'aux
systèmes de maintien d'état avec un nombre limité de
pairs.
Le protocole ZRTP (Zimmermann Real-time Transport Protocol)
ZRTP est un protocole d'accord de clé de chiffrement
utilisé pour négocier les clés de chiffrement entre deux
points d'extrémité dans un appel téléphonique VoIP
basé sur le Real-Time Transport Protocol. Il est chiffré à
l'aide de l'échange de clés Diffie-Hellman et du protocole SRTP
(Secure Real-Time Transport Protocol).
Le ZRTP utilise trois phases pour négocier et
définir la clé maîtresse SRTP et passer en mode SRTP.
· Dans la première phase, les deux pairs ZRTP
échangent des informations sur leurs algorithmes cryptographiques
symétriques pris en charge, leurs algorithmes d'accord de clé et
leurs modes d'authentification.
· Dans la phase suivante, les pairs
génèrent leurs valeurs Diffie-Hellman et échangent la
partie publique de la paire de clés Diffie-Hellman. Le ZRTP exige qu'une
nouvelle paire de clés Diffie-Hellman soit générée
pour chaque session.
En plus de ces valeurs, les pairs peuvent échanger des
secrets supplémentaires tels que des secrets e (selon
l'implémentation du programme de communication). ZRTP prend tous les
secrets disponibles et
57
les combine de manière astucieuse pour
générer et dériver la clé maîtresse SRTP. La
combinaison de plusieurs dates clés rend difficile pour un attaquant de
deviner ces valeurs.
Le protocole ZRTP comprend un mécanisme appelé
"continuité de la clé" comme mesure contre les attaques de
l'homme du milieu (MITM). Le protocole ne mentionne pas la
sécurité contre un adversaire quantique comme motivation, mais il
s'agit de la première description de cette idée à notre
connaissance. Il va également plus loin que les autres protocoles dans
la mise à jour des données secrètes partagées.
Législation européenne relative à L'IA
En avril 2021, la Commission européenne propose un
nouveau cadre juridique pour réguler l'utilisation de l'intelligence
artificielle. La Commission européenne propose une définition
technologiquement neutre des systèmes d'IA dans la législation
européenne et une classification personnalisée pour les
systèmes d'IA avec différentes exigences et obligations sur
l'approche fondée sur le risque, l'AI Act.
AI Act
La législation européenne sur l'IA (AI Act)
présentée par la Commission européenne, établit des
règles pour le développement, la commercialisation et
l'utilisation de produits, services et systèmes basés sur l'IA au
sein de l'Union Européenne. Cette dernière introduit un "cadre de
sécurité des produits" articulé autour d'un ensemble de
quatre catégories de risques (Minimum, limité,
élevé, inacceptable).
Elle fixe des exigences en matière d'accès au
marché et de certification pour les systèmes d'IA à haut
risque par le biais du processus obligatoire de marquage CE. Pour garantir des
résultats équitables, ce régime de conformité
préalable à la mise sur le marché s'applique
également aux ensembles de données de formation, de test et de
validation de l'apprentissage automatique. La loi vise à
systématiser les normes élevées du paradigme de l'IA
crédible de l'UE. Ce paradigme exige que l'IA soit juridiquement,
éthiquement et techniquement robuste, tout en respectant les valeurs de
la démocratie, des droits de l'homme et de l'État de droit.
Le projet de loi sur l'intelligence artificielle combine une
approche fondée sur le risque avec un mécanisme d'application
moderne et à plusieurs niveaux. Cela signifie notamment que les
applications d'IA pour lesquelles le risque est négligeable seront
soumises à des restrictions légales plus douces et que les
applications présentant un risque inacceptable seront interdites. Entre
ces deux extrêmes, des réglementations plus strictes s'appliquent
à mesure que le risque augmente. Celles-ci vont des évaluations
d'impact d'autorégulation non contraignantes de type "soft law",
assorties d'un code de conduite, à des exigences strictes de
conformité à des audits externes tout au long du cycle de vie des
applications.
58
La Commission propose un cadre juridique pour l'intelligence
artificielle aux fins spécifiques suivantes
· S'assurer que les systèmes d'IA
déployés et utilisés sur le marché de l'union sont
sûrs et respectent les lois applicables en matière de droits
fondamentaux et de valeurs de l'union.
· Garantir la sécurité juridique pour
stimuler les investissements dans l'IA et l'innovation.
· Améliorer la gouvernance des droits
fondamentaux et des exigences de sécurité pour les
systèmes d'IA et l'application effective de la législation
existante.
· Faciliter le développement d'un marché
unique pour les applications d'IA légitimes, sûres et fiables et
éviter la fragmentation du marché.
Projet RISQ. La France se place comme un acteur imposant
En France, il y a un haut niveau d'intérêt
académique pour ce sujet. Pour cette raison, la communauté
française est activement impliquée dans la conception et
l'analyse de sécurité des primitives, ainsi que dans leur
cryptanalyse.
Le projet RISQ est applicable à tous les domaines
techniques qui utilisent des méthodes de cryptage. Des initiatives
(développement de standards, prototypage) en prévision de cette
évolution technologique ont été observées dans
d'autres pays.
Les résultats du projet comprendront une gamme
complète de produits pour le cryptage et la signature de transactions,
ainsi que la personnalisation du protocole TLS.
Les solutions matérielles et logicielles de chiffrement
qui répondent à ces contraintes de sécurité et
d'intégration embarquée seront également incluses.
En outre, des documents ont été produits pour
guider l'industrie dans l'intégration de ces technologies
post-quantiques dans des systèmes complexes (marchés de la
défense, du cloud, de l'identité et des paiements), ainsi que des
rapports sur les activités des comités de normalisation.
Le Grand Défi Numérique RISQ vise à faire
de la France un acteur international majeur de la transformation
post-quantique. L'un des objectifs du RISQ est de renforcer la présence
de l'industrie française de la sécurité numérique
dans les instances de normalisation en réorganisant des acteurs
nationaux mondialement reconnus. Le consortium regroupe des grands groupes
industriels, des PME et des entreprises de taille intermédiaire, des
agences gouvernementales et des laboratoires académiques afin de
coordonner leurs actions sur les propositions de normes et les
évaluations des candidats.
Le projet définit également une feuille de route
pour la commercialisation d'une ligne de produits sécurisés
post-quantique - bibliothèques logicielles et matérielles pour le
calcul cryptographique,
59
serveurs d'archivage et d'horodatage - depuis la conception de
briques théoriques dans des laboratoires collaboratifs jusqu'au
développement et à la validation de démonstrateurs . La
présence de grands groupes au sein du consortium garantit
l'adaptabilité des solutions développées aux
systèmes actuellement utilisés.
60
Conclusion
L'avènement de l'informatique quantique pourra
permettre d'une part d'améliorer les performances de nos appareils,
applications ou encore sites internet grâce à
l'implémentation d'algorithmes quantiques en leur sein permettant de
démultiplier la vitesse de calcul et de compilation des données
traitées, et d'autre part de renforcer leur sécurité via
l'implémentation d'algorithmes quantiques, qui se veulent plus durs
à casser.
De nombreux domaines pourront bénéficier de ces
évolutions, notamment l'informatique, la médecine, la finance ou
encore l'automobile.
Les algorithmes ne sont pas les seuls axes de progrès
quantique, le matériel compatible avec ces derniers doit
également être développé afin de permettre à
ces algorithmes de pleinement fonctionner.
Une telle évolution présente cependant des
risques majeurs. Bien que les algorithmes quantiques puissent permettre
d'assurer plus efficacement la protection de nos données que les
algorithmes couramment utilisés aujourd'hui, nous pouvons imaginer des
attaques informatiques embarquant du quantique verrons le jour, et ces
dernières pourront potentiellement venir à bout de ces nouveaux
standards. La transition vers le tout-quantique prendra du temps, notamment au
sein des entreprises, qui seront les premières entités
exposées à ce risque.
Les pays ayant à disposition des technologies
quantiques auront inévitablement le dessus sur ceux qui n'en jouissent
pas. Une fracture pourra se créer et cette dernière pourrait
attiser des tensions et déclencher des conflits internationaux.
L'Europe, et notamment le France, ont bien compris les enjeux
et s'attèlent actuellement à développer leur autonomie
quantique en allouant un budget conséquent à la recherche, la
formation et le développement d'infrastructures adaptées.
L'Europe agit comme un bloc soudé qui travaille en coopération
afin d'évoluer le plus rapidement possible.
Les États-Unis ainsi que la Chine sont deux autres
sérieux acteurs qui investissent de grandes sommes d'argent afin de
parvenir à cette autonomie, voire suprématie quantique.
Un cadre légal doit également être
défini, afin d'encadrer la production, l'utilisation et
l'implémentation de ces technologies.
61
Bibliographie commentée
Ouvrages
« Gribbin, John, Christelle Rollinat, et Flammarion.
Le chat de Schrödinger: physique quantique et
réalité. Paris: Flammarion, 2010. »
Cet ouvrage constitue une introduction à la
mécanique quantique. L'auteur nous expose les célèbres
théories quantiques du XXème siècle de , d'une
manière objective, neutre et chronologique. Cet ouvrage, bien que
légèrement technique si l'on se trouve être un novice,
aborde de manière simplifiée la mécanique quantique,
notamment les connaissances qui étaient admises au
19ème et 20ème siècle concernant le
fonctionnement des atomes (électrons protons), ainsi que la projection
et la réception des rayons lumineux. Il y est principalement
développé l'expérience imaginaire du chat de
Schrödinger, élaborée par le physicien allemand Erwin
Schrödinger, qui avait pour but de répondre à
l'interprétation de Copenhague, également
développée dans cet ouvrage. L'auteur nous présente
également le paradoxe EPR, qui a amené à
l'élaboration des Etats de Bell, puis aux travaux de recherche du
physicien français Alain Aspect.
« Ezratty, Olivier. « Comprendre l'informatique
quantique », s. d. Edition 2020 »
L'auteur aborde la question de l'informatique quantique d'une
manière bien plus généraliste. Il met en avant le travail
de recherche de nombreuses entreprises, que ce soit les géants de
l'informatique, mais également les PME et les startups. Le rapport avec
la chimie est également abordé, notamment en nous exposant la
théorie de la mécanique quantique relativiste de Paul Dirac. Ce
livre n'est pas facilement accessible, des connaissances en
mathématiques, notamment en algèbre, seront d'une grande aide
lors de la lecture, mais aussi en physique et en chimie. L'auteur aborde un
très grand nombre de sujet (cryogénie, métrologie, MBQC,
polaritons, domotique science-fiction, philosophie...). La question de
l'écologie est également soulevée.
Cet ouvrage se veut technique et informatif. Il aborde un
grand nombre de domaines susceptibles d'être impactés par
l'avènement de l'informatique quantique. Un grand nombre de
schémas est cependant introduit afin d'aider à la
compréhension, et de permettre de visualiser plus facilement certains
phénomènes
« Gisin Nicolas, « L'impensable Hasard », 2012
»
Ouvrage rédigé par Gisin Nicolas, Physicien
Théoricien. Le phénomène de téléportation
quantique y est beaucoup abordé, notamment le principe de
non-localité, et de ses applications en termes de cryptographie. Le
principe d'intrication quantique est également abordé, ainsi que
la manière dont la
62
physique quantique, de manière générale,
défie notre perception de la réalité, au point de la
remettre en question et de nous pousser à sortir des sentiers battus de
nos connaissances et certitudes.
Ce livre cherche à apporter au lecteur une
réelle compréhension des sujets abordés, de par l'approche
« vulgarisante » des concepts présentés. Il est donc
aisé de lire cet ouvrage, même pour un néophyte. En effet,
cet ouvrage m'a permis de m'introduire au concept de
téléportation quantique, tout en m'aidant à pousser mes
connaissances théoriques sur la cryptologie quantique.
Cette oeuvre m'a été pour moi la plus importante
des 3 ; la préface réalisée par Alain Aspect rend cet
ouvrage incontournable, de par la crédibilité qu'il inspire.
Articles scientifiques
« NICT - Quantum Network White Paper, Avril 2021 »
Le NICT « National Institute of Information and
Communications Technology » présente les travaux que l'institut
prévoit de réaliser en termes de réseaux quantiques
jusqu'en 2035.
Un constat des lacunes en termes de cryptographie y est
exposé, ainsi que le besoin toujours grandissant de la population
mondiale en matière d'électronique, et part extension
d'Internet.
Une prédiction de ce que pourrait apporter les
réseaux quantiques est faite tout au long de l'article, dans les
domaines de la médecine, la finance, l'administration,
l'aéronautique, la vie de tous les jours....
Les usages gouvernementaux, professionnels et personnels sont
abordés de manière séparée, ce qui aide à
délimiter la portée que pourrait avoir ces nouvelles
technologies
Cet article se veut objectif et réaliste, cet article
constitue un programme de ce que souhaite accomplir l'institut jusqu'en
2035.
La recherche sur la distribution des clés quantiques
(QKD) est beaucoup abordée, car elle constitue la technologie à
apprivoiser afin de permettre la mise en place de la cryptographie quantique
appliquée à l'échelle mondiale
«Schoute, Eddie, Laura Mancinska, Tanvirul Islam, Iordanis
Kerenidis, et Stephanie Wehner. « Shortcuts to Quantum Network Routing
». ArXiv:1610.05238 [Quant-Ph], 17 octobre 2016. »
Cet article se veut être une introduction aux
réseaux quantiques. Il est abordé les protocoles de routage
quantiques, les corrections d'erreurs, les canaux et noeuds quantiques
l'application de l'intrication quantique dans le domaine des réseaux, et
surtout la nation de VQL (Virtual Quantum Link). Des schémas explicatifs
nous aident à la compréhension, bien que des connaissances en
mathématiques seront appréciables, voire indispensables afin de
pouvoir exploiter l'intégralité de l'article.
63
Il est présenté de véritables mises en
applications de protocoles de routage quantique et leurs graphiques. Cet
article traite de l'actuel et ne se projette pas dans le futur. Il expose nos
connaissances déjà acquises, à la manière d'un
tutoriel. Des comparatifs avec nos réseaux classiques sont
également démontrés afin de comprendre la véritable
puissance des technologies quantiques.
Cet article permet une réelle mise en situation, de par
le caractère actuel des techniques et concepts démontrés.
Nous ne sommes pas dans une simulation du futur, mais dans l'application
actuelle de ces concepts.
«Caleffi, Marcello. « Optimal Routing for Quantum
Networks ». IEEE Access 5 (2017) »
Cet article rédigé par Caleffi Marcello,
professeur d'électronique, nous propose une démonstration
mathématique des protocoles de routages. Les réseaux quantiques
sont abordés ; des techniques de routage quantiques sont
présentées, l'application de l'intrication quantique nous est
également soumise. Une grande partie de l'article est consacrée
au déplacement de l'information au sein d'un réseau quantique, de
par l'analyse du déplacement des qubits au sein du réseau, le
maintien de l'intrication malgré les perturbations rencontrées
lors du cheminement. Des graphiques et théories d'optimisation des
protocoles de routages nous sont également proposés.
Cet article pose certaines questions, et y répond par
le biais d'explications accompagnées de schémas. Des
théorèmes sont annotés et prouvés. Des
connaissances en mathématiques seront appréciées afin de
comprendre et exploiter l'intégralité de l'article.
La thématique portée sur les
mathématiques est intéressante, cela permet une plus grande
précision dans notre analyse, ainsi qu'une facilité à
rédiger des prédictions et algorithmes justes, fiables et
réalisables.
«Alexeev, Yuri, Dave Bacon, Kenneth R. Brown, Robert
Calderbank, Lincoln D. Carr, Frederic T. Chong, Brian DeMarco, et al. «
Quantum Computer Systems for Scientific Discovery ». PRX Quantum
2, no 1 (24 Février 2021)»
Cet article décrit le développement des
ordinateurs quantiques, ainsi que leur potentielle application dans la vie de
tous les jours, en analysant le besoin immédiat et futur (10 ans).
Il est abordé le besoin matériel des ordinateurs
quantiques, mais aussi le besoin logiciel. Les périphériques
externes, comme la borne wifi, sont également traités.
La virtualisation de qubits constitue une place importante du
travail de recherche. Les problèmes récurrents que peuvent
rencontrés un ordinateur quantique, comme le bruit, la
nécessité d'utiliser des algorithmes quantiques, ou encore les
besoins d'adaptation thermique sont pointés, cependant, des idées
de résolution sont proposées.
64
Une approche « DevOps » est soumise. Le
développement des technologies quantiques ainsi que leur application
demandent des connaissances de tous les domaines de l'informatique ; du
développement en passant par le réseau, sans compter
évidemment la contribution des connaissances en mathématique et
physique. Des frameworks mathématiques sont également
proposés et étudiés
« Bassman, Lindsay, Miroslav Urbanek, Mekena Metcalf,
Jonathan Carter, Alexander F. Kemper, et Wibe de Jong. « Simulating
Quantum Materials with Digital Quantum Computers ». ArXiv:2101.08836
[Quant-Ph], 1 février 2021. »
Cet article se concentre sur le côté
matériel des ordinateurs quantiques (super conducteurs, matériel
magnétique). Comment faire pour permettre aux algorithmes quantiques de
fonctionner, ainsi qu'au qubits de voyager au sein d'un ordinateur quantique ?
Il est abordé les différents aspects d'un qubit, notamment sa
composition moléculaire, ses états, et ses interactions avec le
reste du système quantique. Une comparaison des différents
aspects, démontrant les avantages et inconvénients de chaque
particularité est proposée.
Revues
«Sectigo® Official. « Quantum Cryptography &
Encryption: What It Is & How It Works » 2021.
https://sectigo.com/resource-library/quantum-cryptography.
»
Cet article propose une introduction à la cryptographie
quantique. Il y est abordé le principe de distribution de clé
quantique (QKD), de certificats quantiques et la gestion de ces derniers au
sein d'une entreprise. Il est également expliqué la raison pour
laquelle la cryptographie quantique constitue un enjeu majeur pour les
entreprises
Il est intéressant de se positionner dans une
démarche d'évolution. Les systèmes de cryptographies
quantique promettent une sécurisation des données accrue, mais le
hacking quantique apparaitra très certainement. Des lors, les
systèmes non-quantiques seront happés par la toute puissance de
calcul des algorithmes de déchiffrage quantique
« La recherche française au coeur du Plan
Quantique | CNRS ».
https://www.cnrs.fr/fr/cnrsinfo/la-recherche-francaise-au-coeur-du-plan-quantique.
»
Cet article démontre la volonté française
de participer à la course aux technologies quantiques, afin d'assurer
une indépendance en matière de technologies quantique.
Il est important de se constituer une place probante dans ce
domaine ; Le quantique est une technologie d'avenir qui est importante de
maitriser, de nombreux enjeux technologiques et monétaires
apparaitront.
65
Il est également démontré que la France
n'est pas la seule nation mondiale, et même européenne, à
vouloir assoir sa place. Une compétition est lancée,
malgré le fait que des alliances seront possibles.
« designboom | architecture & design magazine. «
NASA Scientists Achieve Long-Distance «Quantum Teleportation» »,
22 décembre 2020.
https://www.designboom.com/technology/nasa-long-distance-quantum-teleportation-12-22-2020/.
»
Cet article est une news. La NASA a réussi à
achever une téléportation quantique à longue distance (sur
44kms).
Une telle prouesse permet de valider des théories et
concepts quantiques, et donnent de l'espoir à la
généralisation de ce type de phénomène au sein de
notre société.
Une brève introduction au principe de la
téléportation quantique y est faite, ainsi qu'une mise en avant
de cette dernière.
Cette prouesse constitue une étape dans le
développement de technologies et réseaux quantiques. Une
première expérience fonctionnelle ouvre des portes sur la
recherche et l'amélioration du savoir-faire
« L, +Bastien. « Informatique quantique : tout
savoir sur la révolution Quantum Computing ».
LeBigData.fr (blog),
7 décembre 2020.
https://www.lebigdata.fr/informatique-quantique-big-data.
»
Cet article est une brève introduction à
l'informatique quantique. Une fusion de cette dernière avec le Big Data
est faite, démontrant les impacts et évolutions possibles dans le
domaine de l'IA, notamment la modélisation chimique.
Il est également mis en évidence la
supériorité des ordinateurs quantiques face aux supercalculateurs
actuels.
La course au quantique entre les Etats-Unis et la Chine est
également abordée. Il nous ait démontré les
ambitions des deux nations, en nous précisant que la Chine rattrape son
retard.
Ce type d'article, bien que peu technique, nous renseigne sur
l'actualité et nous aide à nous positionner sur l'existant. Il
m'a été utile de disposer de bases concrètes lors de ma
rédaction
« IEEE Approves Standards Project for Quantum Computing
Definitions ».
https://standards.ieee.org/news/2017/ieee
p7130.html.
66
La normalisation des technologies quantiques constitue
également un enjeu. Cet article présente les normes à
respecter dans le cadre des projets quantiques
Bien qu'étant une association, « L'IEEE Standards
Association (Institute of Electrical and Electronics Engineers) » assure
historiquement l'application de normes. Le périmètre juridique de
l'informatique quantique reste encore à définir, afin d'assurer
la protection des usagers, en matière de protection des données,
du droit d'auteur.
«IBM Research Blog. « IBM's Roadmap For Scaling Quantum
Technology », 15 Septembre 2020.
https://www.ibm.com/blogs/research/2020/09/ibm-quantum-roadmap/.
»
Le géant américain IBM entend bien se faire une
place dans la course au quantique. L'entreprise est considérée
comme un pionnier des technologies quantiques, de part leur investissement
financier et humains dans la recherche quantique depuis maintenant 20 ans.
IBM a publié une feuille de route, démontrant
leurs intentions de production, et surtout d'intégration de nombre de
qubit dans un ordinateur quantique. Une prédiction jusqu'en 2023 est
faite de manière précise, mais une estimation des besoins futurs
est tout de même faite.
L'article fait état de l'existant, précisant que
la technologie doit évoluer pour pouvoir atteindre leur objectif
«Microsoft Opens up Its Azure Quantum Platform for Public
Preview» Feb 16, 2021»
https://www.infoq.com/news/2021/02/azure-quantum-preview/
Le Cloud Computing est également un secteur visé
par l'informatique quantique. Microsoft a rendu publique sa plateforme de Cloud
Computing, permettant d'exploiter leurs librairies applicatives, mais
également un langage de programmation « Q# » permettant de
rédiger des algorithmes quantiques.
Il est intéressant de multiplier les cas d'usages de
l'informatique quantique, afin de mieux se rendre compte des
possibilités offertes
67