WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Informatique quantique


par Ludovic SACHOT
YNOV - Titre RNCP - Expert Informatique et systèmes d'information 2022
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

    Ludovic SACHOT

    Titre RNCP de niveau 7 | Expert Informatique et systèmes d'information

     

    INFORMATIQUE QUANTIQUE

     

    2021-2022

    Tuteur établissement : Madame GASSIER Esther Tuteur Entreprise : Madame GLAUME Sophie

    Table des matières

    Introduction 4

    1. En quoi consiste l'informatique quantique ? 5

    Constat de l'existant : pourquoi adopter une démarche quantique dans le cadre de

    l'informatique ? 5

    Comment fonctionnent les algorithmes quantiques? 5

    Loi de Moore 6

    Les limites de notre technologie 6

    Loi de Neven 7

    Relation entre la physique quantique et l'informatique 7

    Les « qubits », évolution du « bit » 7

    Le bruit 7

    Spin quantique 8

    Valeurs discrètes & valeurs continues 8

    Le chat de Schrödinger 8

    1.2 Les concepts apportés par l'informatique quantique 9

    Principe de superposition 9

    Principe d'intrication 9

    Stabilité des qubits 9

    Intégration des technologies quantiques dans la couche réseau 10

    Comment un réseau quantique est-il agencé ? 10

    Composition d'un réseau quantique 11

    Le principe d'intrication appliquée sur des noeuds quantiques 12

    Boites quantiques (quantum dots) 12

    Téléportation quantique 13

    Canal quantique (EPR) 14

    État quantique adiabatique (AQT) 14

    Cristaux temporels 14

    Cryptographie 15

    Code César 15

    Primitives cryptographiques 15

    Le transfert inconscient (Oblivious Transfert => QOT) 15

    Projet Nessie 16

    Sélection des primitives 17

    Cryptographie actuelle et enjeux quantiques 17

    Échange de clés « Diffie Hellman » 17

    1

    Protection des communications numériques 18

    Distribution de clés quantiques (QKD) 20

    TLS 21

    IPSec 22

    Comment intégrer QKD dans les protocoles de sécurité actuels ? 23

    Utilisation de QKD dans IPsec et TLS 24

    Les différents types de certificats 24

    1.3 Acteurs engagés et secteurs concernés 25

    Les géants de l'informatique et les startups 25

    QuTech Research Center : Mise en place du réseau à trois noeuds quantiques 27

    Des scientifiques de la NASA et leurs partenaires réalisent pour la première fois une "téléportation

    quantique" à longue distance. 28

    La place de la France dans cette course au quantique 28

    Les secteurs visés 29

    Quantum Cloud 29

    Quantum Gaming 30

    Médecine & santé 30

    Machine Learning et Intelligence artificielle 31

    Automobile 32

    Finance 32

    Conquête de l'espace. 33

    PROBLÉMATIQUE 35

    2. Les technologies quantiques ont-elles le pouvoir de compromettre les technologies actuelles ? 36

    Etat des lieux des risques rencontrés avec l'informatique 37

    Usage militaire potentiel 38

    Intelligence artificielle 39

    Crypto monnaie et blockchain 40

    Qu'est-ce qu'une crypto-monnaie ? 41

    Biométrie 43

    Document de voyage électronique lisible à la machine 43

    La migration vers des eMRTD à preuve quantique prendra du temps 44

    Internet of Things (IoT) 44

    2.2 Comment endiguer la menace et devrait-on s'y atteler dès aujourd'hui ? 46

    Existe-t-il un moyen d'éliminer ou d'atténuer les risques liés aux crypto-monnaies ? 46

    Adaptation des protocoles de cryptage utilisés dans les documents de voyage électroniques

    lisibles à la machine pour atteindre une sécurité quantique. 47

    2

    Déploiement de documents de voyage électroniques lisibles par machine à sécurité quantique

    49

    Comment protéger les données face à la puissance du quantique ? 50

    Cryptographie post-quantique 50

    Standardisation de la cryptographie post quantique 51

    Les mots de passe et les systèmes de cryptages en danger 56

    Alternatives non-quantiques pour se protéger 57

    Le protocole ZRTP (Zimmermann Real-time Transport Protocol) 57

    Législation européenne relative à L'IA 58

    AI Act 58

    Projet RISQ. La France se place comme un acteur imposant 59

    Conclusion 61

    Bibliographie commentée 62

    Ouvrages 62

    Articles scientifiques 63

    Revues 65

    3

    Introduction

    Plus de puissance de calcul, une rapidité accrue du traitement de l'information et une meilleure protection de nos systèmes, voilà ce que nous promet les technologies quantiques. La soif de progrès nous pousse à toujours rechercher l'évolution de nos appareils, logiciels, protocoles et algorithmes.

    L'essor du nombre d'appareils connectés, notamment avec l'IoT, entraine inéluctablement un besoin de cyber protection supplémentaire. Les logiciels certes, de plus en plus performants, mais également de plus en plus gourmands en ressources, sont soumis à la puissance de calcul du ou des processeurs de la machine hôte. Le besoin en bande passante s'accroit, les besoins en matière de protection des flux réseau également.

    L'informatique tend, dans un premier temps, à répondre aux besoins des professionnels : Les supercalculateurs actuels, certes performants, paraissent obsolètes face aux ordinateurs quantiques et leur puissance de calcul bien supérieure. Certaines opérations complexes, notamment la modélisation de phénomènes climatiques ou médicaux ou encore des estimations extrêmement précises pourront s'effectuer bien plus rapidement qu'a l'heure actuelle, avec nos superordinateurs.

    Les technologies quantiques ne s'appliquent pas uniquement à l'aspect matériel, de nouvelles méthodologies algorithmiques, qui seront en capacité d'exploiter l'accélération quantique et les principes d'intrication et superposition devront être développées, ne serait-ce que pour un souci de compatibilité entre la couche logicielle et matérielle.

    Malgré l'ensemble des aspects positifs que présente l'informatique quantique, cette dernière expose ceux qui n'y sont pas préparés à des risques de sabotage. Les technologies quantiques seront aptes à déchiffrer les algorithmes de sécurité actuels. Les appareils, base de données et tout autre type de biens matériel ou immatériel protégé par des algorithmes traditionnels sont exposés aux algorithmes dits « quantiques ».

    La première partie du mémoire permettra de définir les bases de l'informatique quantique, en démontrant certains principes fondamentaux de la mécanique quantique, tout en s'appuyant sur des faits. Nous analyserons également l'impact des technologies quantiques au sein des réseaux dits quantiques.

    La deuxième partie du mémoire sera consacrée à l'analyse des risques engendrés par l'essors des technologies quantiques. Nous nous pencherons également sur les actions défensives possibles et entreprises notamment par les hautes instances gouvernementales.

    4

    1. En quoi consiste l'informatique quantique ?

    Étant donné que les principes de physiques « classiques » ne permettaient pas d'expliquer certains phénomènes, le principe de physique quantique a été admis au cours du XXème siècle. Il regroupe un ensemble de théories physiques décrivant le comportement des atomes et des particules. Elle agit donc au niveau atomique.

    La physique quantique est utilisée dans l'ensemble des domaines recourant aux lois de la mécanique quantique, l'informatique, et plus précisément l'architecture de nos microprocesseurs, en fait partie.

    L'informatique quantique découle de la physique quantique, et se présente comme une révolution technologique. Si l'on devait résumer les apports potentiels des technologies quantiques, ces dernières permettraient de démultiplier la vitesse de calcul et de traitement des données de nos appareils et programmes, tout en apportant des algorithmes de cryptage bien plus robustes que ceux utilisés de nos jours.

    Constat de l'existant : pourquoi adopter une démarche quantique dans le cadre de l'informatique ?

    Au rythme actuel, et avec les technologies conventionnelles d'aujourd'hui, il est estimé que nous pourrons miniaturiser nos appareils technologiques durant encore les vingt prochaines années. Le quantique promet également une amélioration de la puissance de calcul des processeurs, tout en réduisant leur consommation d'énergie grâce au principe de superposition, qui sera développé plus tard. Une vitesse accrue du traitement des informations permettrait de résoudre plus rapidement des problèmes mathématiques, renforcer les systèmes de cybersécurité, développer de nouveaux algorithmes de chiffrement, traiter de plus grandes quantités d'informations

    L'objectif serait de garder notre rythme de croisière en matière d'évolution technologique le plus longtemps possible.

    Comment fonctionnent les algorithmes quantiques?

    La plupart des algorithmes quantiques suivent le schéma suivant:

    · Étape de préparation: préparer les qubits d'entrée et définir la valeur initiale de ces derniers. Habituellement, une partie de cette préparation consiste à mettre les qubits les uns sur les autres.

    · Étape de calcul: Lancement de la conversion des qubits afin de minimiser les résultats incorrects. Pour cela, des qubits intriqués sont généralement nécessaires.

    · Etage de mesure: mesure le qubit, détruisant ainsi l'état interne de l'amplitude du sous-bit mesuré et obtenant la sortie classique de 1 et 0.

    5

    ·

    Étape itérative: Les résultats obtenus étant probabilistes et pas toujours les résultats attendus,

    il est généralement nécessaire de vérifier si les résultats obtenus sont valides ou il est nécessaire de redémarrer l'algorithme. À d'autres moments, vous pouvez obtenir le résultat statistiquement attendu en le répétant plusieurs fois.

    Loi de Moore

    Cette loi, énoncée en 1965 par Gordon E. Moore, l'un des co-fondateurs de la société Intel, repose sur l'évolution de la taille et du prix des microprocesseurs.

    Elle postule qu'à coût égal, le nombre de transistors présents sur une puce double tous les ans.

    Elle a été revisitée en 1975 par cette même personne, et postula que désormais, ce doublement aurait lieu tous les deux ans jusqu'en 2015 au minimum.

    De nombreux experts, dont Gordon E. Moore, postulaient que cette loi atteindrait ses limites dès lors que les limites physiques de la micro-électronique seraient atteintes, et ce fût le cas ; la courbe d'évolution de nombre de transistors décline depuis environ 2015.

    La quantité toujours plus importante de transistors amène de nouvelles problématiques, dont celle de la gestion et de la dissipation de la chaleur générée par la fréquence en Hertz des microprocesseurs. Cette dernière stagne depuis environ 2004 pour, en partie, les mêmes raisons.

    Les limites de la Loi de Moore

    Nous sommes en droit de nous demander jusqu'à quelle date cette loi sera fiable. Jusqu'où les limites technologies peuvent allées ? Comment l'améliorer lorsque ces dernières stagneront ?

    Le quantique tend à répondre partiellement à ces questions, en proposant un champ technologique nouveau, basé sur des principes technologiques encore très peu exploités. La transition vers de nouvelles lois commence à être opérée.

    Les limites de notre technologie

    Au fur et à mesure de la progression de la puissance de calculs et de la quantité d'informations traitées par les microprocesseurs, nous constatons les limites d'une architecture binaire. L'informatique quantique permettrait de modifier la manière dont les informations sont traitées et conçues, ce qui amènerait un accroissement des performances des algorithmes de calculs et de traitement des données.

    6

    Loi de Neven

    La loi de Neven, nommée en l'honneur d'Hartmut Neven, scientifique de renom chez Google, est présentée et pressentie comme la remplaçante et l'évolution de la loi de Moore. Elle dicte la rapidité avec laquelle les processeurs quantiques s'améliorent ou accélèrent le traitement des calculs par rapport aux ordinateurs classiques.

    Cette loi constitue l'une des raisons qui a poussé Google à annoncer qu'ils venaient d'atteindre la « suprématie quantique », le 23 octobre 2019.

    D'après eux, leur ordinateur quantique aurait été capable de résoudre un calcul en 3 minutes et 20 secondes, tandis que cela prendrait environ 10 000 ans au supercalculateur traditionnel le plus rapide du monde.

    Relation entre la physique quantique et l'informatique

    Pour commencer, il est bon de savoir comment une donnée est stockée et transmise. Un bit (Binary Digit) désigne d'une part la plus petite quantité de donnée possible pouvant être transmise par un message, et d'autre part l'unité de mesure de base de l'information.

    Un bit peut avoir deux états : 0 et 1. En adoptant une démarche humainement logique, nous pouvons considérer qu'un bit peut adopter les états « faux », associé au 0, et « vrai », associé au 1.

    Les « qubits », évolution du « bit »

    Un « qubit » ou « bit quantique » partage le même principe qu'un bit, mais embarque une structure plus complexe. La grande différence s'identifie dans le fait qu'il soit capable d'adopter plusieurs états à la fois, lui permettant de contenir plus d'informations tout en ayant la possibilité de les traiter simultanément, ayant pour effet d'augmenter la vitesse de traitement des données. Le qubit est soumis à de nouveaux principes nommés « superposition » et « intrication »

    Le bruit

    L'état d'un bit peut, dans certains cas, être modifié à causes de perturbations extérieures (radiations, champs électromagnétiques), de sorte que la valeur 0 peut être convertie en la valeur 1 et inversement. Ce phénomène se dénomme SEU, pour Single Event Upset.

    Ce phénomène s'observe la plupart du temps dans les domaines de l'aéronautique et du spatial, du fait principalement du rayonnement solaire. La miniaturisation constante de nos appareils les rend plus vulnérables aux SEUs, de par le fait que moins d'électrons circulent dans ces derniers. L'altération d'un système comportant un faible nombre d'électrons à plus de chance de modifier l'état des bits transmettant l'informations, ce qui entraine une détérioration de la fiabilité.

    7

    Spin quantique

    Le spin est une caractéristique quantique des particules intimement liée à leurs propriétés de rotation. Il s'agit d'une manifestation du magnétisme de la particule dans le champ de la mécanique quantique

    Valeurs discrètes & valeurs continues

    Une variable discrète est une variable qui ne peut prendre des valeurs que dans un ensemble d'éléments, tandis qu'une variable continue prendra ses valeurs dans un intervalle.

    Bien qu'à l'échelle classique, le processeur utilise un "support continu" pour placer des données discrètes, il est impossible de faire de même au niveau quantique. En effet, à cette échelle, le niveau d'énergie n'est plus une donnée continue mais discrète. Puis est apparu un problème théorique qui ne pouvait pas être résolu par la mécanique classique, le soi-disant problème du corps noir. Le terme « corps noir » fait référence à un objet capable d'absorber tout rayonnement qui lui est dirigé, quel que soit le type de rayonnement. Un tel objet ne réfléchit pas la lumière, c'est pourquoi on l'appelle aussi corps noir. En fait, ce corps ne sera pas complètement noir. En fait, s'il absorbe du rayonnement, cela signifie qu'il chauffe. Or, tout objet chauffé émet un rayonnement, ce qui est le vrai principe des ampoules électriques.

    Le chat de Schrödinger

    Le chat de Schrödinger est une expérience imaginée en 1935 par le physicien autrichien Erwin Schrödinger, considéré comme l'un des pères de la physique quantique.

    Le chat peut adopter 2 états ; s'il est mort, son état est considéré comme 0, et s'il est encore vivant, son état est considéré comme 1.

    Le chat est placé dans une boîte fermée, contenant un flacon de gaz motel (de l'acide cyanhydrique, d'après le physicien) et une source radioactive.

    Il est impossible de voir le contenu du chat de l'extérieur. Dans la boîte est également placé un dispositif conçu pour libérer des poisons si la désintégration des atomes est détectée.

    L'appareil ne peut fonctionner que pendant un temps limité, après quoi il y a 50 % de chances de trébucher.

    Une fois l'expérience commencée, il est impossible de connaître l'état du chat, alors la probabilité qu'il soit encore en vie est égale à la probabilité que le poison ne soit pas libéré, et la probabilité qu'il soit mort est égale à la probabilité que le poison soit libéré.

    Cependant, la libération de poison est aléatoire. Si nous pouvons calculer la probabilité, Il est impossible d'en être sûr. Ce n'est que par l'observation directe du chat, c'est-à-dire la «mesure», que nous pouvons connaître sa véritable condition.

    8

    1.2 Les concepts apportés par l'informatique quantique

    Principe de superposition

    Ce principe définie la capacité d'une architecture quantique à pouvoir se trouver dans plusieurs états à la fois. Lorsque l'on parle d'une particule, nous pouvons imaginer qu'elle puisse se trouver dans deux états différents => A et B

    La particule ne se trouvera pas dans ces deux états au même moment, mais pourra se déplacer entre A et B. Un principe de proportion peut également s'appliquer ; une particule peut avoir plus de probabilité de se trouver dans un état bien particulier plutôt qu'un autre.

    Ce principe permettrait aux processeurs de traiter plusieurs opérations de calcul en même temps, augmentant drastiquement la vitesse de traitement des informations reçues.

    Lorsque l'on parle d'un bit, nous pouvons remplacer les états « A » et « B » par « 0 » et « 1 ».

    Principe d'intrication

    Ce principe se base sur le fait que deux qubits forment un système lié, ayant des états dépendants des uns des autres peu importe la distance, du moins en théorie.

    Ce concept est encore méconnu et difficile à concevoir ; La modification d'état d'un des qubit intriqué engendrerait une modification sur l'autre qubit intriqué, et ce sans connexion, support pour véhiculer l'information entre les deux qubits.

    Selon le physicien Nicolas Gisin « L'intrication permet à un événement aléatoire de se manifester en plusieurs endroits ».

    Toutefois, en 2017, une équipe chinoise a battu le record de distance entre deux particules intriquées, des photons émis par le satellite Micius. Les chercheurs les ont séparés puis captés dans deux stations au sol, distantes de 1 200 km. Malgré la distance, les particules intriquées l'étaient toujours, malgré la distance.

    Stabilité des qubits

    L'une des principales problématiques réside dans le fait de multiplier les interactions entre les qubits ainsi que leur durée de vie ; Une superposition peut se rompre du fait d'un manque de stabilité lors des processus d'échanges d'informations. S'en suit la destruction du qubit, et la perte de l'information.

    9

    Intégration des technologies quantiques dans la couche réseau

    Un réseau quantique promet de permettre la communication quantique sur de longues distances et d'assembler de petits dispositifs quantiques en une grande grappe de calcul quantique, tout en garantissant un haut niveau de sécurité des données en transit.

    Chaque noeud quantique du réseau pourrait être considéré comme un petit ordinateur quantique à quelques qubits. Les qubits peuvent être envoyés par des liens physiques directs reliant ces noeuds quantiques proches par télétransmission ou par téléportation sur une intrication préétablie entre des noeuds de réseau distants. Une telle intrication forme effectivement un raccourci - un lien quantique virtuel - utilisable une fois.

    La communication quantique offre des avantages inégalés par rapport à la communication classique. Côté sécurité, la distribution de clés quantiques qui permet à deux parties d'établir une clé de de chiffrement avec des garanties de sécurité qui sont manifestement impossibles à obtenir de manière classique. Néanmoins, la communication quantique offre un large éventail d'autres applications allant des protocoles cryptographiques aux protocoles de communication efficaces, des applications dans les systèmes distribués, ou encore une meilleure synchronisation des horloges

    Alors que la distribution de clés quantiques est déjà disponible dans le commerce sur de courtes distances, le maintien d'un état stable pour les qubits sur de longues distances reste un défi important qui nécessite la construction d'un répéteur quantique (cet élément sera détaillé par la suite).

    Cependant, le fait de parcourir de longues distances ne suffit pas. Il est également nécessaire de permettre à la communication d'être fiable et d'arriver à destination, et ce même lorsque plusieurs noeuds communiquent simultanément. Pour cela, de nombreux qubits sont nécessaires.

    Comment un réseau quantique est-il agencé ?

    Chaque noeud d'un réseau quantique est un petit ordinateur quantique qui peut stocker et exploiter

    quelques qubits. L'objectif d'un réseau quantique est d'envoyer des qubits d'un noeud à l'autre ou, de manière équivalente, d'établir une intrication entre eux.

    Il est possible de créer un cluster de calcul quantique afin d'obtenir un plus grand potentiel de calcul. Des ordinateurs moins puissants peuvent être reliés de cette manière pour créer un processeur plus puissant. Cela est analogue à la connexion de plusieurs ordinateurs classiques pour former un cluster d'ordinateurs dans l'informatique classique. Tout comme l'informatique classique, ce système peut être mis à l'échelle en ajoutant de plus en plus d'ordinateurs quantiques au réseau.

    10

    Composition d'un réseau quantique

    Tout d'abord, les noeuds finaux sur lesquels les applications sont finalement exécutées. Ces noeuds finaux sont des processeurs quantiques d'au moins un qubit. Certaines applications nécessitent malgré tout des processeurs quantiques de plusieurs qubits ainsi qu'une mémoire quantique aux noeuds finaux.

    Deuxièmement, pour transporter les qubits d'un noeud à l'autre, nous avons besoin de lignes de communication. Pour la communication quantique, on peut utiliser des fibres de télécommunication standard. Pour l'informatique quantique en réseau, dans laquelle les processeurs quantiques sont reliés à de courtes distances, différentes longueurs d'onde sont choisies en fonction de la plate-forme matérielle exacte du processeur quantique.

    Troisièmement, pour utiliser au maximum l'infrastructure de communication, il faut des commutateurs optiques capables de fournir des qubits au processeur quantique. Ces commutateurs doivent préserver la cohérence quantique, ce qui les rend plus difficiles à réaliser que les commutateurs optiques standard.

    Enfin, un répéteur quantique est nécessaire pour transmettre des qubits sur de longues distances. Ce dispositif permet de capturer et traiter les qubits, tout en les stockant afin de préparer le reste du réseau à les réceptionner.

    La perte de photons et l'impossibilité d'amplifier le signal a conduit au développement du concept de répéteurs quantiques, qui augmentent la distance de communication en utilisant les propriétés non locales de l'intrication, sa distribution par téléportation et mémoires quantiques .

    Divers protocoles de répéteurs quantiques ont été développés au fil des ans, et les premiers pas vers leur réalisation ont été faits très récemment.

    Des répéteurs apparaissent entre les noeuds d'extrémité. Comme les qubits ne peuvent pas être copiés, l'amplification conventionnelle du signal ne peut pas être effectuée. Selon les besoins, le mode de fonctionnement des répéteurs quantiques est fondamentalement différent de celui des répéteurs traditionnels.

    11

    Le principe d'intrication appliquée sur des noeuds quantiques

    Il existe de nombreuses façons d'enchevêtrer des noeuds quantiques, mais l'une des méthodes les plus courantes consiste à enchevêtrer les qubits stationnaires (qui forment les noeuds du réseau) avec des photons, avant de tirer les photons les uns sur les autres. Lorsqu'ils se rencontrent, les deux photons s'emmêlent également, ce qui a pour effet d'emmêler les qubits. Cela lie les deux noeuds stationnaires qui sont séparés par une certaine distance. Toute modification apportée à l'un d'eux se traduit par une modification instantanée de l'autre.

    Boites quantiques (quantum dots)

    Les boites quantiques sont des cristaux nanométriques qui peuvent transporter des électrons. Lorsque les rayons ultraviolets frappent ces nanoparticules semi-conductrices, elles peuvent émettre de la lumière de différentes couleurs. Ces nanoparticules semi-conductrices artificielles ont trouvé des applications dans les matériaux composites et les cellules solaires.

    Les nanoparticules semi-conductrices ont été théorisées dans les années 1970 et ont été créées au début des années 1980. Si les particules semi-conductrices sont suffisamment petites, les effets quantiques commencent à fonctionner, ce qui limite l'énergie des électrons et des trous dans les particules. Puisque l'énergie est liée à la longueur d'onde (ou à la couleur), Cela signifie que les propriétés optiques des particules peuvent être ajustées en fonction de la taille des particules. Par conséquent, ce n'est qu'en contrôlant la taille des particules que les particules peuvent émettre ou absorber la lumière d'une longueur d'onde (couleur) spécifique.

    Les points quantiques sont des nanostructures artificielles qui peuvent avoir de nombreuses propriétés différentes selon leurs matériaux et leurs formes. Par exemple, en raison de leurs propriétés électroniques particulières, ils peuvent être utilisés comme matériaux actifs dans les transistors à un électron. Les propriétés des points quantiques dépendent non seulement de leur taille, mais également de leur forme, de leur composition et de leur structure, par exemple s'ils sont pleins ou creux. Les technologies de fabrication fiables qui utilisent les propriétés des points quantiques - dans diverses applications dans les domaines de la catalyse, de l'électronique, de la photonique, du stockage d'informations, de l'imagerie, de la médecine ou de la détection - doivent être capables de produire un grand nombre de nanocristaux, chaque lot étant basé sur le même paramètre.

    Parce que certaines biomolécules peuvent effectuer la reconnaissance moléculaire et l'autoassemblage, les nanocristaux peuvent également devenir une partie importante des nanodispositifs fonctionnels auto-assemblés. L'état d'énergie atomique des points quantiques contribue en outre à des propriétés optiques spécifiques, telles que l'effet des particules de longueur

    12

    d'onde fluorescentes en fonction de la longueur d'onde, qui peuvent être utilisées pour fabriquer des sondes optiques pour l'imagerie biologique et médicale

    Jusqu'à présent, les points quantiques colloïdaux ont obtenu le plus d'applications dans les domaines de la bio analyse et du biomarking. Bien que les points quantiques de première génération aient prouvé leur potentiel, il a fallu beaucoup d'efforts pour améliorer les propriétés de base, en particulier la stabilité colloïdale dans les solutions salines. Au départ, les points quantiques étaient utilisés dans des environnements très artificiels, et ces particules ne seraient déposées que dans des échantillons «réels» (comme le sang).

    Téléportation quantique

    La téléportation quantique est basée sur l'intrication partagée et la mesure quantique, et fournit une méthode pour transférer des états quantiques inconnus entre des systèmes à longue distance. La téléportation est l'élément de base requis pour effectuer diverses tâches de calcul quantique dans les réseaux quantiques.

    Afin de mettre en place une téléportation quantique fonctionnelle, un état quantique intriqué doit être créé pour que le qubit soit transmis. L'intrication impose une corrélation statistique entre d'autres systèmes physiques différents en créant ou en plaçant deux ou plusieurs particules différentes dans un seul état quantique partagé.

    Cet état intermédiaire contient deux particules dont les états quantiques dépendent l'un de l'autre car ils forment une connexion: si une particule se déplace, l'autre particule se déplacera avec elle. Tout changement dans une particule dû à l'intrication se produira également pour l'autre particule, de sorte que la particule intriquée agit comme un état quantique unique. Ces corrélations sont maintenues même lorsqu'elles sont sélectionnées et mesurées indépendamment, et il n'y a pas de relation causale entre elles.

    L'émetteur prépare la particule dans le qubit et la fusionne avec l'une des particules intriquées dans l'état intermédiaire, ce qui entraîne un changement de l'état quantique intriqué.

    L'état modifié de la particule intriquée est ensuite envoyé à l'analyseur, qui mesurera ce changement de l'état intriqué. La mesure des «changements» permettra au récepteur de recréer les informations originales dont dispose l'expéditeur, de sorte que les informations puissent être transmises ou transportées entre deux personnes à des endroits différents. Puisque les informations quantiques initiales sont «détruites» lorsqu'elles font partie de l'état intriqué, le théorème de non-clonage est maintenu car l'information est recréée à partir de l'état intriqué et ne sera pas copiée pendant le processus de téléportation.

    13

    Canal quantique (EPR)

    Un canal quantique est un mécanisme de communication utilisé pour toute la transmission d'informations quantiques et un canal utilisé pour la téléportation (la relation entre un canal quantique et un canal de communication traditionnel est similaire au fait que les qubits sont des analogues quantiques de bits classiques). Cependant, en plus des canaux quantiques, les canaux traditionnels doivent également être utilisés pour accompagner les qubits afin de « préserver » les informations quantiques. Lors de la mesure du changement entre le qubit d'origine et la particule intriquée, le résultat de la mesure doit être transmis via un canal traditionnel afin que les informations quantiques puissent être reconstruites et que les informations d'origine puissent être obtenues par le récepteur. En raison du besoin de canaux traditionnels, la vitesse de transmission furtive ne peut pas être supérieure à la vitesse de la lumière (elle ne viole donc pas le théorème de non-communication).

    Le principal avantage de ce système est qu'il peut utiliser les photons du laser pour partager l'état de Bell, ce qui permet de réaliser une transmission furtive en espace libre sans avoir besoin d'envoyer des informations via des câbles physiques ou des fibres optiques.

    État quantique adiabatique (AQT)

    Les chercheurs ont démontré pour la première fois une méthode d'utilisation des qubits de spin électronique pour transférer des informations entre les qubits, appelée transfert d'état quantique adiabatique (AQT). Contrairement à la plupart des méthodes qui reposent sur des impulsions de champ électrique ou magnétique soigneusement réglées pour transmettre des informations entre les qubits, la transmission de l'état quantique adiabatique n'est pas affectée par les erreurs d'impulsion et le bruit.

    Les chercheurs ont prouvé l'efficacité de l'AQT en utilisant l'intrication. Ces derniers peuvent utiliser l'AQT pour transférer l'état de spin quantique des électrons à travers quatre chaînes d'électrons dans des semi-conducteurs à points quantiques, à l'échelle nanométrique avec d'excellentes performances.

    Cristaux temporels

    Les cristaux temporels sont un état de la matière dans lequel l'interaction entre les particules qui composent le cristal peut stabiliser indéfiniment les oscillations du système. Imaginez une horloge fonctionnant à l'infini ; le pendule oscille avec le temps, comme un cristal temporel oscillant.

    En imposant une série d'impulsions de champ électrique aux électrons, il est possible de créer un état similaire à un cristal temporel. Il est ensuite possible d'utiliser cet état pour améliorer le transfert des états de spin des électrons dans les chaînes de points quantiques semi-conducteurs.

    Actuellement, les ordinateurs quantiques utilisent les spins des électrons pour construire la mémoire, les différents spins représentant des 1 ou des 0 binaires. Un problème, cependant, est que les spins des électrons ne sont pas si stables, et que des forces externes telles que thermiques ou magnétiques

    14

    peuvent facilement interférer avec le spin choisi. Les données ultérieures deviendront inexactes. Cependant, les cristaux temporels constituent un système stable et répétitif qui peut être gravé au laser selon des motifs spécifiques. Une fois que nous pouvons écrire ou réécrire les oscillations de ces systèmes stables, le système résultant est une forme supérieure de stockage de données.

    Cryptographie

    Code César

    La cryptographie est une technique de fabrication et de décodage de codes et de communication sécurisée. Son histoire d'application militaire, diplomatique et commerciale remonte à l'Antiquité. Le code César est un exemple bien connu de système cryptographique. Chaque lettre de César est remplacée par 2 lettres plus loin dans l'alphabet. C'est ce que l'on appelle de la substitution ( Le C peut être remplacé par le F, par exemple et ainsi de suite).

    Primitives cryptographiques

    Les primitives cryptographiques servant de briques de base dans l'élaboration de systèmes de sécurité plus complexes, elles se doivent d'être extrêmement fiables, c'est-à-dire qu'elles doivent se conformer exactement à leurs spécifications. Ainsi, si une fonction de chiffrement prétend ne pouvoir être cassée qu'avec un nombre N d'opérations informatiques alors, s'il est possible de la casser avec un nombre inférieur à cette valeur nominale, on dit de cette primitive qu'elle est compromise. Si une primitive cryptographique est compromise, tout protocole l'utilisant devient virtuellement vulnérable.

    Ce n'est qu'en les combinant au sein de protocoles de sécurité que l'on peut résoudre une problématique de sécurité complexe. Les primitives cryptographiques en elles-mêmes, de par leur nature, sont assez limitées. Elles ne peuvent être considérées comme un système cryptographique à part entière.

    L'exemple le plus ancien de primitive cryptographique normalisée est le chiffrement par blocs Data Encryption Algorithm (DEA), qui fait partie de la norme Data Encryption Standard (DES) publiée par le gouvernement américain. Le gouvernement américain a ensuite publié la description de la fonction de hachage SHA et de la signature DSA. Cette normalisation n'a cependant pas été effectuée de manière publique, ce qui posait des problèmes de confiance. L'AES fut le successeur du DES, dont la normalisation a cette fois-ci été publique.

    Le transfert inconscient (Oblivious Transfert => QOT)

    En tant que protocole cryptographique de base important, le protocole de transfert inconscient est l'une des technologies clés pour la protection de la vie privée en cryptographie. Ce dernier est un

    15

    protocole dans lequel l'expéditeur envoie de nombreuses informations potentielles au récepteur, mais l'expéditeur lui-même n'est pas au courant du contenu spécifique de la transmission. Le concept de transfert inconscient quantique a été proposé pour la première fois par Crépeau en 1994. Par la suite, de nombreux travaux ont été consacrés à ce protocole.

    En 1994, la sécurité du "transfert inconscient" contre toute mesure individuelle permise par la mécanique quantique a été prouvée par Mayers et Salvail.

    Depuis lors, une série de travaux ont étudié d'autres primitives cryptographiques qui pourraient exister dans le monde quantique. Cependant, le résultat ultérieur était négatif. Mayers et Lo, Chau ont prouvé que la participation idéale et sécurisée du qubit et la transmission par inadvertance sont impossibles, de sorte que tout type de calcul sécurisé entre deux parties est impossible.

    il a également été montré que plusieurs variantes imparfaites de ces primitives sont possibles. Trouver les meilleurs paramètres pour ces primitives de base a toujours été un problème non résolu. La raison pour laquelle nous nous intéressons à ces primitives abstraites est qu'elles constituent la base de tout protocole cryptographique que l'on pourrait souhaiter construire, y compris les protocoles de sécurité. Les protocoles cryptographiques que les gens peuvent souhaiter construire comprennent les systèmes d'identification, les signatures numériques, le vote électronique.

    Projet Nessie

    Le projet NESSIE, financé par l'Union européenne sous le numéro IST-1999-12324, avait pour objectif principal la sélection d'un portefeuille de primitives cryptographiques, à recommander aux industriels européens.

    Les primitives ci-dessous ont été étudiées dans le cadre de ce projet :

    · Chiffrement de flot. C'est une primitive symétrique pour la confidentialité, qui consiste principalement en la génération d'une suite de bits parfaitement aléatoire en apparence.

    · Chiffrement par bloc. C'est une autre primitive symétrique pour la confidentialité, qui sert à chiffrer un message de taille fixe (le bloc).

    · Fonction de hachage cryptographique. C'est une fonction en apparence injective, qui fabrique un condensé de taille fixe à partir d'un message quelconque.

    · Authentification de message (MAC). C'est une primitive symétrique qui fabrique un condensé à partir d'un message et d'une clé secrète.

    · Chiffrement asymétrique. Il s'agit ici de décrire un algorithme public permettant de chiffrer un message, tel que seul le détenteur de la clé secrète soit capable de le déchiffrer.

    16

    ·

    Signature numérique. Il s'agit ici de décrire un algorithme public permettant de vérifier une signature d'un message, tel que seul le détenteur de la clé secrète soit capable d'avoir engendré une signature valide.

    Sélection des primitives

    Quatre chiffrements par blocs ont été sélectionnés, deux d'entre eux pour une taille de bloc de 128 bits (Rijndael et Camellia), un pour 64 bits (Misty1) et un pour 256 bits (Shacal-2)

    · Aucun chiffrement de flot n'a été sélectionné, car aucun n'atteint le niveau de sécurité exigé.

    · Quatre fonctions de hachage cryptographique ont été sélectionnées (Whirlpool, SHA-256, SHA-384 et SHA-512).

    · Quatre techniques d'authentification de message ont été sélectionnées (UMAC, TTMAC, EMAC et UMAC.

    · Trois systèmes de chiffrement asymétriques ont été sélectionnés (PSEC-KEM, RSA-KEM et ACE-KEM.

    · Trois systèmes de signature numérique ont été sélectionnés (RSA-PSS, ECDSA et SFLASH.

    Cryptographie actuelle et enjeux quantiques

    La cryptographie et la sécurité des réseaux sont des technologies clés pour assurer la sécurité des systèmes d'information. La cryptographie quantique est une branche importante de la cryptographie, combinant mécanique quantique et cryptographie classique.

    Échange de clés « Diffie Hellman »

    L'échange de clés Diffie-Hellman a été la première méthode populaire pour élaborer et échanger des clés en toute sécurité sur des canaux non sécurisés. Cet algorithme permet de créer en toute sécurité une clé partagée, même à travers un canal non sécurisé qu'un attaquant peut surveiller, même si vous ne l'avez jamais rencontré auparavant.

    L'échange de clés Diffie-Hellman établit un secret partagé entre deux parties qui peut être utilisé pour des communications confidentielles afin d'échanger des données sur des réseaux publics. Nous allons prendre un exemple qui met en scène 2 personnes souhaitant échanger des couleurs.

    Le processus commence avec Alice et Bob, ils choisissent une couleur de départ qui n'a pas besoin d'être gardée secrète (mais elle doit être différente à chaque fois).

    Dans cet exemple, la couleur est le bleu. Chaque personne choisit également une couleur secrète à garder elle-même - le vert et le rose dans ce cas. Alice et Bob mélangent chacun leurs propres couleurs

    17

    secrètes avec les couleurs partagées, puis échangent publiquement les deux couleurs mélangées. Enfin, ils mélangent chacun les couleurs reçues de leur partenaire avec leurs propres couleurs privées. Le résultat est le même mélange final de couleurs que le mélange final de couleurs de son partenaire.

    Lorsqu'un tiers écoute l'échange, il ne connaît que la couleur commune (bleu) et la première couleur mélangée, mais il lui est difficile de déterminer la couleur secrète finale. Cette décision est très exigeante en termes de calcul afin de rendre l'analogie avec un échange réel en utilisant un grand nombre de couleurs.

    Protection des communications numériques

    Aujourd'hui, presque toutes les communications numériques sont protégées par trois systèmes cryptographiques :

    · Le chiffrement asymétrique (également appelé chiffrement à clé publique, ou PKC) :

    Solution retenue suite au projet Nessie, cette primitive utilise une clé accessible au public pour permettre aux personnes de chiffrer les messages envoyés au destinataire, qui est la seule personne à disposer de la clé privée requise pour le déchiffrement. Il est principalement utilisé pour établir un canal crypté entre deux parties, que ce soit pour la vérification d'identité ou la signature numérique.

    Malheureusement, le cryptage à clé publique est beaucoup plus lent que le cryptage à clé symétrique. L'algorithme RSA est un exemple éminent de la PCC, qui s'appuie fortement sur la structure algébrique de la factorisation des nombres premiers ou des courbes elliptiques.

    Les signatures numériques sont une autre application de la PCC qui est utilisée plus largement. Dans ce cas, le détenteur de la clé privée chiffre le hachage du document et joint le condensé du message au document. Toute personne possédant la clé publique peut vérifier que le document a été signé par le détenteur de la clé privée. Les algorithmes PKC sont sûrs du point de vue informatique et leur sécurité repose sur la difficulté des calculs mathématiques, comme la factorisation de grands nombres entiers. Il n'existe aucun algorithme connu capable de résoudre ce type de calcul en un temps raisonnable sur un ordinateur ordinaire. Lorsque la taille du facteur premier augmente, le calcul devient plus difficile (pour les ordinateurs normaux), ce qui a pour effet d'augmenter la taille de la clé.

    · Cryptographie symétrique (également connue sous le nom de cryptographie à clé, ou SKC) : Consiste en des algorithmes qui chiffrent et déchiffrent les messages en utilisant la même clé. L'utilisation de la même clé des deux côtés (chiffré et décryptage) est un inconvénient, car la

    18

    distribution des clés peut être difficile dans certains cas. Il existe deux grandes classes d'algorithmes dans le SKC :

    o Le chiffrement par flux, qui traite un message comme un flux d'octets ou de lettres (généralement des octets), en chiffrant un octet à la fois

    o Le chiffrement par blocs, qui prend plusieurs bits et les crypte en un seul bloc. La longueur du texte en clair doit être un multiple de la taille du bloc, il est donc complété si nécessaire. Les algorithmes de chiffrement par blocs couramment utilisés sont AES, Twofish, Blowfish, RC4 et IDEA.

    · Le hachage : Une fonction de hachage cryptographique est un algorithme mathématique qui fait correspondre un condensé ou un hachage de message de longueur fixe à des données ou des messages de taille arbitraire.

    Cependant, il existe certaines limitations. Les condensés de messages doivent être calculés relativement rapidement. La même entrée doit produire la même valeur de hachage. Il doit être impossible de générer un message qui donne une valeur de hachage spécifique. Il doit également être impossible de trouver deux messages différents avec le même condensé de message (collision).

    Même une modification d'un bit dans le message original peut avoir un effet si important sur le hachage de sortie que le nouveau hachage n'a aucune corrélation discernable avec l'ancien. Cependant, en raison de la longueur et du nombre arbitraires des valeurs d'entrée et du nombre fixe de valeurs de sortie résultant d'une longueur fixe du condensé de message, les collisions sont inévitables. En raison des caractéristiques des ordinateurs quantiques, de nombreux chiffrements à clé publique existants ne seront plus sécurisés dans les ordinateurs quantiques. Cela montre que pour résister aux ordinateurs quantiques, de nouveaux systèmes de cryptage doivent être explorés. Ce n'est qu'ainsi que la sécurité des informations pourra être assurée.

    L'objectif principal de la recherche sur la cryptographie quantique est de concevoir des algorithmes et des protocoles cryptographiques qui entrent en conflit avec les attaques informatiques quantiques. Comme mentionné précédemment, l'exploration des protocoles cryptographiques quantiques constituera une partie importante des futurs problèmes de sécurité du cyberespace Internet.

    19

    Distribution de clés quantiques (QKD)

    Quantum Key Distribution (QKD) utilise les principes de la mécanique quantique pour envoyer des communications sécurisées, permet aux utilisateurs de se distribuer en toute sécurité des clés et permet des communications cryptées qui ne peuvent pas être décryptées par des espions. Le système QKD protège la communication, mais ne crypte pas les données de communication comme les certificats de sécurité quantique.

    Le système QKD établit une clé privée partagée entre deux parties connectées et utilise une série de photons (particules lumineuses) pour transmettre des données et des clés via des câbles à fibres optiques.

    L'échange de clés avec QKD fonctionne sur la base du principe d'incertitude de Heisenberg en mécanique quantique, à savoir que les photons sont générés de manière aléatoire dans l'un des deux états quantiques polarisés et que la propriété quantique d'un photon ne peut être mesurée sans altérer l'information quantique elle-même.

    Ainsi, les deux extrémités connectées d'une communication peuvent vérifier la clé privée partagée et la sécurité de son utilisation, tant que les photons ne sont pas altérés. Si un acteur malveillant accède à un message ou l'intercepte, le fait d'essayer de connaître les informations clés modifie la propriété quantique des photons. Le changement d'état d'un seul photon est détecté et les parties savent que le message a été compromis et qu'il n'est pas digne de confiance.

    Bennett et Brassard ont proposé le premier protocole QKD pratique en 2011. Ils ont pris les devants dans la réalisation du protocole de distribution de clé quantique en utilisant la technologie de polarisation à photon unique. Par la suite, de nombreux efforts ont été faits dans le domaine du QKD pour améliorer la sécurité et l'efficacité.

    En 1991, Ekert a proposé un accord basé sur le théorème de Bell. En 1992, Bennett a proposé des améliorations au plan. En utilisant deux états non orthogonaux quelconques, cette amélioration est plus efficace et simple. Après cela, de nombreux protocoles QKD utilisant les principes de base de la mécanique quantique ont été proposés.

    Les protocoles de cryptographie quantique comprennent également les protocoles d'engagement de bit quantique (QBC) et les protocoles de signature quantique (QS).

    Pour fonctionner correctement, tout système utilisant QKD doit transmettre des données quantiques et non-quantiques à partir de sources et destinations spécifiques, gérer des clés secrètes partagées entre des noeuds de confiance adjacents sur un mécanisme à sauts multiples.

    20

    Pour les données non-quantiques, une fonctionnalité similaire peut être fournie par le biais de protocoles de niveau inférieur par défaut tels que TCP/IP, Ethernet, etc., mais la transmission des données quantiques nécessite l'établissement de nouveaux protocoles de cryptage. Nous devons donc concevoir une nouvelle interface de service pour fournir une solution de cryptage performante à la partie quantique du flux de protocole.

    L'interface de service doit fournir les services suivants : Protocole de la couche réseau pour la gestion des sous-réseaux QKD, synchronisation/démultiplexage des clés QKD et clé QKD multi-sauts. Identique aux autres niveaux de QKD Les messages entre pairs de la couche service doivent être protégés en termes d'intégrité, alors que les messages de configuration de routage de la couche réseau peuvent ne pas l'être.

    Mais avant que les professionnels ne puissent obtenir une solution de cryptage capable de faire face à la puissance de traitement des ordinateurs quantiques, il reste encore de nombreux problèmes à résoudre.

    Le premier est la taille de la clé elle-même. Dans l'algorithme post-quantique en cours de développement, la taille de la clé varie de 40 000 octets à un mégaoctet (par rapport aux centaines ou milliers de bits de l'algorithme actuel). Cela signifie trouver un moyen efficace de stocker ces clés.

    Lors du développement de la cryptographie post-quantique, les besoins en bande passante sont également un problème, car avec l'avènement des ordinateurs quantiques, les besoins en bande passante peuvent augmenter considérablement. Il en va de même pour l'infrastructure et l'architecture réseaux existants, qui peuvent nécessiter une mise à niveau ou même un remplacement pour prendre en charge ces nouvelles solutions. En clair, il s'agit actuellement d'une technologie coûteuse qui nécessite un matériel spécialisé. La transition n'en est encore qu'à ses débuts, et les distances de transfert sont limitées tant qu'il n'y aura pas de répéteurs quantiques performants.

    Par rapport aux méthodes actuelles d'échange de clés purement logicielles, à travers le réseau, QKD est limité au sous-réseau auquel son matériel est connecté. Ainsi, si QKD est entre deux noeuds du réseau, certains contrôles supplémentaires sont nécessaires pour la vérification.

    L'urgence de la situation est un problème en soi : le chiffrement est profondément enraciné dans de nombreux systèmes différents, ce qui signifie qu'il faudra un certain temps pour les démêler et déployer de nouveaux systèmes.

    TLS

    Le protocole TLS (Transport Layer Security) est basé sur le protocole SSL (Secure Session Layer) antérieur et est invoqué explicitement par les applications. Bien qu'il soit maintenant largement utilisé

    21

    parmi diverses applications, il est le plus souvent utilisé pour chiffrer le trafic entre les serveurs web et les navigateurs.

    Le TLS « handshake » permet à deux parties de convenir d'une méthode d'accord de clé et d'algorithmes de chiffrement et MAC (collectivement appelés suites de chiffrement) utilisés pour protéger les données.

    Les deux parties utilisent ensuite un processus de partage de clés pour convenir d'un secret maître commun que l'une ou les deux parties peuvent authentifier au cours de ce processus. Enfin, elles utilisent la clé maîtresse pour obtenir les clés de chiffrement et MAC. Le protocole d'enregistrement TLS utilise des clés et des numéros de séquence établis pour chiffrer et protéger l'intégrité des paquets (empêche le tri malveillant des paquets dans le flux de données).

    Le mécanisme de sécurité TLS ne repose sur aucun algorithme cryptographique particulier et met en oeuvre un modèle de confiance à clés publiques et pré-partagées. L'algorithme par défaut est spécifié pour favoriser l'interopérabilité. Le premier échange aller-retour du protocole de poignée de main TLS spécifie la suite de chiffrement à utiliser pendant et après la session TLS. Les échanges sont utilisés pour établir un secret partagé et authentifier une ou les deux parties.

    IPSec

    IPSec est un ensemble de protocoles qui assurent la sécurité des communications Internet au niveau de la couche réseau. IPsec doit donc également gérer toute erreur non malveillante dans le flux de données. L'utilisation la plus courante d'IPsec aujourd'hui consiste à déployer un réseau privé virtuel (VPN) entre deux sites (gateway-to-gateway) ou entre des utilisateurs distants et le réseau de l'entreprise (host-to-gateway). IPsec fournit également une sécurité de bout en bout.

    Des contrôles de sécurité existent pour les communications réseau à différents niveaux du modèle ISO. Les contrôles appliqués à la couche réseau s'appliquent à toutes les applications et ne sont pas spécifiques à une application. Par exemple, toutes les communications réseau entre deux hôtes ou réseaux peuvent être sécurisées à ce niveau sans qu'il soit nécessaire de modifier l'application sur le client ou le serveur. Les contrôles de la couche réseau fournissent également aux administrateurs de réseau un moyen d'appliquer des politiques de sécurité spécifiques.

    Un autre avantage des contrôles de la couche réseau est que, puisque les informations IP (par exemple, les adresses IP) sont ajoutées à cette couche, les contrôles peuvent protéger à la fois les données contenues dans les paquets et les informations IP de chaque paquet. Cependant,

    les contrôles de la couche réseau offrent moins de contrôle et de flexibilité pour protéger des applications spécifiques que les contrôles des couches transport et application.

    22

    IPsec est un protocole comportant les éléments suivants :

    · Deux protocoles de sécurité, Authentication Header et Encapsulating Security Payload. L'entête AH assure la protection de l'intégrité sans confidentialité. ESP et AH fournissent tous deux une authentification de l'origine des données, un contrôle d'accès et, en option, une protection contre le rejeu et/ou une protection contre l'analyse du trafic.

    · Le protocole IKE (Internet Key Exchange) est le protocole de gestion des clés privilégié pour IPsec. IKE négocie les algorithmes de chiffrement et les paramètres connexes pour AH et ESP. IPsec utilise également IKE pour négocier les paramètres de connexion IPsec ; authentifier les points d'extrémité ; définir les paramètres de sécurité pour les connexions protégées par IPsec ; gérer, mettre à jour et supprimer les canaux de communication protégés par IPsec.

    La protection assurée par IPsec et par IKE pour son propre trafic d'échange de clés nécessite l'utilisation d'algorithmes de chiffrement, notamment des algorithmes de cryptage, des MAC (Message Authentication Codes for Integrity Protection) et des Prfs (Fonction pseudo-aléatoire qui génère les clés et autres valeurs utilisées dans le protocole IPsec). Les mécanismes de sécurité IPsec ne dépendent pas d'un algorithme de chiffrement spécifique. Cependant, des algorithmes standard sont spécifiés pour favoriser l'interopérabilité.

    Comment intégrer QKD dans les protocoles de sécurité actuels ?

    Nous pouvons appliquer deux modèles pour connecter QKD aux applications sécurisées. L'un est l'interface de service QKD fournit la clé pour l'application, et l'application permet à l'application de traiter les données de l'application. Les messages sont chiffrés, authentifiés et transmis comme ils le sont actuellement. Ce qui permet à cette interface d'agir comme la fonction d'échange de clés pour l'application de sécurité. Un autre modèle est Enregistrer les clés dans l'interface de service QKD et demander à l'application de les transmettre Les messages sont chiffrés, authentifiés et transmis de bout en bout. en ont besoin pour cela L'application sécurisée fournit à l'interface de service QKD les chiffres chiffrés et Le MAC utilisé pour l'algorithme d'intégrité, et la destination du message de bout en bout.

    Alors que les deux modèles devraient être capables d'atteindre le même niveau de sécurité, nous pensons que le traitement des messages par la couche de support QKD reproduit la fonctionnalité existante du protocole de sécurité, introduisant potentiellement des conséquences inattendues et contournant tous les efforts de spécification et de validation. Prouvé.

    Tout en suivant le modèle d'échange de clés, nous essayons de minimiser l'impact sur les protocoles existants en maintenant l'intégration de la QKD dans la plus petite partie possible de l'application.

    23

    Une façon d'intégrer QKD à IPsec est de conserver QKD dans IKE au lieu de créer une fonction d'échange de clés parallèle. IKE accède à la clé QKD sur commande au lieu de la calculer. Cette approche a deux objectifs. Tout d'abord, elle évite de développer une autre fonction d'échange de clés qui serait source de duplication des efforts, de bogues et de conséquences involontaires. Les fonctions sont pleines de duplications, de bogues et de conséquences involontaires.

    Deuxièmement, il encapsule QKD en dehors du protocole de sécurité lui-même. Bien que TLS ne dispose pas d'une fonction d'échange de clés explicite comme IKE, cette fonction est intégrée au protocole et l'intégration de QKD devrait minimiser tout impact.

    Utilisation de QKD dans IPsec et TLS

    IPsec et TLS développent tous deux un secret partagé, qui est ensuite utilisé pour calculer les clés de chiffrement et de protection de l'intégrité. Par conséquent, le matériel QKD peut être utilisé dans TLS, IPsec et IKE en tant que secret partagé, clé secrète ou comme mot de passe à usage unique :

    Les clés quantiques peuvent être utilisées pour établir des secrets partagés pour les sessions TLS ou les SA IKE. Dans ce cas, la clé quantique remplacera la clé partagée calculée dans IKE et la clé pré-maître ou maître dans TLS, éliminant ainsi la nécessité de calculer la clé partagée.

    Les différents types de certificats

    · Certificat PKI traditionnel : Le certificat PKI traditionnel est aujourd'hui la référence en matière d'authentification et de cryptage d'identité numérique. Ces certificats sont dits « traditionnels » car ils utilisent des algorithmes de chiffrement ECC ou RSA existants. La plupart des systèmes PKI continueront à utiliser les certificats PKI traditionnels pendant un certain temps encore. Ils offrent une protection efficace contre les attaques informatiques existantes, mais à l'avenir, ils seront obsolètes contre les ordinateurs quantiques et les attaques quantiques sur les cryptages ECC et RSA.

    · Certificat de sécurité quantique : Les certificats de sécurité quantique sont des certificats X.509 qui utilisent des algorithmes de chiffrement de sécurité quantique.

    · Certificat hybride : Les certificats hybrides sont des certificats à signature croisée qui contiennent des clés et des signatures traditionnelles (RSA ou ECC) et des clés et signatures de sécurité quantique. Les certificats hybrides sont une voie de migration pour les systèmes qui ont plusieurs composants et ne peuvent pas être mis à niveau ou remplacés en même temps. Les certificats hybrides permettent au système de migrer progressivement, mais finalement tous les systèmes qui utilisent le cryptage ECC ou RSA doivent migrer vers le nouvel algorithme de cryptage de sécurité quantique.

    24

    ·

    Certificat composite : Les certificats composites sont similaires aux certificats hybrides en ce qu'ils contiennent plusieurs clés et signatures, mais ils diffèrent en ce qu'ils utilisent une combinaison d'algorithmes de chiffrement existants et d'algorithmes de chiffrement de sécurité quantique. Le certificat composite est comme une porte avec plusieurs serrures : Il faut avoir toutes les clés de toutes les serrures pour ouvrir la porte.

    L'objectif de la clé composite est de dissiper la crainte qu'un algorithme de chiffrement, qu'il soit actuellement disponible ou disponible à l'avenir, ne soit craqué par un ordinateur quantique. Si une vulnérabilité exploitable est trouvée dans un algorithme de chiffrement, l'ensemble du système restera en sécurité.

    https://sectigo.com/resource-library/quantum-cryptography

    1.3 Acteurs engagés et secteurs concernés

    Les géants de l'informatique et les startups

    C'est en 2016 que la société IBM a mis au point un ordinateur à cinq Qubits via le Cloud. Ce dernier aurait évolué en 2017 et embarque désormais vingt Qubits.

    La firme a également, durant cette même année, mis en place un ordinateur à cinquante Qubits ( qui ne se trouve pas dans le Cloud). L'état de cette machine fut cependant instable et ne tenait son état quantique que pendant 90 microsecondes.

    Selon le CEO d'IBM, Arvind Krishna, une commercialisation des premiers ordinateurs quantiques devrait être possible pour 2023.

    25

    L'entreprise à dévoiler une feuille de route de l'évolution de leur progression en matière d'informatique quantique. L'entreprise à d'or et déjà commencé le développement du processeur Quantique « Eagle » doté de 127 qubits.

    https://www.ibm.com/blogs/research/2020/09/ibm-quantum-roadmap/

    Des startups se sont également lancées dans l'étude des systèmes quantiques, comme D-wave, startup canadienne, qui a annoncé avoir mis au point un ordinateur à 2000 qubits, ou Rigetti, startup Californienne, qui privilégie la stabilité plutôt que le nombre de qubits. Ce mode opératoire pourrait leur permettre de créer un véritable ordinateur quantique utilisable.

    La Chine s'est également lancée dans la course. Après que Google ait annoncé avoir atteint la « suprématie quantique » en 2019, grâce à leur processeur quantique « Sycamore » ait effectué en 3 minutes et 20 secondes une tâche qui nécessiterait 10 000 ans à un ordinateur classique.

    Les chercheurs chinois annoncent en 2020 que leur système « Jiuzhang » serait « dix milliards de fois plus rapides que Sycamore ». La différence fondamentale entre le système américain de Google et le système chinois réside dans la composition des qubits.

    Pour appuyer leurs dires, un calcul complexe, « l'échantillonnage de boson », qui consiste à calculer la production d'un circuit optique extrêmement complexe où des photons rebondissent contre des miroirs, a été résolu en quelques minutes. A titre de comparaison, les chercheurs ont estimé que le superordinateur le plus puissant aujourd'hui, Fugaku, aurait mis six cents millions d'années à résoudre ce même problème.

    26

    Les qubits de Google étaient à base de métal, tandis que les qubits chinois étaient à base de photons. Cette nuance aurait grandement aidé Jiuzhang à atteindre de tels résultats, de par la non nécessité de refroidir le système car les photons restent stables même à température ambiante, contrairement à son homologue américain, qui impose un contrôle minutieux du refroidissement de ce dernier.

    Cette expérience démontre d'une part des résultats sans précédent, mais d'autre part que des systèmes quantiques basés sur la lumière sont capables de prouesses calculatoires, agrandissant de fait le champ des possibles en matière de technologie quantique.

    https://andisama.medium.com/quantum-computing-challenges-opportunities-b13286203a2b

    QuTech Research Center : Mise en place du réseau à trois noeuds quantiques

    Les chercheurs du centre de recherche QuTech, basé sur Delft aux Pays-Bas, ont créé le système, qui se compose de trois noeuds quantiques. C'est la première fois que plus de deux qubits sont reliés entre eux en tant que noeuds

    La plus grande difficulté résidait dans le fait de maintenir l'intrication entre 2 qubits. Une nouvelle fois, ce cas pratique illustre la place centrale qu'offre le principe d'intrication au sein des technologies quantiques.

    Étendre un réseau quantique de deux noeuds à trois noeuds, et éventuellement de trois à plusieurs noeuds, n'est pas aussi simple que d'ajouter plus de liens. Le fait que le bruit (qui détruit les informations quantiques) et les niveaux de puissance optique varient considérablement dans tout le réseau, ce qui complique la tâche.

    27

    L'équipe de Delft résout ce problème en utilisant un système stable à deux volets. Le premier élément ici est de stabiliser l'enchevêtrement entre le qubit de communication et le qubit «volant».

    À cette fin, l'équipe a mesuré la phase de la lumière réfléchie par la surface du diamant pendant le processus d'enchevêtrement et a utilisé un faisceau laser plus puissant pour améliorer ce signal de phase faible. Le choix de la polarisation garantit que la lumière réfléchie n'atteint pas le détecteur qui enregistre l'intrication, ce qui peut produire un faux signal d'intrication. La phase de la lumière amplifiée est mesurée par d'autres détecteurs, et l'interféromètre est stabilisé en renvoyant le signal de phase mesuré au contrôleur piézoélectrique où son miroir est placé.

    La deuxième partie intégrante de la stabilité consiste à diriger une certaine lumière laser vers un interféromètre séparé, qui est utilisé pour créer un enchevêtrement entre les noeuds. Mesurer l'interférence et coupler le signal à une rallonge de fibre dans le bras de l'interféromètre. En étirant la fibre optique, la phase de la lumière dans le bras peut être contrôlée et l'interféromètre peut être stabilisé. Le schéma de stabilité local et global peut être adapté à n'importe quel nombre de noeuds, ce qui permet d'étendre le réseau.

    L'objectif de l'entreprise est de relier les villes de Deflt et La Haye, distantes l'une de l'autre de dix kilomètres. Actuellement, leur système multinoeud sont situés à une distance de dix à vingt mètres.

    Des scientifiques de la NASA et leurs partenaires réalisent pour la première fois une "téléportation quantique" à longue distance.

    Pour la première fois, un groupe de scientifiques et de chercheurs a réussi à réaliser une "téléportation quantique" haute-fidélité et durable - la transmission instantanée de l'unité de base "qubit" de l'information quantique. La NASA et son équipe ont démontré avec succès la transmission à distance et continue de qubits de photons avec une fidélité supérieure à 90%. En utilisant les détecteurs à photon unique les plus avancés et l'équipement standard, les qubits sont transmis à 44 kilomètres (27 miles) à travers un réseau de fibre optique.

    La place de la France dans cette course au quantique

    La France entend bien participer au développement des technologies quantiques, et en devenir un puissant acteur.

    Un budget d'1.8 Milliard d'euros est prévu d'être alloué dans les domaines de la recherche, de l'industrie et de la formation aux technologies quantiques.

    Selon Monsieur Emmanuel Macron « Le quantique fait partie des quelques clés du futur que la France doit avoir en main ». La France compte déjà des scientifiques, ingénieurs et indépendant se consacrant à l'étude des technologies quantiques. Nous aurions toutes les cartes en main pour assurer une

    28

    souveraineté et une indépendance en la matière, seul un besoin budgétaire est requis pour permettre l'évolution de la R&D quantique.

    Afin de concurrencer Les États-Unis et la Chine, la France compte bien coopérer avec le reste de l'Europe. Des programmes de financement sont également prévus pour nos voisins européens tels que l'Allemagne, l'Angleterre ou encore les Pays-Bas. La France espère des résultats concrets en 2026, notamment l'achèvement d'un ordinateur quantique entièrement fabriquée et assemblée sur notre territoire. Cette expérience tente de démontrer deux points:

    · L'état superposé ne peut pas exister à une échelle macroscopique. En fait, il est impossible d'avoir un chat à la fois mort et vivant.

    · La mesure a en effet changé l'état du système, il est dans un état de superposition quantique, et est maintenant dans un état défini.

    L'existence de cette superposition d'états montre clairement qu'après une certaine étape de miniaturisation, les calculs classiques à base de bits ne peuvent plus être utilisés. Sans valeurs stables de 0 et 1, le résultat ne peut être garanti, ce qui va à l'encontre des principes de base du calcul. Cependant, il est possible d'utiliser le fait qu'il y a à la fois 0 et 1 en même temps pour calculer la possibilité de deux valeurs en même temps. C'est là qu'intervient l'informatique quantique.

    Les secteurs visés Quantum Cloud

    Azure Quantum

    Le 1er février 2021, Microsoft a lancé Azure Quantum en avant-première (version beta), rendant sa plateforme de cloud computing quantique accessible à tous

    Azure Quantum est un service fourni par Microsoft via son cloud Azure. Le service comporte deux parties différentes, l'informatique quantique et l'optimisation. Les deux peuvent être déployés en créant des ressources Quantum Workspace dans Azure.

    Avec l'informatique quantique Azure, nous pouvons utiliser le langage de programmation Q# et

    QDK (Quantum Development Kit) pour développer des algorithmes quantiques. Q# et QDK sont tous deux open source. QDK comprend des bibliothèques spécifiques pour la

    chimie, l'apprentissage automatique et le calcul quantique. Nous pouvons utiliser nos outils préférés : Visual Studio, VS Code et Jupyter Notebooks. Les algorithmes mis en oeuvre peuvent être exécutés à petite échelle à l'aide du simulateur QDK local, ou il est possible de télécharger sur le cloud en tant que tâches à l'aide de l'espace de travail Quantum.

    29

    Quantum Gaming

    Grâce aux jeux vidéo, il est devenu possible de découvrir les limites des systèmes informatiques, ce qui a également contribué à l'amélioration des premiers jeux vidéo pour PC quantiques, les jeux vidéo sur les systèmes informatiques quantiques. Tant du côté d'IBM Quantum que de Microsoft, des didacticiels simples et faciles à utiliser, avec des facteurs ludiques, ou même des didacticiels sur la création de jeux vidéo et de différents logiciels sur des systèmes informatiques quantiques ont également vu le jour. Les premiers essais de jeux vidéo sur des systèmes informatiques quantiques ont été réalisés en 2017 sur le premier dispositif IBM Quantum accessible au public, à l'aide du kit d'amélioration de la machine récemment lancé, le Project Q. Adapté pour correspondre à l'électricité des qubits disponibles à l'époque, le jeu « Cat/Box/Scissors », inspiré du « Pierre/Feuille/Ciseaux », fut le premier jeu fonctionnant sur un ordinateur quantique.

    Ce jeu s'inspire des règles du classique « Pierre/Feuille/Ciseaux », mais avec une dimension hasardeuse apportée par le quantique.

    Un autre jeu a été développé, « Quantum Battleship ». Ce dernier est capable d'englober plus clairement les phénomènes quantiques d'intrication entre qubits et de cohérence dans un qubit, car ces derniers contenaient une grande quantité de bruit. Ces deux jeux vidéo étaient entièrement jouable en ligne de commande.

    Un ordinateur quantique est capable de créer à l'avance certains types de données souhaitées pour un jeu, ce qui donne par conséquent la possibilité de développer un jeu quantique qui pourrait être plus rapide et plus réactif qu'un jeu classique exécuté sur un ordinateur quantique. Cela a conduit à l'amélioration du Quantum Solitaire, un jeu de cartes sur Internet développé à l'aide d'Unity. Dans ce jeu, le caractère aléatoire est généré de manière traditionnelle, mais en se basant totalement sur les possibilités calculées à partir d'un prototype de PC quantique.

    Ainsi, même si le jeu fait appel à la non-localité quantique à un moment donné, il est régi par un exemple où ce phénomène a été mis en oeuvre de manière honnête. Dans ce jeu, l'objectif consiste à rassembler toutes les cartes rouges et noires en utilisant le moins de tours possible. Ici, le participant peut également utiliser l'expertise de la mécanique quantique pour tirer des conclusions sur les combinaisons possibles afin de tirer les meilleures combinaisons de cartes à jouer qui offrent les meilleures chances de succès.

    Médecine & santé

    Le domaine de la santé serait l'un des secteurs les plus friands des technologies quantiques ; des modélisations d'atomes de molécules seront possibles avec la puissance de calcul d'un ordinateur quantique. Ces dernières pourront servir à l'élaboration de nouveaux procédés médicaux, à la

    30

    conception de médicaments. Des maladies comme Alzheimer ou Parkinson seront peut-être curables notamment grâce à l'apport technologique qu'offre les technologies quantiques.

    L'amélioration de la puissance de calcul pourra également permettre d'apporter des soins plus personnalisés aux patients. Les modèles de facteurs de risques déjà existants, qui permettent de définir les antécédents médicaux d'un patient et ainsi estimer le risque de développer certaines maladies, seront plus complets et précis.

    Au cours des deux dernières décennies, le domaine de l'information et de l'informatique quantiques a progressé au point que l'on peut théoriquement démontrer que les ordinateurs quantiques peuvent exploiter des effets quantiques tels que l'intrication et la superposition quantiques pour résoudre des problèmes de calcul qui sont actuellement insolubles par toute méthode conventionnelle. Des machines à résoudre, y compris les superordinateurs les plus puissants actuellement disponibles.

    La médecine deviendra de plus en plus performante au fil du temps, à mesure que la quantité de données biologiquement pertinentes disponibles et que la puissance et les méthodologies de calcul augmentent. À cet égard, il existe une marge d'amélioration considérable grâce à l'utilisation de puissants outils de théorie des réseaux, tels que ceux développés dans les domaines de la géométrie des réseaux et des algorithmes quantiques.

    Machine Learning et Intelligence artificielle

    Le machine learning est devenu un concept utilisé dans des environnements traitant de fortes quantités de données. Les algorithmes quantiques d'apprentissage automatique peuvent être classés selon qu'ils suivent une approche tolérante aux pannes, une approche à court terme ou une combinaison des deux.

    Les modèles quantiques peuvent produire des corrélations qui sont difficiles à représenter de manière classique. Toutefois, ces derniers sont confrontés à de nombreux défis, tels que la capacité d'apprentissage, la précision et les performances, qui doivent être relevées afin de maintenir les espoirs d'un avantage quantique à l'échelle de ces dispositifs quantiques à court terme.

    Cependant, l'apprentissage automatique quantique semble très prometteur pour trouver des améliorations et des accélérations afin de renforcer considérablement les capacités actuelles.

    Les systèmes équipés d'algorithmes d'intelligence artificielle ont la particularité de traiter d'énormes quantités de données à très grande vitesse. Les systèmes d'IA ont particulièrement besoin des technologies quantiques qui leurs permettront de considérablement améliorer la vitesse de traitement des données.

    31

    Automobile

    Les constructeurs l'ont bien compris, les voitures autonomes semblent toutes disposées pour profiter de la puissance des algorithmes quantiques.

    Ces derniers pourraient permettre notamment de faire évoluer les points suivants :

    · Sécurité et fiabilité : L'informatique quantique peut résoudre les problèmes de sécurité et de fiabilité des voitures à conduite autonome. L'informatique quantique contribue à faciliter ce parcours, car les voitures à conduite autonome ont encore un long chemin à parcourir avant leur commercialisation.

    · Congestion du trafic : L'informatique quantique réduit les embouteillages en analysant les données des capteurs des voitures autonomes et garantit l'optimisation des itinéraires.

    · Entraînement des algorithmes : Vous pouvez utiliser l'informatique quantique pour entraîner les algorithmes de conception des véhicules autonomes afin d'améliorer la sécurité et le rendement énergétique.

    · Recherche & Développement : L'informatique quantique peut également aider les acteurs de l'automobile à passer à l'ère du véhicule électrique, notamment en stimulant la recherche et le développement de nouvelles technologies.

    · Efficacité énergétique : Les ordinateurs quantiques peuvent être utilisés lors de la conception des véhicules pour obtenir diverses améliorations, notamment : B. Minimiser la traînée et améliorer le rendement énergétique. L'informatique quantique n'en est encore qu'à ses débuts, mais elle s'est déjà révélée bénéfique pour les voitures à conduite autonome.

    Finance

    De nombreux cas d'utilisation financière exigent la capacité d'évaluer un large éventail de données. Afin d'y parvenir, les institutions financières utilisent des modèles statistiques et des algorithmes pour prédire les résultats futurs. Ces techniques sont assez efficaces mais pas absolues. Dans un monde où d'énormes quantités de données sont générées quotidiennement, les ordinateurs capables d'effectuer des calculs prédictifs avec précision deviennent un besoin majeur.

    C'est pourquoi certaines institutions financières se tournent vers l'informatique quantique, qui promet d'analyser de grandes quantités de données et de calculer des résultats plus rapidement et avec plus de précision qu'un ordinateur classique.

    32

    Conquête de l'espace.

    Observation et gravité

    L'Agence Spatiale Européenne (ESA) croit en la puissance de l'informatique quantique, et à l'intention de l'exploiter dans le cadre de leurs missions, notamment durant les phases de surveillance et l'analyse de la Terre.

    Compte tenu du réchauffement climatique, l'observation de la Terre est peut-être l'activité scientifique la plus importante de notre époque. Aujourd'hui, l'étude des phénomènes de transport de masse à l'échelle planétaire à l'aide de la gravimétrie par satellite fournit des informations importantes sur l'évolution de notre planète et le changement climatique en améliorant notre compréhension de la distribution de l'eau et de ses changements. Plus récemment, la mission gravimétrique « Grace » menée par la NASA a permis de découvrir que la température de l'eau dans les crevasses des profondeurs de l'océan n'a pas changé au cours des dernières décennies. Aujourd'hui, elle est utilisée comme système d'alerte aux inondations et aux sécheresses dans le Midwest américain, important sur le plan agricole, et dans les forêts tropicales congolaises.

    Toutefois, il a été démontré que les mesures classiques ne peuvent être poussées plus loin en raison des limites de nos moyens techniques. Les capteurs quantiques offrent une stabilité à long terme bien supérieure et une plus grande sensibilité. Pour cette raison, ces derniers sont déjà officiels, et permettront d'améliorer notre capacité à observer la Terre.

    Le développement et le déploiement d'une infrastructure de communication quantique (QCI) avec des composantes terrestres et spatiales est également l'une des priorités de la Commission européenne, qui s'efforce de faire entrer l'Europe dans l'ère quantique.

    L'initiative quantique "EuroQCI" (European Quantum Communication Infrastructure) vise à faire mûrir de nouvelles technologies qualifiées pour l'espace.

    L'UE veut assurer des communications spatiales ultra-sécurisées et à chiffrement quantique entre les institutions nationales et les infrastructures critiques dans toute l'Union Erupéenne. Par conséquent, la définition des cas d'utilisation et de l'infrastructure QCI associée, le soutien à la R&D pour faire mûrir la technologie, ainsi que la définition et le lancement d'un banc d'essai sont des étapes importantes du déploiement de QCI. Le développement de la technologie nécessaire pour faire d'EuroQCI une réalité contribuera à renforcer les capacités scientifiques et technologiques de l'Europe en matière de cybersécurité et de technologies quantiques. Il permettra également d'améliorer la souveraineté numérique et la compétitivité industrielle de l'Europe.

    33

    Optique

    L'informatique quantique pourrait également permettre une augmentation de la fréquence fondamentale du domaine des ondes radio au domaine optique (oscillateur optique stable et peigne de fréquence) et du développement d'horloges optiques (contrôle d'état quantique). Le décalage de fréquence a déjà été démontré sur la liaison terrestre par un câble en fibre optique de 920 km de long.

    Cette étape est cependant dépendante de l'évolution en parallèle de la technologie laser car cette dernière, si trop vétuste, ne permettra pas d'exploiter pleinement les nouveaux standards quantiques en matière d'optique.

    L'utilisation des avancées technologiques apportera des améliorations dans la qualité des applications existantes ou permettra la construction d'architectures de systèmes plus efficaces. Les services de diffusion de temps et de mesures bénéficieront d'améliorations en direct à trois grands niveaux. Les horloges spatio-temporelles de haute précision fourniront une base de temps sûre et indépendante pour le chronométrage mondial.

    Mesure du temps et de la fréquence (TFT)

    TFT est à la base de nombreuses applications sociales modernes à haute valeur ajoutée. Les techniques de base du TFT sont maintenant bien établies, permettant des services dans les domaines des communications, des mesures et du système mondial de localisation par satellite (GNSS). Avec la disponibilité des horloges atomiques optiques et de la transmission de fréquence optique, QT permet d'augmenter les performances des TFT à plusieurs niveaux.

    Ces performances accrues permettent de répondre aux besoins croissants en communications (horodatage) et GNSS (géolocalisation), tout en permettant de nouvelles applications (géodésie, observation des ondes gravitationnelles, optique à ouverture synthétique). Une composante spatiale pertinente pour les applications avancées en permettant la transmission sur de longues distances, une sécurité avancée et une disponibilité globale.

    L'informatique quantique et les techniques de modélisation des données par apprentissage automatique peuvent permettre aux institutions financières d'identifier les risques potentiels avec une plus grande précision. Les institutions financières devraient se préparer en étudiant l'utilisation de protocoles quantiques sécurisés et, potentiellement, de la cryptographie quantique, chacun ayant ses propres possibilités d'utilisation dans la couche réseau.

    34

    PROBLÉMATIQUE

    De telles avancées technologiques ne représenteraient-elles pas un danger pour l'ensemble de

    l'humanité ?

    35

    2. Les technologies quantiques ont-elles le pouvoir de compromettre les technologies actuelles ?

    L'humanité a connu bien des épisodes de transition en matière d'évolution technologique dans de multiples domaines. Que ce soit en matière d'automobile, de mécanique, d'informatique, de nucléaire ou encore d'aéronautique, l'homme ne cesse de progresser et d'innover.

    L'invention de ce que l'on nomme aujourd'hui la voiture a permis à l'Homme, sur une même durée, de traverser de plus grandes distances par rapport au cheval, qui lui-même a pu apporter ce même bénéfice à une époque où les Hommes se déplaçaient à pied.

    L'avènement de l'informatique et des systèmes de communication ont permis à une personne disposant de ces technologies de communiquer avec n'importe qui dans le monde (j'exclue toute forme de blocages potentiels, comme une mauvaise réception du signal ou un blocage logiciel de type règle de flux).

    De tels progrès, s'ils sont exploités d'une manière non nuisible, ne peuvent qu'en théorie améliorer notre quotidien, nous permettre de réaliser des actions auparavant impossibles dans tous les domaines, comme l'archéologie, l'astronomie ou encore l'agriculture.

    En revanche, il est également possible de se servir de ces découvertes de manière offensive, par le biais de nouvelles armes. L'humanité a déjà connu des attaques nucléaires de grande ampleur ayant causés de gros dégâts matériels et des pertes humaines considérables, ou encore des virus pouvant paralyser des systèmes informatiques complexes pouvant engendrer également des pertes humaines.

    Les standards en matière d'armement se renouvèlent sans cesse. Les capacités de destruction, de miniaturisation ou d'économie des couts évoluent et permettent de meilleures performances et de fait de meilleurs résultats pour ceux qui en bénéficient.

    Nous tenterons d'une part d'analyser le lot des risques apportés par le futur avènement de l'informatique quantique, mais d'autre part se pencher sur les actions défensives possibles et envisagées par les hautes instances de cybersécurité du globe, notamment le NIST et l'ENISA.

    36

    Etat des lieux des risques rencontrés avec l'informatique

    Malgré tous les bienfaits & avantages connus de l'informatique (automatisation de processus, économie de papiers, communication instantanée et bien d'autres), les dangers & risques encourus lors de l'utilisation des technologies informatiques sont réels.

    · Une dépendance à l'informatique peut entrainer des complications lorsque cette dernière est compromise par une attaque informatique ou une détérioration physique des systèmes qui embarquent le code informatique. Les entreprises y sont particulièrement vulnérables mais également les établissements d'utilité publique comme les hôpitaux. C'est ce qui est arrivé à l'hôpital de Castellucio, en Corse, le lundi 28 mars 2022. (Source =)

    · La facilité avec laquelle il est aujourd'hui possible de communiquer avec un ou des individus à travers le monde apporte son lot de dangers, notamment par le biais des réseaux sociaux. De nombreux cas de harcèlement, de « fake-news » ou encore d'arnaques ont lieu tous les jours.

    · « Les conflits de demain vont être numériques, tous les grands Etats s'y préparent ». Cette citation du directeur général de l'Agence nationale de la sécurité des systèmes d'informations (ANSSI), Monsieur Guillaume Poupard, nous alerte du potentiel offensif des cyberattaques. Les trois cybermenaces traitées par l'ANSSI sont aujourd'hui la déstabilisation, l'espionnage et le sabotage de systèmes d'informations.

    La révolution quantique apporte des outils défensifs supplémentaires, mais également des outils offensifs. Des puissances de calculs démultipliées peuvent permettre d'exécuter bien plus rapidement n'importe quel type de code, tout en le rendant plus discret lors de l'exécution. Par extension, des programmes plus puissants, plus sécurisés via une méthode de cryptographie plus performante et potentiellement plus dévastatrice pourrait voir le jour.

    Le plus grand risque potentiel pour la sécurité lors de la migration vers l'informatique quantique est lié au cryptage. La sécurité mondiale d'internet repose sur la cryptographie, qui constitue le fondement de réseaux sécurisés. Les algorithmes complexes utilisés de nos jours pour créer des clés publiques et privées afin de déchiffrer des données cryptées ne sont pas adaptés à un environnement quantique. L'idée de base du cryptage par mot de passe est que toute personne souhaitant lire un fichier crypté doit disposer de la clé ou du code permettant de déverrouiller le fichier. Plus la clé est longue, plus il faudra de temps pour la démanteler, et plus les fichiers seront sécurisés.

    37

    Usage militaire potentiel

    Le domaine de la science de l'information quantique donne naissance à de multiples nouvelles applications liées à la défense qui sont souvent regroupées sous l'appellation unique de "quantique", mais qui méritent d'être examinées indépendamment. La distribution de clés quantiques (QKD), la cryptanalyse quantique et la détection quantique sont autant de promesses qui devraient avoir un impact significatif sur la sécurité stratégique. La distribution de clés quantiques offre aux défenseurs un avantage à court terme pour protéger leurs communications, tandis que la cryptanalyse quantique est une capacité offensive, bien qu'elle soit développée à un rythme plus lent. Les ordinateurs quantiques généralisés offriront de nombreuses autres possibilités.

    La forme la plus courante de cryptage quantique consiste à utiliser une QKD lors de l'initiation d'une session de communication sécurisée. Selon le principe d'incertitude d'Heisenberg, l'état exact des photons est incertain jusqu'à ce qu'ils soient isolés et mesurés - ce n'est qu'à ce moment-là qu'ils présentent un état de polarisation spécifique, ce qui fournit au QKD un moyen précieux de savoir si les communications sont interceptées et examinées (par exemple, par une attaque de type man-in-the-middle). Cela s'apparente à l'envoi d'une lettre par le biais d'un réseau postal standard en utilisant une enveloppe inviolable. La technologie QKD fonctionne bien avec les systèmes de communication cryptés existants, mais jusqu'à ces dernières années, il était difficile de la mettre en oeuvre sur de longues distances, ce qui la rendait peu pratique en dehors d'environnements limités.

    La cryptanalyse quantique fait référence à l'application spécifique de l'informatique quantique pour décrypter les informations des messages cryptés. Les normes de cryptage actuelles reposent principalement sur des algorithmes mathématiques pour coder les données, qui sont effectivement incassables dans un laps de temps raisonnable. Par exemple, le cryptage 256 bits de l'Advanced Encryption Standard (AES) 256 bits de l'armée américaine nécessiterait théoriquement des milliards d'années pour que les ordinateurs modernes puissent craquer le code par des méthodes de force brute (c'est-à-dire par "essais et erreurs" de toutes les solutions possibles).

    Les ordinateurs quantiques, cependant, seront éventuellement en mesure de remplacer l'approche séquentielle des méthodes d'essai et d'erreur pour traiter de tels problèmes mathématiques complexes par d'autres méthodes alternatives permettant d'envisager simultanément de nombreuses possibilités. La perspective prometteuse de la cryptanalyse quantique est si séduisante que certains pays ont déjà commencé à collecter des communications étrangères cryptées dans l'espoir de pouvoir extraire des secrets de ces données. L'informatique quantique pourrait probablement poser d'autres problématiques, bien qu'il soit encore trop tôt au stade de la recherche et du développement pour

    38

    prévoir quelles inventions futures nous attendent ou comment les différents états et gouvernements pourraient les exploiter.

    L'informatique quantique ne supplantera pas complètement les méthodes de calcul classiques basées sur les transistors et les micropuces en silicium. Au lieu de cela, l'informatique quantique devrait être considérée comme une technologie alternative, complémentaire, voire synergique, capable de résoudre certains problèmes que les ordinateurs actuels ne peuvent pas résoudre, mais qui sera très probablement relativement inefficace, ou seulement marginalement meilleure, pour résoudre d'autres problèmes.

    Les implications géopolitiques de la technologie quantique méritent également d'être prises en considération. Certains craignent que l'avènement de la technologie quantique ne fasse qu'élargir la fracture numérique entre les nations et creuser les écarts de sécurité. La cryptanalyse quantique pourrait être une solution universellement viable en théorie, mais en pratique, elle pourrait ne fonctionner que dans les pays riches et avancés qui sont capables d'exploiter les installations nécessaires.

    La relation hégémonique peut persister si quelques pays peuvent à la fois améliorer la transparence des communications de leur adversaire tout en se protégeant grâce à des algorithmes de cryptage QKD ou post-quantique. Il en va de même pour le traitement massif des données, qui fournit des informations en temps réel et des avantages opérationnels aux pays technologiquement avancés.

    Intelligence artificielle

    Les dangers associés à l'IA sont nombreux, notamment les cyberattaques sur les systèmes d'IA existants, la mise en oeuvre de l'IA dans les guerres militaires conventionnelles ou encore les menaces générales plus importantes pour notre sécurité nationale. Les systèmes d'IA actuels ont commencé à détecter des violations de données provenant de sources inconnues en raison de l'insécurité des serveurs centraux contenant des informations clé. Cela crée une cible facile pour obtenir des informations en masse de ces bases de données. Une cyberattaque contre une base de données d'IA pourrait causer des ravages chez les particuliers, les entreprises et nos gouvernements.

    L'IA peut également apporter des avancées technologiques significatives à la guerre militaire conventionnelle, notamment la mise en oeuvre de systèmes d'armes aux capacités entièrement autonomes et de technologies capables d'utiliser des capacités complexes de résolution de problèmes et de réflexion, à l'image des comme les humains.

    Cela pourrait conduire à un développement accru des armes de guerre embarquant de l'IA et éventuellement des soldats IA. L'idée d'avoir de la robotique en temps de guerre a influencé de

    39

    nombreux fondateurs de la robotique et de l'IA qui postulent le danger que représente celle-ci en temps de guerre.

    L'intégration des domaines de l'IA et du cyber a créé des défis sur le front international qui ont affecté les relations internationales. Les tensions entre les États-Unis, la Chine et la Russie ont augmenté en raison du développement de la technologie de l'intelligence artificielle. En juillet 2017, la Chine a publié les détails de son « Plan de développement de l'intelligence artificielle de nouvelle génération » expliquant ses objectifs afin d'atteindre leur but, qui est de réaliser une percée "majeure" d'ici 2025 afin de devenir un leader mondial de l'IA d'ici 2030. La réponse américaine a été diplomatique et visait à ralentir les progrès technologiques de la Chine. Pour y, les États-Unis ont mis en place des tarifs ciblés, augmenté le nombre de poursuites pour espionnage économique contre des agents chinois et mis davantage l'accent sur les opérations et la recherche de contre-espionnage (Hass, Balin, 2019).

    L'émergence de l'IA dans la guerre moderne a également des conséquences sur la sécurité. Le développement de l'ère numérique peut potentiellement représenter un grand danger. En tant que nation qui veut être un leader mondial à l'ère numérique, nous devons travailler pour protéger notre environnement en ligne et le rendre résistant aux futures attaques. Nous devons encourager et la formation aux nouvelles technologies de cybersécurité pour les particuliers et les entreprises afin de protéger leurs systèmes informatiques. Les institutions publiques doivent également renforcer les effectifs en recrutant du personnel compétant.

    Crypto monnaie et blockchain

    Les crypto-monnaies sont de plus en plus intégrées dans le courant financier et économique mondial. L'une des raisons en est que son cryptage sécurisé, la technologie de la blockchain est largement immunisée contre les cyberattaques ou les vols traditionnels.

    Cependant, la crypto-monnaie est particulièrement vulnérable aux futures attaques de l'informatique quantique, ce qui rend le chiffrement vulnérable à l'algorithme de Shor est le chiffrement à courbe elliptique commun à toutes les technologies de blockchain.

    Les crypto-monnaies deviennent monnaie courante, cependant, en soutenant la sécurité cryptographique par la cryptographie post-quantique ou la cryptographie quantique, les crypto-monnaies pourront rester l'épine dorsale du système financier mondial pendant des décennies.

    40

    Qu'est-ce qu'une crypto-monnaie ?

    Une crypto-monnaie est une forme numérique de monnaie qui s'appuie sur une blockchain en ligne pour protéger ses transactions.

    Au fur et à mesure que la liste des transactions enregistrées (appelées blocs) s'allonge, chaque enregistrement est vérifié et confirmé par un réseau d'ordinateurs "peer-to-peer". Chaque ordinateur fait office de serveur pour les autres ordinateurs.

    Il n'y a aucune donnée à modifier dans l'ensemble de données publiques, au contraire, elles font parties d'une chaîne permanente de blocs de transactions antérieures. Le terme "blockchain" est donc devenu synonyme de technologie de grand livre distribué (DLT), qui utilise des "hachages" ou des empreintes cryptographiques pour enregistrer et sécuriser chaque transaction à des fins d'authentification.

    Bien que la technologie DLT puisse être utilisée pour d'autres méthodes d'enregistrement et de sauvegarde des données, elle est étroitement liée au système blockchain qui sous-tend toutes les transactions en crypto-monnaies.

    Tous ces avantages de l'utilisation de la blockchain ont permis une explosion des crypto-monnaies. Le bitcoin est de loin la crypto-monnaie la plus célèbre - ou peut-être la plus connue - qui existe.

    D'autres amateurs de crypto-monnaies admirent la technologie qui sous-tend les crypto-monnaies, la version blockchain du DLT, et pensent à juste titre que le système de traitement et d'enregistrement décentralisé et son cryptage par hachage sont plus sûrs que les méthodes traditionnelles de transactions financières en ligne.

    Mais quel est le degré de sécurité des bitcoins - ou des autres crypto-monnaies ?

    L'avènement de l'informatique quantique rend la réponse à cette question importante pour l'avenir des crypto-monnaies et celui des marchés financiers en général.

    La popularité et la notoriété croissantes des crypto-monnaies et de leur technologie blockchain sous-jacente s'accompagnent d'une augmentation du risque cybernétique dans le secteur. Si le ledger distribué (DLT) ou la technologie blockchain sous-jacente des systèmes de crypto-monnaies n'est toujours pas à l'abri des intrusions informatiques classiques, les systèmes cryptographiques sous-jacents au DLT pourraient bientôt être vulnérables aux attaques quantiques.

    Les caractéristiques de conception inhérentes qui ont conduit au succès de la technologie blockchain, associées aux menaces émergentes basées sur le décryptage quantique, font de l'espace des crypto-monnaies une cible extrêmement vulnérable et lucrative pour les cyberacteurs malveillants.

    41

    En outre, l'intégration croissante des crypto-monnaies dans les marchés et actifs financiers traditionnels expose ces dernières à une menace systémique au niveau de la stabilité financière et la santé économique des États qui en profitent. Par conséquent, l'insécurité future de la DLT est une cible de choix pour les criminels et les acteurs antiétatiques économiquement motivés.

    Avant même de considérer la menace de l'informatique quantique avancée, il faut analyser la conception de base d'un système de blockchain comme une faiblesse potentielle plutôt que comme l'attrait principal de la technologie. Bien qu'aujourd'hui, leur nature décentralisée représente l'un des attraits fondamentaux des crypto-monnaies dérivées de la technologie DLT et fait partie intégrante de l'innovation blockchain.

    Si leur nature décentralisée est aujourd'hui l'un des attraits fondamentaux des crypto-monnaies dérivées de DLT et fait partie intégrante de l'innovation blockchain, dans un futur environnement quantique cryptographiquement peu sûr, cette décentralisation augmente le risque de sécurité des cryptomonnaies car liées à la blockchain, qui pourra potentiellement se faire attaquer

    Alors que la dépendance à l'égard d'une autorité centralisée dans les grands livres financiers numériques et les systèmes bancaires traditionnels est exactement un aspect du système financier actuel que la DLT cherche à remplacer, la complexité des systèmes centralisés masque effectivement les intrus du réseau, en particulier les acteurs pouvant user des technologies quantiques.

    Bien que les systèmes centralisés et décentralisés utilisent tous deux un schéma de chiffrement à clé publique/privée pour sécuriser l'accès et la confidentialité des données, dans les systèmes centralisés modernes, les données sont séparées de la clé de chiffrement, la clé de chiffrement elle-même étant gérée par un organisme central du réseau.

    À l'inverse, dans les réseaux DLT dont la sécurité repose sur la transparence, les données protégées et le cryptage de protection sont cousus ensemble.

    Par conséquent, si le propriétaire d'un actif tel qu'un portefeuille Bitcoin perd ou oublie sa clé de chiffrement privée, l'actif sera irrémédiablement perdu. Face à des failles de sécurité telles que le décryptage des clés privées, les crypto-monnaies protégées sont définitivement volées.

    Alors qu'ils étaient traditionnellement considérés comme un marché isolé, le bitcoin et les autres crypto-monnaies sont de plus en plus intégrés dans le système financier au sens large. Si l'on considère cette intégration synergique du marché en conjonction avec la taille du marché des crypto-monnaies, on peut facilement imaginer l'instabilité financière systémique potentielle dans un scénario de crash des crypto-monnaies.

    42

    Biométrie

    Document de voyage électronique lisible à la machine

    Le document de voyage électronique lisible à la machine (TAG/MRTD) est conçu pour permettre l'identification sécurisée de son titulaire en stockant ses données d'identité et ses données biométriques (portrait et empreinte digitale facultative) afin de lier les données d'identité du titulaire.

    Le TAG/MRTD est une application intégrée sécurisée qui repose sur du matériel sécurisé, comme le précise le document 9303 de l'OACI, et qui est conçue pour être intégrée à un document d'identité.

    Le TAG/MRTD fournit divers services de sécurité tels que l'intégrité et l'authenticité des données d'identité et des données biométriques qu'il contient, la preuve d'authenticité contre le clonage, l'intégrité des communications lors de la lecture du contenu du TAG/MRTD, la sécurité et la confidentialité de l'authenticité, et le contrôle de l'accès aux données sensibles, comme les empreintes digitales.

    Les documents de voyage électroniques lisibles à la machine sont essentiels à presque tous les documents d'identification. Ils sont utilisés pour les passeports électroniques (réglementés par l'OACI) et également pour les pièces d'identité des marins (réglementées par l'OIT).

    Délivrée par les États membres, elle doit comporter des documents de voyage électroniques lisibles par machine. La même analyse s'applique au permis de séjour, qui est une carte d'identité pour les étrangers. Au sein de l'UE, selon le règlement 1030/20029, les permis de séjour délivrés par les États membres doivent inclure un document de voyage électronique lisible par machine.

    L'avènement possible de l'informatique quantique constitue également une menace pour les documents de voyage électroniques lisibles par machine.

    Les possibilités offertes par les ordinateurs quantiques sont multiples :

    · Les attaquants écoutent et interceptent les communications avec les documents de voyage électroniques lisibles par machine afin de les utiliser pour utiliser des ordinateurs quantiques en temps réel ou plus tard (hors ligne).

    · Un attaquant utilise un ordinateur quantique pour fabriquer une clé privée correspondant à la clé publique contenue dans le certificat traité par l'eMRTD pour authentifier une entité externe privilégiée (le système d'inspection). Ce modèle d'attaque nécessite la collecte de certificats auprès d'entités nommées et un échange en temps réel avec les eMRTD.

    43

    ·

    Un attaquant utilise un ordinateur quantique pour découvrir la clé privée correspondant à la clé publique stockée dans l'eMRTD et cloner l'eMRTD. Ce modèle d'attaque nécessite la collecte de clés publiques à partir de documents de voyage électroniques lisibles par machine.

    · Les attaquants utilisent des ordinateurs quantiques pour découvrir les clés privées correspondant aux certificats d'authentification passive et falsifier des documents de voyage électroniques lisibles par machine ou des identités. Ce modèle d'attaque nécessite l'obtention du certificat de l'entité émettrice.

    La migration vers des eMRTD à preuve quantique prendra du temps

    Il faudra des décennies à l'infrastructure des documents de voyage électroniques lisibles par machine pour atteindre la preuve quantique. Tout d'abord, elle ne peut être lancée pour le moment en raison du manque de normes et de produits. De plus, l'adaptation des protocoles de cryptage utilisés dans les eMRTD aux preuves quantiques est un défi et, en définitive, le déploiement des eMRTD à preuve quantique prendra du temps.

    Internet of Things (IoT)

    L'internet des objets (IoT) consiste à développer des objets intelligents et connectés dont les données récoltées peuvent être rendues accessibles via un écran intégré ou un accès Web. Ces appareils diffèrent des appareils traditionnels connectés à l'internet en ce sens qu'ils sont capables d'exécuter des tâches même complexes avec une interaction humaine minimale ou nulle. Malheureusement, avec l'avènement des technologies quantiques, la sécurité est devenue une préoccupation majeure pour les réseaux IoT.

    Les efforts récents incluent la réinvention de solutions cryptographiques en utilisant des opérations légères. Cependant, après avoir assisté au développement des ordinateurs quantiques, on peut conclure que les techniques cryptographiques actuelles ne sont pas encore assez fiables. Par conséquent, il est nécessaire de développer des solutions qui peuvent et sont facilement résistantes aux cyberattaques.

    L'internet des objets (IoT) est un ensemble de technologies qui nécessitent des protocoles, une infrastructure, des mécanismes de stockage de données et des canaux de communication liés aux technologies de l'information. L'allocation intelligente des ressources est l'une des exigences les plus importantes lorsqu'il s'agit de dispositifs IoT, car ils sont limités en termes de puissance, de mémoire et de ressources informatiques. La technologie de communication utilisée pour traiter et gérer les données est également très importante.

    44

    L'écosystème IoT est confronté à de nombreux défis liés aux performances, à la sécurité, au routage, à la résilience ou à la confidentialité. Ce nouveau paradigme de connexion des objets doit intégrer des technologies de nouvelle génération.

    L'augmentation significative de l'utilisation des appareils IoT présente de nombreuses opportunités commerciales. Cependant, le fabricant ne peut toujours pas garantir aux clients que ces appareils sont sûrs. Ainsi, malgré ces avantages, les problèmes de sécurité de ces appareils semblent être une énorme pierre d'achoppement qu'il semble nécessaire d'endiguer.

    Le déploiement involontaire d'un grand nombre de noeuds IoT non sécurisés et vulnérables peut conduire les attaquants à lancer des attaques telles que des attaques par déni de service distribué (DDoS). La prolifération et l'ouverture de ces dispositifs présentent des défis de sécurité liés à l'établissement de la confidentialité, à la sécurité des communications et du stockage, au contrôle d'accès et à l'authentification. Jusqu'à présent, la confusion régnait entre les fabricants et les consommateurs de ces dispositifs, qui se rejetaient mutuellement la responsabilité des vulnérabilités de ces dispositifs. Du point de vue des fabricants, les consommateurs sont responsables de la mise à jour de leurs appareils et de la modification des mots de passe de temps à autre, et les consommateurs ont reproché aux fabricants de ne pas fournir de fonctions de sécurité adéquates dans les appareils eux-mêmes.

    Bien que l'IoT soit toujours confronté à des menaces de sécurité, avec l'avènement de l'informatique quantique, ces menaces de sécurité sont susceptibles d'augmenter à un rythme sans précédent. les entreprises qui s'appuient sur des applications IoT en temps réel doivent se rendre compte que l'informatique quantique devient un défi menaçant.

    La technologie quantique percera les normes de cryptage actuelles plus rapidement que prévu et devrait être une source de préoccupation majeure pour toute organisation publique ou privée basée sur l'IoT et cherchant à protéger ses données avec le cryptage actuel à l'avenir.

    Avec l'avènement de l'Internet des objets, les objets que nous utilisons dans notre vie quotidienne sont capables de communiquer entre eux via Internet. Cependant, divers problèmes se posent avec l'utilisation de technologies hétérogènes, parmi lesquels les problèmes de sécurité sont les plus importants.

    Cependant, avec l'avènement des idées de l'informatique quantique, ces méthodes de cryptographie ne seront plus assez fiables. Par conséquent, il est nécessaire de développer des solutions cryptographiques qui peuvent fournir le niveau de sécurité souhaité dans les réseaux IoT post-quantiques.

    45

    Par conséquent, afin d'endiguer les attaques générées par les ordinateurs quantiques, il est nécessaire d'abandonner les algorithmes cryptographiques basés sur les problèmes mathématiques traditionnels, et d'adopter et de développer des algorithmes basés sur des techniques mathématiques modernes, qui peuvent résister aux attaques dans le monde post-quantique de l'IoT.

    2.2 Comment endiguer la menace et devrait-on s'y atteler dès aujourd'hui ?

    Existe-t-il un moyen d'éliminer ou d'atténuer les risques liés aux crypto-monnaies ?

    L'une des possibilités est la cryptographie post-quantique. Les chercheurs étudient les moyens d'améliorer la sécurité des signatures logicielles et des échanges de clés qui resteront efficaces lorsque les ordinateurs quantiques seront suffisamment puissants pour craquer les cryptosystèmes à clé publique existants. De nombreux produits combinent différents algorithmes pour créer des hybrides, dont certains sont déjà déployés et opérationnels.

    Certains outils utilisent eux-mêmes la technologie quantique, et les solutions de cryptage basées sur l'intrication peuvent améliorer la sécurité actuelle. Il s'agit notamment du générateur de nombres aléatoires quantiques (QRNG) et de la distribution de clés quantiques (QKD).

    Les nombres aléatoires sont générés par des processus dont les résultats sont totalement imprévisibles et ne peuvent être reproduits de manière fiable à l'aide du même processus. De nombreuses applications de jeu utilisent les nombres aléatoires pour un cryptage sécurisé.

    Heureusement, la physique quantique est fondamentalement aléatoire. Les générateurs de nombres aléatoires quantiques sont des dispositifs basés sur les quantas qui intègrent le caractère aléatoire de la physique quantique pour générer des nombres véritablement aléatoires à utiliser dans les messages cryptés et autres applications cryptographiques.

    Améliorer la génération de nombres aléatoires à l'aide des QRNG peut être un moyen d'améliorer la sécurité aujourd'hui.

    La deuxième solution, QKD, représente une nouvelle façon de distribuer ces nombres aléatoires et de générer des clés sécurisées entre différents sites sur une base de confiance de pair à pair.

    Les crypto-monnaies sont en plein essors. Les solutions à sécurité quantique garantiront que ces crypto-monnaies resteront stables et sûres pendant longtemps. D'autre part, l'avènement des ordinateurs quantiques représente une réelle menace pour la DLT et son cryptage.

    46

    Adaptation des protocoles de cryptage utilisés dans les documents de voyage électroniques lisibles à la machine pour atteindre une sécurité quantique.

    Les documents de voyage électroniques lisibles à la machine utilisent des protocoles de cryptage très spécifiques conçus pour répondre à des caractéristiques de protection des données très exigeantes.

    Il s'agit de PACE10, PACE-CAM11 et de la certification des puces. La version actuelle est basée sur l'échange de clé Diffie Hellman. Cependant, la portée du concours du NIST - et l'examen par les pairs de la communauté cryptographique - n'inclut que la signature et le mécanisme d'encapsulation de clé (KEM).

    Si les mécanismes d'encapsulation de clés peuvent être utilisés pour la génération de clés, ils ne sont pas exactement analogues aux accords de clés classiques. Cela entrave quelque peu la possibilité de conserver les protocoles de chiffrement existants et de remplacer simplement les primitives de clé Diffie Hellman par des primitives de protocole à sécurité quantique.

    En outre, dans le cas de PACE-CAM, le calcul du jeton d'authentification de la puce est étroitement lié aux mathématiques sous-jacentes, car il repose sur des propriétés spécifiques des calculs liés à DH. Par conséquent, la migration vers la cryptographie à sécurité quantique doit également être réorganisée.

    Cette situation exige que l'on envisage sérieusement de concevoir des protocoles cryptographiques entièrement nouveau, en remplaçant les primitives cryptographiques par des primitives cryptographiques à sécurité quantique.

    Il faut se concentrer sur les propriétés de sécurité et de confidentialité requises plutôt que sur la conception des protocoles cryptographiques actuels. À cet égard, il convient également de créer une preuve formelle de sécurité - comme cela a été fait précédemment pour ces protocoles cryptographiques - afin de prouver qu'elle est exempte d'erreurs et, en fin de compte, de susciter la confiance des utilisateurs.

    Cette tâche prendra un certain temps, mais elle est absolument nécessaire pour ne pas dégrader la sécurité globale de la vie privée obtenue par les documents de voyage électroniques lisibles par machine, tout en essayant de la rendre résistante à l'informatique quantique.

    D'autre part, l'authentification active, l'authentification passive ou l'authentification du terminal sont des protocoles de documents de voyage lisibles par une machine électronique qui semblent plus faciles à convertir en versions résistantes aux quantas. Il suffit de remplacer la primitive de signature par une primitive à sécurité quantique.

    47

    Toutefois, les inconvénients des signatures à sécurité quantique (taille, performances...) peuvent signifier que la conception de ces protocoles d'authentification doit être modifiée pour passer des signatures à sécurité quantique à des mécanismes d'encapsulation des clés.

    Des algorithmes à sécurité quantique sont actuellement conçus, vérifiés et analysés dans le cadre du concours du NIST, qui devrait se terminer vers 2024. De nombreux chercheurs et scientifiques du monde entier sont impliqués dans ce processus. Toutefois, il faudra peut-être plusieurs années de recul à certaines agences de sécurité nationale avant de pouvoir faire pleinement confiance à cette nouvelle génération de cryptographie.

    Deux méthodes sont possibles :

    · La première est une approche hybride, qui combine des algorithmes traditionnels avec des algorithmes à sécurité quantique. Cela pourrait être un bon moyen de concilier la nécessité de commencer dès que possible la migration vers un eMRTD à sécurité quantique.

    · Une autre approche est celle de l'agilité cryptographique, selon laquelle les services de sécurité pourraient être réalisés à l'aide de plusieurs algorithmes basés sur différents problèmes mathématiques. À tout moment, un seul est utilisé pour un service de sécurité donné, mais si un algorithme cryptographique est menacé, un autre peut être ajouté (si nécessaire) et être instantanément utilisé à la place.

    Les algorithmes cryptographiques à sécurité quantique à employer doivent pouvoir être exécutés sur des éléments/des puces sécurisés utilisés pour l'eMRTD.

    Le code exécutable de l'algorithme cryptographique et les clés nécessaires doivent tenir dans la mémoire disponible, et il doit aussi s'exécuter très rapidement pour ne pas nuire à l'expérience de l'utilisateur ou à la fluidité du contrôle.

    Cette capacité limitée du matériel eMRTD ajoute de la complexité et des recherches sont nécessaires pour s'assurer que le protocole proposé est approprié. Il faudra possiblement développer un nouveau matériel en utilisant des coprocesseurs ou des ressources dédiées pour obtenir des performances raisonnables. Une autre raison de commencer les travaux dès que possible.

    Le passage à la cryptographie quantique sécurisée eMRTD nécessitera également une action des organismes de certification et des laboratoires d'évaluation de la sécurité (FSTI) pour évaluer la solidité de la mise en oeuvre de ces algorithmes. Il conviendra en particulier d'examiner les nouvelles possibilités offertes par les ordinateurs quantiques afin de déterminer la bonne manière de les tester.

    48

    Déploiement de documents de voyage électroniques lisibles par machine à sécurité quantique Les documents de voyage électroniques lisibles par machine permettent de prouver l'identité d'une personne lors de ses déplacements. Malgré de nombreuses initiatives visant à numériser ces derniers, comme les DTC, les documents de voyage physiques lisibles à la machine, les documents de voyage physiques (livrets de passeport avec des puces de sécurité) continueront probablement à être utilisés pendant des décennies et ne disparaîtront pas dans un avenir proche.

    Contrairement aux documents de voyage numériques, les documents de voyage physiques ne nécessitent pas de connexion internet, de batterie ou de source d'énergie pour être utilisés, il est donc possible de les utiliser pour prouver son identité à tout moment et en tout lieu.

    En outre, l'acquisition ou l'utilisation de documents de voyage numériques nécessite des compétences numériques et d'autres outils (smartphones, accès à internet...), ce qui peut constituer un obstacle pour certains groupes de personnes, soit en raison de leur analphabétisme numérique, soit parce qu'elles n'en ont pas les moyens. Par conséquent, les documents de voyage réels sont un facteur clé de l'inclusion sociale.

    De plus, la population n'a pas forcément l'habitude de manipuler les passeports sous forme numérique. Enfin et surtout, des considérations de sécurité et de convivialité imposent d'organiser la flexibilité des moyens de prouver l'identité d'un individu. La preuve d'identité doit être maintenue si le téléphone mobile ou l'internet/cloud est piraté, compromis ou indisponible.

    Pour toutes ces raisons, il est certain que les documents de voyage physiques verront leur utilisation généralisée dans les décennies à venir. Ainsi, les stratégies de déploiement des documents électroniques à sécurité quantique ne peuvent pas s'appuyer sur leur remplacement par des documents électroniques purement numériques, qui offrent une plus grande flexibilité et polyvalence.

    Les documents électroniques- tout comme les documents de voyage électroniques numériques - doivent être mis à niveau vers la sécurité quantique. Cette situation aura une incidence directe sur le scénario de migration.

    La meilleure option pour déployer des documents électroniques résistants aux quanta est de mettre régulièrement les mettre à jour. Par conséquent, le temps de déploiement est long, équivalent à la période de validité des eMRTD, généralement 10 ans pour les passeports.

    Il n'est de plus pas réaliste d'envisager de remplacer du jour au lendemain les eMRTD sur le terrain par des eMRTD à sécurité quantique. Cela entraînera d'importants goulets d'étranglement dans la capacité de production et les installations d'enregistrement, mais compromettra également la capacité de

    49

    contrôler les eMRTD et donc de les valider les identités humaines (l'infrastructure a également dû être mise à niveau du jour au lendemain).

    Toutefois, si la menace posée par l'informatique quantique n'est pas anticipée à l'heure actuelle, nous pourrions être confrontés à une situation dans le futur où il n'y aurait pas assez de temps pour déployer des documents de voyage électroniques lisibles par machine résistants à l'informatique quantique par régénération naturelle avant l'émergence de l'informatique quantique. Il est important d'éviter cette situation très lourde et potentiellement coûteuse.

    Par conséquent, il est très important et urgent de commencer à s'attaquer dès maintenant aux menaces que représente l'informatique quantique.

    Comment protéger les données face à la puissance du quantique ?

    Cryptographie post-quantique

    La recherche d'algorithmes censés être résistants aux attaques des ordinateurs classiques et quantiques s'est largement concentrée sur les algorithmes à clé publique. Il en existe de plusieurs sortes :

    · Cryptographie basée sur les treillis : Les cryptosystèmes basés sur les problèmes de treillis ont suscité un regain d'intérêt pour un certain nombre de raisons. De nouvelles applications, notamment le chiffrement entièrement homomorphe). La cryptographie en treillis permet l'obscurcissement du code et le chiffrement grâce à attributs. La plupart des algorithmes de génération de clés basés sur des treillis sont relativement simples, efficaces et hautement parallélisables. En outre, il a été démontré que la sécurité de certains systèmes basés sur des treillis est plus sûre que le cas moyen dans les hypothèses de gravité les plus défavorables. D'autre part, il est difficile d'estimer avec précision la sécurité des systèmes à grilles, même contre les techniques de cryptanalyse connues.

    · Cryptographie à base de codes : La plupart des primitives basées sur le code souffrent d'une taille de clé très importante. Des variantes récentes ont introduit plus de structure dans le code pour réduire la taille de la clé, mais la structure ajoutée a également conduit à des attaques réussies sur certaines propositions. Bien qu'il y ait eu quelques propositions de signatures basées sur des codes, la cryptographie basée sur des codes a connu plus de succès dans les schémas de cryptage.

    · Cryptographie polynomiale multivariée : Ces schémas sont basés sur la difficulté de résoudre des systèmes polynomiaux multivariés sur des champs finis. Au cours des dernières décennies, plusieurs crypto-systèmes multivariés ont été proposés, dont beaucoup ont été cassés. Bien qu'il y ait eu quelques propositions de systèmes de cryptage à plusieurs variables, la

    50

    cryptographie à plusieurs variables a eu historiquement plus de succès en tant que méthode de signature.

    · Signatures basées sur le hachage : Les signatures basées sur le hachage sont des signatures numériques créées à l'aide d'une fonction de hachage. Leur sécurité, même contre les attaques quantiques, est bien connue. L'inconvénient de bon nombre des systèmes de signature basés sur le hachage les plus efficaces est que le signataire doit enregistrer le nombre exact de messages précédemment signés, et toute erreur dans cet enregistrement introduit une incertitude. Un autre inconvénient est qu'ils ne peuvent générer qu'un nombre limité de signatures. Le nombre de signatures peut même être augmenté jusqu'à être virtuellement illimité, mais cela augmente également la taille de la signature.

    Il semble peu probable qu'un algorithme actuellement connu remplace les algorithmes utilisés aujourd'hui. Un défi qu'il faudra peut-être surmonter est que la plupart des algorithmes résistants aux quantas ont une longueur de clé plus grande que les algorithmes qu'ils remplaceront.

    Standardisation de la cryptographie post quantique

    Initiée par le NIST (National Institute of Standards and Technology), cette standardisation vise à permettre aux acteurs concernés d'adopter des solutions de cryptage efficaces.

    Afin d'élire les candidats, le NIST organise un concours, comportant des rounds qui sont au maximum de 4. . Les rounds sont à considérer comme une chance supplémentaire. Les candidats ont donc 4 chances pour faire valoir l'efficacité de leur algorithme.

    Le concours s'étale sur plusieurs années. Un concours se déroule actuellement, depuis le 30 novembre 2017, et le quatrième round a commencé le 5 juillet 2022.

    Pour cette édition, les candidats doivent proposer un ou des algorithmes de cryptographie à clés publiques, ou un ou des algorithmes de signature digitale capables de résister aux attaques quantiques. Les vainqueurs verront leur algorithme devenir un standard mondial, qui pourra être appliqué et introduit dans divers systèmes, appareils nécessitant une couche de sécurité quantique.

    Concernant les algorithmes de cryptage de clés publiques (KEMs), le NIST a d'ores et déjà sélectionné l'algorithme « CRYSTALS-Kyber».

    CRYSTALS-KYBER est un mécanisme d'encapsulation de clés publiques sécurisé IND-CCA2 dont la sécurité repose sur la force de la résolution du problème de l'apprentissage par l'erreur (LWE). Ses avantages comprennent une clé de chiffrement relativement petite qui peut être facilement échangée entre deux parties, et la rapidité de son fonctionnement.

    51

    Concernant les algorithmes de signature, Le NIST a également sélectionné trois algorithmes :

    · CRYSTALS-Dilithium

    · FALCON

    · SPHINCS+

    Les examinateurs ont noté la grande efficacité des deux premiers, et le NIST recommande CRYSTALS-dilithium comme algorithme principal pour FALCON pour les applications qui nécessitent des signatures plus petites que ce que dilithium fournit.

    Le troisième SPHINCS+ est légèrement plus grand et plus lent que les deux autres, mais se démarque par son utilité en tant que sauvegarde pour une raison principale : il utilise des mathématiques différentes des trois autres choix du NIST. Les 2 premiers sont basés sur une série treillis structurés, tandis que SPHINCS+ utilise une fonction de hachage.

    Le quatrième round a débuté le 5 juillet 2022, les algorithmes proposés par les candidats sont les suivants

    · BIKE

    · Classic McEliece

    · HDC

    · SIKE

    BIKE et HQC sont tous deux basés sur des codes structurés, et tous deux conviennent comme KEMs génériques qui ne sont pas basés sur la grille. Le NIST prévoit de sélectionner au maximum un de ces deux candidats à la normalisation d'ici la fin du quatrième tour.

    Classic McEliece est un finaliste, mais n'est pas actuellement normalisé par le NIST. Bien que Classic McEliece soit largement considéré comme sûr, le NIST ne pense pas qu'il sera largement utilisé en raison de la grande taille de sa clé publique. Le NIST peut tout de même choisir de normaliser le Classic McEliece d'ici la fin du quatrième tour.

    Concernant les algorithmes entrant dans le quatrième tour, le NIST permet aux équipes de soumission de fournir des spécifications et des implémentations mises à jour ("optimisations"). La date limite pour ces ajustements est le 1er octobre 2022.

    En prenant en considération les qualités respectives de chaque algorithme retenu, le NIST propose un objectif de réussite aux participants. En effet, malgré le fait que les algorithmes standardisés soient considérés comme pertinent, ils ne sont pas infaillibles.

    52

    Aujourd'hui, Le NIST appelle aux intéressés à proposer un algorithme de signature numérique avec signature courte et vérification rapide. Le NIST prévoit également de lancer un appel à propositions pour de nouveaux algorithmes de signature numérique à clé publique (résistants aux quanta) d'ici la fin de l'été 2022.

    Comment les entreprises vont-elles devoir procéder pour basculer vers de nouveaux standards quantiques ?

    De nombreux systèmes d'information manquent de souplesse en matière de cryptage. C'est-à-dire qu'ils ne sont pas conçus pour encourager l'adoption rapide de nouvelles primitives et de nouveaux algorithmes cryptographiques sans apporter de changements majeurs à l'infrastructure du système.

    Par conséquent, les organisations n'ont pas toujours le contrôle total de leurs mécanismes et processus de chiffrement, ce qui peut engendrer des complications lors de la modification de ces derniers.

    Il est possible d'imaginer un processus de vérification et de rationalisation des systèmes intrinsèques à une entreprise, afin de permettre une transition vers de nouveaux standards quantiques :

    · Identifier l'existence d'algorithmes hérités (par exemple, dans des applications populaires algorithmes de cryptage tels que le courrier électronique crypté ou les réseaux privés virtuels, le code de gestion des accès dans les systèmes d'exploitation et les serveurs de réseau, les utilitaires de signature de code, les logiciels d'identification, etc..).

    · Connaissance des formats de données des bases de données cryptographiques et des interfaces de programmation d'applications pour prendre en charge les changements et substitutions nécessaires.

    · Analyse du matériel, détection des problèmes de compatibilité et mise au clair des ressources physiques (RAM, CPU...) nécessaires.

    · Identifier le système d'exploitation et le code d'application qui utiliseront l'algorithme.

    · Identifier tous les dispositifs de communication avec des protocoles vulnérables.

    · Identifier les dépendances des protocoles cryptographiques aux caractéristiques algorithmiques.

    Une fois qu'une entreprise a déterminé où et pourquoi elle utilise la cryptographie à clé publique. Les organisations peuvent déterminer les caractéristiques d'utilisation telles que, par exemple :

    · Limitations matérielles/logicielles sur la taille actuelle des clés et sur la taille future des clés et des signatures.

    · Seuils de latence et de débit.

    · Processus et protocoles de négociation du chiffrement.

    53

    ·

    Protocole de poignée de main de génération de clé à jour, chaque processus de chiffrement se déroule sur la pile.

    · Comment chaque processus cryptographique est invoqué (par exemple, en invoquant des bibliothèques cryptographiques, en utilisant des processus intégrés dans le système d'exploitation, en invoquant des applications, en utilisant la cryptographie en tant que service).

    · L'existant soutient-elle le concept d'agilité cryptographique ?

    · Peut-elle être mise en oeuvre par une mise à jour du logiciel ?

    · Prospecter les fournisseurs et propriétaires de tout matériel/logiciel/processus de chiffrement.

    · Origine des clés et des certificats.

    · Conditions contractuelles et légales imposées par le fournisseur.

    · Fin du cycle de vie du support ou fin de vie prévue de la mise en oeuvre (si spécifié par le fournisseur).

    · L'impact de la migration sur la propriété intellectuelle.

    · Sensibilité des informations protégées.

    Après avoir choisi un algorithme alternatif, il existe des considérations opérationnelles supplémentaires qui peuvent accélérer l'adoption et la mise en oeuvre dans l'entreprise :

    · Développer une approche basée sur les risques qui prend en compte les exigences de sécurité, les opérations commerciales et l'impact de la mission.

    · Développer des outils de vérification pour la mise en oeuvre.

    · Identifier les situations où une mise en oeuvre provisoire (par exemple, hybride) est nécessaire pour maintenir l'interopérabilité pendant la migration.

    · Mettre à jour les processus et procédures du développeur, du service chargé de l'implémentation et de l'utilisateur.

    · Créer un plan de communication qui sera utilisé au sein de l'organisation.

    · Considérer l'impact sur les clients et partenaires externes.

    · Identifier le calendrier de migration et les ressources nécessaires.

    · Mettez à jour ou remplacez les normes, procédures et meilleures pratiques en matière de sécurité.

    · Établir les conditions d'approvisionnement pour acquérir la technologie Quantum Safe.

    · Fournir une documentation sur l'installation, la configuration et la gestion.

    · Tester et valider les nouveaux processus et procédures.

    54

    Le NIST recommande vivement aux entreprises de se préparer dès maintenant à la transition en suivant une feuille de route pour la cryptographie post-quantique, qui comprend les éléments suivants :

    · Inventorier les systèmes de l'organisation pour les applications qui utilisent le chiffrement à clé publique.

    · Tester la nouvelle norme de cryptographie post-quantique dans le cadre d'un POC. Les organisations devraient attendre la publication officielle pour mettre en oeuvre la nouvelle norme dans un environnement de production.

    · Élaborer un plan de migration des systèmes de l'organisation vers une nouvelle norme de cryptage, notamment :

    o Effectuer une analyse d'interdépendance pour identifier les problèmes qui peuvent affecter l'ordre de transition des systèmes.

    o Décommissionner les anciennes technologies qui ne seront plus prises en charge après la publication de la nouvelle norme.

    o S'assurer que les produits qui adoptent la nouvelle norme soient validés et testés

    · Créer des stratégies de collecte pour la cryptographie post-quantique. Ce processus devrait inclure :

    o Établir de nouveaux niveaux de service pour la transition.

    o Enquêtes auprès des fournisseurs pour déterminer l'intégration possible dans la feuille de route de votre entreprise et pour identifier les technologies habilitantes nécessaires.

    · Informer le service informatique de votre entreprise et les fournisseurs de la transition à venir.

    · Former les employés et fournir une formation adéquate.

    Il est urgent de commencer à préparer une migration en douceur vers la PQC (cryptographie post-quantique), comme le recommande le NIST, mais également de disposer d'une expertise substantielle en cryptographie, du matériel au logiciel en passant par la co-conception matériel/logiciel, pour être en mesure d'examiner, d'analyser et d'évaluer les architectures de sécurité/chiffrement existantes d'une organisation, tant au niveau du logiciel que du matériel. En outre, toute exigence réglementaire à respecter pour protéger les données sensibles doit être incluse dans l'analyse.

    En fonction des résultats, il est possible d'élaborer une stratégie spécifique de lutte contre les menaces quantiques adaptée à chaque organisation, qui comprendra une feuille de route pour la cryptographie post-quantique. Ensuite, un ensemble approprié de solutions Crypto-Agile qui permettent une

    55

    transition rapide et en douceur vers la prochaine norme de cryptographie post-quantique, le tout en maintenant l'interopérabilité et la rétrocompatibilité sans compromettre la sécurité.

    Les mots de passe et les systèmes de cryptages en danger

    Malgré ses faiblesses apparentes, l'authentification par mot de passe est encore largement utilisée. L'utilisateur moyen peut avoir des centaines de comptes en ligne protégés par des mots de passe qui nécessitent un mot de passe pour décrypter et démarrer un ordinateur ou accéder à des réseaux Wi-Fi ou encore VPN.

    Les raisons pour lesquelles les utilisateurs continuent d'utiliser des mots de passe sont notamment pour leur intuitivité et leur facilité d'utilisation, ainsi que l'écosystème" des stratégies d'adaptation (telles que la réutilisation des mots de passe et le choix de mots de passe aux motifs prévisibles pour contourner les restrictions liées aux mots de passe).

    Le hachage des mots de passe est un élément essentiel de la sécurisation des mots de passe. Pour les mots de passe stockés dans une base de données ou chiffrés sur un disque, il est préférable d'utiliser les fonctions de hachage suivantes :

    · Le salage : Le salage est une donnée aléatoire utilisée comme entrée supplémentaire dans une fonction à sens unique qui permet de hacher des données, des mots de passe ou des phrases de passe. Le sel est utilisé pour protéger les mots de passe en mémoire. Auparavant, seul le hachage crypté du mot de passe était stocké sur le système, mais des mesures de protection supplémentaires ont été développées pour empêcher l'identification des mots de passe dupliqués ou partagés.

    · L'itération : Au lieu d'utiliser une seule fonction de hachage sur par exemple un mot de passe, il est possible d'hacher ce même mot de passe à de multiples reprises, ce qui permet de faire perdre du temps à l'attaquant, s'il utilise une méthode de force brute car ce dernier devra outrepasser plusieurs couches de hachage.

    · chiffrement dur en mémoire (MHF) : Il s'agit d'une fonction qui sollicite une quantité importante de mémoire vive, ce qui demande à l'attaquant de disposer de beaucoup de ressources matérielles s'il souhaite outrepasser cette fonction de hachage.

    Avec l'informatique quantique, de nombreuses primitives cryptographiques sont à haut risque. En particulier, la cryptographie à clé publique populaire d'aujourd'hui, basée sur des problèmes de factorisation ou de logarithme discret, comme le cryptosystème RSA, peut être craquée par l'algorithme de Shor. La situation est différente avec la cryptographie symétrique.

    56

    Les ordinateurs quantiques peuvent trouver des prototypes de mots de passe hachés plus rapidement que les ordinateurs conventionnels. Les progrès des technologies informatiques classiques et quantiques ont rendu nécessaire une cryptographie plus forte.

    La première transition d'un cryptage plus faible à un cryptage plus fort était basée sur un paradigme de bits sécurisés qui mesurait la sécurité d'un algorithme en termes de complexité temporelle d'une attaque utilisant un ordinateur classique. Malheureusement, le paradigme des bits sécurisés ne tient pas compte de la sécurité des algorithmes et de la cryptanalyse quantique, il n'est donc pas suffisant pour guider notre transition vers une cryptographie performante contre les technologies quantiques. Il n'existe toujours pas de consensus sur les longueurs de clé qui offrent un niveau acceptable de sécurité contre les attaques quantiques.

    Alternatives non-quantiques pour se protéger

    Les utilisateurs qui ne veulent pas entamer une migration vers des systèmes post-quantiques avant la standardisation officielle du NIST, mais qui sont préoccupés par la confidentialité à long terme de leurs données transmises peuvent protéger leurs systèmes en incluant des données secrètes partagées dans la dérivation de la clé en plus de la clé publique « Retains » en plus du matériel de clé obtenu par l'opération. Cela se fait au prix de la sauvegarde des données partagées par paire, et ne convient donc qu'aux systèmes de maintien d'état avec un nombre limité de pairs.

    Le protocole ZRTP (Zimmermann Real-time Transport Protocol)

    ZRTP est un protocole d'accord de clé de chiffrement utilisé pour négocier les clés de chiffrement entre deux points d'extrémité dans un appel téléphonique VoIP basé sur le Real-Time Transport Protocol. Il est chiffré à l'aide de l'échange de clés Diffie-Hellman et du protocole SRTP (Secure Real-Time Transport Protocol).

    Le ZRTP utilise trois phases pour négocier et définir la clé maîtresse SRTP et passer en mode SRTP.

    · Dans la première phase, les deux pairs ZRTP échangent des informations sur leurs algorithmes cryptographiques symétriques pris en charge, leurs algorithmes d'accord de clé et leurs modes d'authentification.

    · Dans la phase suivante, les pairs génèrent leurs valeurs Diffie-Hellman et échangent la partie publique de la paire de clés Diffie-Hellman. Le ZRTP exige qu'une nouvelle paire de clés Diffie-Hellman soit générée pour chaque session.

    En plus de ces valeurs, les pairs peuvent échanger des secrets supplémentaires tels que des secrets e (selon l'implémentation du programme de communication). ZRTP prend tous les secrets disponibles et

    57

    les combine de manière astucieuse pour générer et dériver la clé maîtresse SRTP. La combinaison de plusieurs dates clés rend difficile pour un attaquant de deviner ces valeurs.

    Le protocole ZRTP comprend un mécanisme appelé "continuité de la clé" comme mesure contre les attaques de l'homme du milieu (MITM). Le protocole ne mentionne pas la sécurité contre un adversaire quantique comme motivation, mais il s'agit de la première description de cette idée à notre connaissance. Il va également plus loin que les autres protocoles dans la mise à jour des données secrètes partagées.

    Législation européenne relative à L'IA

    En avril 2021, la Commission européenne propose un nouveau cadre juridique pour réguler l'utilisation de l'intelligence artificielle. La Commission européenne propose une définition technologiquement neutre des systèmes d'IA dans la législation européenne et une classification personnalisée pour les systèmes d'IA avec différentes exigences et obligations sur l'approche fondée sur le risque, l'AI Act.

    AI Act

    La législation européenne sur l'IA (AI Act) présentée par la Commission européenne, établit des règles pour le développement, la commercialisation et l'utilisation de produits, services et systèmes basés sur l'IA au sein de l'Union Européenne. Cette dernière introduit un "cadre de sécurité des produits" articulé autour d'un ensemble de quatre catégories de risques (Minimum, limité, élevé, inacceptable).

    Elle fixe des exigences en matière d'accès au marché et de certification pour les systèmes d'IA à haut risque par le biais du processus obligatoire de marquage CE. Pour garantir des résultats équitables, ce régime de conformité préalable à la mise sur le marché s'applique également aux ensembles de données de formation, de test et de validation de l'apprentissage automatique. La loi vise à systématiser les normes élevées du paradigme de l'IA crédible de l'UE. Ce paradigme exige que l'IA soit juridiquement, éthiquement et techniquement robuste, tout en respectant les valeurs de la démocratie, des droits de l'homme et de l'État de droit.

    Le projet de loi sur l'intelligence artificielle combine une approche fondée sur le risque avec un mécanisme d'application moderne et à plusieurs niveaux. Cela signifie notamment que les applications d'IA pour lesquelles le risque est négligeable seront soumises à des restrictions légales plus douces et que les applications présentant un risque inacceptable seront interdites. Entre ces deux extrêmes, des réglementations plus strictes s'appliquent à mesure que le risque augmente. Celles-ci vont des évaluations d'impact d'autorégulation non contraignantes de type "soft law", assorties d'un code de conduite, à des exigences strictes de conformité à des audits externes tout au long du cycle de vie des applications.

    58

    La Commission propose un cadre juridique pour l'intelligence artificielle aux fins spécifiques suivantes

    · S'assurer que les systèmes d'IA déployés et utilisés sur le marché de l'union sont sûrs et respectent les lois applicables en matière de droits fondamentaux et de valeurs de l'union.

    · Garantir la sécurité juridique pour stimuler les investissements dans l'IA et l'innovation.

    · Améliorer la gouvernance des droits fondamentaux et des exigences de sécurité pour les systèmes d'IA et l'application effective de la législation existante.

    · Faciliter le développement d'un marché unique pour les applications d'IA légitimes, sûres et fiables et éviter la fragmentation du marché.

    Projet RISQ. La France se place comme un acteur imposant

    En France, il y a un haut niveau d'intérêt académique pour ce sujet. Pour cette raison, la communauté française est activement impliquée dans la conception et l'analyse de sécurité des primitives, ainsi que dans leur cryptanalyse.

    Le projet RISQ est applicable à tous les domaines techniques qui utilisent des méthodes de cryptage. Des initiatives (développement de standards, prototypage) en prévision de cette évolution technologique ont été observées dans d'autres pays.

    Les résultats du projet comprendront une gamme complète de produits pour le cryptage et la signature de transactions, ainsi que la personnalisation du protocole TLS.

    Les solutions matérielles et logicielles de chiffrement qui répondent à ces contraintes de sécurité et d'intégration embarquée seront également incluses.

    En outre, des documents ont été produits pour guider l'industrie dans l'intégration de ces technologies post-quantiques dans des systèmes complexes (marchés de la défense, du cloud, de l'identité et des paiements), ainsi que des rapports sur les activités des comités de normalisation.

    Le Grand Défi Numérique RISQ vise à faire de la France un acteur international majeur de la transformation post-quantique. L'un des objectifs du RISQ est de renforcer la présence de l'industrie française de la sécurité numérique dans les instances de normalisation en réorganisant des acteurs nationaux mondialement reconnus. Le consortium regroupe des grands groupes industriels, des PME et des entreprises de taille intermédiaire, des agences gouvernementales et des laboratoires académiques afin de coordonner leurs actions sur les propositions de normes et les évaluations des candidats.

    Le projet définit également une feuille de route pour la commercialisation d'une ligne de produits sécurisés post-quantique - bibliothèques logicielles et matérielles pour le calcul cryptographique,

    59

    serveurs d'archivage et d'horodatage - depuis la conception de briques théoriques dans des laboratoires collaboratifs jusqu'au développement et à la validation de démonstrateurs . La présence de grands groupes au sein du consortium garantit l'adaptabilité des solutions développées aux systèmes actuellement utilisés.

    60

    Conclusion

    L'avènement de l'informatique quantique pourra permettre d'une part d'améliorer les performances de nos appareils, applications ou encore sites internet grâce à l'implémentation d'algorithmes quantiques en leur sein permettant de démultiplier la vitesse de calcul et de compilation des données traitées, et d'autre part de renforcer leur sécurité via l'implémentation d'algorithmes quantiques, qui se veulent plus durs à casser.

    De nombreux domaines pourront bénéficier de ces évolutions, notamment l'informatique, la médecine, la finance ou encore l'automobile.

    Les algorithmes ne sont pas les seuls axes de progrès quantique, le matériel compatible avec ces derniers doit également être développé afin de permettre à ces algorithmes de pleinement fonctionner.

    Une telle évolution présente cependant des risques majeurs. Bien que les algorithmes quantiques puissent permettre d'assurer plus efficacement la protection de nos données que les algorithmes couramment utilisés aujourd'hui, nous pouvons imaginer des attaques informatiques embarquant du quantique verrons le jour, et ces dernières pourront potentiellement venir à bout de ces nouveaux standards. La transition vers le tout-quantique prendra du temps, notamment au sein des entreprises, qui seront les premières entités exposées à ce risque.

    Les pays ayant à disposition des technologies quantiques auront inévitablement le dessus sur ceux qui n'en jouissent pas. Une fracture pourra se créer et cette dernière pourrait attiser des tensions et déclencher des conflits internationaux.

    L'Europe, et notamment le France, ont bien compris les enjeux et s'attèlent actuellement à développer leur autonomie quantique en allouant un budget conséquent à la recherche, la formation et le développement d'infrastructures adaptées. L'Europe agit comme un bloc soudé qui travaille en coopération afin d'évoluer le plus rapidement possible.

    Les États-Unis ainsi que la Chine sont deux autres sérieux acteurs qui investissent de grandes sommes d'argent afin de parvenir à cette autonomie, voire suprématie quantique.

    Un cadre légal doit également être défini, afin d'encadrer la production, l'utilisation et l'implémentation de ces technologies.

    61

    Bibliographie commentée

    Ouvrages

    « Gribbin, John, Christelle Rollinat, et Flammarion. Le chat de Schrödinger: physique quantique et réalité. Paris: Flammarion, 2010. »

    Cet ouvrage constitue une introduction à la mécanique quantique. L'auteur nous expose les célèbres théories quantiques du XXème siècle de , d'une manière objective, neutre et chronologique. Cet ouvrage, bien que légèrement technique si l'on se trouve être un novice, aborde de manière simplifiée la mécanique quantique, notamment les connaissances qui étaient admises au 19ème et 20ème siècle concernant le fonctionnement des atomes (électrons protons), ainsi que la projection et la réception des rayons lumineux. Il y est principalement développé l'expérience imaginaire du chat de Schrödinger, élaborée par le physicien allemand Erwin Schrödinger, qui avait pour but de répondre à l'interprétation de Copenhague, également développée dans cet ouvrage. L'auteur nous présente également le paradoxe EPR, qui a amené à l'élaboration des Etats de Bell, puis aux travaux de recherche du physicien français Alain Aspect.

    « Ezratty, Olivier. « Comprendre l'informatique quantique », s. d. Edition 2020 »

    L'auteur aborde la question de l'informatique quantique d'une manière bien plus généraliste. Il met en avant le travail de recherche de nombreuses entreprises, que ce soit les géants de l'informatique, mais également les PME et les startups. Le rapport avec la chimie est également abordé, notamment en nous exposant la théorie de la mécanique quantique relativiste de Paul Dirac. Ce livre n'est pas facilement accessible, des connaissances en mathématiques, notamment en algèbre, seront d'une grande aide lors de la lecture, mais aussi en physique et en chimie. L'auteur aborde un très grand nombre de sujet (cryogénie, métrologie, MBQC, polaritons, domotique science-fiction, philosophie...). La question de l'écologie est également soulevée.

    Cet ouvrage se veut technique et informatif. Il aborde un grand nombre de domaines susceptibles d'être impactés par l'avènement de l'informatique quantique. Un grand nombre de schémas est cependant introduit afin d'aider à la compréhension, et de permettre de visualiser plus facilement certains phénomènes

    « Gisin Nicolas, « L'impensable Hasard », 2012 »

    Ouvrage rédigé par Gisin Nicolas, Physicien Théoricien. Le phénomène de téléportation quantique y est beaucoup abordé, notamment le principe de non-localité, et de ses applications en termes de cryptographie. Le principe d'intrication quantique est également abordé, ainsi que la manière dont la

    62

    physique quantique, de manière générale, défie notre perception de la réalité, au point de la remettre en question et de nous pousser à sortir des sentiers battus de nos connaissances et certitudes.

    Ce livre cherche à apporter au lecteur une réelle compréhension des sujets abordés, de par l'approche « vulgarisante » des concepts présentés. Il est donc aisé de lire cet ouvrage, même pour un néophyte. En effet, cet ouvrage m'a permis de m'introduire au concept de téléportation quantique, tout en m'aidant à pousser mes connaissances théoriques sur la cryptologie quantique.

    Cette oeuvre m'a été pour moi la plus importante des 3 ; la préface réalisée par Alain Aspect rend cet ouvrage incontournable, de par la crédibilité qu'il inspire.

    Articles scientifiques

    « NICT - Quantum Network White Paper, Avril 2021 »

    Le NICT « National Institute of Information and Communications Technology » présente les travaux que l'institut prévoit de réaliser en termes de réseaux quantiques jusqu'en 2035.

    Un constat des lacunes en termes de cryptographie y est exposé, ainsi que le besoin toujours grandissant de la population mondiale en matière d'électronique, et part extension d'Internet.

    Une prédiction de ce que pourrait apporter les réseaux quantiques est faite tout au long de l'article, dans les domaines de la médecine, la finance, l'administration, l'aéronautique, la vie de tous les jours....

    Les usages gouvernementaux, professionnels et personnels sont abordés de manière séparée, ce qui aide à délimiter la portée que pourrait avoir ces nouvelles technologies

    Cet article se veut objectif et réaliste, cet article constitue un programme de ce que souhaite accomplir l'institut jusqu'en 2035.

    La recherche sur la distribution des clés quantiques (QKD) est beaucoup abordée, car elle constitue la technologie à apprivoiser afin de permettre la mise en place de la cryptographie quantique appliquée à l'échelle mondiale

    «Schoute, Eddie, Laura Mancinska, Tanvirul Islam, Iordanis Kerenidis, et Stephanie Wehner. « Shortcuts to Quantum Network Routing ». ArXiv:1610.05238 [Quant-Ph], 17 octobre 2016. »

    Cet article se veut être une introduction aux réseaux quantiques. Il est abordé les protocoles de routage quantiques, les corrections d'erreurs, les canaux et noeuds quantiques l'application de l'intrication quantique dans le domaine des réseaux, et surtout la nation de VQL (Virtual Quantum Link). Des schémas explicatifs nous aident à la compréhension, bien que des connaissances en mathématiques seront appréciables, voire indispensables afin de pouvoir exploiter l'intégralité de l'article.

    63

    Il est présenté de véritables mises en applications de protocoles de routage quantique et leurs graphiques. Cet article traite de l'actuel et ne se projette pas dans le futur. Il expose nos connaissances déjà acquises, à la manière d'un tutoriel. Des comparatifs avec nos réseaux classiques sont également démontrés afin de comprendre la véritable puissance des technologies quantiques.

    Cet article permet une réelle mise en situation, de par le caractère actuel des techniques et concepts démontrés. Nous ne sommes pas dans une simulation du futur, mais dans l'application actuelle de ces concepts.

    «Caleffi, Marcello. « Optimal Routing for Quantum Networks ». IEEE Access 5 (2017) »

    Cet article rédigé par Caleffi Marcello, professeur d'électronique, nous propose une démonstration mathématique des protocoles de routages. Les réseaux quantiques sont abordés ; des techniques de routage quantiques sont présentées, l'application de l'intrication quantique nous est également soumise. Une grande partie de l'article est consacrée au déplacement de l'information au sein d'un réseau quantique, de par l'analyse du déplacement des qubits au sein du réseau, le maintien de l'intrication malgré les perturbations rencontrées lors du cheminement. Des graphiques et théories d'optimisation des protocoles de routages nous sont également proposés.

    Cet article pose certaines questions, et y répond par le biais d'explications accompagnées de schémas. Des théorèmes sont annotés et prouvés. Des connaissances en mathématiques seront appréciées afin de comprendre et exploiter l'intégralité de l'article.

    La thématique portée sur les mathématiques est intéressante, cela permet une plus grande précision dans notre analyse, ainsi qu'une facilité à rédiger des prédictions et algorithmes justes, fiables et réalisables.

    «Alexeev, Yuri, Dave Bacon, Kenneth R. Brown, Robert Calderbank, Lincoln D. Carr, Frederic T. Chong, Brian DeMarco, et al. « Quantum Computer Systems for Scientific Discovery ». PRX Quantum 2, no 1 (24 Février 2021)»

    Cet article décrit le développement des ordinateurs quantiques, ainsi que leur potentielle application dans la vie de tous les jours, en analysant le besoin immédiat et futur (10 ans).

    Il est abordé le besoin matériel des ordinateurs quantiques, mais aussi le besoin logiciel. Les périphériques externes, comme la borne wifi, sont également traités.

    La virtualisation de qubits constitue une place importante du travail de recherche. Les problèmes récurrents que peuvent rencontrés un ordinateur quantique, comme le bruit, la nécessité d'utiliser des algorithmes quantiques, ou encore les besoins d'adaptation thermique sont pointés, cependant, des idées de résolution sont proposées.

    64

    Une approche « DevOps » est soumise. Le développement des technologies quantiques ainsi que leur application demandent des connaissances de tous les domaines de l'informatique ; du développement en passant par le réseau, sans compter évidemment la contribution des connaissances en mathématique et physique. Des frameworks mathématiques sont également proposés et étudiés

    « Bassman, Lindsay, Miroslav Urbanek, Mekena Metcalf, Jonathan Carter, Alexander F. Kemper, et Wibe de Jong. « Simulating Quantum Materials with Digital Quantum Computers ». ArXiv:2101.08836 [Quant-Ph], 1 février 2021. »

    Cet article se concentre sur le côté matériel des ordinateurs quantiques (super conducteurs, matériel magnétique). Comment faire pour permettre aux algorithmes quantiques de fonctionner, ainsi qu'au qubits de voyager au sein d'un ordinateur quantique ? Il est abordé les différents aspects d'un qubit, notamment sa composition moléculaire, ses états, et ses interactions avec le reste du système quantique. Une comparaison des différents aspects, démontrant les avantages et inconvénients de chaque particularité est proposée.

    Revues

    «Sectigo® Official. « Quantum Cryptography & Encryption: What It Is & How It Works » 2021. https://sectigo.com/resource-library/quantum-cryptography. »

    Cet article propose une introduction à la cryptographie quantique. Il y est abordé le principe de distribution de clé quantique (QKD), de certificats quantiques et la gestion de ces derniers au sein d'une entreprise. Il est également expliqué la raison pour laquelle la cryptographie quantique constitue un enjeu majeur pour les entreprises

    Il est intéressant de se positionner dans une démarche d'évolution. Les systèmes de cryptographies quantique promettent une sécurisation des données accrue, mais le hacking quantique apparaitra très certainement. Des lors, les systèmes non-quantiques seront happés par la toute puissance de calcul des algorithmes de déchiffrage quantique

    « La recherche française au coeur du Plan Quantique | CNRS ». https://www.cnrs.fr/fr/cnrsinfo/la-recherche-francaise-au-coeur-du-plan-quantique. »

    Cet article démontre la volonté française de participer à la course aux technologies quantiques, afin d'assurer une indépendance en matière de technologies quantique.

    Il est important de se constituer une place probante dans ce domaine ; Le quantique est une technologie d'avenir qui est importante de maitriser, de nombreux enjeux technologiques et monétaires apparaitront.

    65

    Il est également démontré que la France n'est pas la seule nation mondiale, et même européenne, à vouloir assoir sa place. Une compétition est lancée, malgré le fait que des alliances seront possibles.

    « designboom | architecture & design magazine. « NASA Scientists Achieve Long-Distance «Quantum Teleportation» », 22 décembre 2020. https://www.designboom.com/technology/nasa-long-distance-quantum-teleportation-12-22-2020/. »

    Cet article est une news. La NASA a réussi à achever une téléportation quantique à longue distance (sur 44kms).

    Une telle prouesse permet de valider des théories et concepts quantiques, et donnent de l'espoir à la généralisation de ce type de phénomène au sein de notre société.

    Une brève introduction au principe de la téléportation quantique y est faite, ainsi qu'une mise en avant de cette dernière.

    Cette prouesse constitue une étape dans le développement de technologies et réseaux quantiques. Une première expérience fonctionnelle ouvre des portes sur la recherche et l'amélioration du savoir-faire

    « L, +Bastien. « Informatique quantique : tout savoir sur la révolution Quantum Computing ». LeBigData.fr (blog), 7 décembre 2020. https://www.lebigdata.fr/informatique-quantique-big-data. »

    Cet article est une brève introduction à l'informatique quantique. Une fusion de cette dernière avec le Big Data est faite, démontrant les impacts et évolutions possibles dans le domaine de l'IA, notamment la modélisation chimique.

    Il est également mis en évidence la supériorité des ordinateurs quantiques face aux supercalculateurs actuels.

    La course au quantique entre les Etats-Unis et la Chine est également abordée. Il nous ait démontré les ambitions des deux nations, en nous précisant que la Chine rattrape son retard.

    Ce type d'article, bien que peu technique, nous renseigne sur l'actualité et nous aide à nous positionner sur l'existant. Il m'a été utile de disposer de bases concrètes lors de ma rédaction

    « IEEE Approves Standards Project for Quantum Computing Definitions ».

    https://standards.ieee.org/news/2017/ieee p7130.html.

    66

    La normalisation des technologies quantiques constitue également un enjeu. Cet article présente les normes à respecter dans le cadre des projets quantiques

    Bien qu'étant une association, « L'IEEE Standards Association (Institute of Electrical and Electronics Engineers) » assure historiquement l'application de normes. Le périmètre juridique de l'informatique quantique reste encore à définir, afin d'assurer la protection des usagers, en matière de protection des données, du droit d'auteur.

    «IBM Research Blog. « IBM's Roadmap For Scaling Quantum Technology », 15 Septembre 2020. https://www.ibm.com/blogs/research/2020/09/ibm-quantum-roadmap/. »

    Le géant américain IBM entend bien se faire une place dans la course au quantique. L'entreprise est considérée comme un pionnier des technologies quantiques, de part leur investissement financier et humains dans la recherche quantique depuis maintenant 20 ans.

    IBM a publié une feuille de route, démontrant leurs intentions de production, et surtout d'intégration de nombre de qubit dans un ordinateur quantique. Une prédiction jusqu'en 2023 est faite de manière précise, mais une estimation des besoins futurs est tout de même faite.

    L'article fait état de l'existant, précisant que la technologie doit évoluer pour pouvoir atteindre leur objectif

    «Microsoft Opens up Its Azure Quantum Platform for Public Preview» Feb 16, 2021» https://www.infoq.com/news/2021/02/azure-quantum-preview/

    Le Cloud Computing est également un secteur visé par l'informatique quantique. Microsoft a rendu publique sa plateforme de Cloud Computing, permettant d'exploiter leurs librairies applicatives, mais également un langage de programmation « Q# » permettant de rédiger des algorithmes quantiques.

    Il est intéressant de multiplier les cas d'usages de l'informatique quantique, afin de mieux se rendre compte des possibilités offertes

    67






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Ceux qui rêvent de jour ont conscience de bien des choses qui échappent à ceux qui rêvent de nuit"   Edgar Allan Poe