Catégorie : Physique quantique

  • Ils utilisent la lumière pour faire du calcul quantique

    Un nouvel entretien autour de l’informatique.

    Pascale Senellart est physicienne, directrice de recherche au Laboratoire de photonique et nanostructures du CNRS de l’Université Paris-Saclay, professeure chargée de cours à l’École polytechnique. Ses travaux se concentrent sur les interactions lumière-matière avec des boîtes quantiques semi-conductrices dans des cavités optiques. Elle a reçu la médaille d’argent du CNRS (en 2014) parmi de nombreuses distinctions scientifiques. 

    En 2017, Pascale a cofondé avec Valérian Giesz et Niccolo Somaschi la startup Quandela, d’abord pour commercialiser une source de photons uniques s’appuyant sur ses travaux de recherche au C2N, puis pour développer un ordinateur quantique à base de photons. 

    Jean Senellart est informaticien, pionnier de la traduction automatique. Il a longtemps dirigé la R&D de Systran. Sous son impulsion, Systran a construit un des premiers moteurs de traduction basés sur un réseau de neurones et le framework opensource OpenNMT. Il a rejoint Quandela pour contribuer à son logiciel quantique.

    Jean et Pascale Senellart, Crédit : Rebecca Rowe

     

    Binaire : Pouvez-vous nous raconter votre parcours ?

    Pascale Senellart : je suis directrice de recherche au CNRS, au centre de nanosciences et de nanotechnologies depuis 2002. Physicienne des semi-conducteurs, mon objectif était de reproduire dans ces matériaux des expériences fondamentales de la physique théorique. Cela avait été fait par Serge Haroche et d’autres avec des atomes, et je voulais le faire avec des outils de microélectronique. Il s’agit de développements technologiques basés sur l’étude des même matériaux que ceux étudiés pour réaliser de nombreux composants comme les pointeurs lasers. Mon équipe a ainsi développé de petits composants semi-conducteurs similaires à des LED, mais qui sont des composants émettant des photons un par un. 

    Vers 2013, j’ai commencé à être contactée par des personnes souhaitant construire des ordinateurs quantiques. La technologie de mon équipe, bien qu’imparfaite, était dix fois plus efficace que ce dont ils disposaient. Idéalement, pour obtenir un photon, il devrait suffire d’appuyer sur un bouton ; l’efficacité de leurs outils était de 1 photon pour 100 essais ; nous en sommes maintenant à 60 photons pour 100.

     

    Pour coder de l’information, on peut utiliser la polarisation du photon (suivant le sens de son champ électrique) ou sa couleur (par exemple bleue ou rouge) ou sa direction (suivant qu’il aille à droite ou à gauche). C’est donc un bit d’information. Mais on peut faire mieux en utilisant le fait qu’une particule peut être en deux endroits en même temps. Par exemple, le photon peut aller à la fois à droite et à gauche. C’est à la base du bit d’information quantique, appelé qubit.

    Vers 2016, nous disposions de composants qui intéressaient énormément, en particulier, les laboratoires universitaires. En 2017, nous avons créé une startup, Quandela, pour les commercialiser. Au début, nos clients appartenaient au monde académique ; puis avec le boom international sur le quantique, nous avons eu comme clients des startups. Un spécialiste de l’algorithmique quantique, Shane Mansfield a rejoint l’aventure en 2020 pour porter aussi l’effort dans la direction de l’ordinateur quantique. Il y avait un gouffre entre le monde des algorithmes quantiques, des composants semiconducteurs et celui de l’informatique traditionnelle. L’arrivée de Jean en 2022 a permis de faire un pont entre ces trois mondes.

    Jean Senellart : J’ai fait une thèse en informatique linguistique avec Maurice Gross au LADL (Laboratoire d’Automatique Documentaire et Linguistique). Je travaillais sur les aspects formels, puis j’ai fait de la traduction automatique et du développement logiciel industriel. Chez Systran, nous avons utilisé l’intelligence artificielle pour le traitement de la langue naturelle, et développé les premiers traducteurs automatiques basés sur des réseaux de neurones. Ensuite, nous avons même mis des transformers (une architecture d’apprentissage profond introduite par Google) en open source. Le domaine de la traduction automatique a beaucoup progressé, et il est aujourd’hui plutôt dans une phase de perfectionnement. C’est ce qui m’a poussé à chercher de nouveaux défis. L’informatique quantique m’est apparue comme un domaine prometteur où mes compétences en algorithmique et en traitement de données complexes pouvaient être valorisées d’une nouvelle manière. C’est ainsi que j’ai décidé de rejoindre le projet de Quandela de construire et de contrôler un ordinateur quantique.

    Binaire : Qu’est-ce qu’un ordinateur quantique ? Qu’est-ce que ça pourrait changer ?

    PS : L’ordinateur classique repose notamment sur des composants comme des transistors, qui exploitent déjà des propriétés de la physique quantique. Mais l’ordinateur quantique utilise un concept beaucoup plus puissant et fragile, à savoir, la « superposition quantique » : un photon peut être à droite et à gauche en même temps. Mais, dès que je fais une mesure, le photon est soit à droite soit à gauche, de manière aléatoire, avec la même probabilité alors qu’il était, avant la mesure, aux deux endroits en superposition. Et puis, un autre phénomène est essentiel : « l’intrication ». Si on lance deux pièces de monnaie en l’air, elles tombent chacune sur pile ou face ; en quantique, on peut créer un état intriqué des deux pièces ; elles tomberont toujours de manière aléatoire, mais toutes les deux sur pile, ou toutes les deux sur face et même toutes les deux sur la tranche mais exactement de la même façon. Deux photons, peut-être distants l’un de l’autre, peuvent ainsi être intriqués.

    Grâce à la superposition et l’intrication, la physique quantique permet ainsi d’explorer plusieurs possibilités en même temps. Supposons que l’on cherche la sortie d’un labyrinthe. Quand on trouve un branchement, on peut explorer la branche de gauche puis l’autre. On pourrait trouver la sortie beaucoup plus vite si on explorait les deux en même temps. Du point de vue de l’information, on arrive à coder avec n particules une information qui correspondrait à un nombre exponentiel en n de bits.

    Je travaille sur le hardware et la vraie difficulté à laquelle nous sommes confrontés est de garder les propriétés de superposition et d’intrication. Pour poursuivre avec l’analogie du labyrinthe, si je demande à l’explorateur du labyrinthe où il est, je perds la superposition et donc tout l’avantage apporté par le calcul quantique. Je fais donc en sorte de ne pas lui demander directement, mais si par exemple des cailloux se trouvent dans le labyrinthe et font trébucher l’explorateur, ces cailloux ont en quelque sorte « interrogé » l’explorateur et feront qu’il ne sera plus dans un état superposé mais uniquement à cet endroit du chemin. Ce phénomène illustre ce qu’on appelle la « décohérence » qui va être source d’erreur dans le calcul quantique. Cet exemple montre aussi que quand on veut programmer avec le quantique, on est conduit à penser différemment, à concevoir d’autres algorithmes – car on ne peut pas interroger le système en cours de calcul comme on le fait couramment avec un ordinateur classique. C’est un vrai défi. 

    Binaire : Comment programme-t-on un ordinateur quantique ?

    JS : Il vaut mieux ne pas être physicien [rire]. Il faut voir l’ordinateur quantique comme un moyen nouveau d’accélérer les calculs. Sur le plan théorique, on dispose de qubits (avec la superposition et l’intrication) qu’on doit pouvoir initialiser (créer des superpositions) et faire des opérations logiques (fabriquer l’intrication) et mesurer. Di Vincenzo d’IBM a ainsi défini les calculateurs quantiques. La première difficulté est de programmer le système physique qui permet de réaliser tout cela au travers de différentes couches logicielles.

    En utilisant le photon pour fabriquer un ordinateur quantique, on va pouvoir utiliser les outils de la photonique intégrée pour créer la superposition et l’intrication. On va par exemple utiliser des puces où des guides d’onde qui dirigent les photons dans différentes directions. En changeant localement la température, on peut modifier l’indice de propagation de la lumière dans le verre et programmer la superposition de la particule qui passe à cet endroit-là. En montant en niveau, on va faire en sorte que deux photons se croisent sur la puce à divers endroits pour créer l’intrication. À un niveau supérieur, on utilise cette intrication pour réaliser des analogues quantiques des portes logiques qu’on trouve dans les ordinateurs classiques. Au-dessus de ce niveau, on implémente des algorithmes comme l’algorithme de Shor qui permet, avec un ordinateur quantique très sophistiqué, de décomposer un nombre en facteurs premiers.

    Nous avons mis en place un petit ordinateur sur le cloud, avec 10 qubits aujourd’hui. Si nous arrivions à une centaine de qubits, nous pourrions réaliser des calculs actuellement plus vite que les supercalculateurs. Il nous manque donc juste un ordre de grandeur. Mais il ne faut pas sous-estimer la difficulté de passer de 10 à une centaine. Il ne suffit pas d’ajouter des qubits comme on rajoute des processeurs, il faut aussi être capable de les intriquer et ne pas ajouter de la décohérence quand on ajoute des qubits.

    Avec quelques qubits, nous avons déjà réalisé de l’apprentissage machine (machine learning) quantique, ou calculé le niveau d’énergie de l’hydrogène avec une précision chimique. Ainsi, nous avons également classifié des images d’iris avec seulement 3 qubits. Le fait qu’avec 3 qubits nous puissions réaliser l’équivalent de ce que nous ferions avec un petit réseau d’une centaine de neurones classiques montre la puissance du calcul quantique en termes de complexité.

    Binaire : Le but est de réaliser des calculs encore hors de notre portée. Et, y a-t-il d’autres possibilités pour le calcul quantique ?

    PS : Oui, l’objectif est de réaliser des calculs qui ne sont pas accessibles aux ordinateurs classiques actuels. Un autre apport de l’ordinateur quantique pourrait être une consommation d’énergie moindre. En effet, on atteint des limites des ordinateurs classiques non seulement du fait de la taille des transistors qu’on ne peut plus réduire, mais aussi par leur production de chaleur. La dissipation de cette chaleur est un obstacle majeur pour aller vers plus de puissance de calcul. D’un point de vue fondamental, ce n’est pas le cas pour le calcul quantique, qui ne génère pas de chaleur au niveau le plus bas. Alors, il est vrai qu’aujourd’hui, on ne connaît pas de technologie de calcul quantique qui effectue des calculs à température ambiante. Pour générer nos photons, nous travaillons à 4 Kelvin, et cela demande de l’énergie pour faire descendre à cette température notre machine. Mais cette énergie initiale est très faible par rapport à l’économie d’énergie que l’utilisation de la superposition et de l’intrication quantique permet.

    Binaire : OVH vous a acheté une machine. Qu’en font-ils ?

    PS : Ils génèrent des nombres aléatoires certifiés. Actuellement, les processus de génération de nombres aléatoires en informatique classique sont en fait pseudo-aléatoires (pas vraiment aléatoires), tandis qu’en informatique quantique, nous pouvons générer de véritables nombres aléatoires pour lesquels nous pouvons démontrer qu’il n’y a pas d’information cachée. On a par exemple besoin de vrais nombres aléatoires en cryptographie.

    Binaire : Peut-on simuler les ordinateurs quantiques ?

    JS : Aujourd’hui, nous pouvons simuler jusqu’à environ 25 qubits photoniques avec des ordinateurs classiques. En utilisant les plus puissants supercalculateurs, il serait possible d’atteindre au maximum une centaine de qubits. Au-delà, comme la puissance de calcul quantique est exponentielle en nombre de qubits, les meilleurs supercalculateurs ne peuvent plus rien faire. Ces simulations sont cruciales pour le développement et la validation d’algorithmes quantiques, et leurs limitations souligne aussi l’importance de construire de véritables ordinateurs quantiques. En effet, dès que nous dépasserons la barre des 100-200 qubits avec des ordinateurs quantiques réels, nous entrerons dans un domaine où la simulation classique devient impossible, ouvrant la voie à de véritables avancées en calcul quantique.

    Binaire : Peut-on s’attendre à une révolution avec l’informatique quantique ?

    PS : De mon point de vue, nous sommes déjà au cœur d’une révolution technologique. Nous réalisons des avancées dans les laboratoires auxquelles nous n’aurions pas cru il y a 5 ans. Les progrès sont spectaculaires et rapides. Du point de vue des applications, nous en sommes encore aux prémices de l’histoire. Jusqu’à présent, cela restait essentiellement une affaire à des physiciens. Mais maintenant les informaticiens nous rejoignent.

    C’est la construction de matériel qui prend du temps. Mais on y arrive. Le passage à l’informatique quantique est pour moi inévitable. Cela va se produire.

    Binaire : Doit-on imaginer des machines qui seront uniquement quantiques ou un mélange ?

    JS : Cela sera forcément un mélange des deux – tout comme on a ajouté des GPU aux ordinateurs actuels pour gagner en puissance de calcul sur certains problèmes. De la même façon, le quantique accélère certains types de problèmes, mais pas tous. Par exemple, la simulation de molécules complexes ou l’optimisation de grands systèmes sont des domaines où le quantique pourra apporter un avantage significatif. D’ailleurs, suivant les applications, certaines plateformes quantiques sont plus adaptées que d’autres selon les principes sur lesquels elles se fondent. Par exemple, les ordinateurs quantiques à base de qubits supraconducteurs ou de photons uniques ont chacun leurs forces pour différents types de calculs quantiques.

    Binaire : Y a-t-il des besoins en matériaux spécifiques ?

    PS : Dans les plateformes avec des qubits de silicium, il faut un silicium extrêmement pur, et très peu de pays dans le monde savent produire du silicium à ce degré de pureté. Dans les plateformes avec des photons, comme celle sur laquelle nous travaillons, pas tant que ça. C’est d’ailleurs le type de plateforme le mieux financé au niveau international. Les financements sont énormes aux États-Unis et en Chine, plus modestes en France et en Europe.

    Les équipes chinoises du professeur Jan Wei Pan ont réalisé des démonstrations avec des plateformes à photons et ont effectué des calculs inaccessibles au monde classique.

    Binaire : Que pouvez-vous dire à ceux qui ne croient pas en l’ordinateur quantique ?

    PS : Certains scientifiques voient tous les défis technologiques qu’il faut résoudre pour obtenir un ordinateur quantique très puissant et sont dubitatifs. Pour moi, dire que ce n’est pas possible, ce n’est pas un point de vue scientifique. Regardons ce qui s’est passé sur la première révolution technologique du 20e siècle qui exploitait les concepts de base de la mécanique quantique. Qui aurait pu penser au début du transistor – quand celui-ci faisait la taille d’une ampoule – que ce composant permettrait de révolutionner notre quotidien ? Nous sommes dans une situation analogue – avec des composants permettant d’exploiter des concepts quantiques beaucoup plus puissants.

    JS : Aujourd’hui, il est à la fois possible de démontrer théoriquement que certains algorithmes quantiques permettront de résoudre des problèmes que nous ne pouvons qu’approximer avec n’importe quel ordinateur actuel classique aussi puissant soit-il, et à la fois possible de démontrer pratiquement que ces algorithmes fonctionnent déjà à une petite échelle. Il n’est plus possible de ne plus croire au quantique, et ce n’est plus qu’une question de temps.

    Binaire : Pascale, quand comptes-tu retourner à la recherche ?

    PS : Je n’ai jamais autant fait de recherche. Je suis officiellement à 30% dans Quandela. Et même ma contribution à Quandela, c’est aussi de la recherche.

    Binaire : Et toi Jean, les problèmes informatiques que tu rencontres sont-ils aussi intéressants que ceux que tu adressais avant, en apprentissage automatique ?

    JS : L’algorithmique a toujours été ma passion. Tout comme ce qui s’est passé avec l’arrivée des réseaux de neurones à grande échelle, le quantique nous permet de revisiter des problèmes classiques avec un outil nouveau, et qui défie souvent l’intuition. Pour chaque problème considéré, trouver la manière de l’aborder avec des primitives quantiques est donc un défi chaque fois renouvelé : il faut être créatif en permanence. De plus, même si on a l’algorithme, la manière de l’exécuter sur un ordinateur quantique particulier est aussi souvent un problème ouvert  à part entière, donc oui : les problèmes informatiques existants et à venir sont tout aussi passionnants et stimulants intellectuellement que ceux que j’ai pu rencontrer dans le monde de l’apprentissage automatique et du traitement de la langue.

    Serge Abiteboul, Inria et ENS, Paris, Claire Mathieu, CNRS et Université Paris Cité

    Pour aller plus loin

    Quandela, quand le quantique rencontre le HPC…,  Vie des entreprises, novembre 2022, P. Senellart et J. Senellart. 

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

     

     

  • Algorithmes quantiques : quand la physique quantique défie la thèse de Church-Turing

    Frédéric Magniez  a tenu la Chaire annuelle Informatique et sciences numériques 2020-2021 du Collège de France. Il n’y avait pas eu à l’époque d’article sur binaire. Voilà qui corrige cette situation peu acceptable.
    Frédéric Magniez, mathématicien et informaticien, est directeur de l’Institut de recherche en informatique fondamentale (www.irif.fr) et directeur adjoint de la Fondation des sciences mathématiques de Paris. Ses travaux de recherche portent sur la conception et l’analyse d’algorithmes probabilistes pour le traitement des grandes masses de données, ainsi que sur le développement de l’informatique quantique et plus particulièrement les algorithmes, la cryptographie et ses interactions avec la physique.
    Serge Abiteboul

    Frédéric Magniez, 2020. Crédits : Patrick Imbert, Collège de France

    Une prouesse inutile ?

    L’année 2021 sera sans aucun doute quantique ! Il y a à peine plus d’un an, Google réalisait un calcul sur un prototype de circuit quantique programmable. D’un point de vue technologique la prouesse était encore inimaginable il y a seulement quelques années. D’un point de vue de la puissance de calcul, la tâche demandée est certes très spécifique, mais nécessiterait plusieurs milliers d’années de calcul sur tout autre machine existante, aussi puissante soit-elle ! Un vrai tournant venait donc d’être engagé. Cette année, un consortium européen va lancer une plateforme de simulation et de programmation quantique rassemblant chercheurs et industriels issus de la physique et de l’informatique. Cette plateforme utilisera une technologie quantique fournie par la start-up française Pasqal. Enfin, l’État va lancer un plan national quantique qui va voir la création de plusieurs centres dédiés à la recherche sur les technologies quantiques, dont l’informatique.

    Le calcul effectué par Google fin 2019 revenait à lancer un gigantesque dé truqué ou faussé. Le calcul des probabilités de chaque face du dé est lié au circuit quantique programmé dans la machine de Google. La simulation d’un circuit quantique, même de petite taille (53 bits dans l’expérience de Google), est d’une telle complexité pour nos ordinateurs actuels qu’elle ne peut être réalisée en moins de plusieurs millénaires par ces derniers. En revanche, le lancé de ce dé est quasiment instantané sur le prototype quantique de Google, puisque ce dernier implémente directement ledit circuit quantique, et ce avec une précision satisfaisante, c’est-à-dire pour vérifier que le bon dé avait été lancé. Cette réalisation, même imparfaite, semble pour le moment impossible à réaliser autrement que quantiquement.

    Cette prouesse semble loin de toute application pratique. Néanmoins, elle valide un courant de pensée remontant aux années 1980, en particulier aux propos de Feynman, affirmant que notre interprétation et compréhension de ce qui est calculable devait évoluer. Elle remet en cause les fondements du calcul remontant à la thèse de Church-Turing. Cette thèse, qui a évolué au fil des années, tendait à affirmer que tout progrès technologique ne remettrait jamais en cause le modèle mathématique du calcul défini par Church et Turing en 1936. Ce modèle permet de discerner ce qui est calculable par une machine de ce qui ne l’est pas. Quelques décennies après, cette thèse avait été reformulée ainsi : tout modèle de calcul raisonnable peut être simulé efficacement par une machine de Turing probabiliste (i.e. ayant accès à une source d’aléa). La notion de complexité y avait donc été ajoutée, rendant la thèse plus ambitieuse mais aussi plus fragile.

    Les fondations – Enigma bis ?

    Cette thèse étendue de Church-Turing a donc été remise en question au tout début de l’informatique quantique, lorsque Deutsch définit en 1985 la notion de machine de Turing quantique, avec son lot de premiers algorithmes exponentiellement plus rapides que leurs équivalents déterministes (mais pas encore probabilistes). D’abord perçu comme une curiosité, ce modèle de calcul finit par susciter intérêt et questionnements dans la communauté scientifique. Finalement en 1993, Bernstein et Vazirani construisent mathématiquement une machine universelle quantique efficace, c’est-à-dire le premier
    compilateur quantique (l’existence d’une machine programmable) qui valide mathématiquement le modèle de calcul (mais pas sa réalisation physique). En même temps arrive l’évidence qu’un ordinateur quantique peut être exponentiellement plus rapide qu’un ordinateur classique, i.e. qu’une machine de Turing probabiliste. Cependant les problèmes résolus sont tous artificiels et semblent encore bien loin de toute application concrète.

    C’est Simon puis Shor qui arrivent avec la première application algorithmique, et pas des moindres, en 1994, soit seulement une année après l’acceptation par la communauté du concept même de calcul quantique. En effet, cette application permettait de déchiffrer la plupart des messages cryptés par les mécanismes dits à clé publique, et de réduire à néant les procédés cryptographiques les utilisant (monnaie électronique, CB, vote électronique, authentification, …). Heureusement, l’ordinateur quantique n’existe pas (encore) ! Pourtant cette découverte n’est pas sans rappeler les découvertes de Turing et la construction de la machine qui a permis de déchiffrer les messages allemands eux-mêmes chiffrés par la machine Enigma durant la deuxième guerre mondiale…

    Les algorithmes quantiques – Une nouvelle façon de penser

    Néanmoins, deux décennies plus tard, alors que la possibilité d’une construction future d’un ordinateur quantique commençait à être prise au sérieux, une compétition scientifique internationale a été lancée en 2016 afin de définir les nouveaux standards de chiffrement post-quantique, ouvrant la voie à une longue recherche puis standardisation toujours en cours. Une autre alternative repose pourtant dans l’utilisation relativement simple de fibre optique afin de communiquer en encodant l’information directement sur des photons. Il s’agit du protocole quantique d’échange de clé proposé par Bennett et Brassard en 1984, soit 10 années avant la découverte de l’algorithme de Shor. En quelque sorte l’attaque et la parade reposent sur la même technologie, à ceci près que le protocole en question a déjà été construit et testé sur de grandes distances, un satellite dédié à même été envoyé par la Chine en 2016. L’Europe n’est pas en reste avec des projets d’infrastructure de grande envergure dédiés au déploiement de solutions quantiques de chiffrement. Cependant ces solutions quantiques nécessitent des technologies spécifiques, alors que les solutions algorithmiques dites post-quantiques pourraient être déployées sur les structures et ordinateurs actuels.

    Depuis 1994, les applications (calcul scientifique, optimisation, recherche opérationnelle, simulation, apprentissage automatique, IA…) foisonnent dans tous les domaines où l’informatique joue un rôle crucial, et pour des tâches où nos ordinateurs actuels ne sont pas assez puissants. Mais surtout les outils développés (transformée de Fourier quantique, estimation de phase, amplification d’amplitude, estimateur quantique, marche quantique, …) progressent continuellement, impactant toutes les thématiques de l’informatique, en en créant de nouvelles (information quantique, complexité hamiltonienne, simulation quantique, …), ou encore en tissant de nouveaux liens de l’informatique vers d’autres disciplines dont la physique, la chimie et les mathématiques.

    Mais avant tout l’informatique quantique a introduit une nouvelle façon d’analyser, raisonner et démontrer. Les outils existants précédemment n’étant plus adaptés, il a fallu en créer de nouveaux. Apportant un nouveau regard mathématique à des questions anciennes, ces nouveaux outils ont permis de progresser sur des questions ouvertes depuis de nombreuses années. Cette démarche a été baptisée preuve ou méthode quantique. Une preuve quantique est un peu l’analogue des nombres complexes pour la trigonométrie ou encore l’électricité : un outil très puissant permettant de mener facilement des calculs difficiles, ou encore d’établir des preuves inaccessibles jusque là, y compris dans des domaines pour lesquels ils n’ont pas été construits initialement. La dernière démonstration en date est la réfutation d’une célèbre conjecture en mathématiques (conjecture de Connes) à l’aide d’un résultat en théorie de la complexité quantique.

    Vision et formations nécessaires

    Une fois tous ces algorithmes quantiques découverts, dont l’utilisation de certains serait à n’en pas douter révolutionnaire, la question de la possibilité de construire un ordinateur les exécutant fut donc de plus en plus pressante. L’importance d’un plan d’envergure a d’abord émané de tous les acteurs concernés, scientifiques comme industriels, avec une feuille de route et des jalons intermédiaires appropriés, puis fut largement soutenue par les politiques. Plusieurs plans ont vu le jour, dont un au niveau européen à travers le Quantum Flagship en 2018, et le Plan Quantique national en 2021. L’avantage industriel que pourrait procurer la construction d’un ordinateur quantique, même imparfait, a créé une frénésie stimulante qui touche tous les secteurs stratégiques (finance, industrie, santé, sécurité…). Les progrès technologiques de grands groupes industriels, tels que Google et IBM par exemple, ont été de véritables locomotives, laissant apparaître rapidement que le plus grand défi serait de trouver une application à ces premiers prototypes, certes révolutionnaires, mais très éloignés des machines nécessaires aux applications précédemment découvertes en algorithmique quantique. En effet, non seulement ces machines sont petites, mais elles ont un taux d’erreur encore trop grand. Pourtant elles sont capables d’effectuer des calculs impossibles à réaliser classiquement, mais des calculs sans impact industriel actuellement.

    Un véritable travail de fourmi s’est donc enclenché, mais, pour l’instant, avec une communauté encore trop petite. Les mêmes personnes ont actuellement en charge de comprendre et de maîtriser toutes les facettes du calcul quantique, de la modélisation à la réalisation expérimentale en passant par la solution algorithmique, son analyse, sa programmation et sa vérification, là où la chaine de production constitue habituellement un véritable écosystème de l’informatique. Il nous faut donc nouer de multiples partenariats, construire et enseigner dans de nouvelles formations, afin de saisir cet unique défi que pourrait constituer ce nouveau tournant technologique.

    C’est dans ce contexte que le Collège de France m’a donc invité à occuper pour un an sa chaire Informatique et sciences numériques, et à donner dans ce cadre un cours sur les algorithmes quantiques. Ce cours tâchera de répondre à une demande croissante d’information et de formation de nombreux publics. Le public ciblé va des esprits curieux de saisir les possibilités et les limites du calcul quantique, aux acteurs des sciences informatiques au sens large : informaticiens, mathématiciens du numérique et physiciens des technologies quantiques, qu’ils soient étudiants, chercheurs, développeurs, entrepreneurs ou encore futurs utilisateurs des algorithmes quantiques.

    En guise de conclusion, il convient de rappeler que c’est en France, en 1980, qu’a débuté la révolution quantique expérimentale lorsque l’expérience du groupe d’Alain Aspect (CNRS) a validé à Orsay les prédictions de la physique quantique, qui ne pouvaient s’expliquer par la physique classique seule. Puis le prix Nobel a été décerné en 2012 à Serge Haroche (Collège de France) pour ses travaux sur la manipulation de systèmes quantiques. Le versant informatique de cette révolution a, lui, débuté en 1994 conjointement aux travaux outre-Atlantique, grâce à la vision de Miklos Santha (CNRS). Alors étudiant de master, j’ai suivi le mouvement de son équipe, qui était basée aussi à Orsay. Rapidement, Miklos a su constituer un groupe qui essaime, fait des émules en France et attire des talents internationaux. A l’époque, le pari pouvait sembler risqué, mais dans les années 2000, les possibilités de recrutement au CNRS et à l’Université sont plus nombreuses, et plusieurs chercheurs sont recrutés afin de mieux comprendre les liens que tisse le traitement de l’information quantique entre informatique, mathématiques et physique.

    Frédéric Magniez, Directeur de recherche CNRS,  Directeur de l’IRIF
    Pour la leçon inaugurale de la chaire annuelle Informatique et sciences numériques du Collège de France – 1er avril 2021

    Pour aller plus loin

    • Pages de Frédéric Magniez sur le site internet du Collège de France :
      https://www.college-de-france.fr/site/frederic-magniez/index.htm
    • Article sur les travaux de Frédéric Magniez dans CNRS le journal
      https://lejournal.cnrs.fr/articles/une-informatique-a-reinventer-pour-le-calcul-quantique
  • Une réforme Post-Quantique

    Pourquoi dit-on que les ordinateurs quantiques vont bouleverser la cryptographie d’aujourd’hui ? Quelles nouvelles attaques pourraient-ils permettre et peut-on s’en prémunir ? Mélissa Rossi a effectué sa thèse en cryptographie post-quantique dans le laboratoire de cryptographie de l’ENS de Paris. Ce laboratoire fait aussi partie de Inria, CNRS et PSL. Son projet de thèse a aussi été financé par Thales et par l’agence nationale de la sécurité des systèmes d’information (ANSSI). Elle vient nous éclairer sur ces questions dans la rubrique « Il était une fois ma thèse ». Pauline Bolignano et Pierre Paradinas

    ©Fondation l’Oréal – Jean-Charles Caslot

    Sans qu’on ne s’en rende compte, des calculs de mathématiques avancés sont utilisés sans cesse dans les puces de nos téléphones, nos cartes bancaires, ou encore nos passeports. Grâce à eux, nous n’avons pas à faire les calculs nous-mêmes pour protéger notre vie privée : nos informations personnelles entrent dans ce que l’on pourrait voir comme une “micro-usine”, et en ressortent chiffrées, c’est à dire protégées, emballées, prêtes à être envoyées sur le réseau. Ces usines sont en fait des algorithmes cryptographiques qui tournent silencieusement dans nos appareils. Ces dernières rendent nos données privées inintelligibles lorsqu’elles transitent dans le réseau. Si on est pas le destinataire, il est impossible de les déchiffrer, à moins d’être capable de résoudre des problèmes mathématiques difficiles comme la factorisation des grands nombres par exemple.

    La micro-usine
    La micro-usine

    Après une cinquantaine d’années de bons et loyaux services, ces micro-usines sont menacées de fermeture ! 

    Leur pire ennemi, l’ordinateur quantique de grande échelle, pourrait un jour débarquer et les rendre obsolètes. Cet ordinateur repose sur des principes physiques différents des ordinateurs actuels et pourrait détricoter rapidement tous les calculs soigneusement réalisés dans ces usines et ainsi révéler au grand jour toutes nos données personnelles. Plus précisément, cette technologie pourrait résoudre les problèmes mathématiques sur lesquels reposent tous nos systèmes (plus d’information sur l’informatique quantique).

    Nous voilà avertis: si cela arrive, plus rien à faire. Plus aucune barrière cryptographique ne pourra nous protéger. Nos comptes bancaires, notre identité et nos communications seraient disponibles aux cyber-attaquants.

    Néanmoins, l’avancée de la recherche dans le domaine de l’informatique quantique est encore loin d’atteindre la création d’ordinateurs quantiques capables de d’anéantir les micro-usines actuelles. A moins d’un progrès scientifique fulgurant, ces ordinateurs ne seront vraisemblablement pas créés avant plusieurs dizaines d’années, au moins. Mais, les syndicats ont fait remonter plusieurs questions relatives au futur de leurs usines :

    – Que faire des micro-usines installées dans des processeurs à longue durée de vie (plus de 30 ans par exemple)? Ceux-ci ne sont pas à l’abri des potentielles attaques quantiques futures.

    – Et si une entité malveillante enregistrait et stockait toutes les communications actuelles dans le but d’utiliser un ordinateur quantique dans le futur pour récupérer des informations secrètes passées ?

    Une réforme pour éviter la fermeture

    Une première piste envisageable pour éviter ces puissantes attaques serait d’utiliser la cryptographie quantique; mais elle ne pourra pas être déployée dans les prochaines décennies car elle nécessite un réseau et des infrastructures quantiques.

    La communauté scientifique est donc actuellement en réflexion pour trouver une solution à moyen terme et changer les méthodes de protection des informations privées sans utiliser d’informatique quantique.  L’idée serait de réformer complètement les calculs mathématiques utilisés actuellement dans nos micro-usines. Comme tout grand changement, nous ne pouvons cependant pas modifier tous nos systèmes en un claquement de doigts. Il faudrait d’abord tester ces nouvelles méthodes pour vérifier leur sécurité, et surtout, éviter une seconde mutinerie liées à de nouvelles failles non anticipées.

    Ma thèse

    Pendant 3 ans, j’ai analysé une possible nouvelle technique prometteuse utilisant une structure mathématique appelée “réseaux euclidiens”.

    Les réseaux euclidiens sont des structures discrètes d’un espace multidimensionnel. Le caractère discret de ces réseaux assure l’existence d’un plus court vecteur. Cependant, trouver le plus court vecteur d’un réseau donné est considéré comme un problème difficile; ce qui permet la création de nouveaux systèmes. En effet, le temps nécessaire pour le trouver est tellement grand que l’on considère que c’est impossible en temps raisonnable. Même si cette difficulté est toujours conjecturée à l’heure actuelle, elle est supportée par plus de garanties en termes de complexité quantique et classiques que la factorisation.

    J’ai essayé d’attaquer ces potentielles nouvelles micro-usines de manière à les mettre à l’épreuve. Celles-ci ont beaucoup d’avantages en terme d’efficacité et de sécurité, mais j’y ai tout de même trouvé des failles qui les rendent vulnérables à certaines cyber-attaques. J’ai ensuite mis en place des mesures de protection pour chaque attaque:

    1) Les attaques par calcul de temps. Selon les opérations à faire et selon les valeurs des nombres manipulés, les calculs prennent plus ou moins de temps. En mesurant le temps qu’ils mettent, on peut parfois retrouver des données secrètes. Nous avons mis en place des protections qui, grossièrement, consistaient à mettre un temps fixe pour les calculs. Le défi était de ne pas trop affecter l’efficacité.

    Attaque par calcul de temps

    2) Les attaques physiques. Supposons qu’un attaquant peut mesurer plusieurs paramètres physiques (la température, les ondes électromagnétiques qui émanent de la puce contenant la micro-usine…). Ces mesures pouvaient laisser fuir des informations secrètes et il fallait que l’on mette en place de nouvelles protections qui consistaient à ajouter des “faux calculs” pour brouiller les signaux.

    Attaque physique
    Attaque physique

     3) Les attaques par échecs. Les réseaux euclidiens sont une structure complexe à manipuler et parfois des erreurs sont commises, ce qui entraîne l’échec du calcul. Ces erreurs sont extrêmement rares, mais en les sur-sollicitant avec l’aide fictive d’un ordinateur quantique, ces “bugs” peuvent devenir plus fréquents. Contrairement à ce que l’on pourrait penser, les échecs peuvent donner de l’information sur les secrets utilisés, ce qui a été à l’origine d’attaques et de nouvelles protections.

    Attaque par échec

    Finalement, même s’il reste encore à pousser l’analyse plus loin pour renforcer la confiance de la communauté scientifique dans les méthodes fondées sur les réseaux euclidiens et à gagner en efficacité, les ouvriers sont rassurés et se préparent sereinement à la grande réforme de protection post-quantique.

    Pour aller plus loin, une vidéo de 10 minutes permet d’aller plus en détails. Et pour aller encore plus loin, mon manuscrit est disponible en ligne.

    Mélissa Rossi

  • Une réforme Post-Quantique: le podcast

    Pourquoi dit-on que les ordinateurs quantiques vont bouleverser la cryptographie d’aujourd’hui ? Quelles nouvelles attaques pourraient-ils permettre et peut-on s’en prémunir ?

    En lien avec l’article de fond sur le sujet, Mélissa Rossi nous propose ce postcast vidéo pour nous permettre d’aller dans les détails. Et pour aller encore plus loin, son manuscrit est disponible en ligne.

    Mélissa Rossi a effectué sa thèse en cryptographie post-quantique dans le laboratoire de cryptographie de l’ENS de Paris. Ce laboratoire fait aussi partie de Inria, CNRS et PSL. Son projet de thèse a aussi été financé par Thales et par l’agence nationale de la sécurité des systèmes d’information (ANSSI).

  • Science du qubit, science des données

    Un nouvel « Entretien autour de l’informatique ». Serge Abiteboul et Claire Mathieu interviewent Julia Kempe. Julia est une brillante mathématicienne, physicienne, et informaticienne. C’est une des meilleures spécialistes mondiales en informatique fondamentale et, en particulier, en informatique quantique. A partir de l’automne, elle dirigera le Center for Data Science de New York University. Cet article est publié en collaboration avec The Conversation.

    Julia Kempe, CDS

    Binaire : tu es une scientifique très cosmopolite. Peux-tu nous raconter un peu d’où tu viens ?

    Je suis née en Allemagne de l’Est, d’origine russe et allemande. Je suis allée dans une école spécialisée en maths en Allemagne de l’Est à l’âge de 14 ans. Nous avions déjà des cours de programmation. Quand le mur est tombé, je suis allée en Autriche et j’ai étudié les maths et la physique à Vienne, avec un semestre en Australie dans un programme d’échange. Puis je suis allée en France où j’ai fait un DEA d’Algèbre à Paris 6, en géométrie algébrique. Mais mes intérêts ont toujours été pluridisciplinaires, et j’ai enchainé avec un DEA de physique théorique à l’École Normale Supérieure. Et puis, il y a eu la découverte par Peter Shor du premier algorithme quantique. Dans les années 90, j’ai passé deux thèses en même temps, une en maths à Berkeley, et l’autre en informatique à Télécom Paris avec Gérard Cohen, toutes les deux sur des aspects des calculs quantiques. Ensuite, j’ai eu un poste au CNRS en informatique. J’ai eu la chance de travailler dans l’équipe de Miklos Santha à Orsay. À l’époque, l’informatique quantique était encore un domaine tout nouveau. En 2007, je suis partie pour 4 ans en Israël comme professeur d’informatique à l’université de Tel-Aviv. Puis je suis rentrée en France, et un peu plus tard j’ai rejoint un fonds d’investissement américain. Ma culture scientifique générale y a été très utile même si mes compétences en informatique quantique ne servaient pas. Récemment, j’ai pris un poste de professeur d’informatique à New York University ; je serai directrice du Centre de Sciences des Données.

    B : tu es mathématicienne, informaticienne, physicienne. Si on te demandait de choisir entre les trois ?

    Je n’ai pas à choisir. Ce qui m’a attiré à l’informatique, c’est la rigueur, la précision que cela exige, comme en mathématiques. En informatique, on réalise des choses concrètes, des calculs, et j’aime ça. Et puis, les méthodes que l’on développe et les problèmes que l’on traite viennent de domaines très divers. C’est une grande aide pour moi que d’avoir des connaissances dans plusieurs disciplines. D’une part ça m’aide à comprendre les domaines d’application dans lesquels je travaille, et d’autre part, j’ai plus de facilité à travailler avec des personnes de ces domaines, qui ont toutes des cultures différentes.

    Représentation d’un qubit par une sphère de Bloch.

    B : pourrais-tu expliquer simplement l’informatique quantique ?

    L’informatique classique est fondamentalement basée sur le traitement de signaux binaires. L’état d’un interrupteur ou d’un bit en mémoire est soit 0 soit 1. En mécanique quantique, les particules quantiques se trouvent dans un état qu’on appelle « superposé », c’est un peu 0 et un peu 1. On appelle qubit ces bits quantiques qui sont à la fois dans l’état 0 et dans l’état 1. Quand on cherche à observer un qubit, on va trouver soit un 0 ou un 1. L’observation a changé l’état de la particule en choisissant entre les deux.

    B : le but c’est d’arriver à réaliser beaucoup de calculs en parallèle ?

    Avec un vecteur de n qubits, on a en même temps 2n valeurs. Si on arrive à faire des calculs avec de tels vecteurs, on arrive en quelque sorte à faire tous les calculs en même temps. C’est comme si on réalisait 2n calculs « en parallèle ». Le problème c’est qu’à la fin, il se peut qu’il n’y ait qu’un seul de ces calculs qui ait réussi, et c’est son résultat qui nous intéresse . Ce résultat est quelque part et la difficulté, c’est de l’isoler. L’art des algorithmes quantiques est d’effacer de façon judicieuse tous les calculs qui n’ont pas abouti.

    B : est-ce que, avec le quantique, on pourrait arriver à réaliser rapidement des calculs comme la factorisation ?

    L’algorithme de Shor explique comment factoriser de grands nombres en facteurs premiers de manière efficace. On ne sait pas faire cela avec l’informatique classique. Les algorithmes qu’on connaît prennent un temps exponentiel. D’ailleurs, une grande partie de la cryptographie très utilisée dans nos vies quotidiennes est basée sur le fait qu’on ne sait pas factoriser rapidement un nombre premier. Ce problème de factorisation, on arrive à le résoudre dans le modèle quantique avec l’algorithme de Shor. Évidemment, pour que cela devienne réalisable en pratique, il faudrait savoir construire un ordinateur quantique qui manipule des grands nombres de qubits. On n’y est pas encore.

    P, NP, PSPACE sont des classes de problèmes de complexité classiques BQP : problèmes qui peuvent être résolus en temps polynômial par un algorithme quantique avec une erreur bornée

    B : est-ce que l’informatique quantique remet en cause la théorie de la complexité traditionnelle de l’informatique ?

    La théorie de la complexité étudie ce qu’on peut faire avec un ordinateur étant donné des ressources limitées en temps et en espace. On peut faire des études comparables à partir d’un modèle quantique. Un travail de recherche passionnant actuellement, c’est que certaines classes de complexité quantique sont équivalentes à des classes classiques. On obtient aussi des résultats de réductions passionnants comme : « si un problème peut être résolu dans modèle classique avec une complexité particulière, alors il peut aussi l’être dans le modèle quantique avec telle complexité. » Il y a tout un panorama de classes de complexité. C’est vrai que, comme en complexité classique, ce n’est pas simple de « séparer » les classes de complexité.

    B : voit-on arriver ces ordinateurs quantiques ? Y a-t-il des résultats concrets pratiques ?

    Quand j’ai commencé, à la fin des années 90, les expérimentateurs prédisaient un ordinateur quantique dans 10 ans ; les plus prudents parlaient de 20 ans. Il s’est déjà passé vingt ans et on attend toujours ! En réalité, dans le monde de la recherche, quand on vous dit dans 10 ans, il faut souvent comprendre : « je n’en sais rien ». Malheureusement il y a eu beaucoup de survente. Les ordinateurs quantiques ne savent même pas encore factoriser des chiffres autour de 10 000 à cause de l’accumulation des erreurs. Nous avons encore des problèmes à régler avant d’arriver à quelque chose d’intéressant. On est encore très loin de pouvoir utiliser l’algorithme de Shor.

    B : mais est-ce qu’on avance ?

    Oui ! Vraiment. Nous sommes dans une période de transition car nous assistons à des tentatives concrètes de Google, d’IBM… Avec des machines à 50 qubits. C’est passionnant car, à partir de grosso modo 50, nous arrivons à des phénomènes qu’on ne peut plus simuler avec des ordinateurs classiques ; 250, c’est à peu près leur limite.
    Si on ne sait pas encore faire un ordinateur quantique général, on pourrait utiliser les machines quantiques qu’on sait construire pour simuler des phénomènes physiques qu’on ne sait pas simuler autrement actuellement.

    B : qu’est-ce qui t’a fait choisir de vivre aux USA ?

    Il y avait beaucoup de paramètres. J’aime vivre en France mais je voulais faire quelque chose de nouveau, travailler dans un fonds d’investissement, et pour cela, New York, c’était le bon endroit. Je ne pensais pas y rester six ans. J’avais de jeunes enfants et avec de jeunes enfants, c’est difficile de faire une recherche qui demande de s’immerger dans des problèmes complexes de façon prolongée. Je n’exclus pas de revenir en France, mais pour l’instant l’occasion ne s’est pas présentée.

    B : ce travail dans les fonds d’investissement est–il aussi un travail scientifique ?

    Nous utilisons une approche « quantitative » des fonds d’investissement. Nous partons de téraoctets de données financières. Nous remplaçons les intuitions des traders des années 80 par de l’analyse scientifique de données. Nous développons des théories, des modèles, et nous les testons pour détecter des signaux qui nous permettent de prédire les évolutions des marchés financiers. La difficulté est que les données dont nous disposons ne sont jamais parfaites. C’est tout un art de les nettoyer pour en extraire les informations pertinentes. C’est de la science des données. Cela ressemble beaucoup à un travail universitaire mais nous ne publions pas et le critère ultime de succès pour nous, c’est si ça rapporte de l’argent. Mes collègues sont, pour beaucoup, mathématiciens ou physiciens, et c’est une grande aide pour moi que d’avoir fait des études pluri­dis­ci­plinaires.

    B : ce genre de travail existe-t-il aussi en France ?

    Oui, en France il y a en particulier CFM, un fonds d’investissement dirigé par un physicien, Jean-Philippe Bouchaud, avec de nombreux employés qui viennent du monde de la physique statistique. Ils retrouvent finalement des méthodes assez semblables à celles qu’ils utilisaient en physique, avec les expérimentations, la définition de modèles mathématiques, l’analyse de données, la simulation, la validation des résultats à la lumière de la réalité des données, etc.

    Un problème particulier assez classique que nous rencontrons est celui du « sur-apprentissage » (overfitting en anglais). Avec suffisamment de paramètres, je peux ajuster les paramètres du modèle de façon à correspondre exactement aux données disponibles. Seulement, le modèle peut être trop exactement ajusté aux exemples et ne pas s’adapter aux données futures. On est un peu comme les astrophysiciens : ils ont une seule donnée, l’univers tel qu’il existe, et nous n’avons que les données financières sur une seule réalisation du monde financier tel qu’on l’observe. Comme les astrophysiciens, il faut faire avec. Et si on a fait du sur-apprentissage, on va juste rater une évolution du marché qui ne s’est pas passée exactement comme dans le passé…

    C’est facile de se tromper. Le temps de demi-vie d’un fonds d’investissement est de 18 mois en moyenne, parce que des erreurs sont faites, souvent à cause de sur-apprentissage.

    B : que vas-tu faire à NYU ?

    Je vais faire de la recherche en science des données. Je vais essayer d’appliquer, par exemple, mes compétences sur le traitement du bruit à des données autres que financières.

    B : quelle est la présence féminine dans ces domaines ?

    Dans le fonds d’investissement, nous étions 2 femmes chercheuses sur 55. Au CDS (centre de sciences des données), nous sommes entre 1/4 et 1/3 de femmes. Il y a un nombre relativement élevé de femmes en sciences des données, plus que dans d’autres domaines de l’informatique. Je crois que l’aspect pluridisciplinaire attire les femmes. Et comme les chercheurs en data science sont habitués à une diversité de disciplines scientifiques, cela les rend peut-être plus ouverts à une diversité des genres.

    B : as-tu un conseil à donner aux étudiants ?

    Nous vivons un temps où il y a beaucoup de données numériques, de plus en plus de calculs sur ces données. Chacun doit apprendre à se servir de ces données, et en même temps à être prudent avec elles. Il faut par exemple être conscient des problèmes de biais qui peuvent exister dans des données dont on se sert dans des domaines critiques.

    Je pense que les étudiants dans toutes les disciplines devraient avoir une solide expérience de programmation et maitriser la compréhension des données numériques.

    Entretien réalisé par Serge Abiteboul et Claire Mathieu

    Références

  • La crypto quantique débarque

    La tâche est plus vieille que Le Monde : A (comme Angela) souhaite communiquer un message à B (comme Barack) tout en empêchant E (comme Edward) de l’intercepter. Nous savons faire avec des techniques sophistiquées de cryptographie comme RSA. Mais il parait que la mécanique quantique va ouvrir de nouvelles possibilités. Binaire a demandé à un ami, Alexei Grinbaum, ce qu’il en est. Serge Abiteboul, Thierry Viéville.

    Cet article est publié en collaboration avec TheConversation.

    Partager un secret avec une clé secrète. Le lecteur de Binaire n’aura guère de difficulté à imaginer que le message soit une suite de 0 et 1. La méthode imbattable consiste à utiliser une « clé de chiffrement jetable ». C’est une séquence de 0 et de 1, aléatoire et au moins aussi longue que le message à transmettre. Supposons qu’Angela souhaite transmettre le message « 11111 » à Barack et que la clé aléatoire, tenue secrète, soit « 10110 ». Alors Angela intervertit le premier, le troisième et le quatrième bits du message (comme l’indiquent les 1 dans la clé) et publie en clair « 01001 ». Barack, qui connaît la clé secrète, intervertit les mêmes trois bits et reconstruit le message « 11111 ». Edward n’a aucune chance de rétablir ce message en ayant accès à la seule transmission chiffrée.

    Alexei Grinbaum, CEA
    Alexei Grinbaum, CEA

    Mais une clé qui se renouvelle sans cesse ! Un problème est que la clé est « jetable ». Si par aventure Angela l’utilisait plusieurs fois, Edward  finirait par la découvrir en faisant des analyses statistiques.

    Ce que l’on aimerait, c’est un monde idéal où Angela et Barack disposeraient d’une source illimitée de clés. Imaginons qu’ils possèdent deux pièces de monnaies, A et B, qui, lorsqu’on les lance, tombent sur pile, qu’on comprendra comme « 0 », ou sur face, le « 1 », de façon aléatoire, mais, par un coup de magie, à chaque fois les deux tombent du même coté. S’ils pouvaient disposer de telles pièces, Angela et Barack pourraient jouer à pile ou face autant de fois qu’ils le souhaitent et se fabriquer sans limite des clés secrètes. Un détail : dans notre monde, à notre échelle, de telles pièces magiques n’existent pas. Alors ? Patience.

    Mieux encore une clé qu’il serait inutile de voler ! Nous devons aussi garantir qu’Edward ne puisse intercepter le message en se procurant un troisième clone de la même pièce. Attaquons nous à cette dernière condition. Pour y trouver une solution, nous allons tirer profit d’une valeur que l’on ne rencontre pas souvent dans un problème de sciences : la liberté !

    Supposons qu’Angela et Barack possèdent deux pièces de monnaie magiques, A1 et A2 pour la première, B1 et B2 pour le second. Pour obtenir un bit, Angela choisit librement entre A1 et A2 et lance la pièce. Barack fait de même avec B1 et B2. Ils vont recommencer autant de fois qu’ils le souhaitent. Les quatre pièces sont magiques : à chaque coup, si Angela choisit A1 et Barack B1, les deux pièces disent la même chose ; idem dans les cas (A1, B2) et (A2, B1) ; mais dans le cas (A2, B2), les pièces disent le contraire l’une de l’autre. Bref, le résultat individuel ne dépend que du choix local d’Angela ou Barack, mais la relation entre ces choix dépend de ce que font A et B conjointement.

    Maintenant Angela et Barack peuvent construire une clé secrète. Pour Angela, c’est juste la séquence de bits que lui indiquent les pièces. Pour Barack, il garde le bit que lui donne sa pièce dans trois cas, et il l’intervertit dans le cas (A2,B2). Ce mécanisme garantit que le message ne sera pas intercepté par Edward. Car, même s’il est capable de cloner une pièce d’Angela, il ne connaît pas le choix de Barack. S’il lance un clone de A1 au moment où Angela choisit — toujours librement ! — de jouer A2, alors ce lancement simultané, et de A1 (cloné) et de A2 entrave le libre arbitre de Barack, puisque aucune valeur ne peut être attribuée à ses pièces (rappelons que A1=B2, mais A2≠B2, d’où la possibilité de contradiction).

    Oui mais si tout cela n’existe pas ? À notre échelle, de telles pièces magiques n’existent pas. Des corrélations aussi parfaites entre elles sont en réalité inatteignables. Et puis la liberté des agents elle aussi est douteuse. Mais à l’échelle de l’infiniment petit, la cryptographie quantique pallie d’une manière spectaculaire à ces défauts.

    Un exemple de dispositif qui permet d’implémenter un tel protocole de distribution quantique de clé, basé sur l’utilisation de photons transmis à travers une fibre optique. ©National Institute of Standards and Technology, via commons.wikimedia.org. Au moment où sort ce billet, un nouveau record de distance* (plus de 400km entre les points A et B) vient d’être publié.

    À la place des pièces, la cryptographie quantique utilise des paires de particules quantiques  intriquées, souvent des photons. Grâce à un phénomène, l’intrication quantique, on arrive à des corrélations imparfaites, certes, mais proches de plus de 80% de celles qu’ont les pièces de monnaie dans le monde idéal. En se servant alors de la propriété de non-localité quantique, c’est-à-dire d’un lien simultané entre deux phénomènes distants, séparés dans l’espace, Angela et Barack arrivent à partager des bits avec une corrélation suffisamment forte pour que la communication reste protégée contre les intrusions. En plus, Edward ne peut s’immiscer entre Angela et Barack et intercepter leurs communications à cause d’une propriété de l’intrication quantique dont le nom fort à propos est « monogamie » : à chaque particule, pas plus d’un partenaire intriqué à la fois !

    Plus de 80%, ce n’est pas idéal. Pourtant on prouve que c’est suffisant pour que les protocoles quantiques de distribution des clés secrètes puissent assurer la protection parfaite de la communication entre Angela et Barack.

    Un enjeu de recherche colossal. Où en sommes-nous dans la réalisation pratique de ces procédés ? Depuis peu, la sécurité absolue qu’offre la cryptographie quantique est vraiment devenue atteignable. Nous entrons dans une ère où les expériences scientifiques, mais aussi des produits technologiques et industriels, se développent de plus en plus rapidement. L’Europe se prépare à lancer un nouveau financement gigantesque de ce secteur à la hauteur de 1 milliard d’euros. Bientôt, la cryptographie quantique prendra le relai des techniques conventionnelles de cryptage.

    Alexei Grinbaum, CEA.

    En savoir plus:
    La mécanique des étreintes, Alexei Grinbaum, 2014.
    – L’intrication quantique : https://en.wikipedia.org/wiki/Quantum_entanglement.
    – Distribution quantique de clés : https://en.wikipedia.org/wiki/Quantum_key_distribution
    – Le 9 novembre à 19h30, un bar des sciences sur la cryptographie quantique, http://bardessciences.net/
    – Et pour les spécialistes 16-18 novembre, un colloque scientifique sur les technologiques quantiques https://iqfacolloq2016.sciencesconf.org/

    (*) http://journals.aps.org/prl/abstract/10.1103/PhysRevLett.117.190501