Sur certaines questions de cryptographie quantique, par Rhizome

Ouvert aux commentaires.

Bonjour M. Jorion,

Ayant moi-même étudié en cryptographie quantique pendant 10 ans, je suis estomaqué de voir le manque de compréhension de vos interlocuteurs.

La plus grosse erreur est la suivante :

Or dans la machine quantique on ne sait pas faire l’équivalent de ces CCE pour des raisons fondamentales de logique quantique, car on ne peut pas dupliquer les états superposés sans les détruire [donc la redondance est impossible], quand bien même on sache les télé-transporter [grâce à la non localité, ce que permet la dite logique]. La difficulté ainsi soulevée est rédhibitoire car on n’a pas à ce jour la théorie, ni même aux dires de D. Estève une idée de recherche d’une telle théorie. Il va falloir être créatif et inspiré par de nouvelles expériences…

Les codes correcteurs quantiques existent pourtant depuis longtemps et surtout les codes stabilisateurs créés essentiellement par Daniel Gotesman que j’ai eu la chance de côtoyer.

Il ne faut pas se fier aux physiciens pour les ordinateurs quantiques.  Bizarrement, ces physiciens ont prétendu pendant des années que la téléportation était impossible parce qu’on ne pouvait pas cloner.  En passant, la preuve mathématique que la téléportation est possible est due à des informaticiens.  Pour téléporter, on n’a pas besoin de cloner. Ces expériences ont été maintes fois réalisées en laboratoire et même de manière industrielle avec des protocoles d’amplification de clefs.

Le truc avec les codes correcteurs quantiques, c’est qu’on n’a pas besoin de connaître l’état initial ou final pour corriger, on n’a qu’à connaître l’erreur. C’est l’erreur qu’on mesure et non l’état à mesurer  et même là, on n’a pas vraiment de la connaître le circuit peut s’auto corriger.

Mais ça, les physiciens ont beaucoup de difficulté à l’avaler et sont très frustrés de voir des poignées d’informaticiens théoriques défricher des pans entiers de la mécanique quantique qu’ils n’avaient, eux mêmes, pas appréhendée.  C’est encore plus frustrant quand ces informaticiens leur disent, avec parfois un peu trop d’insistance, que la physique doit être refondée sur les concepts d’informations, ou plutôt d’incertitude.

Pour ce qui est des problèmes de programmation, en effet les langages de programmation haut niveau ne s’applique pas, mais tout ce qui est circuitrie s’applique.  Après tout, c’est exactement ce que font nos processeurs et c’est une sous-discipline de la complexité informatique.  Il y a plusieurs familles d’algorithme quantique qui sont très intéressantes.  Mais c’est une spécialisation parmi les spécialisations.

Pour ce qui est des implantations physiques, je suis d’accord que les résultats de google et D-Wave sont difficile à interpréter.  Dans le cas de D-Wave, personne ne sait vraiment ce qu’il font (je devrais dire savais, car j’ai cessé de suivre activement leur prétention il y a longtemps) et Google, comme d’habitude, fait dans la poudre aux yeux.

Partager :

7 réflexions sur « Sur certaines questions de cryptographie quantique, par Rhizome »

  1. Euh, oui mais non mais oui (mes matrices de Pauli flippent !).

    Un petit test sur Scholar m’indique que ce qu’il y a de mieux ces temps-ci est de ce genre là (Key State Lab, les meilleurs labos chinois) Nature 2019.
    https://www.nature.com/articles/s41567-018-0414-3, détails ci-dessous (abstract).
    Le résultat saillant est « The corrected logical qubit has a lifetime 2.8 times longer than that of its uncorrected counterpart.  » Ouais.
    Bon, et puis les codes stabilisateurs nécessitent 5 qubits pour 1 qubit « assuré » ( la Lloyd ne s’est pas encore saisi de la chose). Si j’en crois le Cassandre en chef, Mikhail D’yakonov, c’est le genre de facteur qui va tuer : un calcul quantique « suprématique » (battant le Si) nécessite 50 à 80 qubits, si j’ai bien compris. Quand on a des « reports » là-dessus (derrière la poudre aux yeux), je ne pense pas que ce soit un calcul fiabilisé qui ait été fait mais une matrice de probabilité qui a donné un résultat « 3 sigma au-dessus du bruit ». On peut cassandrement se demander s’il ne faudrait pas 250 qubits pour faire le minimum syndical du silicium de 2030 (celui avec lequel ces machins seraient en compétition, x5 celui d’aujourd’hui en gros, Moore oblige).

    Tous les autres papiers que j’ai vu en mode « scan rapide » sont des papiers avec des « expériences numériques », ou des papiers remplis des conditionnels qui dégoulinent maintenant des notes à la presse concernant la science ( » cette découverte pourrait marquer la transformation de la choucroute en système de fixation massif du carbone, et pourrait marquer l’entrer dans l’ère de la sainte saucisse », bah, non je n’arrive pas à faire aussi grenouille gonflée que la réalité, zut).

    Je ne nie donc pas du tout que les informaticiens aient été les bons « secoueurs intellectuels » des gens de la méca Q, qui ont des problèmes de fondement épistémologique assez fort et ne sont pas si bien préparé à user de tous les concepts des théories du signal et de l’information, malgré les formations inspirées par la « quantum electronics » née dans les année 1960 (IEEE Journal of Quantum Electronics fut un bon journal de … semi-conducteur du « parfait honnête homme(femme!?) »).

    Mais pour ce qui est d’avoir le machin qui marche, c’est empiriquement assez loin et j’ai l’impression qu’il y a surtout une obligation « morale » à y être, pas très loin de l’obligation « morale » (et plutôt sociologique) à faire de la théorie des cordes ou rien en physique théorique (aux USA surtout, cf. Lee Smolyn).

    Par curiosité, je suis curieux de l’avis des gens du cru sur l’usage proposé à ce lien des réseaux d’atomes de Rydberg, qu’on sait manipuler avec soin.
    https://pasqal.io/resources/

    __________________________
    les data du papier mentionné ci-dessus:

    « Quantum error correction and universal gate set operation on a binomial bosonic logical qubit »

    L. Hu, Y. Ma, W. Cai, X. Mu, Y. Xu, W. Wang, Y. Wu, H. Wang, Y. P. Song, C.-L. Zou, S. M. Girvin, L-M. Duan & L. Sun

    Nature Physics volume 15, pages503–508(2019)Cite this article

    Abstract

    Logical qubit encoding and quantum error correction (QEC) protocols have been experimentally demonstrated in various physical systems with multiple physical qubits, generally without reaching the break-even point, at which the lifetime of the quantum information exceeds that of the single best physical qubit within the logical qubit. Logical operations are challenging, owing to the necessary non-local operations at the physical level, making bosonic logical qubits that rely on higher Fock states of a single oscillator attractive, given their hardware efficiency. QEC that reaches the break-even point and single logical-qubit operations have been demonstrated using the bosonic cat code. Here, we experimentally demonstrate repetitive QEC approaching the break-even point of a single logical qubit encoded in a hybrid system consisting of a superconducting circuit and a bosonic cavity using a binomial bosonic code. This is achieved while simultaneously maintaining full control of the single logical qubit, including encoding, decoding and a high-fidelity universal quantum gate set with 97% average process fidelity. The corrected logical qubit has a lifetime 2.8 times longer than that of its uncorrected counterpart. We also perform a Ramsey experiment on the corrected logical qubit, reporting coherence twice as long as for the uncorrected case.

  2. Les deux apparemment.
    La simulation fait évoluer la probabilité d’un ordinateur quantique en shuntant la décohérence.
    « La simulation quantique a déjà abouti à des résultats mais avec l’augmentation du nombre de qubits, elle promet des avancées plus spectaculaires encore. « L’avantage de la simulation c’est que la décohérence n’est finalement plus une ennemie puisque les systèmes qu’on simule sont eux-mêmes soumis à ce phénomène. Nul besoin donc de disposer d’ordinateurs quantiques parfaits », souligne Simon Perdrix.  »

    « Avec des ordinateurs de plusieurs centaines de qubits, de nombreuses autres applications pourraient ensuite voir le jour.  »
    https://lejournal.cnrs.fr/articles/ordinateur-les-promesses-de-laube-quantique

    En tout cas l’ordi quantique est bien dans les clous et les obstacles se lèvent rapidement , tout le monde est sur le pont à l’international. Quant à son évolution grand public ? A voir…

    XACC: a system-level software infrastructure for heterogeneous quantum–classical computing
    https://iopscience.iop.org/article/10.1088/2058-9565/ab6bf6

    Cryptographie ; c’est là particulièrement que l’algorithme quantique connait des développements importants pour la sécurisation des échanges, la NSA est sur le taf, c’est l’algorithme de Shor.
    « Or, il existe un algorithme quantique (l’algorithme de Shor) qui effectue des décompositions en nombres premiers bien plus rapidement que n’importe quel algorithme classique. »
    https://www.institut-pandore.com/physique-quantique/informatique-ordinateur-quantique/

  3. @ Dundee : Shor, on le vendait déjà il y a 25 ans.
    Ce que je crains, c’est que le système techno-scientifique se soit stabilisé là où l’effet silo est maximal :

    Soit R le rapport défini par R=(rentrée de $$) / (risque d’être mis en cause).

    1) L’effet silo minimise le risque d’être mis en cause (le dénominateur tend vers 0). Celui qui ne vous comprend pas doit d’abord faire moults efforts, sinon, c’est qu’il n’est pas comme il faut. Le marxisme peut jouer à ce jeu-là à ces heures (superstructures et infrastructures, diverses « lois » mises en avant bien au-delà des véritables intuitions du petit père Karl, etc.). La théorie des cordes aussi …
    2) Mais c’est pas le tout d’être incompréhensible (on peut s’appeler Bernard Stiegler ou Timiota et y arriver).
    Il faut un bon dénominateur. C’est donc un effet de choix parmi les silos, avec prime à celui qui vend le mieux son affaire, jusque là tout ça est très humains. Mais si l’intelligence très réelle des gens a pu s’épanouir et s’affûter dans un silo parce que c’est le plus exigeant en termes de concepts (quantique…), il y a une probabilité non nulle que les mêmes qui sont à la tête des idées soit aussi les plus habiles à convaincre les financeurs. Les facteurs sociologiques et la volonté d’être à la pointe de la pointe l’emportent sur une version un peu moins élitiste de la pointe de la pointe, qui dirait qu’un champ est prospère quand il relie « presque tout le temps » (au sens d’une intégrale de Lebesgue (:;) ou d’une algèbre d’Itô, frimons) des applications (au sens d’expériences de labo, pas du tout au sens de « faire des startups ») et des théories. C’est ce qu’a fait l’astronomie, l’informatique, l’aéronautique, la physique nucléaire.

    L’effet silo fait un ménage subtil, effet qu’on a du mal à voir et que la glorification de l’esprit critique et de la beauté de ce qui est gratuit peut, in fine, valoriser au lieu d’en faire voir les limitations.

    Bref, il n’est pas impossible que bien des choses se liguent pour construire une apparence de futur tentant dans le silo N (ou trois silos à côté le silo Q comme Quantique), sans que cela soit à la hauteur. Et une fois que R est élevé, le numérateur est monté, on ne peut pas se déjuger et on continue… surtout quand les résultats se font attendre, c’est « bien la preuve que c’est très difficile ». Il faut des gens qui font des choses très difficiles, quasi à l’échelle d’une vie (Gustav Mie, A. Grothendieck, des obstinés comme Shuji Nakamura pour les LEDS bleues). Ce n’est pas facile de dire le type de tension souhaitable pour ces choses difficiles, mais la présence en marge plutôt qu’au centre des problématiques institutionnelles est quand même un assez bon marqueur.
    A ce sujet, je rappelle l’article de Nature l’an dernier « big teams evolve, small teams disrupt », qui montrait, bibliométrie sérieuse à l’appui, que les petites équipes font plus facilement des vraies disruptions (la criticalité auto-organisée était prise comme exemple) que les grandes, qui font des choses « plus attendues ». Alors même qu’on a vendu aux politiques : « c’est des problèmes très difficiles, il faut réunir beaucoup de cracks avec tout ce qu’il faut au bon endroit ». Donc les « big teams ».

    Bref, pour la simulation quantique, je me ferais volontiers météorologue pour modéliser l’ampleur de la vague buzzienne qui va passer sur nous, même si j’admets que la plupart des sujets passent par des phases de buzz, même s’ils ont d’importantes contreparties expérimentales : la mémoire est suffisamment courte (15 ans en gros) pour qu’on ne se rende pas compte de la relative faiblesse des nouveautés associées au buzz en question. Et il est vrai que l’effervescence est communicative. Même si tel nouvel article « ne casse pas 3 pattes à un canard », on se dit qu’il maintient la flamme et justifie qu’on soit aller dans cette direction là, c’est bien celle qui va attirer les jeunes, etc. Bref, la construction s’autorenforce, un peu comme la richesse en milieu capitaliste, askondit.

    1. @Timiota

      « Shor, on le vendait déjà il y a 25 ans. »

      Peu importe ! Une théorie et des idées innovantes peuvent patauger pendant des lustres jusqu à ce qu’elles trouvent leur maturité et les moyens, et ceux ou celles qui vont leur permettent de prendre leur envol voire de se concrétiser. Tous les créateurs et les chercheurs savent cela . Mais c’est d’abord la passion qui les anime. (cf Elon Musk, entre autres) . Et le « buzz » a aussi son utilité.
      La physique quantique, ie la décohérence « oblige » à sortir de l’esprit et/ou de la pensée voire de l’organisation « en silo », cohérence et décohérence en simultané, entre autres, cassent les barrières et les codes de la rationalité « pure » , entre autres, et c’est ce qui est vraiment très intéressant. Quand les « zones de confort » deviennent des « obstacles » et des pertes de temps et…d’énergie…
      Que certains patinent encore dans le binaire pur jus, OK, le quantique des Cantiques les laissera sur le bord du gué, l’écume n’est pas la vague. La haute mer n’est pas le rivage et encore moins les grands espaces. Chacun fait ce qu’il veut avec son vélo… 
      Cela dit, simuler n’est pas jouer, mais c’est peut être un bon début pour certains. De fait. Et c’est très bien ainsi.

      Au-delà du quantique : la découverte d’un nouveau monde
      Depuis un siècle, la physique quantique n’en finit plus de dérouter avec ses lois non seulement étranges, mais irréductibles à la physique classique. Or, une nouvelle génération de physiciens est en train de faire un putsch. Elle ose considérer la physique quantique comme le cas particulier d’une théorie plus vaste, exactement comme Einstein engloba celle de Galilée dans un cadre plus grand : la relativité.
      https://www.science-et-vie.com/science-et-culture/au-dela-du-quantique-la-decouverte-d-un-nouveau-monde-49225
      https://agileinthemix.com/fr/2010/02/24/illustration-dune-organisation-en-silo-leffet-dalton/

      «la mémoire est suffisamment courte (15 ans en gros) pour qu’on ne se rende pas compte de la relative faiblesse des nouveautés associées au buzz en question. »

      Ce n’est pas faux. Cela dit, au-delà des effets d’annonce qui font 1 max de buzz, depuis quatre cinq ans ça bouge bien et beaucoup et à l’international , les moyens affluent. Ce qui est évoqué dans les scénarios les plus optimistes pour un ordi quantique capable de casser le chiffrement classique : la prochaine décennie. Temps relativement court, qui pourrait bien « s’accélérer ».
      D’ailleurs, actuellement, ce qui est envisagé ce ne sont pas tant les ordinateurs quantiques, mais plutôt comment s’en protéger, cybersécurité et enjeux obligent.

      Une technologie pour contrer la menace de l’informatique quantique
      https://www.lemondeinformatique.fr/actualites/lire-la-theorie-du-chaos-au-secours-des-puces-de-chiffrement-77854.html

      https://cyberguerre.numerama.com/2169-comment-la-cryptographie-se-prepare-a-faire-face-aux-cyberattaques-quantiques.html

  4. Je connais bien la théorie de codes correcteurs d’erreurs de Shannon, mais pour ce qui concerne le quantique je prends acte de l’autorité de physiciens comme D. Estève, que je vais revoir prochainement en mars, ou encore S. Haroche, et de qq. autres de même calibre ! Cependant, quand vous dites : « C’est l’erreur qu’on mesure et non l’état à mesurer et même là, on n’a pas vraiment de la connaître le circuit peut s’auto corriger. », je me pose la question de savoir par quelle magie le circuit va pouvoir s’auto-corriger ?!, ça nécessite une explication …
    Le lui ferai part de vos remarques …
    Bien cordialement,
    J. Printz

Les commentaires sont fermés.