Information et ordinateurs quantiques, par Jacques Printz

Ouvert aux commentaires.

Quelques mots à propos d’un sujet qui revient régulièrement dans les discussions sur la technologie et les imaginaires technologiques, celui de l’information et des « ordinateurs » quantiques.

J’ai assisté lundi 3/02 à un séminaire de l’AEIS où nous avions invité Daniel Estève, Directeur de recherche au CEA et responsable de l’équipe Quantronique qui étudie les possibilités de calcul quantique, à partir de circuits électriques dits quantiques, c’est à dire très petits et mettant en œuvre des phénomènes quantiques comme la superposition des états ; avec 2 bits quantiques, on va pouvoir superposer 4 états notés 00, 01, 10 et 11, soit 2 états par particules, et mesurer ainsi la stabilité du dispositif. Il est également membre de l’académie des sciences. C’est une des références internationales en la matière ; le responsable du projet de machine quantique Sycomore, chez Google, John Martinis, a fait partie de son équipe ; ils ont même coécrit qq. articles.

Jusqu’ici, j’avais des interrogations et beaucoup de scepticisme car je n’avais jamais réussi à trouver de l’information de qualité, malgré qq. recherches restées vaines, en particulier sur la machine D-Wave à propos de laquelle je n’avais jamais rien trouvé qui ressemble, de près ou de loin, à un manuel de programmation au sens habituel du terme. J’avais tendance à m’aligner sur l’avis de physiciens comme S. Haroche, R. Laughlin, tous deux prix Nobel, assez sceptiques sur la faisabilité, ou A. Grinbaum que nous avions vu à l’Université catholique de Lille.

Pour la 1ère fois, la problématique s’éclaire, suite à cette conférence, et je comprends enfin pourquoi « Ce n’est pas pour demain », comme l’avait dit S. Haroche à l’époque de son prix Nobel !

L’échelle quantique est celle de l’atome, soit 0,1 nanomètre. C’est très petit. Le pas de l’hélice ADN de nos chromosomes, c’est 3,4 nm. Nos meilleurs circuits intégrés comme ceux de la machine NVIDIA GV100 dont j’ai déjà parlé sont gravés à 12 nm, ce qui fait un rang linéaire d’une centaine d’atomes de silicium, et en volume un petit cube qui en contiendrait 1 million [100×100×100]. On sait faire des expériences de diffraction quantique avec des molécules de fullerène qui contiennent 60 atomes de carbone, de « gros » objets à l’échelle quantique. Depuis les 1ères expériences de corrélation quantique faites par A. Aspect, on en est maintenant à plusieurs kilomètres, et même entre des satellites et la terre.

Rien de ce que l’on observe avec nos instruments n’échappe à la mécanique quantique et à ce jour il n’y a aucun contre exemple connu qui en montrerait les limites même si beaucoup de physiciens pensent que cette limite existe. Notons qu’avec la mécanique classique de Newton [1687], ce n’est que 2 siècles plus tard que les problèmes apparaissent avec les mesures d’invariance de la vitesse de la lumière. D’où les erreurs de perspective de savants comme Laplace et ceux de moindre calibre qui l’ont suivi … erreurs qui n’ont été reconnues que dans les années 1980 !

La finesse de gravure des circuits quantiques est obtenue par lithographie électronique, car à ce niveau la lithographie optique en ultraviolet n’est plus assez fine. Ces technologies, très couteuses, sont cependant bien maîtrisées au plan industriel ; les ingénieurs physiciens savent faire ! Le phénomène véritablement intéressant est la mise en œuvre d’un parallélisme vraiment massif, au delà du million, alors qu’une machine comme la NVIDIA ne sait faire travailler « que » 4096 processeurs en parallèle, une performance déjà extraordinaire, et une programmation qui commence à être vraiment complexe. Les circuits quantiques changent donc la donne, comme l’avaient fait les ordinateurs classiques de von Neumann des années 1950 et leurs 20.000 instructions à la seconde, soit 4 à 5 ordres de grandeur par rapport à l’électromécanique, avec une fiabilité de 15 à 20 minutes maximum [aujourd’hui, c’est plusieurs années grâce à de la redondance bien placée].

Les physiciens comme D. Estève ont pu mesurer la fiabilité de leurs dispositifs, soit pour 2 bits Quantiques 0,993. Avec une machine de 50 bits Q, ça fait donc (O,993)50, soit environ 0,7 ; avec 100 bits Q, là où ça commence à être intéressant, ça fait environ 0,5. C’est nettement insuffisant pour une exploitation hors du laboratoire. Pour que la fiabilité deviennent acceptable, il faudrait pouvoir doter la machine quantique de Codes Correcteurs d’Erreurs, comme ce qui se fait dans nos ordinateurs classiques, lesquels sans ces codes CCE ne fonctionneraient pas plus de qq. minutes. Peut-être qu’en enfouissant la machine au fond d’une mine pour la mettre à l’abri des rayons cosmiques, ça marcherait un peu plus longtemps …

Or dans la machine quantique on ne sait pas faire l’équivalent de ces CCE pour des raisons fondamentales de logique quantique, car on ne peut pas dupliquer les états superposés sans les détruire [donc la redondance est impossible], quand bien même on sache les télé-transporter [grâce à la non localité, ce que permet la dite logique]. La difficulté ainsi soulevée est rédhibitoire car on n’a pas à ce jour la théorie, ni même aux dires de D. Estève une idée de recherche d’une telle théorie. Il va falloir être créatif et inspiré par de nouvelles expériences  …

Une autre difficulté est induite par les températures ultra-basses nécessaires à l’émergence du phénomène. Je croyais naïvement que ça se passait dans l’hélium liquide à 2,7 °K, comme les aimants du LHC ou des appareils IRM qui ont besoin de champs magnétiques intenses obtenus par supraconductivité. Beaucoup trop chaud m’a répondu D. Estève ! Ça se passe à 0,001 °K, avec des appareil que l’on sait fabriquer [ça s’appelle des réfrigérateurs à dilution], mais ça coute 300.000€. Pour stabiliser le circuit qui fonctionne avec des quantités d’énergie infimes, il faut donc refroidir bien au delà de ce que l’on sait faire en standard avec de l’air liquide, ou de l’hélium liquide. Ce n’est pas vraiment écologique comme procédé car comme l’exigent les lois de la thermodynamique il faut beaucoup d’énergie pour faire du froid, un froid qui, à cette échelle, n’existe pas dans la nature. L’objet le plus froid de la nature est le fond diffus cosmologique, le vide sidéral, à environ 3°K.

Reste le problème de la programmation ?!

En écoutant D. Estève j’ai compris pourquoi mes recherches sur D-Wave n’avaient rien donné. Et pour cause, ce n’est pas un ordinateur programmable. C’est le terme « ordinateur » qui m’a abusé, car il n’y a pas d’ordinateurs sans son [on devrait dire « ses », car il y a plusieurs niveaux !] manuel de programmation. La règle est : Ordinateur = Programmation. Le système dont on parle est une machine analogique, et d’ailleurs, dans sa conférence, D. Estève n’a jamais parlé d’ordinateur quantique, mais toujours de machine quantique. Le cœur de la machine est un circuit électrique quantique dont le fonctionnement est analogue à un calcul. Dans un calculateur dit analogique [on en a utilisé jusque dans les années 1980] on met en œuvre des circuits électroniques classiques qui permettent de calculer la dérivée ou l’intégration d’un signal électrique fournit en entrée. Dans les années 1960-70 c’était un grand classique des cours d’électroniques.

Avec le circuit électrique quantique inventé par D. Estève et ses collègues on peut faire des calculs parallèles en jouant sur la superposition des états quantiques, comme ça été dit ci-dessus, à condition qu’on sache isoler le circuit de son environnement non quantique, pendant un certain temps nécessaire au calcul. On sait depuis un bon siècle que la décomposition d’un nombre en facteurs premiers est un calcul dont la complexité est exponentielle. Les clés de codage RSA font 1.024 ou 2.048 bits. Un nombre décimal de 4000 chiffres [environ une page de texte, et environ 13.300 chiffres binaires 0/1] nécessiterait un temps de calcul de plusieurs siècles … Mais avec une machine pouvant faire plusieurs millions d’opérations en parallèle, c’est différent, et l’algorithme de factorisation s’y prête bien d’où un algorithme comme celui de Shor. Mais là encore le terme est trompeur, surtout pour un informaticien, car en informatique la règle de base est Programme = Algorithmes/Instructions + Données [Titre d’un livre célèbre de N. Wirth, connu de tous les informaticiens], alors que pour un physicien la règle dit aussi Algorithme = Un circuit ad hoc ; comme dans les calculateurs analogiques classiques. Le « programmeur » est alors un physicien qui n’a plus rien d’un programmeur, car les programmeurs actuellement formés partout ignorent en général complètement comment est faite la circuiterie hardware, et c’est ce qui les rend si efficace, car s’il fallait qu’ils connaissent le COMMENT [par exemple la machine NVIDIA et ses 21 milliards de transistors], la productivité ferait une chute drastique ! Quant au coût de fabrication d’un tel circuit, c’est en million d’€ qu’il faut compter.

Le programmeur d’une machine quantique est donc un physicien quantique, une formation exigeante qui par les temps qui courent, surtout dans nos pays occidentaux, fait fuir tout le monde … Pour conclure, l’ordinateur quantique, m’apparait comme un bel exemple de science fictive. On a une science très solide qui nous dit plutôt que c’est impossible en l’état actuel, ou si on est prudent comme S. Harroche qui dit : « Ce n’est pas pour demain ». Mais ça ne fait rien, l’imaginaire technologique va alors se substituer aux lois de la physique, et tout comme par magie va devenir possible. Le bruit et la complexité, l’ingénierie, sont mis sous le tapis. Dans mes conférences, et dans le livre qui en est issu Survivrons-nous à la technologie ?, j’ai essayé d’expliquer pourquoi et comment on avait pu passer de la machine « papier » de Turing qui naît en 1936, aux ordinateurs qui naissent eux en 1952-53. Grâce au génie de von Neumann, on avait toute la théorie, mais il a fallu une bonne dizaine d’années pour en trouver l’ingénierie, mais l’ingénierie que nous connaissons maintenant ne démarre véritablement qu’avec les transistors CMOS dans les années 1980. La situation de l’ordinateur quantique, si tant est qu’il existe un jour, est caractérisée par l’absence de théorie en support de l’ingénierie. C’est l’ingénierie qui est fictive.

Dans la série de science fiction Star Trek que je regardais avec plaisir, les machines de télé-transportation du docteur Spock nécessitaient un appareillage ad hoc et des physiciens de chaque côté du transport. C’est le physicien qui était dupliqué, sans qu’on sache trop comment, surtout pour la 1ère fois … De la bonne science fiction, avec sa part de mystère, mais sans absurdité flagrante.

PS : il y a une vidéo de D. Estève de 2019 qui explique assez bien la problématique, pour des non physiciens …

Partager :

18 réflexions sur « Information et ordinateurs quantiques, par Jacques Printz »

  1. Coucou,

    Super interessant ce petit point. Je me souviens des années 80, ou déja les magazines spécialisés expliquaient la révolution des ordinateurs quantiques. Je n’avais pas compris à l’époque.
    J’ai suivi de loin les évolutions que je ne comprenais pas plus; même recemment je ne trouvais aucune explication satisfaisante.

    Et la par hasard, je viens faire un tour sur le blog de MR Droopy et paf une présentation qui m’eclaire sur l’état de cette science et qui parait solide.

    Merci.

    Bonne journée

    Stéphane

  2. Je retiens une chose: avec l’informatique quantique la redondance est impossible, et ça c’est quand même très bloquant. Car sans la redondance, impossible de corriger les erreurs par bit de parité ou choses de cet ordre, car en informatique quantique la copie est impossible car elle détruit l’information.

    Mais comment peut-on lire sans copier? Bon, c’est hors sujet dans le présent blog.

    « Le système dont on parle est une machine analogique, » : hein?? que ça soit pas programmable, ok c’est déjà un sérieux problème, mais en plus ce n’est même pas numérique (digital quoi) ??? C’est des bons vieux amplis op des années 70 quoi en gros. Enfin sauf qu’ils seraient beaucoup plus puissants, mais ça resterait analogique c’est-à-dire « à peu près linéaires ».

    « Le programmeur d’une machine quantique est donc un physicien quantique » : oui mais ça , passe encore, ça peut évoluer: au début de l’automobile, il fallait être mécanicien pour la conduire, au début de l’informatique il fallait être informaticien pour se servir d’un ordinateur, etc.

    « La situation de l’ordinateur quantique, si tant est qu’il existe un jour, est caractérisée par l’absence de théorie en support de l’ingénierie. C’est l’ingénierie qui est fictive. » : c’est pas faux.

  3. Les Champs Eglisés : Piaffer ou ne pas piaffer pour l’information quantique ?

    La situation épistémologique de l’information quantique, bien soulignée pour l’aspect « logiciel » par Jacques Printz, outre son intérêt propre, révèle aussi notre façon de faire science:
    Notre façon de croire en certaines choses que nous ne comprenons pas bien, d’entonner des cantiques propitiatoires pour que ruisselle sur nous les bienfaits que nous n’avons pas encore eu d’un silicium qui n’a pourtant pas démérité dans les services rendus aux humains.

    Parenthèse : S’y mêle sans doute l’émotion, la volonté de dominer, les petites sociologies des champs scientifiques. Le rire n’est-il pas la façon de notre cerveau de répondre à des stimuli qui n’aboutissent pas dans les cases « utiles », celles qui mènent aux futures décisions. Un affect « code 404 » dans nos neurones, que nous chérissons et instituons au théâtre (avec les subtilités que fait valoir Borges dans la nouvelle « Tahafut-al-Tahafut » du recueil El Aleph, sur l’incongruité de la comédie et de la tragédie pour un certain Averroès tentant de comprendre la Poétique d’Aristote).

    Quelques nuances d’abord.
    – L’histoire du CMOS remonte plutôt aux années 1970 . Je bidouillai un 6502 (cousin doué du 6800, et puce des premiers Apple I et II, du PET Commodore,…) en 1980. Et j’assistais aux séminaires bondés d’Alain Aspect rue Lhomond vers 1983-1984, jeune en formation à l’époque (violation des inégalités de Bell, paradoxe EPR).
    – Les qubits : deux qubits font bien plus en terme d’information que quatre bits 00 01 10 ou 11, puisqu’ils recèlent tous les intermédiaires analogiques (et cela en amplitude et phase si on parle de fonction d’onde complexe). Mais en effet, à la lecture des qubits (la « projection » des postulats quantiques, sans doute le moins intuitif), on n’aura que peu d’information finale.
    – Le nom donné au « 0.99x » d’imperfection est la décohérence. Le point dur qui donne envie de travailler ) très très basse température. Un Cassandre de la chose a été Mikhail D’yakonov , qui a publié un papier dans IEEE Spectrum, faisant état de ce pessimisme, qu’il est bon de lire (en anglais, … DeepL est votre ami)
    https://spectrum.ieee.org/computing/hardware/the-case-against-quantum-computing.
    Ce « Sherlock Holmes » des sciences physiques, qui aime à condenser ses arguments en un petit noyau innocent (je l’ai croisé dans mes vies de labo…), n’a peut-être pas pu tout bien expliquer dans cet article, amha. Les points critiques sur les lois d’échelles ne sont pas triviaux. Mais cela vaut la peine.

    – Le vécu interne de l’information quantique : Cette science fait des percées et a le vent en poupe. Elle est perçue comme l’espoir de nouvelles technologies « vraiment en rupture ». Le « DIM Sirteq » témoigne de l’investissement public en la matière en IdF . Parmi les jeunes d’une école comme SupOptique (qui coïncide avec le siège du Sirteq) où enseignent les gens de l’équipe d’Alain Aspect ou d’équipes « quantiques » assez bien dotées en fonds (chaires, bourses ERC, …), les quelques uns les plus brillants sont logiquement attirés par une thèse, et arrivent ensuite dans le « réseau des atomes froids » (qui a existé sous le nom d’IFRAF avant de muter entre autres dans le Sirteq).
    Les jeunes dans ces équipes sont soumis à d’assez hautes pressions (course aux résultats), ce n’est sans doute pas le seul endroit d’Europe, mais c’en est un, tant qu’il s’agit de petits nombres, il est vrai que les « sorties » pour ceux que cette pression ne rend pas heureux sont gérées et gérables bien plus en physique que dans d’autres domaines.
    Le « but » annoncé dans les premiers transparents des présentations successives est passé par : cryptographie quantique (les début l’inviolabilité liée à EPR / Bell en gros), l’ordinateur quantique (2010-2015) et depuis, on parle surtout de « Simulateur Quantique », c’est à dire de réunir 50 à 5000 atomes « à façon » pour représenter les choses que la physique ne sait pas calculer : les problèmes à plusieurs corps de la physique des solides (gaz /Condensats de Bose Hubbard, etc. , si je devais faire du « name dropping ») . Les électrons usuels ne peuvent être mis en interaction aussi joliment que ces atomes, ne serait-ce qu’à cause de leurs charges : ils se repoussent (sauf via les paires de Cooper dans les supraconducteurs, un des sommets des finesses de la physique du solide…). Donc un outil pour faire un outil. C’est humain, comme on disait au Magdalénien ( ~ sommet de la pierre taillée au paléolithique, le percuteur est déjà un outil travaillé).

    – La fascination pour le quantique, dont on ne comprend pas bien les fondements (le déterminisme y a-t-il une place ? voir « superdéterminisme » dans vos requêtes …) détourne quelque peu les jeunes doués des questions de complexités qui sont gérées dans d’autres filières. Et qui seraient à mon avis très formatrices pour les défis de notre société.

    – La question des « églises » dans la science est hélas de plus en plus prégnante. D’om le titre de ce demi-billet « Champs-Eglisés ». (Avenue associé à Edith Piaf qui consonne avec mon titre, mais attention, la chanson « les champs-Elysées » est de Dassin).
    On pourra rappeler néanmoins la citation de Planck, suivant laquelle les théories ne meurent « qu’un enterrement à la fois », fait prouvé récemment par une étude bibliométrique sur les « chercheurs alpha » que la faucheuse a décidé de faucher à un moment tel (quinquagénaires je vous souhaite longue vie…) qu’on peut voir l’impact sur la diversité du champ qu’ils « tenaient ». On pourra rappeler aussi l’ouvrage « The trouble with physics » de Lee Smolyn, qui dénonce la sociologie d’uniformisation « winner takes all » des tenants de la théorie des cordes dans tous les départements de physique théorique. Analogue à la situation en économie orthodoxe académique, on le sait sur ce blog.

    Exemple encore : Un sujet que je connais un peu de côté et qui a à voir avec les machins complexes en interaction (gaz divers évoqués ci-dessus) s’appelle la « localisation » ( pourquoi des ondes ou des particules vont assez peu circuler en fonction d’un degré de désordre de leur paysage pourtant modeste). Ce sujet est tenu par une « église », et ceux qui essayent de rentrer par la porte en disant que leur apport expérimental leur donne une perspective un tant soit peu différente (même pas contradictoire) se font assez bien rembarrer.

    Pour conclure, je reviens au quantique. Il y a une voie à température ambiante qui a l’air de marcher avec 50 à 100 qubits et dont les tenants disaient en conférence il y a un an qu’elle concurrence déjà largement D-Wave.
    Il s’agit de faire circuler des « pulses à 0 ou 1 photons », sur un anneau, avec des lasers et de la photonique ordinaire des télécoms. Et quelques subtilités au niveau des détecteurs. La partie « logicielle » consiste à programmer un FPGA qui va lire les photons qui passent dans la boucle (les 0 ou 1 quantiques) et réinjecter des 0 ou des 1 (quantiques, probabilistes, cohérents, etc.) en aval sur la boucle, avec assez de temps pour faire le calcul (la boucle fait genre 100m, en bobine, le calculateur fait son job en 100 ns = 20m de fibre, on peut réinjecter 25 m plus loin, puis laisser 75m de retour).
    On pourra trouver une description partielle ici dans IEEE Spectrum :

    https://spectrum.ieee.org/computing/hardware/to-crack-the-toughest-optimization-problems-just-add-lasers

    A mon avis, c’est bien joué. Les photons sont maintenus à « la température qu’on veut », et s’abstraient du gros du bruit de l’environnement, alors que protéger un électron délicatement en orbite de Rydberg sur son noyau de Rubidium de l’approche de toute autre influence est certes possible mais encore assez acrobatique.

    Leur FPGA est câblé pour résoudre des problèmes « NP’difficiles » de la théorie des graphes, le « mincut » ou « maxcut » (pour un graphe donné (des sommets reliés par des flèches ou des liens (edges), quel est la coupure en deux qui minimise le nombre de liens (edges) coupés ?
    Et ça le fait un peu comme les algo de l’IA: d’abord une réduction facile, puis quand la solution optimale est protégée par une espèce de barrière (la question des minima principaux et secondaires), un temps plus long où les photons « cherchent avant de trouver ». Puis le système de photons se stabilisent vers la bonne réponse (des 1 pour le sous-ensemble d’un côté du mincut disons, des 0 de l’autre, ou des choses de ce genre là).
    Ca ne vous calcule pas tout de suite la météo pour dans 3 semaines, comme vous le devinez.

    Voici mon éclairage perso sur ce thème…

    1. Juste pour aider les non-techniciens à vous lire :

      Un FPGA est un composant qui réunit des millions de portes logiques indépendantes, et qui permet de les connecter, physiquement, par programmation. C’est comme si vous pouviez remplacer votre fer à souder, des millions de composants et des millions de fils, par un programme.

      L’avantage par rapport à un ordinateur séquentiel, c’est la rapidité : alors qu’un ordinateur de 64 bits de largeur de bus, par exemple, devra traiter l’information par paquets de 64 bits, les ranger en mémoire, les récupérer plus tard, etc, et ceci, des milliers ou millions de fois, selon un programme séquentiel, le FPGA pourra effectuer le même calcul d’un coup, grâce à ses portes logiques, préalablement physiquement connectées pour réaliser ce calcul directement.

      On voit donc l’élégance du système FPGA + optique que vous décrivez, qui permet de reconfigurer complètement le système pour un problème particulier, par la programmation du FPGA (ce qui est de l’informatique classique), tout en sollicitant quand c’est utile des q-bits optiques isolés dans une fibre optique à température ambiante…

      1. Bonjour Marc
        Oui, les FPGA c’est de la logique câblée, mais avec la complexité qui a augmenté, la vitesse n’est pas le top du top, c’est seulement « mieux qu’un processeur ».
        Pour aller vraiment vite, il faut les ASIC (Application Specific Integrated Circuits) comme ceux de Broadcomm qui intègrent (depuis sans doute 15 20 ans) les algo de décryptage et optimisent vitesse et consommation d’énergie, puisqu’un bon cryptage est nécessairement « entropiquement maximal » on doit toucher à tout pour mettre un désordre apparent, et cela coute forcément de l’énergie de décrypter. Mais comme l’algo est fixe, on peut spécialiser le processeur (tensions, architecture, …).

        J’ai toujours été étonné de voir trainer sur les paillasses des télécoms des oscillos à 10 ou 20 ou 40 GHz ou plus (Gsample/s exactement), alors que les chips de conversion ADC sur le marché plafonnent à 2-3 GHz (pour 8 bits). Les grandes marques d’oscillo (Tektro Lecroy Agilent Ando…) se font fabriquer les ADC d’entrée en fonderie sur mesure (les ASIC donc) et ensuite on vient piocher dans une mémoire qui se rafraichit sans cesse à ce rythme hallucinant (une sorte de cache, mais sans visée « process », juste une visée « data store » pour traitement bas niveau, dans mes mots à moi).

        Je suis preneur d’un update lisible sur ces technos, mais elles sont très bien protégées puisque c’est là-dessus que les vendeurs d’instruments haut de gamme fondent leur réputation.

      1. Bonjour M. Printz.
        Le fil « réponse » du blog n’étant pas visuellement super clair, je suppose que vous réagissiez à mon commentaire, utilement complété par les apports de marc Peltier.

        Merci de votre appréciation, en tout cas.

  4. Alors la merci de clarifier : moi non plus je n’avais jamais fait le lien entre « ordinateur quantique » et machine analogique. Ce dont je me souviens des machines analogiques, c’est que leur construction, équivalent programmation d’une machine de von Neumann, doit être adaptée au problème à calculer, ce qui est fastidieux. Mais une fois au point, une machine analogique, quel que soit la complexité du calcul à réaliser, donne un résultat immédiat, temps de réponse zéro entre entrée et sortie.

    Exemples ? Peut-être les anciens planétariums qui donnent toutes les positions des planètes juste en tournant la manivelle.

    Je crois qu’un physicien qui avait fait ses études dans les années 60 (Tony Tebby, programmeur de QDOS, système d’exploitation du Sinclair QL), égaré dans l’informatique m’avait donné un autre exemple, mais c’est vieux de 25 ans. En informatique de von Neumann il y a une énorme difficulté à déterminer un nombre au hasard ce qui est pourtant nécessaire dans un grand nombre de cas. Prenez un jeu de mikado, laissez tomber les bâtonnets, enregistrez leur état d’enchevêtrement sur la table, vous avez une vrai nombre random obtenu d’une façon analogique. Je crois que c’était plus ou moins ce qu’il m’avait expliqué.

    Je comprends mieux la difficulté. Merci pour cet article. Et merci à Paul de l’avoir accepté pour publication.

    1. Vous savez certainement que von Neumann était un fin connaisseur de l’ingénierie de l’aléatoire, et qu’il est le véritable inventeur de la méthode de Monte-Carlo, promue par ses collègues et amis comme Stanislas Ulam. Il disait : « Any one who considers arithmetical methods of producing random digits is, of course, in a state of sin ». Un ordinateur classique, cad tous les ordinateurs à ce jour !, ne peut pas servir à fabriquer un nombre aléatoire. C’est la source de biais statistiques redoutables avec les sondages et d’une façon générale de l’emploi « illégitime » du calcul des probabilités par ceux qui ne le maîtrisent pas [cf. le monde de la finance …]

  5. Vous pouvez aussi construire une charpente de la taille de l’univers avec le bois d’une seule allumette , faut juste trouver le menuisier qui saura la tailler 🙂

  6. Bonjour,

    La superposition n’est qu’une mauvaise interprétation liée au temps d’observation (ou de mesure), même si celle-ci est réalisée dans un temps très inférieur à la picoseconde.
    Notre problème vient du fait que le temps que nous considérons comme continu au sein de notre laboratoire, ne l’est pas. Dans un texte de vulgarisation, je propose un Temps Discontinu Quantique Relatif (T.D.Q.R.). Il est Discontinu car il dépend du lieu où l’on se trouve (il se dilate de plus en plus quand on se déplace du bord d’une galaxie vers son centre), il est Quantique en raison de sa valeur infinitésimale de son repli, et il est Relatif (on connaît l’incidence lié à la vitesse). Nous vivons dans un Univers « strobofractal ». Nous avons tous vu des gouttes d’eau « remonter le temps » (vers le robinet) quand elles sont éclairées par des flash successifs. Mais là nous savons que ce n’est qu’apparence. Donc commençons à définir ce qu’est la vraie nature du temps. Ce n’est pas un simple concept. Si cela vous intéresse, voir le paradigme du nautile : http://www.universstrobofractal.fr

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.