Nano et Péta vont-ils éteindre la radio-activité ? par Timiota

Billet invité. Ouvert aux commentaires.

Des Nanoparticules et des Pétawatts pour éteindre la radioactivité ? Une tranche de science pour y réfléchir, et dépasser aussi un peu ce cadre :

Un journal russe en français signalait en 2015 une percée possible dans la décontamination radioactive, grâce à des lasers et à des nanoparticules. Il s’agit d’une série d’études dans l’équipe du prof. Shafeev (translittération française Chafeïev), dont un exemple est ici.

La possibilité de déclencher des transmutations par des lasers très intenses a été actée en 2003 par une équipe allemande (H. Schwoerer) confirmée par celle de l’université Strathclyde de Glasgow notamment. Le changement d’isotope a pour but de se débarrasser des isotopes de durée de vie intermédiaire (2 ans – 200000 ans), pour aller vers des cascades de désexcitation plus rapides ou des noyaux stables.

Cette possibilité avait été aussi envisagée vers 2000-2003 par un chercheur français spécialiste des impulsions lasers et experts sur les sujets d’énergie, Charles Hirlimann, et qui a récemment traduit en anglais les propositions d’une équipe qu’il a dirigé à l’époque dans un document Arxiv (Laser induced nuclear waste transmutation, paru en français dans la série « Lasers et Technologies Femtosecondes », M. Sentis and O. Utéza Ed., (Publications de l’Université de Saint‐Etienne), p. 69-80, 2005.)

Les trois dernières lignes suggèrent une politique « du moins pire » pour les centrales nucléaires : prévoir en leur intérieur un vaste espace de décontamination sur place, en espérant qu’on y arrive un jour à échelle industrielle. Pierre pour débats futurs à garder en tête. (« Note added at the time of the translation (March 2016) : The general idea sustaining this work is that it would be safer to keep the nuclear waste confined inside the nuclear plant where it is generated. In this way, nuclear plants should add two more facilities : one for isotope separation and a large laser one.)

Tout cela fait aussi penser au “Rubbiatron”, l’idée de Carlo Rubbia d’avoir des réacteurs spéciaux sous-critiques (qui n’explosent pas mais nécessitent un circuit d’injection d’énergie par faisceaux) pour transmuter les restes dans les « bons » cycles.

En ce qui concerne le mécanisme exact de la transmutation induite par laser, c’est en gros ainsi : un laser très intense (térawatt 10^12 à pétawatt 10^15 W en puissance crête) et très focalisé peut accélérer des électrons jusqu’à des énergies ultra-relativistes (énergies cinétiques de > 10 MeV, l’énergie au repos « E = mc² » de l’électron étant 0,511 MeV), de par ses champs électriques et magnétiques bien plus intenses que ceux qui retiennent les électrons autour des noyaux. Ces électrons immensément accélérés peuvent pour leur part freiner brutalement quand ils arrivent dans la matière. Ils induisent alors des douches de rayons gamma énergétique par leur « rayonnement de freinage » (Bremsstrahlung, le même que dans les synchrotrons fondamentalement), et ce sont ces rayons gamma qui en bout de chaine peuvent produire les transmutations désirées. Le but est, rappelons-le, de transformer un élément actif à longue durée de vie (le Césium Cs137 : 30 ans, les isotopes les pires du Plutonium Pu, qqs milliers d’années…) en isotope à courte durée de vie (jours ou secondes) pour retrouver de la matière manipulable et « relaxée » de son excitation interne.

Comme l’indique mon titre « Nano et Péta », je prends l’occasion pour vous parler de ces nanotechnologies (1 nm = 1/10^9 m) , des lasers pétawatts (10^15 W) et de la radioactivité de divers points de vue.

  • Effet tunnel : Tout d’abord, il faut comprendre au moins qualitativement pourquoi ce qu’on fait avec un quelconque bout de tissu fluorescent (type gilet de sécurité jaune), à savoir rentrer des photons dedans pour qu’ils soient absorbés, puis observer la désexcitation (jaune) des molécules qui rendent des photons d’un peu moindre énergie, pourquoi, donc, ceci n’est pas si simple avec les noyaux radioactifs, pourquoi ils n’ingurgitent pas facilement un p’tit électron, un proton ou photon gamma, alors qu’ils émettent sans s’arrêter ce genre de chose.

L’explication pour la radioactivité alpha (on avait les données déjà…) remonte à George Gamow (né à Odessa en 1904…) et aux débuts de la physique quantique en 1928 : il y une barrière pour sortir du noyau, très élevée, mais franchissable « par en-dessous » : par onde évanescente dirait-on en optique. La barrière est dite « coulombienne » : venant de dehors, on rencontre le champ électrique du noyau de même signe que la particule, donc répulsif, avant de ressentir l’attraction de l’interaction forte dans le noyau entre nucléons. La barrière coulombienne est donc ce qui maintient un certain temps la particule dans le noyau. Pour un essai donné de passage à travers la barrière, toutefois la probabilité est infime, car la décroissance de la probabilité de présence (le module carré de la fonction d’onde) dans la barrière est une exponentielle très rapidement décroissante. Ce peut donc être aussi petit que 10^-27 par passage ! Mais la particule prisonnière fait un grand nombre de rebonds sur les barreaux de sa cage, peut-être 10^20 par seconde. Du coup, au bout de 10^7 secondes, soit 100 jours, elle y arrive. A l’inverse, si je me pointe à l’extérieur avec une énergie comparable à celle qu’il faut pour retrouver la particule à l’intérieur, la probabilité de passage ne change pas, pour l’essentiel : c’est 10^-27 par essai. D’où la nécessité d’un immense flux de particules et d’un grand nombre de noyaux pour les recevoir si au final on veut observer quelques milliers seulement d’évènements intéressants (disons quelques milliers par seconde, dans un échantillon d’une mole, 6,02×10^23 atomes, soit 235g d’Uranium U235 par exemple (environ 11 cm3)). L’exploit des expériences de 2003 de transmutation laser, c’est d’être parvenu à ce type de seuil : créer assez de photons gamma pour observer des évènements en quantité scientifiquement convaincante.

Mais le laser a ici un inconvénient par rapport à un flux d’autres particules (neutrons, neutrinos, électrons, gamma,…) : de tels faisceaux très focalisés étant prompt à ioniser tous les atomes qu’ils trouvent sur leur chemin, dans la zone du foyer (disons ~10 µm), on ne peut conduire le laser à l’intérieur de la matière. C’est à vérifier mais les transmutations observées ont dû l’être dans une couche très mince d’une fraction de micron, de sorte que les atomes relativement internes y recevaient les électrons accélérés issus des atomes externes dans une mutuelle proximité. En revanche, un échantillon de 1 mm d’épaisseur pose un problème plus difficile, il faut le réduire en poudre fine pour faire ce qu’on veut. Ce problème de division de la matière n’est pas sans rappeler les premières séparations isotopiques du « calutron » à Oak Ridge pendant le projet Manhattan.

  • Dans ce contexte, l’annonce russe a un petit parfum de fusion froide. Les mots « fusion froide » figurent d’ailleurs dans le titre d’un des articles de Shafeev, celui dont j’ai donné le lien plus haut [« Nuclear-chemical processes under the conditions of laser ablation of metals in aqueous media (problems of “cold fusion”) »].

En 1989, à l’apparition médiatique de la « fusion froide », ce sont des évènements de fusion de deutérium lorsque ces atomes sont mis en insertion/solution solide dans le Palladium par voie électrolytique qui sont censés apparaitre, et on peut les détecter notamment par un excès de neutrons. Les « inventeurs » de la fusion froide, Pons et Fleischmann disent observer carrément un dégagement de chaleur très fort. Pons et Fleischmann sont des électrochimistes de renom, je le confirme car à l’époque j’avais juste fini ma thèse dans une petite équipe dirigée par un excellent électrochimiste/physicien. La caractérisation par les neutrons, c’est ce que mes voisins de labos plus expérimentés que moi à l’ENEA (le CEA italien) et l’Istitutto di Struttura della Materia de Frascati, où je suis quelque temps, vont essayer de faire, avec des résultats au mieux mitigés.

On sait qu’aujourd’hui, la fusion froide n’a guère prospéré que comme secte. Avec son journal, son (ses ?) prototype(s ?) « qui va… », « qui va bientôt… », « qui est presque déjà » , etc. J’assume mon rôle de sceptique sur ce thème.

  • Pourquoi les Russes dans cette étude de décontamination ? les Russes sont forts en lasers depuis assez longtemps, mais comparativement à l’ouest ou à l’Asie orientale, n’ont pas eu accès à de la nanotech « déterministe » (structures faites sur mesure, avec insolation d’une résine dans un microscope électronique en mode dit « nanomasqueur », résolution de 2…5 nm suivant résine, etc). Du coup, ils font beaucoup d’investigations dans des milieux poreux, désordonnés, composites. Pas d’objection à cela d’ailleurs. Du coup, ils ont plus de chance d’observer « quelque chose dans un mélange un peu compliqué » que ceux qui travaillent en isolant d’abord des systèmes « propres ».
  • Nano à la rescousse ? Le champ électrique d’un laser doit être assez fort pour ioniser puis accélérer en 10^-15 seconde un électron. Or tout un chacun connait l’effet de concentration du champ par les pointes, qui permet au paratonnerre de fonctionner. La même histoire est déclinée (ad nauseam dirais-je) en nanophysique : les affaires d’exaltation du champ électrique près des nanoparticules métalliques, c’est un des grands thèmes de la nanophysique, et d’un de ses sous-ensemble le plus populaire, la « plasmonique ». C’est toujours l’effet paratonnerre mais appliqué à une nanoparticule métallique (plasmonique pour faire chic, du moment que les électrons mobiles y subissent assez peu de pertes ohmiques) de taille allant de 1 nm à 100 nm. Le champ de l’onde se renforce au bout, d’un facteur pouvant en gros aller jusqu’à 10^2. Suivant les effets physiques induits, la puissance est concentrée d’un facteur jusqu’à 10^4 (d’où par exemple de la fusion localisée, ou des changements de phase localisés).
    La prochaine génération de disque de Seagate ou Western Digital de ~15 TB (commercialisation 2017, brevet US 7,272,079 B2, délivré en 2007, demandé en 2004, article public en 2009) va mettre en oeuvre un chauffage localisé de la piste magnétique pour gagner en densité de bits : ils sont si petits qu’ils doivent être faits de matériaux magnétiques coercitifs pour tenir la route (et le temps) et que du coup, ils sont inécrivables à l’ambiante. On les chauffe donc « au vol », en quelques nanosecondes, en proximité (10-20 nm) d’un point chaud de type « nano-paratonnerre » (« peg ») illuminé par un laser de quelques mW, de +300K (–> on arrive vers ~ 600K, 300°C). Voir « HAMR » (Heat Assisted Magnetic Recording) dans Google.
  • Alors pourquoi pas un petit renforcement par effet de pointe/plasmonique de l’effet mystérieux de transmutation induite par laser ? Sauf que les renforcements en question sont dus à un comportement collectifs des électrons lorsqu’ils sont assez mobiles et cela exige qu’ils occupent les quelques orbitales du métal dites « bande de conduction ». Ces bandes ne sont qu’un lointain souvenir aux énergies de type 10 MeV dont il est question dans les travaux de transmutation laser. Il est donc très peu probable que l’effet de pointe puisse persister pour des puissances locales aussi considérable : ces lasers détruisent un peu tout sur leur passage. Il n’est pas impossible qu’un plasma créé dans le début de l’impulsion puis dont les électrons sont sur-accélérés dans le milieu de l’impulsion fournissent les énergies requises, mais l’effet de pointe n’y est pour rien, c’est plutôt la facilité d’ionisation etc. qui compterait. On peut donc difficilement dire que Péta+Nano=1+1=2.
  • Quelques considérations davantage sociologiques/épistémologiques

Autour de la plasmonique : il me semble qu’on a atteint un stade fétichiste de la « plasmonique » des nano-objets, on en est à la louche à 4 000 à 8 000 articles par an autour de ces sujets, pour des applications pratiques assez limitées en comparaison à d’autres poussées de la science (je pense aux semi-conducteurs). A force de ne jurer que par ce type de physique, et de ne rien voir de très passionnant (il doit rester 5% de choses vraiment intéressantes et qui en valent la peine), il faut bien qu’il se passe quelque chose. Alors pourquoi pas cet effet de transmutation et de synergie de type Nano+Péta, pas plus convaincante que ça. C’est à peu près du niveau des effets de sorcellerie dans les villages africains en crise de croissance, c’est une façon d’arrêter de tous labourer le même champ et de trouver (inconsciemment/collectivement) un moyen d’aller faire autre chose lorsque l’heure d’une scission a organiquement sonné.

8Shares

13 réflexions sur « Nano et Péta vont-ils éteindre la radio-activité ? par Timiota »

  1. Votre papier Timiota me rappelle la qualité de vos posts de physique sur Sciences^2! Peut-être auriez vous des idées de manipes à proposer sur PETAL (http://petal.aquitaine.fr/) en attendant que les projets saclaysiens (FEL X etc…) voient le jour? Sinon les physiciens parlent beaucoup des nanos créés par lithographie, mais les chimistes (y compris russes) ont des méthodes bottom-up comme la « Directed Self-Assembly » qui permettra peut-être bientôt de créer des nanostructures contrôlées inférieures à 10 nm et sur de grandes surfaces (plusieurs cm^2)…

  2. De curieux phénomènes sont mis à jour par hasard, la science ne se l’explique pas non plus. Toute l’organisation autour du nucléaire à revoir, pas le nucléaire en lui-même, mais le nucléaire militaire est-il indispensable comme le nucléaire civil… le nucléaire destiné à ne pas s’en servir est t-il moins dangereux qu’on utilise au quotidien? L’organisation est une science alors innovons pour remettre un peu d’ordre, ne rien laisser sous le tapis. C’est peut-être inopinément que nous tomberons sur une civilisation extra-terrestre, le contexte dans lequel a été énoncé le paradoxe de Fermi n’était pas propice à la rencontre, plus de cœur à l’ouvrage et le problème physique sera réglé.

    1. Vigneron aurais tu une réflexion d’ordre scientifique et non psychologique (voire pathologique) à nous proposer sur cet article de Timiota pour changer?
      Et puis laisse les noms d’oiseaux voler au dessus de nos têtes, c’est de saison, plutôt que de les clouer au sol par ton acrimonieuse expression.

  3. Que peut la prétendue c…e systémique du prétendu lobby electronucléaire contre la propagande hégémonique et mortifère des C…rds triomphants comme Boulant ou Caldicott ?

    1. Ah on se demande parfois « C’est quoi une critique constructive ? » eh bien, il suffit pour le comprendre, de lire les commentaires de vigneron. Bon, d’accord, ici ce n’est pas le meilleur exemple, mais en général, enfin souvent, disons parfois, à l’occasion, de temps en temps, il y en a !

      1. Entre le Monde qui édulcore , et Hara kiri trop gore , Vigneron a choisi son camp , mais , comme les atomes dé-radioactivés , il n’est profitable que lorsqu’ il atteint un état stable , souvent inspiré de Sciences Po et consorts .

        Tout comme le titre des billets gagnerait à être moins aguicheur et provocateur .

        Ha! l’art de donner envie de lire est difficile ! Toujours cette vieille histoire de forme et de fond …

        Mais sur le fond de ce billet , je m’écrase , avec cependant une petite réticence à passer d’un cours de physique des particules professionnel, à un raccourci socio-épistémologique , par une association d’idées plus personnelle que vraiment argumentée.

    2. Le canard laqué ? Ah voui, une bonne recette apprécié des gourmets et, de saison, de surcroit.

      Canard laqué
      ÉTAPE 1
      « Plongez le canard entier dans de l’eau bouillante 30 secondes puis lavez et essuyez l’intérieur et l’extérieur avec des serviettes en papier. En utilisant un poinçon, faites de multiples trous dans la peau et les muscles du canard. »

      Ne nous encombrons pas de détail :
      ÉTAPE 6
      « Embrochez le canard et faites-le cuire en rôtissoire. Laissez cuire 2 heures, jusqu’à ce que la peau du canard devienne luisante et soit d’un brun assez foncé. »

      Bon appétit !
      http://www.cuisineaz.com/recettes/canard-laque-13177.aspx

  4. Décontamination des sols radioactifs, l’université de Nantes bosse sérieusement sur le sujet :

    « A Nantes, des chercheurs du Laboratoire de Planétologie et Géodynamique de Nantes (LPG Nantes) et du laboratoire de Physique Subatomique et des technologies associées (Subatech) ont expérimenté ensemble une nouvelle méthode prometteuse de dépollution des sols à partir de plantes et de bactéries. »

    « Pour cela, on injecte des bactéries dans le sol qui rendent le Césium plus mobile et devrait ainsi accroître la quantité prélevée par la plante », souligne Alice Hazotte. « Dans le cas où le Césium serait complètement mobilisable, le trèfle violet peut absorber jusqu’à 75% de la concentration initialement présente, dont une partie est stockée dans les parties récoltables de la plante (tige, feuilles) ».Débutées en 2013, les études menées en laboratoires ont montré la faisabilité de cette approche, même s’il reste encore quelques freins. De prometteuses perspectives pour les années à venir.  »
    http://www.univ-nantes.fr/1458551566675/0/fiche___actualite/

    Et l’université Stanford, excellentissime (j’ai suivi un Mooc avec eux sur Coursera, un enseignement « ouvert » et de grande qualité) va plus loin . Elle publie une étude importante sur la suppression de l’utilisation des énergies fossiles et nucléaires et leur remplacement envisageable et réaliste par les ENR d’ici 2050. En outre les ENR sont plus économes ! :

    « Un tel scénario 100% énergies renouvelables parait donc réaliste. Il dépend cependant d’un paramètre que les chercheurs de Stanford ne maîtrisent pas: la volonté politique. Or, aujourd’hui, une large partie du spectre politique français croit dans l’avenir de l’énergie nucléaire. La décision de fermer la centrale nucléaire de Fessenheim est vraisemblablement le début d’un long et douloureux débat sur le choix à opérer entre ces deux sources énergétiques, les énergies fossiles étant de toute façon condamnées par la lutte contre le réchauffement climatique. »

    « Cette transition créera près de 700 000 emplois en 40 ans. Le pays économisera 200 milliards d’euros en frais de santé provoqués par la pollution de l’air avec près de 20000 morts évités chaque année. Quant au prix du kilowatt/heure, il sera à peine plus élevé (10,1 centimes) que si aucune transition n’a lieu (9,7 centimes). Là encore, le calcul est similaire à celui de l’Ademe »
    http://www.sciencesetavenir.fr/nature-environnement/climat/les-energies-renouvelables-couvriront-les-besoins-francais-en-2050-selon-stanford_107597

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.