Dans une percée scientifique et technique spectaculaire, des chercheurs du laboratoire Lawrence Berkeley de la région de la baie ont récemment atteint l’objectif longtemps recherché de générer une réaction de fusion nucléaire produisant plus d’énergie que celle injectée directement dans une minuscule cuve de réacteur. Dès le lendemain, des experts de tous les horizons politiques vantaient cette percée comme le signe avant-coureur d’une nouvelle ère dans la production d’énergie, suggérant qu’un avenir d’énergie de fusion illimitée et à faible impact était peut-être dans quelques décennies. En réalité, cependant, la fusion nucléaire commercialement viable n’est qu’infiniment plus proche qu’elle ne l’était dans les années 1980, lorsqu’une réaction de fusion contenue – c’est-à-dire ne se produisant pas au soleil ou à partir d’une bombe – a été réalisée pour la première fois.
Alors que la plupart des écrivains honnêtes ont au moins reconnu les obstacles à la fusion à l’échelle commerciale, ils les sous-estiment encore généralement, autant aujourd’hui que dans les années 1980. On nous dit qu’une réaction de fusion devrait se produire « plusieurs fois par seconde » pour produire des quantités d’énergie utilisables. Mais l’explosion d’énergie du réacteur à fusion LBL n’a en fait duré qu’un dixième de nanoseconde, soit un dix-milliardième de seconde. Apparemment, d’autres réactions de fusion (avec une perte d’énergie nette) ont fonctionné pendant quelques nanosecondes, mais reproduire cette réaction plus d’un milliard de fois par seconde est bien au-delà de ce que les chercheurs envisagent même.
On nous dit que le réacteur a produit environ 1,5 fois la quantité d’énergie qui a été introduite, mais cela ne compte que l’énergie laser qui a réellement frappé la cuve du réacteur. Cette énergie, qui est nécessaire pour générer des températures supérieures à cent millions de degrés, était le produit d’un réseau de 192 lasers de haute puissance, qui nécessitaient bien plus de 100 fois plus d’énergie pour fonctionner. Troisièmement, on nous dit que la fusion nucléaire libérera un jour de vastes étendues de terres qui sont actuellement nécessaires pour faire fonctionner des installations solaires et éoliennes. Mais toute l’installation nécessaire pour abriter les 192 lasers et tous les autres équipements de contrôle nécessaires était suffisamment grande pour contenir trois terrains de football, même si la réaction de fusion réelle a lieu dans un récipient en or ou en diamant plus petit qu’un pois. Tout cela juste pour générer l’équivalent d’environ 10 à 20 minutes d’énergie qui est utilisée par une petite maison typique. De toute évidence, même les systèmes solaires de toit les moins chers peuvent déjà faire beaucoup plus. Et le groupe du professeur Mark Jacobson à l’Université de Stanford a calculé qu’une conversion totale à l’énergie éolienne, hydraulique et solaire pourrait utiliser à peu près autant de terres que celles actuellement occupées par les infrastructures mondiales de combustibles fossiles.
Critique nucléaire de longue date Karl Grossman a récemment écrit sur Counterpunch des nombreux obstacles probables à la mise à l’échelle des réacteurs à fusion, même en principe, y compris la radioactivité élevée, la corrosion rapide des équipements, les besoins excessifs en eau pour le refroidissement et la panne probable des composants qui devraient fonctionner à des températures et des pressions incroyablement élevées. Sa principale source sur ces questions est le Dr Daniel Jassby, qui a dirigé le laboratoire de recherche sur la fusion de Princeton pendant 25 ans. Le laboratoire de Princeton, avec des chercheurs européens, a dirigé le développement d’un dispositif plus courant pour réaliser des réactions de fusion nucléaire, un récipient en forme de beignet ou sphérique connu sous le nom de tokamak. Les tokamaks, qui contiennent des volumes beaucoup plus importants de gaz hautement ionisé (en fait un plasma, un état de la matière fondamentalement différent), ont réalisé des réactions de fusion beaucoup plus volumineuses pendant plusieurs secondes à la fois, mais n’ont jamais été proches de produire plus d’énergie que ce qui est injecté dans le réacteur.
La réaction de fusion à médiation laser réalisée au LBL s’est produite dans un laboratoire appelé National Ignition Facility, qui vante ses travaux sur la fusion pour l’énergie, mais se consacre principalement à la recherche sur les armes nucléaires. Le professeur MV Ramana de l’Université de la Colombie-Britannique, dont article récent a été publié sur le nouveau réseau ZNetwork, explique : « Le NIF a été créé dans le cadre du programme d’intendance des stocks basé sur la science, qui était la rançon versée aux laboratoires d’armes nucléaires américains pour avoir renoncé au droit de tester après que les États-Unis ont signé le Comprehensive Test Traité d’interdiction » en 1963. C’est « un moyen de continuer à investir dans la modernisation des armes nucléaires, bien que sans essais d’explosifs, et de les déguiser en moyens de produire de l’énergie » propre « . » Ramana cite un article de 1998 qui expliquait comment l’un des objectifs des expériences de fusion laser est d’essayer de développer une bombe à hydrogène qui ne nécessite pas de bombe à fission conventionnelle pour l’allumer, éliminant potentiellement le besoin d’uranium ou de plutonium hautement enrichi dans les armes nucléaires.
Alors que certains auteurs prédisent un avenir de réacteurs à fusion nucléaire fonctionnant à l’eau de mer, le carburant réel des tokamaks et des expériences de fusion laser se compose de deux isotopes uniques d’hydrogène connus sous le nom de deutérium – qui a un neutron supplémentaire dans son noyau – et de tritium – avec deux extra neutrons. Le deutérium est stable et quelque peu courant : environ un atome d’hydrogène sur 5 à 6 000 dans l’eau de mer est en fait du deutérium, et c’est un ingrédient nécessaire (en tant que composant de « l’eau lourde ») dans les réacteurs nucléaires conventionnels. Le tritium, cependant, est radioactif, avec une demi-vie de douze ans, et est généralement un sous-produit coûteux (30 000 $ par gramme) d’un type inhabituel de réacteur nucléaire connu sous le nom de CANDU, que l’on trouve principalement aujourd’hui au Canada et en Corée du Sud. Avec la moitié des réacteurs CANDU en exploitation devant être mis hors service cette décennie, les réserves de tritium disponibles culmineront probablement avant 2030 et une nouvelle installation de fusion expérimentale en construction en France épuisera presque les réserves disponibles au début des années 2050. C’est la conclusion d’un article très révélateur paru dans le magazine Science en juin dernier, des mois avant la dernière percée de la fusion. Alors que le laboratoire de Princeton a fait des progrès vers le recyclage potentiel du tritium, les chercheurs en fusion restent fortement dépendants des approvisionnements qui diminuent rapidement. Des combustibles alternatifs pour les réacteurs à fusion sont également en cours de développement, à base d’hélium ou de bore radioactif, mais ceux-ci nécessitent des températures allant jusqu’à un milliard de degrés pour déclencher une réaction de fusion. Le laboratoire européen prévoit d’expérimenter de nouvelles façons de générer du tritium, mais celles-ci augmentent également considérablement la radioactivité de l’ensemble du processus et un gain de tritium de seulement 5 à 15 % est prévu. Plus il y a de temps d’arrêt entre les essais expérimentaux, moins il produira de tritium. L’article de Science cite D. Jassby, anciennement du laboratoire de fusion de Princeton, disant que le problème de l’approvisionnement en tritium « rend essentiellement les réacteurs à fusion deutérium-tritium impossibles ».
Alors pourquoi toute cette attention envers le potentiel imaginaire de l’énergie de fusion ? C’est encore une autre tentative de ceux qui croient que seule une approche à grande échelle et à forte intensité technologique peut être une alternative viable à notre infrastructure énergétique actuelle dépendante des combustibles fossiles. Certains des mêmes intérêts continuent de promouvoir les fausses affirmations selon lesquelles une « nouvelle génération » de réacteurs à fission nucléaire résoudra les problèmes persistants de l’énergie nucléaire, ou que la capture et l’enfouissement à grande échelle du dioxyde de carbone des centrales électriques à combustible fossile permettront possible de perpétuer l’économie basée sur les combustibles fossiles dans un avenir lointain. Répondre systématiquement à ces affirmations dépasse le cadre de cet article, mais il est clair que les promesses d’aujourd’hui pour une nouvelle génération de réacteurs « avancés » ne sont pas très différentes de ce que nous entendions dans les années 80, 90 ou au début des années 2000.
Le dénonciateur nucléaire Arnie Gundersen a systématiquement exposé les défauts de la « nouvelle » conception du réacteur actuellement favorisée par Bill Gates, expliquant que la technologie sous-jacente refroidie au sodium est la même que dans le réacteur qui « a presque perdu Detroit » en raison d’une fusion partielle en 1966, et a causé à plusieurs reprises des problèmes au Tennessee, en France et au Japon. L’infrastructure de l’énergie nucléaire française, qui a longtemps été présentée comme un modèle pour l’avenir, est de plus en plus en proie à des problèmes d’équipement, à des dépassements de coûts massifs et à certaines sources d’eau de refroidissement qui ne sont plus assez froides, en raison de la hausse des températures mondiales. Une tentative d’exportation de la technologie nucléaire française vers la Finlande a pris plus de vingt ans de plus que prévu, à plusieurs fois le coût initialement estimé. En ce qui concerne la capture du carbone, nous savons que d’innombrables expériences de capture du carbone, fortement subventionnées, ont échoué et que la grande majorité du CO2 actuellement capturé par les centrales électriques est utilisée pour la « récupération assistée du pétrole », c’est-à-dire l’augmentation de l’efficacité des puits de pétrole existants. Les pipelines qui seraient nécessaires pour collecter réellement le CO2 et l’enfouir sous terre seraient comparables à l’ensemble de l’infrastructure actuelle pour la canalisation du pétrole et du gaz, et la notion d’enfouissement permanent se révélera probablement être une chimère.
En attendant, nous savons que la construction de nouvelles installations solaires et éoliennes est déjà moins chère que les nouvelles centrales électriques à combustible fossile et, dans certains endroits, est encore moins coûteuse que la poursuite de l’exploitation des centrales électriques existantes. En mai dernier, la Californie a pu brièvement faire fonctionner l’intégralité de son réseau électrique avec des énergies renouvelables, un cap qui avait déjà été franchi au Danemark et en Australie-Méridionale. Et nous savons qu’une variété de méthodes de stockage d’énergie, combinées à une gestion sophistiquée de la charge et à des mises à niveau de l’infrastructure de transmission, aident déjà à résoudre le problème de l’intermittence de l’énergie solaire et éolienne en Europe, en Californie et ailleurs. Dans le même temps, on prend de plus en plus conscience de la dépendance croissante des technologies renouvelables, y compris des batteries avancées, aux minéraux extraits des terres autochtones et du Sud global. Ainsi, une transition énergétique véritablement juste doit à la fois être entièrement renouvelable et rejeter les mythes de la croissance perpétuelle qui ont émergé de l’ère des combustibles fossiles. Si la fin de l’ère des énergies fossiles laisse présager la fin de la croissance capitaliste sous toutes ses formes, il est clair que toute la vie sur terre en sera finalement bénéficiaire.