Mardi 2 août 2011 à 8:24

Energie, nucléaire, économies

Depuis longtemps je voulais faire un article sur les piles à combustible, mais c’est un sujet technique assez difficile et j’avais peur de ne pas l’expliquer de façon suffisamment simple.
    Mais les articles sur l’énergie nucléaire m’ont valu pas mal de mails et de remarques, de questions aussi sur les possibilités futures de stockage de l’énergie.
    Alors il faut bien que je me lance. J’espère que je ne vous raserai pas trop et que je serai compréhensible.
    Les schémas que je publie sont empruntés aux journaux “La Recherche” et “Pour la Science”..

    Une “pile à combustible” désigne un appareil qui permet de récupérer de l’énergie électrique à partir de l’hydrogène.
    On sait depuis longtemps récupérer de l'énergie à partir de ce gaz.
    Le principe d'une pile à combustible, qui produit de l'électricité et de la chaleur en recombinant de l'hydrogène gazeux et de l'oxygène de l'air, en rejetant de l'eau, a été décrit dès 1806 par le chimiste britannique Humphry Dary, et le premier prototype remonte à 1839.
    Aujourd’hui les piles à combustibles sont utilisées dans les navettes spatiales et ont montré leurs performances et leur fiabilité, mais au détriment de leur coût, qui est incompatible avec une utilisation domestique.
    D’autre part, l'hydrogène n'existe pas à l'état naturel sur la terre. Utiliser un
carburant implique de le produire, de le stocker et de ie distribuer à grande échelle, en toute sécurité et à bas prix. Il y a donc encore beaucoup à faire.

    Pourquoi l'hydrogène ?

    La molécule d’hydrogène gazeux H2, vous l’avez appris au lycée, est constituée de deux atomes d'hydrogène liés entre eux, et rompre cette liaison, par réaction avec I'oxygène de l'air O2, conduit à une importante libération d'énergie qui peut être convertie en électricité avec une pile à combustible. Cette réaction
ne rejette que de l'eau (H2O).
    L’hydrogène peut donc être envisagé comme une alternative non polluante aux énergies fossiles (pétrole, gaz naturel, charbon. ..).
    Toutefois ce ne sera pas au niveau de “centrales”, mais au niveau plus local et individuel.
    Cela peut aussi être une solution de stockage de l’énergie intermittente (éolienne, solaire) en produisant de l’hydrogène avec leur électricité, bien que ce processus risque d’être très onéreux (par multiplication de rendements < 1).

    Qu’est ce qu’une pile à combustible ?
http://lancien.cowblog.fr/images/ClimatEnergie/electrolyseur.jpg


    Vous connaissez sûrement pour l’avoir étudié au lycée, ce qu’est un “électrolyseur” et vous avez dû en utiliser en travaux pratiques.
    Dans une cuve remplie d’un liquide très alcalin (par exemple de l’hydroxyde de potassium KOH), on plonge deux électrodes en nickel ou acier nickelé, que l’on appelle l’ “anode” (où se produit une oxydation avec production d’électrons), et la “cathode” (où se produit une réduction avec absorption d’électrons). Si on relie ces électrodes à un générateur électrique de quelques volts, (le pôle + à l’anode), on recueille de l’oxygène à l’anode et de l’hydrogène à la cathode (voir schéma ci-contre).


http://lancien.cowblog.fr/images/ClimatEnergie/pileacombustible.jpg
    Une pile à combustible est en quelque sorte l’inverse d’un électrolyseur.
    Les réactions chimiques sont les mêmes que dans l’électrolyseur, mais inversées (voir schéma ci contre).
    L’hydrogène traverse un diffuseur - une matière carbonée poreuse - et atteint l'anode de la pile où il est dissocié en deux protons H+ et deux électrons.         Les électrons circulent dans les circuits électriques des utilisateurs et reviennent  vers la cathode.
    Les protons produits à l’anode traversent une membrane en polymère et sont attirés par la cathode, où ils se combinent à des électrons libérés par cette électrode et à de l’oxygène, reformant de l'eau.
    Les électrodes, l’anode et la cathode sont constituées de fines particules - des nanotubes de carbone ou des grains de noir de carbone de 50 nanomètres de diamètre sur lesquelles est déposé un catalyseur qui facilite la recombinaison H2 / O2. Actuellement ce catalyseur est constitué de fines particules de platine de quelques nanomètres de diamètre, ce qui est extrêmemnt onéreux.
    On espère pouvoir remplacer le platine par des molécules organiques  imitant le site actif d'enzymes qui libèrent de l'hydrogène chez des bactéries, et produire ainsi un catalyseur bon marché. Les diffuseurs que l’on voit sur le schéma sont destinés à bien répartir oxygène et hydrogène sur les électrodes.


http://lancien.cowblog.fr/images/ClimatEnergie/productionhydrogene.jpg

    Un autre problème concerne le stockage de l’hydrogène, trop dangereux à l’état gazeux.
    Sous forme gazeuse, l’hydrogène, très léger occupe un grand volume et il faut donc le mettre sous très haute pression dans des réservoirs d’aciers,  lourds et encombrants. De plus les fuites sont possibles et au contact de l’oxygène de l’air, la moindre étincelle ou flamme produit l’explosion.
    Il faut donc trouver d’autres moyens de stockage.
    L’hydrogène peut être stocké sous forme solide dans des structures métalliques. Quand on abaisse la température, les molécules d'hydrogène réagissent avec le métal, se dissocient et s'insèrent dans la structure pour former un hydrure métallique (a). Quand on remonte la température, le gaz d'hydrogène se reconstitue (b). Le métal est entouré d'un « tampon » qui stocke la chaleur
dégagée pendant le stockage et la restitue lors du déstockage. Un conteneur de la taille d'un gros cumulus domestique contient 4,5 kilogrammes d'hydrogène, ce qui suffirait pour couvrir les besoins d'une famille française durant plus d'une semaine. (cf. schéma ci contre).




    Voici en effet un exemple d’utilisation possible d’une pile à combustible au niveau d’une maison familiale. Ceci est impossible actuellement pour des raisons de prix, mais des progrès sont possibles pour demain.   
    Dans les habitations de demain, des panneaux photovoltaïques pourraient (si leur prix baisse considérablement et que leur rendement augmente sensiblement), transformer la lumière solaire en électricité, qui sera directement utilisée pour alimenter les appareils électroménagers et les véhicules électriques. http://lancien.cowblog.fr/images/ClimatEnergie/stockagedenergieH2.jpg   
Le surplus d’énergie sera acheminé vers un électrolyseur où il assurera la transformation d'eau en hydrogène et oxygène.
    Les deux gaz seront acheminés dans deux réservoirs différents. L'hydrogène pourra être stocké sous forme solide, associé à un métal .
    En l'absence de soleil, l'hydrogène et l’oxygène seront déstockés et acheminés vers une pile à combustible, qui les transformera en eau, libérant, sous forme d'électricité, l’énergie préalablement stockée sous forme d’hydrogène.
    Evidemment le rendement de l’opération est nettement inférieur à 1. Il faudra que ce type d’installation soit généralisée pour que son coût soit abordable. Par ailleurs ce type d’installation ne sera rentable que si l’isolation thermique des maisons et appartements est considérablement améliorée à un coût raisonnable, études qui actuellement sont en stagnation.

 
   Demain je vous donnerai quelques explications sur les possibilités réelles de cette filière.

Jeudi 28 juillet 2011 à 8:18

Energie, nucléaire, économies

    Les deux précédents articles vous ont expliqué le fonctionnement d’un réacteur à fusion tel qu’ITER.
    Mais dès qu’il s’agit de réaction nucléaire, alors tout le monde a une peur irraisonnée.
    Alors je voudrais aujourd’hui vous parler de la sécurité de cette filière nouvelle qui ne présente pas les inconvénients de la filière actuelle de réacteurs à fission, puis ensuite de son calendrier et de ses chances d’avenir.

              La sécurité d'ITER et d’un réacteur à fusion.

    Les réacteurs de fission présentent certains risques que nous connaissons bien :
          - Ils peuvent s'emballer en cas de fausse manoeuvre.
Des sécurités importantes sont mises en place pour éviter un tel accident et il faut, comme à Tchernobyl, être assez inconscient et irresponsable pour court-circuiter les sécurités pour qu’il puisse arriver.
.         - Un défaut de refroidissement peut faire fondre le coeur comme au Japon.
Dans les réacteurs français les systèmes de refroidissement sont doublés, voire triplés dans l’EPR, mais au Japon la force du Tsunami avait détruit les arrivées d’eau, l’alimentation électrique, même de secours et les cuves des réacteurs ont été fissurées.
         - La production de déchets radioactifs impose un retraitement et un stockage des produits de fission notamment, pour des durées importantes.
Comme je l’ai expliqué récemment, ce problème diminue peu à peu et est bien moins important que celui des déchets chimiques, d’autant plus que les déchets nucléaires signalent leur présence par leur émissions radioactives.
          - En cas de non refroidissement, de l'hydrogène peut se dégager et entraîner une explosion.   
         - Un défaut d'étanchéité de la cuve ou de l'enceinte peut entraîner la dissémination dans l'air et la retombée sur le sol de produits radioactifs, notamment Iode 137, Césium 135 et Strontium 90.
     Il faut donc d’abord essayer de limiter ce dégagement et ensuite avoir des enceintes de confinement très solides, ce qui n’était pas le cas au Japon ( et à Tchernobyl il n’y en avait pas !). De telles enceintes qui existent sur les réacteurs français et américains, ont fait leurs preuves lors de l’accident de Three Miles Island, qui n’a pas entraîné de pollution, malgré la fonte d’un coeur.

http://lancien.cowblog.fr/images/Sciences/images-copie-8.jpg    Les réacteurs à fusion sont au contraire très sûrs et très peu polluants.
         - La moindre perturbation au sein du réacteur entraîne un refroidissement et l'arrêt de la réaction, sans possibilité d'emballement. Il n’y a d’ailleurs que quelques grammes de deutérium et de tritium dans l’enceinte à vide (et pas d’oxygène).
    Il ne peut donc pas y avoir d’emballement de la réaction de fusion qui s’arrête d’elle même, ni d’explosion de la chambre.
         - L'équivalent du coeur est le plasma gazeux et ne comporte que quelques grammes de deutérium et tritium radioactifs et les "déchets" sont constitués par de l'hélium, inerte et non radioactif.
    Il n’y a donc pas de déchets radioactifs produits par la réaction, l’hélium est sans danger (inerte chimiquement) et peut être utilisé industriellement et pourrait même être rélâché dans l’atmosphère sans inconvénient.
         - L'enceinte à vide est extrêmement solide et aucune explosion ne peut se produire. Une double enceinte en dépression est facile à réaliser pour éviter toute fuite éventuelle de tritium, qui est un produit radioactif.
    En fait une telle fuite est assez improbable. Elle n’est pas possible dans le réacteur lui même et ne concernerait qu’une quantité négligeable. Elle ne pourrait provenir que des réservoirs et canalisations destinés à alimenter le réacteur, risque que l’on peut techniquement fortement diminuer.
    De plus si l’on produit dans le futur le tritium par action des neutrons sur du Lithium, ce danger disparait presque totalement.   
         - Le seul incident radioactif serait une fuite de tritium, dont la probabilité est faible, et gaz très léger, il se diluerait et monterait rapidement en altitude.
    Cet incident a néanmoins été envisagé dans l'étude de sécurité : les calculs de concentration de tritium dans l'atmosphère montrent que la pollution de l'environnement serait très faible et qu'aucune évacuation de population ne serait à envisager, et la contamination des sols serait nulle.
         - Le seul problème qui subsiste est l'activation de certains composants du réacteur par les neutrons émis, mais c'est un problème local, interne à l'installation, qui peut être facilement défini et maîtrisé. Il s’agit de produits radioactifs d’activité faible et à vie courte et qui n’entraînent que des précautions pour le personnel du réacteur et lors de son éventuel démontage, mais en aucun cas une pollution extérieure, puisqu’il s’agit des matériaux de la chambre et de son enceinte.immédiate.
    Cette activation serait d’ailleurs très réduite en cas d’utilisation du lithium.

    On voit donc que les réacteurs à fusion seraient des engins propres au plan nucléaire, sans risque d’explosion ni de pollution externe et ne produisant pas de déchets radioactifs à vie longue comme les réacteurs à fusion.
    De plus ils constituent une énergie renouvelable car d’une part on pourrait extraire le tritium de l’eau de mer et surtout utiliser le lithium qui est assez abondant (et pourrait d’abord servir dans des batteries électriques).


              L’avenir d’ITER et de l’énergie de fusion :

    ITER n’est qu’un prototype de démonstration et de faisabilité
    ITER sera en service de 2014 à 2020

    On sait que faire fonctionner un tokamak est possible, mais il faut que l’énergie consommée ne soit pas trop grande vis à vis de celle produite.
    Cela repose en particulier sur la consommation des bobines qui produisent le champ magnétique à une température voisine du zéro absolu et elles seront les premier composants essayés dans ITER, autour de la chambre à vide.
    Puis après test de tous les composant et montage de l’ensemble du réacteur, le fonctionnement nucléaire pourra être essayé vers 2015 et jusqu’en 2020.
    ITER fournira de la chaleur mais on ne la convertira pas en vapeur et en électricité, car le processus  est relativement classique
    On testera en fin d’étude le procédé de transformation  de Lithium en tritium
    ITER sera ensuite démonté vers 2à2à.
    Il sera remplacé probablement alors par un prototype de réacteur industriel, , qui devra permettre ensuite de fabriquer des réacteurs à un coût raisonnable.
    Son organisation pourrait ressembler au schéma ci-dessous, avec éventuellement une utilisation des neutrons produits pour transformer sur place du lithium en tritium
    On espère pouvoir construire des réacteurs à fusion vers 2040 et donc l’énergie de fusion ne sera disposible que dans la deuxième moitié du siècle.

http://lancien.cowblog.fr/images/Sciences/reacteurfutur.jpg

Mercredi 27 juillet 2011 à 8:20

Energie, nucléaire, économies

Tous mes lectrices et lecteurs ne connaissent peut être pas parfaitement les principes de la fusion nucléaire. Je vais donc les rappeler d’abord brièvement avant de parler des études précédant ITER : celle des  réacteurs russes “Tokamak”.

        La fusion nucléaire.

    Lorsque en se scindant ou en s’assemblant, les noyaux des atomes peuvent donner lieu à une diminution de la masse des composants, la réaction peut se produire et dégage de l’énergie selon la formule d’Einstein  E = mc2.
    Cette énergie est communiquée à des particules ou aux noyaux formés sous forme d’énergie cinétique, et ensuite, se transforme en chaleur au cours de leur ralentissement.
    La réaction peut être spontanée parce que le noyau est instable : c’est la radioactivité.
    Avec des noyaux très lourds comme l’uranium, le plutonium, le thorium, on peut, en les bombadant avec des neutrons, provoquer leur fission en deux atomes plus légers.
    Des noyaux très légers tels que l’hydrogène, le deutérium, le tritium peuvent  fusionner en créant un atome plus lourd, en éjectant un neutron et de l’énergie, mais la réaction ne peut se produire qu’à une température énorme de l’ordre d’une centaine de millions de degrés.

    Ces réactions sont à l’origine du fonctionnement du soleil et des étoiles et sur terre de celui d’une bombe thermonucléaire.
    Les réactions dans les étoiles fusionnent entre eux des noyaux d’hydrogène (c’est à dire des protons) et événtuellement des protons avec des noyaux de carbone ou d’azote. Au cœur du Soleil 620 millions de tonnes d'hydrogène y sont transformés en 615,7 millions de tonnes d'hélium chaque seconde; la pression est égale à 200 milliards de fois la pression atmosphérique terrestre et la température centrale atteint environ 15 millions de degrés, mais l’énorme énergie est produite de façon beaucoup plus lente que dans une bombe à fusion thermonucléaire.
    http://lancien.cowblog.fr/images/Sciences/250pxDtfusion.pngDans cette dernière la température énorme est obtenue en faisant exploser une “amorce” qui est une bombe nucléaire à fission.
    Pour domestiquer l’énergie de fusion, le problème est de créer cette température et de contenir le plasma obtenu, qui, sous l’effet de la température, a tendance à chauffer tout autour de lui et à provoquer une violente expansion.
    La réaction utilisée est 
        2D1  +  3T1    -->  4He2  +  1n0
 et comme le tritium est un gaz très cher à fabriquer, on envisage de le produire par la suite en utilisant les neutrons produits au sein du réacteur, à partir du lithium, abondant sur terre, par la  réaction       
        6Li3  + 1n0  -->  4He2  +  3H1


        Comment domestiquer la fusion : les “tokamak”

Pour produire une réaction de fusion nucléaire, il faut chauffer la matière à de très hautes températures (plusieurs centaines de millions de degrés). Dans ces conditions, les électrons se détachent complètement de leur noyau — on dit que l'atome s'ionise. La matière entre alors dans un nouvel état : l'état de plasma.
   

http://lancien.cowblog.fr/images/Sciences/tokamak2.jpg
 
De nombreuses études ont été faites dans ce domaine, et les russes ont conçu en 1960 une machine appelé “Tokamak”
    Dans les années 70 des machines analogues ont été construites aux Etats-Unis et en France au centre CEA de Fontenay aux roses et à Grenoble.
    De nombreuses autres machines ont été construites par la suite, notamment “Joint European Torus,” en Angleterre et “Tore supra” à Cadarache.

     Ci-contre la chambre à vide d'un Tokamak.
 

        Principe d’un “tokamak”

    Un tokamak est une chambre de confinement magnétique destinée à confiner et contrôler un plasma (deutérium + tritium), pour étudier la possibilité de la production d'énergie par fusion nucléaire.

http://lancien.cowblog.fr/images/Sciences/tokamak.jpg    Comme le plasma est constitué de particules chargées, on peut confiner leur trajectoire de déplacement à l'intérieur d'un tore au moyen de champs magnétiques. C’est en quelque sorte une “boite aux parois immatérielle”.
    D’énormes bobines (en orange sur le schéma), créent un champ toroïdal  qui confine le plasma à l’écart des parois et fait circuler à l’intérieur un très fort courant qui le réchauffe fortement et qui crée à nouveau un champ qui contribue aussi au confinement du plasma, qui est très chaud en son centre  et va en se refroidissant vers l'extérieur.   
    D’autres bobines horizontales circulaires permettent de mieux contrôler la forme du plasma (en vert sur le schéma).


http://lancien.cowblog.fr/images/Sciences/ITERchambre.jpg    Ce courant n’est pas suffisant pour chauffer suffisamment le plasma et on complète ce chauffage pa des ondes hautes fréquences (comme dans un four à micro-ondes) et par l’injection de particules qui par chocs  augmentent la température.
    Lorsque la température suffisante est atteinte, la réaction de fusion se produit et l’énergie dégagée suffit à entretenir la température.
    Dans l’air un tel plasma ne pourrait se former et donc on doit le créer dans une enceinte à vide torique, au sein de laquelle règne un vide extrêmement poussé.
    Il faut évacuer les produits parasites créés (l’hélium, gaz inerte et non radioactif) et d’autre part évacuer  aussi la chaleur si on veut l’utiliser ensuite pour produire de l’électricité, grâce à un fluide caloporteur entre le plasma et les parois de la chambre à vide.


http://lancien.cowblog.fr/images/Sciences/bobinesITER.jpg
    Un autre problème de ces réacteurs est de générer un champ magnétique suffisamment puissant c’est à dire de faire circuler un courant très important dans les bobines. Pour cela les bobine sont réalisées en matériaux supraconducteurs, dont la résistance est pratiquement nulle à une température proche du zéro absolu (- 273 d° K) de telle sorte que des courants très intenses peuvent circuler sans perte par effet joule.
    Le problème est évidemment de conserver une température aussi basse autour d’un réacteur qui est extrêmement chaud.
    Les petits tokamak déjà réalisés ont permis de démontrer la faisabilité scientifique de ce processus en dégageant quelques mégawatts d’énergie pendant plusieurs minutes. Mais par contre l’énergie fournie était presque aussi important que l’énergie produite.
   

ITER est destiné à démontrer que la production rentable est possible et de résoudre de nombreux problèmes techniques et notamment la résistance des parois et l’isolation thermique pendant des périodes longues.
    Il est important de noter que si dans de tels réacteurs plusieurs dizaines de kg de deutérium et de tritium seront consommés par an,  par contre la quantité de combustible présente dans la chambre pour la réaction est très faible, quelques grammes et correspond à une dizaine de secondes de fonctionnement.
    La moindre perturbation au sein du réacteur entraîne un refroidissemnt et l’arrêt de la réaction, sans possibilité d’emballement.

    ITER sera le plus gros Tokamak réalisé jusqu’à présent, en attendant un réacteur industriel. son plasma aura 6,20 m de rayon et 6,80 mètres de haut et la durée de maintien sera de l’ordre d’une quinzaine de minutes.

http://lancien.cowblog.fr/images/Sciences/coupeITER.jpg

   
   
   


   

Mardi 26 juillet 2011 à 8:49

Energie, nucléaire, économies

Plusieurs de mes correspondant(e)s m’ont demandé de faire un article pour expliquer ce qu’était la fusion nucléaire et si cette énergie pourrait prendre le relais de l’énergie de fission actuelle et quels étaient les contraintes et les dangers. J’avais remis un peu cet article car je voulais faire le point sur le programme international “ITER”

    ITER (“le chemin” en latin, et originellement en anglais : International Thermonuclear Experimental Reactor ) est un prototype de réacteur nucléaire à fusion actuellement en construction à Cadarache près de Manosque et Aix en Provence). Ce prototype est destiné à vérifier la « faisabilité scientifique et technique de la fusion nucléaire comme nouvelle source d’énergie ».

    Nous sommes habitués à voir des programmes de toutes sortes en coopération internationale, mais c’est en général au sein de l’Europe, ou entre pays européens et Etats Unis, mais le programme ITER est étonnant par l’ampleur de la coopération qui englobe les grand spays mondiaux :
    L’Europe, les USA, la Russie, la Chine, la Corée du Sud, le Japon, et l’Inde. De plus la Suisse y participe via Euratom et le Brésil pourrait rejoindre le projet.

http://lancien.cowblog.fr/images/Sciences/signature.jpg                                         La signature de l'accord ITER le 21/11/2006
   
        L’organisation ITER

    Après de longues discussions le site de Cadarache en France a été choisi pour abriter le réacteur (trois autres sites ayant été en lisse, en Espagne, au Canada et au Japon).et l’accord international a été signé à Moscou le 28 juin 2005, et l’accord définintif a été signé en France le 21 novembre 2006.
     “ITER Organization”, un organisme public, a été officiellement créé le 24 octobre 2007. Il est dirigé par un scientifique japonais.
    La gestion d'ITER, régie par le traité international de la même façon que pour la station spatiale internationale, est réalisée par un ensemble d'instances où se réunissent les différents membres.de toutes les nations signataires :
    La principale instance est le Conseil ITER, situé à Moscou en Russie. Il est composé de huit membres : deux Européens, deux Russes, deux Japonais et deux américains..
    Le Conseil ITER est assisté d'un comité technique  et d'un comité de gestion.
    Au deuxième niveau existe dans chaque pays membre d’ITER, une “agence domestique” chargée de l’interface du pays membre d’Iter avec l’organisation internationale et de la fourniture à cette même organisation internationale des composants prévue par les négociations internationales,
    L’agence domestique européenne est à Barcelone en Espagne.
    En France, de plus, il existe u e “mission gouvernementale” et deux organismes aident à la gestion locale :  la mission Iter, placée auprès du Préfet de région, et  l’Agence Iter France créée au sein du CEA,
    Enfin différents laboratoires et industriels de chaque nation participent au projet et un laboratoire particulier a été créé au Japon pour étudier plus spécialement les matériaux spéciaux destinés au réacteur., l’IFMIF (International Fusion Materials Irradiation Facility).

        Le projet ITER

    Le projet ITER est financé par les pays membres et les résultats seront fournis à tous ces pays. Le coût est d’environ 10 milliards d’euros, mais en outre les divers pays fournissent des prestations en nature.
    Cettee somme se décompose en environ 4 MM€ de bâtiments et équipements, 100 M€ de recherches, 650 de frais de personnels et 240 M€ par an de fonctionnement pendant 20 ans et 500 M€ de démantèlement.:
    Le projet ITER est à long terme puisqu’il est prévu 10 ans de “contruction” du réacteur. L’aménagement de génie civil du site est en cours.
    Les différents organes sont étudiés et réalisés apr les pays membres et le commencement de l’assemblage devrait se faire à partir de 2012 et le réacteur devrait être opérationnel en 2020
    Les essais et expérimentations devraient durer de 2020 à 2040 et le réacteur devrait ensuite être démantelé et un réacteur “industriel être construit.

    En effet ITER ne produira pas d’électricité. Son rôle est démontrer que l’utilisation de l’énergie de fusion est possible dans de bonnes conditions de sécurité, en produisant dix fois plus d’énergie que l’on en consomme.
    Le cahier des charges prévoit de produire 500 MW en en consommant 50 pour l’alimentation de la machine, sous forme de chaleur et éventuellement de vapeur. La production d’électricité est ensuite classique à partir de turbines


http://lancien.cowblog.fr/images/Sciences/ITERbatiments.jpg

    Dès à présent une étude de sécurité a été faite et présentée à l'Institut de Radioprotection et de Sûreté Nucléaire (IRSN) français, et l’autorisation de construction devrait être donnée prochainement.
    J’en donnerai les principaux éléments dans un autre article.

  
  Dans le prochain article je rappellerai les principes physiques de la fission et de la fusion et ce qui différencie la fusion nucléaire dans le soleil ou les étoiles de celle de ITER et donc quelles sont les difficultés rencontrées pour maîtriser la production de cette énergie et  je décrirai comment va fonctionner le réacteur ITER et les problèmes qu’il pose.
   

Lundi 27 juin 2011 à 7:03

Energie, nucléaire, économies

     J’ai déjà fait plusieurs articles sur l’énergie et la production de gaz à effet de serre du 9 au 16 septembre 2009.
    Je serai donc plus bref pour essayer de faire le point en un seul article sur les moyens de production d’énergie électrique utilisables.


    Je rappelle d’abord les proportions de demande énergétique en 2009, et la répartition des méthodes de production d’électricité.
    On voit que les énergies fossiles productrices de CO2 représentent 81% de la demande globale, et  encore les 2/3 en matière de production électrique.


http://lancien.cowblog.fr/images/ClimatEnergie/images1-copie-3.jpg
http://lancien.cowblog.fr/images/Sciences/Repartitionelectricite2.png















   Or la demande énergétique est en très forte augmentation, même dans l’hypothèse où les pays occidentaux diminueraient leur consommation du fait de la demande des pays tels que la Chine et l’Inde ou l’Afrique.
    Par ailleurs la diminution des réserves de pétrole et de gaz amènera une demande croissante de chauffage et de véhicules électriques, donc de production d’électricité. La demande en énergie électrique augmentera fortement dans les 20 prochaines années même si nous faisons un très gros effort d'économie d'énergie (auquel je ne crois qu'à moitié, notamment de la part des américains).

    Comment faire face à cette demande croissante ? Ce que nous savons faire, ce sont les procédés utilisant charbon, gaz et pétrole, le nucléaire et l’hydroélectrique, mais cette dernière voie étant déjà très exploitée et donc ne pouvant énormément se développer.
    Le rêve des écologistes est le développement des énergies dites renouvelables : biomasse, éolien, solaire. ( je ne parlerai pas du géothermique ni des usines marémotrices, car si ces méthodes peuvent être localement importantes, elles sont peu généralisables).

    La biomasse concerne essentiellement le bois, les biocarburants et l’utilisation de déchets.
    Le bois est une source d’énergie intéressante, très utilisée dans certains pays tel par exemple le Canada. Mais ces mêmes pays ont appelé l’attention sur les émissions autres que celles de CO2, qui ont des inconvénients notamment des poussières, des goudrons et de l’oxyde nitreux N2O qui est un gaz à effet de serre. L’oxyde de carbone CO très toxique, n’est pas un problème important, sauf dans la pièce elle même de combustion, car dans l’atmosphère, il se transforme en CO2.
    Les déchets de bois, les “granulés” de sciure sont des compléments énergétiques intéressants.
    Mais quand on tient compte de l’émission de CO2 due à la combustion, du pouvoir calorifique moins élevé (le tiers) et de la déforestation, le bois ne fait pas gagner beaucoup en matière de gaz à effet de serre, par rapport au fioul et surtout au gaz.
    Mais il est certain que des pays comme le Canada qui disposent de forêts immenses ont intérêt à se chauffer au bois plutôt qu’au fioul, au gaz ou au charbon, à la fois au plan économique et écologique.
    La pub plus ou moins exacte nous a fait croire que les “biocarburants sauveraient la planète.   
    Il faut se rappeler que ce sont des produits carbonés mais ils sont cependant  intéressants, car indépendants du pétrole, et pour autant que leur production n’entre pas en compétition avec la biomasse alimentaire (ce n’est pas encore le cas aujourd’hui pour les carburants dits de première génération éthanol, biodiesel).
    C’est  la  raison  pour  laquelle  il  faut  développer  les  carburants  de  deuxième  génération  utilisant  la biomasse lignocellulosique (bois, déchets de bois, taillis à pousse rapide, paille, etc.). En apportant de l’énergie de l’extérieur, notamment sous forme d’hydrogène, on peut doubler ou tripler le rendement à l’hectare par rapport aux biocarburants de première génération, sans concurrencer la production alimentaire.
    Le brûlage de déchets, notamment ordure peut être un complément intéressant pour le chauffage urbain. Elle pourra peu à peu nous permettre de nous passer du pétrole, par exemple pour remplacer le kérosène des avions
    Mais en définitive la biomasse n’apportera pas de solution au plan de la production d’électricité.

http://lancien.cowblog.fr/images/Caricatures1/caricaturevaches.jpg    L’éolien est le cheval de bataille de beaucoup d’écologistes.
Peut il prendre en charge une production électrique importante.?

    Les éoliennes transforment l’énergie mécanique du vent en énergie électrique. Leur production est soumise aux aléas météorologiques, elle est donc
intermittente. Quand il n’y a pas assez de vent (moins de 3 m/s), l’éolienne ne fournit pasd’électricité, quand il y en a trop (plus de 25 m/s), elle se met en rideau pour éviter d’être endommagée.
    On ne sait pas stocker l’énergie électrique produite et donc les autres sources d’énergie doivent s’adapter aux caprices du vent. Celles qui peuvent facilement changer de niveau de production sont les centrales utilisant les produits fossiles, gaz notamment, émettrices de CO2.
    La puissance d’une éolienne est faible de l’ordre de 1,5 Mw, alors qu’un réacteur nucléaire produit 1,5 Gw. Il faut donc environ 1000 éoliennes pour remplacer une centrale nucléaire.
    Enfin le coût actuel de l’électricité produite est masqué par les subventions que paye actuellement le contribuable en France.
    Le coût complet de l’éolien est composé du coût initial d’investissement relativement élevé, (achat de l’éolienne, génie civil, raccordement au réseau de
distribution) et du coût de maintenance auxquels il faut ajouter les coûts externes générés par l’intermittence de ce mode de production.
    Un rapport de l’Institut Montaigne estime que le coût de l’éolien devrait être de l’ordre de 163 € par kW et par an et que si l’objectif de Grenelle était atteint (25 GW d’éolien, soit 16 000 éoliennes), cela entraînerait par rapport à une production classique un surcoût de un milliard par an d’ici 20020 et 2,5 milliards par an au delà, par rapport à une production classique charbon ou nucléaire.
    L’éolien est donc une source complémentaire possible, mais intermittente et chère, nécessitant des centrales à gaz pour compléter ses arrêts. Elle ne peut prendre en compte une progression importante de la demande ou le remplacement des énergies fossiles et nucléaires, car il faudrait des centaines de milliers d'éoliennes, qu'on ne saurait où mettre et des centrales à charbon ou à gaz pour palier l'absence de vent.

    Une autre filière intéressante est le solaire.
    Le solaire thermique, c’est à dire l’échauffement d’un fluide par le soleil dans des tubes est, couplé à une pompe à chaleur, une solution d’avenir pour la production d’eau chaude sanitaire dans les maisons individuelles. Elle est beaucoup plus compliquée et onéreuse à installer dans des immeubles collectifs.
    Le solaire photovoltaïque fait grand bruit grâce aux subventions gouvernementales accordées, qui en masquent le coût.
    Le rendement des cellules est en effet très bas.
    En fait avec la génération actuelles de capteurs, il n’est absolument pas rentable, même dans une maison individuelle, le kwh produit étant environ dix fois plus cher que l’électricité nucléaire.
    Pour la production d’une électricité collective dans une centrale, il faut une quantité énorme de panneaux et donc une superficie prohibitive.
La plus grande centrale actuelle située au Portugal, a une puissance de 62 Mw, et comporte 350 000 panneaux solaires sur une surface de 114 hectares.
    On peut donc garder ce chiffre en tête : pour produire les 1,5Gw d’une centrale nucléaire, il faudrait environ 1000 éoliennes et  8 700 000 panneaux solaires sur une surface de 2700 ha.
http://lancien.cowblog.fr/images/Paysages2/guenching.jpg

    Les cellules photovoltaïques actuelles sont donc d’un rendement trop faible pour une production électrique de masse intéressante, tant en coût qu’en surface nécessaire.
    On espère que les cellules de troisième génération permettront d’améliorer le rendement actuel, trop bas pour être vraiment intéressant. Mais le solaire, s'il permettra de subvenir aux besoins de maisons individuelles, et peut être d'immeubles en matière de climatisation et de besoins sanitaires (à condition de gros progrès et de l'associer à des pompes à chaleur - je ferai un article sur elles), jamais le solaire ne permettra la production de masse d'électricité car il faudrait couvrir toute la surface de la terre de capteurs, dont le rendement photoélectrique par m2 ne sera jamais bon. Par ailleurs, comme pour l'éolien, la production est intermittente et aujourd'hui on ne sait pas stocker en grande quantité l'énergie électrique.


    On peut aussi retenir les chiffres suivants du Commissariat au Plan  sur le coût en milli euros du kWh :
            Nucléaire    Charbon    Gaz   Pétrole    Eolien    Solaire
                   33              37          36         60         61          450

    soit          1               1,1        1,09       1,8       1,8         13,6



    En définitive, on s’aperçoit que malheureusement, si le développement d’énergies renouvelables est souhaitable, elles ne pourront pas suppléer les modes de production d’énergie classique, compte tenu des besoins très importants, de leur coût et des contraintes d’utilisation.
    En matière de production électrique de masse (des milliers de GW), seules les centrales nucléaires, charbon et gaz sont utilisables dans les prochaines décades et malheureusement les deux dernières produisent du CO2.

    La décision de l’Allemagne de fermer ses centrales nucléaires n’est pas pénalisante au plan économique, mais elle l’est au plan climatique car elle n’a guère d’autre solution que de faire de nouvelles centrales à lignite. Et l'Italie risque d'avoir le même problème. La Chine et l'Inde développent par contre de façon importante, charbon et nucléaire, car il leur faudra faire face à une demande qui va doubler dans les 30 prochaines années.
    Les USA hésitent car ils n'ont pas les mêmes problèmes que nous. Ils n'ont ni l'intention de diminuer leur consommation électrique, ni celle de diminuer leur production de CO2. Ils "achèteront des droits en CO2" à l'Afrique ! Donc ils construisent des centrales à charbon et à gaz. L'éolien ne les intéresse pas mais le photovoltaïque si et ils font effort dans ce domaine, car ils ont de grands déserts  où il y a de la place au soleil, ce que nous n'avons pas en Europe. Et ils ont une conception différente des dépenses financières et pour eux le fait que, compte tenu du mauvais rendement de transformation photon-électron, on restera toujours à un prix environ 5 fois supérieur aux autres énergies, ne les effraie pas (actuellement c'est un facteur 13, masqué par une politique de subvention par les contribuables !).

    Qu'on soit pour ou contre le nucléaire, nous n'avons pas d'autre solution que le charbon, le gaz ou le nucléaire à l'horizon 2050 pour satisfaire les besoins énergétiques et il faudrait par ailleurs poursuivre un très gros effort de recherche pour mettre au point des solutions valables de substitution.

    Dans le domaine climatique, par ailleurs, nos dirigeants n’ont pas l’air de se rendre compte que plutôt que de développer à grands frais et à coup de subventions l’installation accélérée des filières solaires et éolienne, on ferait mieux de favoriser la recherche dans le solaire et la biomasse, et  l’installation de pompes à chaleur ou l’isolation de bâtiments anciens, mesures qui permettraient des diminutions d’émissions de CO2 équivalentes à un coût moindre pour la collectivité.   

   
Toutefois je ne vous ai pas parlé d’une autre source à long terme d'énergie renouvelable, propre et sans danger, l’énergie de fusion nucléaire, qui ne sera disponible qu'après 2050 au plus tôt. Je pense faire prochainement deux ou trois articles sur le projet “ ITER ” et je ferai également un article sur une énergie propre du futur, l'hydrogène associé aux piles à combustible, à l'horizon 2030.

Dimanche 26 juin 2011 à 9:33

Energie, nucléaire, économies

    Je voulais vous parler aujourd’hui de la sécurité des centrales nucléaires.
    Je ne reviendrai pas sur leur principes, je vous renvoie à ce sujet à mes articles du 17 mars au 8 avril 2011 sur l’accident au Japon et des 19 et 20 septembre 2009 sur les réacteurs.


    Je rappellerai seulement qu’on peut ramener les types de réacteurs en service à trois filières :

        - celui où le modérateur est du graphite et le fluide caloporteur de l’eau bouillante. Environ 3,5% des réacteurs dans le monde, les réacteurs russes notamment et ceux de Tchernobyl. Ces réacteurs sont moins stables et plus difficiles à contrôler et la filière a été abandonnée
        - celui où le modérateur et le caloporteur sont de l’eau bouillante.
C’est la filière américaine et environ 23 % des réacteurs, dont en particulier les réacteurs japonais. L’inconvénient est que l’eau bouillante de transport de la chaleur mais aussi de refroidissement du réacteur, sort de la cuve où est enfermé le coeur, pour aller dans les turbines, ce qui crée des risques de fuite, comme on l’a constaté au Japon et fait passer de l’eau éventuellement contaminée dans les turbines et leur circuit..
        - celui où le modérateur est de l’eau sous pression et le caloporteur de l’eau. C’est la filière française et 67% environ des réacteurs dans le monde. Il y a un circuit dans la cuve avec un échangeur de température étanche qui transforme l’eau du circuit secondaire en vapeur, qui alimentera les turbines. Les risques de contamination et de fuite sont bien moindres.
    La filière française est donc plus sûre au plan des principes de fonctionnement.

    Par ailleurs, alors que les réacteurs russes, bien que peu sûrs, n’avaient pas d’enceinte étanche, les réacteurs japonais une enceinte mais non prévue pour résister à une explosion due à l’hydrogène qui peut se dégager en cas d’assèchement de la cuve, les réacteurs américains et français ont une enceinte solide, qui lors de l’accident de Three Miles Island au début de l’exploitation des réacteurs, a permis d’éviter toute fuite extérieure importante.
    Dans les nouveaux réacteurs type EPR en construction, il y a même une enceinte supplémentaire.

http://lancien.cowblog.fr/images/Sciences/articleIDEwebEPR.jpg

    Enfin les réacteurs français bien que prévus pour résister à un tremblement de terre, ne sont pas en zone sismique et ne riquent pas l’impact d’un tsunami.
    Avant leur construction et tout au cours de la réalisation, puis pendant le fonctionnement, ces réacteurs font l’objet d’un cahier des charges très détaillé, de consignes de fonctionnement draconniennes et de contrôles réguliers.
    Certes de petits incidents ont lieu, comme dans toute installation ou machine en fonctionnement, mais ils se sont toujours révélés mineurs et n’ont jamais mis en danger l’environnement.
    La probabilité d’un accident grave est donc extrèmement faible, des scénarios et consignes ont été étudiés pour y faire face et l’autorité de Sureté Nucléaire, les laboratoires de mesure et les services de la Protection Civile sont entraînés à y faire face.

    Le principal grief que l’on fait aux réacteurs nucléaires français n’est donc pas le risque d’accident, mais la production de déchets radioactifs.
    C’est effectivement un problème qu’il faut examiner.
    D’abord au plan des quantités.

    L’industrie, les laboratoires produisent des déchets radioactifs, le plus souvent de faible activité, qui ressemblent à des déchets ménagers.
    Mais 85 % des déchets sont produits par le fonctionnement des réacteurs nucléaires et le traitement des combustibles.
    Les déchets radioactifs ne sont pas tous identiques. Ils sont, d’une part, plus ou moins radioactifs en fonction de l’intensité des rayonnements ionisants qu’ils émettent et de la nature de ces rayonnements (alpha, bêta, gamma, X et neutrons). D’autre part, la durée pendant laquelle ils sont radioactifs peut varier en fonction de la période radioactive des radioéléments qu’ils contiennent, période qui définit leur durée de vie.
    On les classe donc en fonction de leur activité radioactive et de la durée de vie de cette radioactivité.
    Les déchets très faiblement radioactifs  proviennent principalement du démantèlement des installations nucléaires ou de travaux d’infrastructure. La radioactivité de ces déchets est extrêmement faible, de courte durée de vie et voisine de la radioactivité naturelle.
    Les déchets faiblement ou moyennement radioactifs à durée de vie courte représentent près de 90 % de l’ensemble des déchets radioactifs. Il s’agit pour l’essentiel de déchets provenant du fonctionnement courant des installations nucléaires (objets contaminés, outils ou résidus miniers...).
    Les déchets faiblement radioactifs à durée de vie longue sont essentiellement des déchets radifères et des déchets graphites. Les déchets radifères, issus principalement du traitement du minerai d’uranium, du démontage et de la récupération d’objets contenant du radium.
    Les déchets moyennement et hautement radioactifs à durée de vie longue contiennent des éléments moyennement et hautement radioactifs, dont la décroissance radioactive peut s’étendre sur plusieurs centaines, voire milliers d’années. Ils proviennent des usines de fabrication des combustibles nucléaires, des centres de recherche et des usines de traitement des combustibles usés issus des centrales nucléaires.
    Ce sont eux qui posent problème, mais, s’ils contiennent 99,96 % de la radioactivité totale, ils ne constituent que 3,8 % du volume des déchets radioactifs en France, soit 600 tonnes par an, soit 10 grammes par an et par habitant.
    Si l’on considère les industries chimiques et métallurgique française (sans parler de l’industrie agroalimentaire), le volume des déchet est un million de fois plus grand, sous forme solide, liquide ou rejets gazeux dans l’atmosphère. La règlementation et les contrôles sont bien moindres que dans le cas du nucléaire et il existe de nombreux cas de pollution dangereuse pour l’environnement.
     Il est curieux de constater que l’on parle beaucoup plus des accidents nucléaires que des accidents dues à la pollution par les dioxine en Italie et en Inde, qui ont causé des dégâts analogues à l’environnement.
    Un tout petit exemple : à 500m de chez moi, des promoteurs ont voulu construire des immeubles à la place d’un grand garage. En creusant  le sol pour installer les parkings, ils se sont aperçu que le garage avait pendant des dizaines d’années et au mépris de la règlementation, déversé les huiles de vidange dans le sol. Il a fallu plus de six mois pour le dépolluer.

    Vous parler des conditions de traitement et de stockage ferait un trop long article, mais si cela intéresse certains lecteurs , je pourrai faire des articles car j’ai eu l’occasion de visiter le centre de la Hague et une installation de stockage sous terre.

    Pour terminer je voudrais parler de l’élimination future de ces déchets.
    Un des déchets gênant par sa toxicité chimique et sa vie radioactive trè
s longue est le Plutonium. Mais il est fissible. Maintenant on sait le séparer et le mélanger à l’uranium dans des barreaux de combustibles (appelés Mox) et on “brûle “ainsi le Pu en le transfromant en produits de fissions.
    Parmi les déchets gênants à vie longue figurent également les “actinides”, (éléments 89 à 103 du tableau périodique, dont font partie l’Uranium et le Plutonium fissibles grâce à des neutrons lents, alors que les autres éléments nécessitent des neutrons rapides.. On arrivera également à utiliser ces produits dans les réacteurs de 4ème génération à neutrons rapides et ils seront donc également détruits.

http://lancien.cowblog.fr/images/Sciences/maitou22classificationperiodiqu-copie-1.png

    Les éléments pour lesquels on n’a pas encore d’autre solution que le stockage sont essentiellement le Césium 137 et le Strontium 90 dont les périodes sont de 30 ans environ.
    Mais des études sont en cours pour essayer de détruire ces éléments, en essayant de les transformer par bombardement neutonique ou peut être de changer leur période grâce à des monopôles magnétiques.

   
En définitive, je suis toujours étonné du peu de réflexion des français, et des écologistes en particulier, mal informés il est vrai, qui consomment  beaucoup d’énergie électrique ou thermique et ont bien du mal à se restreindre dans ce domaine, qui commencent à se rendre compte que, pour l’évolution de notre climat, il faudrait produire moins de gaz à effet de serre, et qui militent néanmoins pour la suppression de la production électrique nucléaire.
    Je ne suis pas un partisan inconditionnel du nucléaire de fission, mais je constate que l’énergie nucléaire est bien moins dangereuses que d’autres activités modernes actuelles et qu’aucune autre méthode de production d’électricité autre que le nucléaire et les combustibles fossiles , producteurs de CO2, n’est capable de remplacer actuellement ces deux moyens de satisfaire nos besoins.
    C’est ce dont je vous parlerai dans mon prochain article.

Samedi 25 juin 2011 à 8:57

Energie, nucléaire, économies

http://lancien.cowblog.fr/images/Caricatures1/pouroucontrenucleaire.jpg

     La polémique sur les “concombres espagnols et le colibacille” (ce serait presque un titre de comédie si cela n’avait presque ruiné certains agriculteurs et fait mourir des personnes), m’a inspiré une série d’article sur .... l’énergie nucléaire.
    Ce n’est pas parce que les concombres sont verts, mais parce que la facilité avec laquelle les gens s’affolent sans réfléchir une seconde me navre.
    Et la décision d’Angéla Merkel de supprimer le nucléaire en Allemagne, dictée par de pures raisons électorale, mettra sûrement ses successeurs dans l’embarras au plan énergétique ou climatique.Et l'Italie aura bien du mal à satisfaire sa demande énergétique si elle satisfait les résultats du référendum, qui a été surtout guidé par un sentiment anti-Berlusconi bien compréhensible, mais sans rapport avec la question posée.
    Alors je vais faire quelques articles sur “la peur du nucléaire”, “les problèmes que posent les réacteurs nucléaires”, et les “énergies de remplacement”.

http://lancien.cowblog.fr/images/Caricatures1/20110530copie.jpg    Dès qu’on parle énergie nucléaire, la plupart des gens quand ils ne confondent pas avec la bombe atomique, ne pensent qu’à Tchernobyl et à Fukushima, qui ont effectivement été des catastrophes qui ont frappé les esprits, mais que l’on examine émotionellement sans faire appel à la raison.
    La catastrophe de Tchernobyl a été lourde de conséquences en Russie, d’une part parce qu’elle a provoqué un certain nombre de morts, mais surtout parce qu’elle a pollué un territoire important.
    Mais à l’origine, des réacteurs de première génération très peu sûrs, des erreurs absolument impensables dans leur conduite avant l’accident et ensuite pour le maîtriser et ensuite une incapacité totale des pouvloirs publics à gérer la situation au plan de la protection civile. Une partie des morts parmi les personnes intervenues sur le site, et toutes les victimes parmi la population auraient pu être évitées par des mesures de sauvegarde très codifiées dans les pays européens. Un tel accident ne peut se produire dans les pays occidentaux.
    On peut comparer à l’accident d’AZF à Toulouse, où certes il y a eu des négligences de l’industriel en matière de sécurité, mais pas de faute des pouvoirs publics, et qui a fait autant de morts et de blessés immédiats qu’à Tchernobyl.
    Pourtant personne n’a proposé de supprimer toutes les usines de nitrates de France.
    A Fukushima, c’est un cataclysme naturel hors du commun, avec des vagues de plus de 20 mètres qui a détruit les digues et endommagé la centrale.
    Bien  que la crise ait été gérée de façon contestable à certains moments et que les intervenants dans la centrale aient été souvent trop exposés aux irradiations, on ne comptera que deux morts par imprudence parmi eux et aucune victime civile, les doses reçues par la population ayant été négligeables.
    Mais le monde entier n’a pensé qu’au nuage radioactif et a oublié que le tsunami proprement dit, avait fait plus de 20 000 morts et avait tout détruit sur son passage et que le risque à l’extérieur du Japon était nul..
    Quand des pluies torrentielles emportent tout sur leur passage dans une petite ville du midi français , personne ne tremble car personne ne se sent menacé.
    Finalement la peur injustifiée des gens est due à la crainte des effets d’une radioactivité, que le public ne connaît pas, et sur lesquels on a toujours été mal informés de telle sorte qu’on pense être face à un mal mystérieux dont on ne peut évaluer les conséquences. C'est une peur irraisonnée comme celle des araignées, des phasmes ou des souris, face à laquelle on ne réfléchit pas alors que finalement ces petites bêtes ne sont gu§re dangereuses pour nous, comparées à un cobra ou un tigre.

    Réfléchissons un peu de façon logique et objective, au danger du nucléaire en France, en terme d’accidents.
   
    Depuis 40 ans que nous avons des centrales nucléaires, il n’y a jamais eu d’accident grave,
pas un seul mort. De petits incidents de fuites d’eau contaminée et pas de blessures d’origine nucléaire des irradiations minimes.
    Aucune industrie ne peut se vanter de tels résultats : travaux publics 150 à 200 morts par an,  métallurgie une soixantaine, commerce une cinquantaine de décès par accident, industries du bois, des peaux et de la pierre une trentaine, industrie chimique une dizaine, et une soixantaine dans le travail temporaire..........
    En France, on compte 3000 à 4000 décès par accident de la route, mais on n’a pas supprimé les voitures pour autant; on déplore des très nombreux accidents domestiques, qui font de l’ordre de 20.000 morts par an.: 10500 environ par chutes et on n’a supprimé ni les escaliers, ni les échelles, 3500 par asphyxie et on utilise toujours les cheminées et le gaz, générateurs d’oxyde de carbone,
1000 par intoxication, mais on n’a pas proscrit les armoires à produits ménager ou à pharmacie, 1000 aussi par brûlure environ, mais on se sert toujours de cuisinières et de fers à repasser, 400 par noyade et les piscines existent toujours.
    On recense aussi plusieurs milliers d’électrocutions par an dont une vingtaine de morts et on utilise toujours l’électricité.
    Le problème, c’est que ces accidents ne sont pas mystérieux et que l’on pense qu’ils n’atteindront que les autres et pas soi même et qu’on peut les éviter

  
  Ce qui fait peur dans l’énergie nucléaire, c’est qu’on est mal informés, qu’on ne sait pas ce qu’il en est et qu’on se sent impuissant et que l’on ne fait pas confiance aux dirigeants et responsables, quand on voit les énormes erreurs faites par les russes lors de l’accident de Tchernobyl et des erreurs certaines au Japon, malgré des conséquences faibles à coté des autres destructions causées par le tsunami.
    C’est la raison pour laquelle je voudrais vous parler de la sécurité d’une centrale électro-nucléaire d’une part et d’autre part des substituts en énergie.

 

Mardi 19 avril 2011 à 7:33

Energie, nucléaire, économies

    Il y a une quinzaine de jours, je voyais au journal télévisé une information sur des hurlements écologistes concernant des recherches de gaz en France.
    Le gouvernement semble avoir cédé et les députés semblent même vouloir interdire en France ce type d'exploitation, du moins avec les méthodes actuelles.

  J'ai été y voir de plus près et ’il y avait effectivement un problème.
    De quoi s’agit il ?


http://lancien.cowblog.fr/images/Sciences/gazschistearticle.jpg

    Il s’agit d’exploiter du gaz naturel, emprisonné à 2000 à 3000 mètres sous terre, dans d'innombrables poches minuscules,  coincées entre de fines strates de schiste (qui est une roche feuilletée comme l’ardoise).
    . Mais les compagnies ne disposent que depuis quelques années des techniques nécessaires pour exploiter ces gisements d'une richesse telle qu’elle pourraient probablement satisfaire la demande en gaz pour le chauffage d'immeubles, la production d'électricité et l'alimentation de véhicules pour les cent ans à venir et l'exploitation du gaz naturel, plus propre que le charbon et le pétrole, contribuerait au ralentissement du changement climatique.   
    Les fournisseurs d'énergie réclament donc à cor et à cri aux autorités l'autorisation de faiure des forages qui, pour permettre l’exploitatuon du gaz, doivent être assez rapprochés les uns des autres.
    Un très grand nombre de permis a été accordé aux USA , particulièrement en Pennsylvanie (plus de 3000 en 2010) et où le nombre de puits exploités est passé de 36 000 en 2000 à 71 000 en 2009.
    En France trois permis exclusifs ont été accordés à Total et à une société américaine, Texan Schuepbach, associée à Gaz de France-Suez, pour une prospection dans le sud- est (de Montélimar à Montpellier sur une zone de 9672 km2, grande comme le département de la Gironde).
    Encore novices dans l’exploitation des gaz de schistes, les groupes français ne peuvent se passer de partenaires américains, les seuls à maîtriser la technique clef d’extraction de ces nouvelles ressources.
    Il semblerait toutefois que ces permis vont être annulés.
    Mais le problème, c’est en fait, la technique d’exploitation.


                                    Schéma emprunté au journal "Le courrier international"
http://lancien.cowblog.fr/images/Sciences/fracturation.jpg
     A 2500 m de profondeur, c’est un petit tremblement de terre : pour réunir les micro-poches en une unique poche de gaz, un explosif est détonné pour créer des brèches. Elles sont ensuite fracturées à l’aide d’un mélange d’eau, de sable et de produits chimiques propulsé à très haute pression (600 bars) qui fait remonter le gaz à la surface avec une partie de ce “liquide de fracturation”. Chacun de ces “fracks” nécessite de 7 à 15 000 mètres cube d’eau (soit 7 à 15 millions de litres), un puits pouvant être fracturé jusqu’à 14 fois.
    Pour chaque “frack”, deux cents allers-retours de camions sont nécessaires au transport des matériaux de chantier, de l’eau, puis du gaz. De quoi transformer n’importe quelle nationale en autoroute. Sans compter les rejets de CO2 des raffineries, le bruit généré par le site et la transformation du paysage environnant.


    Mais ce n’est là qu’un des aspects des nuisances et une partie de l’eau peut être recyclée..
    Si l’on en croit l'Environmental Protection Agency (EPA, agence fédérale de protection de l'environnement), les dangers écologiques et sanitaires sont bien plus grands qu'on ne l'a longtemps pensé.
    Pour chaque puits, l’hydrofracturation peut produire plus de 3,8 millions de litres d'eaux usées, mêlées de sels hautement corrosifs, de substances cancérigènes comme le benzène et d'éléments radioactifs, notamment du radium,  présents naturellement à plusieurs centaines de mètres de profondeur.
    La radioactivité mesurée dans les eaux usées est dans certains cas plusieurs centaines, voire plusieurs milliers de fois supérieure à la limite fédérale autorisée pour l'eau potable, ce qui à priori n’est pas grave puisque personne ne boit ces eaux usées, mais  il n'existe aucune réglementation fédérale relative aux niveaux de radioactivité acceptables dans des eaux de forage.
    Les compagnies de forage ont acheminé en 2008 et 2009 au moins la moitié de ces eaux usées vers des stations d'épuration publiques, mais ces usines de traitement ont une capacité bien moindre d'élimination des polluants radio-actifs que pour la plupart des autres substances toxiques et elles ne peuvent ramener les taux d'éléments radioactifs à des niveaux respectant les normes pour l'eau potable avant de rejeter les eaux usées dans des cours d'eau, parfois à quelques kilomètres seulement en amont de centres de production d'eau potable.
    En décembre 2009, ces risques ont amené des scientifiques de l'EPA à adresser une lettre à la ville de New-York pour conseiller aux autorités municipales de ne pas accepter dans les stations d'épuration des eaux usées issues de forage présentant des taux de radium12 fois supérieurs au seuil autorisé pour l'eau de boisson.
    Certaines eaux usées contenaient des taux de radiurn 100 fois supérieurs à ce seuil et des scientifiques de l'EPA ont mis en évidence que certaines rivières de Pennsylvanie ne parvenaient pas à diluer suffisamment les eaux usées mêlées de radium qui y étaient déversées.    

     A. la fin de 2008, des déchets de forage et de mines de charbon rejetés en pleine sécheresse ont saturé la rivière Monongahela, au point que les autorités locales ont recommandé aux résidants de la région de Pittsburgh de boire de l'eau en bouteille. Dans un document interne, les représentants des autorités ont dépeint cet incident comme "l'un des pires cas où, dans l’histoire des USA, les autorités ont été incaptibles de fournir de l'eau potable à la population.  
    De plus le gaz s'est infiltré dans les nappes phréatiques dans cinq Etats au moins des USA.
    La pollution de l'air due à ces exploitations constitue elle aussi une menace grandissante. Ainsi, en 2009, le Wyoming n'a pu satisfaire aux critères de qualité de l'air pour la première fois de son histoire, entre autres à cause des émissions de benzène et de toluène de quelque 27 000 puits, pour la plupart ouverts au cours des cinq dernières années.
       
    En principe, les producteurs de gaz sont tenus à gérer les conséquences de leurs rejets. ils doivent déclarer ces déversements, concevoir leurs propres plans d'intervention et assurer le nettoyage.
    Un bilan des plans d’intervention sur les projets de forage de 4 sites de Pennsylvanie où se sont produits des accidents, a fait apparâître que ces plans, pourtant approuvés par l'Etat, étaient souvent contraires à la loi.
    Les sociétés "subissent des pressions", elles doivent 'faire des économies",  et "Cela revient moins cher de rejeter. les eaux usées que de les traiter. " !!!
 
    Qu’en sera t’il en France ?
    Je comprends que les écologistes soient inquiets.
    Il semble pour le moment qu'ils aient été compris.





Vendredi 8 avril 2011 à 8:02

Energie, nucléaire, économies

Profondeur des océans au large du Japon.
http://lancien.cowblog.fr/images/images/profondeursJapon.jpg

     
   Maud, notre chevrette canadienne, m'avait signalé un article intéressant sur la contamination radioactive de l'océan au Japon, paru dans "Psychomédia"  Merci à elle.
   Cet article avait pour origine une publication de l'Institut français de Radioprotection et de Sûreté nucléaire (IRSN) et j'ai pensé que le résumé de cet article étant court, je pouvais le recopier ici, in extenso.


     Accident nucléaire de Fukushima-Daiichi : 04/04/2011
l’IRSN publie une note d’information sur l’impact sur le milieu marin des rejets radioactifs consécutifs à l’accident
 

     Les mesures effectuées depuis plusieurs jours dans l’eau de mer à proximité de la centrale nucléaire de Fukushima-Daiichi au Japon montrent une forte contamination du milieu marin par divers radionucléides rejetés lors de l’accident survenu dans la centrale.
 
     D’une manière générale, la pollution radioactive en mer provient :
pour partie du déversement direct d’eaux contaminées depuis la centrale ;
pour partie du transfert par les rivières des polluants radioactifs déposés au sol à la suite des rejets atmosphériques, puis lessivés par la pluie ;
pour partie enfin des retombées dans l’océan d’une partie des radionucléides du panache atmosphérique, que les courants aériens ont dirigé vers la mer pendant une bonne partie de la séquence accidentelle.
 
     Certains de ces radionucléides sont solubles ; ils vont être transportés par les courants marins et se disperser dans les masses d’eau océaniques sur des distances très importantes. D’autres ont tendance à se fixer, plus ou moins facilement, sur les particules solides en suspension dans l’eau, entraînant une contamination sédimentaire après dépôt sur les fonds océaniques. Les éléments radioactifs de courte période radioactive, tels que l’iode 131, ne seront détectables que pendant quelques mois (la radioactivité de l’iode 131 est divisée par 1000 toutes les dix périodes radioactives, soit tous les 80 jours). D’autres, comme le ruthénium 106 (106Ru) et le césium 134 (134Cs) persisteront dans l’environnement marin pendant plusieurs années. Le césium 137 (137Cs) a une période radioactive longue (30 ans) : il sera sans doute justifié d’en assurer un suivi attentif de longue durée, dans les zones du littoral japonais où il est susceptible d’être présent dans les sédiments. Il pourrait en être de même du plutonium si celui-ci se trouvait dans les rejets en mer, ce qui n’est pas établi à ce jour.
 
     En fonction de la persistance de ces radionucléides et de leurs concentrations plus ou moins importantes, certaines espèces végétales ou animales pourraient être contaminées à des niveaux significatifs, justifiant la mise en place d’un programme de surveillance radiologique des produits de la mer venant des zones du littoral japonais les plus impactées.

   Cet article résume une étude beaucoup plus complète  et pour ceux qui auraient le courage de la lire en voici l'adresse (document 9 pages PDF téléchargeable gratuitement)
http://www.irsn.fr/FR/Actualites_presse/Actualites/Documents/IRSN-NI-Impact-accident-Fukushima-sur-milieu-marin_04042011.pdf

Lundi 4 avril 2011 à 7:30

Energie, nucléaire, économies

http://lancien.cowblog.fr/images/Caricatures1/2721033267.jpg  http://lancien.cowblog.fr/images/ClimatEnergie/veriIIb.jpg

 












  Suite aux articles que j’ai déjà publiés, des correspondant(e)s me demandent ce que je pense du développement de la catastrophe nucléaire au Japon.
    Je n’ai pas constaté de fait très nouveau, si ce n’est, comme vous le savez tous, que le défaut d’eau de refroidissement n’a pas été réparé et que la situation s’est plutôt un peu aggravée.
    Par contre, je suis toujours étonné par ce que disent les médias et même les autorités japonaises à la télévision.

    D’abord les autorités japonaises ont des difficultés à dire que les barres des coeurs sont endommagées en partie, voire certaines fondues. Je ne comprends pas cette réticence : à partir du moment où il y a eu des fuites radioactives, cela ne  pouvait provenir que de cela. Pourquoi hésiter à avouer l’évidence.

    Ce qui m’étonne aussi c’est que l’on n’ait pas utilisé des robots comme ceux que possède EDF ou le CEA. Ce sont des robots simples, de petits engins chenillés avec des caméras et des pinces et bras articulés. Cela permet d’aller voir à un endroit où le débit de dose est trop élevé pour envoyer un homme, et d’amener éventuellement un objet, par exemple un tuyau de toile pour amener de l’eau.

    Pour les personnes qui travaillent dans la centrale à circonscrire le désastre, elles se relaient pour ne pas être trop irradiées.
    On a relaté l’irradiation de trois travailleurs qui ont été évacués sur un hôpital. Il semblerait - mais je ne sais si l’information est exacte, - qu’ils auraient reçu environ 500mSv et que leurs jambes, ayant été au contact de l’eau contaminée, aurait une légère radiodermite due aux rayonnements béta. Leurs jours ne sont pas en danger et ils seront à peine malades, heureusement.
    Mais normalement ils auraient dû être munis de détecteurs et s’apercevoir que l’eau était fortement radioactive.

    Les médias ont annoncé des fuites d’eau contaminée sous les cuves des réacteurs en disant qu’elles étaient fendues. C’est possible, mais cela m’étonne.
Une cuve est extrèmement solide et ne se fend pas facilement.
    Par contre le défaut de sécurité des réacteurs à eau bouillante, est qu’il n’y a pas deux circuits indépendants, l’un qui passe dans le coeur et l’autre qui se réchauffe dans un échangeur et va dans les turbines. L’eau contaminée dans les réacteurs japonais, quitte l’enceinte du coeur pour aller aux turbines et c’est sans doute sur ce circuit qu’il y a eu une fuite. S'ils n'arrivent pas à colmater cette brèche, les japonais n'auront d'autre ressource que de noyer les cuves dans du béton, ce qui complique singulièrement par la suite, les opérations de démantèlement.

    Les japonais ont eu raison d’interdire aux enfants, la consommation du lait aux abords de la centrale et de l’eau à Tokio. La contamination n’est pas forte, mais les enfants sont les personnes les plus sensibles, car ils sont en développement. Il vaut mieux être trop prudent, plutôt que pas assez comme à Tchernobyl.

    Par contre je ne comprends pas le cirque que font les journalistes parce que l’eau de mer est contaminée par l’iode 131 au voisinage même de la centrale, ce qui est assez normal vu les circonstances.
    Cela certes, est ennuyeux sur le moment mais n’est pas dramatique d’abord car le niveau n’est pas très élevé et surtout parce qu’on oublie de dire que la période de l’iode 131 étant d‘une semaine, au bout de 10 semaines la radioactivité est divisée par mille et au bout de 20 semaines par un million.
    Donc déjà sans dilution, au bout de 5 mois il ne reste rien. Et de plus la dilution dans la mer est forte et donc atténue encore plus vite la contamination.
    Par contre il faudra surveiller le taux de césium 137, car, vu sa période de 30 ans, on ne peut compter que sur la dilution.

    Des journalistes à la télé s’inquiètent parce qu’ils ont calculé que certaines personnes pourraient recevoir une dose de 3 mSV en un an alors que la dose “maximale admissible pour la population” est de 1mSv par an.
    Cette dénomination est regrettable car elle prête à confusion et à s’inquiéter pour rien.
    En fait cette “dose maximale” a été prescrite pour limiter les irradiation de radiographie médicale qui dépassaient très largement cette limite du temps des radioscopies.
    Pour un travailleur dans le domaine nucléaire, cette dose est de 0,1mSv par semaine et il s’agit d’une exposition permanente. (elle vise à limiter la dose totale reçue à moins de 5mSv chaque année pendant 40 ans de durée de travail, ce qui représente 2 000 milli-Sieverts, dose totale au dessous de laquelle le risque de cancer ne dépasse pas la probabilité de cancer naturel).
    Comme je vous l’ai déjà dit dans mon article sur l’irradiation, il faut des doses qui dépassent 500mSv pour être sérieusement malade, et les doses susceptibles d’être reçues actuellement au niveau de la population sont sans danger.

    Enfin le passage du nuage sur la France a suscité évidemment beaucoup de polémiques et d’inquiétude, que je comprends d’ailleurs, vu les âneries qui avaient été proférées par les autorités gouvernementales lors du passage du nuage de Tchernobyl.
    En fait les sondes qui mesurent le débit de dose n’ont rien détecté du tout.
    Les spectromètres calés sur le rayonnement de l’iode 131, ont mesuré après les pluies des 28/29 mars des contaminations par litre d’eau entre 0,3 et 1,7 béquerel par litre. Mais le béquerel est une unité fort petite et je rappelle que lorsqu’on fait une scintigraphie de la thyroïde (examen médical analogue à un scanner), on injecte un million de béquerel d’iode radioactif 131 et personne n’a jamlais été malade pour autant.
       
    C’est vrai que c’est difficile d’évaluer les dangers de la radioactivité car ils dépendent de chiffres dont la majeure partie des gens ne connaissent pas l’importance. C’est pour cela que je fais ces articles pour relativiser.!!
    Je pense que les autorités japonaises maîtriseront la situation de telle sorte qu’il n’y ait pas de danger pour la population.
    Par contre il faudra suivre la contamination en iode 131, mais ce sera inutile d’ici quelques mois et surtout en Césium 137, pour savoir si les cultures de légumes autour de la centrale peuvent être à nouveau consommées

    Et je suis mal à l’aise du fait que les journalistes ont presque oublié toutes les victimes du tsunami, bien plus atteintes ,et réclament à cor et à cri une évacuation au delà des 20 km autour de la centrale, sans mesurer ni la nécessité de l’opération, ni les conditions dans lesquelles vivent ces “évacués”, surtout compte tenu des dégâts et des exilés déjà provoqués par la vague du tsunami.
    En dehors des cancers de la thyroïde des enfants, due à la négligence des autorités russes, (consommation de lait), la catastrophe de Tchernobyl a fait plus de ravages par les traumatismes des évacuations (qui étaient nécessaires), que par les effets des irradiations ou de la contamination.
    Nos journalistes manquent souvent de bon sens. C’est simple de baratiner. Décider de façon responsable et pragmatique en prévoyant les effets de ses décisions est beaucoup plus difficile.

<< Page précédente | 1 | 2 | 3 | 4 | 5 | 6 | Page suivante >>

lancien

sortir de la tristesse

Créer un podcast