Samedi 17 août 2019 à 16:01

Ecologie, Changement climatique

http://lancien.cowblog.fr/images/Santebiologie2/P883E1.gif
       Je regarde tous les jours le journal télévisé pour savoir un peu ce qui se passe en France et dans le monde. On nous montre malheureusement souvent la pollution, qui sévit chez nous, mais encore plus en Inde ou en Chine et on voit de nombreuses personnes qui circulent, un masque antipollution blanc sur le nez.
      C’est vrai aussi dès qu’on parle d’épidémie de grippe ou autre maladie respiratoire .
     Cela me laisse perplexe, car j’ai travaillé autrefois dans un labo où l’on étudiait la protection des voies respiratoires et je crains que ces précautions soient malheureusement souvent plus nocives qu’efficace.
    En effet tout dépend contre quoi on veut se protéger.

    En matière de protection des voies respiratoires, on trouve divers matériels d’efficacité croissante :
        - de simples masques de tissus qu’on met devant le nez et la bouche, attachés par un élastique derrière la nuque. C’est ce que portent les personnes vues à la télévision. C’est évidemment bon marché.
        - des masques plus élaborés de chirurgiens, qui épousent davantage les formes du visage et dont le tissus est spécifique.
        - les masques de peintre, destinés à ne pas respirer la peinture dans une cabine de pistolage.
        - les masques à gaz que l’on portait pendant la guerre (ou en service dans l’armée)
        - les respirateurs à bouteille des pompiers.
    Tout dépend contre quoi on veut se protéger.

    Je rappelle d’abord que 1 micromètre (µm) = 1/1000ème de millimètre et 1 nanomètre (nm) = un millionième de millimètre.
    A titre de comparaison un globule rouge mesure 7µm, une bactérie environ 1µm.

    Lorsque nous respirons, nous aspirons environ 1/2 litre d’air pour en absorber l’oxyg§ne et rejeter ensuite du gaz carbonique (CO2). Nous respirons en même temps des particules et gouttelettes qui flottent dans l’air, et divers polluants gazeux, provenant des activités industrielles du chauffage, et surtout des rejets des moteurs de voiture : oxydes d’azote (NO et NO2), dioxyde de soufre (SO2), ozone (O3).
    Il peut y avoir évidemment des polluants autres : oxyde de carbone (CO), lors de combustions, produits chimiques lors d’épandages… dont certains peuvent être dangereux.

    Parlons d’abord des particules qui constituent la pollution la plus courante et la plus dangereuse.
    Les pics de pollution en France peuvent aller jusqu’à plusieurs millions de particules de particules fines par litre d’air que nous respirons toutes les deux inspirations, voire à chaque respiration si nous sommes en train de faire un effort physique.
    Les particules dans l’atmosphère se classent en quatre principales catégories, vis à vis de notre respiration :
        - Les particules les moins fines de diamètre supérieur à 10 µm.
    Ce ne sont pas les plus dangereuses car elles sont pour la plupart arrêtées par le nez et la gorge où elles se déposent. D’autre part, comme elles sont lourdes elles tombent et de déposent sur le sol.
    Les particules de diamètre inférieur à 10 µm. sont appelées PM10
        - Les particules de diamètre compris entre 2,5 et 10 µm.
    Ce sont elles les plus dangereuses, car elles pénètrent dans les poumons, et constituent la majeure partie en masse. Certaines en ressortent, mais d’autres s’y accumulent et encombrent les alvéoles pulmonaires en perturbant la respiration
    Les particules de diamètre inférieur à 2,5 µm. sont appelées PM2,5
        - Les particules de diamètre compris entre 2,5 et 0,1 µm.
    Elles sont également dangereuses car elles ont tendance à rester en suspension dans les poumons sans en ressortir et surtout leur concentration correspond en général au maximum de la pollution et donc au maximum d’absorption possible.
    Elles encombrent les alvéoles pulmonaires et les plus fines traversent les parois des vaisseaux sanguins.
        - Les particules de diamètre inférieur à  0,1µm.  (100 nm : PM0,1).
    Elles ne représentent qu’une faible masse, mais sont très nombreuses et peuvent franchir la paroi des vaisseaux sanguins du poumon et donc circuler ensuite en même temps que le sang dans l’organisme. Mais on ne sait pas quel est exactement leur comportement, car à cette taille, les matériaux ont des comportements particuliers.

    L’organisation mondiale de la Santé (OMS) estime que la pollution entraîne la mort prématurée de 7 millions d’e personnes dans le monde dont 48 000 en France.
    Les dangers sont les suivants :
        - Des réactions inflammatoires des poumons
        - Des symptômes respiratoires : difficultés à respirer.
        - Des effets néfastes sur le système cardiovasculaire.
        - Un risque de cancer au moins pour certains produits
        - L’accroissement de la prise de médicaments, de l'hospitalisation et de la mortalité des personnes souffrant de problèmes respiratoires, étant cardiaques ou asthmatiques (et considérées comme les groupes à risques).
        - Les personnes âgées et les enfants sont également considérées comme les groupes à risques

    Malheureusement tous les masques que l’on porte sont inefficaces, que ce soit de simples tissus jusqu’au 215 références de marques, vendues en France, et tant pour les particules fines que pour la pollution gazeuse.
L’Agence Nationale de Sécurité Sanitaire de l’Alimentation de l’environnement et du travail (ANSES) a étudié ces masques et dénonce leur inefficacité.
    Les masques ne sont conçus que pour filtrer les particules fines et n’ont aucun effet sur les gaz. Leur adhérence au visage est souvent mauvaise et donc leur étanchéité n’est pas bonne. La filtration dans les conditions d’usage est très inférieure à celle mesurée en laboratoire. Si la filtration des particule de diamètre supérieure à 10 µm est bonne (mais de peu d’intérêt, celle des particules autour de 2,5 µm est moyenne et celle des particules PM0,1 est pratiquement nulle.
    En outre ces masques sont conçus pour des personnes normales au repos et non pour des personnes à risue ou faisant un effort physique.
    Les masques de chirurgien n’ont pas une efficacité beaucoup plus grande : ils sont destinés à empêcher les particules liquides issues de la bouche et du nez du chirurgien d’aller sur le champ opératoire.
    Les masques militaires sont plus efficaces, mais d’un port pénible et inconfortable, que ne supporteraient pas les personnes non entraînées.
    A noter qu’aucun masque n’arrête les molécule gazeuses de petite taille telles que CO, O3 ou NO. Seul le scaphandre des pompiers, complètement étanche et alimenté en oxygène, est efficace dans ce cas.

    Contre cette pollution, le seule solution est de diminuer son intensité, et ensuite de réduire l’activité des personnes pour moins respirer, mais les masques sont inefficaces et, si l’on reste chez soi, il est cependant nécessaire d’aérer pour éviter des accumulations de produits dans les pièces.

Mardi 23 avril 2019 à 9:08

Ecologie, Changement climatique

Unité de production d'hydrogène par vaporeformage à la raffinerie de Jubail en Arabie saoudite
http://lancien.cowblog.fr/images/Sciences2/471620.jpg

    Présent en abondance dans le Soleil, l’hydrogène gazeux est quasiment absent de notre atmosphère. Il faut donc l’extraire de molécules qui le contiennent, comme l’eau ou les composés organiques.

    Aujourd’hui la production industrielle est faible, par rapport à ce qu’il faudrait pour alimenter le transport automobile et routier, et la principale filière utilise des composés organiques principalement constitués d’hydrogène et de carbone, comme le gaz naturel, le charbon ou la biomasse. Elle représente actuellement plus de 90% de la production d’hydrogène.
    Elle a un énorme inconvénient : les réactions chimiques correspondantes  extraient l’hydrogène en convertissant le carbone en gaz carbonique CO2, d’où un bilan catastrophique au plan de l’effet de serre
    Avec ce type de production à partir de produits carbonés,, la voiture à hydrogène n’a aucun avenir

    La deuxième filière produit de l’hydrogène par décomposition de l’eau. Elle utilise soit un courant électrique pour l’électrolyse, soit une succession de réactions chimiques pour les cycles thermochimiques qui permettent de « casser » les molécules d’eau afin d’obtenir de l’hydrogène.
    Mais les réactions sont endothermiques et donc on consomme plus d’électricité qu’on n’en récupèrera dans la pile à combustible
    C’est donc un hydrogène très cher.
    De plus si l’énergie électrique est produite, comme en Allemagne à partir de centrales à charbon, le bilan en CO2 est très mauvais. En France l’énergie électrique étant d’origine nucléaire, la filière serait envisageable, mais n’existe pas industriellement.
    Ce peut être une filière intéressante pour utiliser l’électricité des énergies intermittentes, solaire ou éolienne, que l’on ne sait pas stocker. On produirait de l’hydrogène que l’on peut stocker. Mais, vu le coût de ces énergies, celui de l’hydrogène est alors 4 fois plus cher que celui produit à partir du pétrole ou du gaz.
    Il faudrait une baisse importante de ces énergies, et de plus une usine près d’une centrale voltaïque, car le coût de rattachement de celle-ci au réseau est très cher.

         Une troisième filière beaucoup plus intéressante serait la production par décomposition de l’eau à très haute température. Mais ce ne serait rentable qu’avec des réacteurs nucléaires à haute température de 4ème génération, et l’étude de ceux-xi est actuellement très lente.

    Enfin on pourrait penser à un générateur d’hydrogène directement dans le véhicule.
    Les principes sont connus : on peut utiliser du boro-hydrure de sodium  NaBH4, mais c’est un produit cher et on préfère utiliser de l’aluminium et des solutions aqueuses de soude , les réactions étant les suivantes ;
        2Al + 6H2O + 2NaOH → 2NaAl(OH)4 + 3H2   (1) ;
        NaAl(OH)4 → NaOH + Al(OH)3   (2) ;
        2Al + 6H2O → 2Al(OH)3 + 3H2   (3).
    La soude est régénérée et le bilan est celui de l’équation (3).
    J’ai personnellement fait fabriquer un petit générateur d’hydrogène au borohydrure, pour alimenter la flamme d’un petit spectromètre portatif et cela fonctionnait très bien.
    Mais il faudrait une quantité bien plus grande pour fournir la pile à hydrogène d’une voiture et mettre au point un tel générateur n’est pas simple.
    On peut aussi stocker de l’hydrogène dans des hydrures métalliques qui fixent l’hydrogène sous forme atomique (et non la molécule H2), cel dans des conditions de température et de pression propre à chaque hydrure et qui le restituent àdans des conditions différentes. pour être utilisé dans des applications mobiles, les hydrures métalliques considérés doivent avoir des températures et des pressions d’équilibre compatibles avec leur stockage, dans des stations service, leur emport dans une voiture et des conditions acceptables de restitution de l’hydrogène
    Par contre on peut stocker des quantités importantes dans des volumes réduits.
    Mais si des essais ont été intéressants, on est encore loin de la réalisation industrielle de ces « éponges » à hydrogène.
    Mais cela éviterait les stockages lourds et dangereux.


    En définitive, si l’on sait faire une voiture à hydrogène, si une voiture électrique hybride serait intéressante au plan de l’absence de rejet de CO2, la voiture elle même est complexe et très chère.
    Mais une réalisation en série ferait baisser les prix.
    Cependant le gros problème reste la fabrication en quantité suffisante d’hydrogène, sans produire de CO2 et à un coût raisonnable. On n’est encore qu’aux études préalables.
    Je ne pense donc pas qu’il y ait une généralisation de la voiture hybride à hydrogène avant 2040.
    Tout dépend aussi des progrès de stockage que feront les batteries électriques, car, si elles arrivaient à tenir 500 km sans recharge, la voiture serait beaucoup plus simple et moins chère que la voiture à hydrogène.

http://lancien.cowblog.fr/images/Sciences2/images1.jpg

Samedi 20 avril 2019 à 16:43

Ecologie, Changement climatique

     J’ai trouvé, sur la revue « Sciences et Avenir », un intéressant article sur le future voiture à hydrogène, mais trop succinct et il m’a donné envie de faire un point plus complet.l

    Je l’ai déjà dit sur ce blog, la voiture à hydrogène et intéressante car elle brûle de l’hydrogène qui associé à l’oxygène de l’air donne alors de l’eau, et donc pas de CO2, ni d’oxydes d’azote ou de particules fines : grand progrès pour le climat et notre santé !
    Malheureusement il faut mettre la voiture au point et pouvoir l’utiliser dans tout le pays; ce n’est pas si simple pour plusieurs raisons.
    Evidemment lorsque l’on pourra acheter de telles voitures, il faudra disposer des l’approvisionnement en hydrogène sous une forme adéquate dans les stations services. Il faudra aussi pour pouvoir l’approvisionner qu’on en produise en quantité suffisante, pour remplacer l’essence actuelle, et aujourd’hui, nous n’en sommes pas capables : c’est un autre problème que je traiterai demain.

    On pourrait brûler l’hydrogène dans un moteur à pistons classique, sans changements majeurs. Le premier moteur à combustion, développé en 1805 par Isaac de Rivaz (Suisse), était alimenté à l’hydrogène ! Donc on pourrait théoriquement utiliser des voitures voisines des voitures actuelles.
    Plusieurs prototypes ont existé, mais il y a quelques problèmes :
    Essentiellement une question de volume : l’hydrogène est 3 fois plus énergétique, à masse égale  que l’essence, mais il est très léger : 89g/m3, soit 12 m3/kg.
Si vous prenez un réservoir actuel d’essence de 60 litres d’une grosse voiture, stockant environ 45 kg d’essence, il faudrait en équivalent 15 kg d’hydrogène, soit 180 m3 de gaz
    Sous 200 bars de pression, il faudrait encore 1 m3 de volume et le réservoir d’acier doit résister à cette pression et pèserait plus que la tonne (autant que la voiture !). Impensable.
    Un autre problème est le fait que l’hydrogène, en présence d’oxygène (de l’air) est explosif. Donc toute fuite est très dangereuse : d’où une étanchéité drastique de toutes les conduites et raccords, que ce soit des réservoirs au moteur, comme des stations d’approvisionnement au réservoir.
    Ces deux problèmes ont empêché tout développement majeur jusqu’à ces dernières années.

    Actuellement on s’oriente plutôt vers une voiture électrique alimentée par une pile à combustible, et il existe 3 constructeurs : Toyota, Hyundai et Honda,: 3600 véhicules ont été vendus, essentiellement par Toyota et aux USA; ces véhicules sont très chers, de 60 000 à 70 000 €. Les constructeurs français Peugeot et Renault, commencent à s’y intéressent ainsi que Mercédes.
    Vous voyez ci-dessous deux photos des voitures Toyota et Hyundai et un schéma de la coupe de la voiture de Toyota, la « Mirai ».

http://lancien.cowblog.fr/images/Sciences2/toyotamiraiphoto0007620x413.jpghttp://lancien.cowblog.fr/images/Sciences2/Unknown-copie-4.jpg
Toyota Miraï
<--------

Hyundai Nexo
          -------->






http://lancien.cowblog.fr/images/Sciences2/toyotamiraireservoirs-copie-1.jpg
    La voiture est équipée de deux réservoirs à hydrogène, qui sont en fibre de carbone et stockent 5 kg d’hydrogène sous 700 bars, et conçus pour résister à des chocs. Tout un sytème de sécurité détecte les fuites et ferme automatiquement le réservoir
    Le ravitaillement et également très sécurisé : une fois raccordé à la voiture par le biais d’une pistolet, la station évalue automatiquement le différentiel de pression pour enclencher, ou pas, le ravitaillement en hydrogène de la voiture. Là encore des sécurités interviennent en cas de risque de fuite (notamment verrouillage du pistolet, interdiction de démarrage du moteur, arrachage du tuyau au niveau de la station et fermeture d’un robinet si la voiture emmenait par accident la tuyauterie…)
    Le « plein » peut être fait en quelques minutes.

    L’hydrogène alimente une pile à combustible de 114 kW (155 ch). Celle-ci charge une batterie Nickel-hydrures métalliques de 1.6 kwh, qui récupère l’énergie lors des phases de freinage et de décélération et apporte un supplément de puissance en phase d’accélération.
    Pile à combustible et batterie alimentent un moteur électrique synchrone de 113 kW (154 ch) et 335 Nm permettant à la Toyota Mirai d’atteindre jusqu’à 178 km/h de vitesse maximale et d’abattre le 0 à 100 km/h en 9.6 secondes. Elle est dotée d’une boite automatique
    La Toyota propose trois modes de conduite – « Normal, Eco et Power » – ainsi qu’un mode « brake » permettant d’accentuer le frein moteur et la récupération d’énergie. Son autonomie est de l’ordre de 500 km.

http://lancien.cowblog.fr/images/Sciences2/images-copie-2.jpg    Comment fonctionne une pile à combustible ?
    Une pile à combustible est en quelque sorte l’inverse d’un électrolyseur. Les réactions chimiques sont les mêmes que dans l’électrolyseur, mais inversées (voir schéma ci contre).
    L’hydrogène traverse un diffuseur (une matière carbonée poreuse) et atteint l’électrode négative (anode), recouverte de platine, qui favorise le départ d’un électron de l’atome. Ces électrons forment le courant électrique produit. Les ions hydrogène dépourvus de son électron (ion H+) émigre au travers d’une membrane électrolyte polymère vers l’électrode positive, (cathode), où ils se combinent à des électrons libérés par cette électrode et à de l’oxygène, produisant de l'eau.qui est éliminée.
    Les électrodes, l’anode et la cathode sont constituées de fines particules - des nanotubes de carbone ou des grains de noir de carbone de 50 nanomètres de diamètre sur lesquelles est déposé un catalyseur qui facilite la recombinaison H2 / O2. Actuellement ce catalyseur est constitué de fines particules de platine de quelques nanomètres de diamètre, ce qui est extrêmement onéreux. 
On espère pouvoir remplacer le platine par des molécules organiques  imitant le site actif d'enzymes qui libèrent de l'hydrogène chez des bactéries, et produire ainsi un catalyseur bon marché.

http://lancien.cowblog.fr/images/Sciences2/12008004abdf0ce3cad71b96d3d9fc0.jpg    La voiture à hydrogène est déjà une réalité, puisqu’elle circule depuis 2014, mais à effectifs réduits, ce qui n’a rien d’étonnant vu son prix.
    Son avenir paraît être plutôt celui d’une voiture hybride, c’est à dire une vraie voiture électrique avec des batteries importantes, LI/ions pour le moment, et une pile à combustible d’appoint pour prolonger le rayon d’action. Le réservoir d’hydrogène peut être alors plus réduit.
    Une petite société française grenobloise, Symbio,  a conçu avec l’aide du CEA, et l’aide financière de Michelin et d’Engie, un « kit » destiné à des kangoos électriques de Renault, qui rajoute 180 km d’autonomie. Des adaptations à d’autres véhicules utilitaires sont en cours.
   
    Mais deux gros problèmes subsistent :
    D'abord disposer de stations services assez répandues pour pouvoir s’approvisionner comme on le fait pour l’essence. Cela ne pose pas de question technique difficile, mais c’est un problème d’investissement, d’un coût élevé
    Le véritable problème est celui de la production d’hydrogène en quantité suffisante, sans produire de CO2 et à un coût raisonnable.

  
Je le traiterai dans le prochain article.

Samedi 6 janvier 2018 à 16:10

Ecologie, Changement climatique

http://lancien.cowblog.fr/images/ClimatEnergie2/1485465225J5p.jpg
http://lancien.cowblog.fr/images/ClimatEnergie2/1485465034E7c.jpg















    J’ai déjà fait plusieurs articles sur l’effet de serre et le changement climatique et je ne reviendrai pas sur ces aspects.
    Mais l’attitude de M. Trump m’étonne et me scandalise, car c’est le président des USA. Comment les américains ont ils pu élire un homme aussi ignare, sans aucune culture, mais aussi sans logique, au point qu’on pourrait douter de son intelligence.
    Ne lit il donc pas autre chose que des tweets, n’écoute t’il personne, ne regarde t’il pas a télé? Ou alors est il complètement borné ?

    La plupart des gens savent aujourd’hui la différence qu’il y a entre la météo, qui concerne le temps de tous les jours, d-ou de saison en saison, et le climat, qui est un mécanisme complexe, dont on peut mesurer les variations moyenne sur plusieurs années, les mesures fluctuant autour de ces moyennes d’une année à l’autre. C’est ce que montre le graphique ci-dessous sur l’évolution des températures moyennes.
    On voit que cette moyenne augmente, de façon beaucoup plus importante depuis 1985, mais que les températures annuelles sont tantôt en dessous, tantôt au dessus de cette moyenne. C’est une donnée climatique.
http://lancien.cowblog.fr/images/ClimatEnergie2/temperaturefrtcm326274952.png
    Si l’on regardait les températures journalières, on verrait des fluctuations beaucoup plus importantes, froides en hiver, chaudes en été, mais avec des fluctuations qui peuvent atteindre exceptionnellement 20 d°C entre deux jours consécutifs. Le variation de la moyenne n’est pas alors significative vis à vis du climat car elle concerne une période trop courte : c’est une donnée météorologique.

    Il fait actuellement un froid polaire aux USA (- 40 d°C par endroit), et M. Trump a écrit un tweet indiquant que ce phénomène était la preuve que le climat ne se réchauffait pas. Un enfant de 12 ans qui aurait eu un petit cours sur le climat n’ écrirait pas une telle ânerie, et pourtant il ne serait pas président des Etats Unis.

    Le changement climatique n’est pas la variation météorologique de tous les jours. C’est un ensemble de dérèglements dans les mécanismes complexes du climat, encore incomplètement connus. Les constatations sont diverses : augmentation de la température moyenne de l’atmosphère sur plusieurs années, mais aussi de celle des océans, augmentation de leur acidité et de leur niveau, fonte des glaces,  modification des courants des océans, notamment « el Nino » et « el Nina », déplacement des « jet-stream, courants atmosphériques à haute altitude, modifications de l’évaporation et du régime des précipitations etc.…

    Au plan de la température de l’atmosphère, la température moyenne augmentant, il y aura davantage d’été chaud, mais il y en aura encore des moins chauds. La machine climatique étant perturbée, il n’est pas impossible qu’il y ait des périodes beaucoup plus froides l’hiver.
    L’augmentation du niveau et de la température des océans provoquera des risques de submersion des zones côtières, mais également une augmentation de la violence et du nombre des tempêtes, mais avec là aussi des fluctuation d’une année sur l’autre.
    La modification des précipitations due aux changement des conditions de l’évaporation notamment, entraînera une augmentation des pluies violentes et des inondations à certains endroit, mais, peu à peu également, une moindre pluviosité voire une désertification de certains lieux
    Le changement de quelques degrés de la température moyenne et de l’hygrométrie, peut engendrer des modifications importantes de la végétation et des espèces végétales, voire animales, notamment par suite des difficultés rencontrées pour se nourrir. Les ours polaires vont disparaitre avec la fonte des glaces.

    Ce danger qui nous guette est maintenant bien connu : des milliers de scientifiques se sont penchés sur ces problèmes et les résultats des études, convergent malheureusement vers les mêmes conclusions alarmantes.
    Tous les dirigeants des pays du monde sont maintenant convaincus du danger, sauf monsieur Trump, pas assez intelligent malheureusement et trop imbu de sa personne pour comprendre.
    Ce sont toujours les plus idiots qui se croient intelligents !

Samedi 9 décembre 2017 à 12:11

Ecologie, Changement climatique

J’ai lu, dans le magazine « La Recherche », un article interessant mais très alarmant, de Bérénice Robert sur la pollution de l’environnement et ses méfaits.

    Une étude de plusieurs organisations scientifiques conclue qu’en 2015 la pollution de l’environnement serait responsable dans le monde, de 9,6 millions de morts :
        - 6,5 millions dus à la pollution de l’air;
        - 1,8 millions dus à la pollution de l’eau;
        - 0,8 millions dus à la pollution du lieu de travail;
         - 0,5 millions dus à la pollution du sol.
    C’est 3 fois plus que les morts dues au sida, à la tuberculose et au paludisme réunis et 15 fois plus que les décès dus aux guerres et aux formes nombreuses de violence.
    Il est inquiétant de constater qu’autrefois les principales causes de décès dans le monde, étaient les épidémies, les guerres et la famine. Aujourd’hui c’est principalement la pollution.

    On est toujours un peu sceptique devant ces chiffres car on se demande comment on les établit et si les statistiques correspondantes sont fiables, car beaucoup de facteurs influent sur la santé des gens et il paraît difficile de séparer les morts due à une cause particulière.
    En fait les organisations en cause ont utilisé une méthode assez différentes de celles que l’on met en avant dans les systèmes divers d’information, car ils ne sont pas partis des statistiques de morts, qu’il est difficile d’attribuer à une cause unique..
    La fondation « Pure Earth » a rassemblé une énorme base de données sur les 4000 sites les plus pollués dans le monde.
    Cette association, l’organisation mondiale de la santé (OMS) et l’institut de la santé de Seattle ont alors calculé, à partir des données connues sur l’influence des doses des polluants absorbés sur la santé, quelles seraient les conséquences dans le temps de ces pollutions.
    C’est en appliquant cette méthode à toutes les zones de la planète qu’ils sont arrivés à ce chiffre global, et qu’il ont dressé la carte ci-dessous qui donne le nombre de décès sur 10 000 personnes selon les lieux géographiques :

http://lancien.cowblog.fr/images/decespollutiondanslemonde.jpg

    Ces études sont un constat; on ne sait pas comment évoluent ces chiffres car c’est la première fois que l’on dispose des données permettant de les établir.
    Ces morts ne sont pas dues pour la plupart à des maladies transmissibles dues à des microbes : ce sont des maladies cardiovasculaires, les accidents vasculaires cérébraux, les broncho et pneumopathies, telle l’asthme ou des empoisonnements par des substances toxiques.
    Les problèmes de pollution de l’eau potable touchent surtout l’Inde et l’Afrique, la pollution de l’air l’Inde et la Chine, tandis que dans les pays développés c’est surtout la pollution par les particules fines et les métaux lourds qui est en cause.
    L’Agence européenne de l’environnement estime, quant à elle, que le nombres de décès en Europe serait de l’ordre de 500 000.
    Entre les dépenses de santé et la baisse de productivité dues à ces pollutions, le coût en serait énorme, estimé pour les seuls pays à haut revenu (qui sont les moins pollués), à 45 milliards d’euros pour 2015.
    Les zones plus touchées sont celles socialement défavorisées.

    Et ce qui est encore moins rassurant c’est que les chercheurs estiment que leurs chiffres sont nettement sous-estimés, car ils n’ont pas pris en compte, faute de données suffisantes et du fait de la latence des maladies correspondantes, les effets de produits récents tels les perturbateurs endocriniens ou les herbicides.

    Bref entre le changement climatique et la pollution, l’homme détruit peu à peu la vie sur terre. Il serait temps de s’en occuper.

Vendredi 18 décembre 2015 à 9:03

Ecologie, Changement climatique

   La COP 21 est présentée comme un demi succès, car les nations se sont mises d ’accord sur une stabilisation, puis une réduction de nos émissions de CO2, et sur un objectif de limitation de l'augmentation de température; mais le protocole reste assez vague, comme tous les accord diplomatiques, d’autant plus que le nombre de participants était énorme.
    Peut être aurait on eu un résultat plus précis en limitant la COP aux grand pollueurs, mais était ce possible ?
    Mais en fait il n'y a pas d'objectif précis par nation, de réduction du CO2 émis, et il faudrait pourtant que des pays comme les USA, certains pays européens ou la Chine aient des objectifs précis, alors qu'on ne peut demander à l'Afrique de réduire une émission presque nulle. Et rien ne prouve que la somme des réductions sera suffisante et assez rapide pour ne pas dépasser les 2 d°C..

    Les journalistes, tant à la télévision que dans la presse, sont en général assez peu précis, n’ont pour la plupart pas lu le rapport du GIEC (dont même la synthèse pour les décideurs fait 30 pages et le résumé technique une centaine), et ils citent divers chiffres sans préciser les dates d’échéances, ce qui ne veut plus rien dire.

    En effet, si on veut être clair sur l’avenir il ne faut pas confondre trois dates repères : 2030, 2100 et 2300 et c’est très important de ne pas se contenter du court terme.
    Le deuxième point est de voir que, même avec nos modèles mathématiques performants il y a des incertitudes importantes sur les prévisions, par exemple de température, illustrées par le schéma ci dessous, d’une part (en bleu) parce que nos connaissances sur les phénomènes physiques du climat et nos modèles sont limitées, et d’autre part (en vert) parce qu’on a des incertitudes sur le devenir des émissions de gaz à effet de serre, quelqu’en soit l’hypothèse retenue au départ.
http://lancien.cowblog.fr/images/ClimatEnergie2/IMG-copie-1.jpg

    Le troisième point important est que la terre est très diverse et que les résultats seront assez différents selon le lieu.
    Enfin il faut être conscient que climat et météo sont deux choses différentes et qu’il est difficile de savoir de façon précise quelles seront les conséquences pratiques de valeurs moyennes de paramètres comme la température.
    Les décisions de la COP 21 demandent que l'on ait une émission mondiale voisine de la courbe rouge (et bien répartie géographiquement).

    Voyons le court terme de 2030 :
    Même si on arrivait, ce qui n’est guère probable, à stabiliser rapidement nos émissions de CO2 au niveau actuel, nous émettrions 9 Gt de CO2 par an, soit en 15 ans environ 135 Gt.
    Dans le scénario catastrophe, où les émissions continuent à augmenter de 2, 5% par an, on aboutira à environ 160 Gt, soit seulement 25 GT de plus, dont la moitié seulement s’accumule dans l’atmosphère.
    Cette différence est faible et donc le climat à échéance 2030 est déjà déterminé quoique nous fassions, que nous soyons laxistes ou vertueux.
    Cela explique que les politiques, qui souvent voient à court terme et en fonction de leurs chances de réélection, ne se bousculent pas pour sauver le climat.

   Par contre la différence est grande à l’échéance 2100..
   
La température moyenne continuera à monter après 2100 du fait de la faible destruction du CO2 produit et dans l'hypothèse pessimiste l'augmentation à cet horizon atteindrait 8 d°C, et 2 d°C dans l'hypothèse la plus favorable et peu réalisable.
    Malheureusement les médias n’en parlent jamais

    A cette échéance, les modèles mathématiques nous donnent une idée de ce qui se passera avec une certaine incertitude, mais surtout tout dépendra des mesures que nous prendrons pour diminuer notre consommation d’énergie d’une part, et surtout des moyens pour la produire. Là est la plus grande incertitude et il s’agit de scénarios en fonction de ce que nous ferons et pas de prédictions de l’avenir de madame Soleil.
    La grande difficulté est que si l’incertitude physique repose sur des calculs dont on peut évaluer le taux d’erreurs, les hypothèses de production d’énergie reposent sur des évaluation économiques, au réalisme souvent incertain, et qui dépendent à la fois de problèmes financiers et de volonté politique, laquelle elle même est fonction de l’opinion publique, très peu au fait des problèmes posés et très sujette aux sentiments et peurs irraisonnées.   
    La population, mal informée a une phobie du nucléaire, en raison des accidents de Tchernobyl et de Fukushima, sans se rendre compte que celui de Tchernobyl est dû à une vieille filière de réacteurs peu stables et abandonnée, à des techniciens qui le conduisaient incompétents et et à une protection civile irresponsable et que malgré cela il y a eu peu de victimes: quant au Japon, le tsunami heureusement exceptionnel a fait 20.000 morts et l’accident nucléaire 2, qui auraient pu être évités, ainsi qu’une partie de la contamination.
    La plupart des écologistes inintelligents n’ont toujours pas réalisé que le nucléaire occidental est très sûr (le seul taux d’accidents quasi nul de l’industrie, et qu’il est la seule énergie renouvelable capable de satisfaire aux besoins en énergie, sans produire de CQ2 à la combustion.
    En effet pour stabiliser les émissions de CO2, il faudrait mettre en place chaque année au moins 350 à 400 Gw de production non polluante d'énergie pour remplacer celle utilisant le carbone (principalement charbon, pétrole et gaz).
    En 2014 l’énergie éolienne installée a été d’environ 50 Gw, mais le vent étant très variable, cela représente moins de 15 Gw utilisable rendement environ 30%), et on ne sait pas comment stocker cette énergie. En photovoltaïque, financé pratiquement par les impôts,  la puissance est de l’ordre de 30 à 40 Mw, mais qui, vu le rendement catastrophique (15%), cela représente au plus 5 Gw. De plus le courant continu à faible voltage est pratiquement intransportable, ce qui condamne les grandes centrales, qui par ailleurs occupent une place prohibitive. Il est donc réservé à une urtilisation sur place dans des des maisons individuelles.
    L’hydraulique est déjà utilisée à plein, et les efforts en faveur de la géothermie malheureusement presque inexistants.
    On arrive donc péniblement à 40 Gw de production des énergies nouvelles au lieu des 350 Gw nécessaires. A ce rythme le scénario « vertueux » est une complète illusion au plan réel économique.
   
    La COP21 a produit un bel accord où on s’engage à limiter à l’horizon 2100 l'augmentation de température au dessous de 2 d°C, mais elle ne spécifie aucun des moyens pour y arriver, et c’est là, on vient de le voir, tout le problème.

    Même si nous arrivons à stabiliser d’ici 10 à 15 ans nos émissions de CO2, ce qui en l’état des efforts n’est pas possible, maintenir la hausse de température à 2d°C est une illusion si on en reste à cet accord et si on ne prend pas des masures beaucoup plus précises et contraignantes, et tout en faisant le maximum d’efforts pour cela, je pense qu’il faut malheureusement nous préparer et étudier comment supporter une hausse de température de 3 à 4 d°C qui risque de se produire en fin de ce siècle ou dans les deux prochains siècles.
   

Jeudi 17 décembre 2015 à 12:51

Ecologie, Changement climatique

Suite à la COP 21n de mes correspondant est « climato-sceptique », et il m’oppose deux arguments : le premier est qu’il y a eu déjà dans le passé lointain des époques de réchauffement et des époques de glaciation, et d’autre part que la température n’a pas augmenté autant qu’on le pensait depuis quelques années, et il en déduit que les augmentations actuelles sont des phénomènes quasi naturels et que l’homme n’est responsable que d’un faible partie.
    Ces arguments sont vrais, mais la conclusion est fausse.

    C’est vrai qu’il y a eu des variations importantes de température au cours des âges et on a pu établir des courbes, grâce à l’analyse des glaces, ainsi que la concentration correspondante en gaz à effets de serre. (voir le graphique des derniers 6800 000 ans.)
    Ces variations naturelles étaient certes importantes, mais elles étaient très lentes et s’étendaient sur des millénaires. Au contraire la variation actuelle est brutale, en quelques années et  c‘est pour cela qu’elle n’est pas naturelle.
    De même il y a eu des variation de gaz à effet de serre, mais très lentes, alors que celle que l’on constate actuellement est brutale et sans précédent an quantité
http://lancien.cowblog.fr/images/EnergieClimat2/temperatures800000.jpg
    Et la connaissance des conditions de l’effet de serre et les calculs que l’on peut faire, montrent que cette augmentation des gaz à effet de serre explique bien l’augmentation de température.
    Il est donc scientifiquement certain aujourd’hui, que l’activité humaine est responsable de l’augmentation rapide et anormale des gaz à effet de serre dans l’atmosphère et de certaines conséquences qui commencent à apparaître sur le climat, et que, si on n’y met pas bon ordre, ces conséquences sont susceptibles de s’aggraver.
    Même s’il y a actuellement un petit ralentissement de la hausse des températures (sans doute dû à une absorption d’énergie par des variations au niveau des courants océaniques et notamment le courant d’Amérique El Nino), la hausse des températures moyenne continuera à se faire sentir.
    La période 1983-2012 est la plus chaude depuis 1400 ans. Chacune des trois décennies a été plus chaude que la précédente. La température moyenne a augmenté de 0,85 d°C entre 1880 et 2012.
http://lancien.cowblog.fr/images/EnergieClimat2/sanstitre-copie-1.jpg
        La fréquence des vagues de chaleur a augmenté. Entre 2012 et 2035, l’augmentation de température moyenne sera de l’ordre de 0,5 d°C (de 0,3 à 0,7°C selon les scénarios).
    Les observations montrent que l’extension de la banquise en Arctique fin septembre a diminué d’environ 11% (entre 9 et 13%) par décennie entre 1979 et 2012. Depuis les années 1960, la couverture neigeuse dans l’hémisphère nord s’est réduite, jusqu’à 11,7% (au mois de juin) par décennie.
    Entre les années 1980 et les années 2000, on a constaté une hausse de 3°C des températures en Alaska, et de 2°C au nord de la Russie.
    La fonte des glaces et la hausse du niveau des mers pourraient être plus fortes que prévu, entre 30 et 82 cm à la fin du siècle.
    Cela paraît peu, mais une hausse d’un mètre toucherait directement 10% de la population dans le monde.

http://lancien.cowblog.fr/images/EnergieClimat2/niveaumer1.jpghttp://lancien.cowblog.fr/images/EnergieClimat2/glaceGroenland.jpg













    En moyenne les précipitations augmenteront à l’échelle planétaire d’ici la fin du 21ème siècle. Les régions humides aujourd’hui deviendront globalement plus humides et les zones sèches deviendront plus sèches.
    Les experts s’attendent également à ce que le réchauffement climatique provoque des événements météorologiques extrêmes plus intenses, tels que les sécheresses, pluies diluviennes et probablement, des ouragans plus fréquents.

http://lancien.cowblog.fr/images/ClimatEnergie2/2763043.jpg          J'ai fait des articles sur les sources responsables de l’émission des gaz à effet de serre et je ne reviendrai pas sur cette question.
          Je rappellerai les hypothèses du Groupement d’experts intergouvernemental sur l’évolution du climat (GIEC) qui ont été publiées l’an dernier le 30 octobre.(voir mon article du 18/11/2014), résumées sur le graphique ci dessous
            Le scénario maximal» (RCP 8,5 w/m2, en rouge), correspond à notre monde qui atteindra 9 milliards d’individus dans le siècle, population qui stagnera ensuite, et une émission de CO2, qui va croître, car on continuera à utiliser le même mélange d’énergies, notamment fossiles qu’aujourd’hui.
           Le scénario (RCP 6 en jaune), prévoit une utilisation plus grande d’énergies autres que fossiles : nucléaire, éolien, solaire et combustibles moins polluants, mais avec un effort modéré. La teneur en CO2 augmentera encore puis se stabilisera
           Le scénario (RCP 4,5 en vert) décrit la même hypothèse démographique mais avec une économie rapidement dominée par les services, les « techniques de l’information et de la communication » et dotée de technologies énergétiquement efficaces, et un effort intense d’économie d’énergies, mais sans initiatives supplémentaires par rapport à aujourd’hui pour gérer le climat. La stabilisation se fera plus vite.
           Le scénario (RCP 2,6, en bleu) est très optimiste;  il n’a pas d’équivalent parmi les anciens scénarios. Il correspond à des émissions de gaz à effet de serre proches de zéro à la fin du XXIe siècle. Cela implique de réduire fortement, dès aujourd’hui, les émissions de gaz à effet de serre, mais aussi probablement d'avoir recours à des techniques de (re)stockage d'une partie du carbone déjà émis. Il est malheureusement peu réaliste, mais a une valeur de symbole, d’idéal à atteindre.

          Dans le scénario optimiste peu probable, le réchauffement moyen n’excèderait pas 0,5 à 1,5 d°C à l’horizon 2100; il est beaucoup plus important dans les autres hypothèses.
         
         Ce réchauffement serait compris, à l’horizon 2080/2100, entre 1,1 à 2,6 d°C pour (RCP4,5), 1,4 à 3,1 d°C pour (RCP 6), et 2,6 à 4,8 d°C pour (RCP 8,5)
   Vous trouverez ci dessous les courbes correspondant aux hypothèses (RP2,6) et (RP8,5), ainsi que le planisphère correspondant (rouge), car le réchauffement n'est pas le même pour toutes les endroits du globe.
          Mais ce qu'il faut voir, c'est que la température moyenne continuera à monter après 2100 du fait de la faible destruction du CO2 produit et que dans l'hypothèse pessimiste l'augmentation à cet horizon atteindrait 8 d°C, et 2 d°C dans l'hypothèse la plus favorable et peu réalisable.
http://lancien.cowblog.fr/images/ClimatEnergie2/Temperatures.jpghttp://lancien.cowblog.fr/images/ClimatEnergie2/cartestemp.jpg
          
          La COP 21 s‘est résolument orientée vers ce scénario vertueux, qui limite la température à 2 d°C à l’horizon 2300, mais en fait cette hypothèse est peu réaliste et il est beaucoup plus probable que le résultat le plus optimiste soit une hausse de 3 d°C.
Nous en reparlerons demain.

Vendredi 9 octobre 2015 à 16:54

Ecologie, Changement climatique

http://lancien.cowblog.fr/images/Images3/159632470a0eramedemetroparisienseptembre20109ee391bcac545cce28a3cd101e7282b6.jpg

    On parle en ce moment beaucoup de la pollutionj due au particules des diesels, en raison de l’affaire Volkswagen.
    il est certain que les automobiles sont une source importante de pollution, tant en CO2, qu’en particules fines.
    Par contre on ne nous parle pas à la télé du métro.

    Pourtant un rapport de l’Agence Nationale de Sécurité Sanitaire (ANSES) a publié le 9 septembre dernier, un rapport sur la pollution dans le métro.
    Je me souviens qu’il y a 50 ans, quand on mettait au point pour les services médicaux des détecteurs de pollution atmosphérique microbienne, qui à l’époque n’étaient pas encore très sensibles, on allait dans le métro les essayer, car la concentration en agents microbiens y était cent à mille fois supérieure à celle extérieure.
    Dans le rapport de l’ANSES, il s’agit de la pollution en particules fines.
    D’après les mesures faites, les concentrations de particules fines de tailles inférieures à 10 microns (0,01 millimètre) et inférieures à 2,5 µ (0,0025 millimètre), mesurées dans les métros et RER de Lille, Lyon, Marseille, Paris, Rennes, Toulouse et Rouen, et à l’étranger, sont très supérieures à celles mesurées dans l'air extérieur et dans l'air intérieur des logements.
    Pour donner une idée, la concentration moyenne de particules de taille inférieure à 10µ, due à la circulation routière, est de l’ordre de 30 µg/m3, alors que, sur les quais du RER A à Paris, la concentration moyenne est de l’ordre de 100 µg/m3, avec des pics à 2400 µg/m3 dans certaines stations, aux heures de pointe, certains jours.
    On retrouve dans le métro les mêmes polluants que dans l’air extérieur, à l’exception de l’ozone, et il y a moins qu’à l’extérieur d’oxyde d’azote, gaz issu notamment du trafic automobile
    Les poussières proviennent de l’air extérieur qui s’engouffre dans les stations par les portes et les bouches d’aération, mais surtout de l’activité ferroviaire elle-même.
    Riches en métaux, principalement en fer et en carbone, ces particules proviennent essentiellement de l'usure du matériel roulant, en particulier de la friction des freins sur les roues des rames et du contact entre les roues des wagons et les rails.

    Le danger ne serait pas important pour les usagers qui ne restent que des temps assez courts dans le métro, mais on ne sait pas quel est le risque pour les agents de la RATP en permanence dans le métro, (notamment les conducteurs de rames), l’exposition chronique à ces particules fines, dont les plus petites peuvent pénétrer dans les alvéoles pulmonaires, peut entraîner une inflammation des voies respiratoires.
    L’agence propose  des mesures de prévention : « l'amélioration du système de ventilation des stations et des tunnels, ou la réduction des émissions lors du freinage, en limitant l'utilisation de freins mécaniques et en réduisant le phénomène de friction des roues sur les rails », ainsi qu’une surveillance de la pollution interne des lieux et de l’état sanitaire des employés.

    La RATP a déjà en partie suivi ces consignes et elle a notamment ouvert sur son site l’accès aux données de son dispositif de « Surveillance de la qualité de l’air de l’environnement souterrain » (Squales), sur lequel on peut suivre l’évolution de la pollution relevée en continu sur les quais des stations du métro « Châtelet ligne 4 » et « Franklin Roosevelt ligne 1) » et du RER, « Auber »
    Par ailleurs les travaux entrepris à la station Franklin Roosevelt, sur la ligne 1, ont déjà entraîné, en 2012, une baisse de 60 % des teneurs en particules de moins de 10 µ observées sur le quai. La ventilation y a été améliorée, des portes automatiques de « façades » de quai, ont été mises en place et un nouveau matériel roulant de toute dernière génération a été mis en circulation.
    Mais la modernisation du réseau est très longue car elle coûte extrêmement cher ( voir mes articles des 4, 5 et 7 juin 2012)

    La poursuite du plan de renouvellement des rames, entamée sur les lignes 1,2,4 et 5, devrait être réalisée dans sa totalité d’ici à 2025.

Samedi 7 mars 2015 à 7:43

Ecologie, Changement climatique

Après beaucoup de digressions pour expliquer ce qu’étaient les jets-streams, les courants océaniques et l’oscillation du sud El Niño (ENSO), je reviens à l’article de de Jef Masters, sur les conséquences du changement climatique sur les courants des océans et en haute altitude, et leurs conséquences météorologiques, qui s’intitulait « Le jet stream polaire se dérègle t’il? ».

    Jef Master constate que, pendant l'hiver 2013-2014, le jet-stream polaire s'est aventuré bien plus loin vers le sud que d'habitude, glaçant l’est des États-Unis jusqu'à Atlanta, une ville subtropicale, tandis que les hautes pressions qu’il avait installées au dessus de ia Californie ont entraîné le plus chaud hiver depuis 1850.
    En Europe, après avoir fait connaître à l'Angleterre et au Pays de Galles leur hiver le plus pluvieux depuis 1766 au moins, le jet-stream a déclenché des tempêtes successives destructrices et entraîné des températures si élevées que des incendies de
forêt se sont produits spontanément en Norvège en janvier.
     Durant l' été 2010,la pire vague de chaleur jamais enregistrée en Russie a tué 55000 personnes et le déluge qui s'abattait sur le Pakistan y entraînait les pires inondations de l’histoire du pays. Dans l'Oklahoma l'été 2011 fut
le plus chaud jamais noté aux USA, et il fut suivi en 2012 par la pire sécheresse depuis les années 1930…

    Ces dérèglement sont dus, comme je le disais dans l’article d’hier à des oscillations du jet-stream polaire, qui fait remonter des hautes pressions vers le nord, engendrant chaleur et sécheresse, et descendre des basses pressions vers le sud, amenant froidure, tempêtes et pluies diluviennes.
    Alors on peut se demander : « Le jet-stream polaire est il devenu fou ? ».
   
    Y a t’il dans ce dérèglement climatique, l’influence du réchauffement causé par l’activité humaine moderne.
    Jef Masters voit deux grandes causes possibles de ce type.

    Le réchauffement du pôle beaucoup plus important que celui du reste de la planète.
Il entraîne une modification des pressions atmosphériques et la fonte des neiges et des glaces. Le phénomène s’accroit car le sol sous la glace et plus foncé et moins réfléchissant, et le rayonnement solaire est donc davantage absorbé et réchauffe davantage le sol, ce qui accroit la fonte des glaces l’été. Il est probable qu’en 2030, toute la banquise aura disparu durant l’été.
   
    Le schéma ci dessous montre une évolution parallèle de la fonte de la banquise et de la vitesse des vents en altitude. Le jet-stream polaire a nettement ralenti autour de 2012. Allant moins vite, il est plus sensible à des perturbations de pression et il ondule donc davantage.

http://lancien.cowblog.fr/images/ClimatEnergie2/banquisevents.jpghttp://lancien.cowblog.fr/images/ClimatEnergie2/effetclimat.jpghttp://lancien.cowblog.fr/images/ClimatEnergie2/mecanismejetstream.jpg




















    Toutefois cette hypothèse n’est pas forcément prépondérante acr l’énergie totale correspondant à l’augmentation de chaleur au pôle est très inférieure à celle communiquée à l’atmosphère par l’ENSO.
   
http://lancien.cowblog.fr/images/ClimatEnergie2/ElNino.jpg    La seconde hypothèse est donc que ce sont les fantaisies d’El Niño, qui ne s’est pas manifesté pendant près de 5 ans, qui peuvent avoir fortement influencé le parcours du jet-stream. Lors des évènements ENSO, les jet-streams s'intensifient, car l'élévation de la température du Pacifique central augmente la différence de pression entre l'équateur et les moyennes latitudes. En leur absence ils ralentissent.
    Mais un ENSO très fort a également un impact direct sur l’oscillation du jet-stream polaire, car pendant la phase chaude, l’augmentation importante des pressions va repousser au sud le courant-jet, qui plus loin, oscillera ensuite vers le nord.

    On ne sait pas pourquoi El Niño s’est endormi 5 ans, mais par contre on montre que son activité lorsqu’elle se produit, a été plus importante dans la période 1979-2009, que dans les périodes précédentes, notamment en 1982 et 1997, et il semble que ce soit dû au réchauffement climatique.
    Malheureusement nos connaissances sont encore trop incertaines pour pouvoir expliquer les phénomènes de couplage entre le réchauffement climatique, l’ENSO dont la périodicité est apparement aléatoire parce qu’on n’en connaît pas l’explication), et les oscillations du jet-stream polaire.
    La seule chose dont on est sûr, c’est que celles -ci entraînent chaleur et sécheresses, ou pluies et tempêtes, par la trop forte infiltration des hautes pressions vers le nord ou des basses pressions vers le sud.

    Ce qui est inquiétant dans ce dérèglement du jet-stream, c’est que ce n’est pas un phénomène linéaire, mais il semble avoir un certain seuil et donc on peut se demander si un certain cap n’a pas été franchi et si cette situation va perdurer, avec ses conséquences désastreuses.

Vendredi 6 mars 2015 à 7:59

Ecologie, Changement climatique

Les courants des océans et les courants atmosphériques sont liés.

    On a vu dans le précédent article que les vents à la surface de la terre engendraient les courants de surface océaniques.
    Un  tel entrainement nous paraît normal.
    Ce qui est plus bizarre c’est que les courants marins ont une influence sur les jets-streams, ou plus exactement

    Je parlerai d’abord d’un phénomène particulier dont vous avez du certainement entendre parler : El Niño
    C’est à l’origine un courant circulant après Noël au large des côtes du Pérou et de l’Equateur (d’où son nom de courant de l’enfant Jésus).
    En été et en automne, le courant froid de Humbolt circule le long des côtes  du Chili du Pérou et de l’Equateur tandis que soufflent les alizés du sud-est vers le nord-ouest et chassent les chaudes superficielles du rivage et provoquent un vide qui est comblé par  une remontée d’eau froide des profondeurs, ramenant de l’eau des courants profonds.
    Ce phénomène s’appelle « la Nina ».
    Tous les ans, peu après Noël et ce jusqu’au mois d’avril, un faible courant côtier inverse s’écoule vers le Sud. Certaines années, ce courant d’El Niño est plus important et descend davantage vers le Sud. Les eaux froides sont remplacées par des eaux plus chaudes, et dans la même période, les régions littorales habituellement peu pluvieuses du Nord du Pérou et de l’Équateur connaissent des précipitations abondantes.
    Ces années sont bénéfiques pour l’agriculture (à cause des pluies) mais nuisibles pour la pêche (les poissons fuyant les eaux chaudes).
    El Niño dure environ 18 mois
    Mais l’influence de El Niño dépasse largement l’Amérique du sud.

http://lancien.cowblog.fr/images/ClimatEnergie2/Elninonorthamericanweatherfr.png
    En tant normal, dans l'océan Pacifique, autour de l'équateur, les alizés soufflent d'est (Amérique) en ouest (Australie et Asie). Ceci a pour effet de pousser les eaux chaudes de surfaces vers l'ouest, où il se produit conséquemment de fortes précipitations (à cause de la chaleur et l'humidité) et une remontée des eaux froides le long des côtes américaines.
    Les années El Niño, les alizés ont tendance à s'inverser. Ainsi les eaux près de l'Australie et de l'Asie sont plus froides, provoquant des sécheresses. Des ouragans se forment au milieu du Pacifique et frappent la Polynésie.
    Si on connait bien les conséquences de ce phénomène, on n’en connait mal les causes
    Il serait dû à l’affaiblissement de l’anticyclone normalement centré sur le Pacifique sud et qui, en temps normal, favorise la circulation rapide des alizés.
    Le schéma montre bien qu’en temps ‘’normal’’, la présence d’un anticyclone puissant sur le sud du Pacifique et d’un autre au large de la Californie permet la circulation des alizés du Sud-est Pacifique jusqu’en Australie et en Indonésie où les pressions sont relativement basses.

http://lancien.cowblog.fr/images/ClimatEnergie2/situationnormale2ki2.pnghttp://lancien.cowblog.fr/images/ClimatEnergie2/elnino2bo0.png












    L’affaiblissement de l’anticyclone au sud du Pacifique diminuerait ainsi l’intensité des alizés, comme le montre le schéma ci dessous.
    Mais on ne connaît pas la cause de ce changement et ses variations dans le temps
    El Niño avait partiquement disparu depuis 5 ans et il est réapparu en 2014

http://lancien.cowblog.fr/images/ClimatEnergie2/jetstreamterre.jpg

    Les scientifiques climatologues appellent la succession la Nina - El Niño, l’ENSO (El Niño Southern Oscillation).
    Il y a une influence de l’ENSO sur le jet-stream polaire : El Niño déplace vers l’est l’eau plus chaude de l’océan Pacifique et décale le jet-stream vers le sud, tandis que la Nina apporte de l’eau froide et  décale le jet-stream vers le nord.
    Quand les oscillations du jet-stream polaire s’amplifient d’énormes masses d’air chaud parviennent bien plus au nord que d’habitude tandis que des masses d’air froid envahissent le sud sous d’autres longitudes. (voir schéma ci dessous).
    Ces oscillations se déplacent vite et changent la situation météorologique en quelques jours.
    On constate des périodes de sécheresse anormale là où les hautes pressions oscillent vers le nord, tandis que l’on constate tempêtes, pluies inondations ou froidure et neige, là où l’air froid oscille avec les basses pressions vers le sud.

<< Page précédente | 1 | 2 | 3 | 4 | 5 | Page suivante >>

lancien

sortir de la tristesse

Créer un podcast