Vendredi 11 octobre 2019 à 11:15

Ecologie, Changement climatique

    Le rapport d'octobre 2018 du GIEC (Groupe d’experts intergouvernemental d’experts sur l’évolution du climat, rassemblant de nombreux spécialistes scientifiques du monde entier), avait pour but de sensibiliser les politiques sur les conséquences d’un changement climatique entraînant une hausse de température de 1,5 d° à l’horizon 2050 et  de l’ordre de 2 d° à l’horizon 2075, pour redescendre ensuite, ce qui était l’objectif de la COP 21 et de l’accord de Paris. Mais en fait, il semble que les actions ne suivent pas et que si le monde ne réagit pas rapidement, l’on s’oriente plutôt vers un réchauffement de plus de 3 d° en fin de siècle.
    Par rapport à mes articles précédents sur les niveaux radiatifs, ce rapport  2018 correspondrait plutôt au RCP 4,5, mais qui serait ensuite réduit.

    Le rapport confirme d’abord ce qu’on savait , à savoir que :
        - Le réchauffement climatique actuel est bien imputable aux activités humaines et à leurs émissions de gaz à effet de serre (n’en déplaise à M. Trump).
        - Le réchauffement climatique est déjà visible au niveau des températures mondiales (estimées dès aujourd’hui à environ +1 °C - entre 0,8 et 1,2 - depuis l’ère pré-industrielle - 1850 -).
        - Le réchauffement climatique a déjà des conséquences visibles sur certains écosystèmes ou phénomènes naturels mondiaux (fonte des glaces, élévation du niveau de la mer, et augmentation des évènements climatiques extrêmes comme les cyclones ou les inondations, dégradation des rendements de l’agriculture)
. Ces phénomènes seront aggravés si nos actions sont insuffisantes au niveau international.
    Les impacts sur la santé, les moyens de subsistance, la sécurité alimentaire, l'approvisionnement en eau, la sécurité humaine et la croissance économique vont augmenter par rapport à aujourd’hui dans le cas d’un réchauffement de 1,5 °C, et plus encore dans le cas d’un réchauffement de 2 °C.

    La réalisation des engagements actuels dans le cadre de l’Accord de Paris ne suffira pas à limiter le réchauffement climatique à 1,5 °C.
    Il faut être conscient que les gaz à effet de serre ne disparaissent que peu à peu, très lentement et donc le réchauffement dû aux émissions de gaz à effet de serre de la période préindustrielle à nos jours, se poursuivra durant des siècles, voire des millénaires, et continuera de provoquer d’autres changements à long terme du système climatique, comme par exemple, une élévation du niveau des mers, avec les incidences correspondantes
    Les risques futurs liés au climat seraient réduits par l’intensification et l’accélération des mesures d’atténuation du changement climatique à grande échelle, à plusieurs niveaux et à travers différents secteurs, et par des mesures d’adaptation progressive et entraînant une transformation de nos habitudes de vie.

Elévation des températures :

    Le schéma (a) ci-dessous montre la situation actuelle et trois hypothèses pour le futur, toujours dans cette optique optimiste de lutte importante pour diminuer les émissions de gaz à effets de serre.
    La courbe orange représente les températures moyennes observées à la surface du globe et l’extrapolation probable si rien ne changeait dans nos émissions de CO2. Cette prévision montre qu’on atteindrait l’écart de 1,5 d°C en 2040 et la barre orange horizontale montre l’écart de précision en date  du modèle de prévsion (2030 - 2050).

http://lancien.cowblog.fr/images/ClimatEnergie2/Giecprevisiontemp15.jpg
    L’hypothèse moyenne courbes grises est celle qui correspondait aux souhaits de la COP et des accords de Paris, les émissions de CO2 diminuant à partir de 2020, pour atteindre zéro en 2050, les émissions cumulées devenant stables en 2055 et les émissions liées aux autres gaz que le CO2 étant réduites à partir de 2030 (politique agricole et d’élevage - émissions de CH4 des bovins en particulier).
    L’hypothèse courbes bleues suppose un effort supplémentaire important, les émissions de CO2 atteignant zéro en 2040.
  L’hypothèse courbes rouges suppose qu’on ne fait pas d’effort pour réduire les émissions de gaz autres que CO2 mais qu’on les stabilise. (voir le graphique ci-dessous).   
http://lancien.cowblog.fr/images/ClimatEnergie2/GIEChypotheses.jpg
    Les températures extrêmes sur les terres devraient augmenter davantage que la température moyenne à la surface du globe :
     Dans le cas de l’augmentation moyenne à 1,5 d°C, durant les journées extrêmement chaudes, aux latitudes moyennes, le réchauffement peut aller jusqu'à environ 3 °C, et durant les nuits extrêmement froides, aux latitudes élevées, le réchauffement peut aller jusqu’à environ 4,5 °C.
    Dans le cas de l’augmentation moyenne à 2,0 d°C, ces valeurs peuvent atteindre 4 et 6 d°C.

Elévation du niveau des mers.

    L’élévation du niveau des mers  est due n partie à la dilatation thermique de l’eau des océans sous l’effet de l’augmentation de température, qui représente entre 30 et 50% du phénomène.
    Par action de la chaleur, les glaces continentales (accumulation de neige, glaciers, calottes polaires) ne cessent de fondre. Ce surplus d'eau en provenance du continent se transfert dans les océans, entraînant aussi une augmentation de son niveau.
    Il est important de bien distinguer les glaces polaires situées sur les continents, de la banquise (icebergs) déjà présente dans l’Océan, et qui flotte dans l’eau Si la banquise fond, ce qui est déjà le cas, cela ne fera pas monter le niveau des mers: la fonte des glaçons dans un verre d'eau ne fait jamais monter le niveau de  l'eau (principe d’Archimède) !
    Ce phénomène est actuellement responsable d’environ la moitié de l’élévation du niveau des océans mais pourrait être beaucoup plus important et même primordial si le réchauffement climatique dépassait les 2 d° et surtout après 2100.
    D’autres petites causes interviennent aussi : la déformation des sols, le pompage dans les nappes phréatiques, la baisse de salinité des océans et la circulation océanique, qui peuvent rendre inhomogène les chiffres de montée des eaux et leurs conséquences.
    Le schéma ci-dessous résume ces causes.
    http://lancien.cowblog.fr/images/ClimatEnergie2/RTEmagicCMonteedeseauxjpg.jpg
   
    L’élévation du niveau de la mer à l’horizon 2100 serait déjà importante, une fourchette de 30 à 80 cm pour une augmentation de 1,5 d°C et environ 10 cm de plus pour une augmentation de 2 d°C
    Les conséquences de cette élévation du niveau des mers est très variable suivant les lieux. Des îles risquent de disparaître, des territoires peuvent être inondé notamment en Asie, et il faudra déplacer des millions de gens, et de nombreuses zones cultivables risquent d’être détruites.
    En France une augmentation d’une cinquantaine de centimètres ne serait pas catastrophique, mais un élévation de plus d’un mètre devient problématique.

    De plus on constate une augmentation de l’acidité des océans qui est très préjudiciable à la faune marine.         
    Mais ce qui est très alarmant c’est que cette élévation du niveau de la mer se poursuivra au-delà de 2100 même si le réchauffement planétaire est limité à 1,5 °C au XXIème siècle. L’instabilité de la calotte glaciaire marine en Antarctique et/ou la perte irréversible de la calotte glaciaire du Groenland pourraient entraîner une élévation de plusieurs mètres du niveau de la mer sur des centaines d’années. Certaines simulations montrent que cette élévation pourrait atteindre 2mètres en 2200.
    Pour que vous sous fassiez une opinion voici deux cartes des Pays bas et en France du Cotentin. Ces cartes montrent l’état actuel, pour les Pays Bas les niveaux 1m et 8m, pour le Cotentin, les niveaux  actuel, 1m, 2m, et 9m . Les élévation de 8 et 9 mètres ne semblent que peu probables et seulement à très long terme, mais les études dans ce domaine ne sont pas suffisantes.
http://lancien.cowblog.fr/images/ClimatEnergie2/20111214105527zeeniveau.jpghttp://lancien.cowblog.fr/images/EnergieClimat2/niveau09Cotentin.jpg










































    D’autre part, la seule montée des mers n’est pas dangereuse, car du fait de cette élévation les tempêtes peuvent devenir beaucoup plus destructrices.
    Enfin la planète réagit à ces modifications qui entraînent un changement de la répartition des masses de la croûte terrestre. Des transfert de matière fluide se font dans les profondeurs, qui peuvent durer des milliers d’années mais qui se traduisent par des élévations lentes des sols à d’autres endroits.

    Une excellente étude sur les conséquences de cette élévation du niveau des mers faite pour le Sénat, peut être lue sur
              https://www.senat.fr/rap/r15-014/r15-014_mono.html#toc49

    Pour ne pas alourdir cet article, j’en ferai un autre sur les conséquences pratiques du changement climatique, sur la météorologie et les conséquences sur l’environnement, notamment l’agriculture.
   

Vendredi 4 octobre 2019 à 15:29

Actualité

http://lancien.cowblog.fr/images/Unknown-copie-1.jpg
    On a beaucoup parlé au mois de septembre de la réforme des retraites, et les grèves se sont succédées contre le projet. Je crains qu’il ne soit de même jusqu’à l’an prochain.
    J’avoue mal comprendre cette réforme qui me paraît imaginée par des technocrates  à l’esprit étroit et abstrait, dénués de tout sens du réel et de pragmatisme, qui sous prétexte de logique (délirante), construisent une loi « usine à gaz » d’une complication bien inutile.
    Pourquoi diable vouloir tout uniformiser. Même Dieu, si on y croit, n’a pas crée un univers uniforme.  Contrairement à ce que l’on croit, uniformiser n’est pas simplifier, et ce n’est pas non plus faire quelque chose de mieux adapté par sa simplicité (apparente et trompeuse).
    La retraite est l’aboutissement d’une vie de travail dans un (ou plusieurs) métiers. Pourquoi vouloir tout unifier les retraites alors que les métiers sont très différents ainsi que les conditions dans lesquels on les exerce.
    Que pour des raisons économiques, on veuille uniformiser la durée de cotisation, je comprends et ce n’est pas cela qui pose problème.
    Que l’on soit obligé de réformer certains régimes s’ils sont très déficitaires, cela me paraît normal aussi.
    Mais quand certains régime de professions libérales fonctionnent bien, sont en équilibre, ont même une provision financière de sécurité , et conviennent à leurs adhérents, pour une fois que tout fonctionne bien pourquoi le changer et tout détruire ? En plus on parle d’un doublement des cotisations, ce qui n’est pas supportable au plan économique. La répercussion de ces augmentations sur les clients diminuera les commandes, ce qui, en période de chômage est absurde.
    La confiscation des provisions financières (27 milliards) est une véritable spoliation (leur montant a été payé par les cotisations des adhérents), et si on en conserve le montant à ces adhérents, comme veut le promettre le ministre, c’est un second régime particulier à nouveau, alors pourquoi supprimer le premier ?
    Si je prends certains avantages particuliers de la SNCF ou de la RATP, je pense que ces travailleurs ont des contraintes d’horaires et de jours de travail ou de déplacement, qui sont particulières et que ces avantages en sont une compensation. Or on ne va pas généraliser les horaires de ces personnes à tous les travailleurs.
    Si je prends les fonctionnaires dont la retraite est calculée sur les salaires des derniers mois, et que l’on veut ramener à un calcul sur toute la carrière,  ce qui va évidemment entraîner une baisse importante de retraite, on ne prend pas en compte que, à poste analogues, ils sont beaucoup moins payés que dans le privé. Alors si on aligne les retraites sur celles du privé, il faudrait aligner les salaires.
    Qu’il y ait parfois des abus, des avantages trop importants et pas justifiés, je veux bien, et qu’on les supprime ne me choque pas, mais vouloir uniformiser les retraites alors qu’on ne peut uniformiser ni les conditions de travail, notamment leur pénibilité, ni les rémunérations,  me paraît alors une ineptie.
    Par ailleurs comme il faudra tenir compte quand même de cas particulier, le système unique sera d’une complication extrême alors que les systèmes particuliers, plus réduits et uniformes, donnaient satisfaction et fonctionnaient simplement.
    A mon avis, une simplification ou une mise à jour de chaque régime et l’uniformisation simplement des durées de cotisation, pour tenir compte de l’allongement de la longévité, auraient largement suffi, aurait pris moins de temps et de travail et auraient suscité moins d’oppositions.

Vendredi 27 septembre 2019 à 0:00

Ecologie, Changement climatique

          Je voudrais refaire quelques articles sur le changement climatique.
         
Ce que j’ai dit jusqu’à présent sur le réchauffement climatique et les intervenants dans le climat est assez théorique et on souhaiterait des données sur ce qui nous attends dans les années futures. Mais ce n’est pas facile car d’une part les modèles mathématiques que nous avons ne sont pas parfaits, que les phénomènes sont très complexes et que les répercussions seront différentes selon les endroits.

           De plus on ne sait pas quelles quantités de gaz à effet de serre seront relâchées dans l’atmosphère dans les prochaines années car c’est presque uniquement fonction de décisions politiques, et si la Chine et l’Inde consentent à faire un petit effort, Trump et le président du Brésil restent toujours aussi ignares et réticents, or les USA sont le principal pollueur, de manière absolue, et de loin par habitant.

           La Chine et l’Inde polluent beaucoup, et leur consommation énergétique par habitant reste faible et donc ne peut qu’augmenter. Ces deux nations font cependant effort pour diminuer la pollution qu’elles engendrent. Les USA ont par contre de loin le plus fort taux de consommation énergétique du monde et se refusent à faire effort, tant pour réduire ce taux, que pour diminuer les émissions de gaz à effets de serre.

           Il faut donc, avant d’exposer des résultats, parler de la méthodologie, notamment celle adoptée par le groupe d'experts intergouvernemental sur l'évolution du climat (GIEC).

           Le GIEC avait fait une étude sur les conséquences pratiques du changement climatique, mais cette étude était basée en  2007 sur des hypothèses économiques assez vagues sur l’évolution future de la démographie mondiale, de nos modes de vies et sociétés, et les connaissances techniques étaient moins bonnes qu’aujourd’hui.
          Depuis le GIEC a revu sa méthodologie et depuis son 5ème rapport de 2014, il sépare de façon nette les aspects techniques physiques et l’aspect économique.

           Pour analyser le futur du changement climatique, les experts du GIEC ont  défini à priori quatre prévisions d'émissions et de concentrations de gaz à effet de serre, d'ozone et d'aérosols, ainsi que d'occupation des sols baptisés RCP (« Representative Concentration Pathways » ou « Profils représentatifs d'évolution de concentration »).
           Ces RCP sont utilisés par les différentes équipes d'experts (climatologues, hydrologues, agronomes, économistes …), qui travaillent en parallèle. Les climatologues en déduisent des projections climatiques globales ou régionales. Les économistes établissent des scénarios qui explorent toutes les possibilités d'évolutions technologiques et socio-économiques compatibles avec les RCP.
           Ces 4 profils correspondent à l’évolution à l’horizon 2300, de la différence énergétique entre le rayonnement solaire reçu et le rayonnement infra-rouge réémis par la Terre, exprimé en Watts/ m2. . Plus cette valeur est élevée, plus le système terre-atmosphère gagne en énergie et se réchauffe.
          Ces RCP correspondent aux courbes d’évolution ci-dessous en énergie et le tableau ci-dessous donne des correspondances avec les émissions de gaz à effets de serre en « équivalent CO2 » (qui tient compte d’autres émissions tellle que celle de méthane CH4

Nom

     Forçage radiatif

   Concentration (ppm)

Trajectoire

RCP8.5

    >8,5W.m-2 en 2100

>1370 eq-CO2  en 2100

croissante

RCP6.0

    ~6W.m-2 au niveau de              stabilisation après 2100

~850 eq-CO2 au niveau de stabilisation après 2100

Stabilisation sans dépassement

RCP4.5

   ~4,5W.m-2 au niveau de stabilisation après 2100

~660 eq-CO2 au niveau de stabilisation après 2100

Stabilisation sans dépassement

RCP2.6

   Pic à ~3W.m-2 avant 2100  puis déclin

Pic ~490 eq-CO2 avant 2100 puis déclin

Pic puis déclin

Les scénarios du GIEC

          A partir de ces 4 scénarios, le GIEC a fait fonctionner ses modèles physico-mathématiques pour prédire les données physiques du changement climatique et les conséquences probables.

           Mais pour rendre le phénomène plus sensible aux gouvernants politiques, il a fait également des hypothèses de comportement des nations et populations , qui peuvent se représenter sous forme de 5 scénarios, disposés sur un graphique, dont :
                      - l’axe horizontal représente l’effort d’adaptation des sociétés au changement climatique
                      - l’axe vertical représente les résultats en matière d’atténuation des émissions de gaz à effet de serre au niveau mondial.

Les scénarios du GIEC

                       ● Le SSP1 (efforts mondiaux d’atténuation et d'adaptation,), décrit un monde marqué par une forte coopération internationale, donnant la priorité au développement durable ; on en est malheureusement très loin.

                       ● Le SSP2 (efforts d’atténuation et d’adaptation moyens), décrit un monde caractérisé par la poursuite des tendances actuelles avec un effort de baisse des émissions de CO2 et d’adaptation, qui rencontre toutefois des difficultés certaines.

                       ● Le SSP3 (peu d’efforts aussi bien de diminution des émissions que de l’adaptation) dépeint un monde fragmenté affecté par la compétition entre pays, une croissance économique lente, des politiques orientées vers la sécurité et la production industrielle et peu soucieuses de l’environnement. C’est le cas le plus néfaste.

                       ● Le SSP4 (effort d’atténuation de certains pays mais pas d’efforts coordonnés d’adaptation) est celui d'un monde marqué par de grandes inégalités entre pays et en leur sein. Une minorité y serait responsable de l’essentiel des émissions de gaz à effet de serre, ce qui rend les politiques d’atténuation plus faciles à mettre en place si on arrive à un accord, tandis que la plus grande partie de la population resterait pauvre et vulnérable au changement climatique.

                       ● Le SSP5 (peu d’efforts pour diminuer les émissions de gaz à effet de serre, mais un certain effort d’adaptation) décrit un monde qui se concentre sur un développement traditionnel et rapide des pays en voie de développement, fondé sur une forte consommation d’énergie et des technologies émettrices de carbone; la hausse du niveau de vie permettrait d’augmenter la capacité d’adaptation, notamment grâce au recul de l’extrême pauvreté,

            Les correspondances possibles entre les SSP et les RCP sont données dans le tableau ci-après, les RCP correspondant à des efforts plus ou moins importants..

RCP

SPP1

SPP2

SPP3

SPP4

SPP5

8,5 W/m2

 

 

O

 

 

6,0 W/m2

 

O

O

O

O

4,5 W/m2

O

O

 

O

O

2,6 W/m2

O

O

 

O

 

           Cette séparation des hypothèses en scénarios économiques et évolution chiffrée de l’énergie de réchauffement permet de relier de façon scientifique et technique les conséquences à ces chiffres physiques et de se dégager ainsi de l’indécision des prévisions socio-économiques.

          Enfin, pour nous rattacher à des chiffres dont on parle souvent, une correspondance prévue entre les RCP et l'élévation de température qui risque d'être atteinte en 2100:

Les scénarios du GIEC

          Maintenant que vous connaissez la méthodologie du GIEC, j’essaierai, dans les prochains articles de dégager des tendances générales sur les conséquences du changement climatique.

Vendredi 20 septembre 2019 à 17:11

Astronomie, univers

     On parle beaucoup en ce moment de la mission Apollo sur la lune, dont c’est le cinquantenaire, et j’ai lu, dans le magazine « Pour la Science » un article intéressant sur les pierres lunaires et les hypothèses sur la naissance de la lune.

    Les six missions Apollo qui ont aluni, ont rapporté plus de 50 000 échantillons de pierre lunaire, pesant au total 382 kilos. il sont conservés dans des sacs de téflon étanches et dans des coffres forts sous atmosphère d’azote, et sont peu à peu analysés.
    Plus de 300 chercheurs de 15 pays ont eu accès à ces échantillons pour les étudier.
    Ils ont apporté non seulement des renseignements sur le lune elle-même mais aussi sur les origines de la Terre et de la Lune.

    La lune est très vieille comme l’attestaient les très nombreux cratères, impacts successifs de météorites. cette déduction qui datait d’avant les vols spatiaux a été confirmée par datation des roches provenant de cratères différents et qui contiennent des isotopes permettant de les dater.
    L’échantillon le plus vieux date de 4,5 milliards d’années, alors que les plus vieux échantillons sur terre n’ont que 4 milliards d’ancienneté, mais la tectonique des plaques de notre globe a recyclé la croûte de notre planète.

    A la lumière des analyses faites, on pense maintenant que la lune a été initialement crée à la suite d’un impact géant entre la planète en formation Terre et une autre planète de la taille de Mars que l’on appelle Théa, collision qui aurait éjecté une partie de la croûte et un peu du manteau terrestre (voir mon article du 16/10/2017 sur la structure de notre terre) matériaux qui se seraient agglomérés avec les restes de ceux de Théa.
    Il y a peu de fer dans les roches lunaires et donc il n’y a pas eu entraînement du noyau terrestre (Ni Fe). La Lune n’a d’ailleurs qu’un petit noyau dont le raon ne représente que 1/4 du rayon total.
    Ces roches sont dépourvus de composés volatils (hydrogène, azote, CO2, eau), car la chaleur de l’impact avec Théa les aurait chassés de la planète en formation.
    La lune aurait été à l’origine un océan de magma, qui aurait ensuite refroidi et le fond des cratères lunaire est principalement constitué de roches

    On trouve que la concentration des isotopes d’oxygène et de titane notamment, présents dans les roches lunaires sont les mêmes que celles des roches terrestre, ce qui laisse supposer une origine commune, mais qui a suggéré un autre mode de formation terre-lune plus progressif dans lequel terre et lune auraient été mélangées pendant quelques décennies dans un nuage torique de roche et de vapeur, que l’on appelle « synestia » et qui ensuite se serait séparé en se refroidissant.

    La première théorie et sa variante sont exposées dans les schémas que je reproduis ci-dessous et qui sont ceux de l’article de la revue « Pour la science »
http://lancien.cowblog.fr/images/Sciences2/Numeriser.jpg

Vendredi 13 septembre 2019 à 19:01

http://lancien.cowblog.fr/images/Image4/cover6480x520.jpg

       Vous savez sans doute, comme moi, que nous avons 22 paires de chromosomes plus une paire (soit au total 23 paires) qui détermine le sexe : les chromosomes X et Y.
Une femme a deux chromosomes X qui viennent du père et de la mère et un homme un X et un Y, lequel ne peut venir que du père.
    Je savais qu’il y avait des anomalies possibles dans cette répartition des chromosomes XY, mais je n’avais jamais eu la curiosité de les rechercher. J’ai récemment lu un article dans Science et Avenir, à ce sujet, et j’ai pensé qu’il intéresserait peut être quelques lecteurs de mon blog, que j’en fasse un résumé.
    Je précise que les gonades sont les organes reproducteurs, ovaires chez les femmes, testicules chez les hommes.

    Ces anomalies de chromosomes sexuels sont beaucoup plus fréquents que l’on ne pense : environ 2% de la population.
    On peut les diviser en

Pour les hommes :

1 cas sur 500 environ    3 chromosomes XYY :
Pas de symptômes l’homme est fertile et a des gonades normales.

1 cas sur 500 environ     3 chromosomes XXY :
L’homme est stérile, les cellules germinales des spermatozoïdes étant absentes; par contre les testicules existent mais sont peu développées, alors que les glandes mammaires  sont anormalement développées. L’individu est souvent très grand.
Cette anomalie est appelé syndrome de Klinefelter..

1 cas sur 20 000 environ : deux chromosomes XX :
Résultat analogue au précédent pour les gonades d’où une stérilité.

1 cas sur 100 000 4 ou 5 chromosomes XXXY, XXXXY ou XXYY :
Résultat analogue au syndrome de Klinefelter.

Pour les femmes :

1 cas sur 500 environ :  3  ou 4 chromosomes XXX ou XXXX :
Un seul de ces chromosomes est actif et les autres sont neutralisés.
La femme est normale.

1 cas sur 2500 environ : un seul chromosome X
La femme est stérile car ses gonades ne se sont pas formées chez l’embryon.
Il est probable que la probabilité est plus élevée , mais que des embryons n’arrivent pas à terme.
La femme est de petite taille, a des problèmes de squelette et souffre souvent de problèmes rénaux, auto-immuns et éventuellement de pigmentation de la peau.

1 cas sur 10 000 environ : chromosomes XY comme pour un homme :
 Les gonades ne se sont pas différenciées chez l’embryon et la femme est stérile.

    En fait il y a trois stades successifs : lors de la fécondation l’apport des chromosomes, puis le développement des gonades dans le foetus et enfin la puberté avec la production des œstrogènes féminins ou de la testostérone masculine.
    Mais en fait ces deux types d’hormones sont produites chez les hommes comme chez les femmes en quantité différentes selon les individus, et probablement à la fois pour des raisons génétiques et épigénétiques (c’est à dire d’influence de l’environnement, voire de l’éducation).

    La formation du fœtus peut s’accompagner d’anomalies sexuelles et l’article cite le cas d’une personne, porteuse d’une paire XY, qui avait extérieurement un corps de fille (sein vagin), mais pas d’utérus, le fœtus ayant été insensible aux androgènes et cela non en raison de ses chromosomes, mais d’une mutation génétique.
Il cite aussi le cas d’une personne au sexe extérieur indécis, ne produisant aucune hormone sexuelle, dotée à la fois d’un micro-pénis, sans testicules, et d’un vagin rudimentaire.
    Certaines personnes ont un sexe bien défini en ce qui concerne les gonades, mais sont persuadées appartenir à l’autre sexe que le leur. Il semble que ce soit le résultat d’anomalies hormonales lors de la formation des gonades du fœtus (et non d’une maladie mentale comme le croient ceux qui refusent leur différence aux transsexuels et les rejettent).
    Pour certains hommes homosexuels, il semble que certains centres de l’hypothalamus, responsables du fonctionnement sexuel et qui sont différents chez les hommes et les femmes, sont proches de ceux caractéristiques du sexe féminin
    Lors de leur vie normale certaines femmes produisent une quantité anormale de testostérone, ce qui n’a guère d’influence pour certaines, mais pour d’autres peut leur donner des capacités importantes de force physique, au point que les autorités de sport ont établi des limites dans ce domaine pour participer à des compétition (comme s’il s’agissait de dopage !).
    Egalement chez certaines femmes ce taux peut favoriser l’homosexualité.

    Finalement les apparences externes sont les seules que l’état civil utilise pour fixer le sexe des nouveaux-nés, mais la réalité apparaît comme beaucoup plus complexe.

Vendredi 6 septembre 2019 à 17:53

Sciences et techniques

 

http://lancien.cowblog.fr/images/Image4/magneticlevitationtrain1638.jpg
     Je lisais il y a peu de temps un article sur les matériaux supraconducteurs et des progrès spectaculaires qui viennent d’être faits et qui sont susceptibles de changer certains aspects de notre vie.
    Mais il faudrait peut être que je vous explique simplement ce que sont ces matériaux.

    Vous vous rappelez sans doute qu’on vous a appris au lycée qu’à une température de - 273,15 d°C, , appelé « zéro absolu », l’agitation thermique des molécules dans les gaz cessait totalement et la matière est dans son état minimal d’énergie, toutes ses éléments (atomes, molécules) étant dans leur état fondamental.
    On constate alors à l’approche de cette température, des propriétés particulières de certains matériaux : des fluides tels par exemple l’hélium perdent toute viscosité (c’est la « superfluidité ») et des métaux ou alliages perdent leur résistance électrique (c’est la « supraconductivité »)

    A l’intérieur d’un matériaux semi-conducteur, à l’approche du zéro absolu, tout champ magnétique est repoussé (en présence d’un champ magnétique externe, il n’ya plus de champ magnétique à l’intérieur du supraconducteur), et la résistance électrique devient nulle.

    On explique ce phénomène par des calculs de mécanique ondulatoires que je ne saurais vous expliquer, mais on peut le schématiser sous la forme suivante.
    Dans la structure cristalline du matériau métallique, les électrons circulent, mais étant chargés négativement, se repoussent mutuellement.
    Par contre le réseau cristallin est constitué d’ions positifs qui attirent l’électron. En fait l’attirance est mutuelle, mais les ions sont lourds et appartiennent à un réseau et donc la déformation due à cette attirance est faible. Les électrons qui vont passer engendrent des attirances successives et une vibration du réseau cristallin (voir la figure ci-dessous).
    Au dessous d’un seuil de température critique (très bas), deux électrons soumis à ces vibrations qui forment une zone électriquement positive, peuvent exceptionnellement s’attirer et former une paire stable : les paire d’électrons de Cooper qui va se comporter comme une particule unique spéciale. Cette particule est dotée de propriétés différentes d’un électron et son déplacement ne crée plus de champ magnétique et se déplace sans rencontrer la moindre résistance.
    Mais si la température s’élève l’apport d’énergie détruit les paires de Cooper et le phénomène de supra-conductivité cesse.

    L’intérêt d’un supraconducteur est qu’on peut le faire parcourir par des courants énormes (puisqu’il n’y a pas de résistance et d’effet Joule). L’inconvénient est qu’il faut maintenir les éléments en cause à une température proche du zéro absolu, ce qui est difficile et coûteux et ne peut concerner que des éléments de taille limitée.
    Actuellement l’application la plus fréquente est la réalisation d’électroaimants très puissants, utilisés principalement en imagerie (IRM) et dans des accélérateurs de particules. Des recherches sont faites dans le domaine de la fusion nucléaire (voir mes articles sur les tokamak et ITER ( 18 et 19/05/2019) et quant  à la sustentation magnétique de trains sur u n rail porteur.

     Des progrès spectaculaires viennent d’être faits en découvrant des supraconducteurs ne nécessitant que des températures plus faibles et l’on espère un jour, en trouver qui seraient supraconducteurs à température ambiante..
En 1993, des « cuprates » étaient supraconducteurs jusqu’à -131 d°C. C’étaient des produit complexes contenant du cuivre, de l’oxygène et divers autres éléments.
    Depuis 2015, divers hydrures métalliques ont été étudiés, notamment des hydrures de lithium qui pour être fabriqués nécessitent une pression énorme de 130 GPa (1300 atmosphères). Depuis des hydrures comprenant du soufre ou du lanthane ont été essayés; avec ce dernier élément la supra-conductivité disparaissait vers - 13 d°C, la température d’un congélateur domestique.
    Les applications seraient très importantes, notamment en matière de transport de l’électricité dans des câbles, sans effet joule, donc sans perte d’énergie et de stockage de l’énergie dans une bobine conductrice, reliée au réseau, dans laquelle les électrons stockés peuvent en quelque sorte, tourner en rond, avant d’être à nouveau rela^chés dans le réseau.électrique.
    Des applications en matière de lévitation des trains sur un rail ou de transport des énergies sur les caténaires serait également prometteuses.
   



Samedi 31 août 2019 à 8:22

Informatique, médias, internet

http://lancien.cowblog.fr/images/Image4/images-copie-10.jpg

    J’ai déjà fait un article sur les fausses nouvelles qui circulent sur le web.
    Mais j’ai lu un compte-rendu d’une étude faite par Mehdi Moussaïd, de l’Institut Max Planck de Berlin, qui m’a paru intéressant.


    Les rumeurs et fausses nouvelles se répandent sur le Net, mais en général lentement et auprès d’un grand nombre de personnes. L’étude en cause concerne leur diffusion sur Twitter, par paliers successifs que l’on appelle « cascade ».

    Ces cascades sont très peu nombreuses (que ce soit des informations vraies ou non).
    Sur Twitter, 93% des twits ne sont pas lus, et 6,5% sont lus par 3 personnes au plus. Donc seulement 0,5% sont lus par plus de 3 personnes.
    Seulement 1/100 000 donne lieu à une propagation massive  en touchant plus de 500 personnes.

    La diffusion peut avoir deux allures :
        - Soit elle est « horizontale, c’est à dire très importante en une seule ou peu de fois : c’est le cas de sites de personnes très connues, qui ont un très grand nombre de visiteurs. Ces cas sont limités.
        - Soit elle est « verticale », c’est à dire qu’elle touche un nombre peu important de personnes, mais qui la répercutent à d’autres et ainsi l nombre croit très rapidement. C’est le cas le plus fréquent.

    L’étude a porté ensuite sur les rumeurs et fausses nouvelles diverses (notamment politiques),  220 000 twits erronés ont été trouvés parmi un milliard de twits examinés.
    On s’aperçoit que les nouvelles vraies dépassent en général moins de 1000 lecteurs, alors que les fausses nouvelles en dépassent souvent 100 000 et sont presque toutes de nature verticales.. Elles se propagent plus vite et plus longtemps que les informations vraies.
    Ces critères permettent de repérer ces fausses nouvelles, qui ne passent pas inaperçues, d’utant plus que celles qui sont dangereuses sont celles qui ont une grande diffusion.

    Un logiciel a été créé par le MIT et l’université d’Harvard et a été essayé sur 209 rumeurs tirées de 938 000 twits. 75% ont été détectées par le logiciel. Les critères qu’il utilise sont en cours d’amélioration. Ce logiciel pourra servir aux opérateurs du web pour « épurer leurs sites, ou au moins mettre un « indice de fiabilité » des nouvelles.

    Le mécanisme des fausses rumeurs a été étudié : on a demandé à des acteurs initiaux de mettre sur internet un dossier d’information et on a suivi sa transmission.
    Dès la troisième transmission, on constate une transformation importante : 52% des informations ont disparu et les autres sont déformées. A la 10ème transmission, le dossier n’est plus reconnaissable, presque toutes les informations étant inexactes.
    Le dossier représente le point de vue dominant du groupe de transmission.
    Les éléments les plus négatifs et les plus alarmants sont exagérés. Les personnes privilégient les informations en fonction de leurs préjugés. Le dossier est d’autant plus déformé que les lecteurs ont des préjugés communs.

    Cela dit, il n’y a pas que le net qui propage parfois de fausses rumeurs et les journaux, la télévision le fait aussi. Les journalistes, à la recherche du sensationnel, ne vérifient pas assez leurs sources.

http://lancien.cowblog.fr/images/Image4/file201809101231101nauzyl.jpg

Samedi 24 août 2019 à 9:01

Sciences et techniques

http://lancien.cowblog.fr/images/Image4/11191333.jpg
    La presse parle beaucoup d’un nouveau radar routier le « mesta-fusion », construit par la société IDEMIA, filiale de SAFRAN, qui va remplacer les radars anciens détruits par les gilets jaunes.
    Avant d’examiner les performances de ce nouveau radar, voyons quel est le principe de fonctionnement d’un radar de mesure de vitesse.

    L’effet Doppler-Fizeau. Mesure de vitesse.

    Supposez que vous soyez immobile face à l’océan qui vous envoie régulièrement des vaguelettes par exemple une toutes les douze secondes, c’est à dire à une fréquence de 5/mn.
    Maintenant vous marchez vers les vagues. Vos vitesses s’ajoutent puisque vous allez à la rencontre l’une de l’autre et vous recevez une vague par exemple toute les 10s c’est à dire 6 fois par minute.
    Lorsque vous allez au devant d’elle, le fréquence de l’onde « vagues » a donc augmenté (5 à 6/mn).
    Si vous vous éloignez d’elles, les vagues mettront plus de temps à vous atteindre et le fréquence diminuera.
   
http://lancien.cowblog.fr/images/Image4/220pxDopplereffectdiagrammaticsvg-copie-1.png    Supposez maintenant que vous soyez dans une voiture qui émet un sifflement à fréquence constante. Vous percevez un son dont la hauteur (la note de musique) correspond  à la fréquence de l’émetteur du son et vous vous déplacez à la même vitesse que la voiture.
    Supposez que la voiture vienne à une certaine vitesse vers un piéton. Nous serons dans la même situation que précédemment pour les vagues, et la fréquence du son va être (pour de piéton immobile), plus élevée. Le son qu’il percevra sera plus aigu que ce que vous entendez.
    Puis la voiture passe devant lui et s’éloigne. La fréquence va diminuer / Le son deviendra plus grave pour le piéton et sera plus grave que ce que vous entendez dans la voiture, sans vitesse par rapport à elle.
   

    Imaginons maintenant un radar qui envoie un paquet d’ondes de fréquence donnée dans la direction d’une voiture et qui écoute le signal des ondes réfléchie par cette voiture.
    Si la voiture est immobile, la fréquence de l’onde réfléchie sera la même.
    Si la voiture vient vers le radar, la fréquence de l’onde réfléchie sera plus grande que celle de l’onde incidente
    Si la voiture s’éloigne du radar, la fréquence de l’onde sera au contraire plus faible.
    La mesure de la différence de fréquence entre l'onde émise et celle retournée, permet de calculer la vitesse de la voiture.

    Pour effectuer cette mesure on superpose l’onde réfléchie à l’onde incidente. Comme les deux fréquences sont voisines, la superposition des deux provoque ce que l’on appelle un battement, c’est à dire une modulation périodique, qui passe par des maxima et des minima, et qui permet de calculer la différence de fréquence, donc la vitesse.

    Rappelons qu’un accordeur d’instrument de musique se sert de ce battement qu’il entend si la fréquence de son diapason est différente de celle de la vibration de l’instrument, battement qui disparaît s’il règle cette vibration à la même fréquence que son diapason
    Notons aussi que l’effet Doppler est utilisé en médecine pour mesurer la vitesse du sang dans les artères et les veines.

Le radar de contrôle routier « Mesta fusion ».

    Les radars actuels avaient un faible angle de mesure et on ne pouvait mesure la vitesse que d’un seul véhicule vers lequel il pointait son faisceau, et d’autre part disposé au bord de la route, du fait de l’angle de son faisceau par rapport à la trajectoire du véhicule, la vitesse de celui-ci était sous-estimée.
    Les progrès des radars et de l’électronique rapide, permettent maintenant de construire des radars avec un champ beaucoup plus large, qui peuvent observer la position du véhicule toutes les millisecondes.
    Un tel radar peut donc observer plusieurs véhicules à la fois, dans des files différentes et non seulement connaître leur vitesse, mais aussi leur trajectoire, avec des corrections d’angle de mesure et donc avec une bonne précision.

http://lancien.cowblog.fr/images/Image4/coverr4x3w10005ca384045f903radartourelle.jpg

    Le radar de contrôle routier « Mesta fusion » pourra surveiller, de jour comme de nuit,  en même temps 32 véhicules sur ! voies différentes et ceci à une distance de 100m de part et d’autre (s’approchant ou s’éloignant). Il pourra différencier les voitures, camions, motos… Sa marge d’erreur est d’environ 1%, de 0 à 300 km/h.
    Il est en outre associé à une caméra haute définition. Il peut donc visualiser le visage du conducteur et ce qu’il fait, et il pourra détecter les infractions suivantes..
        Non-respect de la limitation de vitesse;
        Feu rouge ou stop brûlé
        Dépassement interdit:
        Non-respect des distances de sécurité;
        Utilisation du téléphone portable au volant       
        Absence de la ceinture de sécurité (conducteur et passagers).
    Il a été homologué pour le moment pour relever les deux premières infractions.

    Ce radar a une structure originale :
    Son antenne est au sommet d’une « cabine » un petit pylône de 4 m de haut, ce qui permet d’avoir une vue dégagée de loin. A cette hauteur, ils sont moins vulnérables.
    En outre pour faire baisser la facture, le gouvernement envisage d’installer 6000 cabines, mais dont 4 resteraient aléatoirement vides, 1200 radars n’équipant qu’un cabine sur 5, mais en étant déplécé de temps à autre, de telle sorte que l’usager de la route ne sache pas quelle est la cabine dans laquelle il y a un radar de mesure.
    Son déploiement devrait se faire d’ici 2020, pour une centaine de millions d’euros.

    Une belle machine à PV.

Samedi 17 août 2019 à 16:01

Ecologie, Changement climatique

http://lancien.cowblog.fr/images/Santebiologie2/P883E1.gif
       Je regarde tous les jours le journal télévisé pour savoir un peu ce qui se passe en France et dans le monde. On nous montre malheureusement souvent la pollution, qui sévit chez nous, mais encore plus en Inde ou en Chine et on voit de nombreuses personnes qui circulent, un masque antipollution blanc sur le nez.
      C’est vrai aussi dès qu’on parle d’épidémie de grippe ou autre maladie respiratoire .
     Cela me laisse perplexe, car j’ai travaillé autrefois dans un labo où l’on étudiait la protection des voies respiratoires et je crains que ces précautions soient malheureusement souvent plus nocives qu’efficace.
    En effet tout dépend contre quoi on veut se protéger.

    En matière de protection des voies respiratoires, on trouve divers matériels d’efficacité croissante :
        - de simples masques de tissus qu’on met devant le nez et la bouche, attachés par un élastique derrière la nuque. C’est ce que portent les personnes vues à la télévision. C’est évidemment bon marché.
        - des masques plus élaborés de chirurgiens, qui épousent davantage les formes du visage et dont le tissus est spécifique.
        - les masques de peintre, destinés à ne pas respirer la peinture dans une cabine de pistolage.
        - les masques à gaz que l’on portait pendant la guerre (ou en service dans l’armée)
        - les respirateurs à bouteille des pompiers.
    Tout dépend contre quoi on veut se protéger.

    Je rappelle d’abord que 1 micromètre (µm) = 1/1000ème de millimètre et 1 nanomètre (nm) = un millionième de millimètre.
    A titre de comparaison un globule rouge mesure 7µm, une bactérie environ 1µm.

    Lorsque nous respirons, nous aspirons environ 1/2 litre d’air pour en absorber l’oxyg§ne et rejeter ensuite du gaz carbonique (CO2). Nous respirons en même temps des particules et gouttelettes qui flottent dans l’air, et divers polluants gazeux, provenant des activités industrielles du chauffage, et surtout des rejets des moteurs de voiture : oxydes d’azote (NO et NO2), dioxyde de soufre (SO2), ozone (O3).
    Il peut y avoir évidemment des polluants autres : oxyde de carbone (CO), lors de combustions, produits chimiques lors d’épandages… dont certains peuvent être dangereux.

    Parlons d’abord des particules qui constituent la pollution la plus courante et la plus dangereuse.
    Les pics de pollution en France peuvent aller jusqu’à plusieurs millions de particules de particules fines par litre d’air que nous respirons toutes les deux inspirations, voire à chaque respiration si nous sommes en train de faire un effort physique.
    Les particules dans l’atmosphère se classent en quatre principales catégories, vis à vis de notre respiration :
        - Les particules les moins fines de diamètre supérieur à 10 µm.
    Ce ne sont pas les plus dangereuses car elles sont pour la plupart arrêtées par le nez et la gorge où elles se déposent. D’autre part, comme elles sont lourdes elles tombent et de déposent sur le sol.
    Les particules de diamètre inférieur à 10 µm. sont appelées PM10
        - Les particules de diamètre compris entre 2,5 et 10 µm.
    Ce sont elles les plus dangereuses, car elles pénètrent dans les poumons, et constituent la majeure partie en masse. Certaines en ressortent, mais d’autres s’y accumulent et encombrent les alvéoles pulmonaires en perturbant la respiration
    Les particules de diamètre inférieur à 2,5 µm. sont appelées PM2,5
        - Les particules de diamètre compris entre 2,5 et 0,1 µm.
    Elles sont également dangereuses car elles ont tendance à rester en suspension dans les poumons sans en ressortir et surtout leur concentration correspond en général au maximum de la pollution et donc au maximum d’absorption possible.
    Elles encombrent les alvéoles pulmonaires et les plus fines traversent les parois des vaisseaux sanguins.
        - Les particules de diamètre inférieur à  0,1µm.  (100 nm : PM0,1).
    Elles ne représentent qu’une faible masse, mais sont très nombreuses et peuvent franchir la paroi des vaisseaux sanguins du poumon et donc circuler ensuite en même temps que le sang dans l’organisme. Mais on ne sait pas quel est exactement leur comportement, car à cette taille, les matériaux ont des comportements particuliers.

    L’organisation mondiale de la Santé (OMS) estime que la pollution entraîne la mort prématurée de 7 millions d’e personnes dans le monde dont 48 000 en France.
    Les dangers sont les suivants :
        - Des réactions inflammatoires des poumons
        - Des symptômes respiratoires : difficultés à respirer.
        - Des effets néfastes sur le système cardiovasculaire.
        - Un risque de cancer au moins pour certains produits
        - L’accroissement de la prise de médicaments, de l'hospitalisation et de la mortalité des personnes souffrant de problèmes respiratoires, étant cardiaques ou asthmatiques (et considérées comme les groupes à risques).
        - Les personnes âgées et les enfants sont également considérées comme les groupes à risques

    Malheureusement tous les masques que l’on porte sont inefficaces, que ce soit de simples tissus jusqu’au 215 références de marques, vendues en France, et tant pour les particules fines que pour la pollution gazeuse.
L’Agence Nationale de Sécurité Sanitaire de l’Alimentation de l’environnement et du travail (ANSES) a étudié ces masques et dénonce leur inefficacité.
    Les masques ne sont conçus que pour filtrer les particules fines et n’ont aucun effet sur les gaz. Leur adhérence au visage est souvent mauvaise et donc leur étanchéité n’est pas bonne. La filtration dans les conditions d’usage est très inférieure à celle mesurée en laboratoire. Si la filtration des particule de diamètre supérieure à 10 µm est bonne (mais de peu d’intérêt, celle des particules autour de 2,5 µm est moyenne et celle des particules PM0,1 est pratiquement nulle.
    En outre ces masques sont conçus pour des personnes normales au repos et non pour des personnes à risue ou faisant un effort physique.
    Les masques de chirurgien n’ont pas une efficacité beaucoup plus grande : ils sont destinés à empêcher les particules liquides issues de la bouche et du nez du chirurgien d’aller sur le champ opératoire.
    Les masques militaires sont plus efficaces, mais d’un port pénible et inconfortable, que ne supporteraient pas les personnes non entraînées.
    A noter qu’aucun masque n’arrête les molécule gazeuses de petite taille telles que CO, O3 ou NO. Seul le scaphandre des pompiers, complètement étanche et alimenté en oxygène, est efficace dans ce cas.

    Contre cette pollution, le seule solution est de diminuer son intensité, et ensuite de réduire l’activité des personnes pour moins respirer, mais les masques sont inefficaces et, si l’on reste chez soi, il est cependant nécessaire d’aérer pour éviter des accumulations de produits dans les pièces.

Samedi 10 août 2019 à 14:20

Animaux

      Bien que n’étant pas breton d’origine, je suis très attaché à ma Bretagne où je vais en vacances depuis 70 ans tous les étés.
     J’ai donc flâné sur toutes les plages de la côte et des îles à la recherche de coquillages, et je me suis demandé souvent comment ils arrivaient à faire ces coquilles harmonieuses, aux formes géométriques compliquées.
    Je viens de trouver un article dans la revue « Pour la Science », dans lequel des mathématiciens d’Oxford expliquent, comment, grâce à des modélisations mathématiques, ils ont reconstitué ces processus de croissance des coquilles.
    Rassurez vous, je ne vous parlerai pas maths ou modélisations, mais je vais seulement essayer de résumer avec quelques photos et schémas, ce que j’ai appris.

    Evidemment il s’agit de mollusques qui ont une coquille, et le mollusque grandissant, il doit aussi augmenter le volume de son appartement et l’extrémité de sa coquille s’étend en permanence vers l’extérieur.
    C’est le manteau fin et mou du mollusque qui construit sa coquille, en sécrétant en permanence une substance riche en carbonate de calcium, au niveau de l’ouverture du coquillage et en déposant ce matériaux selon certaines règles propres à l’espèce, qui régissent la forme de cette coquille..

Les coquillages en forme de spirale

    Par exemple sur les photos ci-dessous les turitelles, ou les nautiles:
http://lancien.cowblog.fr/images/images.jpghttp://lancien.cowblog.fr/images/Unknown1-copie-1.jpg










   

     Le processus est schématisé sur les dessins ci dessous :

http://lancien.cowblog.fr/images/Animaux6/coquillesspiralees.jpg
    1) . L’expansion est croissante : à chaque couche successive de matériau pour construire sa coquille, le mollusque dépose uniformément davantage de matériaux, et ainsi l’ouverture devient de plus en plus large.
    2) . Rotation : en déposant un peu plus de matériau d’un coté de l’ouverture, le plan de celle-ci tourne et une forme torique est constituée.
    3) . Torsion : Les points où se dépose le matériau tournent le long du contour de l’ouverture, d’où une torsion du dépôt.

    Ces trois processus peuvent avoir plus ou moins d’importance, voire ne pas être tous utilisés, ce qui donne des formes différentes, comme dans le cas de la turitelle et du nautile. (cf.ci-dessus)

Les coquillages à côtes

http://lancien.cowblog.fr/images/images3.jpg
    Le processus est schématisé sur les dessins ci dessous :

http://lancien.cowblog.fr/images/Animaux6/coquillescotes.jpg
    Ce motif d’ornementation est le résultat des forces qu’exercent le manteau et la zone générative de matériau, (en jaune et bleu sur le schéma ci-dessus), qui forment un système oscillatoire de tensions et de compressions successives.
    Une lente expansion du manteau conduit à des cotes denses (à droite) tandis q’une expansion rapide conduit à des coquilles presque lisses. On a ainsi des aspects différents d’ammonites.

Les coquillages à épines

    Le processus est schématisé sur les dessins ci dessous :

http://lancien.cowblog.fr/images/epines1.jpg    Le manteau est lié à la coquille au niveau de la zone générative du matériau, mais il n’est pas encore durci. A divers endroits, le matériau est déposé localement sur le manteau et entraîne sa déformation et donc celle de la zone générative de la coquille. Cette déformation est donc communiquées à la couche suivante de croissance et le phénomène est amplifié au fur et à mesure de la croissance. (schéma ci-contre).
    La forme de l’épine dépend de la rapidité de la croissance et de l rigidité plus ou moins élevée du manteau (voir le schéma ci-dessous).

http://lancien.cowblog.fr/images/Animaux6/epine2.jpg


   http://lancien.cowblog.fr/images/images1.jpg
  
Maintenant vous savez, comme moi, comment les mollusques fabriquent des coquillages bien divers.

   Il y a longtemps que cela m’intriguait : je mourrai moins bête !


<< Page précédente | 1 | 2 | 3 | 4 | 5 | Page suivante >>

lancien

sortir de la tristesse

Créer un podcast