Vendredi 17 janvier 2020 à 17:39

Biologie, santé.

     Vous trouverez ci dessous un tableau donnant les caractéristiques des services proposés par les quatre grandes firmes américaines de tests génétiques offerts aux particuliers sur internet. Ce tableau est issu d’un numéro Hors sére de la revue « Pour la Science ».
    Seule la société 23andme (ce sont les 23 chromosomes) offre le service de tests « médicaux » aux particuliers qui voudrait cerner des risques statistiques de maladies, marché qu’elle obtient grâce à une publicité et un démarchage ciblé et en mettant à disposition des utilisateurs un logiciel qui leur donne l’impression de faire eux mêmes les recherches génétiques dont ils ont envie.
http://lancien.cowblog.fr/images/Santebiologie2/Numeriser3-copie-1.jpg

    Pour déterminer ces données, la société est partie d’études faites sur des malades et des témoins qui n’ont pas la maladie concernée. On a recherché des marqueurs en proportion notable chez les malades et absents ou en faible proportion chez les témoins indemnes.
    La fréquence de ces marqueurs dans l’ADN d’une personne peut donc indiquer un risque de maladie future.
    En fait cette méthode est très critiquée par les scientifiques, car elle suppose que des maladies complexes qui ont des causses multiples, n’ont qu’un caractère génétique à leur déclenchement.
    Il apparaît en effet qu’on ne sait pas en général l’origine de la maladie, et que l’environnement a le plus souvent un rôle important, même s’il ne s’agit que d’un déclencheur épigénétique.
    Le déclenchement des maladies complexes dépend certes de la génétique, mais aussi de l’environnement et du mode de vie de la personne en cause.
    Les données fournies par la société américaine ne sont donc qu’une mauvaise approximation du risque de la maladie.

    De plus, livrer de simples statistiques de risque de maladies, directement au consommateur sans l’intermédiaire d’un professionnel de santé, risque de provoquer des réactions erronées par méconnaissance des maladies, ou des prises inconsidérées de médicaments.
    On cite le cas de l’actrice Angélina Jolie, qui ayant ainsi appris qu’elle avait un certain risque de cancer du sein, alors qu’elle n’avait aucun signe clinique de la maladie, s’est fait enlever les deux seins.
    La FDA américaine a interdit en 2013 la diffusion de tels tests aux particuliers, mais elle est peu à peu revenue sur sa décision depuis 2015 et a autorisé une vingtaine de tests qui avaient fait l’objet d’études médicales.
    Mais si par exemple les mutations testées par la société 23andmesont des marqueurs fiables d’un risque de cancer du sein ou des ovaires, pour les personnes chez qui ils sont présents, par contre leur absence ne signifie pas un risque zéro, car d’autres mutations pourraient provoquer ces maladies.
    Le droit français interdit de réaliser des tests à d’autres fins que médicales ou scientifiques ou sur injonction d’un juge, et l’interprétation doit être faite par un professionnel de sante.

    En fait ces tests négligent l’épigénétique. Comme je l’ai déjà expliqué, L’ADN humain comporte environ 3 milliards de nucléotides (paire de bases face à face) et environ 30 000 gènes, support de l’hérédité des cellules..
        Mais ces gènes ne représentent que 30 % de l’ADN
        Les 70 % restant semblent ne servir à rien et sont ce que l’on appelle “l’ADN silencieux”
        On ne sait pas à quoi il sert. On pense que certaines parties sont des restes d’anciens gènes désactivés au cours de l’évolution.
        Mais il est actuellement certain également que certaines parties soient responsables de l’activation ou non de certains autres gènes
Un gène existant n’est pas automatiquement exprimé et il semble que de nombreux gènes ne s’expriment jamais.
        Il est possible qu’une partie de l’ADN silencieux soit constitué de gènes que nous ne connaissons pas parce qu’ils s’expriment rarement et que la recherche dans ce domaine est à ses débuts
        On a vu que, pour que la transcription se fasse, il fallait que l’ADN soit redéplié et que la double hélice soit séparée localement au niveau du gène à répliquer.
        Il semble que dans de nombreux cas, cette ouverture de l’ADN ne se fasse pas et le gène ne peut pas s’exprimer.
        Cet empêchement d’ouverture est dû à de légères modifications chimiques qui se sont produites dans la chaine d'ADN, et qui sont ensuite transmises aux cellules filles suivantes.
        La plus connue de ces modification est l’apparition de radicaux méthyl (-CH3), lesquels semblent empêcher l’ouverture de la chaîne à leur emplacement et donc l’expression du gène correspondant.
        Certains gènes correspondant à l’apparition de maladies sont ainsi bloqués et si à un moment donné ce blocage chimique disparaît, le gène s’exprime et la maladie se produit.
        On pense que cela pourrait être une explication de certains cancers.
        Il est probable que ce serait une explication des maladies immuno-déficientes.
        Certains chercheurs pensent également que de nombreuses personnes possèdent un gène de la schizophrénie, mais que ce gène ne s’exprimerait pas. Mais un traumatisme, une modification environnementale, une alimentation particulière... pourraient détruire le blocage de ce gène et la maladie se manifesterait alors.
        Ce type d'apparition doit être possible pour de nombreuses maladies génétiques.
Les tests de la société 23andme tiennent peu compte de ces données.

Vendredi 10 janvier 2020 à 17:12

Inné et acquis

http://lancien.cowblog.fr/images/Unknown-copie-2.jpg
    J’ai déjà fait des articles sur la notion d’inné ou d’acquis, sur l’ADN et l’épigénétique, mais je voudrais revenir sur ces notions
    Il y a quelques années on considérait que l’ADN son séquencement et la génétique correspondante, définissaient complètement ce qui était inné et que l’évolution modifiait peu à peu cet ADN. Aujourd’hui, on considère que la partie silencieuse de l’ADN est extrêmement importante car elle gère des actions qui ne sont pas prévues à l'origine et des modifications de cet ADN silencieux, qui se traduisent ensuite par une nouvelle expression des gènes et la formation de protéines, entraînant des modifications et des potentialisation de notre organisme.
    Ces modifications ne sont donc ni innées, puisqu’elles n’existaient pas à l’origine et qu’elles n’auraient pas forcément eu lieu, ni acquises, car nous n’avons pas d’action sur elles comme sur l’éducation ou l’instruction et si l'environnement a  sans doute une action sur leur déclenchement, nous ne savons pas laquelle.

    En fait le terme d’inné est déjà flou, car les effets de notre ADN , même s’ils sont programmés ne sont pas immédiats, comme l’apparition des hormones sexuelles et la barbe chez un garçon, et même la plupart de nos aptitudes de la vue, l’ouïe le goût ou l’odorat, ou l’usage de nos membres, n’apparaissent que progressivement, en partie par apprentissage.
    L’aspect héréditaire de nos comportements est dû à une multitude de gênes « additifs » et l’hérédité ne peut être en général calculée selon des principes simples de Mendel. Même une caractéristique simple, comme la couleur des yeux ou de la peau, a des valeurs multiples et dépend de nombreux gènes, dont nous ne connaissons qu’une partie.
    Certains traits sont immuables comme le nombre de coeurs, d’yeux d’oreilles de poumons. Il peut y avoir des exceptions, mais qui sont alors des anomalies de formation.
Ces trains sont innés mais pas héréditaires à proprement parler. Ce sont en général des traits morphologiques ou physiologiques.
    Les études faites sur des jumeaux homozygotes montre que, en ce qui concerne les traits physiques humains, une partie importante est héréditaire, et l’environnement a une influence assez faible, alors que pour les aspects comportementaux ou d’aptitudes si l’environnement général partagé a peu d’influence, plus de la moitié des différences sont imputables à l’environnement particulier de chaque individu. L’héritabilité sur des aptitudes n’est que d’environ 30%.
    Cela veut dire que selon l’environnement, deux génotypes identiques s’expriment différemment, car des modifications de l’ADN silencieux entrainent des modifications de l’individu.
    La dichotomie « inné » acquis » est donc assez fallacieuse et il ne faudrait pas que certains apprentis sorciers veuillent, à partir d’études générales de génotype sur toute une population, tirer des enseignements sur les individus et vouloir favoriser certaines caractéristiques du génome des individu. Plus que jamais l’eugénisme est dangereux.

    Envoyez quelques cheveux à un laboratoire et vous saurez tout sur les origines de votre famille, sur votre généalogie. Une croyance qui fait fureur sur internet.
    La publicité fait rage aux USA dont la population a des origines très diverses, notamment africaine, européenne et hispanique. Quatre grandes société y ont trouvé un business très rentable. Près de 100 millions de personnes ont eu recours à de tels tests dans le monde dont environ 100 000 français, bien que ce type de test soit interdit en France.
    Qu’en est il vraiment ? Existe t’il des marqueurs génétique de l’ethnie, et la géographie a t’elle eu une influence sur les gènes de notre descendance.?

    Il y a quelques années on ne savait analyser dans l’ADN qu’une centaine de marqueurs génétique, ce qui suffisait pour un test de paternité, mais revenait très cher et demandait du temps. Puis les laboratoire américains ont pu grâce aux progrès techniques et à l’augmentation de la capacité informatique, analyser rapidement et pour un prix abordable, des dizaines, puis des centaines de milliers de marqueurs, ce qui donnait une plus grande précision pour comparer les ADN de deux individus.
    Des recherches ont eu lieu sur l’ADN dans divers pays et sur des populations restreintes et des échanges de données ont permis à ces sociétés de rassembler des données considérables quant aux caractéristiques génétiques des populations actuelles.
    Les sociétés américaines proposaient à leurs clients de rechercher toutes les personnes actuellement en vie, qui pouvaient être plus ou moins apparentées avec vous (évidemment notamment des personnes connues, comme des artistes, des personnes richissimes  ou des politiques).
    Mais ces bases de données sont encore très insuffisantes pour identifier un grand nombre d’ethnies et de utilisateurs ont été étonnés de résultats d’essais successifs qui avaient des résultats différents ou de résultats divergents issus de sociétés de tests différentes.
    Mais surtout les renseignements généalogiques sont par principe, très incomplets comme le montre le graphique ci dessous.
Trois types d’analyses sont en effet possibles :
    - l’ADN « autosomal » des 22 chromosomes non sexuels d’un homme ou d’une femme.
    - L’ADN du chromosome Y d’un homme ou X d’une femme
    - Le petit ADN circulaire contenu dans les mitochondries des cellules, non pas dans le noyai, mais dans le cytoplasme

http://lancien.cowblog.fr/images/Santebiologie2/Numeriser2-copie-3.jpg

    L’analyse des mutations de marqueurs de l’ADN autosomal  permet de remonter à certains groupes de populations et de fournir une hypothèse sur l’origine géographique d’un individu. S’il appartient à un groupe de population dont les mutations d’ADN sont nombreuses et ont été étudiées, on peut remonter à environ la huitième génération, c’est à dire de l’ordre de 200 ans.
    Le chromosome X ne contient pas d’information intéressante différentes des autres chromosomes. Par contre le chromosome Y peut fournir des informations car il a peu d’échanges avec les autres chromosomes lors de la formation des spermatozoïdes. Mais les mutations qui apparaissent sur cette cellule ne sont transmises que de père en fils.
    Cela ne permet donc que de remonter à un seul ancêtre, celui de la lignée masculine.
    L’analyse des l’ADN mitochondrial ne permet que l’analyse d’une lignée féminine, car cet ADN n’est transmis que par la mère, à ses filles qui le transmettent, et à ses fils qui ne le transmettent pas. Un séquençage complet de la cellule permet de remonter d’au moins 20 générations (500 ans et parfois 5 fois plus, amis uniquement dans la filière femmes de la famille.

    En définitive, les entreprises américaines notamment, ont trouvé une source importante de profits en proposant des analyses ADN, d’abord en matière de paternité, aujourd’hui très fiables, mais ensuite à des fins de diagnostic de risque de maladie et de généalogie. Ces tests, qui demandent des banques de données énormes ne sont limités et ne sont fiables que si une étude importante a été faite sur la population dont on est issu.
Les tests de risques médicaux ont également des inconvénients dont je parlerai demain
Ces tests sont interdits en France sauf décision d’un tribunal.

Vendredi 3 janvier 2020 à 9:33

Actualité

 http://lancien.cowblog.fr/images/Image4/dQPYCK9jmy77PGy8YSnXDhDKUNE500x339.jpg

        J’ai écouté, comme beaucoup de français; le discours de notre Président, mardi soir. Il m’a profondément déçu.

         Je l’ai trouvé certes bien construit sur le plan de la langue française, mais très intellectuel, moraliste et peu réaliste, celui d’un homme qui considère qu’il détient "la voie, la vérité et la vie", sans se soucier si cela correspond aux souhaits de la population. 

 Il s’est félicité de la consultation nationale de l’année dernière, qui certes a provoqué de nombreux débats et une remontée importante d’avis et de propositions, mais dont ensuite on n’en a tenu compte que dans la mesure où elles correspondaient aux objectifs du gouvernement. Toutes les autres propositions sont restées lettres mortes.

         Quant à la grève actuelle, il n’a pas eu un mot pour les gros désagréments des personnes qui en subissent les conséquences (évidemment, d’une part peu lui importe leurs ennuis et d’autre part c’est un échec pour lui puisqu’il n’a pas su empêcher la grève pendant les fêtes).

         Aucune avancée pour essayer de l’arrêter. Pas une concession, pas même un encouragement à des possibilités d’accords par négociation d’acceptations mutuelles. On reste dans un projet quasi immuable, car seul le Président détient la vérité et lui seul sait ce qu’il convient à la population et à la France, au mépris de tous les avis dès qu’ils diffèrent de son projet. Et les raisons avancées sont la proclamations d’avancées et de justices sociales, sans aucune preuve concrète et la montée en épingle des quelques avantages de la réforme, principalement le minimum de retraite et l’augmentation de salaire des enseignants, sans savoir pour ces derniers, si cela suffira à ce que leur retraite ne diminue pas de façon importante.

         En fait le gouvernement laisse pourrir la situation, car il sait que le manque de salaires aura raison de la grève et qu’il pourra alors faire voter sa loi. Quant aux dégâts collatéraux sur l’économie et les usagers, il considère que c’est du détail, le prix à payer pour une réforme qu’il veut conserver pour ne pas reculer et conserver sa réputation de réformateur à tout crin. Tout au plus s’en sortira t’on en opposant les français entre eux, notamment par des clauses type « grand-père » .

 

          Je ne suis pas d’accord avec les syndicats car d’une part ce n’est pas réaliste de refuser de négocier tant que le projet n’est pas retiré, et d’autre part je pense qu’ils ont eu tort d’ennuyer ainsi la population au moment des fêtes de fin d’année. (Je le dis d’autant plus que je ne bouge pas de chez moi !).

         Mais on ne m’a toujours pas convaincu que l’universalité de la retraite est un facteur de justice sociale, car tous les métiers sont différents, de même que les salaires.

 Par ailleurs instituer brutalement un système à points, quelle que soit la profession, les études correspondantes, les risques de chômage, les contraintes de chaque métier, la progression des salaires, et le type de contrat, notamment à l’embauche; me paraît être d’un irréalisme total, surtout si on ne définit pas comment seront calculées les correspon-dances points-niveaux de retraite. Les premiers calculs faits semblent aboutir à une baisse des retraites à venir, comme le montre l’exemple suédois.

         Les français ne sont pas idiots. Ils savent que la longévité s’accroit et que donc le nombre de retraités par rapport aux actifs aussi. Ils savent qu’il faut équilibrer les comptes et que donc il faudra cotiser plus, c’est à dire travailler plus longtemps. Mais fixer un âge minimum à 62 ans comme une faveur et ensuite un âge pivot malus/bonus à 64, c’est une méthode qui donne l’impression aux gens qu’on se moque d’eux et qu’on les prends pour des imbéciles, et je comprends la rancœur du patron de la CFDT.

         En fait je n’ai jamais vu présenter un projet avec une impréparation aussi complète, avec une aussi mauvaise communication et ignorance de la psychologie des humains.

 Je pense que les gens responsables du projet n’ont jamais dirigé un groupe de personnes de leur vie, ou n’en ont tiré aucun enseignement.

        Bref je pense que nos enfants souffriront, quelque soit leur métier, de la réforme actuelle.

 Certes je pense que M Macron est un Président honnête et qui veut bien faire, mais un utopiste irréaliste, imbu de sa personne, qui n’a pas les pieds toujours sur terre et qui vit dans sa bulle.

 Je ne voterai pas pour lui la prochaine fois, mais comme je ne veux pas voter pour Marine Le Pen ou Mélenchon, je me demande pour qui je voterai car je ne vois aucune personnalité intelligente sortir du lot, sans parler de tous les incapables ou les malhonnêtes qui ont été choisis par les autres partis à diverses reprises.

         Le général de Gaulle était très autoritaire, mais il avait un sens psychologique qui lui évitait des bêtises comme celles actuelles, et je regrette des Présidents plus réalistes comme M.Chirac, même si je n’approuvais pas toujours ses actions.

 

         Sans doute une telle réforme n’est pas facile.et elle ne peut être bâtie au galop en restant dans sa tour d’ivoire.

         Qu’il faille réformer tout le monde le sait. que l’on prenne quelques mesures générales sur l’allongement du travail ou la durée et le montant des cotisations, pour commencer à équilibrer les comptes c’est  sans doute possible si on explique bien.

         Mais ensuite présenter l’universalité comme un dogme d’équité sociale, me paraît ressembler à un dogme religieux. Mais la religion est spirituelle et ne concerne pas la vie matérielle de tous les jours.

 Une réforme, pour qu’elle passe doit être étudiée métier par métier, secteur par secteur et prévoir une adaptation progressive.

         Comment considérer par exemple comme "cas universel" un artiste de l’Opéra. Irez vous voir danser ou chanter une personne de 64 ans. Bien sûr elle peut être professeur ensuite, mais pas toujours et il faut donc examiner le déroulement de sa carrière.

         J’ai pris un cas singulier, mais il y en a des centaines.

 Je connais quelqu’un qui doit travailler jusqu’à 67 ans dans une clinique pour jeunes très handicapés et qui se demande si elle aura encore suffisamment de force physique. Mais sa retraite est incomplète car elle s’est arrêtée de travailler pour élever ses enfants.

 La centralisation des études par le gouvernement et sa fébrilité sont catastrophiques. Les grands projets doivent être délégués aux échelons subalternes qui peuvent étudier les détails du projet, selon les secteurs concernés et les particularités, avec simplement certains objectifs mais qui ne doivent pas être fixés à l’avance de façon trop précise et identique. Au niveau supérieur de rassembler les projets, de les faire compléter s’ils sont trop loin des objectifs attendus, puis de faire une synthèse qui soit acceptable et surtout comprise. Cela peut prendre plusieurs années.

         Mais pondre un projet qui veuille tout réformer de fond en comble, j’appelle cela rechercher à mettre la pagaille.

Vendredi 27 décembre 2019 à 16:26

Astronomie, univers

'   Nous avons vu il y a une semaine, quelques données techniques préalables à des explications sur le champ magnétique terrestre. Nous avons vu en particulier ce qu’était l’effet dynamo.
    Dans un article du 20 mai 2015, j’avais expliqué la structure de la Terre et j’avais dit qu’elle avait en son centre un noyau interne solide essentiellement métallique (alliage de fer et de nickel principalement, en proportions environ 80 %-20 %) et constitué par cristallisation progressive du noyau externe. La pression de 3,5 millions de bars, le maintient dans un état solide malgré une température supérieure à 6000 °C et une densité d’environ 13.
    Le noyau externe est liquide. Il est essentiellement composé de fer à 80-85 %, d'environ 10-12 % d'un élément léger non encore déterminé parmi le soufre, l'oxygène et le silicium, et enfin de l'ordre de 5 % de nickel. Sa viscosité est estimée à de 1 à 100 fois celle de l’eau, sa température moyenne atteint 4000 °C et sa densité 10.
    Ce métal en fusion est animé de mouvements de convection, essentiellement de nature thermique , qui interagissent avec les mouvements de la planète, (rotation quotidienne principalement, à plus longue échelle de temps, précession du globe terrestre). Le fer liquide profond est plus chaud et moins dense que celui plus près du manteau terrestre, et la poussée d’Archimède entraîne le fer liquide chaud vers le haut et celui moins chaud vers le bas.
    De plus au contact du noyau solide, le fer cristallise, ce qui entraine une modification de la composition du noyau liquide et des éléments légers, plus nombreux remontent en augmentant les phénomènes de convection.
    La rotation de la Terre joue un rôle et notamment la pseudo-force de Coriolis (voir mes explications du 15 août 2019 sur cette force), qui s’oppose à toute variation de vitesse selon l’axe de rotation de la planète, et organise le fluide en colonnes tourbillonnantes parallèles à cet axe. (voir le schéma ci-dessous). Ces colonnes auraient un diamètre d’une trentaine de km (le noyau ayant un diamètre de plusieurs milliers de km).
http://lancien.cowblog.fr/images/Sciences2/Numeriser2.jpg
    On a donc un système qui peut comporter un effet dynamo et où les mouvements du liquide conducteur sont suffisants pour empêcher une décroissance des courants électriques, mais on ne sait pas quel a été l’élément initial de deéclenchement de l’instabilité.
    Les physiciens et les mathématiciens ont réussi à modéliser ces phénomènes, grâce à un système de 3 équations, la première décrivant le mouvement du liquide, la seconde décrit la formation du champ magnétique et les effets de l’induction et la troisème régit les transferts thermiques;
    En fait on ne sait pas résoudre ces équations par simulation numérique (c’est à dire par approximations successives), car les dimensions des divers paramètres sont extrêmement différentes, et ce malgré des simplifications afin de faciliter la résolution.
    Par contre Emmanuel Dormy,et ses collègues de l'Ecole Normale Supérieure de Paris ont réussi à modéliser les inversions du champ magnétique terrestre : une lent décroissance, suivi d’une période cahotique, puis d’une brusque inversion de la polarité et un rétablissement rapide de l’intensité du champ. (mais sur des millions et milliers d’années).
    A notre échelle de temps, le pôle nord magnétique (celui ou l’aiguille de la boussole est orientée vers le centre de la terre) varie de 55km par an, et se déplace autour du pôle géographique (l’axe de rotation de la Terre. (Voir figure ci dessous).
Le pôle sud magnétique est plus calme et ne se déplace que de 10 km par an.
http://lancien.cowblog.fr/images/Sciences2/Numeriser4.jpg
    Il n’y a pas de crainte à avoir quant à une inversion de polarité du champ magnétique terrestre avant des centaines de milliers d’années, la période d’inversion où le champ est variable et faible, induisant des modifications très importantes du fonctionnement de tous les appareils électromagnétiques..

Mercredi 25 décembre 2019 à 8:58

Divers

http://lancien.cowblog.fr/images/Image4/images-copie-12.jpg


 

JOYEUX NOËL  à tous mes

LECTRICES ET LECTEURS

Vendredi 20 décembre 2019 à 13:41

Astronomie, univers

      J’ai longtemps utilisé une boussole, quand j’allais me promener dans la nature, et j’en ai une dans ma voiture et lorsque je pilotais un avion, j’avais un « compas » à coté des aides radio à la navigation.
    Je pense que mes petits enfants ne connaîtront plus ces instruments, car le GPS plus précis et plus automatisé les a remplacés.
    Néanmoins, le champ magnétique terrestre reste une réalité, mais peu de gens savent à quoi il est dû.
    Cela a longtemps été une énigme et cela pose encore de nombreux problèmes aux physiciens et mathématiciens..

    Les premières expériences sur le champ magnétique terrestre sont attribuées à l’astronome Willam Gilbert, vers 1600, qui cherchait à comprendre l’alignement des boussoles et pensait que la Terre renfermait en son sein un immense aimant et il avait conçu un petit aimant sphérique qu’il appela « petite Terre », et la boussole que l’on approchait pointait vers le pôle nord de sa « Terrella » et s’inclinait légèrement vers le centre comme dans la réalité. 
    La boussole était beaucoup plus ancienne, car au 4ème siècle avant notre ère, les Chinois utilisaient un « indicateur astral » pour se repérer. C’était une cuillère en magnétite (un oxyde de fer à aimantation permanent) dont la queue pointait vers le sud. L’usage de boussoles pour la navigation s’est propagé en Europe vers 1190.

    Mais vers 1634, Henry Gellibrant, astronome à Londres, montra que l’angle entre le pôle nord magnétique et le pôle nord géographique (la »déclinaison), qui était de 6 degré en 1622, était passé à 4,1 deg. et que cette évolution n’était pas possible avec un simple dipôle.
    L’augmentation de l’intensité du champ magnétique terrestre avec la latitude avait été établie dès la fin du XVIIIème siècle par De Rossel lors de l’expédition d’Entrecasteaux (1791-1794), à bord de la Recherche et de l’Espérance, et peut-être déjà par Robert de Paul, chevalier de Lamanon, lors de l’expédition malheureuse de La Pérouse (1785-1788), à bord de la Boussole et de l’Astrolabe.
    La première carte de l’intensité du champ magnétique terrestre fut publiée en 1825 par Christopher Hansteen

    La première représentation du champ magnétique terrestre sous forme mathématique fut proposée par Karl Friedrich Gauss en 1838. Son modèle, calculé à partir des valeurs de déclinaison, d’inclinaison et d’intensité extraites des cartes magnétiques alors disponibles, est remarquablement performant et proche des modèles actuels. Le modèle de Gauss confirme la nature dipolaire et géocentrique du champ magnétique terrestre qui, en première approximation, peut être assimilé à celui d’un aimant placé au centre de la Terre suivant une direction faisant un angle de 11°30’ avec l’axe de rotation de la Terre. Le modèle montre également que la partie principale du champ, soit plus de 90%, provient de sources situées à l’intérieur du globe terrestre.
    Le modèle simplifié permet de calculer de façon précise la position sur le globe de pôles géographique (l’axe de la terre)  et géomagnétique, mais ne permet pas de connaître la position des pôles magnétiques vrais Nord et Sud, c’est-à-dire les coordonnées des points pour lesquels l’inclinaison est verticale et la déclinaison indéterminée.
    Gauss a fait des mesures précises du champ en se servant de l’analogie avec un pendule dans le champ de gravité terrestre qui oscille avec une période T = 2π √ l/g  ou l est la longueur du pendule et g la valeur du champ de gravité -vous avez dû faire cette manipulation en terminale !. Il a montré que lorsqu’on écarte une boussole de sa position d’équilibre, elle oscille de la même façon avec une période qui ne dépend que du champ local.

    En 1895, Pierre Curie montra qu’au delà d’une température de quelques centaines de degrés (dite température de Curie), les matériaux ferromagnétiques perdent leur magnétisme, en raison de l’agitation thermique. La température augment de façon très importante lorsqu’on pénètre dans la Terre et l’hypothèse d’un définitivement écartée.
    Les physiciens Orsted et Ampère avaient montré en 1820 la relation entre courants électriques et champ magnétique, et Ampère proposa l’hypothèse d’un courant électrique se propageant dans la Terre perpendiculairement au méridien magnétique.   
Mais l’origine en restait inconnue et par ailleurs, ce courant non entretenu se dissiperait, en raison de la résistivité, en quelques milliers d’années.
    Or certaines coulées volcaniques contiennent des éléments ferromagnétiques, qui s’alignent dans le champ magnétique terrestre du moment, et ils montrent que le champ magnétique terrestre existe depuis plusieurs milliards d’années.
    De plus, en 1906, le géophysicien Bernard Brunhes a découvert grâce à ces fossiles, que le champ magnétique terrestre s’était inversé au cours des époques très lointaines, la dernière inversion remontant à 773 000 ans.
    Depuis ce phénomène a été étudié et le schéma ci-dessous montre les dates de cette évolution (en millions d’années avant notre ère. Les périodes d’inversion correspondaient à une décroissance plus rapide de la déclinaison , l’inversion mettant quelques milliers d’années à se produire.
http://lancien.cowblog.fr/images/Sciences2/Numeriser-copie-2.jpg    Le phénomène de production du champ magnétique est donc très complexe et en 1919 le physicien Joseph Larmor, de l’université de Cambridge proposa un mécanisme où une partie de l’énergie mécanique d’un fluide conducteur et convertie en courant électrique et en champ magnétique, sans qu’aucun aimant ne soit nécessaire pour initier ce phénomène, qui repose sur une instabilité. C’est ce que l’on appelle « l’effet dynamo » que je vais expliquer.

    Dans une dynamo de vélo la roue fait tourner un aimant permanent dans un bobinage, ce qui crée un courant électrique. de même si l’on fait tourner un disque dans le champ d’un aimant, ou si on remplace l’aimant par un bobinage parcouru par un courant (voir schéma ci-dessous).
http://lancien.cowblog.fr/images/Sciences2/Numeriser3.jpg
    Le courant produit dans le bobinage interne produit lui même un champ et si le bobinage externe est dans le bon sens, le courant qui le parcourt va augmenter, lequel augmentera le champ induit….. On a ainsi une auto-augmentation des champs et des courants : c’est l’effet dynamo.
    Pour amorcer le phénomène, il suffit d’une petite instabilité électrique ou magnétique si petite soit elle, car elle est très fortement amplifiée; C’est une instabilité.
    Un autre exemple d’instabilité est l’effet « Larsen » bien connu. Quand un micro et un haut parleur sont branchés sur un amplificateur, et que ke gain de celui-ci est trop important, il suffit du moindre petit bruit (une instabilité) pour provoquer l’équivalent de l’effet dynamo, et un son strident dans le haut parleur, que l’on ne peut arrêter qu’en diminuant le gain de l’amplificateur.   
http://lancien.cowblog.fr/images/Sciences2/Numeriser5.jpg    En 2006, Von Karman, à Cadarache a montré en pratique cet effet dynamo en faisant tourner du sodium fondu, contenu dans un cylindre et brassé aux deux extrémités par deux disques munis de pales tournant en sens inverse (voir figure).
    Un champ magnétique est apparu et, en faisant tourner les disques à des vitesses différentes, on a réussi à créer une inversion progressive du champ magnétique.   

    Vous avez maintenant les éléments théoriques pour comprendre ce qui se passe sous nos pieds, au centre de la Terre et qui explique le magnétisme terrestre..
    Demain je décrirai l’application de l’effet dynamo au centre de la terre dans un noyau constitué à 80% de fer liquide à haute pression et haute température.

Vendredi 13 décembre 2019 à 15:58

Biologie, santé.

    J’ai lu un article assez étonnant sur  le numéro d’avril 2019 du magazine « Pour la Science » : les neurobiologistes explorent les faisceaux nerveux du cerveau grâce au virus de la rage.
 Sur le moment cela m’a inquiété car le virus de la rage s’attaque justement aux neurones du cerveau.

    Voyons d’abord ce qu’est ce virus de la rage, cher à Pasteur.
    C’est un virus très malin, qui a fait d’énorme ravage au &çème siècle, car il transforme un petit chien en une bête féroce qui mord et transmet le virus contenu dans sa salive, lequel colonise peu à peu les neurones et au bout d’un à trois mois d’incubation est mortel à 100%.
    Heureusement il y a eu Pasteur et son sérum et son vaccin et aujourd’hui il n’y a plus dans le monde, chaque année, qu’environ 60 000 décès dus à ce virus, au lieu de plusieurs millions.
    Ce virus a des capacités assez extraordinaires. La morsure permet aux virus de pénétrer dans les tissus musculaires de l’animal mordu, et de là, le virus va remonter tout le trajet nerveux, neurone après neurone, en leurrant le défenses immunitaires de façon très astucieuse.
    Le virus est une petite capsule (une capside), contenant un brin d'ARN, qui contient son matériel génétique, et sa capside est recouverte de protéines particulières : des glycoprotéines. Elles vont permettre au virus de pénétrer dans un neurone qui commande la contraction des muscles.
    Si vous avez lu mes articles vous savez que les axones des neurones sont liés aux dendrites des neurones suivants par des synapses pourvues de récepteurs chimiques et que des neurotransmetteurs libérés par l’influx nerveux arrivant sur l’axone, vont se fixer sur des récepteur de la paroi liée à la dendrite et provoquer une dépolarisation électrique qui va ainsi transmettre l’influx nerveux au neurone suivant.
Le flux nerveux descend ainsi jusqu’aux neurones situés dans les muscles et en commande la contraction.
    Le virus de la rage va remonter cette chaîne de transmission, à contre-courant, jusqu’au cerveau.
    Pour cela il va entrer dans la synapse, ses glycoprotéines vont lui permettre de simuler un neurotransmetteur et de pénétrer dans la terminaison nerveuse de l’axone, par la « porte de sortie » de l’influx nerveux. Il remonte ensuite l’axone, jusqu’au neurone.
    Une fois dans le corps du neurone, le virus va se déshabiller de ses glycoprotéines, libérer son ARN et il va se servir du matériel et de l’énergie (l’ATP) du neurone pour se répliquer et faire des copies de son ARN, et également des diverses protéines du virus.
    Les virus habituels font alors de très nombreuses copies d’eux-mêmes, c’est l’infection, mais cela fait mourir la cellule hôte et alerte les défenses immunitaires.
    Le virus de la rage est plus malin; Il va limiter sa reproduction, de telle sorte que le neurone ne meurt pas et les défenses immunitaires sont leurrées.
    Puis tous les virus produits vont remonter les diverses dendrites du neurone et gagner des neurones pus amonts dans le circuit neuronal.  Ainsi les virus remontent peu à peu la chaine, via la moelle épinière, en se multipliant à chaque étape, mais sans dommage apparent, et enfin, ils arrivent très nombreux dans le cerveau, sans que l’alerte ait été donnée et ils continuent à se multiplier dans les neurones du cerveau.. Mais cela a pris du temps plus d’un mois, d’où ce long délai d’incubation avant que la maladie ne se déclare.
    C’est pourquoi, dès qu’on est mordu, il ne faut pas attendre, et consulter pour des analyses, faites en général sur la victime et sur la bête si possible; le cerveau de celle-ci est infecté et chose exceptionnelle, cela la rend hargneuse et désireuse de mordre, car le virus permet ainsi une meilleure transmission à d’autres de son ARN.
    Le schéma ci-dessous résume tout ce périple.

http://lancien.cowblog.fr/images/Santebiologie2/Numeriser2-copie-1.jpg    Comment se servir de ce virus pour mieux connaître les faisceaux nerveux, notamment du cerveau.?
Pour le moment ce n’est que sur animaux et on ne va évidemment pas prendre un virus pathogène, mais on va le modifier génétiquement, avant de l’injecter dans le cerveau des animaux de laboratoire.


    Les chercheurs vont donc le reconfigurer pour pouvoir suivre son trajet, sans qu’il soit nocif.
    Ils remplacent d’abord le gêne qui entraine la production des glycoprotéines par un gêne fluorescent : Le virus garde donc son ARN, mais les cellules infectées deviendront fluorescentes. Ils vont ensuite redonner des glycoprotéines modifiées au virus, pour qu’il puisse entrer dans un neurone, mais ne puisse pas en sortir pour en infecter un deuxième.
Ainsi traité le virus lorsqu’il est entré dans un neurone peut se reproduire, mais ne sait pas reproduire ses glycoprotéines et donc ne peut rentrer dans le neurone suivant.
    Mais on risquait de détruire trop de neurone lors de l’injection. Les chercheurs ont extrait une protéine du virus de la grippe aviaire, qui empéchait le virus de pénétrer dans les neurones qui n’avaient pas un récepteur particulier sur les synapse et neurones des souris en étaient dépourvues.
    Ils ont ensuite introduit ce récepteur uniquement dans quelques groupes de neurones particuliers et le virus de la rage modifié n’a pu entrer que dans ce groupe restreint de neurones ayant reçu ce récepteur
    L’étude décrit les processus détaillés de modifications génétique; Je vous en fait grâce car c’est assez difficile et un peu lassant à lire
    Mais après ces modifications complexes; les chercheurs peuvent suivre pas à pas la  progression du virus depuis le groupe de neurones spécifiques où l’on a introduit les récepteurs particuliers.
    Les chercheurs ont ainsi commencé à étudier les circuits des neurones moteurs qui commandent nos muscles et d’autres ont étudieé les circuits d’interprétation de la vue.
    Bien sûr cette technique est limitée à des animaux (essentiellement des souris), mais elle permet une analyse beaucoup plus fine que la RMN, qui ne permet de détecter qu’un grand nombre de neurones.

Vendredi 6 décembre 2019 à 15:01

Notre cerveau; nos sens; système nerveux

http://lancien.cowblog.fr/images/Cerveau3/Numeriser-copie-1.jpg
    J’avais déjà  fait des articles sur la reconnaissance des visages par notre cerveau . J’ai lu cet été, dans la revue « Pour la Science » d’août, un compte rendu de recherche de Doris Tsao, chercheur à l’Institut médical Howard Hughes en Californie, qui précise et complète les données que j’avais déjà essayé d’expliquer.
   
    Madame Tsao et ses collaborateur essaie de définir le rôle des neurones chargés de la définition des visages, si ils travaillent de la même façon ou différemment pour des visages inconnus et pour des familiers, et s’ils ont aussi un rôle pour la reconnaissance d’autres objets.
    Les essais sur l’homme se limitent à des essais visuels et d’IRM et pour pouvoir mieux comprendre, les études ont lieu sur des singes, les mécanismes cérébraux de la vue étant assez voisins chez le singe et chez l’homme.
    Les descriptions qui vont suivre concernent donc la reconnaissance faciale chez le singe.

http://lancien.cowblog.fr/images/Cerveau3/Numeriser1-copie-1.jpg    Six zones ont été identifiées dans les cortex temporaux inférieurs droit et gauche, qui sont spécialisées dans la reconnaissance faciale et qui ne s’activent que lorsque l’objet à identifier est un visage, ou un objet qui peut être pris pour un visage (image, dessin, silhouette). Elles ne s’activent pas lors de la vision d’autres objets.
    On a longtemps cru que certains neurones étaient spécifiques de certains visages, voire de visage familiers. Il n’en n’est rien. Ces centres réagissent exactement de la même façon quelque soit le visage vu : ils en font une analyse dont le résultat est ensuite transmis à la mémoire (via l’hippocampe et le cortex endorhinal voisins situés sous ces centres dans le cerveau émotionnel.
    Ces centres font une analyse progressive des visages, un peu comme une chaîne de montage photographique.
    Des neurones différents des zones médianes et médianes-latérales s’activent lorsque le visage est vu de face, de profil droite ou gauche, et de biais de droite ou de gauche ou s’il regarde vers le bas ou vers le haut.
    Les zones intermédiaires font ensuite une analyse des caractéristiques des visages. Les chercheurs ont défini à priori 50 paramètres caractérisant la forme, les dimensions, les aspects de divers visages. La forme est définie principalement par le squelette sous-jacent; les aspects sont liés à la texture, les couleurs, (teint, yeux, cheveux), les contrastes dûs aux dimensions du nez, des yeux, de la bouche.
    Ils ont définis les visages correspondant à chaque case de la matrice des 25 données de forme et 25 données d’aspect.
http://lancien.cowblog.fr/images/Cerveau3/Numeriser3.jpg
    Pour connaitre ensuite la réponse des cellules, ils ont attribué des coefficients de pondération à définir, correspondant aux réponses des neurones à ces 50 paramètres et ils ont expérimenté les réponses (des pics d’activité neuronale), à l’examen de chacun de 2000 visages, (dont on connaissait les 50 caractéristiques), ce qui a permis de calculer ces coefficients de pondération.
    Ils ont alors montré un 2001ème visage et relevé les signaux neuronaux, à partir desquels ils ont calculé les 50 paramètres de ce visage. Ils correspondaient parfaitement au visage montré, la restitution en image ne permettant pas de faire la différence.
    Cette expérience a montré comment les cellules neuronales identifiaient les visages, même si les paramètres qu’elles utilisaient étaient un peu différents de ceux élaborés par les chercheurs.
    Enfin la zone médiane antérieure rassemble toutes les informations concernant le visage vu : c’est le bout de la chaîne de traitement.
    Ce traitement est effectué sur tout visage connu ou pas; les informations sont ensuite transmises aux zones de la mémoire, qui diront s’il s’agit d’un visage connu et qui.

    Ces mêmes zones n’ont pas réagi lorsque l’on montrait des objets différents de visages.

    L’extrapolation à l’homme de ces essais sur le singe n’est pas évidente : alors que l’homme est capable de reconnaitre des milliers de visages, le singe est très en dessous de cette performance et a besoin d’un long apprentissage pour reconnaitre des visages.
Il y a 30 millions d’années d’évolution entre le macaque et l’homme qui possède environ 16 fois plus de neurones.
    Il semble que le singe ne possède pas la zone se trouvant chez l’homme en zone occipitale, près des centres d’interprétation de la vue et qui reconnait objets, visages et lettres. L’hémisphère droit de l’homme et aussi plus performant quant aux images.
    En fait le singe n’a besoin que de détecter l’orientation des visages, savoir ce que regarde son congénère et interpréter quelques grimaces.
    L’homme a des capacités de reconnaissances beaucoup plus grandes (il peut reconnaître quelqu’un dans une caricature). Il peut en partie interpréter des émotions ou des pensées d’autrui par la vue de son visage.
    Les études sous IRM sont pour le moment trop imprécises pour permettre une étude détaillée et on ne dispose que des observations sur des personnes ayant des maladies cérébrales qui perturbent leur perception des objets et des visages.

Vendredi 29 novembre 2019 à 16:33

http://lancien.cowblog.fr/images/Chats3/chatmoucher.jpg
    J’ai lu récemment des compte-rendus d’études faites depuis 1988 par Martin Sorg et ses collègues de la société d’entomologie de Krefeld, en Rhénanie du Nord, sur les populations d’insectes, leur dénombrement, celui des divers stades de reproduction et aussi sur leur environnement et leur nourriture, mais également sur leurs prédateurs, animaux insectivores.
    Cette étude met en lumière un effondrement de la biomasse des insectes volants, et cela est d’autant plus alarmant que l’étude a été faite au sein de réserves naturelles censées préserver la biodiversité.
    Cette biomasse a diminuée en trois décennies de 76% et même de 82% pendant les mois d’été où les insectes sont plus actifs.
Parallèlement les plantes et les oiseaux ont également diminués en nombre et en variétés.
Ci-dessous deux graphiques quand au nombre d’insectes, l’un selon une droite de régression entre 1990 et 2016, l’autre selon de nuages de mesures, mois par mois,  au cours des années 1990 et 2016.

http://lancien.cowblog.fr/images/ClimatEnergie2/Numeriser2.jpg

    Un autre laboratoire, le centre Helmholtz pour la recherche environnementale, coordonne des recherches concernant le papillons. La courbe ci dessous montre que la diminution est moins forte (environ 11%), et même que dans certaines régions leur biomasse a légèrement augmenté.

http://lancien.cowblog.fr/images/ClimatEnergie2/Numeriser4.jpg
    En se servant de nombreuses observations de bénévoles férius d’entomologie, une estimation de l’évolution sur des périodes allant jusqu’à 150 ans a été faite, sur 7444 espèces d’insectes et on constate que 44 % voient leur nombre diminuer, 41% ont restées stables et seulement 2% ont augmenté, les résultats n’étant pas probants pour 15% dont certaines ont disparu.
    On constate - notamment sur les abeilles et les papillons- que les espèces communes résistent à peu près alors que les espèces rares disparaissent, ce qui après tout est conforme aux lois de l’évolution.

    Il est passible que le changement climatique ait une petite part de responsabilité, difficile à apprécier, mais les responsables sont surtout les changements des méthodes en agriculture. L’agriculture intensive, les fauchages et labours fréquents d’une part détruit une partie de la végétation qui servait d’abri et de garde-manger pour les insectes, de même que l’urbanisation intensive, et d’autre part l’emploi de pesticides est ceratainement la cause majeure de leur disparition.
    Actuellement les espèces courantes ne semblent pas en extinction, mais leur nombre d’individu a fortement diminué en trente ans, notamment en dehors des réserves naturelles.
    Cette diminution est grave car la pollinisation des plantes est tributaire à 40% du sort des insectes.
    Par ailleurs ils servent de nourriture aux oiseaux et la diminution du nombre d’insectes entraine automatiquement une diminution du nombre d’oiseaux.

    Dans la lutte contre le changement climatique, nous ne pouvons pas faire beaucoup de choses individuellement, car c’est au niveau des gouvernements et de l’industrie qu’une action est significative, pour modifier les émissions de gaz à effet de serre et faire évoluer les habitudes de vie, sans perturber exagérément les conditions de travail et de vie..
    Par contre au niveau de la biodiversité, une action de tous les citoyens peut être efficace, mais l’action des pouvoirs publics pour réglementer l’usage des pesticides est essentielle.
    Je constate moi-même sur ma terrasse que en vingt ans, le nombre d’oiseaux a considérablement diminué - à part les pigeons et qu’on ne voit plus beaucoup d’insectes.
Alors j’ai essayé de mettre quelques mangeoires avec des graines et un peu d’eau; mésanges, pinsons, verdiers, rouges-gorges  reviennent peu à peu.
J’ai aussi essayé de planter des plants de nos campagne, et des abeilles et bourdons, scarabées et coccinelles reviennent assez nombreuse butiner sur les fleurs.
    En Bretagne j’essaie tous les étés de planter quelques fleurs et je vois revenir des papillons, mais là bas, le nombre d’oiseaux diminue moins. Ils nichent plus facilement qu’à la ville.

Vendredi 22 novembre 2019 à 8:05

Sciences et techniques

http://lancien.cowblog.fr/images/Sciences2/BarcelonaSegwayT24i.jpg

     Depuis plusieurs années je vois dans les rues des plages de Carnac, en Bretagne, des touristes qui, guidés par un moniteur, utilisent un « Segway », petit mobile électrique doté de 2 grosses roues de part et d’autre d’une petite plate forme sur laquelle on met les pieds, et une colonne avec un guidon qui permet de se tenir.
    J’ai essayé cet engin et j’ai été séduit par la facilité avec laquelle on se déplace (lentement) en maintenant son équilibre sans difficulté et sans apprentissage.



http://lancien.cowblog.fr/images/Sciences2/Unknown-copie-5.jpg

    Puis j’ai vu apparaitre au large des plages les « flyboard marins » conçus par Frank Zapata, constitués par deux tuyères sous une plate forme reliée à deux tuyaux qui proviennent d’un bateau pneumatique à moteur. Dans ce bateau, de puissantes pompes aspirent l’eau de mer, l’envoient dans les tuyères et celles-ci font « voler » la plate-forme.
    Je les ai souvent observés de mon dériveur, et j’avais bien envie d’essayer, mais garder son équilibre me paraissait assez difficile et j’ai assisté à quelques chutes dans l’eau, de 7 ou 8 mètres d’altitude, et, à mon âge, je ne suis plus doué pour ce genre de plongeon.




http://lancien.cowblog.fr/images/Sciences2/3619085232434761.jpg

    Alors c’est avec étonnement que k’ai assisté comme beaucoup d’entre vous à la démonstration de Frank Zapata sue un « flyboard terrestre » lors du défilé du 14 juillet.
C’était assez bluffant et cela avait (en apparence) l’air facile.
    On a vu, lors de sa traversée de la Manche, que cela l’était beaucoup moins, même pour un champion de flysurf, et les vitesses atteintes étaient impressionnantes (160 km/h)
   
    J’ai trouvé sur la revue « Science et avenir » deux schémas de cet engin et je vous les reproduit ci-dessous.
    Elles se passent d’explications, mais je ne serais pas très rassuré d’avoir les pieds au dessus de tels propulseurs. Ce sont des turboréacteurs classiques, avec un compresseur, une chambre de combustion et une tuyère.
    Ce sont les mouvements du pilote qui maîtrisent roulis et tangage, et l’inclinaison de l’engin, qui lui donne sa direction.
Une visière « tête haute » donne au pilote des information fournies par l’électronique : temps, vitesse, consommation, fonctionnement des moteurs, GPS …
           


http://lancien.cowblog.fr/images/Sciences2/Numeriser-copie-1.jpg
http://lancien.cowblog.fr/images/Sciences2/Numeriser1.jpg

    J’ai été stupéfait qu’un engin aussi complexe ait pu être « bricolé » dans un petit atelier, par quelques ingénieurs et techniciens.
    L’engin est révolutionnaire mais a de gros défauts : il faut des jets très puissants et donc il consomme beaucoup et les interactions du jet et de l’air sont extrêmement bruyants (comme un avion à réaction).
    Par ailleurs il faut être un champion de l’ équilibre pour tenir là dessus !
    La Direction générale pour l’Armement s’intéresse à cet appareil, mais il faudra le rendre moins bruyant, avec un rayon d’action plus grand et un mat + guidon comme dans les segways. On envisage des engins de transport de matériel ou de blessés à des endroits où l’hélico ne peut venir, ou un engin pour des commandos (pas très discret !)

<< Page précédente | 1 | 2 | 3 | 4 | 5 | 6 | Page suivante >>

lancien

sortir de la tristesse

Créer un podcast