Samedi 27 juillet 2019 à 19:22

Sciences et techniques

http://lancien.cowblog.fr/images/Image4/orageportable.png

    Un lecteur m’a demandé si porter un téléphone mobile sur soi était dangereux par temps d’orage, si la probabilité de recevoir la foudre était plus grande et si cela en aggravait les dégâts.
    Une correspondante me demande aussi si elle peut vérifier le fonctionnement de son micro-onde en utilisant un portable à l’intérieur et en l’appelant.

    Je ne suis pas particulièrement compétent en la matière, mais je vais essayer de répondre à ces questions.

Portable et foudre

    Effectivement on cite plusieurs cas particuliers de foudroiement de personnes ayant un portable, mais ils ne sont pas très probants.
    D’abord le cas d’une jeune fille de 15 ans, foudroyée alors qu’elle téléphonait avec son mobile dans un parc londonien. Certes elle a survécu, mais continue à avoir de graves problèmes cognitifs et une forte perte d’audition, un an après les faits. Les médecins attribuent ces symptômes au fait qu’elle téléphonait lors de l’incident. Le côté du cerveau où elle tenait le portable a été plus affecté que celui de victimes classiques de la foudre.
    On cite plusieurs cas mortels de personnes frappées par la foudre en téléphonant, en Chine ou en Corée, mais elles seraient sans doute mortes même sans portable.

    Un portable émet des ondes électromagnétiques, mais il est peu probable qu’elles attirent la foudre. Si c’était le cas, les antennes relais qui émettent un champ notablement plus fort seraient souvent frappées, ce qui n’est pas le cas. Pour qu’un équipement attire la foudre il faut qu’il y ait une forte ionisation aurour de lui, principe exploité notamment par les paratonnerres. Or, un mobile a une très faible ionisation, donc le risque qu’il attire la foudre est très faible.
    Par contre tout objet métallique (bague par exemple) peut aggraver les brûlures si l’on est frappé par la foudre (sans que cet objet l’ait attirée). En effet la haute résistance de la peau humaine fait que la foudre circule le long du corps sans y entrer, et es matériaux plus conductibles en contact direct avec la peau tels que des objets métalliques perturbent le phénomène et chauffent fortement.

    Par contre un téléphone portable comporte des puces, circuits électroniques intégrés qui ne supportent pas de faibles pics de tension. Il est évident que frappés par la foudre, ils seront HS, de même que si vous les mettez dans un micro-onde et que vous allumiez ce four.

Portable et four à micro-ondes

    Peut on tester l’étanchéité aux ondes d’un four à icro-ondes éteint, en appelant un téléphone portable que l’on a mis dedans ? (information qui circule sur le Net)
    Cela ne me paraît guère probant.
    D’abord les fours à micro-ondes ne sont pas parfaitement étanches, car il faudrait que toutes les faces métalliques de l’enveloppe soient soudées parfaitement; il y a seulement une atténuation.
Mais les puissances étant très faibles il sort très peu d’un micro-onde, qui est sans danger à l’extérieur.
    Mais un minimum d’ondes du téléphone portable peuvent peut être passer par ces « trous » entre parois métalliques, surtout que leur puissance est très supérieure à celle du micro-onde.
    Sur la porte en verre, , pour empêcher les micro-ondes ed sortir, il y a un grillage métallique. Les fréquence étant de 2,450 GHz, la longueur d’onde , qui est inversement proportionnelle à la fréquence est petite, et les mailles pour être efficaces, doivent être très petites.
    La fréquence des portables étant de 900 ou 1800 hz, la longueur d »onde est mille fois plus grande. Les ondes d’un portable ne passeront pas à travers la grille de la porte.
    On peut tester avec la commande bluetooth du téléphone dont les fréquences sont proches de celles du microonde. En principe le portable ne devrait pas recevoir ces micro-ondes.

    Et ne vous inquiétez pas, vous ne risquez rien du fait des micro-ondes de votre four. Par contre attention de ne pas vous brûler avec les plats que vous avez chauffés à l’intérieur.

Jeudi 13 décembre 2018 à 9:08

Sciences et techniques


     Dans des articles précédents, j’ai parlé du stockage d’énergie solaire ou éolienne, , ou de voiture électriques, dans lesquels les batteries peuvent être une limitation importante.
    Ces batterie interviennent dans notre vie de tous les jours, que ce soit les petites AA ou AAA rechargeables pour les lampes, les postes radio, ma souris d’ordinateur, ou les batteries plates des téléphones portables, ou les plus grandes batteries des outils de jardin.
    Alors faisons le point.

    Toutes ces batteries sont basées sur le même principe, ce sont les produits utilisés qui diffèrent.
    La batterie est un dispositif chimique qui peut stocker de l’énergie électrique et la restituer sur demande.
    Elle est composée d’une électrode négative, l’anode qui va recueillir des ions positifs, et d’une électrode positive, la cathode qui va collecter les électrons qui vont ensuite produire le courant, ces électrodes baignant dans un électrolyte liquide conducteur dans lequel ions et électron vont pouvoir circuler. (voir schéma ci-dessous).
http://lancien.cowblog.fr/images/Sciences2/Unknown.png    Les paramètres de la batterie que l’on cherche à augmenter, par rapport à son poids, sont les suivants :
        - la quantité d’électrons  que l’on peut stocker, que l’on exprime en ampère heure par kg. (c’est la quantité d’électricité qui traverse un conducteur relié à la batterie pour un courant de débit 1 ampère, pendant une durée d’une heure).
        - la quantité d’énergie fournie par la batterie en watts-heure. C’est la capacité en ampères-heure multiplié par la tension aux bornes du circuit (en volts). On cherche à optimiser l’énergie en watts-heure par kg. La résistance interne de la batterie intervient.
        - enfin la fiabilité de la batterie : d’une part il faut que la batterie ne se détériore pas trop vite aux charges successives (on lui demande de tenir au moins 2 000 charges), et la sécurité impose d’exclure les risques d’incendie (voire d’explosion) et plus généralement de trop grande surchauffe.
        - toutefois on peut aussi optimiser, pour certaines applications la puissance, c’es-à-dire la vitesse avec laquelle on peut charger ou décharger la batterie et en particulier le courant de crête qui peut être fourni pendant un court instant.
        - un dernier aspect d’entretien : il faut limiter l’impact environnemental des batteries, dont les composants peuvent être nocifs.

    Les batteries AA ou AAA (piles rechargeables), étaient des batteries au nickel-cadmium. Les électrodes sont en hydroxyde de nickel et en cadmium, et l’électrolyte est de la potasse.
    Ce type de batteries est facile à charger, fiable (elles tiennent environ 1600 charges et ont une durée de vie entre 2 et 3 ans), peu sensible à la température. de résistance interne faible et de coût faible. Par contre, elles perdent leur charge hors utilisation (20% par mois) et n’ont pas une grande énergie (40 à 60 Wh/kg). La tension nominale d’un élément est de 1,6 volt.    .
    Le cadmium étant un métal lourd nocif, il faut recycler ces batteries et pour le grand public
    Les batteries industrielles sont encore en Cd-Ni mais sont plus importantes et ont une durée de vie plus grande.
    Par contre dans les batteries grand public, le cadmium a été remplacé par un alliage d’hydrure à bas de nickel, de cobalt et de terres rares. (batteries Ni-Mh). Ces accumulateurs sont moins fiables (moins de cycles) et demandent de temps long de charge (12h) pour éviter les courants trop forts qui les dégradent. Les chargeurs doivent être dotés d’un système de détection de fin de charge.

    Les batteries de voitures à essence sont des batteries « au plomb », qui ont été inventées en 1854.  L’anode (négatif) est un ensemble de grilles d’alliage plomb-étain et éventuellement arsenic, remplies de plomb métallique poreux. la cathode (positif) est constituée de grilles analogues, mais remplies avec une pâte d’oxyde de plomb PbO2, et l’électrolyte est de l’acide sulfurique. Un séparateur isolant empêche les courts circuits entre plaques positives et négatives, tout en étant poreux et résistant à l’acide sulfurique (c’est un matériau à base de fibres cellulosiques).
    Le principe de fonctionnement est décrit sur le schéma ci-dessous    :
http://lancien.cowblog.fr/images/Sciences2/9688603616.jpg
     A la décharge l’électrolyte se détruit et les électrodes se sulfatent en libérant les électrons de l’ion SO4-. L’oxygène libéré à la cathode s’unit aux ions H+ pour donner de l’eau. A la charge les électrodes se désulfatent et l’électrolyte est régénéré.
    La tension est de 2,1 volts par élément. L’énergie fournie est faible : 35 Wh/kg, mais elle peut fournir un courant crête élevé au démarrage du moteur de la voiture. Une décharge totale de la batterie estnocive à sa durée de vie.

    Les batteries au CdNi des petits appareils ménagers ou de bricolage et des téléphones et ordinateurs portables, sont maintenant remplacées par des batteries lithium-ions.
    Le lithium est intéressant car il expulse facilement un électron et c’est le plus léger des métaux
    La cathode est en dioxyde de cobalt et l’anode en graphite. L’électrolyte est un sel de lithium dissous dans des molécules organiques que l’on inclue dans des polymères; il est isolant électrique, mais laisse passer les ions.
    Le principe de fonctionnement  est le suivant :
http://lancien.cowblog.fr/images/Sciences2/Unknown1-copie-2.jpg
    A la décharge le lithium stocké dans l’anode de graphique pour laquelle il a peu d’affinité cède son électron, qui ne peut migrer dans l’électrolyte isolant, tandis que l’ion Li+ libéré va se diriger vers l’électrode de cobalt pour laquelle il a une affinité plus grande, formant un oxyde de lithium-cobalt, en ayant récupéré son électron par le circuit électrique. La batterie supporte mal une décharge totale. (il est recommandé de charger fréquemment son téléphone portable
    A la charge, on extrait de la cathode le lithium qui va à nouveau se stocker dans l’électrode négative de graphite. La charge est beaucoup plus rapide que pour les accumulateurs Cd-Mh.
    La tension nominale d’un élément est de 3,6 volt.
    L’inconvénient de ces batteries est la surchauffe très importante qui peut se produire en cas de défaut et l’électrolyte qui st corrosif en cas de fuite. Les batteries doivent être dotée d’un fusible thermique et d’une soupape de sécurité pou éviter les surpressions qui pourraient les faire exploser.
    A l’origine les batteries Li-ions avaient déjà une énergie beaucoup plus fortes que les Cd-NI : 1500 Wh/kg. On atteint maintenant 2400 Wh/kg. On a introduit dans l’électrode de cobalt des alliages cobalt, nickel, manganèse.
    Les durées de vie sont de 3/4 ans pour les petites batteries, (voire moins si on les laisse complètement décharger)mais une quinzaine d’années pour les accumulateurs des voitures électriques.
    Le lithium et le cobalt sont des métaux rares, produits en certains endroits seulement, mais on peut recycler celui des batteries. Il ne faut donc pas craindre de pénurie. Des essais ont été faits pour remplacer le lithium par du sodium, mais l’énergie massique ne dépasse pas 100Wh/kg/
    Les batteries de voitures électrique sont donc des batteries li-ion. Par contreelles sont insuffisantes pour le stockage d’énergie solaire, qui se fait actuellement à 94% par remontée d’eau dans des réservoirs en altitude.
    Une solution sera peut être prometteuse d’ici quelques années : des batteries à électrolytes solides qui laissent passer les ions, et qui utiliseraient du sodium à la place du lithium. Les études concernent les électrolytes, matériaux composites inorganiques, souvent des mélanges de fluorure ou chlorures métalliques.
    On espère une capacité deux à trois fois plus grande que les batterie Li-ions à poids égal et une meilleure sécurité car l’électrolyte est ininflammable..
    Les entreprises asiatiques et SAFT en France) qui font ces recherches, pensent avoir des batteries utilisables en 2025.

Jeudi 26 octobre 2017 à 11:54

Sciences et techniques

          Dans le dernier article, je vous avais expliqué le fonctionnement d’un réfrigérateur classique et du ou des thermostats qui commandent son fonctionnement.
           Je vais maintenant vous expliquer les problèmes de dégivrage et de ventilation intérieure.

          Le compartiment d’un réfrigérateur non ventilé comporte en général un système de dégivrage, semi automatique ou automatique.
          En effet les aliments contenus dans le réfrigérateur sont plus ou moins humides et l’eau qui s’évapore se condense sous forme de glace qui se dépose par condensation sur les parois froides du compartiment. Cette couche de givre qui est isolante, limite les échanges de chaleur, et le système se met donc à fonctionner plus souvent et l'appareil consomme plus. Il faut donc éliminer cette couche de givre
          Pendant le dégivrage, le compresseur est arrêté et une résistance électrique dans la paroi du compartiment chauffe cette paroi pour faire fondre la glace.
          Dans les matériels semi-automatiques, il faut déclencher le dégivrage en appuyant sur un bouton, et le réfrigérateur se remet en route quand la température du compartiment est trop remontée. Si toute la glace n’a pas fondu, il faut recommencer l’opération quand la température du compartiment est suffisamment redescendue pour conserver les aliments.
          Dans les matériels automatiques, l’électronique déclenche à intervalles réguliers de mini-dégivrages, qui empêchent la couche de glace de se former de façon importante en l’éliminant à chaque fois.
Un système de rigoles conduit l’eau produite par la fonte de la glace, dans un récipient près du compresseur, dont la chaleur fait évaporer cette eau de fonte.
          Par contre, dans un réfrigérateur classique, il n’y a pas de dégivrage automatique dans le congélateur et l’on doit à intervalles réguliers gratter la couche de glace en arrêtant provisoirement cet appareil quelques heures, après évidemment l’avoir vidé.

          Parlons maintenant de la ventilation.
          Il existe trois possibilités : le froid statique, brassé ou ventilé.

          Le froid statique est le type de froid classique des réfrigérateurs : il n’y a pas de ventilateur interne et l’air circule peu. Il rentre de l’air chaud chaque fois qu’on ouvre la porte et celui ci a tendance à monter dans l’enceinte.. Il a pour inconvénient la «stratification» du froid : le haut de l’enceinte est plus chaud de deux à tris degrés et la zone froide se situe dans le bas.
Dans mon ancien réfrigérateur, j’avais 4d°C sur les plateaux du bas, 7 d° sur celui du haut et 9d° dans le bac à légumes fermé.

          Le froid brassé, aussi appelé froid dynamique maintient une température homogène dans tout le compartiment grâce au brassage de l’air. Dans le fond de la cabine, un ventilateur brasse l'air dès que le moteur se met en route, notamment lorsque la porte vient d'être ouverte. Son avantage réside dans sa capacité à faire redescendre la température rapidement après l’ouverture de la porte. Il conserve aussi l’humidité naturelle des aliments, préservant leur fraîcheur et leurs vitamines.
          Ceci n’existe que dans les réfrigérateurs et ne concernait pas les congélateurs, sauf dans quelques réfrigérateurs-congélateurs américains à deux compresseurs.

          Enfin, le froid ventilé, aussi appelé technologie « No Frost » est apparu depuis deux à trois ans, de façon courante, et à un prix raisonnable, dans les réfrigérateurs-congélateurs vendus en France.
 
http://lancien.cowblog.fr/images/Sciences2/P1030107.jpg        
L’air est ventilé à la fois dans le congélateur et dans le réfrigérateur, par un ventilateur qui est en fonctionnement permanent, mais consomme peu d’énergie.
          La température du congélateur est commandée par un thermostat classique qui actionne le compresseur en temps utile. La température y est en général entre -15 d° et -18d°C, mais si vous voulez congeler un aliment frais, vous pouvez descendre à -35, pendant le temps de la congélation et revenir ensuite à - 18 d°C.




http://lancien.cowblog.fr/images/Sciences2/P1030106.jpg 

         Le thermostat du réfrigérateur ne commande pas le moteur du compresseur, mais un volet qui commande le débit d’air ventilé depuis le compartiment congélateur, vers le compartiment réfrigérateur. Le volet de débit d’air est évidemment beaucoup plus fermé si vous congelez à -35d° que si votre congélateur reste à - 18d°.
          Le contrôle de ce fonctionnement est assuré par un microprocesseur.
          L’air froid ventilé dans le compartiment du réfrigérateur y assure le maintien d’une température constante et homogène. Après l'ouverture de la porte, la température est rétablie très  rapidement. La congélation est elle aussi plus rapide.
L’arrivée d’air étant en haut du compartiment réfrigérateur, la température est un peu plus basse en haut mais à peine.
          Dans mon congélateur j’ai partout -18d°C et dans mon réfrigérateur, 4d°C sur les plateaux du haut, 5 d° sur celui du bas et 7 d° dans le bac à légumes fermé.





          Le schéma ci dessous montre la répartition du froid dans les trois types de réfrigérateur, à la suite d’essais en usine :

http://lancien.cowblog.fr/images/Sciences2/FroidssourceLG-copie-1.jpg
          Par ailleurs, la technologie No Frost de ventilation évite la formation de givre ou de glace, tant dans le congélateur que dans le réfrigérateur, et elle permet d'économiser de l'énergie.
Le seul inconvénient de cette technologie est qu'elle a tendance à favoriser le dessèchement des aliments, il faut donc les emballer ou les garder dans des boîtes, sauf dans le tiroir du bas fermé, qui n’est pas ventilé.

          Personnellement je trouve que cette technique est un véritable progrès.


Dimanche 22 octobre 2017 à 11:36

Sciences et techniques

          Mon vieux frigo, qui avait quelques dizaines d’années, étant mort (fuite de gaz et on n’utilise plus les mêmes gaz réfrigérants aujourd’hui), j’ai dû en acheter un neuf et je me suis orienté vers un combiné frigo-congélateur « ventilé » dit « sans givre » (« no frost »).
A la suite d’une petite panne, vite éliminée, j’ai été amené à me pencher sur le fonctionnement de l’appareil, très différent de celui des anciens frigos et j’ai pensé que cela pourrait vous intéresser.

          Voyons d’abord comment fonctionne un frigo et éventuellement le congélateur, quant à la production du froid, en nous servant du schéma ci-dessous.

          Le réfrigérateur utilise un fluide réfrigérant, sélectionné principalement pour sa grande propriété d'absorption de chaleur, des températures caractéristiques de changement d’état (liquide à gaz), en fonction de la pression, et ces pressions doivent permettre l’utilisation dans des tuyauteries d’épaisseur raisonnable.
Enfin il ne doivent pas être nocifs, ni pour l’homme, ni pour l’environnement.
          Ces gaz ont longtemps été des hydrochlorofluorocarbones, tel le fréon, qui contribuaient à détruire la couche d’ozone. Le chlore a été supprimé, mais ces gaz sont nocifs au plan effet de serre, plusieurs milliers de fois supérieur à celui du CO2.
          Les fluides maintenant utilisés sont des propanes et des isobutanes; ils ne contiennent plus de fluor, mais ont l’inconvénient d’être inflammables. Toutefois un frigo en contient peu.

http://lancien.cowblog.fr/images/Sciences2/schemacongelateur.jpg

          Comment le frigo produit il du froid?
          Pour examiner le fonctionnement du circuit de refroidissement, partons du compresseur : c’est un moteur électrique qui comprime le fluide réfrigérant, initialement gazeux et froid, qui sort de l’intérieur du réfrigérateur, ce qui élève sa température et sa pression.
          A la sortie du compresseur, le fluide est donc un gaz chaud (vers 40 d°C), et à haute pression.
          Ce gaz passe alors par un « condenseur », tuyau serpentin fixé dur une grille métallique qui augmente la surface de refroidissement par l’air. Elle est en général située à l’extérieur et à l’arrière du réfrigérateur.
Le gaz se refroidit et change d’état, devenant liquide.
          A la sortie du condenseur, le fluide est donc un liquide à température voisine de l’ambiante et à haute pression.
          Ce liquide traverse un détendeur qui lui offre un volume plus grand. La pression chute brutalement et le liquide se vaporise partiellement engendrant une forte diminution de température, d’au moins 15 d°, mais qui peut atteindre moins 50 d° dans un congélateur.
          A la sortie du détendeur, le fluide est donc un mélange vapeur- gouttelettes de liquide à température très basse et à basse pression.
          Ce mélange va passer alors dans un évaporateur, tuyau serpentin logé dans la paroi de la chambre froide, souvent au contact d’une plaque métallique qui augmente le contact avec l’air de l’intérieur du frigo.
          Le fluide qui circule dans cet évaporateur continue à s’évaporer en absorbant la chaleur cédée par des aliments placés à l'intérieur du réfrigérateur.
          A la sortie de l’évaporateur, le fluide est, à l’état gazeux, très froid et à basse pression. Il repart vers le compresseur pour un nouveau cycle thermique.

          Ce cycle est le même pour toutes les enceintes à refroidir.
http://lancien.cowblog.fr/images/Sciences2/refrigerateurraypoizat.jpg

          Dans les frigos même récents un thermostat, constitué d’un petit soufflet relié à une sonde, remplis d’un gaz, se dilatait en fonction de la température et actionnait deux contacts à des repères de température au degré près, contacts qui entrainaient le démarrage ou l’arrêt du compresseur et du cycle de refroidissement.
          Dans les réfrigérateurs-congélateurs, il y a deux circuits séparés de refroidissement à des températures différentes commandées par deux thermostats spécifiques de chaque compartiment. Ces deux circuit sont soit reliés chacun à un compresseur spécifique, soit le plus souvent à un seul compresseur avec des clapets.
          Une petite électronique simple commande les clapets de basculement du compresseur et inhibe le thermostat d’un compartiment lorsque l’autre est en cours de refroidissement..

          Je vous parlerai dans un prochain article du dégivrage et des réfrigérateurs-congélateurs « ventilé » dit « sans givre » (« no frost »), de leur fonctionnement et de leurs avantages et inconvénients par rapport aux matériels classiques.

Dimanche 15 octobre 2017 à 11:01

Sciences et techniques

    J’ai fait plusieurs articles sur la Terre et les planètes mais pas sur notre soleil, qui nous éclaire tous les jours. J’ai pourtant lu quelques articles notamment dans les revues « Pour la Science » et « La Recherche », et sur in ternet

        Que dire sur cet astre ?

    Le soleil est né, avec le système solaire, il y a environ 4,7 milliards d’années. Ce chiffre est acquit à partir de la datation de roches terrestres, lunaires et de celle de météorites.
    Comme beaucoup d’étoiles, il s’est probablement formé par contraction des gaz et des poussières de l’espace environnant de la nébuleuse, sous l’effet de la gravité, ce qui provoque une forte élévation de la température. Au bout de quelques dizaines de millions d’années, cette température est suffisamment élevée pour qu’aient lieu les premières réaction thermonucléaires de fusion de l’hydrogène, qui le transforment principalement en hélium.
    La masse de matière de la nébuleuse initiale était en rotation et s’est aplatie, ce qui a permis à des matériaux d’échapper à l’attraction solaire et de former des planètes, concentrées dans un  même plan.
    Mais un jour, le soleil mourra d’une longue agonie.
    Chaque seconde le soleil convertit 600 millions de tonnes d’hydrogène en hélium.
    La réserve d’hydrogène va donc diminuer peu à peu, mais le soleil a encore de l’ordre de 5 milliards d’années de vie. Il augmentera de volume d’environ 20%, de luminosité d’environ 50% et deviendra une étoile rouge dans laquelle l’hélium fusionnera en carbone, puis en azote et en oxygène, mais en produisant moins d’énergie. Il absorbera les planètes qui l’entourent.
    Puis au bout de quelques centaines de millions d’années, il se refroidira et deviendra une « naine blanche » de la taille de la Terre, mais avec une densité d’une tonne par cm3, ce qui est évidemment encore considérable, entourée d’une coquille de gaz en expansion. Cette naine blanche se refroidira très lentement en 10 milliard d'années, laissant une naine noire, froide et morte.
    D’où vient actuellement son énergie : de réactions thermonucléaires dans lesquelles le soleil transforme de l’hydrogène en hélium, avec une perte de masse qui se transforme en énergie (E = mc2, équation d’Einstein qui lie la masse à l’énergie), mais ces réactions nécessitent une température de plusieurs millions de degrés C.
    Au centre du soleil, la température est supérieure à 15 millions de d°C,  et la pression de 240 milliards de fois la pression atmosphérique de notre terre.   
    C’est à partir de cette énergie que le soleil nous envoie sa lumière et sa chaleur, mais le phénomène est complexe et nécessite qu’on parle de sa structure.
   
    La structure du soleil est faite de gaz, essentiellement hydrogène et hélium mais on trouve du carbone, de l’oxygène, du calcium, du fer, du titane, du manganèse… Sa limite extérieure n’est donc pas bien définie.
    Sur le schéma ci dessous on distinguera :

http://lancien.cowblog.fr/images/Sciences2/structuresoleil1.jpg

    Le soleil est sphérique, d’environ 1 400 000 km de diamètre, avec un léger aplatissement aux pôles, et tourne sur lui même en environ 25 jours, mais la vitesse est plus forte à l’équateur qu’aux pôles (ce sont des gaz!).
    Le coeur du soleil est à environ 15,5 millions de degrés, puis la température et la pression diminuent dans deux zones : une zone radiative qui, avec le coeur a un rayon d’environ 500 000 km et une zone convective d’épaisseur 200 000 km.
    Dans la zone radiative, la chaleur est transmise par des radiations thermique et la température décroit de 10 millions à 500 000 degrés C. Les atomes d’hydrogène et d’hélium ionisés émettent des photons, mais ceux qui n’ont qu’une faible énergie sont réabsorbés par les ions. Seuls les rayons x et gamma de haute énergie, vont se propager en étant absorbés et réémis à plus faible énergie : les photons émis au centre du soleil mettent deux millions d’années pour atteindre sa surface !
    Entre la zone radiative et la zone convective une zone de quelques milliers de km d’épaisseur est le siège de champs magnétiques très intenses.
    A la limite de la zone radiative, la température et la densité des gaz ne sont plus suffisantes pour que les photons puissent transporter l’énergie par radiation, et la zone convective va évacuer le surplus d’énergie grâce à de violents courants de convection, qui emmènent la chaleur en surface, puis replongent pour recevoir de la chaleur et l’évacuer à nouveau vers l’extérieur. Ces turbulences provoquent une polarité magnétique à la surface du soleil.
    A la limite de la zone de convection, la température n’’est plus que d’environ 5 500 d°C.

    Les couches superficielles sont très minces :
        -  la photosphère n’a que 500 km d’épaisseur et c’est d’elle que provient la lumière du soleil, qui correspond à un spectre de photos provenant d’un corps à 5500 d°.
Elle est animée de convections analogues à celles de la couche de convection, les courants ascendants remontant vers la surface à environ 500m/S et y émettant alors la lumière; ces courants ascendants ont environ 1000 km de diamètre et donnent au soleil un aspect granuleux, chaque granule durant environ 8 minutes, avant de disparaître.
    La photosphère émet 51% du rayonnement dans l’infra-rouge, 41% dans le visible, et 7% dans l’ultra-violet, les 1% restant étant émis sous forme d’autres particules que les photons.
        - la chromosphère a environ 2000 km d’épaisseur. La température remonte peu à peu pour atteindre à sa surface, environ 100 000 d°C; elle n’est visible que pendant une éclipse, sous forme d’une couche de couleur rosatre, due au rayonnement des atomes d’hélium à cette température.

    Au delà de ces couches on trouve une zone  peu dense d’ions hydrogène et hélium principalement, que l’on appelle « l’atmosphère solaire » et dont la température remonte à plusieurs millions de degrés.
    Les couches superficielles se comportent comme un plasma ionisé, qui, chauffé par en dessous, forme en quelque sorte des bulles et créent des « jets magnétiques (en jaune sur la simulation d’ordinateur ci-dessous). Ce sont ces champs magnétiques sui agissant sure les ions hydrogène et hélium, feraient remonter la température de l’atmosphère solaire, jusqu’à quelques millions de degrés.
    Ces champs magnétiques sont visibles sous forme te « taches solaires »

http://lancien.cowblog.fr/images/Sciences2/14079150.jpghttp://lancien.cowblog.fr/images/Sciences2/220pxRingoffire.jpg












 
   Associés à des champs électriques, ils projettent des jets de matière hors de la surface, à des centaines de milliers de km d’altitude, lesquels entraînent de l’énergie et retombe ensuite vers la surface, ce qui est observé sous la forme des « éruptions solaires », qui durent de quelques secondes à quelques heures et sont accompagnées de flashs d’ondes radio, de lumière visible, mais aussi de rayons X et gamma.
    Les émissions radio sont une source intéressante captée par les radiotélescopes, mais peuvent aussi perturber les transmissions, tandis que les rayonnements durs, qui créent des électrons dans l’atmosphère terrestre, lesquels sont concentrés aux pôles par le champ magnétique terrestre, excitent les atomes d’oxygène et d’azote, donnant des « aurores boréales ».
    En outre les réactions nucléaires du noyau du soleil, émettent des neutrinos, qui, de charge nulle et de masse très faible, n’ayant que très peu d’interaction avec la matière, sortent facilement du soleil, se propagent dans l’espace et traversent la Terre. Leur détection demande donc des expériences complexes.   

Samedi 6 mai 2017 à 9:04

Sciences et techniques

 Dans mon dernier article, nous avons vu les avantages et inconvénients d’une voiture électrique, parlons maintenant des voitures hybrides.
    En fait les voitures hybrides ne sont pas des voitures électriques, ce sont des voitures à moteur thermique, dans lesquelles un petit moteur électrique vient assister le moteur thermiques dans certains cas et si l’on voulait circuler en tout électrique, on ne ferait que quelques kilomètres. D’ailleurs elles ne se rechargent pas pour la plupart.
    Comment cela fonctionne t’il. ? Disposant du schéma d’une BMW, c’est à partir de là que je décrirai un fonctionnement qui toutefois n’est pas général.

    D’abord quel est le but poursuivi : pas de se propulser à l’électricité, mais d’éviter de faire fonctionner le moteur thermique de la voiture dans des plages où son rendement n’est pas bon (à basse vitesse principalement),  et d’autre part de récupérer de l’énergie au freinage au lieu de la dissiper en chaleur dans les freins.
    On peut ainsi diminuer la consommation d’essence, et donc la production de CO2, voire se contenter d’un moteur un peu moins puissant car quand son rendement est trop faible le moteur électrique l’assiste.

    Dans certaines voitures un moteur électrique est intégré dans la boîte de vitesse du moteur thermique, et fournit la propulsion quand la demande de puissance est faible, (et que le rendement du moteur thermique est mauvais), ou ajoute son énergie quand le demande est importante mais la vitesse de la voiture faible (démarrage, côte..).
    L’énergie électrique est fournie par une batterie et un ordinateur gère la contribution de la batterie à la propulsion
    Lorsque la puissance demandée est inférieure à celle fournie par le moteur thermique (vitesse constante sur route) ou que le moteur freine la voiture, un alternateur charge alors la batterie, en récupérant l’énergie superflue du moteur thermique ou celle de freinage. La batterie est relativement modeste en coût et en poids.
    C’est donc un système complexe et cher, en espérant qu’il soit fiable et en tout électrique on ne fait que 2 ou 3 km..

    Mais on peut faire mieux et plus cher comme « usine à gaz », si on veut faire une voiture hybride « rechargeable qui ait une autonomie électrique de 20 ou 30 km.

    On peut d’abord augmenter les batteries, mais cela augment le poids et le coût.
    Mais c’est trop simple et c’est tellement mieux de faire compliqué.
    Alors on propulse la voiture séparément par un moteur thermique et un moteur électrique. Le moteur thermique est, à l’avant, relié normalement au train avant et le moteur électrique est sur l’essieu arrière (voir schéma ci-dessous).
On peut fonctionner avec un seul moteur ou avec les deux, l’ordinateur gérant alors la contribution de chacun.

http://lancien.cowblog.fr/images/Sciences2/coverr4x3w1000578e85a1c5ddavolkswagenpassatgte20150.jpg
    Les gains en carburant sont plus importants, on peut se servir en ville du tout électrique et de ses avantages, mais le coût de la voiture est notablement plus élevé.
    C’est ce que l’on appelle une « hybride parallèle ».
    Le moteur thermique recharge les batteries, mais lentement et donc si l’on fait beaucoup de tout électrique, il faut recharger la batterie la nuit.

    On aurait pu faire plus simple, ce que l’on appelle les « hybrides série », mais pour le moment, les constructeurs n’utilisent pas cette technique, sauf exception dans des voitures de luxe très chères 
    Là c’est simple : c’est une voiture électrique avec des batteries très importantes lourdes et chères, et deux moteurs électriques sur les roues.
    En plus on a un petit moteur thermique qui fonctionne à vitesse constante et recharge les batteries, comme si on avait un groupe électrogène à bord.
    Là c’est simple, c’est une vraie voiture électrique, qui peut rouler en électrique en ville et faire des centaines de kilomètres sur route à condition de mettre de l’essence dans le réservoir. Malheureusement cette voiture n’existe pratiquement pas et elle est hors de prix. On espère tout de même que ce sera l’hybride de demain à un prix plus raisonnable.
    Mais actuellement son poids et son prix ne la rendent pas rentable par rapport à une voiture à essence.

    La voiture hybride est donc un engin compliqué, extrêmement cher, pour personnes riches passionnées d’écologie.
    Demain si les voitures hybrides parallèles se développent, elles seront techniquement bien plus intéressantes, mais le problème du prix reste pour le moment entier.
    Tout dépend aussi de l’autonomie que pourront avoir des voitures entièrement électriques avec de futures batteries et moteurs, et de leur prix
    Mais actuellement aucune hybride n’est rentable par rapport à une voiture à essence, en raison de son  prix. Il faut faire plus de 15 000 km de ville par an pour la rentabiliser et encore, ce n'est pas sûr, car les consommations réelles sont deux fois supérieures à celles annoncées dans des tests normalisés absurdes et non représentatifs de la réalité.

    Alors il ne faut pas s'étonner si elles n'ont guère de succès. 
    Personnellement je n'achèterai une hybride que lorsque ce sera une voiture électrique avec un générateur électrogène associé et qu'elle soit à un prix abordable. Mais je crois que je serai mort avant.


.

Mercredi 3 mai 2017 à 8:22

Sciences et techniques

      Il y a quatre ou cinq ans, on, nous prédisait un essor important de la voiture électrique, puis des voitures « hybrides ». En fait on s’aperçoit qu’il n’en est rien et que si les voitures électriques en location en ville sont relativement utilisées, les acheteurs de voitures électriques sont peu nombreux et ceux de voitures hybrides ne le sont pas plus.
    En fait la voiture électrique n’a qu’une autonomie très limitée et ne peut servir qu’en ville, et la voiture hybride n’est pour le moment qu’un gadget qui n’a rien d’une voiture électrique et est d’un coût prohibitif, donc pas rentable.
    Je vais d’abord parler de la voiture électrique puis dans un prochain article, des hybrides.
    Je ne vous parlerai pas des divers modèles, vous pouvez les trouver sur internet.

    En fait le moteur électrique est très supérieur au moteur thermique car il a un bien meilleur rendement aux basses vitesses et peut fournir un  couple important.; un stator fixe produit un champ magnétique fixe piloté par le courant continu qui le traverse, et un rotor va subir une force sous l’effet de ce champ magnétique, qui le fait tourner quand on le fait traverser par un courant. On maîtrise le couple fourni par le moteur en maîtrisant les deux courants de l’inducteur (stator) et de l’induit (rotor).
    On n’a donc pas besoin d’un changement de vitesse, et de plus en inversant le courant on peut freiner la machine et récupérer de l’énergie.
    On sait faire maintenant des moteurs relativement petits au rendement supérieur à 90 %, à comparer à des rendements des moteurs thermiques de l’ordre de 40 %.
    Ce ne sont plus des moteurs à courant continu, mais des moteurs asynchrones car on s le courant continu en alternatif grâce à un onduleur. Le stator est souvent un aimant permanent.
    Actuellement les moteurs sont assez volumineux et sont placés soit à l’avant du véhicule avec une transmission aux essieux, soit sur l’essieu arrière. Il est probable que dans le futur des moteurs plus petits seront implantés dans les roues.

http://lancien.cowblog.fr/images/Sciences2/vwegolf20170002657x420-copie-1.jpghttp://lancien.cowblog.fr/images/Sciences2/differentielvoitureelectrique-copie-1.jpg
 









    J’ai eu l’occasion de conduire une voiture électrique.
    Quand vous entrez dans l’habitacle, ce n’est pas différent d’une voiture normale, si ce n’est qu’il n’y a pas de changement de vitesse.
    Quand vous démarrez l’absence de bruit est bizarre car on est tellement habitué à surveiller le moteur à son bruit.
    Mais l’accélération est rapide et la voiture est souple Tout va bien.
    Par contre la première fois où vous vous arrêtez, vous avez intérêt à le faire dans un endroit sans autre voiture ! Il faut perdre l’habitude de lâcher l’accélérateur d’un coup pour passer sur la pédale de frein.  Dès que vous lâchez l’accélérateur, le moteur freine énormément. Sauf freinage d’urgence, vous n’avez presque pas besoin de vous servir du frein : un peu en fin de course pour s’arrêter. Et si vous freinez comme sur une voiture normale, on risque de vous renter dans l’arrière. Mais on s’habitue vite.
    Bref en ville c’est aussi agréable qu’une voiture normale. Il faut simplement faire attention car piétons et cyclistes ne vous entendent pas arriver.
    Sur autoroute on peut atteindre sans problème les 130kmh.

    Mais le problème est l’autonomie. En ville c’est de l’ordre de 70/80 km, mais sans chauffage, radio, essuie-glaces et autres accessoires.
    Sur autoroute à 130, je ne sais pas mais plus de moitié moins.
    On peut charger la batterie en 6h sur une prise 16A domestique et sur les prises spéciales disponibles da,s les rues en 2h environ.
    Pour une voiture de ville notamment pour son travail c’est vraiment très commode.
    Mais évidement pas question d’aller en vacances avec !!

    Le prix est très cher, même avec les aides actuelles et ce n’est rentable que si l’on fait à peu près 15 à 20 000 km par an en ville.
    Que se passera t’il dans les prochaines années ? On annonce des voitures à plus grande autonomie; mais les chiffres annoncés résultent de tests standardisés en laboratoire. En fait la pratique semble assez différente d’après les journaux d’automobiles.
    Les 300 ou 400 km annoncés se réduisent à moins de 100 si vous roulez à 130 sur autoroute, en utilisant quelques accessoires.
    Le poids des voiture a augmenté, (batteries) le prix aussi. Plus de 25000 € pour une petite voiture.
    Surtout vous ne pouvez plus recharger totalement la batterie en une nuit chez vous, sauf achat d’une borne et installation d’un compteur 36 kVA, ce qui est fort onéreux : de l’ordre de 3000 € en plus. Donc il faut utiliser les bornes des villes et des routes et pour le moment, le réseau n’est pas suffisant.

    Finalement bien que la voiture électrique soit très agréable à conduire, elle reste aujourd’hui, très chère avec une autonomie limitée. C’est donc soit une très bonne voiture de ville pour des riches, soit une voiture rentable en ville pour une société ou une personne qui fait plus de 20 000 km par an en ville, ce qui reste assez rare, et sans faire plus de 50/70 km par jour.
    Pas étonnant que les ventes ne dépassent pas 0,5% des ventes de voitures neuves.

    Dans le prochain article, je parlerai des voitures hybrides
  

Mercredi 22 mars 2017 à 10:04

Sciences et techniques

Une correspondante me demande de lui expliquer ce qu’est un e chaudière à condensation.
        Je vais essayer de le faire mais avant il faut que j’explique comment est organisée une chaudière normale.


        Les chaudières qui ont une dizaine d’années n’étaient pas des chaudières à condensation.
        Elles sont constituées de 5 éléments :
            • Une enveloppe extérieure, en acier ou en fonte, qui conserve mieux la chaleur. Elle comporte une isolation thermique intermédiaire, en général en laine de roche, pour limiter les pertes de chaleur de la chaudière vers l’atmosphère de la chaufferie.
            • A l’intérieur de l’enveloppe un  réservoir d’eau avec des compartiments successifs dans lesquels l’eau circule et va se réchauffer.
            • Le brûleur dont l’électronique va réguler la combustion, de fioul ou de gaz, et va permettre de faire varier la puissance de la chaudière en fonction des besoins de chauffage.
            Les chaudières à gaz ont une rampe analogue aux feux d’une cuisinière; les chaudières à fioul ont des gicleurs qui pulvérisent le combustible en fines gouttes. Par ailleurs le brûleur est muni d’une soufflante qui envoie l’air nécessaire à la combustion, par son oxygène.
            L’électronique du brûleur comporte des systèmes de contrôle qui garantissent la sécurité - notamment pour le gaz, le fioul liquide étant moins dangereux (incendie mais pas d’explosion).
            • Le corps de chauffe qui est une chambre d’acier ou fonte, où la flamme produite par le brûleur transfère l’énergie de combustion aux éléments métalliques de la chaudière et à l’eau de chauffage. C’est là que sont créent les fumées de combustion composées principalement de CO2 et d’eau et de quelques impuretés telles que les oxydes d’azote.
            • Les conduites de fumées internes : les fumées circulent dans la chaudière dans des tuyauteries de faible diamètre, et transfèrent également une partie de leur énergie à l’eau. Les tuyauteries font circuler plusieurs fois (en général trois fois) les fumées pour qu’elles cèdent le maximum d’énergie.
http://lancien.cowblog.fr/images/Sciences2/chaudiere.jpg               A l’extérieur de la chaudière les fumées sont conduites par une tuyauterie vers la cheminée. Dans le cas d’évacuation de vapeur d’eau (gaz notamment), la cheminée doit être tubée intérieurement grâce à un tube en inox, pour éviter les dégradations.

        L’eau chaude qui sort de la chaudière est envoyée par une pompe dans un circuit primaire. Sa température est régulée par un thermostat qui actionne le brûleur. Elle est dans la plupart des cas entre 70 et 90 d°C.
        Certaines chaudières fonctionnent à température plus basse, mais il faut alors dans les locaux un chauffage par le sol ou des radiateurs spéciaux
        L’eau du circuit primaire est mélangée à l’eau qui revient des radiateurs par une vanne « 3 voies », et réchauffe cette eau qui est renvoyée dans les radiateurs à une température qui est en général fixée par une régulation électronique, et qui dépend d’une part de la température extérieure météorologique, et de la température que l’on veut avoir dans les pièces.

Qu‘est ce qu’une chaudière à condensation ?

        Les pertes principales de chaleur d’une chaudière classiques sont la chaleur emportée par les fumées, qui peuvent sortir de la chaudière entre 150 et 300 d°, d’où l’idée d’essayer d’utiliser cette chaleur dans un échangeur, pour en récupérer une partie.
        Dans les fumées, il y a du CO2 chaud qui peut céder de la chaleur et de la vapeur d’eau : si on pouvait la liquéfier à nouveau on récupère alors de la chaleur : la chaleur latente de condensation.
        On fait donc passer dans les tuyauteries d’évacuation des fumées, l’eau à basse température de retour des radiateurs. Cette eau récupère une partie de la chaleur du CO2 et, si elle arrive à suffisamment basse température et peut amener la condensation de la vapeur d’eau des fumées, elle va récupérer la chaleur de condensation.
        On réduit alors en réchauffant ainsi l’eau de retour des radiateurs, l’effort demandé à la chaudière pour la chauffer à la température voulue.
        La température des fumées envoyées dans la cheminée peut être réduite à 70 à 90 d°C.
http://lancien.cowblog.fr/images/Sciences2/condensation.jpg        Les publicités annoncent des économies énormes qui sont erronées.
        L’économie de consommation est de l’ordre de 5% avec une chaudière au fioul et de 10 % avec une chaudière au gaz.
        L’investissement est important, car outre le prix de la nouvelle chaudière, il faut modifier de façon importante le circuit de retour de l’eau des radiateurs.
        Par ailleurs si la température de retour des radiateurs est trop élevée  (notamment lorsqu’il fait très froid, la température de rosée n’est pas atteinte et l’efficacité de la chaudière à condensation baisse et donc également le gain de consommation.
        Le tubage en inox est indispensable et il faut recueillir l’eau de consensation provenant de la cheminée.
        En fait la chaudière à condensation est adaptée aux locaux ayant un chauffage à basse température.
        Dans les installations classiques à chauffage en acier pour lesquelq par grand froid la température de retour sera de l’ordre de 50 à 55 d°, les gains ne dépassent pas 10% au mieux et souvent pas plus de 5%, ce qui n’est pas suffisant pour amortir les frais de l’installation si elle entraîne des modifications importante.
    Donc, ne pas croire les publicités et faire étudier son cas particuier par un chauffagiste sérieux.

Mercredi 8 février 2017 à 16:22

Sciences et techniques

  J’ai choqué certains de mes correspondants en disant qu’en France on négligeait le long terme et notamment la recherche scientifique.

Les gouvernements, qu’ils soient de droite comme de gauche, ont des vues à court terme (le temps d’un mandat  - 5 ans le plus souvent). La recherche s’étend sur des dizaines d’années avant de porter vraiment ses fruits.

 

J’ai trouvé récemment dans la revue « Pour la Science », un graphique intéressant qui montre les efforts de recherches des divers pays du monde en 2014 :

- le diamètre du cercle est proportionnels au budget de recherche.

- en abscisses le pourcentage du PIB correspondant.

- en ordonnées, le nombre de chercheurs par milliers d’emplois.

La France est au milieu du graphique.

http://lancien.cowblog.fr/images/Images3/Recherchemondiale2014.jpg


Certes nous avons encore une place privilégiée en résultats de recherche scientifique, mais pour combien de temps car ils sont dus à nos efforts passés.

Actuellement le budget des laboratoires stagne et je connais une jeune physicienne, de formation bac + 10, entrée dans les premières à Normale Sup sciences, qui a réussi brillamment son doctorat et son agrégation de physique, qui est passionnée de recherche, qu’elle exerce dans un labo d’Etat, et qui gagne à peine plus de 2000 € par mois. Elle ferait de la technique de base dans l’industrie, et gagnerait presque le double.

Comment voulez vous ainsi attirer de jeunes scientifiques brillants : c’est un vrai sacerdoce !

 

La recherche en France a du mal à aborder les domaines nouveaux et à couvrir assez de domaines. La spécialisation sur quelques thèmes n’est pas de mise en recherche à long terme, car les découvertes importantes arrivent souvent dans des domaines où on ne les attendait pas.

La recherche a besoin de cerveaux bien formés, expérimentés et passionnés par leur travail car les résultats sont souvent long à venir et il faut être persévérant. On n’arrive à rien seul : il faut des équipes pluridisciplinaires, qui s’entendent bien et œuvrent dans le même but. 

Mais elle a besoin aussi de moyens matériels importants : la chimie par exemple n’est plus au temps des béchers et des cornues, mais nécessite des appareillages complexes et couteux. Les recherches menées sur le cerveau au CEA nécessitent d’énormes machines IRM (voir mon article du 15/4/2015) performants complexes et très coûteux. Et à coté des appareils de mesure, il faut disposer d’ordinateurs très puissants pour faire simulations calculs et interprétation des mesures, et stocker toutes les données. Si vous examinez où sont ces grosses machines : aux USA et en Chine !

 

La recherche c’est notre avenir scientifique et technique. La prospérité relative actuelle de la France résulte de plusieurs siècles d’efforts et de découvertes.

Aujourd’hui malheureusement le pays est gouverné par des politique qui n’ont que des vues à court terme, et des financiers qui ne se soucient que de la rentabilité immédiate.

Les chercheurs sont considérés comme des « intellectuels » et n’ont plus la considérations qu’ils méritent de par leurs qualités et leurs connaissances;

Samedi 24 septembre 2016 à 16:23

Sciences et techniques

http://lancien.cowblog.fr/images/Sciences2/Unknown-copie-3.jpg

     J’ai toujours été étonné de certaines options prises par les informaticiens. Le rêve des ingénieurs et techniciens qui créent les logiciels importants (je ne parle pas des gadgets sur téléphone portable ni des jeux), est le plus souvent une automatisation complète, ce qui est une erreur.
    C’était la mode en gestion, il y a une trentaine d’années, quand je travaillais, que ce soit des traitements comptables, financiers, d’approvisionnements, de gestion de stocks, de production, de personnels et même de fabrications …
    Pour les informaticiens, la machine doit se substituer à l’homme, et tout faire seule, à partir du programme prévu; on entre des données et on récupère soit d’autres données, soit des actions automatiques.
    D’une part il en résulte d’énormes programmes, de véritables « usines à gaz », peu évolutifs et peu adaptables, d’un emploi complexe, qui nécessitent une formation de longue durée, et qui favorisent les erreurs des opérateurs.
    D’autre part, ils doivent satisfaire tous les utilisateurs, de tous niveaux, et toutes les particularités des tâches, et il est impossible à un programmeur, quelque soit son niveau, de prévoir tous les détails présents et à venir, tous les cas possibles, et toutes les erreurs (ou parfois idées saugrenues) des utilisateurs.
    La fiabilité parfaite est impossible, et, la machine étant automatique, on ne peut s’apercevoir à temps des erreurs, et leur correction à postériori est difficile, voire impossible.
    J’ai toujours réagi en entreprise à cette tendance, et j’avais fait mettre en place il y a trente ans, un réseau de microordinateurs, reliés à des serveurs de données, le microordinateur n’ayant qu’un petit programme spécifique d’un type d’utilisation et l’utilisateur pouvait en partie l’adapter au niveau de l’interface, la machine se chargeant des tâches fastidieuses et des calculs, mais l’opérateur conservant la maîtrise des opérations et les tâches intelligentes demandant initiative, réflexion et décision.
    Le nombre d’erreurs était bien moindre et les personnels bien plus satisfaits et motivés.

    Je suis étonné de voir que les mêmes attitudes sont aussi de mise dans des études avancées d’intelligence artificielle, par exemple quand Google étudie une voiture entièrement automatique, où le chauffeur n’a plus besoin d’être présent.
    Une telle voiture est très complexe, basée sur des capteurs très évolués, notamment des radars toutes directions, une multitude de caméras et une informatique très importante. Une telle voiture sera donc très chère et sa diffusion limitée.
    Par ailleurs, si elle sera capable de réagir face à des obstacles fixes, et même à un environnement mobile qui obéit à des règles, je doute qu’elle puisse prévoir tous les comportements erronés ou farfelus des autres automobilistes, cyclistes ou piétons, certains comme les enfants ne se rendant pas compte du danger, et d’autres surpris, ayant des comportements aberrants.
    Je crains que la sécurité ne soit pas toujours garantie et la reprise du contrôle par un conducteur demande un temps prohibitif, en cas d’incident inattendu (délai beaucoup plus court de réaction exigé que pour un pilote automatique d’avion, les obstacles étant proches)..
    L’automatisation complète de la conduite est une erreur, alors qu’on pourrait aider le conducteur dans certaines tâches fastidieuses, mais pour lesquelles les risques sont limités, et lui laisser le contrôle intelligent dans les cas difficiles.
    Nous avons déjà des exemples, les détecteurs de recul, le régulateur de vitesse sur autoroute, le GPS, les commandes automatiques de phares ou d’essuie-glaces, le freinage en cas de détection d’obstacle, l’anti-patinage en cas de freinage trop brutal qui bloquerait les roues, etc
    Mais évidemment ces innovations sont moins prestigieuses et n’épatent pas la galerie. Mais elles sont  plus fiables, plus rapides à mettre en service, moins chères, et donc plus utiles

<< Page précédente | 1 | 2 | 3 | 4 | 5 | Page suivante >>

lancien

sortir de la tristesse

Créer un podcast