Vendredi 22 novembre 2019 à 8:05

Sciences et techniques

http://lancien.cowblog.fr/images/Sciences2/BarcelonaSegwayT24i.jpg

     Depuis plusieurs années je vois dans les rues des plages de Carnac, en Bretagne, des touristes qui, guidés par un moniteur, utilisent un « Segway », petit mobile électrique doté de 2 grosses roues de part et d’autre d’une petite plate forme sur laquelle on met les pieds, et une colonne avec un guidon qui permet de se tenir.
    J’ai essayé cet engin et j’ai été séduit par la facilité avec laquelle on se déplace (lentement) en maintenant son équilibre sans difficulté et sans apprentissage.



http://lancien.cowblog.fr/images/Sciences2/Unknown-copie-5.jpg

    Puis j’ai vu apparaitre au large des plages les « flyboard marins » conçus par Frank Zapata, constitués par deux tuyères sous une plate forme reliée à deux tuyaux qui proviennent d’un bateau pneumatique à moteur. Dans ce bateau, de puissantes pompes aspirent l’eau de mer, l’envoient dans les tuyères et celles-ci font « voler » la plate-forme.
    Je les ai souvent observés de mon dériveur, et j’avais bien envie d’essayer, mais garder son équilibre me paraissait assez difficile et j’ai assisté à quelques chutes dans l’eau, de 7 ou 8 mètres d’altitude, et, à mon âge, je ne suis plus doué pour ce genre de plongeon.




http://lancien.cowblog.fr/images/Sciences2/3619085232434761.jpg

    Alors c’est avec étonnement que k’ai assisté comme beaucoup d’entre vous à la démonstration de Frank Zapata sue un « flyboard terrestre » lors du défilé du 14 juillet.
C’était assez bluffant et cela avait (en apparence) l’air facile.
    On a vu, lors de sa traversée de la Manche, que cela l’était beaucoup moins, même pour un champion de flysurf, et les vitesses atteintes étaient impressionnantes (160 km/h)
   
    J’ai trouvé sur la revue « Science et avenir » deux schémas de cet engin et je vous les reproduit ci-dessous.
    Elles se passent d’explications, mais je ne serais pas très rassuré d’avoir les pieds au dessus de tels propulseurs. Ce sont des turboréacteurs classiques, avec un compresseur, une chambre de combustion et une tuyère.
    Ce sont les mouvements du pilote qui maîtrisent roulis et tangage, et l’inclinaison de l’engin, qui lui donne sa direction.
Une visière « tête haute » donne au pilote des information fournies par l’électronique : temps, vitesse, consommation, fonctionnement des moteurs, GPS …
           


http://lancien.cowblog.fr/images/Sciences2/Numeriser-copie-1.jpg
http://lancien.cowblog.fr/images/Sciences2/Numeriser1.jpg

    J’ai été stupéfait qu’un engin aussi complexe ait pu être « bricolé » dans un petit atelier, par quelques ingénieurs et techniciens.
    L’engin est révolutionnaire mais a de gros défauts : il faut des jets très puissants et donc il consomme beaucoup et les interactions du jet et de l’air sont extrêmement bruyants (comme un avion à réaction).
    Par ailleurs il faut être un champion de l’ équilibre pour tenir là dessus !
    La Direction générale pour l’Armement s’intéresse à cet appareil, mais il faudra le rendre moins bruyant, avec un rayon d’action plus grand et un mat + guidon comme dans les segways. On envisage des engins de transport de matériel ou de blessés à des endroits où l’hélico ne peut venir, ou un engin pour des commandos (pas très discret !)

Vendredi 15 novembre 2019 à 17:37

Sciences et techniques

    Ce n'est pas un vélo en fibres de carbone comme pour les coureurs du Tour. !

    Vous allez sûrement vous rappeler des cours de chimie de première et de terminale sur le carbone.
    Il existe couramment deux variétés le diamant qui a une structure pyramidale d’arrangement des atomes, chacun étant lié aux quatre atomes voisins, ce qui lui confère ses qualités extraordinaires notamment de dureté, et le graphène,dont la structure est hexagonale et plane, chaque atome étant lié à trois autres, et ces structures planes s’empilent les unes sur les autres, sous forme de carbone graphite, d’où sa friabilité et sa conductivité électronique (la force de liaison entre structures hexagonales est faible - 2% de celles dans l’hexagone - et ces hexagones glissent donc facilement les uns sur les autres).
    C’est le graphite qui est la variété stable dans les conditions normales de température et pression, le diamant n’étant que métastable dans ces conditions et sa formation nécessitant des températures et pressions très élevées.
http://lancien.cowblog.fr/images/Sciences2/Diamondandgraphite.jpg

 http://lancien.cowblog.fr/images/Sciences2/170pxKohlenstoffnanoroehreAnimation.gif   Le graphène peut de mettre sous forme de nanotubes, les plans des hexagones prenat la forme d’un cylindre.Ces nanotubes ne sont constitués que d’un seul « plan » enroulé sur lui même et donc de l’épaisseur d’un atome de carbone, mai leur longueur peut atteindre le millimètre.
Il existe aussi des nanostructures composées de plusieurs couches hexagonales de carbone, fermées sur elles-mêmes, de forme polyèdrique avec une cavité au centre.

    En outre il existe des formes amorphes de carbone, désordonnées, mélange de graphite hexagonal et de diamant pyramidal.

    De plus on peut avoir du carbone liquide à haute température et pression (11Mpa et 4800 d°) ou gazeux (4100 d°C sous la pression atmosphérique. Il se condnse en se refroidissant sous forme de petites chaines d’atomes appelées carbyles, qui de lient sous forme de plaques ou de sphères pour composer la suie. Cette forme spéhérique compée de 20 à &00 atomes est appelée fullerène et a été explicitée dans les années 1985.

    Les chercheurs avaient alors par le calcul , montré que le carbone devait pouvoir également se structurer selon un cercle de 18 atomes, reliés entre eu par des liaions doubles de chaque coté, ou triple et simples. Mais cette structure est instable et personne n’avait pu la synthétiser.
Une équipe de chercheurs suisses d’IBM et d’Oxford au Royaume Uni, ont enfin réussi à créer cet anneau, sous un vide poussé et à -268 d°C. Ils sont passé par une forme contenant 24 atomes de carbone et 6 oxygène , qu’ils ont déposé sur une couchede chlorure de sodium déposé sur une plaque de cuivre.Puis, ils ont extrait six molécules d’oxyde de carbone CO, en utilisant la pointe d’un microscope électronique (voir le schéma ci-dessous) :

http://lancien.cowblog.fr/images/anneaucarbonepur.jpg
    
Les atomes de ce cyclo-carbone sont liés alternativement par des liaisons simples et triples, et il est semi-condusteur.
Ses propriétés vont être étudiées, puis il faudra essayer de produire des assemblages de molécules pour pouvoir leurtrouver une utilisation pratique.

http://lancien.cowblog.fr/images/Sciences2/cyclo18carbon219thumb.jpg

Vendredi 6 septembre 2019 à 17:53

Sciences et techniques

 

http://lancien.cowblog.fr/images/Image4/magneticlevitationtrain1638.jpg
     Je lisais il y a peu de temps un article sur les matériaux supraconducteurs et des progrès spectaculaires qui viennent d’être faits et qui sont susceptibles de changer certains aspects de notre vie.
    Mais il faudrait peut être que je vous explique simplement ce que sont ces matériaux.

    Vous vous rappelez sans doute qu’on vous a appris au lycée qu’à une température de - 273,15 d°C, , appelé « zéro absolu », l’agitation thermique des molécules dans les gaz cessait totalement et la matière est dans son état minimal d’énergie, toutes ses éléments (atomes, molécules) étant dans leur état fondamental.
    On constate alors à l’approche de cette température, des propriétés particulières de certains matériaux : des fluides tels par exemple l’hélium perdent toute viscosité (c’est la « superfluidité ») et des métaux ou alliages perdent leur résistance électrique (c’est la « supraconductivité »)

    A l’intérieur d’un matériaux semi-conducteur, à l’approche du zéro absolu, tout champ magnétique est repoussé (en présence d’un champ magnétique externe, il n’ya plus de champ magnétique à l’intérieur du supraconducteur), et la résistance électrique devient nulle.

    On explique ce phénomène par des calculs de mécanique ondulatoires que je ne saurais vous expliquer, mais on peut le schématiser sous la forme suivante.
    Dans la structure cristalline du matériau métallique, les électrons circulent, mais étant chargés négativement, se repoussent mutuellement.
    Par contre le réseau cristallin est constitué d’ions positifs qui attirent l’électron. En fait l’attirance est mutuelle, mais les ions sont lourds et appartiennent à un réseau et donc la déformation due à cette attirance est faible. Les électrons qui vont passer engendrent des attirances successives et une vibration du réseau cristallin (voir la figure ci-dessous).
    Au dessous d’un seuil de température critique (très bas), deux électrons soumis à ces vibrations qui forment une zone électriquement positive, peuvent exceptionnellement s’attirer et former une paire stable : les paire d’électrons de Cooper qui va se comporter comme une particule unique spéciale. Cette particule est dotée de propriétés différentes d’un électron et son déplacement ne crée plus de champ magnétique et se déplace sans rencontrer la moindre résistance.
    Mais si la température s’élève l’apport d’énergie détruit les paires de Cooper et le phénomène de supra-conductivité cesse.

    L’intérêt d’un supraconducteur est qu’on peut le faire parcourir par des courants énormes (puisqu’il n’y a pas de résistance et d’effet Joule). L’inconvénient est qu’il faut maintenir les éléments en cause à une température proche du zéro absolu, ce qui est difficile et coûteux et ne peut concerner que des éléments de taille limitée.
    Actuellement l’application la plus fréquente est la réalisation d’électroaimants très puissants, utilisés principalement en imagerie (IRM) et dans des accélérateurs de particules. Des recherches sont faites dans le domaine de la fusion nucléaire (voir mes articles sur les tokamak et ITER ( 18 et 19/05/2019) et quant  à la sustentation magnétique de trains sur u n rail porteur.

     Des progrès spectaculaires viennent d’être faits en découvrant des supraconducteurs ne nécessitant que des températures plus faibles et l’on espère un jour, en trouver qui seraient supraconducteurs à température ambiante..
En 1993, des « cuprates » étaient supraconducteurs jusqu’à -131 d°C. C’étaient des produit complexes contenant du cuivre, de l’oxygène et divers autres éléments.
    Depuis 2015, divers hydrures métalliques ont été étudiés, notamment des hydrures de lithium qui pour être fabriqués nécessitent une pression énorme de 130 GPa (1300 atmosphères). Depuis des hydrures comprenant du soufre ou du lanthane ont été essayés; avec ce dernier élément la supra-conductivité disparaissait vers - 13 d°C, la température d’un congélateur domestique.
    Les applications seraient très importantes, notamment en matière de transport de l’électricité dans des câbles, sans effet joule, donc sans perte d’énergie et de stockage de l’énergie dans une bobine conductrice, reliée au réseau, dans laquelle les électrons stockés peuvent en quelque sorte, tourner en rond, avant d’être à nouveau rela^chés dans le réseau.électrique.
    Des applications en matière de lévitation des trains sur un rail ou de transport des énergies sur les caténaires serait également prometteuses.
   



Samedi 24 août 2019 à 9:01

Sciences et techniques

http://lancien.cowblog.fr/images/Image4/11191333.jpg
    La presse parle beaucoup d’un nouveau radar routier le « mesta-fusion », construit par la société IDEMIA, filiale de SAFRAN, qui va remplacer les radars anciens détruits par les gilets jaunes.
    Avant d’examiner les performances de ce nouveau radar, voyons quel est le principe de fonctionnement d’un radar de mesure de vitesse.

    L’effet Doppler-Fizeau. Mesure de vitesse.

    Supposez que vous soyez immobile face à l’océan qui vous envoie régulièrement des vaguelettes par exemple une toutes les douze secondes, c’est à dire à une fréquence de 5/mn.
    Maintenant vous marchez vers les vagues. Vos vitesses s’ajoutent puisque vous allez à la rencontre l’une de l’autre et vous recevez une vague par exemple toute les 10s c’est à dire 6 fois par minute.
    Lorsque vous allez au devant d’elle, le fréquence de l’onde « vagues » a donc augmenté (5 à 6/mn).
    Si vous vous éloignez d’elles, les vagues mettront plus de temps à vous atteindre et le fréquence diminuera.
   
http://lancien.cowblog.fr/images/Image4/220pxDopplereffectdiagrammaticsvg-copie-1.png    Supposez maintenant que vous soyez dans une voiture qui émet un sifflement à fréquence constante. Vous percevez un son dont la hauteur (la note de musique) correspond  à la fréquence de l’émetteur du son et vous vous déplacez à la même vitesse que la voiture.
    Supposez que la voiture vienne à une certaine vitesse vers un piéton. Nous serons dans la même situation que précédemment pour les vagues, et la fréquence du son va être (pour de piéton immobile), plus élevée. Le son qu’il percevra sera plus aigu que ce que vous entendez.
    Puis la voiture passe devant lui et s’éloigne. La fréquence va diminuer / Le son deviendra plus grave pour le piéton et sera plus grave que ce que vous entendez dans la voiture, sans vitesse par rapport à elle.
   

    Imaginons maintenant un radar qui envoie un paquet d’ondes de fréquence donnée dans la direction d’une voiture et qui écoute le signal des ondes réfléchie par cette voiture.
    Si la voiture est immobile, la fréquence de l’onde réfléchie sera la même.
    Si la voiture vient vers le radar, la fréquence de l’onde réfléchie sera plus grande que celle de l’onde incidente
    Si la voiture s’éloigne du radar, la fréquence de l’onde sera au contraire plus faible.
    La mesure de la différence de fréquence entre l'onde émise et celle retournée, permet de calculer la vitesse de la voiture.

    Pour effectuer cette mesure on superpose l’onde réfléchie à l’onde incidente. Comme les deux fréquences sont voisines, la superposition des deux provoque ce que l’on appelle un battement, c’est à dire une modulation périodique, qui passe par des maxima et des minima, et qui permet de calculer la différence de fréquence, donc la vitesse.

    Rappelons qu’un accordeur d’instrument de musique se sert de ce battement qu’il entend si la fréquence de son diapason est différente de celle de la vibration de l’instrument, battement qui disparaît s’il règle cette vibration à la même fréquence que son diapason
    Notons aussi que l’effet Doppler est utilisé en médecine pour mesurer la vitesse du sang dans les artères et les veines.

Le radar de contrôle routier « Mesta fusion ».

    Les radars actuels avaient un faible angle de mesure et on ne pouvait mesure la vitesse que d’un seul véhicule vers lequel il pointait son faisceau, et d’autre part disposé au bord de la route, du fait de l’angle de son faisceau par rapport à la trajectoire du véhicule, la vitesse de celui-ci était sous-estimée.
    Les progrès des radars et de l’électronique rapide, permettent maintenant de construire des radars avec un champ beaucoup plus large, qui peuvent observer la position du véhicule toutes les millisecondes.
    Un tel radar peut donc observer plusieurs véhicules à la fois, dans des files différentes et non seulement connaître leur vitesse, mais aussi leur trajectoire, avec des corrections d’angle de mesure et donc avec une bonne précision.

http://lancien.cowblog.fr/images/Image4/coverr4x3w10005ca384045f903radartourelle.jpg

    Le radar de contrôle routier « Mesta fusion » pourra surveiller, de jour comme de nuit,  en même temps 32 véhicules sur ! voies différentes et ceci à une distance de 100m de part et d’autre (s’approchant ou s’éloignant). Il pourra différencier les voitures, camions, motos… Sa marge d’erreur est d’environ 1%, de 0 à 300 km/h.
    Il est en outre associé à une caméra haute définition. Il peut donc visualiser le visage du conducteur et ce qu’il fait, et il pourra détecter les infractions suivantes..
        Non-respect de la limitation de vitesse;
        Feu rouge ou stop brûlé
        Dépassement interdit:
        Non-respect des distances de sécurité;
        Utilisation du téléphone portable au volant       
        Absence de la ceinture de sécurité (conducteur et passagers).
    Il a été homologué pour le moment pour relever les deux premières infractions.

    Ce radar a une structure originale :
    Son antenne est au sommet d’une « cabine » un petit pylône de 4 m de haut, ce qui permet d’avoir une vue dégagée de loin. A cette hauteur, ils sont moins vulnérables.
    En outre pour faire baisser la facture, le gouvernement envisage d’installer 6000 cabines, mais dont 4 resteraient aléatoirement vides, 1200 radars n’équipant qu’un cabine sur 5, mais en étant déplécé de temps à autre, de telle sorte que l’usager de la route ne sache pas quelle est la cabine dans laquelle il y a un radar de mesure.
    Son déploiement devrait se faire d’ici 2020, pour une centaine de millions d’euros.

    Une belle machine à PV.

Samedi 27 juillet 2019 à 19:22

Sciences et techniques

http://lancien.cowblog.fr/images/Image4/orageportable.png

    Un lecteur m’a demandé si porter un téléphone mobile sur soi était dangereux par temps d’orage, si la probabilité de recevoir la foudre était plus grande et si cela en aggravait les dégâts.
    Une correspondante me demande aussi si elle peut vérifier le fonctionnement de son micro-onde en utilisant un portable à l’intérieur et en l’appelant.

    Je ne suis pas particulièrement compétent en la matière, mais je vais essayer de répondre à ces questions.

Portable et foudre

    Effectivement on cite plusieurs cas particuliers de foudroiement de personnes ayant un portable, mais ils ne sont pas très probants.
    D’abord le cas d’une jeune fille de 15 ans, foudroyée alors qu’elle téléphonait avec son mobile dans un parc londonien. Certes elle a survécu, mais continue à avoir de graves problèmes cognitifs et une forte perte d’audition, un an après les faits. Les médecins attribuent ces symptômes au fait qu’elle téléphonait lors de l’incident. Le côté du cerveau où elle tenait le portable a été plus affecté que celui de victimes classiques de la foudre.
    On cite plusieurs cas mortels de personnes frappées par la foudre en téléphonant, en Chine ou en Corée, mais elles seraient sans doute mortes même sans portable.

    Un portable émet des ondes électromagnétiques, mais il est peu probable qu’elles attirent la foudre. Si c’était le cas, les antennes relais qui émettent un champ notablement plus fort seraient souvent frappées, ce qui n’est pas le cas. Pour qu’un équipement attire la foudre il faut qu’il y ait une forte ionisation aurour de lui, principe exploité notamment par les paratonnerres. Or, un mobile a une très faible ionisation, donc le risque qu’il attire la foudre est très faible.
    Par contre tout objet métallique (bague par exemple) peut aggraver les brûlures si l’on est frappé par la foudre (sans que cet objet l’ait attirée). En effet la haute résistance de la peau humaine fait que la foudre circule le long du corps sans y entrer, et es matériaux plus conductibles en contact direct avec la peau tels que des objets métalliques perturbent le phénomène et chauffent fortement.

    Par contre un téléphone portable comporte des puces, circuits électroniques intégrés qui ne supportent pas de faibles pics de tension. Il est évident que frappés par la foudre, ils seront HS, de même que si vous les mettez dans un micro-onde et que vous allumiez ce four.

Portable et four à micro-ondes

    Peut on tester l’étanchéité aux ondes d’un four à icro-ondes éteint, en appelant un téléphone portable que l’on a mis dedans ? (information qui circule sur le Net)
    Cela ne me paraît guère probant.
    D’abord les fours à micro-ondes ne sont pas parfaitement étanches, car il faudrait que toutes les faces métalliques de l’enveloppe soient soudées parfaitement; il y a seulement une atténuation.
Mais les puissances étant très faibles il sort très peu d’un micro-onde, qui est sans danger à l’extérieur.
    Mais un minimum d’ondes du téléphone portable peuvent peut être passer par ces « trous » entre parois métalliques, surtout que leur puissance est très supérieure à celle du micro-onde.
    Sur la porte en verre, , pour empêcher les micro-ondes ed sortir, il y a un grillage métallique. Les fréquence étant de 2,450 GHz, la longueur d’onde , qui est inversement proportionnelle à la fréquence est petite, et les mailles pour être efficaces, doivent être très petites.
    La fréquence des portables étant de 900 ou 1800 hz, la longueur d »onde est mille fois plus grande. Les ondes d’un portable ne passeront pas à travers la grille de la porte.
    On peut tester avec la commande bluetooth du téléphone dont les fréquences sont proches de celles du microonde. En principe le portable ne devrait pas recevoir ces micro-ondes.

    Et ne vous inquiétez pas, vous ne risquez rien du fait des micro-ondes de votre four. Par contre attention de ne pas vous brûler avec les plats que vous avez chauffés à l’intérieur.

Jeudi 13 décembre 2018 à 9:08

Sciences et techniques


     Dans des articles précédents, j’ai parlé du stockage d’énergie solaire ou éolienne, , ou de voiture électriques, dans lesquels les batteries peuvent être une limitation importante.
    Ces batterie interviennent dans notre vie de tous les jours, que ce soit les petites AA ou AAA rechargeables pour les lampes, les postes radio, ma souris d’ordinateur, ou les batteries plates des téléphones portables, ou les plus grandes batteries des outils de jardin.
    Alors faisons le point.

    Toutes ces batteries sont basées sur le même principe, ce sont les produits utilisés qui diffèrent.
    La batterie est un dispositif chimique qui peut stocker de l’énergie électrique et la restituer sur demande.
    Elle est composée d’une électrode négative, l’anode qui va recueillir des ions positifs, et d’une électrode positive, la cathode qui va collecter les électrons qui vont ensuite produire le courant, ces électrodes baignant dans un électrolyte liquide conducteur dans lequel ions et électron vont pouvoir circuler. (voir schéma ci-dessous).
http://lancien.cowblog.fr/images/Sciences2/Unknown.png    Les paramètres de la batterie que l’on cherche à augmenter, par rapport à son poids, sont les suivants :
        - la quantité d’électrons  que l’on peut stocker, que l’on exprime en ampère heure par kg. (c’est la quantité d’électricité qui traverse un conducteur relié à la batterie pour un courant de débit 1 ampère, pendant une durée d’une heure).
        - la quantité d’énergie fournie par la batterie en watts-heure. C’est la capacité en ampères-heure multiplié par la tension aux bornes du circuit (en volts). On cherche à optimiser l’énergie en watts-heure par kg. La résistance interne de la batterie intervient.
        - enfin la fiabilité de la batterie : d’une part il faut que la batterie ne se détériore pas trop vite aux charges successives (on lui demande de tenir au moins 2 000 charges), et la sécurité impose d’exclure les risques d’incendie (voire d’explosion) et plus généralement de trop grande surchauffe.
        - toutefois on peut aussi optimiser, pour certaines applications la puissance, c’es-à-dire la vitesse avec laquelle on peut charger ou décharger la batterie et en particulier le courant de crête qui peut être fourni pendant un court instant.
        - un dernier aspect d’entretien : il faut limiter l’impact environnemental des batteries, dont les composants peuvent être nocifs.

    Les batteries AA ou AAA (piles rechargeables), étaient des batteries au nickel-cadmium. Les électrodes sont en hydroxyde de nickel et en cadmium, et l’électrolyte est de la potasse.
    Ce type de batteries est facile à charger, fiable (elles tiennent environ 1600 charges et ont une durée de vie entre 2 et 3 ans), peu sensible à la température. de résistance interne faible et de coût faible. Par contre, elles perdent leur charge hors utilisation (20% par mois) et n’ont pas une grande énergie (40 à 60 Wh/kg). La tension nominale d’un élément est de 1,6 volt.    .
    Le cadmium étant un métal lourd nocif, il faut recycler ces batteries et pour le grand public
    Les batteries industrielles sont encore en Cd-Ni mais sont plus importantes et ont une durée de vie plus grande.
    Par contre dans les batteries grand public, le cadmium a été remplacé par un alliage d’hydrure à bas de nickel, de cobalt et de terres rares. (batteries Ni-Mh). Ces accumulateurs sont moins fiables (moins de cycles) et demandent de temps long de charge (12h) pour éviter les courants trop forts qui les dégradent. Les chargeurs doivent être dotés d’un système de détection de fin de charge.

    Les batteries de voitures à essence sont des batteries « au plomb », qui ont été inventées en 1854.  L’anode (négatif) est un ensemble de grilles d’alliage plomb-étain et éventuellement arsenic, remplies de plomb métallique poreux. la cathode (positif) est constituée de grilles analogues, mais remplies avec une pâte d’oxyde de plomb PbO2, et l’électrolyte est de l’acide sulfurique. Un séparateur isolant empêche les courts circuits entre plaques positives et négatives, tout en étant poreux et résistant à l’acide sulfurique (c’est un matériau à base de fibres cellulosiques).
    Le principe de fonctionnement est décrit sur le schéma ci-dessous    :
http://lancien.cowblog.fr/images/Sciences2/9688603616.jpg
     A la décharge l’électrolyte se détruit et les électrodes se sulfatent en libérant les électrons de l’ion SO4-. L’oxygène libéré à la cathode s’unit aux ions H+ pour donner de l’eau. A la charge les électrodes se désulfatent et l’électrolyte est régénéré.
    La tension est de 2,1 volts par élément. L’énergie fournie est faible : 35 Wh/kg, mais elle peut fournir un courant crête élevé au démarrage du moteur de la voiture. Une décharge totale de la batterie estnocive à sa durée de vie.

    Les batteries au CdNi des petits appareils ménagers ou de bricolage et des téléphones et ordinateurs portables, sont maintenant remplacées par des batteries lithium-ions.
    Le lithium est intéressant car il expulse facilement un électron et c’est le plus léger des métaux
    La cathode est en dioxyde de cobalt et l’anode en graphite. L’électrolyte est un sel de lithium dissous dans des molécules organiques que l’on inclue dans des polymères; il est isolant électrique, mais laisse passer les ions.
    Le principe de fonctionnement  est le suivant :
http://lancien.cowblog.fr/images/Sciences2/Unknown1-copie-2.jpg
    A la décharge le lithium stocké dans l’anode de graphique pour laquelle il a peu d’affinité cède son électron, qui ne peut migrer dans l’électrolyte isolant, tandis que l’ion Li+ libéré va se diriger vers l’électrode de cobalt pour laquelle il a une affinité plus grande, formant un oxyde de lithium-cobalt, en ayant récupéré son électron par le circuit électrique. La batterie supporte mal une décharge totale. (il est recommandé de charger fréquemment son téléphone portable
    A la charge, on extrait de la cathode le lithium qui va à nouveau se stocker dans l’électrode négative de graphite. La charge est beaucoup plus rapide que pour les accumulateurs Cd-Mh.
    La tension nominale d’un élément est de 3,6 volt.
    L’inconvénient de ces batteries est la surchauffe très importante qui peut se produire en cas de défaut et l’électrolyte qui st corrosif en cas de fuite. Les batteries doivent être dotée d’un fusible thermique et d’une soupape de sécurité pou éviter les surpressions qui pourraient les faire exploser.
    A l’origine les batteries Li-ions avaient déjà une énergie beaucoup plus fortes que les Cd-NI : 1500 Wh/kg. On atteint maintenant 2400 Wh/kg. On a introduit dans l’électrode de cobalt des alliages cobalt, nickel, manganèse.
    Les durées de vie sont de 3/4 ans pour les petites batteries, (voire moins si on les laisse complètement décharger)mais une quinzaine d’années pour les accumulateurs des voitures électriques.
    Le lithium et le cobalt sont des métaux rares, produits en certains endroits seulement, mais on peut recycler celui des batteries. Il ne faut donc pas craindre de pénurie. Des essais ont été faits pour remplacer le lithium par du sodium, mais l’énergie massique ne dépasse pas 100Wh/kg/
    Les batteries de voitures électrique sont donc des batteries li-ion. Par contreelles sont insuffisantes pour le stockage d’énergie solaire, qui se fait actuellement à 94% par remontée d’eau dans des réservoirs en altitude.
    Une solution sera peut être prometteuse d’ici quelques années : des batteries à électrolytes solides qui laissent passer les ions, et qui utiliseraient du sodium à la place du lithium. Les études concernent les électrolytes, matériaux composites inorganiques, souvent des mélanges de fluorure ou chlorures métalliques.
    On espère une capacité deux à trois fois plus grande que les batterie Li-ions à poids égal et une meilleure sécurité car l’électrolyte est ininflammable..
    Les entreprises asiatiques et SAFT en France) qui font ces recherches, pensent avoir des batteries utilisables en 2025.

Jeudi 26 octobre 2017 à 11:54

Sciences et techniques

          Dans le dernier article, je vous avais expliqué le fonctionnement d’un réfrigérateur classique et du ou des thermostats qui commandent son fonctionnement.
           Je vais maintenant vous expliquer les problèmes de dégivrage et de ventilation intérieure.

          Le compartiment d’un réfrigérateur non ventilé comporte en général un système de dégivrage, semi automatique ou automatique.
          En effet les aliments contenus dans le réfrigérateur sont plus ou moins humides et l’eau qui s’évapore se condense sous forme de glace qui se dépose par condensation sur les parois froides du compartiment. Cette couche de givre qui est isolante, limite les échanges de chaleur, et le système se met donc à fonctionner plus souvent et l'appareil consomme plus. Il faut donc éliminer cette couche de givre
          Pendant le dégivrage, le compresseur est arrêté et une résistance électrique dans la paroi du compartiment chauffe cette paroi pour faire fondre la glace.
          Dans les matériels semi-automatiques, il faut déclencher le dégivrage en appuyant sur un bouton, et le réfrigérateur se remet en route quand la température du compartiment est trop remontée. Si toute la glace n’a pas fondu, il faut recommencer l’opération quand la température du compartiment est suffisamment redescendue pour conserver les aliments.
          Dans les matériels automatiques, l’électronique déclenche à intervalles réguliers de mini-dégivrages, qui empêchent la couche de glace de se former de façon importante en l’éliminant à chaque fois.
Un système de rigoles conduit l’eau produite par la fonte de la glace, dans un récipient près du compresseur, dont la chaleur fait évaporer cette eau de fonte.
          Par contre, dans un réfrigérateur classique, il n’y a pas de dégivrage automatique dans le congélateur et l’on doit à intervalles réguliers gratter la couche de glace en arrêtant provisoirement cet appareil quelques heures, après évidemment l’avoir vidé.

          Parlons maintenant de la ventilation.
          Il existe trois possibilités : le froid statique, brassé ou ventilé.

          Le froid statique est le type de froid classique des réfrigérateurs : il n’y a pas de ventilateur interne et l’air circule peu. Il rentre de l’air chaud chaque fois qu’on ouvre la porte et celui ci a tendance à monter dans l’enceinte.. Il a pour inconvénient la «stratification» du froid : le haut de l’enceinte est plus chaud de deux à tris degrés et la zone froide se situe dans le bas.
Dans mon ancien réfrigérateur, j’avais 4d°C sur les plateaux du bas, 7 d° sur celui du haut et 9d° dans le bac à légumes fermé.

          Le froid brassé, aussi appelé froid dynamique maintient une température homogène dans tout le compartiment grâce au brassage de l’air. Dans le fond de la cabine, un ventilateur brasse l'air dès que le moteur se met en route, notamment lorsque la porte vient d'être ouverte. Son avantage réside dans sa capacité à faire redescendre la température rapidement après l’ouverture de la porte. Il conserve aussi l’humidité naturelle des aliments, préservant leur fraîcheur et leurs vitamines.
          Ceci n’existe que dans les réfrigérateurs et ne concernait pas les congélateurs, sauf dans quelques réfrigérateurs-congélateurs américains à deux compresseurs.

          Enfin, le froid ventilé, aussi appelé technologie « No Frost » est apparu depuis deux à trois ans, de façon courante, et à un prix raisonnable, dans les réfrigérateurs-congélateurs vendus en France.
 
http://lancien.cowblog.fr/images/Sciences2/P1030107.jpg        
L’air est ventilé à la fois dans le congélateur et dans le réfrigérateur, par un ventilateur qui est en fonctionnement permanent, mais consomme peu d’énergie.
          La température du congélateur est commandée par un thermostat classique qui actionne le compresseur en temps utile. La température y est en général entre -15 d° et -18d°C, mais si vous voulez congeler un aliment frais, vous pouvez descendre à -35, pendant le temps de la congélation et revenir ensuite à - 18 d°C.




http://lancien.cowblog.fr/images/Sciences2/P1030106.jpg 

         Le thermostat du réfrigérateur ne commande pas le moteur du compresseur, mais un volet qui commande le débit d’air ventilé depuis le compartiment congélateur, vers le compartiment réfrigérateur. Le volet de débit d’air est évidemment beaucoup plus fermé si vous congelez à -35d° que si votre congélateur reste à - 18d°.
          Le contrôle de ce fonctionnement est assuré par un microprocesseur.
          L’air froid ventilé dans le compartiment du réfrigérateur y assure le maintien d’une température constante et homogène. Après l'ouverture de la porte, la température est rétablie très  rapidement. La congélation est elle aussi plus rapide.
L’arrivée d’air étant en haut du compartiment réfrigérateur, la température est un peu plus basse en haut mais à peine.
          Dans mon congélateur j’ai partout -18d°C et dans mon réfrigérateur, 4d°C sur les plateaux du haut, 5 d° sur celui du bas et 7 d° dans le bac à légumes fermé.





          Le schéma ci dessous montre la répartition du froid dans les trois types de réfrigérateur, à la suite d’essais en usine :

http://lancien.cowblog.fr/images/Sciences2/FroidssourceLG-copie-1.jpg
          Par ailleurs, la technologie No Frost de ventilation évite la formation de givre ou de glace, tant dans le congélateur que dans le réfrigérateur, et elle permet d'économiser de l'énergie.
Le seul inconvénient de cette technologie est qu'elle a tendance à favoriser le dessèchement des aliments, il faut donc les emballer ou les garder dans des boîtes, sauf dans le tiroir du bas fermé, qui n’est pas ventilé.

          Personnellement je trouve que cette technique est un véritable progrès.


Dimanche 22 octobre 2017 à 11:36

Sciences et techniques

          Mon vieux frigo, qui avait quelques dizaines d’années, étant mort (fuite de gaz et on n’utilise plus les mêmes gaz réfrigérants aujourd’hui), j’ai dû en acheter un neuf et je me suis orienté vers un combiné frigo-congélateur « ventilé » dit « sans givre » (« no frost »).
A la suite d’une petite panne, vite éliminée, j’ai été amené à me pencher sur le fonctionnement de l’appareil, très différent de celui des anciens frigos et j’ai pensé que cela pourrait vous intéresser.

          Voyons d’abord comment fonctionne un frigo et éventuellement le congélateur, quant à la production du froid, en nous servant du schéma ci-dessous.

          Le réfrigérateur utilise un fluide réfrigérant, sélectionné principalement pour sa grande propriété d'absorption de chaleur, des températures caractéristiques de changement d’état (liquide à gaz), en fonction de la pression, et ces pressions doivent permettre l’utilisation dans des tuyauteries d’épaisseur raisonnable.
Enfin il ne doivent pas être nocifs, ni pour l’homme, ni pour l’environnement.
          Ces gaz ont longtemps été des hydrochlorofluorocarbones, tel le fréon, qui contribuaient à détruire la couche d’ozone. Le chlore a été supprimé, mais ces gaz sont nocifs au plan effet de serre, plusieurs milliers de fois supérieur à celui du CO2.
          Les fluides maintenant utilisés sont des propanes et des isobutanes; ils ne contiennent plus de fluor, mais ont l’inconvénient d’être inflammables. Toutefois un frigo en contient peu.

http://lancien.cowblog.fr/images/Sciences2/schemacongelateur.jpg

          Comment le frigo produit il du froid?
          Pour examiner le fonctionnement du circuit de refroidissement, partons du compresseur : c’est un moteur électrique qui comprime le fluide réfrigérant, initialement gazeux et froid, qui sort de l’intérieur du réfrigérateur, ce qui élève sa température et sa pression.
          A la sortie du compresseur, le fluide est donc un gaz chaud (vers 40 d°C), et à haute pression.
          Ce gaz passe alors par un « condenseur », tuyau serpentin fixé dur une grille métallique qui augmente la surface de refroidissement par l’air. Elle est en général située à l’extérieur et à l’arrière du réfrigérateur.
Le gaz se refroidit et change d’état, devenant liquide.
          A la sortie du condenseur, le fluide est donc un liquide à température voisine de l’ambiante et à haute pression.
          Ce liquide traverse un détendeur qui lui offre un volume plus grand. La pression chute brutalement et le liquide se vaporise partiellement engendrant une forte diminution de température, d’au moins 15 d°, mais qui peut atteindre moins 50 d° dans un congélateur.
          A la sortie du détendeur, le fluide est donc un mélange vapeur- gouttelettes de liquide à température très basse et à basse pression.
          Ce mélange va passer alors dans un évaporateur, tuyau serpentin logé dans la paroi de la chambre froide, souvent au contact d’une plaque métallique qui augmente le contact avec l’air de l’intérieur du frigo.
          Le fluide qui circule dans cet évaporateur continue à s’évaporer en absorbant la chaleur cédée par des aliments placés à l'intérieur du réfrigérateur.
          A la sortie de l’évaporateur, le fluide est, à l’état gazeux, très froid et à basse pression. Il repart vers le compresseur pour un nouveau cycle thermique.

          Ce cycle est le même pour toutes les enceintes à refroidir.
http://lancien.cowblog.fr/images/Sciences2/refrigerateurraypoizat.jpg

          Dans les frigos même récents un thermostat, constitué d’un petit soufflet relié à une sonde, remplis d’un gaz, se dilatait en fonction de la température et actionnait deux contacts à des repères de température au degré près, contacts qui entrainaient le démarrage ou l’arrêt du compresseur et du cycle de refroidissement.
          Dans les réfrigérateurs-congélateurs, il y a deux circuits séparés de refroidissement à des températures différentes commandées par deux thermostats spécifiques de chaque compartiment. Ces deux circuit sont soit reliés chacun à un compresseur spécifique, soit le plus souvent à un seul compresseur avec des clapets.
          Une petite électronique simple commande les clapets de basculement du compresseur et inhibe le thermostat d’un compartiment lorsque l’autre est en cours de refroidissement..

          Je vous parlerai dans un prochain article du dégivrage et des réfrigérateurs-congélateurs « ventilé » dit « sans givre » (« no frost »), de leur fonctionnement et de leurs avantages et inconvénients par rapport aux matériels classiques.

Dimanche 15 octobre 2017 à 11:01

Sciences et techniques

    J’ai fait plusieurs articles sur la Terre et les planètes mais pas sur notre soleil, qui nous éclaire tous les jours. J’ai pourtant lu quelques articles notamment dans les revues « Pour la Science » et « La Recherche », et sur in ternet

        Que dire sur cet astre ?

    Le soleil est né, avec le système solaire, il y a environ 4,7 milliards d’années. Ce chiffre est acquit à partir de la datation de roches terrestres, lunaires et de celle de météorites.
    Comme beaucoup d’étoiles, il s’est probablement formé par contraction des gaz et des poussières de l’espace environnant de la nébuleuse, sous l’effet de la gravité, ce qui provoque une forte élévation de la température. Au bout de quelques dizaines de millions d’années, cette température est suffisamment élevée pour qu’aient lieu les premières réaction thermonucléaires de fusion de l’hydrogène, qui le transforment principalement en hélium.
    La masse de matière de la nébuleuse initiale était en rotation et s’est aplatie, ce qui a permis à des matériaux d’échapper à l’attraction solaire et de former des planètes, concentrées dans un  même plan.
    Mais un jour, le soleil mourra d’une longue agonie.
    Chaque seconde le soleil convertit 600 millions de tonnes d’hydrogène en hélium.
    La réserve d’hydrogène va donc diminuer peu à peu, mais le soleil a encore de l’ordre de 5 milliards d’années de vie. Il augmentera de volume d’environ 20%, de luminosité d’environ 50% et deviendra une étoile rouge dans laquelle l’hélium fusionnera en carbone, puis en azote et en oxygène, mais en produisant moins d’énergie. Il absorbera les planètes qui l’entourent.
    Puis au bout de quelques centaines de millions d’années, il se refroidira et deviendra une « naine blanche » de la taille de la Terre, mais avec une densité d’une tonne par cm3, ce qui est évidemment encore considérable, entourée d’une coquille de gaz en expansion. Cette naine blanche se refroidira très lentement en 10 milliard d'années, laissant une naine noire, froide et morte.
    D’où vient actuellement son énergie : de réactions thermonucléaires dans lesquelles le soleil transforme de l’hydrogène en hélium, avec une perte de masse qui se transforme en énergie (E = mc2, équation d’Einstein qui lie la masse à l’énergie), mais ces réactions nécessitent une température de plusieurs millions de degrés C.
    Au centre du soleil, la température est supérieure à 15 millions de d°C,  et la pression de 240 milliards de fois la pression atmosphérique de notre terre.   
    C’est à partir de cette énergie que le soleil nous envoie sa lumière et sa chaleur, mais le phénomène est complexe et nécessite qu’on parle de sa structure.
   
    La structure du soleil est faite de gaz, essentiellement hydrogène et hélium mais on trouve du carbone, de l’oxygène, du calcium, du fer, du titane, du manganèse… Sa limite extérieure n’est donc pas bien définie.
    Sur le schéma ci dessous on distinguera :

http://lancien.cowblog.fr/images/Sciences2/structuresoleil1.jpg

    Le soleil est sphérique, d’environ 1 400 000 km de diamètre, avec un léger aplatissement aux pôles, et tourne sur lui même en environ 25 jours, mais la vitesse est plus forte à l’équateur qu’aux pôles (ce sont des gaz!).
    Le coeur du soleil est à environ 15,5 millions de degrés, puis la température et la pression diminuent dans deux zones : une zone radiative qui, avec le coeur a un rayon d’environ 500 000 km et une zone convective d’épaisseur 200 000 km.
    Dans la zone radiative, la chaleur est transmise par des radiations thermique et la température décroit de 10 millions à 500 000 degrés C. Les atomes d’hydrogène et d’hélium ionisés émettent des photons, mais ceux qui n’ont qu’une faible énergie sont réabsorbés par les ions. Seuls les rayons x et gamma de haute énergie, vont se propager en étant absorbés et réémis à plus faible énergie : les photons émis au centre du soleil mettent deux millions d’années pour atteindre sa surface !
    Entre la zone radiative et la zone convective une zone de quelques milliers de km d’épaisseur est le siège de champs magnétiques très intenses.
    A la limite de la zone radiative, la température et la densité des gaz ne sont plus suffisantes pour que les photons puissent transporter l’énergie par radiation, et la zone convective va évacuer le surplus d’énergie grâce à de violents courants de convection, qui emmènent la chaleur en surface, puis replongent pour recevoir de la chaleur et l’évacuer à nouveau vers l’extérieur. Ces turbulences provoquent une polarité magnétique à la surface du soleil.
    A la limite de la zone de convection, la température n’’est plus que d’environ 5 500 d°C.

    Les couches superficielles sont très minces :
        -  la photosphère n’a que 500 km d’épaisseur et c’est d’elle que provient la lumière du soleil, qui correspond à un spectre de photos provenant d’un corps à 5500 d°.
Elle est animée de convections analogues à celles de la couche de convection, les courants ascendants remontant vers la surface à environ 500m/S et y émettant alors la lumière; ces courants ascendants ont environ 1000 km de diamètre et donnent au soleil un aspect granuleux, chaque granule durant environ 8 minutes, avant de disparaître.
    La photosphère émet 51% du rayonnement dans l’infra-rouge, 41% dans le visible, et 7% dans l’ultra-violet, les 1% restant étant émis sous forme d’autres particules que les photons.
        - la chromosphère a environ 2000 km d’épaisseur. La température remonte peu à peu pour atteindre à sa surface, environ 100 000 d°C; elle n’est visible que pendant une éclipse, sous forme d’une couche de couleur rosatre, due au rayonnement des atomes d’hélium à cette température.

    Au delà de ces couches on trouve une zone  peu dense d’ions hydrogène et hélium principalement, que l’on appelle « l’atmosphère solaire » et dont la température remonte à plusieurs millions de degrés.
    Les couches superficielles se comportent comme un plasma ionisé, qui, chauffé par en dessous, forme en quelque sorte des bulles et créent des « jets magnétiques (en jaune sur la simulation d’ordinateur ci-dessous). Ce sont ces champs magnétiques sui agissant sure les ions hydrogène et hélium, feraient remonter la température de l’atmosphère solaire, jusqu’à quelques millions de degrés.
    Ces champs magnétiques sont visibles sous forme te « taches solaires »

http://lancien.cowblog.fr/images/Sciences2/14079150.jpghttp://lancien.cowblog.fr/images/Sciences2/220pxRingoffire.jpg












 
   Associés à des champs électriques, ils projettent des jets de matière hors de la surface, à des centaines de milliers de km d’altitude, lesquels entraînent de l’énergie et retombe ensuite vers la surface, ce qui est observé sous la forme des « éruptions solaires », qui durent de quelques secondes à quelques heures et sont accompagnées de flashs d’ondes radio, de lumière visible, mais aussi de rayons X et gamma.
    Les émissions radio sont une source intéressante captée par les radiotélescopes, mais peuvent aussi perturber les transmissions, tandis que les rayonnements durs, qui créent des électrons dans l’atmosphère terrestre, lesquels sont concentrés aux pôles par le champ magnétique terrestre, excitent les atomes d’oxygène et d’azote, donnant des « aurores boréales ».
    En outre les réactions nucléaires du noyau du soleil, émettent des neutrinos, qui, de charge nulle et de masse très faible, n’ayant que très peu d’interaction avec la matière, sortent facilement du soleil, se propagent dans l’espace et traversent la Terre. Leur détection demande donc des expériences complexes.   

Samedi 6 mai 2017 à 9:04

Sciences et techniques

 Dans mon dernier article, nous avons vu les avantages et inconvénients d’une voiture électrique, parlons maintenant des voitures hybrides.
    En fait les voitures hybrides ne sont pas des voitures électriques, ce sont des voitures à moteur thermique, dans lesquelles un petit moteur électrique vient assister le moteur thermiques dans certains cas et si l’on voulait circuler en tout électrique, on ne ferait que quelques kilomètres. D’ailleurs elles ne se rechargent pas pour la plupart.
    Comment cela fonctionne t’il. ? Disposant du schéma d’une BMW, c’est à partir de là que je décrirai un fonctionnement qui toutefois n’est pas général.

    D’abord quel est le but poursuivi : pas de se propulser à l’électricité, mais d’éviter de faire fonctionner le moteur thermique de la voiture dans des plages où son rendement n’est pas bon (à basse vitesse principalement),  et d’autre part de récupérer de l’énergie au freinage au lieu de la dissiper en chaleur dans les freins.
    On peut ainsi diminuer la consommation d’essence, et donc la production de CO2, voire se contenter d’un moteur un peu moins puissant car quand son rendement est trop faible le moteur électrique l’assiste.

    Dans certaines voitures un moteur électrique est intégré dans la boîte de vitesse du moteur thermique, et fournit la propulsion quand la demande de puissance est faible, (et que le rendement du moteur thermique est mauvais), ou ajoute son énergie quand le demande est importante mais la vitesse de la voiture faible (démarrage, côte..).
    L’énergie électrique est fournie par une batterie et un ordinateur gère la contribution de la batterie à la propulsion
    Lorsque la puissance demandée est inférieure à celle fournie par le moteur thermique (vitesse constante sur route) ou que le moteur freine la voiture, un alternateur charge alors la batterie, en récupérant l’énergie superflue du moteur thermique ou celle de freinage. La batterie est relativement modeste en coût et en poids.
    C’est donc un système complexe et cher, en espérant qu’il soit fiable et en tout électrique on ne fait que 2 ou 3 km..

    Mais on peut faire mieux et plus cher comme « usine à gaz », si on veut faire une voiture hybride « rechargeable qui ait une autonomie électrique de 20 ou 30 km.

    On peut d’abord augmenter les batteries, mais cela augment le poids et le coût.
    Mais c’est trop simple et c’est tellement mieux de faire compliqué.
    Alors on propulse la voiture séparément par un moteur thermique et un moteur électrique. Le moteur thermique est, à l’avant, relié normalement au train avant et le moteur électrique est sur l’essieu arrière (voir schéma ci-dessous).
On peut fonctionner avec un seul moteur ou avec les deux, l’ordinateur gérant alors la contribution de chacun.

http://lancien.cowblog.fr/images/Sciences2/coverr4x3w1000578e85a1c5ddavolkswagenpassatgte20150.jpg
    Les gains en carburant sont plus importants, on peut se servir en ville du tout électrique et de ses avantages, mais le coût de la voiture est notablement plus élevé.
    C’est ce que l’on appelle une « hybride parallèle ».
    Le moteur thermique recharge les batteries, mais lentement et donc si l’on fait beaucoup de tout électrique, il faut recharger la batterie la nuit.

    On aurait pu faire plus simple, ce que l’on appelle les « hybrides série », mais pour le moment, les constructeurs n’utilisent pas cette technique, sauf exception dans des voitures de luxe très chères 
    Là c’est simple : c’est une voiture électrique avec des batteries très importantes lourdes et chères, et deux moteurs électriques sur les roues.
    En plus on a un petit moteur thermique qui fonctionne à vitesse constante et recharge les batteries, comme si on avait un groupe électrogène à bord.
    Là c’est simple, c’est une vraie voiture électrique, qui peut rouler en électrique en ville et faire des centaines de kilomètres sur route à condition de mettre de l’essence dans le réservoir. Malheureusement cette voiture n’existe pratiquement pas et elle est hors de prix. On espère tout de même que ce sera l’hybride de demain à un prix plus raisonnable.
    Mais actuellement son poids et son prix ne la rendent pas rentable par rapport à une voiture à essence.

    La voiture hybride est donc un engin compliqué, extrêmement cher, pour personnes riches passionnées d’écologie.
    Demain si les voitures hybrides parallèles se développent, elles seront techniquement bien plus intéressantes, mais le problème du prix reste pour le moment entier.
    Tout dépend aussi de l’autonomie que pourront avoir des voitures entièrement électriques avec de futures batteries et moteurs, et de leur prix
    Mais actuellement aucune hybride n’est rentable par rapport à une voiture à essence, en raison de son  prix. Il faut faire plus de 15 000 km de ville par an pour la rentabiliser et encore, ce n'est pas sûr, car les consommations réelles sont deux fois supérieures à celles annoncées dans des tests normalisés absurdes et non représentatifs de la réalité.

    Alors il ne faut pas s'étonner si elles n'ont guère de succès. 
    Personnellement je n'achèterai une hybride que lorsque ce sera une voiture électrique avec un générateur électrogène associé et qu'elle soit à un prix abordable. Mais je crois que je serai mort avant.


.

<< Page précédente | 1 | 2 | 3 | 4 | 5 | Page suivante >>

lancien

sortir de la tristesse

Créer un podcast