Jeudi 26 octobre 2017 à 11:54

Sciences et techniques

          Dans le dernier article, je vous avais expliqué le fonctionnement d’un réfrigérateur classique et du ou des thermostats qui commandent son fonctionnement.
           Je vais maintenant vous expliquer les problèmes de dégivrage et de ventilation intérieure.

          Le compartiment d’un réfrigérateur non ventilé comporte en général un système de dégivrage, semi automatique ou automatique.
          En effet les aliments contenus dans le réfrigérateur sont plus ou moins humides et l’eau qui s’évapore se condense sous forme de glace qui se dépose par condensation sur les parois froides du compartiment. Cette couche de givre qui est isolante, limite les échanges de chaleur, et le système se met donc à fonctionner plus souvent et l'appareil consomme plus. Il faut donc éliminer cette couche de givre
          Pendant le dégivrage, le compresseur est arrêté et une résistance électrique dans la paroi du compartiment chauffe cette paroi pour faire fondre la glace.
          Dans les matériels semi-automatiques, il faut déclencher le dégivrage en appuyant sur un bouton, et le réfrigérateur se remet en route quand la température du compartiment est trop remontée. Si toute la glace n’a pas fondu, il faut recommencer l’opération quand la température du compartiment est suffisamment redescendue pour conserver les aliments.
          Dans les matériels automatiques, l’électronique déclenche à intervalles réguliers de mini-dégivrages, qui empêchent la couche de glace de se former de façon importante en l’éliminant à chaque fois.
Un système de rigoles conduit l’eau produite par la fonte de la glace, dans un récipient près du compresseur, dont la chaleur fait évaporer cette eau de fonte.
          Par contre, dans un réfrigérateur classique, il n’y a pas de dégivrage automatique dans le congélateur et l’on doit à intervalles réguliers gratter la couche de glace en arrêtant provisoirement cet appareil quelques heures, après évidemment l’avoir vidé.

          Parlons maintenant de la ventilation.
          Il existe trois possibilités : le froid statique, brassé ou ventilé.

          Le froid statique est le type de froid classique des réfrigérateurs : il n’y a pas de ventilateur interne et l’air circule peu. Il rentre de l’air chaud chaque fois qu’on ouvre la porte et celui ci a tendance à monter dans l’enceinte.. Il a pour inconvénient la «stratification» du froid : le haut de l’enceinte est plus chaud de deux à tris degrés et la zone froide se situe dans le bas.
Dans mon ancien réfrigérateur, j’avais 4d°C sur les plateaux du bas, 7 d° sur celui du haut et 9d° dans le bac à légumes fermé.

          Le froid brassé, aussi appelé froid dynamique maintient une température homogène dans tout le compartiment grâce au brassage de l’air. Dans le fond de la cabine, un ventilateur brasse l'air dès que le moteur se met en route, notamment lorsque la porte vient d'être ouverte. Son avantage réside dans sa capacité à faire redescendre la température rapidement après l’ouverture de la porte. Il conserve aussi l’humidité naturelle des aliments, préservant leur fraîcheur et leurs vitamines.
          Ceci n’existe que dans les réfrigérateurs et ne concernait pas les congélateurs, sauf dans quelques réfrigérateurs-congélateurs américains à deux compresseurs.

          Enfin, le froid ventilé, aussi appelé technologie « No Frost » est apparu depuis deux à trois ans, de façon courante, et à un prix raisonnable, dans les réfrigérateurs-congélateurs vendus en France.
 
http://lancien.cowblog.fr/images/Sciences2/P1030107.jpg        
L’air est ventilé à la fois dans le congélateur et dans le réfrigérateur, par un ventilateur qui est en fonctionnement permanent, mais consomme peu d’énergie.
          La température du congélateur est commandée par un thermostat classique qui actionne le compresseur en temps utile. La température y est en général entre -15 d° et -18d°C, mais si vous voulez congeler un aliment frais, vous pouvez descendre à -35, pendant le temps de la congélation et revenir ensuite à - 18 d°C.




http://lancien.cowblog.fr/images/Sciences2/P1030106.jpg 

         Le thermostat du réfrigérateur ne commande pas le moteur du compresseur, mais un volet qui commande le débit d’air ventilé depuis le compartiment congélateur, vers le compartiment réfrigérateur. Le volet de débit d’air est évidemment beaucoup plus fermé si vous congelez à -35d° que si votre congélateur reste à - 18d°.
          Le contrôle de ce fonctionnement est assuré par un microprocesseur.
          L’air froid ventilé dans le compartiment du réfrigérateur y assure le maintien d’une température constante et homogène. Après l'ouverture de la porte, la température est rétablie très  rapidement. La congélation est elle aussi plus rapide.
L’arrivée d’air étant en haut du compartiment réfrigérateur, la température est un peu plus basse en haut mais à peine.
          Dans mon congélateur j’ai partout -18d°C et dans mon réfrigérateur, 4d°C sur les plateaux du haut, 5 d° sur celui du bas et 7 d° dans le bac à légumes fermé.





          Le schéma ci dessous montre la répartition du froid dans les trois types de réfrigérateur, à la suite d’essais en usine :

http://lancien.cowblog.fr/images/Sciences2/FroidssourceLG-copie-1.jpg
          Par ailleurs, la technologie No Frost de ventilation évite la formation de givre ou de glace, tant dans le congélateur que dans le réfrigérateur, et elle permet d'économiser de l'énergie.
Le seul inconvénient de cette technologie est qu'elle a tendance à favoriser le dessèchement des aliments, il faut donc les emballer ou les garder dans des boîtes, sauf dans le tiroir du bas fermé, qui n’est pas ventilé.

          Personnellement je trouve que cette technique est un véritable progrès.


Dimanche 22 octobre 2017 à 11:36

Sciences et techniques

          Mon vieux frigo, qui avait quelques dizaines d’années, étant mort (fuite de gaz et on n’utilise plus les mêmes gaz réfrigérants aujourd’hui), j’ai dû en acheter un neuf et je me suis orienté vers un combiné frigo-congélateur « ventilé » dit « sans givre » (« no frost »).
A la suite d’une petite panne, vite éliminée, j’ai été amené à me pencher sur le fonctionnement de l’appareil, très différent de celui des anciens frigos et j’ai pensé que cela pourrait vous intéresser.

          Voyons d’abord comment fonctionne un frigo et éventuellement le congélateur, quant à la production du froid, en nous servant du schéma ci-dessous.

          Le réfrigérateur utilise un fluide réfrigérant, sélectionné principalement pour sa grande propriété d'absorption de chaleur, des températures caractéristiques de changement d’état (liquide à gaz), en fonction de la pression, et ces pressions doivent permettre l’utilisation dans des tuyauteries d’épaisseur raisonnable.
Enfin il ne doivent pas être nocifs, ni pour l’homme, ni pour l’environnement.
          Ces gaz ont longtemps été des hydrochlorofluorocarbones, tel le fréon, qui contribuaient à détruire la couche d’ozone. Le chlore a été supprimé, mais ces gaz sont nocifs au plan effet de serre, plusieurs milliers de fois supérieur à celui du CO2.
          Les fluides maintenant utilisés sont des propanes et des isobutanes; ils ne contiennent plus de fluor, mais ont l’inconvénient d’être inflammables. Toutefois un frigo en contient peu.

http://lancien.cowblog.fr/images/Sciences2/schemacongelateur.jpg

          Comment le frigo produit il du froid?
          Pour examiner le fonctionnement du circuit de refroidissement, partons du compresseur : c’est un moteur électrique qui comprime le fluide réfrigérant, initialement gazeux et froid, qui sort de l’intérieur du réfrigérateur, ce qui élève sa température et sa pression.
          A la sortie du compresseur, le fluide est donc un gaz chaud (vers 40 d°C), et à haute pression.
          Ce gaz passe alors par un « condenseur », tuyau serpentin fixé dur une grille métallique qui augmente la surface de refroidissement par l’air. Elle est en général située à l’extérieur et à l’arrière du réfrigérateur.
Le gaz se refroidit et change d’état, devenant liquide.
          A la sortie du condenseur, le fluide est donc un liquide à température voisine de l’ambiante et à haute pression.
          Ce liquide traverse un détendeur qui lui offre un volume plus grand. La pression chute brutalement et le liquide se vaporise partiellement engendrant une forte diminution de température, d’au moins 15 d°, mais qui peut atteindre moins 50 d° dans un congélateur.
          A la sortie du détendeur, le fluide est donc un mélange vapeur- gouttelettes de liquide à température très basse et à basse pression.
          Ce mélange va passer alors dans un évaporateur, tuyau serpentin logé dans la paroi de la chambre froide, souvent au contact d’une plaque métallique qui augmente le contact avec l’air de l’intérieur du frigo.
          Le fluide qui circule dans cet évaporateur continue à s’évaporer en absorbant la chaleur cédée par des aliments placés à l'intérieur du réfrigérateur.
          A la sortie de l’évaporateur, le fluide est, à l’état gazeux, très froid et à basse pression. Il repart vers le compresseur pour un nouveau cycle thermique.

          Ce cycle est le même pour toutes les enceintes à refroidir.
http://lancien.cowblog.fr/images/Sciences2/refrigerateurraypoizat.jpg

          Dans les frigos même récents un thermostat, constitué d’un petit soufflet relié à une sonde, remplis d’un gaz, se dilatait en fonction de la température et actionnait deux contacts à des repères de température au degré près, contacts qui entrainaient le démarrage ou l’arrêt du compresseur et du cycle de refroidissement.
          Dans les réfrigérateurs-congélateurs, il y a deux circuits séparés de refroidissement à des températures différentes commandées par deux thermostats spécifiques de chaque compartiment. Ces deux circuit sont soit reliés chacun à un compresseur spécifique, soit le plus souvent à un seul compresseur avec des clapets.
          Une petite électronique simple commande les clapets de basculement du compresseur et inhibe le thermostat d’un compartiment lorsque l’autre est en cours de refroidissement..

          Je vous parlerai dans un prochain article du dégivrage et des réfrigérateurs-congélateurs « ventilé » dit « sans givre » (« no frost »), de leur fonctionnement et de leurs avantages et inconvénients par rapport aux matériels classiques.

Dimanche 15 octobre 2017 à 11:01

Sciences et techniques

    J’ai fait plusieurs articles sur la Terre et les planètes mais pas sur notre soleil, qui nous éclaire tous les jours. J’ai pourtant lu quelques articles notamment dans les revues « Pour la Science » et « La Recherche », et sur in ternet

        Que dire sur cet astre ?

    Le soleil est né, avec le système solaire, il y a environ 4,7 milliards d’années. Ce chiffre est acquit à partir de la datation de roches terrestres, lunaires et de celle de météorites.
    Comme beaucoup d’étoiles, il s’est probablement formé par contraction des gaz et des poussières de l’espace environnant de la nébuleuse, sous l’effet de la gravité, ce qui provoque une forte élévation de la température. Au bout de quelques dizaines de millions d’années, cette température est suffisamment élevée pour qu’aient lieu les premières réaction thermonucléaires de fusion de l’hydrogène, qui le transforment principalement en hélium.
    La masse de matière de la nébuleuse initiale était en rotation et s’est aplatie, ce qui a permis à des matériaux d’échapper à l’attraction solaire et de former des planètes, concentrées dans un  même plan.
    Mais un jour, le soleil mourra d’une longue agonie.
    Chaque seconde le soleil convertit 600 millions de tonnes d’hydrogène en hélium.
    La réserve d’hydrogène va donc diminuer peu à peu, mais le soleil a encore de l’ordre de 5 milliards d’années de vie. Il augmentera de volume d’environ 20%, de luminosité d’environ 50% et deviendra une étoile rouge dans laquelle l’hélium fusionnera en carbone, puis en azote et en oxygène, mais en produisant moins d’énergie. Il absorbera les planètes qui l’entourent.
    Puis au bout de quelques centaines de millions d’années, il se refroidira et deviendra une « naine blanche » de la taille de la Terre, mais avec une densité d’une tonne par cm3, ce qui est évidemment encore considérable, entourée d’une coquille de gaz en expansion. Cette naine blanche se refroidira très lentement en 10 milliard d'années, laissant une naine noire, froide et morte.
    D’où vient actuellement son énergie : de réactions thermonucléaires dans lesquelles le soleil transforme de l’hydrogène en hélium, avec une perte de masse qui se transforme en énergie (E = mc2, équation d’Einstein qui lie la masse à l’énergie), mais ces réactions nécessitent une température de plusieurs millions de degrés C.
    Au centre du soleil, la température est supérieure à 15 millions de d°C,  et la pression de 240 milliards de fois la pression atmosphérique de notre terre.   
    C’est à partir de cette énergie que le soleil nous envoie sa lumière et sa chaleur, mais le phénomène est complexe et nécessite qu’on parle de sa structure.
   
    La structure du soleil est faite de gaz, essentiellement hydrogène et hélium mais on trouve du carbone, de l’oxygène, du calcium, du fer, du titane, du manganèse… Sa limite extérieure n’est donc pas bien définie.
    Sur le schéma ci dessous on distinguera :

http://lancien.cowblog.fr/images/Sciences2/structuresoleil1.jpg

    Le soleil est sphérique, d’environ 1 400 000 km de diamètre, avec un léger aplatissement aux pôles, et tourne sur lui même en environ 25 jours, mais la vitesse est plus forte à l’équateur qu’aux pôles (ce sont des gaz!).
    Le coeur du soleil est à environ 15,5 millions de degrés, puis la température et la pression diminuent dans deux zones : une zone radiative qui, avec le coeur a un rayon d’environ 500 000 km et une zone convective d’épaisseur 200 000 km.
    Dans la zone radiative, la chaleur est transmise par des radiations thermique et la température décroit de 10 millions à 500 000 degrés C. Les atomes d’hydrogène et d’hélium ionisés émettent des photons, mais ceux qui n’ont qu’une faible énergie sont réabsorbés par les ions. Seuls les rayons x et gamma de haute énergie, vont se propager en étant absorbés et réémis à plus faible énergie : les photons émis au centre du soleil mettent deux millions d’années pour atteindre sa surface !
    Entre la zone radiative et la zone convective une zone de quelques milliers de km d’épaisseur est le siège de champs magnétiques très intenses.
    A la limite de la zone radiative, la température et la densité des gaz ne sont plus suffisantes pour que les photons puissent transporter l’énergie par radiation, et la zone convective va évacuer le surplus d’énergie grâce à de violents courants de convection, qui emmènent la chaleur en surface, puis replongent pour recevoir de la chaleur et l’évacuer à nouveau vers l’extérieur. Ces turbulences provoquent une polarité magnétique à la surface du soleil.
    A la limite de la zone de convection, la température n’’est plus que d’environ 5 500 d°C.

    Les couches superficielles sont très minces :
        -  la photosphère n’a que 500 km d’épaisseur et c’est d’elle que provient la lumière du soleil, qui correspond à un spectre de photos provenant d’un corps à 5500 d°.
Elle est animée de convections analogues à celles de la couche de convection, les courants ascendants remontant vers la surface à environ 500m/S et y émettant alors la lumière; ces courants ascendants ont environ 1000 km de diamètre et donnent au soleil un aspect granuleux, chaque granule durant environ 8 minutes, avant de disparaître.
    La photosphère émet 51% du rayonnement dans l’infra-rouge, 41% dans le visible, et 7% dans l’ultra-violet, les 1% restant étant émis sous forme d’autres particules que les photons.
        - la chromosphère a environ 2000 km d’épaisseur. La température remonte peu à peu pour atteindre à sa surface, environ 100 000 d°C; elle n’est visible que pendant une éclipse, sous forme d’une couche de couleur rosatre, due au rayonnement des atomes d’hélium à cette température.

    Au delà de ces couches on trouve une zone  peu dense d’ions hydrogène et hélium principalement, que l’on appelle « l’atmosphère solaire » et dont la température remonte à plusieurs millions de degrés.
    Les couches superficielles se comportent comme un plasma ionisé, qui, chauffé par en dessous, forme en quelque sorte des bulles et créent des « jets magnétiques (en jaune sur la simulation d’ordinateur ci-dessous). Ce sont ces champs magnétiques sui agissant sure les ions hydrogène et hélium, feraient remonter la température de l’atmosphère solaire, jusqu’à quelques millions de degrés.
    Ces champs magnétiques sont visibles sous forme te « taches solaires »

http://lancien.cowblog.fr/images/Sciences2/14079150.jpghttp://lancien.cowblog.fr/images/Sciences2/220pxRingoffire.jpg












 
   Associés à des champs électriques, ils projettent des jets de matière hors de la surface, à des centaines de milliers de km d’altitude, lesquels entraînent de l’énergie et retombe ensuite vers la surface, ce qui est observé sous la forme des « éruptions solaires », qui durent de quelques secondes à quelques heures et sont accompagnées de flashs d’ondes radio, de lumière visible, mais aussi de rayons X et gamma.
    Les émissions radio sont une source intéressante captée par les radiotélescopes, mais peuvent aussi perturber les transmissions, tandis que les rayonnements durs, qui créent des électrons dans l’atmosphère terrestre, lesquels sont concentrés aux pôles par le champ magnétique terrestre, excitent les atomes d’oxygène et d’azote, donnant des « aurores boréales ».
    En outre les réactions nucléaires du noyau du soleil, émettent des neutrinos, qui, de charge nulle et de masse très faible, n’ayant que très peu d’interaction avec la matière, sortent facilement du soleil, se propagent dans l’espace et traversent la Terre. Leur détection demande donc des expériences complexes.   

Samedi 6 mai 2017 à 9:04

Sciences et techniques

 Dans mon dernier article, nous avons vu les avantages et inconvénients d’une voiture électrique, parlons maintenant des voitures hybrides.
    En fait les voitures hybrides ne sont pas des voitures électriques, ce sont des voitures à moteur thermique, dans lesquelles un petit moteur électrique vient assister le moteur thermiques dans certains cas et si l’on voulait circuler en tout électrique, on ne ferait que quelques kilomètres. D’ailleurs elles ne se rechargent pas pour la plupart.
    Comment cela fonctionne t’il. ? Disposant du schéma d’une BMW, c’est à partir de là que je décrirai un fonctionnement qui toutefois n’est pas général.

    D’abord quel est le but poursuivi : pas de se propulser à l’électricité, mais d’éviter de faire fonctionner le moteur thermique de la voiture dans des plages où son rendement n’est pas bon (à basse vitesse principalement),  et d’autre part de récupérer de l’énergie au freinage au lieu de la dissiper en chaleur dans les freins.
    On peut ainsi diminuer la consommation d’essence, et donc la production de CO2, voire se contenter d’un moteur un peu moins puissant car quand son rendement est trop faible le moteur électrique l’assiste.

    Dans certaines voitures un moteur électrique est intégré dans la boîte de vitesse du moteur thermique, et fournit la propulsion quand la demande de puissance est faible, (et que le rendement du moteur thermique est mauvais), ou ajoute son énergie quand le demande est importante mais la vitesse de la voiture faible (démarrage, côte..).
    L’énergie électrique est fournie par une batterie et un ordinateur gère la contribution de la batterie à la propulsion
    Lorsque la puissance demandée est inférieure à celle fournie par le moteur thermique (vitesse constante sur route) ou que le moteur freine la voiture, un alternateur charge alors la batterie, en récupérant l’énergie superflue du moteur thermique ou celle de freinage. La batterie est relativement modeste en coût et en poids.
    C’est donc un système complexe et cher, en espérant qu’il soit fiable et en tout électrique on ne fait que 2 ou 3 km..

    Mais on peut faire mieux et plus cher comme « usine à gaz », si on veut faire une voiture hybride « rechargeable qui ait une autonomie électrique de 20 ou 30 km.

    On peut d’abord augmenter les batteries, mais cela augment le poids et le coût.
    Mais c’est trop simple et c’est tellement mieux de faire compliqué.
    Alors on propulse la voiture séparément par un moteur thermique et un moteur électrique. Le moteur thermique est, à l’avant, relié normalement au train avant et le moteur électrique est sur l’essieu arrière (voir schéma ci-dessous).
On peut fonctionner avec un seul moteur ou avec les deux, l’ordinateur gérant alors la contribution de chacun.

http://lancien.cowblog.fr/images/Sciences2/coverr4x3w1000578e85a1c5ddavolkswagenpassatgte20150.jpg
    Les gains en carburant sont plus importants, on peut se servir en ville du tout électrique et de ses avantages, mais le coût de la voiture est notablement plus élevé.
    C’est ce que l’on appelle une « hybride parallèle ».
    Le moteur thermique recharge les batteries, mais lentement et donc si l’on fait beaucoup de tout électrique, il faut recharger la batterie la nuit.

    On aurait pu faire plus simple, ce que l’on appelle les « hybrides série », mais pour le moment, les constructeurs n’utilisent pas cette technique, sauf exception dans des voitures de luxe très chères 
    Là c’est simple : c’est une voiture électrique avec des batteries très importantes lourdes et chères, et deux moteurs électriques sur les roues.
    En plus on a un petit moteur thermique qui fonctionne à vitesse constante et recharge les batteries, comme si on avait un groupe électrogène à bord.
    Là c’est simple, c’est une vraie voiture électrique, qui peut rouler en électrique en ville et faire des centaines de kilomètres sur route à condition de mettre de l’essence dans le réservoir. Malheureusement cette voiture n’existe pratiquement pas et elle est hors de prix. On espère tout de même que ce sera l’hybride de demain à un prix plus raisonnable.
    Mais actuellement son poids et son prix ne la rendent pas rentable par rapport à une voiture à essence.

    La voiture hybride est donc un engin compliqué, extrêmement cher, pour personnes riches passionnées d’écologie.
    Demain si les voitures hybrides parallèles se développent, elles seront techniquement bien plus intéressantes, mais le problème du prix reste pour le moment entier.
    Tout dépend aussi de l’autonomie que pourront avoir des voitures entièrement électriques avec de futures batteries et moteurs, et de leur prix
    Mais actuellement aucune hybride n’est rentable par rapport à une voiture à essence, en raison de son  prix. Il faut faire plus de 15 000 km de ville par an pour la rentabiliser et encore, ce n'est pas sûr, car les consommations réelles sont deux fois supérieures à celles annoncées dans des tests normalisés absurdes et non représentatifs de la réalité.

    Alors il ne faut pas s'étonner si elles n'ont guère de succès. 
    Personnellement je n'achèterai une hybride que lorsque ce sera une voiture électrique avec un générateur électrogène associé et qu'elle soit à un prix abordable. Mais je crois que je serai mort avant.


.

Mercredi 3 mai 2017 à 8:22

Sciences et techniques

      Il y a quatre ou cinq ans, on, nous prédisait un essor important de la voiture électrique, puis des voitures « hybrides ». En fait on s’aperçoit qu’il n’en est rien et que si les voitures électriques en location en ville sont relativement utilisées, les acheteurs de voitures électriques sont peu nombreux et ceux de voitures hybrides ne le sont pas plus.
    En fait la voiture électrique n’a qu’une autonomie très limitée et ne peut servir qu’en ville, et la voiture hybride n’est pour le moment qu’un gadget qui n’a rien d’une voiture électrique et est d’un coût prohibitif, donc pas rentable.
    Je vais d’abord parler de la voiture électrique puis dans un prochain article, des hybrides.
    Je ne vous parlerai pas des divers modèles, vous pouvez les trouver sur internet.

    En fait le moteur électrique est très supérieur au moteur thermique car il a un bien meilleur rendement aux basses vitesses et peut fournir un  couple important.; un stator fixe produit un champ magnétique fixe piloté par le courant continu qui le traverse, et un rotor va subir une force sous l’effet de ce champ magnétique, qui le fait tourner quand on le fait traverser par un courant. On maîtrise le couple fourni par le moteur en maîtrisant les deux courants de l’inducteur (stator) et de l’induit (rotor).
    On n’a donc pas besoin d’un changement de vitesse, et de plus en inversant le courant on peut freiner la machine et récupérer de l’énergie.
    On sait faire maintenant des moteurs relativement petits au rendement supérieur à 90 %, à comparer à des rendements des moteurs thermiques de l’ordre de 40 %.
    Ce ne sont plus des moteurs à courant continu, mais des moteurs asynchrones car on s le courant continu en alternatif grâce à un onduleur. Le stator est souvent un aimant permanent.
    Actuellement les moteurs sont assez volumineux et sont placés soit à l’avant du véhicule avec une transmission aux essieux, soit sur l’essieu arrière. Il est probable que dans le futur des moteurs plus petits seront implantés dans les roues.

http://lancien.cowblog.fr/images/Sciences2/vwegolf20170002657x420-copie-1.jpghttp://lancien.cowblog.fr/images/Sciences2/differentielvoitureelectrique-copie-1.jpg
 









    J’ai eu l’occasion de conduire une voiture électrique.
    Quand vous entrez dans l’habitacle, ce n’est pas différent d’une voiture normale, si ce n’est qu’il n’y a pas de changement de vitesse.
    Quand vous démarrez l’absence de bruit est bizarre car on est tellement habitué à surveiller le moteur à son bruit.
    Mais l’accélération est rapide et la voiture est souple Tout va bien.
    Par contre la première fois où vous vous arrêtez, vous avez intérêt à le faire dans un endroit sans autre voiture ! Il faut perdre l’habitude de lâcher l’accélérateur d’un coup pour passer sur la pédale de frein.  Dès que vous lâchez l’accélérateur, le moteur freine énormément. Sauf freinage d’urgence, vous n’avez presque pas besoin de vous servir du frein : un peu en fin de course pour s’arrêter. Et si vous freinez comme sur une voiture normale, on risque de vous renter dans l’arrière. Mais on s’habitue vite.
    Bref en ville c’est aussi agréable qu’une voiture normale. Il faut simplement faire attention car piétons et cyclistes ne vous entendent pas arriver.
    Sur autoroute on peut atteindre sans problème les 130kmh.

    Mais le problème est l’autonomie. En ville c’est de l’ordre de 70/80 km, mais sans chauffage, radio, essuie-glaces et autres accessoires.
    Sur autoroute à 130, je ne sais pas mais plus de moitié moins.
    On peut charger la batterie en 6h sur une prise 16A domestique et sur les prises spéciales disponibles da,s les rues en 2h environ.
    Pour une voiture de ville notamment pour son travail c’est vraiment très commode.
    Mais évidement pas question d’aller en vacances avec !!

    Le prix est très cher, même avec les aides actuelles et ce n’est rentable que si l’on fait à peu près 15 à 20 000 km par an en ville.
    Que se passera t’il dans les prochaines années ? On annonce des voitures à plus grande autonomie; mais les chiffres annoncés résultent de tests standardisés en laboratoire. En fait la pratique semble assez différente d’après les journaux d’automobiles.
    Les 300 ou 400 km annoncés se réduisent à moins de 100 si vous roulez à 130 sur autoroute, en utilisant quelques accessoires.
    Le poids des voiture a augmenté, (batteries) le prix aussi. Plus de 25000 € pour une petite voiture.
    Surtout vous ne pouvez plus recharger totalement la batterie en une nuit chez vous, sauf achat d’une borne et installation d’un compteur 36 kVA, ce qui est fort onéreux : de l’ordre de 3000 € en plus. Donc il faut utiliser les bornes des villes et des routes et pour le moment, le réseau n’est pas suffisant.

    Finalement bien que la voiture électrique soit très agréable à conduire, elle reste aujourd’hui, très chère avec une autonomie limitée. C’est donc soit une très bonne voiture de ville pour des riches, soit une voiture rentable en ville pour une société ou une personne qui fait plus de 20 000 km par an en ville, ce qui reste assez rare, et sans faire plus de 50/70 km par jour.
    Pas étonnant que les ventes ne dépassent pas 0,5% des ventes de voitures neuves.

    Dans le prochain article, je parlerai des voitures hybrides
  

Mercredi 22 mars 2017 à 10:04

Sciences et techniques

Une correspondante me demande de lui expliquer ce qu’est un e chaudière à condensation.
        Je vais essayer de le faire mais avant il faut que j’explique comment est organisée une chaudière normale.


        Les chaudières qui ont une dizaine d’années n’étaient pas des chaudières à condensation.
        Elles sont constituées de 5 éléments :
            • Une enveloppe extérieure, en acier ou en fonte, qui conserve mieux la chaleur. Elle comporte une isolation thermique intermédiaire, en général en laine de roche, pour limiter les pertes de chaleur de la chaudière vers l’atmosphère de la chaufferie.
            • A l’intérieur de l’enveloppe un  réservoir d’eau avec des compartiments successifs dans lesquels l’eau circule et va se réchauffer.
            • Le brûleur dont l’électronique va réguler la combustion, de fioul ou de gaz, et va permettre de faire varier la puissance de la chaudière en fonction des besoins de chauffage.
            Les chaudières à gaz ont une rampe analogue aux feux d’une cuisinière; les chaudières à fioul ont des gicleurs qui pulvérisent le combustible en fines gouttes. Par ailleurs le brûleur est muni d’une soufflante qui envoie l’air nécessaire à la combustion, par son oxygène.
            L’électronique du brûleur comporte des systèmes de contrôle qui garantissent la sécurité - notamment pour le gaz, le fioul liquide étant moins dangereux (incendie mais pas d’explosion).
            • Le corps de chauffe qui est une chambre d’acier ou fonte, où la flamme produite par le brûleur transfère l’énergie de combustion aux éléments métalliques de la chaudière et à l’eau de chauffage. C’est là que sont créent les fumées de combustion composées principalement de CO2 et d’eau et de quelques impuretés telles que les oxydes d’azote.
            • Les conduites de fumées internes : les fumées circulent dans la chaudière dans des tuyauteries de faible diamètre, et transfèrent également une partie de leur énergie à l’eau. Les tuyauteries font circuler plusieurs fois (en général trois fois) les fumées pour qu’elles cèdent le maximum d’énergie.
http://lancien.cowblog.fr/images/Sciences2/chaudiere.jpg               A l’extérieur de la chaudière les fumées sont conduites par une tuyauterie vers la cheminée. Dans le cas d’évacuation de vapeur d’eau (gaz notamment), la cheminée doit être tubée intérieurement grâce à un tube en inox, pour éviter les dégradations.

        L’eau chaude qui sort de la chaudière est envoyée par une pompe dans un circuit primaire. Sa température est régulée par un thermostat qui actionne le brûleur. Elle est dans la plupart des cas entre 70 et 90 d°C.
        Certaines chaudières fonctionnent à température plus basse, mais il faut alors dans les locaux un chauffage par le sol ou des radiateurs spéciaux
        L’eau du circuit primaire est mélangée à l’eau qui revient des radiateurs par une vanne « 3 voies », et réchauffe cette eau qui est renvoyée dans les radiateurs à une température qui est en général fixée par une régulation électronique, et qui dépend d’une part de la température extérieure météorologique, et de la température que l’on veut avoir dans les pièces.

Qu‘est ce qu’une chaudière à condensation ?

        Les pertes principales de chaleur d’une chaudière classiques sont la chaleur emportée par les fumées, qui peuvent sortir de la chaudière entre 150 et 300 d°, d’où l’idée d’essayer d’utiliser cette chaleur dans un échangeur, pour en récupérer une partie.
        Dans les fumées, il y a du CO2 chaud qui peut céder de la chaleur et de la vapeur d’eau : si on pouvait la liquéfier à nouveau on récupère alors de la chaleur : la chaleur latente de condensation.
        On fait donc passer dans les tuyauteries d’évacuation des fumées, l’eau à basse température de retour des radiateurs. Cette eau récupère une partie de la chaleur du CO2 et, si elle arrive à suffisamment basse température et peut amener la condensation de la vapeur d’eau des fumées, elle va récupérer la chaleur de condensation.
        On réduit alors en réchauffant ainsi l’eau de retour des radiateurs, l’effort demandé à la chaudière pour la chauffer à la température voulue.
        La température des fumées envoyées dans la cheminée peut être réduite à 70 à 90 d°C.
http://lancien.cowblog.fr/images/Sciences2/condensation.jpg        Les publicités annoncent des économies énormes qui sont erronées.
        L’économie de consommation est de l’ordre de 5% avec une chaudière au fioul et de 10 % avec une chaudière au gaz.
        L’investissement est important, car outre le prix de la nouvelle chaudière, il faut modifier de façon importante le circuit de retour de l’eau des radiateurs.
        Par ailleurs si la température de retour des radiateurs est trop élevée  (notamment lorsqu’il fait très froid, la température de rosée n’est pas atteinte et l’efficacité de la chaudière à condensation baisse et donc également le gain de consommation.
        Le tubage en inox est indispensable et il faut recueillir l’eau de consensation provenant de la cheminée.
        En fait la chaudière à condensation est adaptée aux locaux ayant un chauffage à basse température.
        Dans les installations classiques à chauffage en acier pour lesquelq par grand froid la température de retour sera de l’ordre de 50 à 55 d°, les gains ne dépassent pas 10% au mieux et souvent pas plus de 5%, ce qui n’est pas suffisant pour amortir les frais de l’installation si elle entraîne des modifications importante.
    Donc, ne pas croire les publicités et faire étudier son cas particuier par un chauffagiste sérieux.

Mercredi 8 février 2017 à 16:22

Sciences et techniques

  J’ai choqué certains de mes correspondants en disant qu’en France on négligeait le long terme et notamment la recherche scientifique.

Les gouvernements, qu’ils soient de droite comme de gauche, ont des vues à court terme (le temps d’un mandat  - 5 ans le plus souvent). La recherche s’étend sur des dizaines d’années avant de porter vraiment ses fruits.

 

J’ai trouvé récemment dans la revue « Pour la Science », un graphique intéressant qui montre les efforts de recherches des divers pays du monde en 2014 :

- le diamètre du cercle est proportionnels au budget de recherche.

- en abscisses le pourcentage du PIB correspondant.

- en ordonnées, le nombre de chercheurs par milliers d’emplois.

La France est au milieu du graphique.

http://lancien.cowblog.fr/images/Images3/Recherchemondiale2014.jpg


Certes nous avons encore une place privilégiée en résultats de recherche scientifique, mais pour combien de temps car ils sont dus à nos efforts passés.

Actuellement le budget des laboratoires stagne et je connais une jeune physicienne, de formation bac + 10, entrée dans les premières à Normale Sup sciences, qui a réussi brillamment son doctorat et son agrégation de physique, qui est passionnée de recherche, qu’elle exerce dans un labo d’Etat, et qui gagne à peine plus de 2000 € par mois. Elle ferait de la technique de base dans l’industrie, et gagnerait presque le double.

Comment voulez vous ainsi attirer de jeunes scientifiques brillants : c’est un vrai sacerdoce !

 

La recherche en France a du mal à aborder les domaines nouveaux et à couvrir assez de domaines. La spécialisation sur quelques thèmes n’est pas de mise en recherche à long terme, car les découvertes importantes arrivent souvent dans des domaines où on ne les attendait pas.

La recherche a besoin de cerveaux bien formés, expérimentés et passionnés par leur travail car les résultats sont souvent long à venir et il faut être persévérant. On n’arrive à rien seul : il faut des équipes pluridisciplinaires, qui s’entendent bien et œuvrent dans le même but. 

Mais elle a besoin aussi de moyens matériels importants : la chimie par exemple n’est plus au temps des béchers et des cornues, mais nécessite des appareillages complexes et couteux. Les recherches menées sur le cerveau au CEA nécessitent d’énormes machines IRM (voir mon article du 15/4/2015) performants complexes et très coûteux. Et à coté des appareils de mesure, il faut disposer d’ordinateurs très puissants pour faire simulations calculs et interprétation des mesures, et stocker toutes les données. Si vous examinez où sont ces grosses machines : aux USA et en Chine !

 

La recherche c’est notre avenir scientifique et technique. La prospérité relative actuelle de la France résulte de plusieurs siècles d’efforts et de découvertes.

Aujourd’hui malheureusement le pays est gouverné par des politique qui n’ont que des vues à court terme, et des financiers qui ne se soucient que de la rentabilité immédiate.

Les chercheurs sont considérés comme des « intellectuels » et n’ont plus la considérations qu’ils méritent de par leurs qualités et leurs connaissances;

Samedi 24 septembre 2016 à 16:23

Sciences et techniques

http://lancien.cowblog.fr/images/Sciences2/Unknown-copie-3.jpg

     J’ai toujours été étonné de certaines options prises par les informaticiens. Le rêve des ingénieurs et techniciens qui créent les logiciels importants (je ne parle pas des gadgets sur téléphone portable ni des jeux), est le plus souvent une automatisation complète, ce qui est une erreur.
    C’était la mode en gestion, il y a une trentaine d’années, quand je travaillais, que ce soit des traitements comptables, financiers, d’approvisionnements, de gestion de stocks, de production, de personnels et même de fabrications …
    Pour les informaticiens, la machine doit se substituer à l’homme, et tout faire seule, à partir du programme prévu; on entre des données et on récupère soit d’autres données, soit des actions automatiques.
    D’une part il en résulte d’énormes programmes, de véritables « usines à gaz », peu évolutifs et peu adaptables, d’un emploi complexe, qui nécessitent une formation de longue durée, et qui favorisent les erreurs des opérateurs.
    D’autre part, ils doivent satisfaire tous les utilisateurs, de tous niveaux, et toutes les particularités des tâches, et il est impossible à un programmeur, quelque soit son niveau, de prévoir tous les détails présents et à venir, tous les cas possibles, et toutes les erreurs (ou parfois idées saugrenues) des utilisateurs.
    La fiabilité parfaite est impossible, et, la machine étant automatique, on ne peut s’apercevoir à temps des erreurs, et leur correction à postériori est difficile, voire impossible.
    J’ai toujours réagi en entreprise à cette tendance, et j’avais fait mettre en place il y a trente ans, un réseau de microordinateurs, reliés à des serveurs de données, le microordinateur n’ayant qu’un petit programme spécifique d’un type d’utilisation et l’utilisateur pouvait en partie l’adapter au niveau de l’interface, la machine se chargeant des tâches fastidieuses et des calculs, mais l’opérateur conservant la maîtrise des opérations et les tâches intelligentes demandant initiative, réflexion et décision.
    Le nombre d’erreurs était bien moindre et les personnels bien plus satisfaits et motivés.

    Je suis étonné de voir que les mêmes attitudes sont aussi de mise dans des études avancées d’intelligence artificielle, par exemple quand Google étudie une voiture entièrement automatique, où le chauffeur n’a plus besoin d’être présent.
    Une telle voiture est très complexe, basée sur des capteurs très évolués, notamment des radars toutes directions, une multitude de caméras et une informatique très importante. Une telle voiture sera donc très chère et sa diffusion limitée.
    Par ailleurs, si elle sera capable de réagir face à des obstacles fixes, et même à un environnement mobile qui obéit à des règles, je doute qu’elle puisse prévoir tous les comportements erronés ou farfelus des autres automobilistes, cyclistes ou piétons, certains comme les enfants ne se rendant pas compte du danger, et d’autres surpris, ayant des comportements aberrants.
    Je crains que la sécurité ne soit pas toujours garantie et la reprise du contrôle par un conducteur demande un temps prohibitif, en cas d’incident inattendu (délai beaucoup plus court de réaction exigé que pour un pilote automatique d’avion, les obstacles étant proches)..
    L’automatisation complète de la conduite est une erreur, alors qu’on pourrait aider le conducteur dans certaines tâches fastidieuses, mais pour lesquelles les risques sont limités, et lui laisser le contrôle intelligent dans les cas difficiles.
    Nous avons déjà des exemples, les détecteurs de recul, le régulateur de vitesse sur autoroute, le GPS, les commandes automatiques de phares ou d’essuie-glaces, le freinage en cas de détection d’obstacle, l’anti-patinage en cas de freinage trop brutal qui bloquerait les roues, etc
    Mais évidemment ces innovations sont moins prestigieuses et n’épatent pas la galerie. Mais elles sont  plus fiables, plus rapides à mettre en service, moins chères, et donc plus utiles

Dimanche 28 août 2016 à 9:06

Sciences et techniques

     Une lectrice me demande par mail, comment « fonctionne » une étoile.
    J’avais fait un article sur le soleil et ses réactions thermonucléaires, le 1er juillet 2011, mais c’était un peu compliqué. Je vais essayer de faire plus simple.

    Newton avait généralement trouvé que deux masses célestes m1 et m2 s’attirent, la force d’attraction étant proportionnelle à m1 X m2  / d2, d étant la distance qui les sépare.
Cette force gravitationnelle s’applique aussi aux masses élémentaires à l’intérieur d’un astre.
    Les étoiles sont constituées de beaucoup de matière, sous forme gazeuse. La matière périphérique est attirée par celle située au centre, de telle sorte que l’étoile se comprime peu à peu. La pression devient énorme, et la température également.
    La température atteint plusieurs millions de degrés et des réactions thermonucléaire de fusion ont alors lieu.
    Mais la pression tend à repousser le gaz en contrant l’attraction de gravitation, repoussant les gaz vers la surface.
    En fait dans une étoile, la boule de gaz est en équilibre, les forces gravitationnelles attractives, et celles de pression répulsives, s’équilibrant.
    Les masses mises en jeu sont énormes; notre soleil, qui n’est qu’une étoile très moyenne, représente environ 2 milliards de milliards de milliards de tonnes de matière (2. 1027) soit 330 000 fois celle de la terre.

    Initialement la matière de l’univers était essentiellement de l’hydrogène et de l’hélium. Mais les réactions thermonucléaires créent de nouveaux éléments, plus l’énergie étant élevée, plus on peut fusionner pour donner des élément lourds : carbone, oxygène, magnésium, silicium, phosphore, soufre calcium, titane, chrome, fer et nickel, qui sont les deux éléments les plus lourds, correspondant aux énergies les plus fortes.
    Des éléments plus lourds tel que or, platine, uranium, sont créés dans l’explosion d’étoiles massives, les énergies instantanées libérées étant alors énormes.
    L’énergie libérée en une seconde dans le soleil, correspond aux besoins énergétiques de notre planète pendant plusieurs centaines de millions d’années.
    Dans notre soleil, il y a 74% d’hydrogène, 24% d’hélium,et 2% d’éléments lords, sous forme de plasma d’atomes dépourvus de leurs électrons.
    Chaque seconde le soleil convertir 700 millions de tonnes d’hydrogène en hélium, grâce à des réactions de fusion nucléaire, libérant ainsi sous forme d’énergie l’équivalent de 4,5 millions de tonnes de matière par seconde, , soit (E = mC2) un peu moins de 4 1026 joules.Chaque seconde le soleil convertir 700 millions de tonnes d’hydrogène en hélium, grâce à des réactions de fusion nucléaire, libérant ainsi sous forme d’énergie l’équivalent de 4,5 millions de tonnes de matière par seconde, , soit (E = mC2) un peu moins de 4 1026 joules.

    Voyons comment est constitué le soleil :

http://lancien.cowblog.fr/images/Sciences/structuresoleil1.jpg

    Les réactions thermonucléaires ont lieu au centre du soleil, dans ce que l’on appelle le “noyau”. Elles sont auto régulées car toute augmentation de la fusion nucléaire entraîne un réchauffement et une dilatation du cœur qui réduit en retour le taux de fusion, et à l’inverse, toute diminution légère de la fusion refroidit et densifie le cœur, ce qui fait revenir le niveau de fusion à son taux initial.
    Le rayon de la sphère “noyau” correspond à environ un quart du rayon du soleil. La température y est de l’ordre de 15 millions de degrés et la pression de  250 milliards de bars (soit 2,5 1016 pascals; la pression atmosphérique sur la terre est voisine de 1 bar).

    Il y a ensuite une zone dite “radiative”, entre 0,25 et 0,75 rayon du soleil dans laquelle la matière est très chaude et dense, où les divers noyaux perdent leur énergie cinétique et les électrons positifs s’annihilent avec des électrons négatifs en donnant des photons et toute l’énergie est finalement transformée en photons au départ très énergiques, mais qui peu à peu par action sur les noyaux, donnent par absorption et réémission, des photons d’énergie moindre.   
    En raison de ces nombreuses réactions, on estime que le temps de transit d’un photon du cœur à la surface est compris entre 10 000 et 170 000 ans. ! En surface de cette zone la température n’est plus que de 2 millions de degrés.

    Puis une zone de 0,25 rayon solaire où la chaleur est transmise par “convection” c’est à dire que la matière monte à la surface de cette zone et se refroidit de 2 millions à 5800 d°, puis replonge vers le centre et il y a ainsi de nombreux courants de convection turbulent que l’on observe à la surface du soleil sous forme de granulations.
    D’énormes champs magnétiques règnent dans cette zone

    La dernière zone appelée photosphère, n’a qu’une épaisseur de 400 km et sa température est de l’ordre de 5800 d°. C’est elle qui laisse échapper la lumière solaire (ultraviolet, visible et infra-rouge).

    Enfin il existe une zone autour du soleil que l’on appelle “atmosphère solaire” avec deux zones : la chromosphère, très peu épaisse et la couronne solaire qui s’étend à des millions de km. (mais rien de comparable avec l’atmosphère terrestre.). Elle est surtout composée d’hydrogène et d’hélium, mais, dans une première partie, on y trouve des éléments plus lourd : azote, oxygène, oxyde de carbone, eau.
    La température remonte progressivement jusqu’à un million de degrés sans qu’on en connaisse l’explication (probablement d’origine magnétique).

    J’espère que maintenant vous savez mieux comment « fonctionne » une étoile.

Vendredi 26 août 2016 à 8:47

Sciences et techniques

http://lancien.cowblog.fr/images/Images3/VIDEOQuellesetoilespeutonobserverdanslecieldhiver.jpg
      L’été, le ciel est souvent clair et au bord de la plage l’horizon est très large. On peut dont se prélasser, couché sur le sable, à regarder les étoiles, innombrables et brillantes dans le ciel.
    Ces étoiles, ces constellations, c’est bien mystérieux.

    Les constellations qui nous sont chères, la grande et la petite ourse, (quand j’étais petit, je trouvais qu’elles ressemblaient plus à des casseroles qu’à une ourse !), le sagittaire, le scorpion, le capricorne, …. et que nous cherchons à localiser dans le ciel, en fait, elles n’existent pas !! Ce sont des illusions d’optique.

    Les astronomes ont en effet mesuré les distances à la terre des principales étoiles d’une même constellation. Elles sont très différentes et ces étoiles ne sont pas proches les unes des autres, mais elles sont dans des directions voisines vers la terre, les unes derrière les autres. C’est donc un effet de perspective qui nous fait croire qu’elles sont proches et forment les figures que nous connaissons.
    Un rêve d’enfant qui s’envole !

http://lancien.cowblog.fr/images/Sciences2/distance2.jpg

    Comment les astronomes mesurent ils la distance des étoiles proches ? Ils se servent de la notion bien connue des amateurs de photos : la parallaxe.
    Durant l’année, la terre tourne autour du soleil décrivant une ellipse presque circulaire. Le « fond du ciel, étant tellement loin, que ce mouvement ne perturbe guère l’angle sous lequel on le voit : il est donc apparemment fixe.
    Au contraire, les étoiles plus proches de la Terre (quelques centaines d’années lumière), ne semblent pas au même endroit du ciel si on les regarde à 6 mois d’intervalle. Et si on observe leur mouvement durant 12 mois, on constate qu'elles accomplissent un petit cercle sur le fond de ciel fixe.
    On voit, sur la figure ci dessus, que plus l’étoile est proche de la terre, plus le diamètre du cercle est important.
    Si on fait des mesures de la position de l’étoile à six mois d’intervalle, la terre se sera déplacée de deux fois sa distance R au soleil, qui est de 149 597 870 km
     La parallaxe annuelle, d’une étoile est l’angle téta sous lequel on verrait, depuis cette étoile (E), le demi-grand axe de l’orbite de la Terre (R). (schéma ci dessous)


http://lancien.cowblog.fr/images/Sciences2/Parallaxeannuelle.jpg

En mesurant le déplacement de l’étoile sur le fonds de ciel fixe, on peut mesurer les angles  ABE et BAE dont la somme avec 2 téta fait 180 degrés.
On peut donc calculer la parallaxe téta, et R/D = tangente téta d’où le calcul de D distance de l’étoile.  La distance terre soleil est mesurée actuellement par télémétrie radar à partir de sondes spatiales.

De 1989 à 1993,des centaines de milliers de parallaxes ont été mesurées par le satellite Hipparcos, (115 mesures pour chaque étoile). Débarrassé des turbulences de l'atmosphère terrestre, Hipparcos a pu mesurer l'angle de parallaxe de ces étoiles avec une précision inégalée: 118 218 étoiles à 0.001 seconde d'arc près et 1 050 000 étoiles entre 0.007’’ et 0.03’’.

 

Les étoiles que nous observons n’ont pas toutes la même couleur, ni la même brillance.

Cela dépend de la température de leur surface : la loi de Wien simplifiée indique que la couleur d’un corps est liée à sa température, la longueur d’onde de l’émission étant inversement proportionnelle à la température (en degrés Kelvin d°C + 273).

Le soleil dont la température de surface est de l’ordre de 5700 d°C rayonne dans le jaune, alors que Bételgeuse, qui est rouge n’a une température de surface que d’environ 3000 d°C et Sirius à une température de l’ordre de 25 000 d°C est bleue. Une étoile à 60 000 d°C rayonne dans l’ultraviolet et donc nous ne la voyons pas à l’oeil nu.

La brillance est aussi fonction de la température, puisque la puissance rayonnée est proportionnelle à la puissance 4 de la température. Mais le phénomène est complexe, car les photos émis résultent en définitive des réactions thermonucléaires au centre de l’étoile. Donc plus une étoile est massive, plus elle va être brillante.

 

<< Page précédente | 1 | 2 | 3 | 4 | 5 | Page suivante >>

lancien

sortir de la tristesse

Créer un podcast