Lundi 23 février 2015 à 8:52

Sciences et techniques

   Je vous ai expliqué hier ce qu’était le Bureau d'Enquêtes et d'Analyses (BEA) pour la Sécurité de l'Aviation civile.
     Aujourd’hui, je vais essayer de vous expliquer comment il mêne une enquête, notamment lors q’un grave accident.

     Le BEA est saisi lorsqu’un incident aéronautique se produit en France. Cela peut être un incident qui a mis l’équipage en difficulté, le vol se terminant sans accident, un incident ayant endommagé l’avion, en vol ou sur un terrain d’aviation, ou un accident grave, sans ou avec des victimes.
     Lorsque l’accident se produit à l’étranger, c’est l’état où il a eu lieu qui mène l’enquête. Mais les états où a été étudié, construit et immatriculé l’appareil sont aussi concernés, de même que celui de la compagnie, et de plus en plus, au moins pour information, les états correspondants à la nationalité d’éventuelles victimes. De plus le BEA peut être appelé à titre d’expert, compte tenu de ses compétences.
     Un « enquêteur désigné » est nommé par le pays  lieu de l’accident. Des collaborateurs des divers états sont nommés pour suivre et éventuellement participer à l’enquête.
    Pour un accident en Fran ce, l’enquêteur désigné appartient au BEA.
    Des directives européennes codifient les règles de déroulement des enquêtes et, en France, une loi de 1999 et son décret d’application de 2001, ainsi que le livre VII du code de l’aviation civile, définissent le rôle et les méthodes à appliquer lors de l’enquête.

     Pour déterminer les causes de l’accident, le rôle du BEA est essentiellement technique :
     Il se livre à des enquêtes auprès des pilotes et personnels de bord, des contrôleurs aériens, des personnels au sol, et évidemment des constructeurs d’avions, qui peuvent l’aider dans ses examens techniques. La recherche de débris, notamment en mer, est une tâche difficile, d’autant plus qu’un accident s’accompagne le plus souvent d’un incendie, et que les parties en fibres non métalliques, ne laissent que des cendres (dangereuses au plan respiratoire)
     Ces investigations mettent en lumière un certain nombre de faits, qu’il faut examiner sans idée préconçue sur les causes de l’incident  de l’accident.
     ll faut non seulement examiner les diverses causes possibles, mais regarder toute la chaine des événements et circonstances, la chronologie des faits, notamment de pilotage, les renseignements dont disposait l’équipage pour prendre ses décisions, les risques potentiels et ceux réellement apparus, l’environnement géographique, météorologique et psychique, et se référer éventuellement à des incidents antérieurs analogues.

      Pour les petits appareils d’aéroclub, l’équipement est plus sommaire que sur les avions de ligne, car il n’existe pas la plupart du temps d’enregistreur de bord sophistiqués.
     Si les occupants de l’avions , décédés ne sont plus là pour témoigner des faits, l’enquête se base sur l’examen des conversations avec le contrôle aérien, des cartes radar, et sur celui des restes de l’avion : carlingue, cokpit, moteur, panneaux d'alarmes, positions des sélecteurs et commandes de vol, indication des appareils de mesure, notamment ceux qui indiquent l’attitude de l’avion, et le GPS ou les appareillages qui enregistrent sa position dans l’espace. et donc sa route.
     Pour les accidents d’appareils plus importants, une phase très importante est celle de l’examen d’une centaine et jusqu’à 2000 paramètres techniques de vol et les conversations des pilotes, enregistrés par les « boîtes noires » des aéronefs (enregistreurs de vol qui sont rouges).
     Le BEA analyse tous les paramètres techniques de vol pendant l’incident : moteurs, commandes de vols, paramètres aérodynamiques, instruments de navigation, engagement et désengagement d'automatisme, position des gouvernes, des commandes de vol, ainsi que la trajectoire de l’avion et sa position dans l’espace : inclinaison, vitesse,   ….
     Ci dessous deux photos de ces enregistreurs de bord, en bon état.
Une balise fixée sur chacun des boitiers protégés est destinée à permettre les recherches des enregistreurs lors d'un accident en mer. Ces balises émettent un signal qui se propage dans l'eau sous la forme d'une impulsion toutes les secondes. Ce signal peut être capté par des détecteurs adaptés. La durée d'émission qui était de 30 jours, est maintenant portée à 90 jours.

http://lancien.cowblog.fr/images/Sciences2/enregistreur01.jpghttp://lancien.cowblog.fr/images/Sciences2/enregistreur08.jpg













      Ces enregistreurs sont très solides, mais si leur enveloppe est endommagée, le BEA sait extraire les mémoires informatiques, et les lire, voire « recoller » une bande magnétique d’enregistrement des voix.
      Les mémoires et bandes sont ensuite dépouillées sur des appareillages spéciaux dont vous voyez ci dessous deux exemples, celui de droite vous donnant une idée de la complexité des connexions à réaliser.

http://lancien.cowblog.fr/images/Sciences2/extrairecontenubrut.jpghttp://lancien.cowblog.fr/images/Sciences2/extrairememoirevolatile.jpg












      Le BEA fait également des examens mécaniques et métallurgiques
Il rassemble éventuellement des éléments de l’aéronefs et les testes pour déterminer d’éventuelles anomalies.
      Les éléments d’épave prélevés sur site sont acheminés en laboratoire afin d'y être observés et analysés. Ils peuvent être de nature très diverse : pièces, ensembles mécaniques, équipements, instruments de bord, ampoules, fluides, débris, dépôts...
      Les examens pratiqués ont pour objectif de déterminer les causes de défaillance des pièces et leur éventuelle implication dans l'accident : origine ou conséquence. Ils peuvent aussi permettre de recouvrir certaines informations sur la configuration de l'appareil au moment de l'accident.
      La photo de gauche représente des débris d’avion qui vont être rassemblés pour analyse, et la photo de droite un cadran d’anémomètre de planeur qui indique la vitesse au moment de l’impact, grâce à la trace laissée par l’aiguille.

http://lancien.cowblog.fr/images/Sciences2/images-copie-1.jpghttp://lancien.cowblog.fr/images/Sciences2/anemometre.jpg













     Des simulations sur ordinateur ou sur des avions analogues à celui accidenté, peuvent être faites pour valider certaines séquences de vol.
     Les hypothèses quant aux causes peuvent amener à faire de nouvelles investigations pour les valider.
Il faut tout au long de l’enquête, ne pas perdre de vue que le but à atteindre est non seulement l’explication des problèmes rencontrés mais aussi les recommandations à faire pour les éviter à l’avenir.
     La tâche est difficile, mais le BEA est outillé pour la mener à bien et il est son seul maître.

Dimanche 22 février 2015 à 8:16

Sciences et techniques

http://lancien.cowblog.fr/images/Sciences2/B8NDJNIAAEdvyJ.jpg

     Vous avez sûrement, dans la presse ou à la télé, vu des images d’accidents d’avions, plus ou moins graves.
     Mais savez vous ce qu’est le Bureau d'Enquêtes et d'Analyses (BEA) pour la Sécurité de l'Aviation civile. Probablement pas, alors je vais vous l’expliquer aujourd’hui et demain, je vous montrerai comment il fait une enquête.

     Le BEA est un organisme de la Direction Générale de l’Aviation Civile, implanté sur l’aéroport du Bourget, qui emploie une centaine d’ingénieurs et techniciens, dont la moitié sont des enquêteurs de haut niveau, et dispose de moyens importants d’une part dans le domaine de l’examen d’appareillages aéronautiques et d’extraction de leurs données enregistrées ou transmises, et d’autre part d’examens mécaniques et métallurgiques de morceaux de structures d’aéronef.
     Son directeur, l’ingénieur général Rémi Jouty, est un pilote émérite et un technicien qui possède des connaissances aéronautiques et une expérience remarquables.
     Le BEA est amené à faire chaque année de l’ordre 170 enquêtes en France et 200 environ à l’étranger. Il y a en France, de l’ordre de 40 accidents mortels par an et environ 70 morts. La plupart concernent de petits aéronefs
     Ses rapports sont publics et il émet en outre entre 10 et 80 recommandations visant à améliorer la sécurité du transport aéronautique, soit au niveau des appareils soit au niveau de la formation des pilotes et des contrôleurs du ciel, soit quant aux règles de circulation aérienne.
     Son rôle est en effet la prévention des accidents futurs grâce à l’examen des incidents de vol et accidents, et cela sur les gros avions commerciaux ou de transport, sur les petits aéronefs certifiés ou non, les hélicoptères, les ULM, les planeurs, (et les drones si un accident se produisait un jour).
C’est un expert indépendant qui analyse incidents et accidents, non pas dans le but d’établir des responsabilités (ce rôle est dévolu à la justice), mais dans celui de rechercher les causes en vue d’un « retour d’expérience destiné à améliorer la sécurité future des transports aériens.
     Il collabore avec des organismes étrangers en cas d’accident hors de France.
     C’est en importance et notoriété, le second organisme de ce type dans le monde, après son homologue américain.
     Les rapports du BEA sont publics, mais ils ne donnent que les éléments indispensables pour comprendre les causes de l’incident ou l’accident. L’enquête nécessite de rassembler de très nombreuses autres données techniques ou de constat des circonstances, qui sont conservées par le BEA en archives, leur interprétation étant trop complexe pour des personnes non spécialisées, et leur diffusion pourrait donc ensuite amener à des erreurs de jugement.
     Vous pouvez sur le site du BEA,   http://www.bea.aero/fr/publications/rapports/           lire des rapports d’enquêtes, mais ils sont difficiles à suivre, car beaucoup de termes relatifs aux instruments de vol et à leur emploi, sont inconnus pour les non-pilotes d’avions.
Vous verrez que ces rapports peuvent concerner des accidents graves avec des victimes, mais aussi des incidents qui ont provoqué des difficultés à l’équipage - et probablement des sueurs froides -, mais qui heureusement, n’ont pas empêché l’avion d’arriver à bon port. Mais ces difficultés auraient pu entraîner un accident et il faut donc essayer d’en connaître la cause, pour éviter qu’elles ne se reproduisent.

     Je vous dirai demain comment procède techniquement le BEA.
     Aujourd’hui je me contenterai de souligner l’aspect délicat de son travail sur le plan de la communication, et de la coopération avec la Justice et les médias, ainsi que dans les rapports avec le monde politique et les familles d’éventuelles victimes, assistées de leurs avocats.
     Ne sont donc associées à l'enquête que des personnes susceptibles de contribuer à son avancement.  Selon la loi, elles sont soumises au secret professionnel parce que des informations confidentielles ou non validées y sont échangées au cours de l'enquête et que les discussions indispensables à son déroulement ne peuvent être mises sur la place publique.
     En principe le BEA est le seul à devoir rassembler les faits et les preuves et la loi lui donne le pas sur la justice. Mais c’est contraire aux habitudes françaises en matière de recherche des responsabilités pénales, et les rapports avec notamment les juges d’instruction, sont parfois délicats.
     Les politiques ont souvent leur mot à dire d’autant plus que l’opinion publique est pour eux un facteur important, et donc les problèmes d’information des médias sont très délicats, car ils peuvent entraîner des supposées conclusions inexactes.
     Les familles ont droit, en priorité, aux explications du malheur qui les a frappé, mais on ne peut leur donner trop tôt des renseignements non avérés, car l’interprétation d’éléments pour lesquels elles n’ont pas la compétence nécessaire, risque d’entraîner ensuite des difficultés au plan juridique.
     De plus des éléments économiques peuvent être en jeu au niveau des constructeurs et des compagnies aériennes ou des responsables de navigation. (pilotes, contrôle aérien…).

     La tâche du BEA est donc encore plus délicate en matière de relations extérieures que sur le plan technique, pour lequel il est remarquablement outiullé et où il est son seul maître.
Je vous parlerai demain de ces enquêtes techniques.

Mardi 17 février 2015 à 8:25

Sciences et techniques

http://lancien.cowblog.fr/images/Sciences2/697889universitedebristolultrahapticsjpg.png

    Toucher de l’immatériel, que l’on ne voit pas, voilà qui aurait effrayé mes ancêtres. Aujourd’hui c’est possible grâce à des chercheurs britanniques de l’université de Bristol.

    Si l’on envoie, avec un appareil approprié des ultrasons sur la peau, par exemple d’un membre de notre corps, des vibrations sont perçues créant l’illusion d’une surface résistante ou en mouvement.
   
    Lorsque l’on utilise plusieurs sources sonores, de même fréquence (même hauteur de son, - la note -) et relativement ponctuelles, les ondes arrivant en un point se composent, en fonction de leurs phases, de la même façon que la lumière (voir mes précédents articles).
    En utilisant deux sources,le son est maximal aux points où la différence des distances est égale à une longueur d’onde, et, si la différence est d’une demi-longueur d’onde, le son est nul.
    On ne parle pas dans ce cas d’interférences, (bien que ce soit analogue au phénomène lumineux), mais d’ondes stationnaires.
    La création d’un tel phénomène dans un tuyau est le principe de base de tous les instruments de musique « à vent ».

    Les chercheurs anglais ont crée un ensemble de générateurs ponctuels d’ultrasons,  analogues à ceux qui servent en échographie, qui peuvent créer de multiples points où le signal sonore est maximal ou nul, par interférence entre les ondes que créent les diverses sources.
    Si on pilote ces générateurs par un logiciel qui serait la représentation holographique de l’objet, pour la longueur d’onde de l’ultrason utilisé, (voir l'article d'hier), on peut provoquer alors dans l’air des maxima de pression sur une surface en 3D ayant la forme de l’objet.
    Evidement il faut obtenir cet hologramme adapté aux longueurs d’ondes sonores au lieu des longueurs d'ondes lumineuses.
Pour cela on peut comme en holographie lumineuse, comparer le son reçu directement d’une source et celui réfléchi par les divers points de l’objet.
    Mais ces hologrammes dit « haptiques » (toucher en grec), sont moins précis et pour le moment, on ne sait modéliser que des formes simples (cubes, sphères, cônes…), mais évidemment des progrès vont être faits.
    Si on met la main à l’endroit de l’objet virtuel, les effets des ultrasons sur les terminaisons nerveuses de la peau, donnent l’illusion de le toucher
    Les chercheurs ont associé leur machine à un module de contrôle gestuel, afin de permettre au générateur d'ondes de s'adapter au positionnement et aux mouvements de la main de l’utilisateur, car comme il ne voit pas l'objet, il ne sait pas trop où mettre la main et il faut que la peau soit au bon endroit pour sentir la pression de l’objet virtuel.
    Le système d’essai est représenté dans le schéma ci dessous.

http://lancien.cowblog.fr/images/Sciences2/hologrammesonore.jpg
     Parmi, les applications envisagées, les chercheurs évoquent la possibilité de l'appliquer aux méthodes d'imagerie pour que le chirurgien puisse littéralement sentir une affection comme une tumeur sous ses doigts. Ou encore, une utilisation dans les musées qui permettrait aux visiteurs de toucher des objets exposés.
    J’en propose une autre, plus amusante, combinant l’holographie lumineuse et sonore.
    Je reproduis en sonore l’image haptique holographique d’un petit chien et à son extrémité l’image virtuelle visible de la queue du chien.
    Avec ma main je caresse l’image virtuelle sonore invisible du chien, et l’ordinateur déclenche une holographie vidéo de la queue, qui se met à remuer de plaisir, et la queue je la vois, bien que je ne vois pas le chien mais que je le sente sous mes doigts. LOL

http://lancien.cowblog.fr/images/Caricatures4/chiencaresse.jpg

Lundi 16 février 2015 à 7:59

Sciences et techniques

http://lancien.cowblog.fr/images/Images2-1/7748539955uneboutiquedelingerieproposeuneanimationinsolitedanssavitrineunmannequinensousvetementsquivaetvientsouslesyeuxdespassantsaccompagneparunepluiedetoiles.jpg

    Avant hier, nous avons vu le principe de l’holographie, qui utilisait l’enregistrement d’interférences caractérisant l’objet eb-n 3D, sur une plaque photographique à grain très fin.
    Aujourd’hui l’holographie est devenue numérique, avec le développement des ordinateurs et des capteurs solides de lumière
.

http://lancien.cowblog.fr/images/Sciences2/recapitulatif2.jpg

    L'holographie optique et l'holographie numérique utilisent le même montage optique de création de l’hologramme. La différence tient au choix du capteur:
        - dans le cas de l'holographie optique, l'intensité est enregistrée par la plaque photosensible dont le coefficient de transmission, après développement, est proportionnel à l'intensité enregistrée.
        - en holographie numérique, on utilise un capteur solide CCD pour enregistrer l’intensité, lequel transforme la flux lumineux en courant électrique.
Ce courant transformé en tension, est ensuite numérisé et enregistré sur ordinateur.

    La restitution est également différente :
        - l'holographie optique permet de faire des hologrammes visibles à l'oeil nu à condition d'être éclairés sous un même angle, par une onde similaire à l'onde de référence. Une fois la plaque éclairée par l'onde de référence, le cristallin forme sur la rétine une image dont on sait mathématiquement calculer les propriétés (c’est un calcul classique de lentille convergente).
        - dans le cas de l'holographie numérique, on peut simuler avec un logiciel, ce que fait notre oeil naturellement. On calcule sur l’ordinateur l’image de l’objet que verrait l’oeil. On peut alors la stocker numériquement, la voir sur l’écran de l’ordinateur ou la projeter à partir d’un projecteur numérique. C'est se qui se passera demain sur les smartphones.

http://lancien.cowblog.fr/images/Sciences2/Unknown.jpg

    On peut créer des hologrammes en couleur en enregistrant des hologrammes de l’objet avec des lumière de longueurs d’ondes différentes, correspondant au rouge, au bleu et au vert par exemple. En les mélangeant numériquement on peut alors avoir un hologramme de l’objet en couleur.
    Avec les progrès en capacité de calcul des ordinateurs, on peut enregistrer en temps réel l’hologramme de l’objet à une fréquence vidéo. On peut donc avoir des images 3D d’un objet en mouvement à une vitesse compatible avec la vidéo.
    On a alors un hologramme de l’objet animé sous forme numérique.

    Si cela vous amuse, vous pouvez aller sur Youtube à l’adresse :
https://www.youtube.com/watch?v=zxop5eDn_V8
pour voir des hologrammes vidéo, projetés sur la façade d’un immeuble de Berlin.

Samedi 14 février 2015 à 8:05

Sciences et techniques

http://lancien.cowblog.fr/images/Images2-1/hologr1283266906.jpg

         Je vais aujourd’hui, essayer de vous expliquer quel est le principe d’un hologramme et comment on les créait il y a une cinquantaine d’années quand les lasers ont été  relativement connus.

  
  Pour réaliser l’hologramme, on va mélanger de la lumière cohérente, monochromatique, issue d’un laser, à la lumière réfléchie par un objet que l’on éclaire par la même lumière (cf. le premier schéma ci dessous)
    La lumière traverse d’abord un miroir semi transparent, pour se réfléchir sur un second miroir et être envoyée sur un film photographique, à travers une lentille, qui règle la dimension du faisceau. Ce sera le faisceau de référence.
    Une partie de la lumière réfléchie par le premier miroir est réfléchie vers un second miroir, qui l’envoie, après passage dans une lentille, éclairer l’objet à holographier.
    La lumière réfléchie par l’objet est envoyée alors vers le film photographique.
    Cette pellicule, dite holographique, est un film à grain très fin, parce qu’il va falloir différencier des éclairages à des distances de l’ordre de quelques micromètres.

    Si l’on considère le rayon lumineux qui est réfléchi par un point de l’objet, et le rayon du faisceau de référence, qui arrive au même endroit, les distances parcourues ne sont en général pas les mêmes et selon les distances en cause, qui dépendent de la forme de l’objet, il y aura une certaine différence de phase entre les deux rayons lumineux.
    Si la différence de phase est nulle, on aura une luminosité maximale (les ondes s’additionnant - voir mon article d’hier), et si la différence est égale à une demi-longueur d’onde on aura une extinction du faisceau.
    Sur la pellicule photo, on va donc avoir un grand nombre de points plus ou moins lumineux, qui vont impressionner différemment l’émulsion photographique. On peut même accentuer le contraste au développement de la pellicule
    On a donc sur la pellicule développée, une « empreinte » de l’objet sous forme de points plus ou moins éclairés, et qui caractérise la forme en 3D de l’objet, avec une grande précision, puisque la différence significative de parcours entre deux points voisins au niveau de l’objet, qui donnent du noir ou du blanc sur la pellicule, est de l’ordre de la demi-longueur d’onde.
http://lancien.cowblog.fr/images/Sciences2/holographie.jpg
    Voyons maintenant comment on restitue l’hologramme. (deuxième schéma ci dessus).
    L’oeil de l’observateur se trouve derrière la plaque holographique, sans aucune lunette spéciale. On éclaire la plaque développée avec le laser, sous le même que lors de la prise de vue initiale. La plaque avec ses noirs et blancs, agit comme un filtre et laisse passer plus ou moins de lumière, et restitue donc les variations de lumière du faisceau incident issu de l’objet, et qui dépend de sa forme en 3D.
    L’oeil a donc l’impression de recevoir un faisceau virtuel provenant de l’objet et « voit » l’objet en 3D, qui flotte dans l’air. Comme l’objet est fait de points lumineux et non de matière, il scintille un peu et parait un peu fantomatique.

    On peut ainsi réaliser des truquages et le cinéma s’en est beaucoup servi, de même que des prestidigitateurs sur scène.
    Le système est quand même un peu complexe à réaliser et il était fait sans aucun moyen informatique.
    L’arrivée et les progrès de l’ordinateur, associé aux progrès des capteurs solides de lumière a bouleversé la technique, de telle sorte que les plaques holographiques ne sont plus utilisées.
    Mais c’est le meilleurs moyen d’expliquer le principe de l’holographie.
    Après un intermède demain, je vous expliquerai après demain succinctement l’apport de l’informatique, puis le jour suivant, je vous montrerai que l’on peut réaliser des simulations, qui ne sont pas des hologrammes, mais s'inspirent de leur principe, non plus lumineux, mais sonores, et vous permettre de toucher avec votre main, un objet virtuel qui n’existe pas et que vous ne voyez pas !!
   

Vendredi 13 février 2015 à 8:48

Sciences et techniques

     Des correspondants m’ont demandé ce que seraient les images holographiques, dont on parle sur internet, pour les futurs smartphones. Ce seront des images que vous devriez voir en relief.
    C’est un peu compliqué, alors je vais essayer de vous l’expliquer en trois articles, pas trop longs, peut être un peu difficiles à lire, si vous n’avez pas étudié les interférence en terminale, comme on le faisait autrefois.
    On va donc d’abord parler lumière et interférences.


    Propriétés de la lumière :

    La lumière est constituée de photons qui transportent de l’énergie, mais on ne peut, en mécanique quantique, connaître de façon précise les caractéristiques d’une particule dans le temps et dans l’espace (parce qu’en voulant les mesurer on perturbe son mouvement).
    On ne peut donc connaître que des caractéristiques statistiques sur un grand nombre de photon, et ces valeurs sont décrites par les caractéristiques d’une « onde associée ».
    L’onde associée à la particule n’est pas matérielle comme les ondes sonores ou les vagues, il s’agit plutôt d’une onde porteuse d’information sur la probabilité de trouver a particule, (ici le photon),  en un point donné. Ainsi, la particule a une forte probabilité de se trouver à un instant donné, dans les zones de grande amplitude de l’onde, mais très peu de chances d’apparaître en des points où cette amplitude est faible.

    La lumière « pure » d’un laser a quatre propriétés :
        - son intensité : c’est le nombre de photons émis et donc la quantité de lumière transportée par le faisceau.
        - son monochromatisme : les photons ont tous la même énergie. On peut l’associer à la fréquence ou longueur d’onde de l’onde associée. La lumière a une seule couleur précise.
        - la cohérence spatiale : elle correspond au départ de tous les rayons lumineux d’un seul point du fait que le rayon laser est très directif et très droit.
        - la cohérence temporelle ou « phase » : correspond à un départ simultané des rayons lumineux à partir de la source; donc en un point donné, les photos qui sont partis en même temps, arrivent en même temps : ils dont « en phase ».

    Arrivée en un point de deux groupes de photons.

    Supposons deux groupes de photons partis en même temps de la même source laser. Le comportement statistique de ces photons peut être représenté par celui de l’onde. L’intensité de la lumière transportée par chaque groupe, peut être représentée par une sinusoïde, dont la distance entre maxima d’intensité est égale à la longueur d’onde de la lumière (et donc fonction de sa couleur).

http://lancien.cowblog.fr/images/Sciences2/ondelumineuse.jpg
    Supposons que les deux groupes de photons aient parcouru le même chemin. Il arrivent en un point en même temps, et donc les ondes sont identiques et s’ajoutent (figure de gauche); on dit qu’elles sont « en concordance de phase ».
    Mais supposons que nous n’ayons pas fait subir le même chemin aux deux groupes et que la différence de chemin soit d’une 1/2 longueur d’onde. Les deux ondes sont alors « en opposition de phase », et elles se détruisent mutuellement. (figure de droite).
http://lancien.cowblog.fr/images/Sciences2/image010.jpghttp://lancien.cowblog.fr/images/Sciences2/image011.jpg





    Supposons un troisième cas où la différence de chemin est intermédiaire, les ondes se composent en fonction de cette différence ∂, et cette composition est toujours inférieure à celle maximale où les ondes sont en phase.
http://lancien.cowblog.fr/images/Sciences2/image008.jpg
    Interférences lumineuses.

    Supposons deux sources lumineuses d’intensités voisines, de même longueur d’onde, et cohérentes (deux lasers par exemple mais accordés pour que les émissions soient simultanées). En fait on ne procède pas comme cela mais on utilise un laser unique éclairant 2 fentes S1 et S2 proches l’une de l’autre, mais assez éloignées de S.
S1 et S2 jouent le rôle de sources cohérentes, c’est à dire qu’elles sont dans le même état vibratoire.

http://lancien.cowblog.fr/images/Sciences2/interferences.jpg
    De façon régulière on rencontre sur l’écran mis dans le champ d’interférences, des lignes verticales le long desquelles les distances et temps de parcours à partir des deux fentes sont identiques : la lumière est alors maximale
    De même on va trouver des lignes verticales où la différence de distance de parcours entre les deux faisceaux est égale à 1/2 longueur d’onde : la lumière est alors nulle.
    On a alors sur l’écran des « franges » analogues à la figure ci dessous à gauche.

http://lancien.cowblog.fr/images/Sciences2/frangesfentes.jpghttp://lancien.cowblog.fr/images/Sciences2/200pxInterferenz.jpg







    Dans le cas où l’on utilise de petits trous au lieu de fentes fines, le phénomène est le même, mais la répartition des zones d’interférence est presque circulaire et plus compliquée du fait qu’il existe une distance entre les sources horizontalement, mais pas verticalement. Les franges ont l’allure de la figure ci dessus à droite.
    Ces figures sont appelées des franges de Young, physicien qui les a découvertes.

    Maintenant que nous savons ce que sont des interférences lumineuses, nous allons pouvoir expliquer ce qu’est un hologramme. Ce sera pour demain.

Vendredi 14 novembre 2014 à 7:58

Sciences et techniques

http://lancien.cowblog.fr/images/Images2-1/x0y230w1320h440141805558120623.jpg

     J’ai fait beaucoup de voyages en avion quand je travaillais, gros avions de transport commerciaux ou militaires, petits avions à moteur de lignes secondaires et j’ai même piloté de petits avions de tourisme.
    J’ai vécu des tas d’incidents, panne électrique des instruments de navigation, trois fois la foudre sur l’avion, le feu d’un moteur, des oiseaux dans un réacteur à l’atterrissage, un train d’atterrissage qui casse sur une piste de fortune au Sahara, et un passage sur la tranche dans un atterrissage dans une tempête de sable…
    Je suis toujours là et j’ai donc une confiance absolue dans les avions et leur fiabilité. Mais j’ai toujours une petite nostalgie du temps où je voyageais et je m’intéresse donc aux progrès aéronautiques.
     J’avais été étonné par des études d’Airbus sur un avion sans cockpit, et donc une cabine de pilotage sans fenêtre. Le constructeur en attendait un gain aérodynamique et de poids, donc de carburant. La cabine de pilotage ne serait plus à l’avant, mais sous les cabines de passagers, devant la soute à bagages.
http://lancien.cowblog.fr/images/Images3/airbusfutur.jpg     Placées sur tous les axes de l’appareil, de nombreuses caméras renverraient aux pilotes de très nombreuses images pour obtenir une vision à 360 degrés, très supérieure à la visibilité actuelle. La cabine de pilotage serait complètement modifiée et de grands écrans 3D pourraient afficher en même temps un grand nombre de données météorologiques, techniques, de navigation… ce qui ressemblerait aux simulateurs de vol de formation des pilotes. 

     A quand l’avion sans pilote, piloté à partir de stations au sol ?
    Mais une société britannique s’occupe aussi des passagers : le CPI (Center for Process Innovation). Elle propose un avion sans hublots dans une cabine surréaliste.
Pour que les hublots d’un avion résistent aux forces aérodynamiques, il faut considérablement renforcer la structure de l’avion. De plus, ce sont des perturbateurs de l’écoulement de l’air le long du fuselage. Les supprimer allègerait l’avion, favoriserait son avancement dans l’air et donc entraînerait une diminution non négligeable de consommation de carburant, et donc également moins d’émission de CO2.

http://lancien.cowblog.fr/images/Objetsdivers/flightconcept04.jpg
    Le fuselage interne de l’avion serait composé d’écrans, reliés à des caméras externes, de telle sorte que les passagers auraient l'impression d'être vraiment plongés dans le ciel, comme s’ils étaient assis dans des fauteuils volants.
    Mais si les passagers avaient peur de cet affichage, et de se trouver ainsi flottant au milieu des nuages,  des écrans devant chaque fauteuil pourraient leur proposer des vidéos de leur choix, ou même servir d’ordinateur personnel sur lequel on branche une clé USB. On trouve sur internet des vidéos époustouflantes.

Lundi 2 juin 2014 à 7:49

Sciences et techniques

  Hier je vous ai décrit des imprimantes 3D « personnelles » à fil de plastique fondu et extrudé; aujourd’hui, je vais décrire deux types d’imprimantes industrielles à stéréolithographie et à frittage par laser, plus chères mais beaucoup plus précises, et certaines de leurs applications. (Les schémas de Bruno Bourgeois sont extraits de la revue La Recherche).

    Une deuxième technique consiste à déposer un liquide photosensible que vient ensuite polymériser un laser ultraviolet. À chaque passage du rayon sur le plateau d’impression, couche après couche, le liquide se transforme en résine solide jusqu’à former l’objet complet. La lumière peut être dirigée par puce très petite, de haute définition contenant un très grand nombre de miroirs microscopiques, comme celles utilisées dans les projecteurs d’images de microordinateurs.
    Cette technique de "stéréolithographie" permet d’atteindre des précisions de l’ordre de 10 à 15 micromètres, les objets restant en plastique mais conviennent à la réalisation de prototypes de grande qualité, permettant de vérifier les formes et dimension d’un objet en cours d’étude. Elles sont utilisées de façon courante pour créer des objets qui doivent être adaptés à des dimensions extérieures qui varient selon les cas, comme par exemple les prothèses dentaires ou auditive, ou bien par des désigners qui créent des modèles en bijouterie.
    Ces imprimantes coûtent de l’ordre de 3000 € (dix fois plus que celles à filage).
http://lancien.cowblog.fr/images/Sciences2/3Dlitho.jpg

    Une autre technique réservée à de la fabrication industrielle est celle du frittage de poudre, en utilisant un faisceau laser puissant pour échauffer localement la poudre et ainsi faire fusionner ses particules, couche après couche.
    Les imprimantes à frittage par laser sont de grande taille et coûtent plusieurs centaines de milliers d’euros quand leur     automatisme permet une production de série, par exemple de boitiers, de coques, de pièces de mécanismes, et notamment des pièces du domaine aéronautique ou spatial, précises et de très haute résistance..…
    Des machines moins chères, destinées à la fabrication de prototypes et non de séries, sont utilisées par les grands cabinets d'architecture
pour la construction de maquettes, par des artistes et des designers pour la création de sculptures complexes, ou par le secteur de la mode pour Ia réalisation de pièces sur mesure, mais aussi par des laboratoires de recherche notament dans le domaine des prothèses biologiques.
http://lancien.cowblog.fr/images/Sciences2/3Dlaser.jpg    Le principal avantage du frittage de poudre est d'offrir un choix très vaste de matériaux d'impression. Dès lors que le matériau peut être réduit en poudre homogène, son impression 3D est envisageable.
    Le matériau plastique le plus courant est le polyamide, mais, surtout, il est
possible d'imprimer des métaux, ce que ne peuvent faire les techniques précédentes : titane, cobalt, chrome, acier inoxydable, mais aussi or, argent, bronze ou platine peuvent être imprimés par des machines 3D à frittage. On peut même fusionner par un procédé analogue du sable ou du béton.  Les machines ne sont évidemment pas polyvalentes, mais adaptée à un type particulier de poudre.
    Par ailleurs la poudre qui n’est pas utilisée est récupérée et peut reservir ensuite, ce qui est important avec des métaux précieux.

    Certaines machines ne procèdent pas par fusion de la poudre, mais, par encollage des couches par dépôt de colle que l’on polymérise.

http://lancien.cowblog.fr/images/Sciences2/Crane3D.jpg     On trouve souvent des articles sur des applications médicales, toujours spectaculaires. Par exemple un crâne entier a été reconstitué en plastique avec une imprimante 3D, avant d'être implanté sur une jeune femme aux Pays-Bas. La prothèse a été réalisée en plexiglas, transparent, résistant aux ultraviolets et à la corrosion, et léger. La forme a été élaborée à partir d'un scanner, et l’opération de mise en place a duré 23 heures. (voir la photo ci contre)

    Mais la recherche médicale va plus loin : elle cherche à construire des organes avec des cellules vivantes humaines, notamment des cellules souches. Des essais sont effectués pour réaliser des prototypes d’oreilles (à partir de cellules de cartilage), de tissus osseux ou de muscles. Des implantations ont été faites sur des animaux. Le problème sera celui à moyen terme du rejet, mais qui est moindre qu’avec des implants plastiques..


http://lancien.cowblog.fr/images/Sciences2/3Dindus.jpg     L’impression 3D est donc porteuse de grandes promesses, et devrait peu à peu envahir notre monde comme les imprimantes numériques de bureau., pour textes et images. Leur prix va sûrement baisser lorsque les ventes vont sensiblement augmenter. (ci contre un e imprimante industrielle)
    Le principal frein restera le fait qu’il faut disposer d’un fichier 3D numérique de représentation des objets à réaliser.
    On commence toutefois à voir apparaître sur le marché des fichiers d’objets « standards » (par exemple des fourchettes cuillères couteaux…), ainsi que des sociétés qui possèdent un scanner et vendent donc de la « numérisation d’objet ».
    Je pense que mes enfants et petits enfants verront d’ici 10 à 20 ans un grand développement et une banalisation de ces techniques.
    Pour la réalisation de tissus humains utilisables couramment, ce sera peut être un peu plus long, car le problème n’est pas que technique, mais aussi biologique..

Vendredi 14 février 2014 à 8:32

Sciences et techniques

http://lancien.cowblog.fr/images/SanteBiologie-1/modeles.jpg

    Il paraît que Facebook devrait disparaître en 2017!!!

    Même si je ne pleurerai pas sur son sort, je suis étonné, d’autant plus que cette étude a été faite avec un modèle mathématique applicable aux épidémies.
    Des correspondantes m’ont demandé comment on pouvait appliquer un tel modèle à un réseau social.
    Pas facile de répondre car c’est plutôt complexe, mais je n’ai jamais reculé devant les difficultés; seulement ce n’est pas possible de répondre  sans d’abord montrer ce qu’est un modèle mathématique, puis un tel modèle pour prévoir les risques épidémiologiques, et je ne pourrai parler de Facebook qu’ensuite.
    Jusqu’à présent je ne vous en avais dit que quelques mots à propos des modèle mathématiques de simulation concernant l’évolution du climat. (voir mon article du 27/8/2013),
    Donc accrochez vous pour suivre lol, mais rassurez vous, je n’utilisera pas de maths, ce serait imbuvable.

Qu’est ce qu’un modèle mathématique ? et une simulation ?

    Quand vous prenez votre voiture pour partir en vacances et que vous roulez sur l’autoroute à vitesse constante, vous savez que la distance d que vous parcourez pendant un temps donné, est le produit de votre vitesse v par le temps t.
    Dire que d = v t est un modèle mathématique est un peu abusif, tant c’est simplifié à l’état d’une simple formule qu’on apprend en CM1, mais c’est un exemple.
    En effet on est parti de la réalité, on a fait des mesures de distance vitesse et temps et on a abouti à cette équation toute simple. On est allé de l’expérience aux mathématiques. Ensuite si on connaît sa vitesse on peut calculer les distances parcourues à diverses heures; On se sert de la formule mathématique pour prévoir la situation.
    Un modèle mathématique est analogue, si ce n’est que les équations sont beaucoup plus compliquées et cela d’autant plus que les phénomènes sont complexes.
    Cela concerne en général un phénomène physique, chimique ou biologique; on part d’observations numériques et d’hypothèses d’équations issues d’une explication scientifique du phénomène, on bâtit un modèle à base de ces équations, et ensuite on essaie de prévoir les résultats d’expériences que l’on peut faire sur le phénomène. On peut alors vérifier si les résultats des mesures sont conformes à ceux prévus par le modèle ou s’il faut modifier celui-ci, soit en changeant les équations, soit en ajustant des paramètres dans les équations utilisées.
    On peut ensuite utiliser ces modèles mathématiques pour prévoir des phénomènes analogues, mais qui ne sont pas encore arrivés, et pour établir diverses situations en fonctions d’hypothèses de départ initiales différentes. C’est ce qu’on appelle une simulation. C’est par exemple ce que l’on essayait de faire en simulant les conséquences sur le climat, de la production des gaz à effet de serre.

    Un petit complément au cas où vous entendriez ces mots :
    Certains modèles sont dits « déterministes » : c’était le cas de notre voiture. Ce sont des modèles où on décompose les phénomènes en étapes successives et où on peut expliciter les événements par des données initiales, des équations qui représentent le phénomène de façon supposée exacte, et où on aboutit à des données finales, cela sans intervention des lois de probabilité. Cela suppose en quelque sorte que les phénomènes sont déterminés, c’est à dire qu’ils se passent toujours de la même façon.
    A l’inverse il y a des phénomènes que l’on est incapable de décrire par des données et des équations permanentes et où donc les éléments ne se comportent pas toujours de la même façon. Par contre on peut observer une certaine répartition statistique des comportements. On peut alors se servir des calculs mathématiques des probabilités pour décrire ces phénomènes. On parle alors de modèles « stochastiques »
    On a enfin des cas où les phénomènes dépendent d’une multitude de petites causes et on n’est jamais certain de les connaître toutes et de pouvoir les quantifier.
    On dit alors qu’ils se produisent « au hasard » et il faut donc pouvoir simuler ce hasard.
    Si on dispose de séries de valeurs expérimentales du phénomène, on peut en général  identifier une loi statistique qui régit ces valeurs, mais on ne connait pas les valeurs initiales des phénomènes. On peut remplacer ces valeurs par un tirage au sort « au hasard » et on applique la loi mathématique à ces valeurs tirées au hasard. Bien sûr on ne va pas tirer d’un chapeau des numéros inscrits sur de petit papiers ou utiliser les boules du loto, mais il existe des programmes sur ordinateur qui savent faire des « tirages aléatoires de nombres »
    A partir de ces valeurs tirées au hasard et de la loi de probabilité, on peut donc simuler le phénomène, à condition que la loi de probabilité soit la bonne et que ses paramètres aient été bien ajustés. Tout dépend de la qualité des données expérimentales de départ.
    On appelle souvent ce type de simulation « une simulation de Monté Carlo », (comme à la roulette dans les salles de jeu).
    On utilise ce type de calcul quand on veut par exemple simuler des embouteillages et la saturation d’une autoroute.
    On peut partir d’une hypothèse de « flux moyen » de voitures, mais comme elles n’arrivent pas à intervalle régulier (ce serait trop simple et non représentatif de la réalité), on tire au hasard les instants ou les nombres d’arrivées sur l’autoroute, en respectant le flux moyen. On voit ainsi à partir de quel flux on risque une saturation et comment elle s’établit (en général très brutalement comme l’eau qui se fige en glace).
   
    Bien entendu de tels calculs étaient très difficile à faire quand j’ai fait mes études (à la main avec des tables de logarithmes, que la plupart d’entre vous n’ont jamais connues). 
Aujourd’hui, tout se fait évidemment sur ordinateur et des simulations complexes comme celles sur le climat, demandent des ordinateurs énormes (voir mon article sur l’ordinateur Curie : 11/7/2013).
    Sans l’ordinateur, les modèles aléatoires n’étaient guère utilisables, car lorsqu’on fait des tirages au sort,  il faut faire « tourner » de nombreuses fois le modèle, car on obtient des résultats qui peuvent être assez différents et il faut donc un nombre suffisant d’essais pour obtenir des moyennes représentatives des résultats probables avec une faible marge d’erreur. Les calculs sont trop nombreux pour être faits à la main.

    Mais vous constatez donc que pour faire un « modèle mathématique » il ne suffit pas d’être matheux, il faut en outre bien connaître le phénomène scientifique que l’on veut simuler.
    Donc dans le cas des épidémies, il faut d’abord voir ce qu’on doit connaître sur ce sujet
C’est ce que nous verrons demain.

Vendredi 6 décembre 2013 à 8:24

Sciences et techniques

http://lancien.cowblog.fr/images/ClimatEnergie2/top500sequoia.jpg

   Quand j’avais 50 ans de moins et que j’avais 4 petits enfants, il m’arrivait de dire qu’on s’arrêtait là en matière de natalité, car je craignais que le cinquième ne soit chinois, puisque 1 enfant sur 5 est chinois. Je me rends compte aujourd’hui qu’on aurait pu me dire que c’était un propos raciste !!
    Mais je crains que mes arrières-petits-enfants ne soient quand même chinois d’ici 2050, car la Chine veut être rapidement la première puissance économique mondiale, et actuellement, elle cherche à être présente partout et à acheter de nombreuses sociétés partout dans le monde.
    Elle a notamment décidé de réduire sa dépendance en matière de technologies étrangères à 30% d’ici 2020, et devenir la première puissance mondiale en matière de recherche et développement.
   
    Les super-calculateurs sont un enjeu très important dans ce domaine.
    Ils sont indispensables pour toutes les simulations de grande envergure : la physique-chimie (toutes les simulations de processus complexes par exemple la propagation d’une onde de choc), les sciences de la terre (notamment climatologie, météorologie, sismique, océanologie, simulation de phénomènes tels la foudre...), les technologies industrielles (par exemple toutes les simulation du comportement d’une structure d’avion en vol, des processus d’usines chimiques ou des centrales nucléaires...), et indépendance nationale dans le domaine de la défense (décryptage de codes, simulations des intentions des adversaires, simulation de tous les phénomènes liés aux explosions nucléaires...) et même dans le domaine de l’économie, même si ses lois ne sont plus guère connues.
    Toutes les grandes nations cherchent donc à réaliser de tels calculateurs. J’avais fait un article le 11 janvier 2013 sur le calculateur français «Curie», d’une puissance d’environ 2 pétaflops (2 millions de milliards d’opérations par seconde), installé au centre CEA de Bruyère le Chatel.
   
    Déjà en 2010 la Chine avait réalisé le plus gros calculateur existant, le Tianhé 1, d’une puissance de 2,6 pétaflops. Elle avait été depuis distancée par les américains avec le calculateur du centre d’OakRidge de 17,6 pétaflops.
    La Chine depuis cet été a repris la première place avec un calculateur Tianhé 2, développé par l’université nationale des technologies de défense, pour le centre national de Canton. Sa puissance par rapport à son prédécesseur a été multipliée par 10 : 33,9 pétaflops et il rassemble plus de 3 millions de petit calculateurs en réseau.
    Les précédents calculateurs ne sont évidemment pas mis à la poubelle et la puissance totale de calcul de la Chine a triplé, passant de 7% du niveau mondial à 21 %, derrière les USA, qui représentent 48% de la puissance de calcul mondiale.
    Toutefois le Tiahé 2 utilise encore des processeurs américains, mais la Chine est en train de développer sa propre industrie de puces, et les prochains calculateurs devraient être entièrement chinois d’ici quelques années..
   
    Je n’ai pas trouvé sur internet de phoito du calculateur chinois, ni d’ailleurs du calculateur d’Oakridge, car ce sont des centres des ministères de la Défense.
    La photo ci dessus montre le supercalculateur américain IBM «Séquoia» du ministère de l’Energie, de 16,3 pétaflops. Il sert notamment aux études de sécurité des réacteurs nucléaires américains.

<< Page précédente | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | Page suivante >>

lancien

sortir de la tristesse

Créer un podcast