Dimanche 28 avril 2013 à 9:19

Sciences et techniques

http://lancien.cowblog.fr/images/Animaux3/118166.jpghttp://lancien.cowblog.fr/images/Animaux3/essaimplusbellesphotosinsectes98020.jpg
















            Je vous ai décrit hier les résultat de l’étude par l’université d’Harvard, d’un petit robot d’abeille « Robobee », de 3 cm d’envergure et pesant moins d’un gramme.
            Aujourd’hui, je vous parlerai de la partie informatique de l’étude, non pour contrôler le vol du robot, mais pour lui permettre de se repérer, de se guider et de programmer ses actions et l’activité de nombreux robots, « butinant » ensemble.
 
            Les robots habituels ont à bord des accéléromètres et des gyroscopes qui leur donnent le moyen de reconstituer leur trajectoire et de se repérer sur des cartes géographiques numérisées. Mais un tel mécanisme serait trop lourd pour notre robot-abeille.
            Les chercheurs ont essayé d’imiter la vision des abeilles, avec un système visuel simple, mais efficace, qui analyse le mouvement des objets dans le champ visuel d’un « œil » capteur d’images.
            Les objets proches se déplaçant plus vite dans le champ que les objets éloignés, on peut utiliser cette information pour « calculer » une représentation tridimensionnelle de l’environnement. Toutefois ce processus demande un traitement important et donc un calculateur performant, d’autant plus que le « cerveau » du robot doit ensuite prendre des décisions pour diriger son vol et commander ses actionneurs.
            Les microprocesseurs actuels pouvant faire ce calcul étaient trop gros et trop pesants.
            Harvard a donc fait développer des circuits spécialisés ne faisant qu’une seule chose, mais très rapidement, et en les associant ensuite.
            Pour cela les chercheurs ont construit un beaucoup plus grand robot ;abeille, qui n’a pas volé, mais qui portait des capteurs optiques en essai, de caractéristiques et performances diverses, et devant lesquels on projetait des images de l’environnement, comme si le robot volait réellement. On étudiait alors les réactions des ailes, la puissance consommée, les performances obtenues.
            Cette étude a permis d’optimiser en partie les capteurs et maintenant de commencer à étudier et à perfectionner les logiciels et les éléments de microprocesseurs, qui constitueront le cerveau de Robobee.
 
Le problème est ensuite de coordonner les abeilles robot pour acquérir l’intelligence d’un essaim.
            Seule, une abeille ne peut pas faire grand chose et c’est la ruche tout entière qui participe à la tâche, notamment d’exploration, en sélectionnât les zones intéressantes, en balisant les itinéraires, en répartissant les tâches.
            Des chercheurs ont fait de nombreuses études dans le domaine de « l’intelligence des essaims », et des informaticiens ont fait des logiciels qui essaient de reproduire cette qualité. Mais ce n’est pas simple, car l’approche est très particulière : on ne peut programmer l’intelligence de chaque robot, on ne peut traiter l’essaim que comme un tout, chaque robot n’étant qu’un numéro, ce qui est un raisonnement complètement opposé à l’intelligence humaine qui est individuelle.
            Un exemple simple : si on veut faire démarrer l’essaim de milliers de robot, on ne peut avoir le temps d’allumer un interrupteur sur chaque robot. Ce serait prohibitif et cela coûterait trop cher. Il faut donc un signal extérieur, partout le même où se trouve un robot qui le « réveille ».
            Harvard a développé des programmes à partir d’organigrammes des tâches à accomplir, avec des conditions pour s’adapter à des conditions particulières, qui déclenchent de nouvelles tâches. Chose curieuse, ses informaticiens traitent l’essaim d’abeilles (robots), comme la propagation d’un fluide et chaque robot utilise un calcul de probabilités en fonction des conditions de l’environnement, pour déterminer s’il va accomplir une tâche donnée.
            En définitive c’est l’étude d’un comportement collectif et d »un nouveau langage informatique qui est nécessaire pour traiter ce problème.
            Les chercheurs d’Harvard ont crée ainsi des robots qui ne ressemblent pas à Robotbee, mais sont déjà fabriqués et permettent d’étudier comment coordonner leur action entre eux, grâce à ces programmes originaux. Par exemple pour que l’un des robots puisse informer les autres de trouvailles intéressant l’ensemble. Ils espèrent ainsi avoir la collaboration d’autres équipes qui poursuivraient des buts différents de ceux de Robobee et pouvoir construire des robots d’ici une dizaine d’année pour une utilisation vers 2030.
 
 
            En effet un essaim de robots pourrait être utilisé à des fins très diverses d’exploration, par exemple rechercher des blessés, des personnes ensevelies lors de catastrophes naturelles, (par exemple en détectant, selon les robots, des sons, de la chaleur, du CO2 etc…), pour la surveillance de lieux hostiles, pour la détection d’objets disséminés dans de grandes étendues. Actuellement on peut utiliser de grands drones très coûteux, qui risquent d’échouer dans leur tâche, très longue pour explorer toute la zone concernée.
 
            Avec un essaim de plusieurs milliers de microrobots peu chers et fiables, certes la plupart des robots ne trouveront rien, mais il suffit que quelques uns trouvent ce qu’on cherchait, pour que l’essaim ait accompli la mission, dans un temps très court, ce qui est indispensable le plus souvent pour la réussite de l’opération.
 
 
Par maud96 le Dimanche 28 avril 2013 à 21:48
 

Ajouter un commentaire









Commentaire :








Votre adresse IP sera enregistrée pour des raisons de sécurité.
 

La discussion continue ailleurs...

Pour faire un rétrolien sur cet article :
http://lancien.cowblog.fr/trackback/3237666

 

<< Page précédente | 1 | 2 | 3 | 4 | 5 | Page suivante >>

lancien

sortir de la tristesse

Créer un podcast