Retourner au contenu. Retourner à la navigation
Outils personnels
Vous êtes ici : Accueil Avancées Axe 3
Actions sur le document
  • Send this page to somebody
  • Print this page

Avancées Axe 3

by roland.lenain — Dernière modification 06/07/2010 08:25

Mis à jour le 14 juin 2010

La partie perception a pour objet d'apporter les informations en temps réel permettant d'alimenter les algorithmes de commande et de maintenir l'intégrité du robot (réalisé pour le moment uniquement à partir de GPS RTK et de centrale inertielle pour les tests et développements).

 Localisation rapide par fusion odométrie visuelle/inertielle

Les informations de positionnement apportés actuellement par GPS-RTK ne sont que partielles et demeurent insatisfaisante en tant que données extéroceptives seules (masquages satellites, pertes de précisions...). L'utilisation d'autres capteurs est donc mise en place, ici par odométrie visuelle et inertielles. L'objectif est de fournir les 6 composantes de positionnement/orientation et de vitesse.

 Im01

L'algorithme est basé sur la fusion de type de localisation. La première est l'estimation de la position d'un point par intégration des données inertielles et odométriques, qui permet d'avoir une fréquence de rafraichissement très importantes, mais un biais important. La deuxième, l'odométrie visuelle est basée sur l'estimation de mouvement de points caractéristiques entre plusieurs paires successives d'images. Cette technique permet d'avoir moins de biais, mais une fréquence de rafraichissement moins importante. La fusion de ces deux méthodes devra donc limiter le biais tout en permettant une fréquence d'acquisition suffisante pour le contrôle à haute vitesse

 Im02

Par ailleurs, les informations supplémentaires délivrées sur l'attitude (relativement aux informations GPS) amélioreront les algorithmes de commande, fonctionnant actuellement en mode limité (compte tenu de l'indisponibilité de certaines informations – notamment l'inclinaison du robot). Les algorithmes de commande complet, testés en simulations, pourront alors être pleinement testés.

Des premiers tests réalisés mi 2009 ont permis d'initier le développements d'algorithme de localisation à haute vitesse sans toutefois avoir de réalité terrain. De nouveaux tests réaliser au printemps 2010, utilisant la commande des déplacement (basé sur le seul capteur GPS) sont en cours de dépouillement pour la validation et l'optimisation. La synchronisation avec les variables de commande a été assurée en vue de réaliser le bouclage des lois de commande avec les informations de perception, prévue pour l'automne 2010. Enfin, une dernière étape de fusion avec un capteur GPS, devra être conduite pour s'affranchir de la dérive des algorithme de localisation.

Im03

 voir video d'essais avec banc stéréo.

 Im04

Détection d'obstacles et construction de l'environnement

Afin d'alimenter les algorithme de commande locale d'évitement/traversabilité, la perception de l'environnement devant le robot (sur la trajectoire a priori) est requise. Si plusieurs techniques ont été développés pour la perception de l'état du terrain, l'enjeu est ici d'avoir une horizon d'analyse suffisamment grande devant les robots pour autoriser la réaction aux vitesses considérées. Deux techniques complémentaires sont ici développées:

Construction de MNT en ligne

L'outil de vision déjà considéré pour la localisation est ici mis à profit pour construire un environnement 3D immédiatement devant le robot. La portée autorisée par cette technique est limitée à une quinzaine de mètres, étant donnés la hauteur du banc stéréoscopique et la base de triangulation associée. Ceci n'est pas satisfaisant à la vitesse maximale envisagée dans le projet (10ms) : par conséquent, les algorithmes de construction d'un modèle numérique de terrain vont être adaptés aux données fournies par un télémètre laser 3D "Velodyne".

Video

 MNT01

Miroir panoramique

En complément, l'utilisation d'un miroir panoramique avec une caméra est mise en place. Cette technique permet d'obtenir des images avec une définition importante sur des portées lointaines (35m). Toutefois, il ne s'agit pas ici d'obtenir le profil tridimensionnel du terrain mais de détecter des obstacles dans une image 2D. La complémentarité entre les approches permettra de détecter les obstacles devant le robot (de 5 à environnement 40 mètres) et d'obtenir le profil de terrain sur les 20 premiers mètres.

 Im06

 

Détection de fautes

En cours de développement...

 

 

« Décembre 2014 »
Lu Ma Me Je Ve Sa Di
1234567
891011121314
15161718192021
22232425262728
293031
 

Réalisé avec le CMS Plone, le système de gestion de contenu Open Source

Ce site respecte les normes suivantes :