en fr Laser-augmented omnidirectional vision for 3D localisation and mapping Couplage vision omnidirectionnelle et télémétrie laser pour la navigation en robotique Reportar como inadecuado




en fr Laser-augmented omnidirectional vision for 3D localisation and mapping Couplage vision omnidirectionnelle et télémétrie laser pour la navigation en robotique - Descarga este documento en PDF. Documentación en PDF para descargar gratis. Disponible también para leer online.



Abstract : The problem of estimating the motion of a robot and simultaneously building a representation of the environment known as SLAM: Simultaneous Localisation And Mapping is often considered as an essential topic of research to build fully autonomous systems that do not require any prior knowledge of the environment to fulfill their tasks. The evolution of SLAM is closely linked to the sensors used. Sonars with odometry are often presented as the first sensors having led to convincing results. Since then, 2D laser range finders have often replaced sonars when possible because of the higher precision and better signal to noise ratio. However 2D lasers alone limit SLAM to planar motion estimation and do not provide sufficiently rich information to reliably identify previously explored regions. These observations have led us to explore throughout this thesis how to combine an omnidirectional camera with a laser range finder to help solve some of the challenges of SLAM in large-scale complex environments. The contributions of this thesis concern a method to calibrate central catadioptric cameras with the development of an opensource toolbox available on the author-s website and find the relative position between an omnidirectional sensor and a laser range finder. How to represent lines and planes for motion estimation is also studied with the use of Lie algebras to provide a minimal parameterisation. Finally we will detail how laser and vision can be combined for planar SLAM and 3D structure from motion.

Résumé : Estimer le mouvement d-un robot et construire en même temps une représentation de l-environnement problème SLAM: Simultaneous Localisation And Mapping est souvent considéré comme un problème essentiel pour développer des robots pleinement autonomes qui ne nécessitent pas de connaissances à priori de l-environnement pour réaliser leurs tâches. L-évolution du SLAM est très liée aux capteurs utilisés. Les sonars couplés avec l-odométrie sont souvent présentés comme les premiers capteurs ayant fourni des résultats convaincants. Depuis, les lasers 2D ont souvent remplacés ces capteurs pour des raisons de précision et de rapport signal-bruit. Néanmoins les lasers 2D permettent uniquement d-estimer des mouvements planaires et ne donnent pas des informations perceptuelles suffisantes pour identifier de manière fiable des régions précédemment explorées. Ces observations nous ont amenés à explorer à travers cette thèse comment combiner un capteur omnidirectionnel avec un télémètre laser pour effectuer la localisation et cartographie simultanée dans des environnements complexes et de grandes tailles. Les contributions de cette thèse concernent l-étalonnage des capteurs centraux catadioptriques avec le développement d-un logiciel open source disponible sur le site internet de l-auteur et la recherche de la position relative entre un capteur omnidirectionnel et un télémètre laser. Des approches efficaces pour estimer le mouvement 3D du capteur en utilisant des droites et des plans sont détaillées. Enfin deux méthodes sont proposées combinant laser et vision pour effectuer du SLAM planaire mais aussi pour estimer la position 3D du robot ainsi que la structure de l-environnement.

en fr

Keywords : Robots Omnidirectional vision Mapping Motion estimation Localization

Mots-clés : Estimation mouvement Localisation Cartographie Vision omnidirectionnelle Robot





Autor: Christopher Mei

Fuente: https://hal.archives-ouvertes.fr/



DESCARGAR PDF




Documentos relacionados