skip to main content

Couplage vision omnidirectionnelle et télémétrie laser pour la navigation en robotique

Mei, Christopher (1980-...) ; Rives, Patrick ; École nationale supérieure des mines Paris

2007

Voir les exemplaires  et autres localisations

  • Titre:
    Couplage vision omnidirectionnelle et télémétrie laser pour la navigation en robotique
  • Auteur: Mei, Christopher (1980-...)
  • Autre(s) auteur(s): Rives, Patrick ;
    École nationale supérieure des mines Paris
  • Sujets: Vision artificielle (robotique) -- Thèses et écrits académiques ;
    Télémétrie laser -- Thèses et écrits académiques ;
    Cartographie -- Thèses et écrits académiques ;
    Capteurs optiques -- Thèses et écrits académiques ;
    Robot ;
    Estimation mouvement ;
    Localisation ;
    Cartographie ;
    Capteur optique ;
    Télémétrie laser ;
    Vision omnidirectionnelle
  • Description: Mines : Synthèse en français p 2-25
    Thèse de doctorat
    Estimer le mouvement d'un robot et construire en même temps une représentation de l'environnement (problème SLAM : Simultaneous Localisation And Mapping) est souvent considéré comme un problème essentiel pour développer des robots pleinement autonomes qui ne nécessitent pas de connaissances a priori de l'environnement pour réaliser leurs tâches. L'évolution du SLAM est très liée aux capteurs utilisés. Les sonars couplée avec l'odométrie sont souvent présentés comme les premiers capteurs ayant fourni des résultats convaincants. Depuis, les lasers 2D ont souvent remplacés ces capteurs pour des raisons de précision et de rapport signal/bruit. Néanmoins les lasers 2D permettent uniquement d'estimer des mouvements planaires et ne donnent pas des informations perceptuelles suffisantes pour identifier de manière fiable des régions précédemment explorées. Ces observations nous ont amenés à explorer à travers cette thèse comment combiner un capteur omnidirectionnel avec un télémètre laser pour effectuer la localisation et cartographie simultanée dans des environnements complexes et de grandes tailles. Les contributions de cette thèse concernent l'étalonnage des capteurs centraux catadioptriques (avec le développement d'un logiciel opensource disponible sur le site internet de l'auteur) et la recherche de la position relative entre un capteur omnidirectionnel et un télémètre laser. Des approches efficaces pour estimer le mouvement 3D du capteur en utilisant des droites et des plans sont détaillées. Enfin deux méthodes sont proposées combinant laser et vision pour effectuer du SLAM planaire mais aussi pour estimer la position 3D du robot ainsi que la structure de l'environnement.
    The problem of estimating the motion of a robot and simultaneously building a representation of the environment (known as SLAM: Simultaneous Localisation And Mapping) is often considered as an essential topic of research to build fully autonomous systems that do not require any prior knowledge of the environment to fulfill their tasks. The evolution of SLAM is closely linked to the sensors used. Sonars with odometry are often presented as the first sensors having led to convincing results. Since then, 2D laser range finders have often replaced sonars when possible because of the higher precision and better signal to noise ratio. However 2D lasers alone limit SLAM to planar motion estimation and do not provide sufficiently rich information to reliably identify previously explored regions. These observations have led us to explore throughout this thesis how to combine an omnidirectional camera with a laser range finder to help solve some of the challenges of SLAM in largescale complex environments. The contributions of this thesis concern a method to calibrate central catadioptric cameras (with the development of an opensource toolbox available on the author's website) and find the relative position between an omnidirectional sensor and a laser range finder. How to represent lines and planes for motion estimation is also studied with the use of Lie algebras to provide a minimal parameterisation. Finally we will detail how laser and vision can be combined for planar SLAM and 3D structure from motion.
  • Date de publication: 2007
  • Format: 1 vol. (236 p.) ; 30 cm
  • Langue: Français
  • Source: Mines ParisTech (catalogue)

Recherche dans les bases de données distantes en cours. Merci de patienter.

  • Recherche
  • dansscope:(33PSL-CNSAD),scope:(33PSL-EHESS),scope:(33PSL-PSL_OMEKA),scope:(33PSL-MINES),scope:(33PSL-EFEO),scope:(33PSL-CNSMDP),scope:(33PSL-CHIMIE),scope:(33PSL),scope:("DAU"),scope:(33PSL-CDF),scope:(33PSL-ENS),scope:("33PSL-OBSERV"),scope:("33PSL-ESPCI"),scope:(33PSL-CURIE),scope:(33PSL-ENSBA),scope:("33PSL-ENC"),scope:(33PSL-PSL_STAR),scope:(33PSL-PSL_SFX),scope:("33PSL-EPHE"),scope:(33PSL-ENSAD),primo_central_multiple_fe
  • Afficher ce qui a déjà été récupéré