Please wait, Page is Loading...
 

Mes travaux de thèse

Présentation

Les travaux que j’ai menés au cours de ma thèse ont été développés au sein du groupe Robotique, Action et Perception (RAP) du Laboratoire d’Analyse et d’Architecture des Systèmes (LAAS), unité propre du CNRS, sur le thème de la commande référencée vision en milieu encombré (cf. les mots clés ou la problèmatique).

Télécharger le manuscrit au format PDF: dfThese.pdf[dfThese.pdf] Type: application/pdf Taille:4,08 Mo Dernière modification: 06/10/2007, 19:49:41Mime:pdf

Vue Synthétique

Titre
Stratégies de commande référencées multi-capteurs et gestion de la perte du signal visuel pour la navigation d’un robot mobile.
bib bibTeX
D. Folio. Stratégies de commande référencées multi-capteurs et gestion de la perte du signal visuel pour la navigation d’un robot mobile. Thèse de l’Université Paul Sabatier, LAAS, Toulouse, France, Juillet 2007.
Mention
Très Honorable.
Financement
Financé par la délégation régionale Midi-Pyrénées du CNRS au titre du Fond Social Européen.
Keywords
Robotique mobile, Asservissement visuel, Commande référencée multi-capteurs, Gestion de la perte du signal visuel.
Abstract
L’amélioration des capteurs a permis l’émergence de la commande référencée capteurs qui permet la réalisation de diverses tâches de navigation de façon précise. L’intention de cette thèse est de contribuer à définir des stratégies de commande référencées multi-capteurs pour un robot mobile réalisant une tâche référencée vision dans un environnement encombré d’obstacles susceptibles d’occulter le motif visuel. Nous avons ainsi proposé des lois de commandes permettant d’éviter à la fois les occultations et les collisions. Toutefois, les résultats obtenus ont montré que chercher à éviter simultanément ces deux phénomènes sur-contraignait le mouvement du robot, limitant la gamme des missions réalisables. Nous avons alors proposé une approche alternative consistant à tolérer la perte totale du signal visuel. Nous avons ainsi proposé dans un cadre général plusieurs méthodes (analytiques et numériques) de reconstruction du signal visuel lorsqu’il devient indisponible. Nous les avons ensuite intégrées dans nos stratégies de commande afin de pouvoir réaliser des tâches robotiques plus évoluées. Enfin nous avons validé avec succès les techniques proposées d’abord en simulation puis en expérimentation sur les robots du LAAS.
Soutenue
Le 11 juillet 2007 devant le jury :
PrésidentMichelDEVYdirecteur de recherches, LAAS-CNRS, Toulouse
RapporteursFrançoisCHAUMETTEdirecteur de recherches, IRISA, Rennes
 SethHUTCHINSONprofessor of Electrical and Computer Engineering University of Illinois at Urbana-Champaign
ExaminateursBernardBAYLEmaître de conférences, Ecole Nationale Supérieure de Physique, Strasbourg
 MichelCOURDESSESprofesseur des universités, Université Paul Sabatier, Toulouse
Directeur de thèseVivianeCADENATmaître de conférences, Université Paul Sabatier, Toulouse
InvitéPhilippeSOUÈRESchargé de recherche, HDR, LAAS-CNRS, Toulouse


Problématique

Dans le cadre de mes travaux de thè je me suis intéressé au problème de la navigation d’un robot mobile guidé par la vision dans un environnement encombré. En particulier, pour la réalisation de missions robotiques disposant d’un minimum d’informations sur le contexte de la tâche et de l’environnement, il paraît particulièrement intéressant d’intégrer les mesures sensorielles directement dans la boucle de commande, on parle alors de la commande référencée capteur. Parmi les différents capteurs existants, la vision a plus particulièrement retenu l’attention des roboticiens. En effet, il s’agit d’un capteur capable de fournir des informations très riches (selon le traitement mis en œuvre), permettant ainsi de réaliser des tâches très variées. La commande référencée capteurs devient alors la commande référencée vision.

La commande référencée vision corke96 hutchinson96 chaumette02 chaumette06 consiste à prendre en compte des informations visuelles, issues généralement d’une ou plusieurs caméras, dans la boucle de commande d’un robot, afin d’en contrôler le mouvement. Il existe, dans la littérature, différentes approches de commande référencée vision. L’une d’entre elles, l’asservissement visuel 2D (ou image-based), sur laquelle reposent mes travaux, exploite directement les informations visuelles, extraites de l’image. Il s’agit alors de contrôler le mouvement de la caméra de manière à annuler l’erreur entre les informations visuelles courantes et le motif désiré. Le choix des informations visuelles et l’obtention de la relation les liant au mouvement de la caméra sont deux points fondamentaux de cette approche. La synthèse des lois de commande est basée sur le formalisme des fonctions de tâches, ce formalisme offrant un cadre rigoureux pour le développement de telles lois.

La problématique de thèse.

Fig.1: Description de ma problématique de thèse.

Mes travaux de thèse s’inscrivent ainsi dans le cadre de la commande référencée vision en environnement encombré (cf. figure 1), et se situent dans la continuité des travaux de thèse de ma responsable, Viviane Cadenat. Le robot mobile considéré (cf. figure 1) est un robot de type char, équipé d’une caméra fixée sur une platine commandable en lacet montée sur notre base mobile. De plus, notre robot dispose d’une ceinture de 16 capteurs ultrasoniques permettant de caractériser les éventuels obstacles. L’objectif de mes travaux de thèse est de considérer le problème de navigation en présence d’obstacles pouvant non seulement entraver le mouvement de la base mobile mais aussi occulter temporairement le motif visuel d’intérêt. Je me suis donc intéressé à la gestion de la perte des données perceptuelles pendant la réalisation d’une tâche référencée vision en environnement encombré. Nous avons ainsi cherché à définir un ensemble de schémas de commande intégrant toutes les informations sensorielles pertinentes pour la tâche robotique. D’où l’idée de définir des schémas de commande référencés multicapteurs intégrant d’une part les informations extraites de l’image permettant la réalisation de la tâche référencée vision, ainsi que l’évaluation des risques d’occultation, et d’autre part les données proximétriques nécessaires à l’évitement d’obstacle. Deux approches ont été développées : la première consiste à éviter à la fois les occultations et les collisions ; la seconde à éviter les collisions tout en tolérant la perte du signal sensoriel si cela est nécessaire à la bonne exécution de la mission.


Pour en savoir plus:

Démos

Au cours de ma thèse j’ai effectué quelques expérimentations. Ci-dessous vous pouvez visualiser certaines d’entre elles diffusé par l’intermédiaire de Youtube.


Références

chaumette02  BIB:chaumette02
  F. Chaumette. "Asservissement visuel". La commande des robots manipulateurs, Hermès, Khalil, W., Traité IC2 : p. 105–150. September 2002.
chaumette06  BIB:chaumette06  DOI:10.1109/MRA.2006.250573
  F. Chaumette and S. Hutchinson. "Visual Servo Control, Part I: Basic Approaches". IEEE Robotics and Automation Magazine, Vol. 13(4) : p. 82–90. December 2006.
corke96  BIB:corke96
  P.I. Corke. "Visual control of robots : High performance visual servoing". Research Studies Press LTD, Mechatronics. September 1996.
hutchinson96  BIB:hutchinson96  DOI:10.1109/70.538972
  G.D. Hager, P.I. Corke and S. Hutchinson. "A tutorial on visual servo control". IEEE Transactions on Robotics and Automation, Vol. 12(5) : p. 651–670. October 1996.

  • Add This
  • Add
  • Get
  • Google

robotique/cv