Cartographie de l’environnement et suivi simultané de cibles dynamiques par un robot mobile

Modèle Géométrique

   C’est un modèle qui contient des informations métriques sur l’environnement. C’est souvent une représentation de base utilisant l’ensemble des primitives 2D acquises par un balayage horizontal d’un télémètre laser, ou des primitives 3D comme les segments regroupés en facettes [94], ce qui permet de décrire des amers dédiés à la localisation et de représenter aussi l’espace navigable. Selon Rives et Devy [73], la sélection des amers devrait répondre à divers critères, en particulier : pouvoir discriminant, domaine de visibilité important, stabilité, invariance et bonne adaptation à la métrologie. Plusieurs types d’amers géométriques peuvent être distingués, comme les points, les coins, les segments, les polygones,….etc. [43]:
1. Points ou objets considérés comme ponctuels [75] [87] [76] [41]  [24] : dans les cartes 2D, ils représentent notamment les objets verticaux tels que des poteaux ou des troncs d’arbres en environnement extérieur et des coins de murs en environnement intérieur.
2. Coins : par rapport aux points, ils incluent également une information d’orientation, et éventuellement un angle relatif entre les segments adjacents à ce coin.
3. Segments, qui correspondent généralement aux frontières d’obstacles [84] [75] [27] [49] [1] [30] [106] [24]: en général, ces segments sont représentés par leurs droites supports (de préférence en coordonnées polaires [98]) et portent éventuellement des informations sur la position géométrique de leurs extrémités.
4. Polygones de forme et taille quelconques correspondant aux frontières d’obstacles dans le plan horizontal [84] et plus généralement des polyosides (des polygones comportant des trous) [60].
5. Portions de courbes et notamment arcs de cercle [75] [112].
Les représentations géométriques sont souvent préférées pour modéliser des environnements structurés [83]. Mais elles sont aussi exploitées pour décrire des environnements naturels avec des terrains plutôt plats [12]. Des approches récursives [29, 37] sont développées pour segmenter l’environnement en utilisant le sonar. Des cartes géométriques qui incluent des coins et des surfaces partielles sont aussi construites [80, 35, 2]. Castellanos et al. [30,31] extraient des points, des coins, des segments et des surfaces à partir des informations sensorielles (laser et vision). Ayache et al. [6] ont aussi extrait des primitives 3D en utilisant la stéréovision. Janet et al. [63] ont utilisé les réseaux de neurones pour regrouper des données acquises par le sonar alors que Kwon et al. [71] ont utilisé une technique stochastique pour le faire. Delahoche et al. [38] ont utilisé la vision omnidirectionnelle pour extraire des segments verticaux (coins, portes,…etc.) dans un environnement structuré (d’intérieur). Une carte géométrique peut être une représentation incluant tout type d’objets de n’importe quelle taille ou n’importe quelle forme. Les primitives sont construites par fusions successives de données élaborées à partir d’autres données métriques brutes (non traitées), comme les points directement issus des mesures, ce qui permet la réduction de l’espace mémoire nécessaire pour stocker la carte. Cependant, une carte géométrique est plus difficile à construire en comparaison avec une grille d’occupation, en particulier avec des données bruitées, à cause des approximations nécessaires. En outre, afin d’identifier des formes géométriques utiles pour la localisation du robot ou effectuer une reconnaissance d’objets par exemple, il faut mettre en œuvre des traitements de mise en forme sur l’ensemble des données acquises chaque fois que le robot effectue un raisonnement sur sa propre carte.

Cartographie et Suivi Simultanés

   Une perception locale peut être suffisante pour qu’un robot mobile se déplace librement dans un environnement peuplé en évitant les obstacles. Mais pour qu’un tel robot soit bien localisé dans son environnement (pas simplement avec des moyens odométrique), et pour qu’il planifie son mouvement en utilisant des points d’intérêt fixes, il doit avoir une carte correcte, nettoyée des traces des trajectoires d’objets mobiles, et construite pendant l’évolution du robot (une carte incrémentale). C’est par conséquent un problème du SLAM qui suppose que le robot est capable de représenter l’environnement de manière compatible avec le rythme d’évolution de celui-ci. Pour cette raison, le robot doit être capable de détecter et de faire le suivi d’objets mobiles. De plus, le suivi des trajectoires d’entités mobiles (être humains ou autres robots) représente un aspect indispensable pour un robot dans un environnement humain qui doit être interactif. Un certain nombre de travaux récents sur la cartographie et la localisation dans un environnement peuplé ont abordé ce sujet. La plupart des approches qui font le suivi des cibles mobiles supposent qu’une carte décrivant l’environnement est connue a priori. Par exemple, Burgard et al. [16] effectuent une étape de mise à jour pour une carte statique au rythme de la réception des données sensorielles les plus récentes pour  représenter les personnes pénétrant dans son champ de perception. Montemerlo et al. [81] présentent une approche qui réalise simultanément la localisation du robot avec le suivi des personnes à l’aide d’un filtre particulaires conditionnel. Cette approche est basée sur un modèle brownien du mouvement humain, ce qui ne semble pas si robuste. Arras et al. [5] ont réalisé une localisation basée sur des segments extraits, alors que les traces des personnes mobiles sont éliminées de la carte résultante. Fox et al. [47] utilisent une technique probabiliste pour filtrer les mesures qui ne correspondent pas au modèle d’environnement. Krishna et al. [69] ont proposé de faire la détection et le suivi en utilisant le sonar pour que le robot évite la collision avec les obstacles dynamiques qui peuvent apparaître dans sa trajectoire pendant sa navigation. Dans notre approche basée sur une grille d’occupation mise à jour en fonction des observations, il n’est pas nécessaire qu’un modèle de l’environnement soit connu à priori. Wolf et al. [108] ont construit deux grilles d’occupation séparées; L’une décrit les parties statiques de l’environnement (ce qui est utile pour localiser le robot) et l’autre les cibles détectées. Le laser est utilisé comme capteur, mais aucune prédiction du mouvement des cibles n’est proposée. D’autre part aucun détail sur les dimensions des cellules de grille n’est fourni, alors que le maintien de deux grilles de même taille simultanément double la mémoire nécessaire et nécessite de les maintenir en cohérence. D’autres techniques font du suivi de personnes, de la prédiction des mouvements, ou adaptent le comportement du robot selon l’information obtenue sur les personnes dans son voisinage [17, 66, 99], mais ne s’intéressent pas à améliorer le modèle de l’environnement en le nettoyant des traces des cibles suivies. D’autres approches qui font le suivi de cible ne s’intéressent pas à construire une carte simultanément [74, 85]. Par exemple Le filtre de Kalman avec un balayage laser 2D est utilisé chez Bennewitz et al. [16], pour faire le suivi des personnes en utilisant des modèles du mouvement a priori connus. L’objectif est de créer une certaine connaissance chez le robot sur les modèles de mouvement pour permettre une prédiction robuste du comportement humain. Un télémètre laser est également utilisé [81] pour faire la détection de personnes se déplaçant par un robot en mouvement mais seulement une personne à la fois peut être suivie. Un filtre particulaire et le laser sont aussi utilisés [97] pour effectuer le suivi de cibles multiples à partir d’un robot en mouvement en utilisant une association de données conjointe (Joint Probabilistic Data Association – JPDA) mais avec l’adoption d’un modèle linéaire du mouvement humain. Notre approche propose de construire une carte de l’environnement simultanément avec le suivi des personnes mobiles multiples pour éviter de les inclure comme des parties fixes dans cette carte. Notre approche, ne s’appuie pas sur quelques modèles limités et prédéfinis de l’environnement comme elle ne suppose pas un modèle spécifique du mouvement des cibles. Wang et al. [107] ont abordé notre objectif. Leur approche segmente les données acquises par le laser pour les distinguer et les exclure de la carte élaborée ; ils ont appliqué cette approche pour des environnements urbains (assistance à la conduite), avec une utilisation du GPS pour la localisation de la voiture porteuse du système. Coué et al. [36] ont présenté un système pour faire le suivi d’objets mobiles en utilisant le laser, l’objectif des travaux étant aussi d’aider le conducteur à éviter la collision avec des entités dynamiques, mais aucune carte de l’environnement n’était élaborée.

Robotique Probabiliste

   S. Thrun et al ont intitulé leur livre sur la robotique « Probabilistic Robotics » [103], marquant en cela le rôle central des incertitudes et du raisonnement probabiliste pour les traiter en robotique. Grâce à leur capacité à traiter les différentes incertitudes qui caractérisent normalement les mesures acquises ou les actions effectuées par un robot mobile et interactif dans un monde réel, les approches probabilistes sont en effet devenues une solution efficace, essentielle et très fréquente dans beaucoup d’études robotiques. Notre approche s’inscrit dans ce cadre riche des travaux dans ce domaine. Nous présentons donc ici les règles probabilistes utiles pour traiter les incertitudes qui se manifestent généralement dans ce type d’applications à cause de plusieurs raisons :
1. L’incomplétude des données et des connaissances sur l’environnement, ainsi que les approximations algorithmiques qui dénaturent ces connaissances.
2. Le bruit et l’imprécision des mesures qui peut affecter l’ensemble du système (capteurs, effecteurs).
3. Les défaillances, de toute nature, les erreurs algorithmiques qui peuvent générer des anomalies dans le fonctionnement du robot.

Camera Catadioptrique

   Grâce à son champ de vision de 360°, une caméra catadioptrique est très avantageuse pour certaines applications comme le suivi visuel de cible sur une longue distance ou la localisation par rapport à des amers visuels, en comparaison avec une caméra perspective. Un système catadioptrique est une combinaison d’un miroir (par exemple parabolique, hyperbolique ou elliptique) avec un système de capture d’images classique. Plusieurs approches existent pour obtenir des images avec un champ de vision étendu:
1. Utilisation d’images multiples.
2. Utilisation d’objectifs spéciaux.
3. Utilisation de miroirs convexes.
Le choix entre les trois approches citées résulte du compromis résolution – vitesse d’acquisition. L’utilisation d’images multiples a l’avantage de fournir une résolution potentiellement grande, mais au prix du temps d’acquisition. Certaines applications telles que la navigation du robot, nécessitent un temps d’acquisition quasi instantané pour informer rapidement le système sur l’état de son environnement et ne requièrent pas nécessairement une haute résolution d’image; pour cela les caméras catadioptriques sont plus utilisées. Parmi les différents systèmes qui emploient les miroirs convexes, ceux qui présentent un centre de projection unique (figure 4.1) ont l’avantage de permettre la reconstruction d’images selon différents types de projection et sur différents types de surfaces. Une caméra catadioptrique munie d’un miroir hyperbolique et d’un objectif conventionnel dont le centre optique est situé au foyer de l’hyperbole a cette propriété, mais il n’est pas facile de garantir un montage mécanique qui satisfasse cela. Les miroirs paraboliques permettent de construire une caméra avec un centre de projection unique sans avoir de contrainte forte sur la précision mécanique de l’assemblage. D’autre part, la connaissance des paramètres géométriques de formation d’une image panoramique permet d’en générer une autre en projection perspective.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1. Introduction Générale (Etat de l’art et Positionnement du Problème)
1.1.Introduction
1.2.La Cartographie
1.2.1. Modèle Géométrique
1.2.2. Modèle Topologique
1.2.3. Carte d’Occupation
1.3.Cartographie et Suivi Simultanés
1.4.Détection Visuelle et Fusion Avec le Laser
1.5.Organisation Du Manuscrit
2. Cartographie Dans Un Environnement Statique (Grille d’Occupation)
2.1.Introduction
2.2.Robotique Probabiliste
2.2.1. Probabilité Conditionnelle et Loi de Bayes
2.2.2. L’hypothèse de Markov
2.2.3. Le Filtre Bayesien
2.3.Le Télémètre Laser (SICK)
2.4.La Grille d’Occupation
2.5.Conclusion
3. Cartographie et Suivi Simultané 
3.1.Introduction
3.2.Suivi d’objets mobiles
3.3.Estimation non linéaire des processus markoviens
3.3.1. Positionnement du Problème
3.3.1.1. Prédiction Markovienne
3.3.1.2. Correction Bayesienne
3.3.2. Le Filtrage
3.3.2.1. Le Filtre de Kalman
3.3.2.2. Le Filtre de Kalman Etendu
3.3.2.3. Le Filtrage Particulaire
3.3.2.4. MMPF (Multiple Model Particle Filter)
3.4.Simulations
3.5.Expérimentations
3.5.1. Groupage de Cellules Voisines Occupées
3.5.2. Détection de Cibles Mobiles
3.5.3. Suivi de Cible Mobile Suivi Multi Cibles (Data Association)
3.6.Conclusion et Discussion
4. Détection Visuelle d’Objets Mobiles (En Utilisant une Caméra Catadioptrique)
4.1.Introduction
4.2.Caméra Catadioptrique
4.2.1. Combinaison miroir parabolique / objectif télécentrique
4.2.2. Modèle de Projection
4.2.3. Redressement Cylindrique d’une Image Panoramique
4.3.Histogramme
4.4.Traitement d’image (Extraction du Fond d’image)
4.4.1. Matrice de Convolution
4.4.2. Gaussian Average Operator
4.4.3. Le Médian
4.4.3.1. Filtrer une Image en Utilisant (Median Operator)
4.4.3.2. Extraction du Fond d’image en Utilisant (Temporal Median Operator)
4.5.Détecter une Cible Dynamique en Utilisant le Flot Optique Une Approche Différentielle
4.6.Déterminer la Direction de Cible Détectée
4.7.Déterminer les Directions de Plusieurs Cibles
4.8.Détection des Cibles Mobiles à Partir d’Images Panoramiques non Déployées (Images Brutes)
4.9.Comparaison Entre les Deux Techniques Suivies Pour Déterminer les Directions des Cibles Détectées
4.10. Conclusion
5. Fusion de Capteurs (Et Alignement des Données) 
Conclusion Générale 
5.1.Introduction
5.2.Fusion de Capteurs
5.3.Considérations Techniques
5.4.Résultats Expérimentaux
5.5.Architecture Algorithmique
5.6.Conclusion
Références

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *