La vision face aux scènes à grande plage dynamique

La vision face aux scènes à grande plage dynamique

Capteurs pour l’aide à la conduite

Il existe aujourd’hui une panoplie de capteurs utilisée pour les systèmes d’aide à la conduite. Deux catégories de capteurs sont généralement distinguées: Ceux qui décrivent l’état du véhicule (capteurs proprioceptifs) et ceux qui se chargent de percevoir l’environnement (capteurs extéroceptifs). Les capteurs proprioceptifs se chargent de mesurer un attribut en fonction de leur propre état. Cet attribut peut être l’accélération, l’orientation ou la vitesse de l’objet sur lequel ils sont montés. Par exemple, les capteurs d’inclinaison, les accéléromètres et les odomètres. La deuxième classe de capteurs, ceux qui se chargent de percevoir l’environnement, sont capables de mesurer un attribut d’un objet externe présent dans la scène. Les caméras qui fonctionnent dans le spectre visible ou infrarouge, les sonars, les Lidars et les Radars sont des exemples de capteurs extéroceptifs.

Le choix de l’un de ces capteurs repose sur leurs propriétés et les objectifs visés par l’application. Une autre propriété importante qui caractérise particulièrement les capteurs extéroceptifs est le fait qu’ils soient actifs ou passifs. Les capteurs actifs collectent l’information sur l’environnement d’une manière intrusive : ils envoient des signaux dans l’environnement et mesurent ensuite l’interaction de ces signaux avec cet environnement (exemple : Lidar, Radar, sonar). À la différence des capteurs actifs, les capteurs passifs récupèrent l’information contenue dans l’environnement d’une manière non intrusive : Ils n’émettent pas de radiations, ils ne font que recevoir un signal qui peut être réfléchi, émis ou transmis par des sources d’énergie externes. Les caméras visibles et certaines caméras infrarouges sont des exemples de capteurs passifs. Dans ce qui suit sont étalés les quelques capteurs extéroceptifs les plus utilisés par les systèmes d’aide à la conduite :

Camera vision :

La caméra est un capteur passif ayant une fonction similaire à la vision chez l’être humain. Elle permet de restituer l’environnement sous forme d’images ou de vidéo. Les images capturées par les caméras visibles (en couleurs ou en niveaux de gris) sont d’un côté très riches en contenu, de l’autre, difficiles à interpréter. Ceux-ci sont les raisons pour lesquelles la recherche s’est beaucoup focalisée sur ce capteur. Il existe dans la littérature un très grand nombre de travaux et d’algorithmes qui ont été proposés pour la détection, le suivi et la reconnaissance d’objets dans les images. De plus, avec l’avancée technologique, les caméras sont devenues peu couteuses et faciles à installer sur les véhicules. Utiliser un seul capteur de ce genre présente des avantages de coût et de simplicité de de mise en oeuvre, mais il existe une autre approche qui consiste à utiliser deux ou plusieurs cameras. Ça permet de restituer la profondeur de la scène observée. Cette approche appelée stéréovision, s’agit de combiner deux images prises de points de vue différents puis restituer la scène en trois dimensions. La mise en correspondance entre les points de vue est la phase du traitement la plus difficile et la plus couteuse.

Caméra thermique: C’est un capteur passif qui permet de mesurer les rayonnements infrarouges émis par les objets chauds. Ce capteur transforme une image captée dans le domaine infrarouge en une image visible par l’oeil humain. L’avantage majeur des caméras thermiques est le fait qu’elles peuvent produire des images visibles dans l’obscurité complète. Cependant, leur portée est dépendante des conditions atmosphériques, du type de la caméra et de la différence de température de la cible avec le fond. Le brouillard et la pluie limitent cette portée car le rayonnement infrarouge est affaibli. Plus le contraste thermique est élevé, plus il est facile de détecter des cibles sur un fond de température constante. Récemment, des constructeurs automobiles comme Honda, Mercedes et BMW ont commercialisé un dispositif qui donne une vision routière où les piétons et les animaux présentent les zones les plus claires de l’image. Bien que l’avantage de l’utilisation des caméras infrarouges pour la détection de piétons soit évident, les véhicules et d’autres obstacles n’émettant pas de chaleur, sont difficilement repérables dans ces images.

Radar : C’est un capteur actif qui émet des ondes en une série de pulsions puis reçoit la partie d’énergie réfléchie par la cible. Le temps nécessaire à l’onde pour voyager de la cible jusqu’à l’objet permet de déterminer la distance ou la vitesse dans le cas de multiples émissions. Les ondes du radar peuvent pénétrer à travers les nuages, la pluie…etc. Ainsi, il est considéré comme un capteur robuste face à plusieurs conditions défavorables. De plus, il a une portée très élevée couvrant la possibilité de détecter des objets très distants. Tous ces avantages ont contribués de façon évidente à l’apparition de systèmes Adaptive Cruise Control. Néanmoins, la faible résolution spatiale (surtout dans le sens latéral) du Radar entraine des détections moins fiables voir même inexistantes pour les petits obstacles. En outre, les parties métalliques présentent entre autres une réflectivité supérieure comparée aux autres objets comme les êtres humains. Ainsi, les objets qui présentent une forte réflexion minimisent l’effet des autres réflexions moins fortes et conduisent donc à des fausses détections. Enfin, un inconvénient majeur du Radar est le problème d’interférences qui se dégrade en présence de plusieurs voitures utilisant la même technologie dans le trafic.

Lidar : ce capteur actif est basé sur la mesure du temps mis par la lumière réfléchie sur l’obstacle se trouvant dans l’axe de tir du laser. Les Lidars se basent sur le même principe que les Radars étant donné que la distance aux objets est déterminée par le temps séparant les pulsions transmises et reçues. Ils sont utilisés pour des distances d’environ 40m et ont une grande précision dans les deux directions : longitudinale et latérale. Toutefois, le contenu des images Lidar est différent de celui des images visibles. En effet, le Lidar fournit une image de profondeur, tandis que les caméras captent la réflexion de la lumière visible. Ce capteur est largement utilisé par la communauté robotique pour la navigation de robots en terrain inconnu. Néanmoins, le coût, l’encombrement et la consommation d’énergie élevée limitent son utilisation en embarque sur un véhicule.

Problème de vision face aux scènes à grande plage dynamique.

En photographie, la plage dynamique d’une scène naturelle ou d’une photo se réfère à l’intervalle des valeurs d’intensités lumineuses qui les caractérise. Une scène à grande plage dynamique est une scène qui contient une grande différence entre les plus fortes et les plus faibles intensités lumineuses. Avec des appareils photos ordinaires, l’image numérique obtenue est composée de pixels représentés sur 256 valeurs d’intensité. Ce qui fait que la plage dynamique de cette photo se résume sur l’intervalle [0, 255] (photo à petite plage dynamique). Or, le monde naturel contient un nombre impressionnant de rayonnements lumineux différents (des millions). Face à une scène à grande plage dynamique les appareils photo sont incapables de restituer convenablement toutes les différentes valeurs des rayonnements lumineux qui s’abattent sur sa lentille. Certaines parties de la photographie seront sous exposées, ou bien surexposées.

Face à cette situation, le photographe a la laborieuse tâche de choisir les meilleurs paramètres d’exposition de l’appareil pour capturer la plage dynamique qui l’intéresse. Pour obtenir la photographie sur la figure1 à gauche, l’appareil photo est réglé d’une telle manière à bien capturer le ciel. La lumière du soleil étant très forte, le temps d’exposition du senseur de la caméra à la lumière doit être très bref pour ne pas saturer la photo. Mais en choisissant ces paramètres, le reste de la scène sera sous exposé, résultant à des zones très sombres dans l’image. Ce problème est connu aussi par l’effet du contrejour. Afin de voir les détails assombris de la scène, on doit utiliser un temps d’exposition plus lent. Ainsi, on remarque la saturation de la région du ciel (figure1 à droite). Ce genre de scènes qui comporte à la fois de forts rayonnements lumineux et en même temps des zones faiblement illuminées s’appelle : scènes à grande plage dynamique. Quels que soient les paramètres choisis (Temps d’exposition, ISO, filtres,.., etc.), on ne pourra jamais rassembler tous les détails de la scène dans la même capture. Ce qui induit une perte considérable d’informations.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport gratuit propose le téléchargement des modèles gratuits de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Sommaire
I – Introduction
1. Contexte de la problématique (l’aide à la conduite)
2. Problème de vision face aux scènes à grande plage dynamique.
3. La reconnaissance des voies routières et la transformée de Radon
4. Contributions
5. Organisation du mémoire
II – Etat de l’art
1 La vision face aux scènes à grande plage dynamique.
1.1 Introduction
1.2 La luminance et la plage dynamique en photographie
1.3 Une limite du capteur visuel.
1.4 Photographie computationnelle
1.4.1 Imagerie à grande plage dynamique
1.4.1.a. Estimation de la fonction de réponse de la caméra
1.4.1.b. Construction de l’image à grande plage dynamique
1.4.1.c. Reproduction de tons.
1.4.2 Fusion directe des expositions.
1.4.2.a. Fusion de blocs
1.4.2.b. Algorithme de Tom Mertens
1.4.2.c. Fusion d’expositions basée sur la direction du gradient
1.5 Conclusion
2 La détection des voies routières
2.1 Introduction
2.2 Etapes de détection des voies routières
2.2.1 Prétraitement
2.2.2 Extraction de caractéristiques.
2.2.3 Ajustement de modèle
2.3 Conclusion
III – Contributions.
3 Fusion d’expositions basée sur la segmentation d’histogrammes
3.1 Introduction
3.2 La Segmentation d’images
3.3 Segmentation d’histogrammes
3.4 Fusion des régions segmentées.
3.5 Acquisition des expositions
3.6 Résultats et comparaisons.
3.7 Conclusion
4 Fusion d’expositions basée sur l’apprentissage supervisé
4.1 Introduction
4.2 Estimation de poids généralisés pour la fusion d’exposition
4.3 Expérimentation et comparaisons.
4.4 Discussion des résultats
4.5 Estimation de modèle de fusion d’expositions.
4.6 Expérimentation et comparaisons.
4.7 Conclusion
5 Détection précise de lignes sur les images
5.1 Introduction
5.2 L’imprécision de la transformée de Radon.
5.3 Transformée de Radon Gaussienne
5.4 Résultats et comparaisons.
5.5 Conclusion
IV – Conclusion générale et perspectives
V – Table des figures
VI – Liste des tableaux
VII – Bibliographie

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *