LA NAVIGATION AUTONOME

LA NAVIGATION AUTONOME

Les perceptrons multicouches

Un perceptron multicouche ou Multilayer Perceptron (MLP) en Anglais n’est rien d’autre qu’un assemblage de couches concaténées les unes aux autres, de la gauche vers la droite, en prenant les sorties d’une couche et en les injectant comme les entrées de la couche suivante. Le problème de la navigation peut être vue de différentes manières: comme un problème à deux classes non linéairement séparables de type OU exclusif: passer ou ne pas passer, accélérer ou ne passer accélérer, tourner à droite ou tourner à gauche etc. comme un problème d’approximation de fonction. On suppose qu’il y a une loi qui régit toutes les réactions du conducteur aux stimuli qu’il reçoit. Et on tente de trouver un estimateur de cette loi, comme un problème de classification: tourner à droite, tourner à gauche, continuer tout droit. Accélérer, décélérer, maintenir sa vitesse etc. Dans ce qui va suivre, nous essayerons de montrer par des exemples qu’un perceptron multicouche permet de résoudre ces types de problèmes au moyen de ses couches supplémentaires. Une chose que l’on peut déjà remarquer est qu’il ne sert à rien d’assembler plusieurs couches linéaire (Adaline) car la combinaison de plusieurs couches linéaires peut toujours se ramener à une seule couche linéaire équivalente. Pour être utile donc, un réseau multicouche doit toujours posséder des neurones avec des fonctions de transfert non-linéaires sur ses couches cachées. Sur sa couche de sortie, selon le type d’application, il pourra comporter des neurones linéaires ou non-linéaires.
a) Le problème du OU exclusif
La réalisation de la fonction OU exclusif est un cas de problème à deux classe non linéairement
séparables que l’on résout au moyen d’un perceptron multicouche. Mais qu’entend-on par problème à deux classes «linéairement séparables» ? Simplement un problème de classification dont la frontière de décision permettant de séparer les deux classes peut s’exprimer sous la forme d’un hyperplan (plan dans un espace à n dimensions ; dans un espace à deux dimensions, la frontière est une droite). Soit par exemple les problèmes illustrés sur la figure 2-9 où on veut séparer les points noirs des points blancs.Aucun de ces problèmes n’est séparable au moyen d’une droite). Des frontières possibles sont dessinées
en pointillés. C’est le problème du «OU exclusif» (XOR) que l’on ne peut pas résoudre ni avec un perceptron simple,ni avec un réseau Adaline, car les points noirs ne peuvent pas être séparés des blancs à l’aide d’une seule frontière de décision linéaire. Dans ce problème, les points noirs représentent le vrai (valeur 1) et les points blancs le faux (valeur 0). Le «ou exclusif>>, pour être vrai, exige qu’une seule de ses entrées soit vraie, sinon il est faux. On peut résoudre facilement ce problème à l’aide du réseau multicouche illustré à la figure 2-10 [28], fait de deux couches avec des fonctions de transfert seuil et une combinaison judicieux de poids et de biais. Sur la première couche, chaque neurone engendre les frontières de décision illustrées aux figures 2-1 a) et 2-11 b). Les zones grises représentent la région de l’espace d’entrée du réseau pour laquelle le neurone correspondant produit une réponse vrai. Le rôle du neurone de la couche de sortie, illustré à la figure 2-11 c), consiste à effectuer la conjonction des deux régions produite par les neurones de la première couche. La figure 2-11 représente toutes les frontières de décision dans l’espace des entrées. La frontière de décision engendrée par le neurone de la couche de sortie est aussi illustrée
dans son propre espace d’entrée à la figure 2-12.
Mentionnons fmalement que le réseau de la figure 2-10 n’est pas le seul à résoudre le problème du «ou exclusif>>.
b) L’approximation de fonction
Pour faire de l’approximation de fonction, on peut montrer qu’un réseau multicouche comme celui de la figure 2-13, avec une seule couche cachée de neurones sigmoïdes et une couche de sortie de neurones linéaires permet d’approximer n’importe quelle fonction avec une précision arbitraire, à condition de disposer de suffisamment de neurones sur la couche cachée [28]. futuitivement, c’est comme pour les séries de Fourier qui utilisent des sinus et cosinus. N’importe quelle fonction peut être écrite sous forme de combinaison linéaire de sigmoïdes.
c) La classification
Pour faire de la classification, on utilise des réseaux soit à deux, soit à trois couches (comme à la figure 26) de neurones sigmoïdes. On peut montrer qu’une seule couche cachée suffit à engendrer des frontières de décision convexes, ouvertes ou fermées, de complexité arbitraire, alors que deux couches cachées permettent de créer des frontières de décision concaves ou convexes, ouvertes ou fermées, de complexité arbitraire. La figure 2-14 montre en deux dimensions différents types de frontières de décision. Intuitivement, on peut imaginer que la première couche cachée d’un tel réseau sert à découper l’espace d’entrée en plusieurs régions à l’aide de frontières de décision linéaires ou non linéaires. La deuxième couche sert à faire la conjonction des régions délimitées par la couche précédente et il en résulte des frontières de décision non-linéaires convexes. De même, la couche de sortie fait la conjonction des régions délimitées par la couche précédente et il en résulte des frontières de décision concaves.

L’apprentissage des réseaux de neurones

Le champ des réseaux de neurones a pour objet de répondre à la question suivante: comment pouvons nous construire un système informatique qui automatiquement améliore ses performances avec l’expérience et quel est le principe organisateur du processus d’apprentissage? Il s’agit, très
schématiquement, de concevoir des algorithmes capables de construire des schémas généraux des choses  à partir de cas particuliers et de se servir de ces schémas pour inférer sur d’autres cas particuliers. L’apprentissage est un processus de généralisation au cours duquel à partir d’exemples, on construit un modèle qui nous permettra de reconnaître de nouveaux exemples. En fait la caractéristique finale de l’apprentissage est de nous faire bénéficier d’un retour d’expérience chaque fois que nous avons à refaire une chose que nous avons déjà faite au moins une fois dans le passé. Autrement dit, l’apprentissage permet quand vient le temps de refaire quelque chose qu’on a déjà faite de:
1) Mieux la refaire (diminution du nombre d’erreur)
2) La refaire rapidement (diminution du temps d’exécution)
3) La refaire plus facilement (diminution de la ressource mentale et/ou physique investie)
Cette définition implique qu’un réseau se doit d’être stimulé par l’environnement, qu’il subisse des
changements en réaction à cette stimulation, et que ceux-ci provoquent dans le futur une réponse nouvelle vis-à-vis de l’environnement. Ainsi, le réseau peut s’améliorer avec le temps.Dans la plupart des architectures, l’apprentissage se traduit par une modification de l’efficacitésynaptique, c’est-à-dire par un changement de la valeur des poids qui relient les neurones d’une couche à l’autre.On distingue deux grandes catégories de réseaux de neurones: les réseaux feed-forward (ou réseaux non bouclés) et les réseaux feed-back (ou réseaux bouclés ou réseaux récurrents). Parmi les principales architectures non-bouclées, on compte le perceptron, le perceptron multicouche, les réseaux à fonction radiales (RBF). Elles servent à la classification et l’approximation de fonction. Et dans la catégorie des réseaux bouclés, il y a les réseaux à compétition dont les cartes auto-organisatrices de Kohonen, les réseaux de Hop field et les réseaux ART [28]. Les réseaux non-bouclés sont entrainés essentiellement au moyen du mode d’apprentissage dit supervisé pendant que les réseaux bouclés utilisent l’apprentissage par renforcement et l’apprentissage non supervisé.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Remerciements
LISTE DES TABLEAUX
LISTE DES FIGURES
RÉSUMÉ
ABS TRACT
INTRODUCTION
CHAPITRE 1 INTRODUCTION À LA NAVIGATION AUTONOME
1.1 Le concept de télé-opération basée sur le retour visuel
1.2 Architecture de mobilité d’un véhicule automatisé
1.3 Niveaux d’intervention
1.3.1 Télépilotage
1.3.2 Téléguidage
1.3.3 Téléplanification
1.3.4 L’autonomie complète
1.4 Problématique de la navigation autonome
1.5 Les principales approches
1.5.1 Les architectures délibératives
1.5.2 Les architectures réactives
1.5.3 Les architectures hybrides
1.6 Analyse comparative des approches
CHAPITRE 2 LES RÉSEAUX DE NEURONES
2.1 Les architecture de réseaux de neurones
2.1.1 Le parallèle réseau de neurones et cerveau
2.1.2 Modèle d’un neurone
2.1.3 Modèle d’un réseau de neurones
2.1.4 Les perceptrons
2.1.5 Les perceptrons multicouches
2.2 L’apprentissage des réseaux de neurones
2.2.1 L’apprentissage supervisé
2.2.2 L’apprentissage par renforcement
2.2.3 L’apprentissage non-supervisé
2.2.4 Revue de littérature des approches neuronales de la navigation autonome
2.3 Avantages et inconvénients des réseaux de neurones
CHAPITRE 3 GUIDAGE D’UN ROBOT MOBILE PAR UN PERCEPTRON MULTICOUCHE
3.1 L’architecture de commande
3.2 La perception de l’environnement
3.3 La planification de la route
3.4 Le guidage latéral du mouvement: commande du cap
3.4.1 L’algorithme pour le guidage latéral
3.4.2 Validité de l’algorithme du guidage latéral
3.5 Le guidage longitudinal du mouvement: commande de la vitesse
3.5.1 L’algorithme pour le guidage longitudinal
3.5.2 Validité de l’algorithme du guidage longitudinal
3.6 Contrôle parallèle et conjoint du cap et de la vitesse
3.7 Architectures des réseaux de neurones
3.7.1 Architecture pour le contrôle latérale
3.7.2 Architecture pour le guidage longitudinal
3.8 L’apprentissage
CHAPITRE 4 MISE EN ŒUVRE ET RÉSULTATS
4.1 Constitution de la base d’apprentissage
4.1.1 Base d’apprentissage pour le contrôle latéral
4.1.2 Base d’apprentissage pour le guidage longitudinal
4.2 Choix de l’architecture du réseau
4.2.1 Architecture pour le contrôle latéral
4.2.2 Architecture pour le guidage longitudinal
4.3 L’apprentissage des contrôleurs neuronaux
4.4 Analyse de le performance du contrôleur latéral
4.4.1 Performance en apprentissage
4.4.2 Capacité de prédiction
4.5 Analyse de la performance du contrôleur longitudinal
4.5.1 Performance en apprentissage
4.5.2 Capacité de prédiction
4.6 Discussion
CONCLUSION
RÉFÉRENCES

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *