Du contrôle aux réseaux de neurones formels

Systèmes dynamique et problématique du contrôle

Systèmes dynamiques

Les systèmes dynamiques formalisent les processus d’évolution d’un système. L’ensemble de tous les états d’un processus est appelé espace des phases [Arnold, 1974]. On le notera X . Un tel processus peut être déterministe (lorsque son état présent détermine totalement ses états passés et futurs) ou stochastique (si ce n’est pas le cas).

Définition 1 (Système dynamique continu ou discret) Un processus est différentiable si son espace des phases est muni d’une structure de variété différentiable, et que ses changements d’état au cours du temps sont définis par des fonctions différentiables. Il peut alors être formalisé par le système dynamique continu suivant (x ∈ X est l’état du système, t indice le temps) :

x˙t = f(t, xt)

A contrario, lorsque les changements du processus ne peuvent pas être définis par des fonctions différentiables, il peut être formalisé par le système dynamique discret (ou système aux différences) suivant :

xt+1 = f(t, xt)

On note aussi (1.2) en utilisant l’opérateur “avance” σ (formellement σxt = xt+1) ce qui allège les notations en permettant de se passer de l’indiçage par le temps :

σx = f(x)

La trajectoire d’un système dynamique issue d’un point xt0 est le lieu de l’évolution du système passant par xt0 en t0. La plupart des systèmes physiques livrés à eux-mêmes sont modélisables par des systèmes dynamiques. L’étude des systèmes dynamiques est l’objet d’une vaste littérature sans cesse en évolution. L’étude des systèmes dynamiques vise notamment à déterminer le lieu des trajectoires d’un tel système. Une notion capitale dans ce cadre est de savoir si, pour un système donné, deux états “proches” à un instant t de l’évolution du système vont resterproches,  se confondre, ou s’éloigner, ou même si des situation de proximité et d’éloignement vont s’alterner, et si oui à quel rythme.

Fonctions de Lyapunov

Les méthodes de Lyapunov permettent de répondre à certaines questions de stabilité de systèmes dynamiques. Dans cette section, le système considéré est différentiable et on le ramène au cas où x ≡ 0 en est une solution (Le passage d’un système générique y˙ = f(t, y) avec y ≡ y0 comme solution à un tel système se fait par le changement de variable : x = y − y0 et F(t, x) = f(t, x) − f(t, y0)).

Définition 2 (Stabilité de Lyapunov) La solution x(t) ≡ 0 de (1.1) est dite lyapunov stable si quel que soit ε positif strictement, il existe δ(ε, t0) positif strictement tel que : Si t ≥ t0 et x0 vérifie ||x0|| ≤ δ(ε, t0), alors toute trajectoire ζt(t, x0) de (1.1) issue de x0 en t0 vérifie :

||ζt(t, x0)|| ≤ ε

Définition 3 (Stabilité uniforme) La solution x(t) ≡ 0 de (1.1) est dite uniformément stable par rapport au temps si quelque soit ε strictement positif, il existe δ(ε) strictement positif (indépendant de t0) tel que : pour tout t ≥ t0 et x0 tel que ||x0|| ≤ δ(ε), toute trajectoire ζt(t, x0) de (1.1) issue de x0 en t0 vérifie :

||ζt(t, x0)|| ≤ ε

Système dynamique contrôlé

Problématique

La théorie du contrôle est l’étude des trajectoires d’un objet dont la position au cours du temps est déterminée par un système d’équations différentielles ou aux différences (on parle alors de système à temps continu ou à temps discret), stochastique ou non. Ce système d’équations a en outre la particularité d’être paramétré par un ensemble de “variables de contrôle”. L’espace dans lequel évolue l’objet étudié est appelé “espace d’état” (ici noté X ) et celui des variables de contrôle “espace de contrôle” (ici noté U).

Exemple 1.3.1. Dynamique d’un couple de points du plan.

Un exemple très simple est un couple de points (x, y) et (X, Y ) d’un plan cartésien qui s’y meuvent sans frottement et auxquels des forces (u, v) et (U, V ) sont appliquées.

Ce mémoire se place dans le cadre suivant :
– le contrôle est en boucle fermée : la variable u de l’équation x˙ = f(x, u) dépend de la valeur de x,
– cette boucle fermée est réalisée par les fonctions de la classe des perceptrons affines par morceaux (u = ΨΘ(x) où Θ est un ensemble de paramètre qui défini la forme de la fonction Ψ),
– nous allons chercher les éléments de la classe de fonctions choisie (i.e. les valeurs des paramètres Θ) qui garantissent certaines propriétés sur les trajectoires du système contrôlé (en notant X l’espace d’état dans lequel vivent les réalisations de x, l’ensemble X de ces trajectoires est constitué des éléments de X IR dans le cas continu et de X IN dans le cas discret),
– les propriétés des trajectoires recherchées vont s’exprimer comme des parties de X, qui seront définies en utilisant une fonction C de X dans IR+ (dite fonction de coût) ; ainsi le sous-ensemble de X qui nous intéresse est celui qui minimise C sur X, ce qui nous place dans le cadre du contrôle optimal.

Comme l’introduction l’a souligné, la théorie du contrôle se ramifie en de nombreuses branches traitant chacune d’un aspect bien spécifique de l’évolution des systèmes (1.7) et (1.8). En voici une brève description tirée principalement de [Sussmann, 1989], [Bellman, 1961] et [Aubin et al. , 1980] :
– La contrôlabilité, l’observabilité, et la réalisation minimale de systèmes non linéaires [Coron, 1994]. Il s’agit de l’étude des relations entre les espaces X et U : quelles parties de X sont parcourues par le système lorsque le contrôle prend ses valeurs dans une partie de U? et réciproquement ?
– La recherche de chemins minimaux. L’objectif est dans ce cas de déterminer quelles valeurs de x0 et de u au cours du temps permettent de minimiser une fonction de coût calculée le long des trajectoires de (1.7) ou (1.8) [Sussmann, 1989].
– La stabilisation par bouclage, qui est l’étude des fonctions u de la forme g(x, t) (ou g(xn, n)) permettant qu’un point donné de X soit un équilibre de (1.7) ou (1.8). [Sontag, 1990b]
– L’équivalence de systèmes par difféomorphismes et par bouclage. Qui consiste en l’étude des similarités entre systèmes de type (1.7) ou (1.8) modulo certains changements de variables [Celikovsky, 1995].
– Les systèmes hybrides, qui sont une collection de systèmes de type (1.7) et (1.8) reliés entre eux par des conditions de passage. Ce type de système est particulièrement adapté à la modélisation de programmes informatiques à base d’agents.
– Le contrôle optimal traite des méthodes permettant d’assurer que l’ensemble des trajectoires partant d’une zone de X minimise une fonction de coût pendant un intervalle de temps fixé. [Sussmann, 1998] .

Principe du contrôle optimal

Dans [Lions, 1968], J.L. Lions donne la définition suivante du contrôle optimal déterministe :

Définition (Contrôle optimal) La théorie du contrôle optimal (déterministe) se fait à partir des données suivantes :
1. un contrôle u “à notre disposition” dans un ensemble U (l’ensemble des “contrôles admissibles”) ;
2. l’état x(u) du système à contrôler qui est donné, pour u choisi, par la résolution de l’équation :

Λy(u) = fonction donnée de u

où Λ est l’opérateur (supposé connu) qui “représente” le système à contrôler (Λ est le “modèle” du système) ;
3. l’observation y(u) qui est une fonction de x(u) (supposée connue) ;
4. la fonction de coût J (u) (“fonction économique”) qui est définie à partir d’une fonction y → I(y) numérique positive sur “l’espace des observations” par :

J (u) = I(y(u))

On cherche (problème de Calcul des Variations) :

inf J (u), u ∈ U

Il ajoute que les objectifs de la théorie du contrôle optimal sont l’obtention de conditions nécessaires (ou nécessaires et suffisantes) pour le ou les extrema (ou minima) ; l’étude de la structure et des propriétés des équations exprimant ces conditions (elles font intervenir le “modèle” Λ) ; et l’obtention d’algorithmes constructifs, susceptibles d’applications numériques pour l’approximation du (ou d’un) u ∈ U réalisant le inf et qui est alors dit “contrôle optimal”. La version stochastique de cette définition donne celle du contrôle optimal stochastique. Il s’agit donc des problèmes de contrôle dont l’objectif est de minimiser un critère le long des trajectoires du système contrôlé. La théorie du contrôle optimale est très riche, l’article [Sussmann, 1989] de Sussman en fait un vaste tour d’horizon en mettant l’accent sur les réponses apportées par la géométrie différentielle.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
I Du contrôle aux réseaux de neurones formels
1 Systèmes Dynamiques et Contrôle
1.1 Systèmes dynamiques
1.2 Fonctions de Lyapunov
1.3 Système dynamique contrôlé
2 Contrôle optimal
2.1 Principe du contrôle optimal
2.2 Contrôle Linéaire Optimal
2.3 Contrôle par LQI
2.4 Du linéaire au non linéaire
2.5 Contrôle Optimal
3 Les réseaux de neurones formels
3.1 Introduction
3.2 Les perceptrons multicouches
3.3 Les Autres Types de RNF
4 Etat de l’Art du contrôle par RNF
4.1 Liens entre les RNF et le contrôle
4.2 Les RNF en tant qu’Approximateurs
4.3 Les RNF en tant que Contrôleurs
4.4 Bilan
II Perceptrons affines par morceaux : une famille de RNF particulièrement riche
5 Des RNF aux PAP
5.1 Dimensionnement des perceptrons
5.2 Définition et comportement des PAP
5.3 Représentation des fonctions CAM par les PAP
5.4 Initialisation d’un perceptron
5.5 Les directions possibles
6 Les PAP en boucle fermée
6.1 Comportement asymptotique
6.2 Approximation par une chaîne de Markov
6.3 Conclusion
7 Apprentissage dans une boucle fermée
7.1 Contrôle optimal par RNF
7.2 Apprentissage en boucle fermée
7.3 Conception de l’algorithme d’apprentissage
7.4 Système à contrôler
8 Garanties apportées par les PAP
8.1 Objectif : contrôle optimal
8.2 Stabilité d’un contrôle par PAP
8.3 Application des critères de stabilité
III Contexte, enjeux et mise en œuvre
9 Application à l’Automobile
9.1 Utilisation des réseaux de neurones formels
9.2 Les PAP hors du contrôle
9.3 Pré mise au point
9.4 Utilisation des PAP en contrôle moteur
10 Mise en œuvre
10.1 Modèle disponible
10.2 Initialisation du PAP
10.3 Apprentissage “en ligne” des PAP
10.4 Vérification de stabilité et de robustesse
10.5 Bilan
CONCLUSION

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *