Généralités sur le G−calcul stochastique

L’intérêt des problèmes de contrôle réside dans l’optimisation d’un certain critère de performance appelé fonction coût à l’aide du contrôle optimal et dans l’établissement des conditions nécessaires satisfaites par ce contrôle après avoir assuré son existence. En effet ; il existe de nombreux domaines typiques tels que les conditions météorologiques, le climat et les marchés financiers, où l’information est soumise à l’incertitude. Par exemple dans les problèmes de choix de portefeuille optimal en finance, où les processus de volatilité et de prime de risque sont inconnus et difficiles à estimer à partir de données fiables, nous devons considérer une famille de différents modèles ou scénarios. Historiquement l’étude initiale du problème de contrôle est due à Lagrange qui a fondé le calcul des variations. Par la suite plusieurs auteurs ont mis l’accent sur les problèmes de contrôle optimaux parmi eux : Bismut, Benssoussan, Haussmann et Kushner. En 2006, Bahlali, Mezerdi et Djehiche [1] ont étudié le problème de contrôle optimal relaxé et ont démontré, sous certaines conditions de régularité, que chaque processus de diffusion associé au contrôle relaxé est une limite forte d’une suite de processus de diffusion associés aux contrôles stricts.

Dans les problèmes de contrôle déterministe, la dynamique du système est modélisée par une équation différentielle ordinaire (EDO), par contre dans le cas stochastique l’évolution est décrite par un processus de diffusion solution d’une équation différentielle stochastique (EDS). D’un point de vue mathématique, on constate qu’il y a deux approches dans la résolution du problème de contrôle : la première approche est connue sous le nom de la programmation dynamique ou encore principe de Hamilton-Jacobi-Bellmann et la deuxième est le principe du maximum appelé principe de Pontriagin.

Parallèlement à cela, la théorie d’espérance non linéaire a été développée et elle a eu beaucoup d’attention dans certains domaines d’application tels que la finance, la mesure des risques et le contrôle. Un exemple typique d’espérance non linéaire, appelé G−espérance a été introduit par Peng [34, 35]. La notion de la G−espérance s’est développée très récemment par Peng [34, 35] et a ouvert la voix à l’introduction de variables aléatoires G−normales, du G−mouvement Brownien et plus généralement des G−intégrales stochastiques de type Itô. Le G−mouvement Brownien est un processus stochastique avec des incréments stationnaires et indépendants par rapport au passé et son processus de variation quadratique est, contrairement au cas classique, un processus non déterministe. En 2011, Soner,Touzi et Zhang [40], ont développé la G−analyse stochastique en introduisant la notion d’agrégation et la filtration universelle.

Généralités sur le G−calcul stochastique

L’objectif de ce chapitre est de rappeler quelques notions de base qui seront utilisées tout au long de ce travail. Dans ce chapitre, on introduit quelques notations et préliminaires, notamment sur la théorie d’espérance sous linéaire, le G−mouvement Brownien lié à la distribution G−normale.

Espérance sous linéaire

Soit Ω un ensemble donné et soit H un espace linéaire de fonctions à valeurs réelles définies sur Ω, tel que c ∈ H pour chaque constante c et |X| ∈ H si X ∈ H. H est considéré comme l’espace des variables aléatoires.

Définition 1.1 Une espérance sous linéaire sur H est une fonction
Eˆ : H → R satisfaisant les propriétés suivantes : Pour tout X, Y ∈ H,
on a

1 Monotonicité : Eˆ [X] ≥ Eˆ [Y ] si X ≥ Y .
2 Préservation des constantes : Eˆ [c] = c, pour tout c ∈ R.
3 Sous–additivité : Eˆ [X] − Eˆ [Y ] ≤ Eˆ [X − Y ].
4 Homogénéité positive : Eˆ [λX] = λEˆ [X], pour tout λ ≥ 0.
le triplet (Ω, H, Eˆ) est appelé espace d’espérance sous linéaire. Si seulement (1) et (2) sont satisfaites, Eˆ est appelée espérance non linéaire. Si l’inégalité (3) est une égalité, alors Eˆ est une espérance linéaire classique, i.e., Eˆ est une fonction linéaire satisfaisant (1) et (2). Remarque : En fait (3) et (4) impliquent la propriété de convexité suivante :

Eˆ [αX + (1 − α) Y ] ≤ αEˆ [X] + (1 − α) Eˆ [Y ] pour α ∈ [0, 1]

Notons que la propriété (4) est équivalente à la propriété suivante :
Eˆ[λX] = λ+Eˆ[X] + λ−Eˆ[−X] pour λ ∈ R,

où λ+ = max (λ, 0) et λ− = max (−λ, 0).
Dans toute la suite on désigne par Cl,Lip (Rn) l’espace des fonctions réelles définies sur Rn telles que

|ϕ (x) − ϕ (y)| ≤ C
(1 + |x|k + |y| k)|x − y| pour tout x, y ∈ Rn,

où k ∈ N∗ et C > 0 dépendant uniquement de ϕ.

Problème de contrôle stochastique

On se place dans un espace probabilisé filtré (Ω, F,(Ft)t∈R+ , P), satisfaisant les conditions habituelles et on se donne B = (Bt)t∈R+ un mouvement brownien d−dimensionnel et A un borélien de R. Dans les problèmes de contrôle stochastique, on distingue deux formulations comme suit :
i)Si l’espace de probabilité filtré et le mouvement brownien sont donnés à l’avance et les contrôles sont adaptés à cette filtration, on a une formulation forte.
ii)Si l’espace de probabilité filtré et le mouvement brownien sont des parties de contrôle on va obtenir une formulation faible. Les contrôles admissibles sont l’outil de base dans notre problème de contrôle.

Définition 2.1 On appelle contrôle admissible tout processus à valeurs dans A, mesurable et (Ft)t∈R+ −adaptè. On rappelle qu’un processus u : Ω → F([0, T], A) est (Ft)t∈R+ −adapté si ut est une application Ft−mesurable.

Remarque : Le processus u doit être (Ft) −adapté pour assurer la connaissance de l’histoire du processus jusqu’á l’instant t.

Le problème de contrôle relaxé

le stochastique, ne possède pas de solution optimale en l’absence d’hypothèses supplémentaires de convexité sur la dérive b et le coefficient de diffusion σ. Pour cette raison on injecte l’espace des contrôles stricts U, dans un espace plus large qui possède de bonnes propriétés de compacité et de convexité et on pose le problème de contrôle optimal relaxé sur cet espace noté ℜ. Notons que ℜ est muni de la topologie de la convergence stable (topologie faible). L’existence d’un contrôle optimal pour les problèmes modélisés par les EDS dont σ ne dépend pas du contrôle, a été montrée d’une façon explicite par Fleming [16]. Plus tard, ces résultats ont été généralisés dans le cas où σ est contrôlé par El Karoui [11].

Remarque : L’injection de l’espace U dans ℜ, est effectuée par l’application :

ψ : U → ℜ
définie par :
ψ(u)(dt, da) = dtδut (da)

où δut représente la mesure de Dirac au point ut .

Exemple illustratif 

Considérons l’exemple du contrôle ordinaire considéré auparavant.
On identifie un(t) par la mesure de Dirac δun(t) sur A .
Rappelons que u : [0, 1] −→ A. On considère la mesure qn(dt, du) = δun(t)(du)dt sur l’espace ([0, 1] × A]).

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
1 Généralités sur le G−calcul stochastique
1.1 Espérance sous linéaire
1.2 Distributions et indépendance
1.3 Distribution G−normale et G−mouvement Brownien
2 Problème de contrôle stochastique
2.1 Problème de contrôle déterministe
2.2 Problème de contrôle stochastique
2.2.1 Position du problème
2.3 Existence d’un contrôle optimal ordinaire
2.4 Problème de contrôle strict
2.5 Optimalité des contrôles adaptés à l’état du système
2.6 Quelques exemples sur le contrôle stochastique
2.6.1 Contrôle de risque sensitifs
2.6.2 Contrôle ergodique
2.6.3 Portefeuille de Merton
2.7 Le problème de contrôle relaxé
2.7.1 Position du problème
2.7.2 Étude d’un problème de contrôle relaxé
2.7.3 Approximation des trajectoires
2.7.4 Existence d’un contrôle optimal relaxé
3 G-contrôle stochastique optimal strict
3.1 Motivation
3.2 Le principe du maximum classique
3.3 Le principe du maximum pour une G−EDS
3.3.1 Position du problème
3.3.2 Principe du maximum pour le cas d’information complète
4 G−contrôle stochastique optimal relaxé
4.1 G−espérance et G−mouvement brownien canonique
4.2 G−intégrales stochastiques
4.3 La représentation duale de la G-espérance
4.4 L’espace des G−contrôles relaxés
4.5 Le G−contrôle stochastique optimal relaxé
Conclusion et perspectives
Bibliographie

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *