Contribution à la modélisation spatiale des événements extrêmes

La théorie des valeurs extrêmes a longtemps reçu beaucoup d’attention sur le plan théorique. Depuis quelques décennies, cette théorie est devenue incontournable dans la modélisation des événements extrêmes. Le développement des outils informatiques et les entrepôts de données bien fournis permettent de nos jours de diversifier les domaines d’applications de la théorie des valeurs extrêmes. Ainsi, les domaines d’applications de cette théorie sont très variés : hydrologie, biologie, ingénierie, gestion de l’environnement, météorologie, finance, assurance, sciences sociales, etc. Cette théorie est associée aux phénomènes dits rares voire même improbables.

Les phénomènes rares et/ou catastrophiques dominent l’actualité quotidienne par leur caractère imprévisible. Ils sont variés et souvent de caractères physiques en particulier les catastrophes naturelles : les séismes, les éruptions volcaniques, les tsunamis, les mouvements de terrain, les inondations, les tempêtes, les cyclones, les orages etc faisant ainsi des ravages sur leur passage. Les exemples ci-dessous illustrent les dégâts matériels et humains que peut engendrer un événement catastrophique rare.

À l’échelle mondiale, on recense annuellement environ un millier de grandes catastrophes « naturelles » en majeure partie provoquées par les crues, événements naturels les plus fréquents et les plus destructeurs ; leurs causes initiales sont toujours météorologiques : moussons, cyclones, tempêtes (Source Wikipédia (2016)).

En confondant les effets désastreux de certains de ces événements avec les causes des catastrophes qui en résultent, il a été longtemps considéré que les causes étaient des punitions et que les effets étaient inéluctables, fatals, prescrits… La science et la technique permettent maintenant de caractériser les événements, de prévoir leurs effets, d’établir et distinguer les causes naturelles d’avec les causes humaines des catastrophes pour améliorer la prévention et la gestion des secours.

L’approche standard en théorie des probabilités place l’accent sur le comportement en moyenne et la variabilité autour de la moyenne, par le biais d’outils probabilistes comme par exemple la loi des grands nombres, le théorème central limite ou encore l’analyse de la variance. Cette approche ne fournit pas d’informations fiables sur les évènements extrêmes c’est-à-dire sur les queues de distributions des événements. Pour caractériser et quantifier le comportement de ces événements extrêmes, une nouvelle théorie est nécessaire, la Théorie des Valeurs Extrêmes (TVE). Cette théorie englobe des modèles stochastiques extrêmes adéquats pour modéliser et décrire la survenue et l’intensité d’évènements dits rares c’est-à-dire qui présentent des variations à très grandes amplitudes ou à très faibles amplitudes et ayant une très faible probabilité d’apparition. L’étude des lois de ces événements extrêmes n’est possible que si le comportement de ces derniers est dû au hasard (notion de probabilité). Ils sont dits extrêmes quand il s’agit de valeurs beaucoup plus grandes ou plus petites que celles observées habituellement. La modélisation de tels événements est de nos jours un champ de recherches particulièrement actif due notamment à l’importance de leurs impacts socio-économiques et à la longue collecte de données enregistrant de tels événements. L’analyse des valeurs extrêmes requiert l’estimation d’un indice de queue qui donne une indication essentielle sur la forme de la queue de distribution des événements.

Cette théorie développée par Fisher et al. (1928) sur les lois limites possibles du maximum d’un échantillon a montré que la théorie des valeurs extrêmes était quelque chose de spécial et pas comme la théorie classique de la limite centrale. Depuis, ce résultat de Fisher et al. (1928) a été étudié par Gnedenko (1943) qui obtient rigoureusement la convergence, dont la preuve fut simplifiée par Haan (1976). L’unification de ce résultat est due aux travaux de Von Mises (1936) et Jenkinson (1955). Cette analyse repose principalement sur des distributions limites des extrêmes et leurs domaines d’attraction. Cependant, on y retrouve deux modèles:
• La loi généralisée des valeurs extrêmes (GEV : «Generalized Extreme Value»),
• La loi de Paréto généralisée (GPD : «Generalized Pareto Distribution»).

Par définition, les événements extrêmes sont peu nombreux de par leurs fréquences d’apparitions rares voir même inexistants rendant ainsi leurs modélisations difficiles. L’information la plus précise est celle contenue dans les valeurs observées les plus extrêmes. De ce fait, à partir de peu de données, on doit construire des modèles nous permettant d’extrapoler et de prédire un événement sans commune mesure ce qui conduit à deux problèmes en pratique.

• Le premier est lié à la taille de l’échantillon qui est souvent faible remettant en question l’applicabilité des résultats asymptotiques (La taille minimale n = 50 a été recommandée par Stedinger (2000) pour avoir des estimations robustes). Néanmoins, cette taille ne peut pas fournir assez d’informations si on s’intéresse à la prédiction d’événements extrêmes sur de longues périodes.

• Le second est dû au fait qu’une loi de probabilité ne donne pas toujours un bon ajustement dans toutes les applications (cf. Bobée & Rasmussen (1995)). Dans ce cas, il est nécessaire d’effectuer un classement des distributions en fonction du comportement de leurs queues et à partir de considérations physiques ou statistiques, d’établir des critères de discrimination entre les différentes classes dans le cas d’un échantillon de faible taille.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction générale
1.1 Motivations
1.1.1 Approche probabiliste
1.1.2 Limites de cette approche
1.1.3 Domaines d’application
1.2 Présentation des travaux de recherche
1.3 Organisation de la thèse
2 Concepts fondamentaux
2.1 Introduction
2.2 Généralités sur la theorie des valeurs extrêmes
2.3 Généralités sur la statistique spatiale
3 On tail index estimation for random fields
3.1 Résumé en français
3.2 Introduction
3.3 Tail estimation
3.3.1 Infinite order spatial moving average framework
3.3.2 Mixing random fields framework
3.3.3 Conclusion and forthcoming studies
3.4 Appendix A1 : Tail empirical measure and technical lemmas
3.4.1 Tail empirical measure
3.4.2 Technical lemmas
3.5 Appendix A2 : Intermediate lemmas and proofs of main results
3.5.1 Appendix A21 : Convergence in probability
3.5.2 Appendix A22 : Intermediate results and their proofs
3.5.3 Appendix A23 : Asymptotic normality
4 Conclusion

Keywords :
Spatial statistics ; Extreme values ; Spatial M−dependent processes ; Spatial linear causal
processes ; α− mixing processes ; Nonparametric estimation ; Kernel estimator ; Heavy tail
index estimate ; Extreme quantiles estimate ; Hill’s estimator ; Consistency ; Asymptotic
normality.

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *