LE DIAGRAMME DE TAYLOR : APPLICATION A LA GEODESIE SPATIALE

Télécharger le fichier pdf d’un mémoire de fin d’études

Les surcharges atmosphériques

L’atmosphère constitue le deuxième réservoir d’eau après l’océan. La surcharge atmosphérique est causée par les variations de la pression atmosphérique. La redistribution des masses d’air dues à la circulation atmosphérique peut causer une déformation de surcharge sur la croûte terrestre. Celle-ci peut atteindre 20 mm pour la composante verticale et 3 mm pour la composante horizontale (PETROV et BOY, 2004). Les périodes principales associées au modèle atmosphérique sont diurnes, hebdomadaires, semi-annuelles et annuelles. Les déplacements sont plus importants dans les zones de latitude élevée et pendant l’hiver. La zone qui est la plus impactée par cette surcharge se trouve en Russie d’après DACH et al. (2011). Les régions plus proches des pôles subissent plus de changements de pression et de température et sont beaucoup plus impactées par la surcharge atmosphérique, contrairement aux régions équatoriales, où la température reste constante toute l’année. En ce qui concerne notre zone d’étude, nous nous attendons à visualiser des différences vis-à-vis de cette déformation compte tenu de l’amplitude des latitudes et des différences d’altitudes en Amérique du Sud.

Les surcharges hydrologiques

Les eaux continentales, troisième réservoir d’eau, se composent essentiellement des eaux de surfaces (rivières, lacs, humidité du sol), des nappes phréatiques, de la neige et des glaciers. Au cours du temps, en fonction des saisons et de l’action du soleil sur le sol, les masses d’eaux présentes sur terre se redistribuent. Il y a une variation du bilan entre les précipitations (pluie, neige), le ruissellement et l’évapotranspiration. Cela a pour conséquence de créer une flexion de la croûte plus ou moins grande en fonction des régions du monde (COLLILLIEUX, 2008). Le déplacement de ces eaux continentales provoque des déformations annuelles (VAN DAM et al, 2001) avec des dispersions sur la position pouvant aller jusqu’à 8 mm. La période du cycle hydrologique est généralement d’un an, puisque liée principalement à l’énergie solaire. Cependant, d’autres facteurs peuvent modifier les variations hydrologiques. Les événements épisodiques comme les tempêtes, vont créer des variations de masses qui se répercutent sur les signaux GPS ou GRACE. Les différents régimes climatiques sont aussi une des causes des différences de masses. La présence d’une chaîne de montagne, d’importants bassins fluviaux ou de réserves d’eau douce va entraîner une différenciation des effets de surcharge d’une zone à l’autre. Ces réservoirs d’eau vont être plus ou moins importants selon la région, le climat ou la topographie des lieux. En influant sur les hauteurs d’eau des rivières, les précipitations vont jouer un rôle important sur les surcharges (CORBEAU, 2015). Dans les zones où le phénomène hydrologique est moindre, lorsque l’on ne prend pas en compte les effets des eaux de surfaces et de leur circulation, nous observons une meilleure corrélation des données et des modèles (ex : Brasilia, Brésil) (CORBEAU,2015). Ainsi, il est nécessaire d’avoir des modèles hydrologiques qui prennent en compte les données des fleuves et des lacs. La Figure 4 montre la comparaison entre le signal GPS et la somme de différents modèles de surcharge sans la contribution des rivières et des lacs (ATMMO + GLDAS)1 pour la station POVE. La totalité du signal GPS n’est pas expliquée par les modèles classiques des effets de surcharge, il manque une partie du signal qui n’est pas comprise dans ces derniers.

Les séries temporelles utilisées

Les séries GPS

Nous utilisons des séries temporelles journalières de positionnement à trois composantes East, North et Up, calculées grâce à la méthode PPP (Précise Point Positioning) par (BLEWITT et al., 2018) et disponibles sur le site du NGL2. Ces séries sont exprimées dans le repère tridimensionnel de référence ITRF2014 (International Terrestrial Référence Frame 2014) (ALTAMIMI et al., 2016). L’incertitude sur le positionnement s’élève respectivement à 1 mm pour les composantes planimétriques et de 3 mm pour la composante verticale.
Avant d’utiliser ces séries temporelles, quelques précautions sont nécessaires. En effet, les séries peuvent comporter des sauts ou des trous. Les sauts peuvent être causés par des phénomènes ponctuels, comme les séismes ou les phénomènes climatiques tels que les inondations ou les tempêtes ou par un changement de matériel (antenne, récepteur). Un trou est une absence de mesure dans un certain laps de temps. L’outil MSSA développé avant cette étude, comporte une partie permettant de combler les trous de mesures. Cependant, la correction des sauts dans les séries temporelles n’est pas réalisée. Or, il s’avère que cette étape est essentielle puisqu’un saut peut fausser l’estimation des termes périodiques ou de la pente et donc l’accord ou non avec les modèles.

Les séries GRACE

Les missions de gravimétrie spatiale GRACE et GRACE-FO donnent accès à des mesures complémentaires à grande échelle spatiale. Ces missions permettent de disposer de séries temporelles du champ de gravité de la Terre avec une résolution spatiale de quelques centaines de kilomètres et une résolution temporelle mensuelle. Elles peuvent être converties en termes de hauteur équivalente d’eau à la surface de la Terre et en déformations de la croûte terrestre en 3D (Figure 5). Les analyses gravimétriques des séries temporelles issues de GRACE permettent de mettre en évidence les déformations causées par les variations de pression des masses d’eau (FU et al., 2013). Une des plus grandes contributions à la variabilité gravimétrique observée avec GRACE est directement liée au stock d’eau continentale (PREVOST, 2019). Très intéressante pour notre étude, cette contribution permet de connaître la variation du stock d’eau continentale et l’échelle des données permettra de mettre en évidence des phénomènes de surcharge sur de grandes zones comme les différents bassins hydrologiques d’Amérique du Sud.
Les données issues de GRACE permettront ainsi de compléter les données des séries GPS. Elles seront particulièrement intéressantes lorsqu’elles seront comparées à des modèles hydrologiques de surface comme le modèle GLDAS/Noah. Dans notre étude nous utilisons les solutions « mascons » de surface 1°x1°, développées par la NASA Goddard Space Flight Center (GSFC) de Janvier 2003 à Juillet 20163 (LUTHCKE et al, 2013 ; LOOMIS & LUTHCKE, 2017). Un mascon (mass concentration) représente un excès ou un manque de masse surfacique par rapport au champ de gravité moyen a priori dans une région prédéfinie, directement inversé d’après les mesures GRACE (CARABAJAL et BOY, 2020).

Les modèles géodynamiques de surcharge

Nous disposons de différents modèles géodynamiques pour calculer les déformations induites par ces effets de surcharge. Les modèles géophysiques de déplacement tridimensionnel utilisés ici ont été créés en utilisant les données globales géophysiques de fluides convoluées avec les fonctions de Green (FARELL, 1972). Les différents modèles cités ci-après sont calculés et fournis par J.-P. BOY et sont disponibles sur le site de l’EOST – loading service4. Pour mon étude nous utiliserons plusieurs modèles de surcharge adaptés à celle-ci décrits ci-après :
• ATMMO : Représente les modèles atmosphérique et océanique (Figure 6, gauche). Il est issu de la combinaison de la contribution de l’atmosphère et de l’océan hors-marée. La surcharge liée à l’atmosphère est déterminée en utilisant le modèle ECMWF (European Centre for Medium Range Weather Forecasts). L’effet de l’océan est basé sur la réponse barotrope de la pression du vent utilisant le modèle TUGO-m (CARABAJAL et BOY, 2020) ;
• GLDAS/Noah : Le modèle Global Land Data Assimilation System Noah concerne la surcharge hydrologique (Figure 6, droite). Il prend en compte l’état des eaux de surfaces terrestres qui contient : les précipitations (pluie, neige) et l’humidité du sol ;
• MERRA/land : Modern-Era Retrospective Analysis for Research and Applications – land. Représente le modèle hydrologique (hors-rivière et lac) mais avec différentes données environnementales.
Dans le cadre de notre étude, nous utilisons également les contributions des rivières calculées par Jean-Paul BOY :
• MERRA/river : Représente l’effet de surcharge hydrologique de trois rivières principales d’Amérique du Sud (Amazone, Orénoque, Rio Paraná) ;
• GLDAS/river : Représente le même effet que le modèle MERRA/river mais ne provenant pas de la même base de données environnementale (HAN et al., 2010).

La MSSA
La MSSA (Multi Singular Spectrum Analysis) est une méthode non-paramétrique qui est capable de déterminer simultanément la corrélation spatiale et temporelle dans le but d’analyser les dépendances entre toutes séries temporelles géodésiques (GRUSZCZYNSKA et al. 2018). La MSSA est basée sur le même principe que la SSA. Il s’agit de décomposer une série temporelle en composantes oscillatoires et en bruits. Mais la différence entre la MSSA et la SSA est que le signal d’entrée peut contenir plusieurs séries temporelles. La MSSA est décrite par GHIL et al. (2002) comme une combinaison de plusieurs SSA, avec certains avantages non négligeables décrits ci-après. La MSSA a été proposée par WALWER et al. (2016) pour les stations proches les unes des autres. Les auteurs décrivent la possibilité de modéliser les signaux saisonniers dans les séries GPS. L’avantage de la MSSA est qu’elle n’est pas autant affectée par le bruit que la SSA (GRUSZCZYNSKA et al. 2018). En effet, comme la MSSA tient compte des effets communs observés sur chaque composante East, North, Up, la méthode en devient plus robuste. Le principe qui différencie la MSSA de la SSA est donc que la matrice D n’est plus composée d’un seul signal mais de plusieurs signaux. La matrice D est définie par le nombre de signaux que l’on souhaite étudier et le retard de covariance M choisi. Dans notre cas, le nombre de lignes de la matrice D correspond au nombre de valeurs composant la série temporelle et le nombre de colonnes est égal au retard M multiplié par trois signaux L ayant le même nombre d’échantillons, ainsi : = [ ] avec : 19   (1)  (2)⋯  (  )   (2)  (3)…  (   + 1) =⋮⋮⋱⋮  (   − 1)  (  )…0 [   (  ) 0 ⋯ 0 ] où N représente la taille du signal et M le retard de covariance.
Les matrices Y et Z sont de la même forme que X. Ensuite, comme pour la SSA, la matrice C de taille 3Mx3M est calculée en considérant L vecteurs propres de dimensions 3M avec la formule : Nous déterminons les valeurs propres Valp et les vecteurs propres Vp liés à la matrice d’auto-covariance C. La matrice des vecteurs propres est une matrice carrée de taille LxM, où L est le nombre de signaux pris en compte. La Figure 7 illustre les valeurs propres de la série temporelle GPS de la station ROJI (Ji-Paraná, Brésil). Nous pouvons observer différentes grandeurs de valeurs propres qui permettent d’identifier les composantes du signal.
Le diagramme de Taylor : application à la géodésie spatiale
Principe du diagramme
Pour analyser les résultats de la MSSA, nous utiliserons le diagramme de Taylor (TAYLOR, 2001). D’ores et déjà utilisé par BERTHIER (2018), ce diagramme permet d’obtenir un résultat synthétique qui facilite l’interprétation visuelle. Il permet de visualiser de façon claire des comparaisons entre les différents signaux. L’avantage de cette représentation est de regrouper plusieurs informations sur le même graphique. Le diagramme représente à la fois les corrélations, les écart-types par rapport à une donnée de référence et le CRMS (Centered Root Mean Square). Bien que d’usage courant en météorologie et en climatologie, les diagrammes de Taylor ont rarement été utilisés en géodésie spatiale et plus précisément dans l’étude des effets de surcharge.
Afin d’interpréter au mieux l’outil, il convient d’en comprendre son fonctionnement (Figure 10). Premièrement, les écart-types se lisent de manière polaire. Ainsi, pour les lire il faut projeter le point sur l’axe horizontal en suivant les arcs de cercles pointillés (Flèche bleue). Deuxièmement, la corrélation entre la référence et l’observation se lit sur l’arc de cercle extérieur. Ainsi, plus un point est proche de l’axe horizontal, plus l’observation est corrélée, ou anti-corrélée dans le sens inverse des aiguilles d’une montre (Flèche pourpre). Enfin, le diagramme permet de lire le CRMS. Il correspond à la somme quadratique des différences entre la référence et la donnée observée. Le CRMS peut aussi être défini comme l’écart-type de la différence entre l’observation et la référence, il est défini par : 1/2 12 ′= {̅} ∑[(   −   ) − (  −   ̅]) où fn et rn sont deux séries mesurées en N points discrets (   = 1,2, … ,   ), ̅et   ̅ leurs moyennes respectives et E’ correspond au CRMS.
Le CRMS se lit grâce aux arcs de cercles concentriques qui démarrent à la valeur zéro sur la référence (flèche verte). Les différentes quantités statistiques sont liées par la formule :  ′2= 2+ 2−2
où R est le cosinus de l’angle polaire, E’ le CRMS, σf l’écart-type test, σr l’écart-type de référence.
Interprétation du diagramme
Afin de mieux comprendre le fonctionnement du diagramme de Taylor, nous allons réaliser une série de tests sur des séries temporelles relativement simples. Dans un premier temps, nous modélisons une série de référence représentant un cosinus, puis trois modèles en déphasage avec la référence sont créés. Le premier modèle correspond à la fonction cos( + 1), la seconde à 1.5 × cos( + 1) et la dernière fonction à 0.5 × cos( + 1). Les trois modèles ont donc des phases identiques et des amplitudes différentes. La Figure 11 représente la corrélation entre les modèles synthétiques et la série de référence. Nous remarquons que les trois modèles en phase ont le même angle polaire sur le diagramme de Taylor. Cela explique que ces derniers ont la même corrélation par rapport à la série de référence. En général, plus les modèles sont en phases avec la référence, plus le point sera proche de l’axe horizontal. Ensuite, nous observons que le modèle 2 a un écart-type équivalent par rapport à la série de référence. En effet, si nous projetons le point du modèle 2 sur l’axe horizontal en suivant les arcs de cercles pleins, le point va être confondu avec la référence.
Dans un second temps, nous avons modélisé deux signaux en phase avec la référence mais dans lesquelles nous avons ajouté un bruit pour se rapprocher de conditions réelles d’analyse (Figure 12). Le premier modèle est défini par la formule cos( ) + 0.3 ×     é             et le second modèle par cos( ) + 0.7 ×     é             où Valéatoire est une valeur aléatoire centrée réduite de variance égale à 1.
Nous observons pour cet exemple que lorsque le bruit est important (modèle 2), le point sur le diagramme de Taylor s’éloigne de la référence. En effet, comme le modèle ne correspond plus au signal d’origine, la corrélation diminue et l’écart-type est différent, ce qui entraîne une augmentation du CRMS visible sur le diagramme de Taylor par une augmentation de la distance entre le point de référence et le point du modèle.
Outil d’analyse spectrale
Avant de pouvoir investiguer sur la valeur optimale de M, il est nécessaire d’effectuer une analyse spectrale des composantes reconstituées. En effet, l’analyse spectrale permettra de déterminer les spectres des composantes déduites par MSSA et d’en déduire la fréquence des composantes périodiques monochromatiques. Pour extraire toutes les fréquences importantes du signal, nous devrons disposer de la meilleure analyse spectrale. L’analyse spectrale est un outil classique qui est utilisé pour l’étude des séries temporelles. Il s’agit de décomposer un signal cyclique complexe en plusieurs signaux qui la composent en faisant passer la série dans l’espace fréquentiel grâce à une transformée de Fourier. On peut alors détecter les fréquences qui contribuent à la dynamique de la série et dans notre cas aux périodes associées. Nous supposons que les séries temporelles que nous étudions sont décrites comme un processus stochastique. Il est alors possible d’associer au processus stochastique une notion de densité spectrale de puissance (DSP). La densité spectrale de puissance d’un processus aléatoire stationnaire s’obtient comme la transformée de Fourier de sa fonction d’auto-corrélation (BLANCHET et CHARBIT, 2001). L’estimation des DSP peut être classée en deux familles :
• Les méthodes dites paramétriques : lorsque les propriétés statistiques de l’observation dépendent d’un nombre fini avec peu de connaissance a priori sur le signal. On peut citer le modèle AR, ARMA qui se base sur cette méthode.
• Les méthodes dites non-paramétriques (périodogramme, corrélogramme, variance minimale) Dans notre cas, nous utiliserons la méthode dite non-paramétrique pour évaluer la densité spectrale de nos signaux. En effet, les séries GPS et modèles que nous utilisons ont des propriétés statistiques bien connues ce qui est adapté pour cette méthode. L’évaluation de la densité spectrale consiste donc à estimer la fonction d’auto-corrélation (Corrélogramme) du processus et ensuite à calculer sa transformée de Fourier discrète (Périodogramme). La notion de périodogramme a été initialement proposée par Shuster en 1898. Il existe cependant des méthodes plus complexes permettant d’obtenir des meilleures estimations des DSP. Plusieurs méthodes existent comme les méthodes de Blackman-Tukey, de Barlett ou de Welch qui mettent en œuvre le moyennage et la pondération d’un nombre limité de réalisations du processus. Une autre méthode assez différente des précédentes appelée Lomb-Scragle (LOMB, 1976 et SCRAGLE, 1982) permet d’obtenir un périodogramme en utilisant la méthode des moindres carrés. Afin de choisir la méthode la plus robuste pour déterminer les fréquences des séries temporelles, nous avons choisi de comparer la méthode de Welch et celle de Lomb-Scragle. Nous utiliserons la méthode qui permet d’obtenir les meilleurs résultats par rapport à une série synthétique en réalisant quelques tests présentés ci-après.
Périodogramme de Welch
Avant de définir l’estimateur de Welch, il convient d’expliquer celui de Bartlett. Dans le cas d’un périodogramme simple, la variance ne tend pas vers zéro quand la taille N de l’échantillon tend vers l’infini (BLANCHET et CHARBIT, 2001). Il est alors déconseillé d’utiliser le périodogramme pour estimer le spectre. Afin de réduire la variance, Barlett a proposé une approche par moyennage. On créer alors un périodogramme moyenné qui peut se résumer comme ceci :
– Découpage du signal en K segments de M points ;
– Estimation du périodogramme de chaque segment ;
– Calcul de la moyenne des périodogrammes.
Le moyennage permet de réduire la variance de l’estimation. Cependant, l’inconvénient de cette méthode est que le découpage diminue le temps d’intégration de chaque estimation, ce qui augmente le biais. C’est pour cette raison que Welch propose une autre méthode reprenant ce principe mais en réduisant le biais. L’idée de Welch est de faire chevaucher les sous-intervalles en les multipliant par des fenêtres de pondérations pour minimiser les effets de la fenêtre rectangulaire. Le taux de recouvrement le plus couramment utilisé est de 50%.
Périodogramme de Lomb-Scargle
La méthode de Lomb-Scragle (LOMB, 1976 et SCRAGLE, 1982) permet de définir un périodogramme invariant pour des échantillons non-uniformes. Le principe de cette méthode est basé sur l’interpolation des données avec une série d’harmoniques, c’est-à-dire une série de Fourier, en utilisant la méthode des moindres carrés. En outre, le périodogramme de Lomb-Scragle est adapté aux séries temporelles avec des données manquantes et est capable de distinguer des fréquences très proches. Il permet d’évaluer les données de la série temporelle seulement aux instants qui ont été réellement mesurés. Cette méthode semble donc particulièrement adaptée pour notre étude.
Pour déterminer quel périodogramme utiliser pour la suite, des tests sur une série synthétique ont été réalisés. Les périodes associées à la série sont T1=365 jours et T2=300 jours, puis nous calculons les périodogrammes de Welch et de Lomb-Scragle.
Sur la Figure 13, nous constatons que pour les mêmes paramètres d’entrée de la série temporelle analysée, le périodogramme de Lomb-Scragle a un plus fort pouvoir séparateur comparativement au périodogramme de Welch. Sur le périodogramme de Welch, nous pouvons observer un pic unique englobant les deux signaux de la série. La méthode de Lomb-Scragle détermine la bonne période des signaux quels que soient les paramètres d’entrées et elle sépare mieux les différentes composantes du signal. La robustesse et la précision du périodogramme de Lomb-Scragle nous seront utiles dans l’étude des effets de surcharge. Enfin, cette méthode a été développée dans le but de trouver et de tester la signification des signaux périodiques avec un échantillonnage temporel inégal. Cette définition correspond aux séries temporelles que nous utilisons. Nous avons donc choisi d’utiliser le périodogramme de Lomb-Scargle pour la suite de nos recherches. Maintenant que nous avons décrit et expliqué les différents outils à notre disposition, nous allons valider ceux-ci grâce à des tests réalisés sur une série synthétique simple.
Validation des outils
L’outil MSSA doit être validé avant de l’utiliser sur un grand nombre de stations. Les temps de calculs étant longs (ex. 5 minutes pour la station POVE, Porto Velho, Brésil), il est indispensable que celui-ci soit robuste et adapté aux données dont nous disposons. De plus, certains paramètres comme M peuvent changer significativement les résultats des calculs. S’agissant de valider ou non un modèle, il est essentiel d’avoir confiance dans les résultats de cet outil. Pour cela, un certain nombre de tests sont réalisés avec l’outil afin d’en découvrir ses limites. Cette analyse permettra de choisir le paramètre M et la taille maximale des trous dans la série GPS tolérables dans l’analyse. Les stations les plus pertinentes correspondants
à ce critère et avec une durée minimale d’observation seront alors sélectionnées automatiquement dans le § IV pour assurer la pertinence des résultats. Afin de réaliser les différents tests, un signal synthétique a été créé dont tous les paramètres sont connus. Le signal est certes simple, mais il permettra une meilleure compréhension des performances du processus MSSA. Le signal se composera de trois séries temporelles identiques composées d’une ou de plusieurs sinusoïdes d’amplitudes variables. Un bruit blanc suivant une loi normale centrée d’écart-type 0.1 mm est ensuite ajouté aux séries pour se rapprocher des conditions réelles de mesure. La Figure 14 représente une série temporelle synthétique bruitée sur une durée d’environ 10 ans avec un échantillonage de 24 h. Celle-ci est composée de trois sinusoïdes de périodes 365, 180 et 90 jours avec comme amplitudes respectives 10, 5 et 3 mm. Ces différents signaux correspondent respectivement à une saisonnalité annuelle, semi-annuelle et trimestrielle.
A partir de ce signal synthétique plusieurs analyses ont pu être réalisées pour déterminer :
• La valeur de M optimale pour analyser les signaux annuels et semi-annuels ;
• La taille maximale des trous de données tolérables ;
• La manière de corriger les sauts dans les séries GPS.
Choix de M
Le choix de la valeur M lors du calcul de MSSA est déterminant pour la reconstruction des composantes principales. La variable M, aussi appelée M-point lag windows, dépend de la longueur de la série et des fréquences des signaux saisonniers (KLOS et al. 2018). KLOS et al. (2018) ont utilisé deux à trois années de fenêtre en fonction de la série considérée pour extraire correctement la composante annuelle du signal. CHEN et al. (2013) affirment que les périodes des signaux résolus sont comprises entre M et M/5. Une série de tests a été réalisée sur la série synthétique afin d’analyser l’impact de M sur la détermination des composantes. Pour cela, nous choisissons d’effectuer l’analyse MSSA de la série synthétique avec les valeurs de M suivantes : 31, 180, 365, 730. Nous pourrons ainsi constater l’impact de M sur les résultats mais aussi le temps de calcul. Pour M=31, les résultats obtenus par la MSSA sont illustrés par la Figure 15 où nous pouvons voir que le signal est correctement reconstruit. La composante principale correspond aux périodes de 365, 180 et 90 jours additionnées ; la composante 2 correspond quant à elle à une période de 90 jours. D’après ces résultats, nous pouvons dire qu’avec M=31 la MSSA n’arrive pas à décomposer les différentes saisonnalités, en particulier annuelles et semi-annuelles. Ceci est cohérent avec la littérature (ex. CHEN et al. 2013, KLOS et al. 2018, GRUSZCZYNSKA et al. 2016).

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
I PRESENTATION DES DONNEES ET DE LA ZONE D’ETUDE
I.1 LA ZONE D’ETUDE
I.2 LES DONNEES
I.2.1 Les effets de surcharge
I.2.1.1 Les surcharges océaniques
I.2.1.2 Les surcharges atmosphériques
I.2.1.3 Les surcharges hydrologiques
I.2.2 Les séries temporelles utilisées
I.2.2.1 Les séries GPS
I.2.2.2 Les séries GRACE
I.2.3 Les modèles géodynamiques de surcharge
II METHODE ET OUTILS D’ANALYSE DES SERIES TEMPORELLES
II.1 L’OUTIL SSA
II.2 LA MSSA
II.3 LE DIAGRAMME DE TAYLOR : APPLICATION A LA GEODESIE SPATIALE
II.3.1 Principe du diagramme
II.3.2 Interprétation du diagramme
II.4 OUTIL D’ANALYSE SPECTRALE
II.4.1 Périodogramme de Welch
II.4.2 Périodogramme de Lomb-Scargle
III VALIDATION DES OUTILS
III.1 CHOIX DE M
III.2 CORRECTION DES TROUS DE SERIES TEMPORELLES GPS
III.3 CORRECTION DES SAUTS DE SERIES TEMPORELLES GPS
III.3.1 Détermination des sauts
III.3.2 Correction des sauts avec HECTOR
III.4 SEPARABILITE DES SIGNAUX
III.4.1 Détection des fréquences proches
III.4.2 Détection des composantes en fonction des amplitudes
IV APPLICATION DE L’OUTIL MSSA EN AMERIQUE DU SUD
IV.1 CHOIX ET VALIDATION DES STATIONS
IV.2 LES COMPARAISONS DE MODELES
IV.3 APPLICATION DES OUTILS
V ANALYSE DES SURCHARGES HYDROLOGIQUES
V.1 ANALYSE GLOBALE
V.1.1 La contribution des modèles hydrologiques river
V.1.2 La corrélation entre modèles et les séries GPS
V.1.3 Exemple de validation des modèles : Station ROJI
V.1.4 Exemple de non validation des modèles : Station MA02
V.2 ANALYSE PAR BASSIN VERSANT
V.2.1 Bassin Amazonien
V.2.2 Bassin du Rio Paraná
V.2.3 Comparaison des deux bassins versants
V.3 SURESTIMATION DES MODELES HYDROLOGIQUES
Conclusion
Bibliographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *