Analyse multi-échelle d’un algorithme de désagrégation déterministe d’humidité du sol : DisPATCh

Télécharger le fichier pdf d’un mémoire de fin d’études

Méthodes usuelles d’analyse et de traitement d’images satellites

Dans cette sous-partie, nous présentons les méthodes couramment utilisées en télédétection pour traiter et analyser les images satellites de manière à extraire des informations sur la variabilité spatiale des processus de surface. Nous n’aborderons pas l’étape relative aux prétraitements des données, qui est une phase préliminaire indispensable à l’application des méthodes que nous présenterons dans une section dédiée (voir section 4.2.2.3 pour plus de détails sur les prétraitements). Ici, nous présentons en particulier les techniques d’assimilation de données dans les modèles de surfaces, les algorithmes de classification permettant de produire des cartes d’occupation du sol et enfin, les méthodes de segmentation utilisées pour améliorer les performances des algorithmes habituels, notamment en classification. Une sous-partie dédiée exclusivement aux techniques d’analyse de texture et multi-échelles est présentée en section 2.1.3.

Assimilation de données

Une des finalités principales de l’étude des surfaces continentales est la modélisation de ses processus biophysiques. Cela est possible grâce à des modèles de surface qui simulent la variabilité spatiale et temporelle des processus présents dans le milieu « sol-couvert-atmosphère », et suivant certaines conditions environnementales (Tupin et al., 2014; Sellers et al., 1986). Ces conditions sont définies grâce à la mesure de variables physiques telles que la pluie, la température ou l’humidité du sol. A partir de ces données « réelles » placées en entrée du modèle, ce dernier fournit des données « synthétiques » simulées. Pour prendre en compte la forte hétérogénéité spatiale et temporelle des surfaces, les modèles nécessitent un nombre important de données d’entrée. A l’inverse des mesures terrain ponctuelles par nature, la télédétection spatiale peut fournir facilement un jeu de données conséquent et varié, dont les résolutions spatiales et temporelles sont adaptées pour la modélisation à des échelles régionales. Néanmoins, l’utilisation de ces données dans les modèles de surface ne se fait pas de manière directe. Diverses méthodes permettent de prendre en compte les observations dans les modèles telles que les techniques d’inversion, de calibration, d’optimation, etc. Nous allons regrouper ici l’ensemble de ces techniques sous les termes « d’assimilation de données ».
Ces méthodes différent essentiellement en fonction du rôle des données satellites dans le modèle, ainsi que du niveau de sophistication de l’approche.
Selon la classification proposée par Bach and Mauser (2003), nous pouvons trouver quatre approches principales d’assimilation de données satellites :
(1) La première consiste à transformer les données de télédétection brutes, c’est-à-dire les rayonnements acquis par le satellite, en paramètres spatialisés de la surface tels que l’élévation du sol ou l’occupation du sol. Cette technique est la plus souvent utilisée, et implique l’utilisation d’algorithmes de traitement spécifiques tels que ceux utilisés en classification par exemple (voir section suivante). Dans ce cas, les données satellites ne nécessitent pas d’avoir une forte répétitivité temporelle, étant donnée la faible dynamique des paramètres de surface obtenus (occupation du sol faiblement variable au cours du temps par exemple).
(2) Une autre approche consiste à utiliser les données satellites pour mettre à jour les variables dynamiques du modèle. Cela permet de forcer le système décrit par le modèle à rester dans un état réaliste défini par les variables mesurées. A titre d’exemple, nous pouvons citer le modèle IFFS (Integrated Flood Forecast System; Bach et al.,2000) qui assimile des données radars d’humidité du sol et optiques d’occupation du sol pour modéliser et prévoir les inondations. De même, le modèle SAFY-WB (Simple Algorithm For Yield model combined with a Water Balance; Ameline et al., 2018; Duchemin et al., 2015) combine des données radars et optiques rendant compte de l’état de la végétation pour estimer et prévoir le rendement des cultures.
(3) Les mesures satellites peuvent également servir à la recalibration des paramètres d’initialisation du modèle. D’une certaine manière, cette méthode est comparable à l’approche 2, c’est-à-dire avec pour fonction principale de mettre à jour le modèle. Ici, il s’agit de corriger ou d’ajuster par optimisation les valeurs des variables d’état calculées par le modèle lorsque celles-ci dérivent des valeurs obtenues à partir des mêmes variables mais provenant cette fois-ci des acquisitions satellites. Suivant cette approche, Burke et al. (1998) ont tiré parti des rayonnements acquis par micro-ondes passives pour ajuster les propriétés hydrauliques du sol, lesquelles étaient utilisées en tant que paramètres d’initialisation d’un modèle de bilan hydrique et énergétique du sol.
(4) Enfin, une dernière approche est l’inversion de modèle. Dans ce cas, la méthode consiste à appliquer la procédure inverse de l’approche 3, c’est-à-dire de simuler les données satellites d’entrée du modèle (réflectances de surface, micro-ondes radar) à partir des variables d’état du modèle comme l’humidité du sol, la végétation, etc. Cette méthode permet de corriger le modèle, en ajustant ses variables d’état suivant la différence entre données satellites mesurées et données satellites inversées ou sythétiques. La différence principale avec l’approche 3 est que la correction ou l’ajustement du modèle se fait ici à l’extérieur du modèle en effectuant la comparaison de données d’entrée réelles et synthétiques (telles que des réflectances ou des données micro-ondes) et non à l’intérieur du modèle comme le fait l’approche 3 en comparant variables d’état réelles et synthétiques (humidité du sol ou végétation). Un exemple de modèle d’inversion est le modèle GeoSail (Bach et al., 2001), qui simule les réflectances de canopée. Ce dernier a contribué, de par son utilisation combinée avec le modèle de surface PROMET-V (Mauser and Schädlick, 1998), à montrer comment l’hétérogénéité des paramètres de la végétation (biomasse, hauteur, etc.) pouvait être estimée par assimilation et inversion de données satellites optiques et radars.
Certaines approches vont même au-delà et visent à reconstruire entièrement les équations des modèles à partir des observations sans hypothèse a priori (Mangiarotti et al. 2012, 2014, 2019). D’autres approches combinent plusieurs de ces approches, telles que les méthodes d’assimilation-inversion (Mangiarotti and Schoenauer, 2011) qui optimisent à la fois les paramètres et les trajectoires au sein des modèles (Mangiarotti et al., 2010).

Algorithmes de classification

La classification est une procédure par laquelle chaque objet de l’image – pixels ou régions (regroupement de pixels) – se voit attribuer une étiquette permettant de le différencier des autres objets de l’image. En télédétection des surfaces continentales, la classification des images satellites a pour objectif de retrouver l’occupation du sol. Très utilisée dans le domaine de la cartographie (Hansen and Loveland, 2012; Huang et al., 2010), cette procédure permet de rendre compte de l’hétérogénéité des surfaces, en mettant en évidence les différents facteurs, à la fois anthropogéniques et naturels, qui jouent sur cette variabilité spatiale. Les algorithmes de classification ont pour fonction de regrouper de manière plus ou moins automatique les objets de l’image ayant les mêmes caractéristiques. Ces caractéristiques peuvent être de type radiométrique, basé sur la valeur des pixels, ou de type contextuel, c’est-à-dire selon l’organisation spatiale de ces valeurs. Avant chaque classification, l’objet à classer est représenté dans un espace à N dimensions également appelé espace des caractéristiques ou espace des primitives, où chaque dimension correspond à une caractéristique. Les réflectances acquises par les différentes bandes spectrales des capteurs optiques sont un exemple de primitives qui peuvent permettre de regrouper les différents éléments de la surface. La figure 2.5 illustre le principe de classification à partir d’images acquises dans deux bandes spectrales (nommées ici XS2 et XS3) qui sont nos deux primitives de type radiométrique. La représentation des éléments de la scène dans l’espace à deux dimensions (histogramme bidimensionnel) permet d’extraire les différents types de sol (végétation, sol nu, eau) pour produire une carte d’occupation du sol. D’autres primitives sont également utilisées telles que les indices optiques issus de la combinaison de plusieurs bandes, ou alors des primitives contextuelles comme l’orientation, la distance, l’aire ou l’inclusion des objets (Inglada, 2015).
Divers algorithmes existent pour réaliser la classification de données satellites. Ils diffèrent selon plusieurs critères, lesquels seront choisis en fonction de l’application, des performances nécessaires, de la résolution spatiale des données, du type d’images, etc. Nous distinguons d’une part les algorithmes supervisés et non-supervisés, qui différent selon leur utilisation ou non d’éléments étalons déjà classés (pixels dont l’occupation du sol est connue) pour réaliser la classification des pixels « inconnus ». La méthode des K-means est une classification non-supervisée souvent appliquée en traitement d’images (Burrough et al., 2000). Cet algorithme nécessite peu d’information de l’utilisateur, seulement le nombre de classes (k) dans lesquelles regrouper les objets de l’image. Les algorithmes non-supervisés ont l’avantage de permettre une classification sans connaissance au préalable des classes.
Cependant, les traitements peuvent être longs lorsque le jeu de données est conséquent, ce qui est souvent le cas en télédétection. De plus, grâce aux nombreuses études réalisées dans le domaine de la cartographie (Lu and Weng, 2007), les propriétés physiques des différents types de sol sont déjà connues et répertoriées, impliquant généralement une connaissance des classes présentes dans l’image.
C’est pourquoi les classifications utilisées en cartographie sont souvent de nature supervisée. Par exemple, le SVM (Support Vector Machine; Kim et al., 2003) et le maximum de vraisemblance (Dean and Smith, 2003) sont couramment utilisés grâce à leur robustesse et leur disponibilité dans les logiciels de traitement d’images satellites. La classification par maximum de vraisemblance fait partie d’une sous-catégorie d’algorithmes appelés « paramétriques », impliquant que les paramètres statistiques soient représentatifs des données observées pour réaliser la classification. Cette condition peut être contraignante dans certaines situations, notamment lors de l’utilisation de primitives non radiométriques telles que la texture et des données exogènes comme la topographie, la distance à une route ou la densité de population. L’algorithme SVM, quant à lui, a l’avantage d’être non-paramétrique et de fournir une classification avec peu d’erreur tout en nécessitant un minimum d’échantillons étalons (fig.2.6).
De manière générale, les algorithmes non-paramétriques comme le SVM sont bien adaptés à la classification de paysages complexes (Foody, 2002). Nous pouvons citer des procédures plus sophistiquées basées sur des arbres de décision, tel que le Random Forest (Defries et al., 1998; Pal, 2005) ou les réseaux de neurones (Kavzoglu and Mather, 2003; Paola and Schowengerdt, 1995). Ces algorithmes sont connus pour être très performants, adaptables à différents types de données et également efficaces pour prendre en compte des jeux de données importants et de nature différente. La figure 2.7 présente un exemple de classification effectuée par Random Forest sur la ville de Toulouse à partir de données optiques Landsat-8. Une nouvelle approche de classification basée sur la théorie du chaos a également été introduite récemment permettant de prendre en compte l’instabilité des comportements dynamiques de façon déterministe (Mangiarotti et al., 2018).
Une autre manière de distinguer les algorithmes de classification est de le faire par leur approche orientée pixel, contexte ou objet. La plupart des méthodes sont basées sur une approche pixel : le pixel est alors considéré comme le seul type d’objets à classer, et cela est réalisé principalement à partir de primitives radiométriques et spectrales. Cependant, l’approche pixel peut générer des erreurs de classification (pixels mal classés) lorsque la résolution des images est grossière – engendrant des pixels qui combinent les propriétés de plusieurs types de surfaces (Cracknell, 1998) – ou lorsque la résolution est, à l’inverse, élevée créant des variations radiométriques importantes dans l’image (bruit) dues à la forte hétérogénéité des surfaces (Dean and Smith, 2003). L’approche contextuelle utilise l’environnement (le voisinage) de chaque pixel pour réaliser la classification. Les primitives utilisées correspondent à des estimateurs statistiques informant sur la texture de l’image (voir section 2.1.3). Le modèle de Markov est une procédure contextuelle fréquemment utilisée en traitement d’image, qui a montré l’intérêt de prendre en compte l’information spatiale afin d’améliorer les performances de classification pour l’occupation du sol (Magnussen et al., 2004; Puissant et al., 2005). Enfin, l’approche orientée objet peut s’avérer efficace pour la classification de données à haute voire très haute résolution spatiale, notamment en cartographie de zones urbaines (Thomas et al., 2003) ou encore pour identifier les différentes espèces d’arbres présentes dans des milieux à végétation dense (Wang et al., 2004). Cette approche consiste à réaliser une classification, non pas sur des pixels, mais sur des groupes de pixels (objets) de l’image. Pour cela, une étape préalable de segmentation est appliquée pour identifier ces objets (voir section suivante).Nous pouvons citer la méthode eCognition, qui est couramment utilisée en télédétection des surfaces continentales (Benz et al., 2004).

Méthodes de segmentation

La segmentation consiste à partitionner l’image en régions homogènes ou objets selon un critère prédéfini. A la différence de la classification qui affecte une étiquette de classe à chaque pixel, la segmentation fournit une étiquette de région (ou identifiant région) pour chaque objet détecté. Dans le domaine de l’Observation de la Terre, cette méthode est souvent utilisée pour améliorer les performances de classification en cartographie (Inglada, 2015). Elle peut être utilisée avant classification dans le cas d’une classification objet, ou alors après classification pour supprimer les pixels mal classés de l’image.
Il existe deux grandes familles d’approches pour réaliser une segmentation : les approches régions, qui vont regrouper les pixels selon des critères de similarité, et les approches contours qui vont plutôt chercher à détecter les discontinuités dans l’image correspondant à des transitions abruptes d’intensité (Tupin et al., 2014). Parmi les approches régions, la méthode de segmentation la plus simple est la croissance de région (Zucker, 1976). Il s’agit d’un algorithme local, c’est-à-dire que le point de départ de la segmentation se fait depuis des pixels appelés « graines », à partir desquels des régions sont construites (fig.2.8). Cela se fait en fusionnant les pixels voisins selon des critères de similarité radiométrique, géométrique ou statistique. Cette méthode est par exemple implémentée dans l’algorithme eCognition servant à la classification objet d’images satellitaires (Benz et al., 2004). La croissance région est très efficace, car rapide d’utilisation, mais peut poser certaines difficultés dans le choix des graines à l’initialisation.
Des méthodes également basées sur l’approche région mais plus globales permettent d’éviter ce problème d’initialisation. Nous pouvons citer la ligne de partage des eaux (Ogor and Kpalma, 1996), qui utilise le gradient de l’image pour la partitionner. L’image est alors comparable à une surface topographique que l’on remplirait d’eau, mettant ainsi en évidence des « bassins » (c’est-à-dire les régions de l’image). Cette méthode a été notamment utilisée pour déterminer l’occupation du sol à partir d’images optiques provenant du satellite SPOT (Sellami et al., 2008). L’algorithme du Mean Shift (Comaniciu and Meer, 2002) est basé sur une méthode comparable à la classification par K-means (section 2.1.2.2), à la différence qu’il considère, en plus de la localisation radiométrique, une localisation spatiale des pixels de l’image. Ainsi, les pixels ayant les mêmes propriétés radiométriques mais étant trop éloignés dans l’image (selon un rayon prédéfini) ne seront pas regroupés dans la même région (fig.2.9).
Cet algorithme a été appliqué en classification de la végétation (Ponti, 2013), notamment en cartographie de l’étendue et de l’intensification des rizières à partir d’images Landsat (Kontgis et al., 2015).
Dans les cas des approches contours, une première étape consiste à détecter les contours de l’image. Généralement, cette étape est faite en identifiant les maxima de la dérivée du signal, elle-même estimée à partir du gradient. Jusque-là, la méthodologie s’apparente beaucoup à la segmentation par ligne de partage des eaux. Cependant, les approches contours différent en particulier par l’application d’une deuxième étape, dite de « clôture », qui prolonge et connecte les contours entre eux (Tupin et al, 2014). Pour cela, plusieurs techniques sont utilisées telles que la transformée de Hough (Bicego et al., 2003) ou les modèles de contours actifs (Kas et al., 1988). Ces dernières méthodes restent tout de même peu utilisées en télédétection, où les formes des objets cherchés sont très hétérogènes et moins connues que dans d’autres domaines comme l’imagerie médicale par exemple.

Texture et analyse multi-échelle

Pour étudier les surfaces continentales, nous venons de voir que diverses méthodes d’analyse d’images satellites ont été développées, mettant à profit à la fois les propriétés spectrales (radiométriques) mais aussi spatiales des images. En effet, la caractérisation de la variabilité spatiale peut fournir une information complémentaire et non négligeable dans la description des paysages (Gustafon, 1998). Ainsi, nous présentons dans cette sous-partie les différentes méthodes dédiées à l’analyse de texture. Cette dernière consiste à étudier l’arrangement spatial des intensités dans l’image, donnant des informations sur le contraste, la rugosité, la similarité, la forme, l’orientation, etc. (Rosenfeld, 1982; Tamura et al., 1978). En Observation de la Terre, cette approche est utilisée notamment dans les algorithmes de classification par approche contextuelle (section 2.1.2.2), mais également pour étudier le comportement multi-échelle de certains processus acquis par télédétection (Lovejoy et al., 2008b; Ryu and Famiglietti, 2006; Usowicz et al., 2019). Différentes méthodes ont été développées pour analyser la texture des images. Humeau-Heurtier et al. (2019) ont recensé ces méthodes, en les regroupant en classes aux approches différentes. Nous allons reprendre brièvement leur classification, en se focalisant sur les méthodes utilisées en Observation de la Terre. Ces classes et les méthodes correspondantes sont récapitulées dans le tableau 2.1, accompagnées de quelques exemples d’application.
Dans un premier temps, nous trouvons les approches statistiques qui extraient les propriétés statistiques de la distribution spatiale des niveaux d’intensité dans l’image. Parmi les méthodes les plus connues, nous pouvons citer la matrice de co-occurrence, également appelée GLCM (Grey Level Co-occurrence Matrix Approach) qui consiste à étudier les relations statistiques des niveaux de gris (corrélation, homogénéité, etc.) pour des pixels situés à des positions variables dans l’image (Haralicket al.,1973). Bien qu’elle nécessite beaucoup d’espace mémoire, cette méthode est simple et rapide d’utilisation. Par exemple, appliquée sur des images radars, elle a démontré de bonnes performances pour identifier différentes textures de la banquise (Soh and Tsatsoulis, 1999). La méthode du variogramme est également une approche statistique couramment appliquée aux images, notamment en Observation de la Terre. Celle-ci consiste à tracer l’évolutionℎ de la variance de la différence entre des observations en fonction de leur distance dans l’image (fig.2.10). La pente de la courbe, calculée en coordonnées logarithmiques, donne des informations sur la rugosité de l’image. Une pente élevée correspondra à un signal lisse et autocorrélé, alors qu’une pente faible traduira la présence d’un signal plus bruité, avec des transitions brutales. De plus, si cette pente est constante, le signal présente une texture similaire d’une échelle à l’autre. Le signal est alors qualifié d’auto-similaire ou de fractal. Ainsi, le variogramme est souvent utilisé pour étudier le comportement multi-échelle de processus de surfaces comme l’humidité du sol (Usowicz et al., 2019; Ryu and Famiglietti, 2006), pour analyser la structure de la végétation notamment la forêt (St-Onge and Cavayas, 1995) ou encore pour améliorer les performances de traitement en classification (Chica-Olmo and Abarca-Hernandez, 2000) termes particuliers sont utilisés pour les diverses sections de la courbes : la portée est la gamme des distances où il y a autocorrélation (pente non nulle), le palier correspond à la variance maximale atteinte pour les grandes échelles de l’image.
Les approches structurelles consistent quant à elle à décomposer la texture de l’image en éléments (objets, lignes) et à analyser leur arrangement spatial comme leur orientation, élongation, compacité, répétition, etc. Ces méthodes se basent essentiellement sur des outils de morphologie mathématique (Haralick et al., 1987) servant à extraire les éléments de l’image par détection de contours notamment. En télédétection, ces méthodes sont utilisées principalement en segmentation pour la classification d’images (cf. section 2.1.2.3). Bicego et al. (2003) ont par exemple appliqué ce type d’approches pour identifier avec précision les contours des routes dans des images optiques aériennes. Les approches structurelles fournissent de bons résultats pour des images à textures régulières. En revanche, elles ne sont pas appropriées aux images présentant des signaux fortement aléatoires, ce qui est généralement le cas des processus de surface comme l’humidité, la température ou la végétation.
Les approches par « transformée » ne présentent pas de contraintes vis-à-vis des signaux aléatoires. Celles-ci consistent à représenter l’image dans un espace dont le système de coordonnées est étroitement relié aux caractéristiques de la texture, c’est-à-dire la fréquence ou l’échelle spatiale. La transformée de Fourier décompose l’image en une somme de plusieurs sinusoïdes aux fréquences différentes et décrit de cette manière le comportement de l’image dans l’espace des fréquences. Cela permet de mettre en évidence certaines caractéristiques multi-échelles de processus de surface comme la fractalité, l’anisotropie ou les ruptures d’échelle (Kim and Barros, 2002b; Lovejoy et al., 2008b). De plus, cette méthode permet également d’identifier et de caractériser les structures répétitives, comme par exemple les vignes observées par images aériennes (fig.2.11; Delenne et al., 2006). Un inconvénient de cette transformée est qu’elle ne fournit pas la localisation des propriétés de texture au sein de l’image. Une alternative est la transformée en ondelettes qui permet d’étudier la variabilité spatiale de l’image par application d’une ondelette (petite oscillation non forcément sinusoïdale) ayant subi différentes translations et dilatations (Daubechies, 1990). Basée sur un formalisme comparable à celui de la transformée de Fourier, cette méthode permet d’observer le comportement multi-échelle de l’image (à chaque dilatation de l’ondelette correspond une échelle spatiale) mais également son comportement spatial (translations dans l’image), et ce de manière simultanée. A titre d’exemple, la transformée en ondelettes a été appliquée sur des images satellites à très haute résolution spatiale (< 1 m) afin d’améliorer la classification de la végétation (Lucieerand van der Werff, 20070.

L’invariance d’échelle des phénomènes turbulents

Durant le siècle dernier, de nombreuses études ont mis en évidence les propriétés d’invariance d’échelle ou propriétés fractales des processus géophysiques. Cela fut initialement observé en turbulence par Richardson (1922). Ce dernier constata que les phénomènes turbulents pouvaient être décrits par un procédé en cascade qui transfère l’énergie cinétique des grandes échelles vers les petites échelles. A partir de cette approche, des modèles statistiques de la turbulence ont été proposés tels que la loi de Kolmogorov (1941) qui décrit le comportement d’un flux d’énergie homogène en fonction de l’échelle L : ∆ =ℇ⁄ ⁄ 2.1 où ∆ sont les incréments de vitesse caractérisant le flux et ℇ est un taux de dissipation d’énergie cinétique (soit le flux d’un moment d’ordre 2 de la vitesse). Cette équation en loi puissance exprime la dépendance des propriétés statistiques du flux à l’échelle à laquelle ce dernier est représenté. On parle alors de loi d’invariance d’échelle, caractérisée par un exposant d’échelle (ici défini à 1/3) qui est invariant d’une échelle à l’autre, alors que les incréments de vitesse dépendent quant à eux de l’échelle. Notons que l’exposant d’échelle 1/3 est une valeur caractéristique des processus turbulents (Schmitt et al., 1993).
Par la suite, cette loi a été adaptée et généralisée à des flux d’énergie inhomogènes (Kolmogorov, 1962; Oboukhov, 1962; Yaglom, 1966). Des modèles multi-échelles tels que les cascades multiplicatives (section 2.2.2) ont ainsi été développés pour reproduire les propriétés d’invariance d’échelle en se basant sur la théorie fractale (Mandelbrot, 1967). Parmi les plus connus, nous pouvons citer le modèle des Multifractales Universelles (Schertzer and Lovejoy, 1987) ou encore le modèle Log-Poisson (She and Levêque, 1994). De nombreuses applications de ces modèles multifractals ont été réalisées en turbulence (Parisi and Frisch, 1985; Schmitt et al., 1993), ce qui a ensuite mené à divers travaux portant sur la dynamique de processus atmosphériques présentant des propriétés fractales tels que les nuages (fig.2.12) (Lovejoy and Schertzer, 2010a; Lovejoy et al., 2001; Siebsesma and Jonker, 2000; Tessier et al., 1993) et les précipitations (de Montera et al., 2009; Lovejoy and Schertzer, 2008; Verrier et al., 2010, 2011).

Application aux surfaces continentales

Grâce à son étude de la côte Britannique, Mandelbrot (1967) a mis en évidence les propriétés fractales de la topographie (fig.2.12), en montrant que le périmètre des traits de côte dépendait de l’échelle à laquelle il était calculé, et ce suivant une loi puissance caractérisée par un exposant constant. Ainsi, il a montré que l’invariance d’échelle était également une caractéristique des phénomènes non-turbulents. Par la suite, d’autres travaux de recherche ont confirmé les propriétés d’invariance d’échelle de la topographie (Mark and Aronson, 1984; Roy et al., 1987; Shelberg et al., 1983). Ces premières études réalisées sur les surfaces continentales ont consisté principalement à estimer et à étudier la dimension fractale, mettant ainsi en évidence les propriétés d’invariance d’échelle des surfaces au sens géométrique. De même, certains travaux portant sur l’analyse fractale de réflectances de surface acquises par satellite ont montré l’intérêt de cette approche pour mettre en évidence le haut degré de complexité des surfaces continentales (De Cola, 1989; Lam, 1990; Qiu et al., 1999).
L’analyse des propriétés multifractales des surfaces, cette fois-ci au sens statistique, n’a été réalisée que plus tard. Les premières applications de modèles multifractals ont été menées en topographie. Celles-ci ont évalué les propriétés multifractales de la topographie des continents de manière générale (Gagnon et al., 2006; Lavallée et al., 1993), des volcans (Laferrière and Gaonac’h, 1999), et plus récemment des exo-planètes (Landais et al., 2019). Ensuite, un certain nombre d’études multifractales ont été menées pour caractériser les propriétés des sols (Kravchenko et al., 1999; Xie et al., 2010). Des travaux ont notamment analysé la distribution multifractale d’éléments géochimiques du sol (Cheng, 2000) ainsi que la répartition spatiale des cours d’eau et systèmes de bassins versants (Cheng et al., 2001).
D’autres travaux ont mis en évidence les propriétés multifractales de l’humidité du sol acquise par capteurs aéroportés (Kim and Barros, 2002b; Ko et al., 2016; Mascaro et al., 2010; Oldak, 2002) et par mesures terrain (Biswas et al., 2012). Les premières analyses multifractales de réflectances de surface acquises par satellites ne sont apparues que récemment, avec notamment les travaux de Lovejoy et al. (2008b) et Alonso et al. (2017) qui ont montré le comportement multifractal d’images optiques obtenues dans différentes bandes spectrales ainsi que d’indices de végétation et d’humidité du sol.
De manière générale, bien que les méthodes d’analyse multi-échelle aient montré leur intérêt certain pour étudier l’hétérogénéité spatiale des surfaces, relativement peu d’études multifractales de produits de télédétection ont été réalisées à ce jour dans le domaine des surfaces continentales. Mise à part la topographie qui bénéficie d’un certain nombre d’études, les applications citées ci-dessus correspondent à quelque chose près à l’ensemble des travaux que l’on peut recenser dans ce domaine. Cela est en partie lié au contexte historique des multifractales initialement développées pour modéliser la turbulence et la pluie, expliquant le nombre important d’études dans ce domaine. De plus, certains éléments de la surface tels que la végétation (chapitre 3) ou de l’atmosphère tels que les nuages (chapitre 4) peuvent impacter significativement les rayonnements acquis par satellite, contribuant ainsi à rendre plus difficile l’analyse des variables des surfaces continentales, ce qui peut aussi expliquer le nombre limité d’analyses multifractales de variables comme l’humidité du sol par exemple. Le tableau 2.2 résume les principaux travaux de la littérature portant sur l’analyse multifractale des variables étudiées dans cette thèse : l’humidité du sol par micro-ondes passives (chapitre 3) et les réflectances optiques (chapitre 4).
Dans cette partie, nous présentons le formalisme théorique des multifractales. Après avoir brièvement introduit les notions d’invariance d’échelle géométrique et statistique, lesquelles seront illustrées par des exemples d’objets et de processus fractals, nous présenterons les modèles multi-échelles de cascades multiplicatives utilisés en géophysique. Les propriétés statistiques sur lesquelles se basent ces modèles seront également décrites. En particulier, nous détaillerons les équations et paramètres d’échelle du modèle des Multifractales Universelles (Schertzer and Lovejoy, 1987) utilisé dans ces travaux de thèse.

Des objets fractals aux processus multifractals

Comme nous venons de le voir dans les sections précédentes, le concept de dimension fractale a été utilisé dans de nombreux travaux portant sur l’analyse multi-échelle et la modélisation des processus géophysiques. Le terme « fractal » fait référence à toute entité (série temporelle ou champ aléatoire à deux ou trois dimensions) dans laquelle chaque partie présente des propriétés similaires à l’ensemble. On parle d’autosimilarité géométrique dans le cas d’objets ou d’ensembles mathématiques, ou d’autosimilarité statistique dans le cas de processus aléatoires. Dans les deux cas, la structure de l’entité fractale est dite « invariante par changement d’échelle ».

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction
1.1 Contexte général : l’hétérogénéité des surfaces continentales
1.2 Cadre de l’étude
1.3 But de la thèse
1.4 Plan de la thèse
2 Analyse de la variabilité spatiale des surfaces continentales : état de l’art et théorie multifractale
2.1 Observations satellitaires et analyse d’images
2.1.1 Télédétection des surfaces continentales
2.1.1.1 Définition et principe de la télédétection
2.1.1.2 La télédétection pour l’Observation de la Terre
2.1.1.3 Les différents capteurs spatiaux et leurs applications
2.1.2 Méthodes usuelles d’analyse et de traitement d’images satellites
2.1.2.1 Assimilation de données
2.1.2.2 Algorithmes de classification
2.1.2.3 Méthodes de segmentation
2.1.3 Texture et analyse multi-échelle
2.1.4 Méthodes multifractales : contexte et intérêt
2.1.4.1 L’invariance d’échelle des phénomènes turbulents
2.1.4.2 Application aux surfaces continentales
2.2 Théorie des processus multifractals
2.2.1 Des objets fractals aux processus multifractals
2.2.1.1 Vocabulaire : échelle et résolution
2.2.1.2 Notion de fractale géométrique
2.2.1.3 Invariance d’échelle statistique
2.2.1.4 Processus multifractals
2.2.2 Les cascades multiplicatives
2.2.2.1 Principe de construction
2.2.2.2 Exemples de modèles
2.2.3 Multifractales Universelles
2.3 Simulation et analyse de Multifractales Universelles
2.3.1 Simulateur de champs multifractals
2.3.1.1 Principe général
2.3.1.2 Exemples de simulations multifractales
2.3.2 Description des estimateurs statistiques
2.3.2.1 Spectre de puissance : détection de l’invariance d’échelle
2.3.2.2 Fonctions de structure : mise en évidence du caractère non-conservatif
2.3.2.3 Moments statistiques : propriétés multifractales
2.3.3 Méthodologie générale d’analyse multi-échelle
3 Analyse multi-échelle d’un algorithme de désagrégation déterministe d’humidité du sol : DisPATCh
3.1 Introduction
3.1.1 Variabilité spatiale de l’humidité du sol
3.1.2 Apport de la télédétection pour le suivi de l’humidité du sol
3.1.3 Désagrégation spatiale pour l’étude fine échelle de l’humidité du sol
3.1.3.1 Les différentes méthodes de désagrégation de l’humidité
3.1.3.2 Intérêt et évaluation de la méthode DisPATCh
3.1.4 Etudes statistiques multi-échelles de l’humidité du sol
3.2 Cas d’étude et données
3.2.1 Processeur C4DIS : vers une couverture globale de l’humidité désagrégée
3.2.2 Produits d’entrée du C4DIS
3.2.2.1 Les données globales d’humidité du sol SMOS
3.2.2.2 Les données auxiliaires MODIS
3.2.2.3 Autres données auxiliaires
3.2.3 Produits désagrégés d’humidité du sol
3.2.4 L’algorithme DisPATCh
3.2.5 Zone d’étude
3.2.5.1 L’étude de l’humidité du sol en Australie
3.2.5.2 Le bassin du Murray Darling : une vaste région aux propriétés climatiques variées
3.2.6 Prétraitements réalisés sur les produits satellites
3.3 Résultats
3.3.1 Spectres de puissance : mise en évidence de deux régimes d’échelle pour l’humidité désagrégée
3.3.2 Fonctions de structure : confirment le degré d’intégration de l’humidité désagrégée et des données auxiliaires
3.3.3 Moments statistiques : application du modèle des Multifractales Universelles
3.4 Discussion
3.4.1 Impact des facteurs environnementaux sur les propriétés statistiques multi-échelles de l’humidité
3.4.1.1 Des facteurs agissant à différentes échelle spatiales
3.4.1.2 Une rupture en lien avec les propriétés d’échelle de la pluie
3.4.1.3 Les effets saisonniers sur la variabilité spatiale de l’humidité
3.4.2 Effet de l’algorithme de désagrégation sur les propriétés statistiques multi-échelles de l’humidité
3.4.2.1 Mise en évidence d’un seul régime d’échelle pour les températures de brillance : cas de la mission AACES-2
3.4.2.2 Suivi des propriétés multi-échelles au sein de l’algorithme DisPATCh : implémentation d’une version simplifiée de la méthode
3.5 Conclusion
4 Caractérisation de données multispectrales à haute résolution spatiale par analyse multifractale
4.1 Introduction
4.1.1 Apport des données multispectrales pour l’étude des surfaces continentales
4.1.1.1 Reflectances de surface : principe et intérêt
4.1.1.2 Les capteurs optiques pour l’observation de la Terre
4.1.2 Analyse de l’hétérogénéité spatiale des images optiques
4.1.3 Apport de la correction atmosphérique dans l’étude de la dynamique temporelle des propriétés d’échelle
4.1.3.1 Composition de l’atmosphère et impact sur les réflectances de surface
4.1.3.2 Méthodes de correction atmosphérique
4.2 Cas d’étude et données
4.2.1 Zone d’étude
4.2.1.1 La région Sud-Ouest
4.2.1.2 L’Observatoire Spatial Régional
4.2.1.3 Sélection d’une zone d’étude dans le Gers
4.2.2 Produits Sentinel-2
4.2.2.1 La mission Sentinel-2 : pour un suivi à haute résolution spatiale et temporelle des surfaces continentales
4.2.2.2 Les bandes spectrales de l’imageur MSI
4.2.2.3 La chaine globale de prétraitement des produits optiques
4.2.2.4 Les produits de l’étude : réflectances et indices optiques
4.2.3 La chaine de correction atmosphérique MAJA
4.2.3.1 Description générale et intérêt
4.2.3.2 L’algorithme
4.2.4 Prétraitements réalisés sur les images provenant de THEIA
4.3 Résultats
4.3.1 Comportement multi-échelle moyen : mise en évidence des régimes d’échelle et impact de la longueur d’onde
4.3.1.1 Identification des gammes d’échelles
4.3.1.2 Estimation et comparaison des exposants d’échelle moyens
4.3.2 Dynamique temporelle des propriétés d’échelle
4.3.2.1 Cycle saisonnier fine échelle des réflectances de surfaces
4.3.2.2 Dynamique temporelle fine échelle des indices optiques
4.4 Discussion
4.4.1 Mise en évidence des possibles limites de performance de capteurs optiques
4.4.1.1 Une rupture fine échelle indépendante du temps et de la surface observée
4.4.1.2 Impact de la Fonction de Transfert de Modulation sur les propriétés statistiques fine échelle des réflectances de surface
4.4.1.3 Modélisation de la rupture fine échelle à partir d’une simulation de champ multifractal
4.4.2 Des régimes d’échelles en lien avec l’hétérogénéité spatiale des surfaces agricoles
4.4.2.1 Des régimes aux propriétés multi-échelles distinctes
4.4.2.2 La parcelle comme échelle limite entre deux régimes
4.4.2.3 Une dynamique saisonnière liée aux cycles de cultures
4.4.2.4 Des gammes d’échelles qui évoluent selon la dynamique de la surface
4.4.2.5 Le lien entre occupation du sol et propriétés multi-échelles : tests sur d’autres types de surface
4.4.2.6 Simulation simplifiée d’une surface agricole
4.5 Conclusion
5 Conclusion générale et perspectives
5.1 L’algorithme DisPATCh en Australie
5.1.1 Synthèse des résultats
5.1.2 Perspectives
5.2 Les données Sentinel-2 dans la région Sud-Ouest
5.2.1 Synthèse des résultats
5.2.2 Perspectives
5.3 Bilan général

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *