Travaux sur les signatures spectrales

Contexte :l’agriculture de précision

  L’agriculture traditionnelle consiste, généralement, à utiliser des engrais sur l’ensemble d’un champ à cultiver pour permettre une meilleure production, sans distinction des réels besoins nutritifs des différentes parties du champ. Ainsi, il se peut fort bien que seulement un tiers du champ ait besoin d’engrais; mais par commodité et/ou habitude, tout le champ sera« aspergé». S’en suit alors une pollution des sols plus importante. Dans le contexte actuel de notre société qui se veut et se doit d’être de plus en plus écologique et environnementaliste, une nouvelle manière de concevoir l’agriculture a été pensée: l’agriculture de précision. Le leitmotiv de cette nouvelle« philosophie» agricole est d’ajouter la bonne dose (d’engrais, de désherbant ou autres produits) seulement au bon endroit et seulement au bon moment. En d’autres termes, cela revient, d’une part, à non plus penser un champ dans sa globalité mais par ses subdivisions ou parcelles; et, d’autre part, à combler les carences de chacune de ces parcelles de terre de manière plus individuelle et privilégiée. Les intérêts de cette nouvelle façon de penser sont évidemment d’ordre écologique (diminution de la pollution des sols par inflitration) et économique (réduction de coûts pour l’agriculteur). Pour identifier les carences locales et les combler, il est primordial de connaître la constitution du sol. Une fois celle-ci connue et à partir de l’expertise des biologistes et agriculteurs qui connaissent les éléments nécessaires à une bonne pousse, il devient évident de savoir ce qu’il faut modifier : les éléments (engrais, … ) à rajouter et leurs quantités. C’est une adaptation personnalisée à chaque parcelle. L’objectif est donc de savoir ce que contient le sol, localement. Pour ce faire, on va, tout d’abord, mentalement subdiviser le champ en parcelles pour ainsi satisfaire à la problématique de la localité (il sera montré plus tard que ce n’est pas si mental que ça, mais dépendant de la résolution de la caméra). Dans un deuxième temps, le but est de rechercher ce que l’on appelle les signatures spectrales de ces parcelles, pour satisfaire à la problématique de leur contenu.

Signature spectrale

La signature spectrale d’un élément, qu’il soit humain, animal, végétal ou minéral. .. , représente son comportement, sa réponse unique à un rayonnement lumineux; c’est-à-dire la façon dont un corps réagit, émet sous l’incidence d’un rayonnement électromagnétique, qui est constitué d’énergie transportée sur une plage étendue de longueurs d’ondes. On appelle signature spectrale la réponse sur cette plage et réflectance la réponse pour une longueur d’onde donnée. Ainsi, une signature spectrale (voir l’exemple de l’actinolite, signature issue de« United States Geological Survey » (USGS), figure 1)1 est un signal unidimensionnel qui représente la réftectance en fonction des longueurs d’ondes des bandes spectrales utilisées (typiquement ici de 0,2 à 3 p,m, soit du proche ultra-violet à l’infrarouge). À noter que, puisque la réftectance est le rapport de ce qui est émis par ce qui est reçu, sa valeur est normalisée et donc comprise entre 0 et 1. Il en va de même par conséquent pour la signature spectrale. Ce qu’il est primordial de comprendre est le fait que, pour une condition d’éclairement donnée, à un élément correspond une et une seule signature spectrale et réciproquement ! Par exemple, les pics et bosses de la figure 1 sont typiques de l’ actinolite; et seule l’ actinolite présente cette signature. Le terme «signature» prend alors tout son sens. De même, les os sont visibles aux rayons X, alors que les êtres humains ne le sont pas, mais le sont dans le visible … Ainsi, connaître les signatures spectrales d’une parcelle nous renseigne de façon unique et parfaite sur la nature des éléments qui y sont présents. Cette phrase est la phrase-clé du mémoire de maîtrise car grâce à elle, on transforme le problème agricole, sur le terrain, en un problème théorique, mathématique, de traitement du signal, comme il le sera expliqué plus tard.

Indépendance et gaussianité font mauvais ménage

  À partir de l’équation (1.56), nous pouvons énoncer deux idées majeures sur la nature des «affinités», plutôt frigides, devant exister entre indépendance et gaussianité pour résoudre un problème d’AC!:
a. on recherche les sources les moins gaussiennes possibles;
b. il faut qu’au plus une le soit (condition nécessaire, non suffisante).

Sources les moins gaussiennes possibles Si l’on considère la propriété mathématique de la non-gaussianité, invariante par transformation linéaire (soit G(Y) = G(A -lX) = G(X)), on peut remarquer que, vu que X est constant, G(X) et donc G(Y) le sont également. On obtient ainsi la propriété suivante (Cardoso, 2002) : «minimiser la dépendance I (Y) revient à minimiser la corrélation C(Y) tout en maximisant la non-gaussianité G(Yi) de chacune des composantes Yi de  Y (non-gaussianités marginales)». En d’autres termes (Cardoso, 2004a), « les composantes linéaires indépendantes recherchées sont celles qui sont les plus décorrélées et les moins gaussiennes possibles 1 ».Ce résultat, qui représente l’idée essentielle de l’ ACI, met en lumière la direction à suivre pour résoudre un problème d’ ACI : maximiser la non-gaussianité.
Au plus une source gaussienne On sait que dans le cas de variables gaussiennes, indépendance et décorrélation sont équivalentes. En découle alors une autre propriété importante de l’ ACI: il est impossible d’extraire les composantes indépendantes si plus d’une source est gaussienne. Deux critères permettent de démontrer ce théorème quand toutes les sources sont gaussiennes (la propriété une au plus vient de Linnik (Cardoso, 2004b)) : le théorème de la limite centrale et la faiblesse de la décorrélation face à l’indépendance. En outre, pour appuyer, si besoin était, l’idée de l’antipathie existant entre gaussianité et ACI, les conditions d’existence et d’unicité de la décomposition ACI sont présentées en annexe 1, section 6. On y montre qu’il en existe une infinité quand X est gaussienne, alors qu’elle est unique quand X =AS, avec S, composée de sources indépendantes.

Types d’algorithmes

  Trois types d’algorithmes existent (Hyvarinen et Oja, 1997; Hyvarinen, 1997a):
a. les algorithmes par« lots» (ou« batch-mode algorithm »en anglais);
b. les algorithmes adaptatifs;
c. les algorithmes du point fixe (ou « fixed-point algorithms » (FP) en anglais). Les algorithmes par lots sont basés sur la minimisation ou maximisation de fonctions de contraste, ne faisant intervenir que les cumulants d’ordre plus élevés (Cardoso, 1992; Comon, 1994). Ceux-ci sont parmi les premiers à avoir été implantés historiquement, donc, bien que performants à l’époque, leurs capacités actuelles s’avèrent limitées. En effet, ils nécessitent des opérations matricielles difficiles (notions de tenseurs matriciels (Cardoso et Camon, 1996; De Lathauwer et al., 2000)), donc une charge informatique élevée et sont sensibles aux valeurs aberrantes; c’est pourquoi les algorithmes adaptatifs leur sont préférés. Ces derniers sont basés sur des méthodes de gradient stochastiques (généralement, descente de gradient), dont les implémentations peuvent être assimilables à celles de réseaux de neurones; dans le sens où B ou bi sont considérés comme les poids mis à jour du réseau (Amari et al., 1996; Bell et Sejnowski, 1995b; Delfosse et Loubaton, 1995; Hyvarinen et Oja, 1996a; Jutten et Herault, 1991; Cichocki et al., 1996). Même si plus efficaces que les précédents, ces algorithmes présentent le défaut de converger lentement vers la solution et également d’être sensible aux valeurs aberrantes. Pour y remédier, une troisième forme a été développée par Hyvarinen (Hyvarinen, 1999a; Hyvarinen et Oja, 1997; Hyvarinen, 1999b, 1997a; Hyvarinen et Oja, 1996a): les algorithmes du point fixe, basés sur le kurtosis ou la négentropie. Son nom (point fixe) vient du fait que la règle récursive, comme nous le verrons en détail dans le chapitre 3, présente la forme caractéristique d’une équation du type point fixe (ou encore appelé« principe de contraction de Banach») en B; à savoir B = f(B), avec f une fonction convergente. Pour mener à bien nos expérimentations, nous avons décidé d’opter pour l’algorithme FastiCA de Hyvarinen, qui est une forme de l’algorithme du point fixe. Nous en donnons les raisons dans la partie suivante, où les algorithmes principaux de l’ ACI sont comparés avec l’algorithme du point-fixe.

Comparaison des différents algorithmes

   Avant de commencer, notons que toutes les informations, qui vont être énoncées dans la suite, notamment la définition des algorithmes, leurs performances, sont expliquées plus en détail dans l’annexe 4 et dans (Giannakopoulos et al., 1999b; Giannakopoulos, 1998; Giannakopoulos et al., 1998, 1999a; Karhunen, 1996; Karhunen et al., 1997); c’est pourquoi seuls les grandes propriétés et résultats seront explicités dans cette partie.
Algorithmes considérés
Les algorithmes comparés dans ces articles sont :
a. les algorithmes du point fixe (FP), définis par une non-linéarité (dérivée de la fonction G (voir 1.8.3.3)) et une méthode. Ici, la non linéarité généralement utilisée est la tangente hyperbolique (tanh) avec la méthode déflation (FPth) ou symétrique (FPsymth);
b. l’algorithme naturel du gradient ACY, du nom de ses trois concepteurs AmariCichocki-Yang (Amari et al., 1996);
c. l’algorithme étendu de Bell et Sejnowski, ExtBS (« Extended Bell Sejnowski »en anglais), algorithme de gradient basé sur le critère de l’infomax (Bell et Sejnowski, 1995b; Girolami et Fyfe, 1997);
d. l’ algorithme EASI de Cardoso et Laheld ( Cardoso et Laheld, 1996) pour « Eq uivariant Adaptive Separation via Independence » en anglais; soit, en français, algorithme qui réalise la séparation adaptative équivariante de sources indépendantes;
e. l’algorithme NPCA-RLS (Karhunen et Pajunen, 1997b; Pajunen et Karhunen, 1998; Karhunen et Pajunen, 1997a) pour« Nonlinear Principal Component  Analysis by Recursive Least Squares » ; soit, en français, une ACP par une technique récursive des moindres carrés. Nous rappelons que nous ne donnons ici pas plus de détails sur ces algorithmes (se référer à l’annexe 4 si besoin est). Après les avoir présentés, nous allons maintenant juger de leurs performances pures.
Performances des algorithmes D’un point de vue protocolaire, les algorithmes sont comparés sur des données générées artificiellement, constituées de mélanges de signaux de base (sinusoïdes, dents de scie, … ). Les proportions des mélanges sont connues (en d’autres termes, la matrice de mélange A est connue) car le but est de comparer les algorithmes sur les propriétés de précision et de vitesse de calcul. Ainsi, en connaissant A, on cannait initialement S et il est alors facile de comparer les composantes indépendantes rendues par chaque algorithme avec les signaux de S. Le critère d’erreur utilisé est l’indice de performance E1, tel que présenté en 1.6.4. Nous nous intéressons aux trois critères suivants : la précision, la charge informatique etl’erreur en fonction du nombre de sources. Les figures sont issues de (Giannakopoulos et al., 1999b; Giannakopoulos, 1998).

Conséquence: choix du FastiCA

   Si l’on récapitule toutes les propriétés déductibles des trois tests réalisés, on en arrive à la conclusion que, globalement, le meilleur algorithme est l’algorithme à point fixe symétrique à non linéarité en tangente hyperbolique (FPsymth). Vu qu’il est le plus rapide des algorithmes considérés, son concepteur Hyviirinen lui a donné l’appelation « FastiCA 1 ». Ce Fas tl CA apparaît donc finalement à la fois comme l’algorithme le plus rapide pour converger, nécessitant le moins d’opérations et relativement peu sensible à l’augmentation du nombre de sources. Ces trois raisons majeures justifient donc parfaitement le fait qu’il ait été choisi comme routine à notre programme Matlab sur lequel est basé notre projet de maîtrise. De plus, anecdotiquement, nous avons choisi FastiCA car, au préalable, probablement pour les raisons évoquées plus haut, Luis Da Costa, un étudiant en Ph.D. de 1 ‘ÉTS, qui travaillait sur ce projet avant moi, avait développé du code Matlab à partir de cette routine FastiCA. Nous avons poursuivi et amélioré le travail de programmation, à partir de ses travaux et ceux d’Hyvarinen. Maintenant que nous avons «réglé » la problématique matérielle de notre mémoire, nous pouvons nous intéresser à 1′ état de l’art des applications de l’ ACI. On rappelle qu’il existe de nombreuses applications à l’ ACI, principalement issues de la séparation aveugle de sources. Dans la suite, nous ne développons pas les applications déjà citées mais nous nous concentrons uniquement sur l’application concernant les signatures spectrales. Comme nous allons le constater, les papiers scientifiques ne sont pas légions sur ce sujet.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

ABSTRACT
AVANT-PROPOS ET REMERCIEMENTS
LISTE DES TABLEAUX
LISTE DES FIGURES
LISTE DES ALGORITHMES
LISTE DES ABRÉVIATIONS ET SIGLES
INTRODUCTION
CHAPITRE 1 ANALYSE EN COMPOSANTES INDÉPENDANTES 
1.1 Définition 
1.2 Séparation aveugle de sources  
1.2.1 Le cocktail-party
1.2.2 Hypothèse d’indépendance
1.2.3 Illustration
1.3 Applications  
1.4 Modèle mathématique 
1.4.1 Modèle vectoriel
1.4.1.1 x, set a
1.4.1.2 Modèle bruité
1.4.1.3 y et b
1.4.2 Modèle matriciel
1.4.2.1 X,SetA
1.4.2.2 Y et B
1.4.2.3 Approches et estimées
1.5 Conditions  
1.5.1 Au moins autant de mélanges que de sources
1.5.2 A matrice de rang plein
1.5.3 Indépendance statistique des composantes
1.5.4 Au plus une source gaussienne
1.6 Ambiguïtés
1.6.1 Ordre
1.6.2 Énergies
1.6.3 Matrice globale G
1.6.4 Indice de performance E1
1.7 Indépendance
1.7.1 Définition mathématique
1.7.2 Mesure d’indépendance: l’information mutuelle
1.7.3 Dépendance, corrélation et non-gaussianité
1.7.3.2 Non-gaussianité
1.7.3.3 Corrélation
1.7.3.4 Équation caractéristique
1. 7.4 Indépendance et gaussianité font mauvais ménage
1.7.4.1 Sources les moins gaussiennes possibles
1.7.4.2 Au plus une source gaussienne
1. 7.5 Conclusion
1.8 Fonctions de contraste  
1.8.1 Statistiques d’ordres plus élevés
1.8.2 Kurtosis
1.8.3 Négentropie
1.8.3.1 Rappel sur l’entropie
1.8.3.2 Définition
1.8.3.3 Approximations
1.8.4 Autres
1.8.4.1 Information mutuelle
1.8.4.2 Maximum de vraisemblance
1.8.4.3 Infomax
CHAPITRE 2 ÉTAT DE L’ART 
2.1 Choix de l’algorithme ACI
2.1.1 Problématique
2.1.1.1 Méthode d’estimation
2.1.1.2 Types d’algorithmes
2.1.2 Comparaison des différents algorithmes
2.1.2.1 Algorithmes considérés
2.1.2.2 Performances des algorithmes
2.1.3 Conséquence : choix du Fast! CA
2.2 Travaux sur les signatures spectrales
2.2.1 Préambule : la ségrégation hyperspectrale
2.2.2 Analogie avec l’ ACI
2.2.3 Méthode des fractions d’abondance
2.2.3.1 Justification
2.2.3.2 Modèle
2.2.3.3 Travaux
2.2.4 Méthode des signatures spectrales
2.2.4.1 Modèle
2.2.4.2 Travaux
2.3 Conclusions 
CHAPITRE 3 ALGORITHMES DU POINT FIXE 
3.1 Prétraitement  
3.1.1 Centrer X
3.1.2 Blanchiment
3.2 Analogie avec les réseaux de neurones 
3.3 Algorithmes du point fixe  
3.3.1 Pour une composante
3.3.1.1 Convergence
3.3.1.2 Basé sur le kurtosis
3.3.1.3 Basé sur la négentropie
3.3.2 Pour toutes les composantes
3.3.2.1 Méthode déflation
3.3.2.2 Méthode symétrique
3.3.2.3 Propriétés du Fasti CA
3.4 Sortie du FastiCA  
CHAPITRE 4 PROTOCOLE EXPÉRIMENTAL 
4.1 Généralités
4.1.1 Approches
4.1.2 Validité des résultats
4.1.3 Mise au point lexicale
4.1.4 Confiances
4.2 Prétraitement 
4.2.1 Conformités statistiques avec le modèle
4.2.2 Formation de A
4.3 Application de l’ ACI 
4.4 Post-traitement
4.4.1 Partie théorique
4.4.1.1 Matrice Go,I
4.4.1.2 Confiance théorique
4.4.2 Partie pratique
4.4.3 Pourcentage de succès
4.4.4 Mesures globales d’erreur
4.4.4.1 Erreur E1 et confiances globales
4.4.4.2 Erreur EA
4.5 Variables finales interprétables
4.5.1 Nature
4.5.2 Erreur standard
4.5.3 Explications de la sélection
4.6 Algorithme
4.7 Exemple d’application du protocole expérimental 
A 7 1 Partie théorique
4.7.2 Partie pratique
4.7.3 Succès d’associations
4.7.4 Erreurs E1 et EA
CHAPITRE 5 DISCUSSION ET INTERPRÉTATION DES RÉSULTATS
5.1 Valeurs des paramètres 
5.2 Données 
5.2.1 Images en niveaux de gris
5.2.2 Signaux de base
5.2.3 Signatures spectrales
5.2.4 Valeurs de (k, E) en fonction de la nature des données
5.3 Commentaires de forme sur les tableaux de résultats 
5.4 Remarques générales 
5.4.1 Cas particulier den = 2
5.4.2 Convergence
5.4.3 Résultats sur A
5.4.3.1 Uniformité en A
5.4.3.2 Erreur EA
5.4.4 Dépendance à la nature de la combinaison
5.5 Interprétation des valeurs de confiances
5.5.1 Nécessité pour la distinction des cas d’associations parfaites
5.5.2 Condition non suffisante
5.5.3 Philosophie de la prise de décision
5.5.4 Valeurs des seuils empiriques locaux
5.6 Résultats particuliers
5.6.1 Images en niveaux de gris
5.6.1.1 Cas n = 2
5.6.1.2 Cas n = 3
5.6.1.3 Cas n = 4
5.6.2 Signaux de base
5.6.2.1 5 signaux
5.6.2.2 4 signaux
5.6.3 Signatures spectrales
5.6.3.1 Cas n = 2
5.6.3.2 Cas n = 3
5.6.3.3 Cas n = 4
5.6.4 Bilan
5.7 Note positive finale
CONCLUSION
RECOMMANDATIONS
ANNEXES
1 : Indépendance
2: ACI versus ACP et PP
3 : Moments et cumulants
4 : Algorithmes de 1′ A CI
5 : Neutralisation des deux premiers moments d’une matrice
6 : Signatures spectrales USGS
7 :Tableaux de résultats
BIBLIOGRAPHIE

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.