Indexation d’image par le contenu

Indexation d’image par le contenu

Etat de l’art

Introduction

La recherche d’images par le contenu, à partir d’un e image requête, s’appuie sur la comparaison d’images, et donc la définition d’une mesure de distance entre deux images. Ce travail peut être simplifié en associant aux images des signatures, ou index, qui les représentent de manière plus compacte que leur matrice de pixels. Diverses méthodes ont été proposées pour construire ces signatures. Nous présentons dans ce chapitre un panorama des principales méthodes d’indexation d’images par la caractéristique de texture.

Principales méthodes de caractérisation d’images par la texture

L’analyse de la texture permet la détermination des signatures qui caractérisent l’image. Plusieurs méthodes caractérisation de la texture ont été présentées dans les littératures. Le choix d’une méthode est étroitemenlié à l’application visée. Les principales méthodes de caractérisation de la texture peuvent treê regroupées dans trois catégories. On distingue : les méthodes statistiques, les méthodes à base de modèle et les méthodes fréquentielles. Ces méthodes peuvent être étudiées sur toute l’image ou bien sur des régions précisées.

Méthodes statistiques

Les méthodes statistiques sont basées sur des évaluations quantitatives de la distribution de nivaux de gris. Elles étudient les relations entre un pixel et ses voisins et définissent des paramètres discriminants de la texture en se basant sur des outils statistiques. Parmi ces méthodes on peut citer la méthode de dépendance spatiale des niveaux de gris (SGLDM : Spatial Gray Level Dépendance Method) ou matrices de cooccurrences, caractéristiques de Tamura, la matrice de longueurde plage), ou dans un domaine transformé telle que (densité spectrale, méthode des extremaslocaux, méthodes de transformation de Fourier, Karhunen Loeve, etc) [22] [23][24]

Matrice de cooccurrence

La matrice de cooccurrence et une méthode principale dans la caractérisation de la texture. Elle a été proposée par Haralick et al [25], dans les années 70. Cette approche consiste à explorer les dépendances spatiales des textures en construisant d’abord une matrice de cooccurrence basée sur l’orientation et la distance entre les pixels de l’image. De chacune de ces matrices Haralick a défini quatorze paramètres caractéristiques de texture, comme le contraste, l’entropie ou la différence inverse des moments [26]. La réussite de cette méthode repose sur le bon choix des paramètres qui sont : la taille de la matrice sur laquelle s’effectuent la mesure, et la distance d qui sépare les deux pixels du motif.

Longueurs de plage

Les longueurs de plage ou iso segments. On appelle une plage un ensemble de pixels consécutifs et dans une direction donnée ayant le ême niveau de gris. La longueur d’une plage est alors le nombre de pixels pour une plage donnée. L’objet qui caractérise les textures dans cette méthode est alors un ensemble de matrices Pθ=(P(i,j)).Chaque cas (i,j) de la matrice Pθ contient le nombre de plages de longueur j et de niveau de gris i dans la direction θ.
Tout comme pour les matrices de cooccurrences, cette méthode permet une bonne caractérisation des textures des régions. Cependant, elle reste relativement lente et est efficace sur des images comportant peu de niveaux de gris. [28] [29].

Méthodes à base de modèle

Le principe de ces méthodes et de décrire la texture par un probabiliste. Celle-ci est alors caractérisée par les paramètres de ce modèle[30] [31].on peut citez :

Modèles Fractals

Ces méthodes permettent de synthétiser des images rèst proches de la réalité. En analyse de texture, la dimension fractale, qui est une mesure du degré d’irrégularité d’un objet, décrit une certaine propriété de la texture. Le modèle fractal est basé essentiellement sur l’estimation par des méthodes spatiales de la dimension fractale de la surface représentant les niveaux de gris de l’image [27].

Le modèle autorégressif

Le modèle autorégressif (AR) considère une interaction entre l’intensité de chaque pixel de l’image et la somme pondérée des intensitéde ses voisins. En prenant l’image I comme un champ aléatoire, le modèle AR se défini par la formule (2.9)
7(8) = 9 + ∑>∈@ ;(<)7(8 + <) + =(8) ……………………… (2.9)
Ou x est un point de l’image, D définit un voisinage, =(8) est une variable Gaussienne de moyenne nulle, 9 est le biais (inutilisée pour la segmentation) etles r;(<), <AB sont les paramètres du modèle. Les différentes textures sont caractérisées par les différentes dépendances de voisinage, elles-mêmes représentéespar les différents paramètres du modèle. [29].

Méthodes fréquentielles

Ces méthodes sont souvent utilisées en traitement ud signal, permettent d’analyser une texture en identifiant les différentes fréquences qui la composent. Parmi elles, on retrouve notamment la transformée de Fourier, les filtres deGabor ainsi que les ondelettes. De façon générale, laλ transformation linéaire d’une image f est obtenue en calculant la corrélation de f et d’une fonction ψ donné dans la formule (2.10) :
C∞∞(8, D) EFG(x,y)dxdy …………………………….. (2.10)
Avec λ un ensemble de paramètres propre à et ψ le complexe conjugué de la quantité en argument.
Ces méthodes, préservent à la fois les informationsglobales et locales. Elles sont bien adaptées aux signaux périodiques. En effet, les textures sont des signaux quasi périodiques qui ont une énergie fréquentielle localisée [27]. Ces méthodes permettent de caractériser la texture à différentes échelles. Analyser une texture par son spectre fréquentiel nous donne beaucoup d’informations sur celle-ci.
• La transformée de Fourier (TF) permet de passer d’une représentation de l’image dans le domaine spatial à sa représentation dans le domaine fréquentiel. [32]
• Transformée Cosinus Discret (DCT) La Transformée encosinus discrète ou TCD (de l’anglais : DCT ou Discrète Cosine Transform) est une transformation proche de la transformée de Fourier discrète (DFT). Le noyau de projection est un cosinus et génère donc des coefficients réels, contrairement à la DFT, dont le noyau est une exponentielle complexe et qui génère donc des coefficients complexes. La DCT possède une excellente propriétéde « regroupement » de l’énergie : l’information est essentiellement portée par les coefficients basses fréquences.
• Filtre de gabord [33].
• La transformée en Ondelettes, contrairement à Fourier, est beaucoup plus précise et riche en informations et en pertinence [32]. Pour faire face aux difficultés d’analyse des textures naturelles, l’outil espace- fréquence et temps-échelle qui semble le plus approprié est la transformée en ondelettes. Celle-ci permet de prélever des paramètres locaux dans le domaine spatial, dans le domaine fréquentiel, à des résolutions multiples ainsi quedes paramètres inter-échelles. De plus, son mode d’investigation, du global vers le détail, possède une similitude avec le système visuel humain. Pour ces nombreuses avantages ; nous nous intéressant, dans cette thèse, à l’analyse de la texture par la transformée en ondelette.

Indexation des images à partir de la transformée en ondelette : Etat de l’art

Dans les années 1990, après l’introduction et l’établissement de la théorie de la transformée en ondelette, beaucoup de chercheurs oncommencer à l’utiliser pour l’analyse de la texture. Le principe et d’appliquer la transformée en ondelette sur l’image afin d’extraire les coefficients d’ondelettes de l’image ; ensuite la signature est calculé a partir de ces coefficients. Plusieurs méthodes de construction dela signature à partir des coefficients de la transformée en ondelette ont été proposés dans laittérature,l on peut les regroupées en deux principales catégories : les approches énergies et approches basées sur les modèles statistiques, la figure 2-1 illustre les différentes approches de caractérisation de la texture par ondelette.

Les approches énergies

Le principe de ces approches consiste à calculer des g randeurs globales de l’image à partir des coefficients d’ondelette. La méthode la plus simple et la plus populaire est de former un vecteur d’énergies pour chaque sous bande à partir des coefficients de transformé en ondelettes [34].Lieu et al [35], propose de calculer la moyenne et la variance pour chaque sous bande en utilisant la transformée en paquet d’ondelette. Smeulder et al [36], utilise l’analyse multi résolution et crée la signature à partir des valeurs absolus des coefficients d’ondelettes. Dans leur article, Jacobs et al. [37] utilisent l’analyse multi-résolution pour créer un index généré à partir des valeurs les plusélevées (en valeur absolue) des coefficients d’ondelettes. Mandar et al. [38], quant à eux, ont proposé une autre technique basée sur le calcul de moments à partir des coefficients d’ondel ettes. De leur côté, Idris et al [39] proposent une technique de quantification vectorielle dans laquelle la comparaison est effectuée sur des vecteurs quantifiés issus des coefficients d’ondelette. Saif lZahir [40], a développé un algorithme d’indexation d’image medicale efficace, la signature est construite en utilisant la corrélation des coefficients d’ondelette. Rajakumar [41] propose une nouvelle signature pour les images médicales construites directement à partir des énergies coefficients d’ondelette. Hivashankar [42] proposent de calculer la matrice de cooccurrence, ensuite la l’analyse composante principale (PCA) et l’Analyse Discriminant Linéaire (LDA) est appliquée pour sélectionné et réduire la taille duvecteur caractéristique.

Les approches basées sur les modèles statistiques

Le principe de ces méthodes est de tracer des histogrammes des coefficients de la transformée en ondelette et de les modéliser par des lois statistiques. La signature est calculée à partir d’une estimation des paramètres du modèle statistique. On distingue deux type distribution: la gaussienne généralisé et la mixture de gaussienne généralisé.
Do et al [43] propose une méthode de caractérisation de la texture basé sur la distribution globale des coefficients d’ondelette, la signature est construite a partir des paramètres d’échelle et de forme de la gaussienne.Gwénole [44] à appliquer la gaussienne généralisé aux images médicales rétiniennes et mammographie. Allili [45], propose d’utilisé la mixture de la gaussienne généralisé.

Méthodes de réduction de dimension des données

La réduction de dimension permet de transformer lesdonnées représentées dans un espace de grande dimension en une représentation dans une espace de dimension inferieur. Plusieurs méthodes de réduction des données sont ésentéespr dans la littérature. Elles peuvent être regroupées en deux principales catégories :
• Les méthodes linéaires telles que (l’Analyse en Composantes Principales (ACP) [46], la factorisation non–négative de matrices (NMF) [47], l’Analyse en Composantes Indépendantes (ICA) [48] et l’Analyse Discriminante Linéaire (LDA) [49].
• Les méthodes non linéaires telles que (Kernel PCA 50],[ multidimensional scaling (MDS) [51]), Locally Linear Embedding (LLE) [52].
La réduction de dimension est utilisé dans de nombreux domaines ; telle que la compression données de grande dimension.la classification. Dans notre cas, la réduction des données est utilisée pour réduire la taille des grandes signatures en utilisant l’Analyse en Composante Principale.

Analyse en composante principale 

L’Analyse en Composantes Principales (ACP) [53], aussi connue sous le nom de transformée de Karhunen–Loève [54] est une méthodetrès utilisée en statistique. Introduite par Pearson [54] puis plus tard par Hotelling [46], sa principale idée est de réduire la dimension d’un jeu de données tout en gardant un maximum d’informations. Cela est réalisé grâce à une projection qui maximise la variance tou t en minimisant l’erreur quadratique moyenne de la reconstruction.
Ainsi, le maximum pour le multiplicateur de Lagrange est obtenu si λ est une valeur propre et u un vecteur propre de C. Ainsi la variance décrite par le vecteur de projection u est donnée parλ.
Pour la mise en œuvre de méthodes batch, il est sup posé que le jeu de données d’entraînement est disponible en entier. Ainsi nous avons un ensemble de n observations xi є RD organisés sous forme matricielle X =[x1;…….;x n] єRD x n . L’estimation de la base de projection de l’ACP revient donc à estimer les éléments propres de la matrice de covariance C de X.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport gratuit propose le téléchargement des modèles gratuits de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie ?avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale
Chapitre 1: Indexation d’image par le contenu
I. Introduction
II. Principe général de l’indexation et de la recherche d’information
III. Les systèmes de recherche d’images
IV. Les principales approches pour l’indexation d’images
V. Architecture des systèmes d’indexation par contenu
VI. Principales techniques d’indexation par contenu
VI.1. Indexation d’images à l’aide de caractéristiques bas niveaux
a) Couleur
b) Texture
c) Forme
VI.2. Indexation d’images à l’aide de caractéristiques haut niveaux
VII. La recherche d’images par contenu dans le domaine médical
VIII. Quelques systèmes CBIR médicaux existants
IX. Évaluation des méthodes de recherche d’information
X. Description des bases de Données utilisées
X.1 Base d’images «MESSIDOR»
X.2 Base d’images cervicale
X.3 Base d’images mélanome
XI. Conclusion
Chapitre 2 : Etat de l’art
I. Introduction
II. Principales méthodes de caractérisation d’images par la texture
II.1 Méthodes statistiques
II.1.1 Matrice de cooccurrence
II.1.2 Longueurs de plage
II.2 Méthodes à base de modèle
II.2.1Modèles Fractals
II.2.2 Le modèle autorégressif
II.3 Méthodes fréquentielles
III. Indexation des images à partir de la transformée en ondelette : Etat de l’art
III.1 Les approches énergies
III.2 Les approches basées sur les modèles statistiques
IV. Méthodes de réduction de dimension des données
IV.1 Analyse en composante principale
IV.2 Choix du nombre de composante principale
IV.2.1 Critères Heuristiques
IV.2.2 Critère de validation croisée
V. Conclusion
Chapitre 3 : La transformée en ondelette
I. Introduction
II. La Transformée de Fourier (TF)
III. Transformée de Fourier Fenêtrée (STFT)
IV. Transformée en ondelettes
IV.1 Définition d’une ondelette
V. Transformée en ondelettes continue CWT
VI. Transformée en ondelettes discrète DWT
VII. Analyse multiresolution
VIII. Transformée en ondelette 2 D
IX. Transformée en ondelette rapide 2D
X. Propriétés Fondamentales d’une Ondelette
XI. Ondelette bi-orthogonalité
XII. Le lifting
XII.1 L’ondelette Bi orthogonal Cohen-Daubechies-Feauveau CDF 9/7
XIII. Propriétés du schéma de lifting [80]
XIV . Conclusion
Chapitre 4 : Nouvel algorithme d’indexation d’images par le contenu
I. Introduction
II. Indexation d’images à partir des énergies
III. Indexation d’images à partir de la gaussienne généralisée
III.1 Principe de la méthode
III.2 Loi gaussienne généralisée
III.2.1 Mesure de distance entre deux distributions gaussiennes généralisées
IV. Comparaison entre les différentes approches
V. Algorithme proposé
V.1 Prétraitement
V.2 Principe de l’algorithme
VI. Mesure de similarité
VII. Résultats
VIII. Influence de l’ondelette utilisé dans la décomposition des images
IX. Influence du nombre de niveaux de décomposition pour l’indexation d’image
X. Amélioration des performances du system proposé
X.1 Indexation des images médicales basée sur le schéma de lissage
X.2. Indexation des images médicales basée sur le Pourcentage de variance cumulé
XI. Comparaison entre plusieurs approches de la littérature
XII. Conclusion
Conclusion générale

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *