Utilité et caractéristiques de la compression JPEG

Utilité et caractéristiques de la compression JPEG

Les différentes méthodes de compression

Avec le développement de l‟outil informatique, on effectue des échanges de volumes importants d‟information. Or la gestion d‟une telle masse pose des problèmes de stockage et de transfert. Pour cela, des études ont été menées afin de mettre en évidence des algorithmes de compression et décompression de données. Leur but est de changer le format des informations de telle sorte qu‟elles occupent moins de volume. Une fois compressées, les données ne sont plus accessibles en tant que données cohérentes; pour les récupérer, il suffit de les décompresser. Dans ce chapitre, nous donnons quelques notions essentielles sur la compression d‟image.

En général, la compression des données consiste à prendre un flux de symboles et à les transformer en codes [5]. La compression est effectuée par un programme qui utilise une formule ou un algorithme pour déterminer comment réduire la taille des données pour guanier l‟espace de stockage. La compression de données est également appelée codage source ou réduction de débit est le processus de modification, d’encodage ou de conversion de la structure des bits de données de manière à consommer moins d’espace sur le disque. Il permet de réduire la taille de stockage d’une ou plusieurs instances ou éléments de données. L’objectif de la compression des données est de représenter une source d’information aussi précisément que possible en utilisant le plus petit espace de stockage.

continu 1210 sur la composante (0,0) représente « la moyenne » de la grandeur d’ensemble de la matrice d’entrée. Cette moyenne n’est pas une moyenne statique mais un nombre proportionnel à la somme de toutes les valeurs du signal. Les autres valeurs de la DCT sont les « écarts » par rapport à cette moyenne. Lorsque l’on monte dans les hautes fréquences, les valeurs de la matrice ont tendance à s’approcher de 0 quand on s’éloigne du coin supérieur gauche de la matrice. L’étape de quantification de chaque bloc regroupe les ensembles de valeurs proches. Ensuite, chaque amplitude originale sera remplacée par la valeur moyenne de l’intervalle, c’est à dire l’étape de quantification est de diminuer l a précision du stockage de sentiers de la matrice DCT pour diminuer le nombre de bits occupés par chaque entier. C’est la partie non conservative de la méthode. Les basses fréquences sont conservées, la précision des hautes fréquences est diminuée. La perte de précision est plus grande lorsqu’on s’éloigne de la position (0,0). Les valeurs de la matrice DCT seront divisées par la matrice de quantification.

Prétraitement ou Traitements préliminaires

Deux opérations sont réalisées au cours de cette phase [15]. La première est le partitionnement de l‟image en rectangles de même taille (sauf exception faite pour les zones situées aux extrémités de l‟image) que l‟on appelle Tiles (figure II.5) et qui ne se recouvrent pas. Les Tiles seront ensuite chacune codée séparément, avec leurs propres paramètres. Ce Partitionnement est particulièrement utile dans les applications qui possèdent des Ressources mémoire limitées. La seconde opération : DC level shifting convertit les valeurs des composantes non signées de L‟image en valeurs signées. Elle consiste à ramener ces coefficients en logique non signée de [0 255] en logique signée à [-128 127], c‟est-à-dire centrés autour de zéro en soustrayant 128. Ce décalage DC level shifting est opéré afin de simplifier certains traitements ultérieurs.

Transformée en ondelettes

L‟idée de base de la DWT (Discrete Wavelet Transform) est de séparer les basses et hautes fréquences d‟une image [16]. Intuitivement, basses et hautes fréquences peuvent être comprises de la manière suivante. Les basses fréquences correspondent à une version grossière de l‟image originale dans laquelle les valeurs des pixels ont été moyennées et où aucune variation brusque n‟est observée d‟un pixel à l‟autre. Les hautes fréquences quant à elles contiennent toute l‟information sur les détails de l‟image. On comprend aisément que plus d‟information est contenue dans la version basse fréquences que dans celle ne fournissant que les détails de l‟image. On dit que l‟énergie de l‟image est concentrée dans les basses fréquences. L‟objectif de la DWT est donc de concentrer l‟information de l‟image en une zone très localisée de manière à pouvoir ensuite compresser fortement les zones ne contenant que peu d‟information. En pratique, la transformée DWT consiste en l‟application successive de paires de filtres passe-bas ( H0) et passe-haut (H1), suivis d‟un sous-échantillonnage de facteur deux (suppression d‟un échantillon sur deux), comme l‟illustre la figure (II.6). La transformée inverse consiste à appliquer une autre paire de filtres passe-bas (G0) et passe- haut (G1), précédés par un sur-échantillonnage de facteur 2 (insertion d‟un zéro (0) entre chaque échantillons), ensuite une addition (figure (II.6).

Implémentation par banc de filtres

Une méthode équivalente et plus efficace pour calculer la transformée en ondelette est de convoler le signal avec une paire de filtres miroirs en quadratures (QMF) convenablement choisis suivi par un sous-échantillonnage de facteur 2 ou décimation. Les QMF qui décomposent ainsi le signal sont constitués d‟un filtre passe-bas 0 H et un filtre passe-haut 1 H .Ils divisent ainsi la bande passante du signal exactement en son milieu. Les coefficients sont recombinés pour synthétiser le signal) (tx par la transformée en ondelette inverse. Elle est obtenus à l‟aide d‟une opération de sur-échantillonnage de facteur suivie par la paire des filtres QMF 0 G et 1 G [17].

Pour le cas monodimensionnel (1D), les coefficients d‟ondelettes à l‟échelle m+1 sont calculés par application récursive de la transformée en ondelettes du signal passe bas à l‟échelle m. Après k niveaux de décomposition on obtient k ensembles de coefficients hautes fréquences n mC, et une de bases fréquences, notée n d [18]. Dans le cas bidimensionnel (2D), les coefficients d‟ondelettes sont obtenus par application de la transformée en ondelettes (1D) sur les deux dimensions du signal à chaque niveaux de décomposition (lignes puis colonnes pour les images numériques). Alors, après k niveaux de décomposition on obtient 3k parties (sous bandes) de coefficients hauts fréquences ou détails (à chaque niveau trois détails sont obtenus horizontales, verticales et diagonales) et une partie de basses fréquences appelée approximation ou bande de base. C‟est ce que l‟on appelle habituelle l‟analyse multi résolution. Il s‟agit de l’application de l’algorithme de Mallat. Le principe est de décomposer un signal en une approximation, appelée également la bande de base ou basse fréquence (L en anglais de „‟low‟‟), et en ses détails ou composantes hautes fréquences. La même opération est réitérée, toujours sur l‟approximation uniquement, jusqu‟à l‟obtention de la résolution souhaitée. S‟il s‟agit d‟une image nous aurons un signal 2D. Dans ce cas chaque niveau de décomposition sera obtenu en deux étapes.

Conclusion générale

L’objectif de la compression d‟image est de réduire la taille et de l’économiser l’espace disque. Dans ce travail, nous avons étudié différentes méthodes de compression d‟images Cependant, les algorithmes de compression sont spécifiques à certains types d‟image, tels que les fichiers image, que nous avons vus dans notre projet de fin d’étude. Dans le premier chapitre nous avons étudié les notions d‟image. Nous avons cité les caractéristiques d‟image et leurs différents types comme PNG, GIF et Tiff et jpeg . Dans le deuxième chapitre nous avons étudié les différents méthodes de compression sans et avec perte d‟informations nous avons présenté les algorithmes de compression suivante : algorithme de Huffman, Shannon Fano, arithmétique, RLE, LZW, jpeg, jpeg2000 et fractal. Dans le dernier chapitre grâce aux différentes fonctions prédéfinies sur MATLAB nous avons fait une étude de performance de la technique de compression JPEG 2000 par rapport à JPEG avec différents conditions de compression. Enfin, d‟âpres les études qu‟on a fait dans notre projet expérimental de fin d‟étude nous déduirons que le domaine de la compression reste encore un sujet de recherche, et le but est d‟arriver à une compression optimale en terme de temps de compression, de taux de bits et en terme de qualité de l‟image reconstruite est toujours en course. La transformation en ondelettes reste une méthode à développer et à améliorer afin d‟atteindre de meilleurs résultats par rapport à ce qui existe déjà.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport gratuit propose le téléchargement des modèles gratuits de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale
Chapitre I : N o t i o n s d ’ i m a g e
I.1 Introduction
I.2 Définition de L’image
I.3 Image numérique
I.4 Caractéristiques d’images
I.4.1 Pixel
I.4.2Dimension
I.4.3 Résolution
I.4.4 Bruit
I.4.5 Histogramme
I.4.6 Contours et textures
I.4.7 Luminance
I.4.8 Contraste
I.4.9 Images à niveaux de gris
I.4.10 Images en couleurs
I.5 Types d’images
I.5.1 L’image vectorielle
I.5.2 L’image Bitmap (matricielle)
I.6 Les types de formats d’image
I.6.1 BMP (bitmap)
I.6.2 PNG (Portable Network Graphics)
I.6.3 TIFF (Tagged Image File Format)
I.6.4 GIF (Graphics Interchange Format)
I.6.5 JPEG (Joint Photographic Experts Group)
I.7 Conclusion
Chapitre II : La différente méthode de compression
II.1.Introduction
II.2 Définition de la compression
II.2.1 Compression physique et logique
II.2.2 Compression symétrique et asymétrique
II.3 Concepts de compression
II.3.1Compression avec pertes
II.3.2 Compression sans perte
II.4 Les différentes méthodes de compression
II.4.1 Codage Huffman
II.4.1.1 Principe de la méthode
II.4.1.2 Exemple de codage Huffman
II.4.2 L’algorithme de Shannon-Fano
II.4.3 Le codage arithmétique
II.4.3.1 Procédure de codage arithmétique
II.4.4 RLE (Run Length Encoding)
II.4.4.1 Algorithme de compression
II.4.4.2 Algorithme de décompression
II.4.4.3 Caractéristiques de compression
II.4.5 La méthode LZW (Lempel Ziv Welch)
II.4.6 La compression JPEG
II.4.6.1 Principe de compression du JPEG
II.4.6.2 Utilité et caractéristiques de la compression JPEG
II.4.7La compression JPEG 2000
II.4.7.1 Fonctionnement général du JPEG2000
II.4.7.2 Prétraitement ou Traitements préliminaires
II.4.7.3 Transformée en ondelettes
II.4.7.4 Implémentation par banc de filtres
II.4.8 Compression par fractales
II.5 Conclusion
Chapitre III : Implémentation et résultat
III.1 Introduction
III.2 Définition de Matlab
III.3 L’interface de programme d’application MATLAB (API)
III.4 Exécution de notre projet
III.5 Description de l’interface graphique
III.6 Analyse des résultats
III.6.1 Analyse des résultats à travers la table au-dessus
III.6.2 Analyse des résultats à travers du première table
III.6.3 Analyse des résultats à travers du deuxième table
III.6.4 Analyse des résultats à travers du troisième table
III.6.5 Analyse final
III.7 Conclusion
Conclusion générale
Références bibliographiques

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *