Architecture du système de production et de diffusion d’objets multimédia

Télécharger le fichier pdf d’un mémoire de fin d’études

Les standards du multimédia[4]

Les grandes familles de normes H.32x sont des concepts élaborés par l’UIT (Union Internationale des Télécommunications). H.323 est el premier à permettre l’inter fonctionnement des réseaux d’accès tels RNIS, ATM, réseau IP et réseau téléphonique ainsi donc, fonctionnant dans des réseaux à commutation de paquets sans garantie de bande passante (Ethernet). Ces familles de normes sont des ensembles de recommandations définissant les caractéristiques de traitement d’informations audio et vidéo. A l’intérieur de ces familles, on trouve les caractéristiques des différents composants :
· Pour la transmission de la vidéo, les normes de lasérie H 26x.
· Pour la transmission du son, les normes de la sérieG 7xx.
· Pour le travail coopératif, les normes de la sérieT12x.
· Pour le multiplexage, les normes de la série H 22x.
· Pour la signalisation et la gestion des communications, les normes des séries H.23x- H.24x et I et Q.
Et actuellement, le groupe ISO/MPEG (International Standardisation Organisation / Moving Pictures Expert Group) cherche à englober ce s différents traitements multimédia par une norme universelle MPEG-4 largement supérieure à H.323 pour des faibles débits.
Les codeurs issus de ces groupes de normalisation reposent sur des principes de base commune, mais diffèrent de par leur configuration choisie en fonction de l’application.

La compression de l’image [10] [11] [12] [13]

La compression des images permet une utilisation plus économique des données images car plus la taille de celles-ci diminue, plus le coût du stockage se réduit. La transmission sur les canaux existants des données comprimées est plus rapide qu’on peut les exploiter dans la transmission temps réel sur les réseaux de télécommunication.

Principes de compression

On peut différencier le codage « INTRA » de l’image, c’est à dire le codage de l’intérieur de l’image qui permet de réduire la redondance spatiale et le codage « INTER » de l’image qui permet de réduire la redondance temporelle du signal.

Codage « INTRA » image

Ce type de codage s’agit de l’extraction de l’infor mation pertinente au plan spatial qui est utilisé conjointement dans un schéma complet de codage. Il existe différentes méthodes de compression :
la méthode avec pertes ou irréversible qui modifient plus ou moins la valeur des pixels. Elle exploite le fait que l’œil n’est pas sensible à certaine dégradation et ne peut distinguer les (256)3 couleurs. On peut alors quantifier l’image.
la méthode sans perte ou réversible appelée aussi méthode« entropique ». Elle se base sur la redondance statistique. Les approches V.L.C (Variable Length Coding) attribuent des codes courts aux symboles fréquents et des mots longs aux symboles de probabilité d’apparition plus faible. L’entropie détermine la limite inférieure du nombre moyen de bits nécessaires pourcoder les symboles de probabilité donnés. Elle est donnée par la relation : N H (S )∑ p(si ) log 2 ( p(si )).
Où : N désigne le nombre de pixels de l’image.
p(si) est la probabilité d’apparition de chaque symbole.
Pour obtenir de meilleurs résultats, les deux méthodes sont exploitées conjointement dans les algorithmes de compression. Par exemple, l’algorithme de compression JPEG (Join Photographic Experts Group) comprend les étapes successives suivantes :
– la décomposition en bloc : l’image est décomposée ne plusieurs blocs ayant généralement une structure de 8×8 pixels chacun. Lamatrice de 64 entiers est notée f(x,y).
– la transformation DCT (Discrete Cosinus Transform) : c’est une transformation linéaire bidirectionnelle permettant de passer du domaine temporel au domaine fréquentiel.
Elle est appliquée à chaque bloc de 8×8 pixels ayant pour effet de regrouper dans une zone restreinte toutes les valeurs significatives et représentatives de l’image, le reste étant affecté par des valeurs nulles. Le résultat donne ieul à un nouveau bloc de 8×8 coefficients fréquentiels disproportionnés.
– La quantification : elle représente l’étape non conservatrice de la compression. Elle réduit le nombre de bits nécessaires au stockage del’image. Elle réduit alors chaque valeur de la matrice DCT en la divisant par un nombre appelé quantum fixé par une table de quantification et en arrondissant la valeur obtenue.
– Le balayage en zigzag : il permet de parcourir les éléments en commençant par les basses fréquences. Comme la matrice contient beaucoup de composant hautes fréquences nulles, cela va engendrer de longues suites de ‘0’ consécutives.
– Le codage par plage : il permet de tirer profit des longues suites de coefficients identiques obtenues. Ils sont répertoriés sous forme de couple (nombre, valeur).
– Et le codage entropique : c’est une méthode de compression conservatrice. Il s’accompagne des modèles statistiques qui calculent la probabilité du symbole à coder.

Présentation du format MP3

Un format de compression de données audio est le MP3 « MPEG Audio layer 3 ». Il a été développé par l’organisation de standardisation internationale (ISO). Ce format permet de compresser à un taux de 1:12 les formats audio habituels (WAV ou CD audio).La compression mp3 exploite la destruction de donnéesaudio n’altèrant que faiblement le son pour l’oreille humaine.
En fait la compression MPEG layer 3 consiste à reti rer des données audio les fréquences inaudibles pour l’auditeur moyen dans des conditions habituelles d’écoute. La compression vise donc à analyser les composantes sp ectrométriques d’un signal audio, et de leur appliquer un modèle psychoacoustique pour ne conserver que les sons « audibles ».
L’oreille humaine est capable de discerner, en moyenne, des sons entre 0.02kHz et 20kHz, sachant que sa sensibilité est maximale pour des fréquences entre 2 et 5kHz (la voix humaine est entre 0.5 et 2kHz), suivant une courbe donnée par la loi de Fletcher et Munson.
La compression consiste à déterminer les sons que nous n’entendons pas et à les supprimer, il s’agit donc d’une compression destructive, c’est-à-dire avec une perte d’information. Pourtant, certains passages d’une musique ne peuvent pas être encodés sans altérer la qualité. Le mp3 utilise donc un petit réservoir de bytes qui agit en utilisant des passages qui peuvent être encodés à un taux inférieur au reste des données . Pour l’effet
stéréo, mp3 utilise la méthode du joint stéréo :rtainesce fréquences sont enregistrées e mono mais elles sont accompagnées d’informations complémentaires afin de restituer un minimum d’effet spatial. Ainsi, une minute d’un CD-audio (à une fréquence de 44.1 kHz, 16 bits, stéréo) ne prendra qu’un seul Mo, une chanson fait donc en moyenne 3 ou 4 Mo.
Une fois l’opération de compression et de codage effectuée, on peut alors commencer la transmission de l’information à traver s le réseau. On est amené à penser que ce sera pareil au réseau traditionnel pourtant, lescommunications multimédias sont assez exigeantes. Les débits requis sont hétérogènes (uneapplication peut ouvrir trois connexions simultanées : l’une pour la vidéo, l’autre pour le son et la troisième pour la signalisation) ainsi que les contraintes temporelles des informations échangées. Garantir un bon acheminement sans erreur sémantique ou temporele des informations dépend de plusieurs facteurs dont principalement du réseau.

Les accès par câble

Une autre solution pour obtenir un réseau à haut débit est d’utiliser CATV (Community Antenna TV) dont la bande passante dépasse facilement les 800 MHz. Cette technologie est basée sur la technique de multiplexage en fréquence : sur la bande passante globale, une division en sous canaux indépendants les uns des autres est réalisée. Cette solution présente l’avantage de pouvoir optimiser ce qui est transmis sur chaque canal puisqu’ils sont tous indépendants et donc l’accessibilité facile au multimédia. Mais sa faiblesse réside dans le multiplexage en fréquencequi n’utilise pas au mieux la bande passante et qui ne permet pas la réelle intégrationdes différents services qui transitent dans le CATV. Les médias sont transportés sur des bandespassantes parallèles et non sur une bande unique.
La liaison par fibre optique a été développée pourpermettre un transport de trafic à très haut débit. Si au début elle a été surtout liséeuti pour les réseaux à longue distance, plus récemment on peut l’utiliser pour l’interconnexion des sites d’entreprise aux réseaux des opérateurs. Cette liaison utilise la techniquede multiplexage en longueur d’onde WDM (Wavelength Division Multiplexing). Son débit peut atteindre jusqu’à 200 Gbit/s sur des dizaines de kilomètres sans répéteur.
Cette dernière s’est plutôt avérée onéreuse, alorsun système hybride a été conçu : le HFC (Hybrid Fiber / Coax). Il associe une partie en fibre optique entre les têtes de réseau et le début de la desserte par le CATV. Celapermet d’atteindre des débits de l’ordre de 5 Gbit/s.

Les réseaux de transit

Ils sont surtout caractérisés par les systèmes deommutationc utilisés, les systèmes de transmission qui sont mis en œuvre (terminaux a ux extrémités, modulateurs,…) et la topologie.

Ethernet et le multimédia

Les réseaux de données se composent traditionnellement d’un réseau local LAN sur lequel sont rattachés les équipements terminaux oupostes clients, de commutateurs ou routeurs et d’un réseau distant WAN composé de liaison de données qui interconnecte les différents sites. Le protocole de transport de données actuellement le plus largement utilisé est IP.
Ethernet est la technologie LAN la plus commune qui utilise historiquement des câbles coaxiaux ou des paires torsadées pour des débits de transmission de 10 Mbit/s ou 100 Mbit/s (Fast Ethernet) et plus récemment 1 Gbit/s (Gigabit Ethernet).
Bien qu’Ethernet n’a pas été conçu pour les applications multimédias, pour se mettre à niveau et entrer dans le domaine du multim édia il a dû se transformer. Cette mutation concerne essentiellement l’Ethernet commuté. Pour réaliser les applications multimédias, l’IEEE (Institute of Electrical Electronical Engineers) a introduit une priorité de traitement des trames dans les commutateurs. Les trames sont placées en tête des files d’attente de telle sorte que les applications isochrones, comme la parole téléphonique, soient réalisables sur une grande distance. On choisit de préférence des trames de la plus petite taille possible : 64 octets, contenant 46 octets de données.
Avec une technique de contrôle de flux particulier permettant de ne pas perdre des trames en utilisant d’une façon efficace les priori tés, le transport de la parole ainsi que la vidéo temps réel devient réalisable sur les réseauxEthernet.

La solution offerte par ATM

ATM Asynchronous Transfert Mode est défini par lesopérateurs pour être le réseau à intégration de service du futur pour le transport de la téléphonie, de la télévision et des données informatiques. Il est utilisé dans les cœurs de réseaux IP et les points d’interconnexion, les cœurs des réseaux voix (GSM) et le transport sur les lignes ADSL.
En effet, cette technologie a été étudiée dans leadrec du développement du RNIS large bande. Elle voit ses caractéristiques fortement conditionnées par le transfert de flux continu tel que la voix ou la vidéo. Ce dernier point a été déterminant dans le choix de la taille des unités de données. En traitant des unités de données de taille réduite et fixe, les temps de traitement sont considérablement réduitsLeur. commutation est alors assurée non plus logiciels ce qui autorise des débits de plusieurs centaines de Mbit.

Architecture d’ATM

ATM est le système de commutation la plus simple et la plus rapide. Les paquets utilisés sont de taille fixe de 53 octets dont 48 d’informations et 5 d’en-tête. L’utilisation de petites cellules de taille fixe permet un routage matériel efficace, il est alors plus facile de garantir une meilleure qualité de service. La taille fixe facilite l’allocation de la bande passante et une petite cellule ne bloque pas longtemps une ligne.
La couche AAL (ATM Adaptation Layer) est divisée en4 adaptations spécifiques dépendant de l’application.
– AAL1 : transfert isochrone (voix).
– AAL2 : transfert isochrone à débit variable controlé.
– AAL3/4 : transfert de données sans contrainte temporelle.
– AAL5 : simplification de AAL3/4.

Architecture protocolaire de H.323

Avec H.323, l’UIT a spécifié un environnement complet de protocoles de communication multimédias pour les réseaux IP. L’interfonctionnement avec les autres réseaux est garanti car des standards apparentés ont été conçus : H.320 pour le RNIS et H.324 pour le réseau téléphonique analogique. H.323est supporté par la quasi-totalité des constructeurs et c’est pour cette raison qu’il est très largement utilisé comme protocole d’interfonctionnement même si d’autres standards comme le SIP (Session Initiation Protocol) ou le MGCP (Media Gateway Control Protocol) ont été élaborés.

Le couple RTP/RTCP

RTP ou Real-time Transport Protocol a été conçu pour résoudre les problèmes de prises en charge des applications temps réel à Internet. Les services fournis par RTP consistent dans la reconstruction temporelle, la détection de pertes, la sécurité et l’identification du contenu. Si, à l’origine, il a été conçu pour des données temps réel multicast, actuellement il est aussi utilisé pour faire de l’unicast. Il peut également être utilisé pour le transport dans une seule direction comme la VoD (Video on Demand) mais aussi pour des applications interactives telles que la téléphonie à travers Internet :
– RTP fournit des services de bout en bout pour des applications qui nécessitent un temps réel comme l’audio et la vidéo interactive. ependant,C RTP ne fournit aucun mécanisme pour assurer la délivrance à temps. RTP nécessite le support des couches plus basses qui ont le contrôle sur les ressources dans les « switchs » et les « routeurs ». RTP dépend de RSVP (Resource reSerVation Protocol) pour la réservation des ressources et pour fournir la QoS demandée.
– RTP n’assume rien en ce qui concerne les couches inférieures, excepté qu’il fournit le tramage. RTP tourne typiquement au-dessus de UDP qui permet le multiplexage et le checksum. Des efforts ont été réalisés pour rendreRTP compatible avec d’autres protocoles de transport comme AAL-5/ATM et IPv6.
– Contrairement aux transmissions de données classiques, RTP n’offre pas de contrôle de flux ou de congestion et est un service non fiable. Il offre une horloge de temps, un séquencement comme moyen pour permettre aux applications de faire du contrôle de flux et de congestion.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Chapitre 1 : GENERALITES
1.1. Historique
1.2. Définition
1.3. Caractérisation du domaine multimédia
1.3.1. Les images fixes
1.3.2. Le son
1.3.3. La vidéo
1.4. Les applications et services
1.4.1 La pluridisciplinarité
1.4.2. Les services
Chapitre 2 : LA COMPRESSION ET LE CODAGE NUMERIQUE
2.1. Les standards du multimédia
2.2. La compression de l’image
2.2.1. Les normes
2.2.2. Principes de compression
2.2.2.1. Codage « INTRA » image
2.2.2.2. Codage « INTER » image
2.2.3. Type d’image dans MPEG
2.3. La compression du son
2.3.1. Les normes
2.3.2. Principes de compression
2.3.3. Présentation du format MP3
Chapitre 3 : LE RESEAU
3.1. Les réseaux d’accès
3.1.1. Les paires métalliques
3.1.2 Les accès sans fil
3.1.3 Les accès par câble
3.2. Les réseaux de transit
3.2.1 Ethernet et le multimédia
3.2.2. La solution offerte par ATM
3.2.2.1. Architecture d’ATM
3.2.2.2. Les services
3.3. Architecture des protocoles
3.3.1 Le modèle de référence
3.3.2. Architecture protocolaire de H.323
3.3.3. Le couple RTP/RTCP
3.3.4. Le protocoleRSVP
3.3.5. Les CODEC
3.3.6. Les autres protocoles de signalisation
3.4. La diffusion sur un réseau IP
3.4.1. Le principe de base d’un réseau IP
3.4.2. La diffusion unicast
3.4.3. La diffusion broadcast
3.4.4. La diffusion multicast
Chapitre 4 : OPTIMISATION DU RESEAU
4.1. Les contraintes de qualité de service
4.1.1. La qualité de la transmission
4.1.2. La synchronisation
4.1.2.1. Concept de flux
4.1.2.2. Définition
4.1.2.3. La synchronisation Intra-flux
4.1.2.4. La synchronisation Inter-flux
4.2. Gestion des files d’attente
4.2.1. Algorithmes de placement dans une file
4.2.1.1. Leaky-bucket
4.2.1.2. Token-bucket
4.2.2. Dimensionnement des files
4.3. Le protocole de contrôle
4.4. Optimisation de la bande passante
4.4.1. Gestion équitable de la bande passante
4.4.2. Stratégie d’allocation
4.5. La solution du Streaming
4.5.1. Définition
4.5.2. Le protocole RTSP
Chapitre 5 : DEVELOPPEMENT D’UN SITE DE E-LEARNING
5.1. Définition
5.1.1. Qu’est-ce que le « E-learning » ?
5.1.2. Les objectifs du « E-learning »
5.2. L’élaboration du site
5.2.1. Architecture du système de production et de diffusion d’objets multimédia.
5.2.2. Choix des logiciels et description de la station de travail
5.2.2.1. RealProducts
5.2.2.2. Le serveur Web Apache
5.2.2.3. Station de travail minimale requise
5.3. Essais et évaluations
5.3.1. Configurations matérielles et logicielles
5.3.1.1. Configuration de RealProducer
5.3.1.2 Configuration de Helix Server
5.3.1.3. Configuration matérielle
5.3.2. Le déroulement de la diffusion
5.3.2.1 Configuration du serveur de Chat
5.3.2.2. Restriction des usagers par authentification
5.3.2.3. Programme de développement du site
5.3.3. Evaluations et perspectives
Conclusion
ANNEXE 1 : Les fichiers d’extension
ANNEXE 2 : La transformation en Cosinus discrète
Bibliographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *