Généralités sur les techniques de transmission et principe de l’accès multiple

La dernière décennie du XXe siècle aura coïncidé avec l’avènement de l’Internet, qui est même venu supplanter le trafic de voix en matière de volume de données échangées. L’explosion du nombre d’utilisateurs connectés au réseau et des nouveaux services requérant de hauts débits de transmission a clairement mis en évidence la limitation des réseaux actuels, basés sur l’emploi de paires de cuivre torsadées ou coaxiales. Les systèmes basés sur la fibre optique à haute capacité se sont répandus et les différents services d’origines diverses concentrés dans ce média de transport forment un signal appelé multiplex. Pour conserver l’intégrité de chaque service sur le canal, le multiplexage introduit, entre les services, une séparation temporelle, par code, spatiale ou fréquentielle, techniques héritées des systèmes radio-mobiles de première et seconde générations.

Problématique de l’accès multiple pour les réseaux hertziens 

Dans les années 1970-1980, les systèmes radio-mobiles analogiques de première génération (1 G) font leur apparition dans les voitures. Ils occupent de grands volumes, sont dispendieux et possèdent une couverture limitée [1]. Ils s’appuient sur la technique d’accès à répartition en fréquence FDMA (Frequency Division Multiple Access) où chaque signal occupe une sous-bande différente et Je récepteur peut discriminer le signal qui lui est destiné par filtrage [2, 3]. Cette méthode permettait ainsi à plusieurs utilisateurs de partager la même fréquence radio dont la bande passante était divisée en un certain nombre de sous-bandes contigües attribuées aux utilisateurs. Forte de son succès. la FDMA fut transposée dans la téléphonie mobile analogique tel que le service avancé de la téléphonie mobile (Advanced Mobile Phone Service: AMPS) aux USA ou le système cellulaire d’accès total (European Total Access Cellular System : ETACS) en Europe. Ces réseaux, qui ne permettaient pas de garantir la confidentialité des communications, ont été par ailleurs vite saturés, car un inconvénient majeur de cette technique est que les puissances des différents signaux émis s’additionnent et risquent de saturer l’amplificateur de sortie. Avec le passage de l’analogique au numérique sont apparues des nouvelles techniques d’accès multiple dans les systèmes cellulaires de la seconde génération (2G); la répartition des ressources en fonction du temps TDMA (Time Division Multiple Access), dans laquelle les utilisateurs partagent la même bande passante et émettent les données à transmettre dans les différents intervalles de temps qui leur sont spécifiquement alloués [3, 4]. Le récepteur peut alors séparer les utilisateurs par une fenêtre temporelle (“gating”). L’exemple de l’utilisation de ce système est le réseau cellulaire numérique Européen GSM développé par l ‘ETSI en 1990, qui constitue le premier système cellulaire entièrement numérique dans le monde. Un concurrent alternatif, qui a émergé en 1993 et a été standardisé sous la norme IS-95, est la répartition des ressources par l’addition d’une “signature ” à chaque utilisateur du réseau afin d’assurer leur identification, dans la mesure où tous les signaux des utilisateurs occupent la totalité de la bande simultanément [ 5]. La signature est généralement réalisée à l’aide d’un code pseudo-aléatoire. Ceci justifie l’appellation d’accès multiple par répartition de code CDMA (Code Division Multiple Access). L’utilisation de tels codes a pour conséquence l’accroissement important de la bande passante utilisée par rapport à celle qui était nécessaire pour transporter uniquement l’information. C’est pourquoi on désigne également ce type de multiplexage comme Accès multiple à étalement de spectre.

Les systèmes de CDMA possèdent beaucoup d’attributs distinctifs qui motivent beaucoup de fournisseurs pour considérer l’utilisation de cette technique dans leurs systèmes [5, 6]. L’avantage le plus immédiat des techniques de CDMA provient de l’étalement de spectre du signal. L’étalement de spectre est une technique développée historiquement pour le cryptage : un signal étalé par une technique adaptée ne peut être repéré par balayage des fréquences, il ne peut être brouillé par émission d’un message qui interférerait (à moins que le signal interférant n’occupe lui aussi toute la bande), et de plus se confond avec le bruit “naturel” d’une transmission. Les performances d’un système à accès multiple de type CDMA sont e:;sentiellement conditionnées par le choix des codes. Les codes d’étalement doivent posséder de bonnes propriétés de corrélation pour réduire les interférences entre utilisateurs [7].

Implémentation des techniques d’accès dans les réseaux optiques 

Les avantages des techniques d’accès dans le domaine des radiofréquences ont incité les chercheurs et les techniciens des télécommunications à envisager leur importation dans le domaine optique et photonique. La fibre optique offre une grande largeur de bande pour effectuer les opérations d’accès multiples, permettant ainsi à plusieurs utilisateurs de communiquer simultanément [8]. Différentes techniques d’accès multiples, présentées ci-dessous, sont proposées pour profiter de cette largeur de bande : il s’agit de la répartition dans le temps (OTDMA), la répartition en fréquence optique ou en longueur d’onde (WDM), la répartition par codes (0-CDMA) ou un système hybride l9].

Multiplexage par répartition de temps en optique (OTDMA)

La technique OTDMA répartit plusieurs sources de données sur un canal segmenté par intervalles de temps. La totalité de la bande passante est allouée à tour de rôle aux signaux des différents utilisateurs.

Multiplexage en longueur d’onde (Wavelength Division Multiplexing) 

A l’inverse de la technologie OTDMA qui n’utilise qu’une seule longueur d’onde par fibre optique, la technologie WDM (Wavelength Division Multiplexing) met en oeuvre un multiplexage de longueurs d’onde [11). L’idée est d’injecter simultanément dans une fibre optique plusieurs trains de signaux numériques sur des longueurs d’ondes distinctes. Ainsi, si on mutiplexe N émetteurs (ou N longueurs d’onde optiques) au débit nominal R bit/s à l’émission, on obtiendra à la réception, après démultiplexage,

Le signal global de débit N R bit/s pour chacun des N émetteurs. La norme ITU a défini un peigne de longueurs d’onde autorisées dans la seule fenêtre de transmission 1530-1560 nm. Elle normalise
l’espace en nanomètres ou en Gigahertz entre différentes longueurs d’onde permises de la fenêtre 1.6 nm (200GHz) ou 0.8 nm (100 GHz), pour deux et quatre longueurs d’onde respectivement. La technologie WDM est dite dense (DWDM) lorsque l’espace utilisé est inférieur à 0.8 nm de longueur d’onde. Des systèmes à 0.4 nm et à 0.25 mn ont déja été testés et permettent d’obtenir des centaines de longueurs d’onde, on parle alors de Ultra Dense WDM. Les systèmes comportent aujourd’hui 8, 16, 32, 80 voire 120 canaux optiques, ce qui permet d’atteindre un débit de 20, 40, 80, 200 voire 400Gb/sen prenant un débit nominal de 2.5 Gb/s. L’accès multiple à répartition de longueur d’onde WDM repose donc sur Je plus ancien des procédés de multiplexage en fréquence dans la transmission hertzienne appélée FDMA. Ce multiplexage est fondé sur le découpage d’une bande de fréquences et l’allocation de chaque portion du spectre à un utilisateur différent.

Accès multiple par répartition de codes optiques (0-CDMA) 

Dans le cas de 1’0-CDMA, la durée de chaque bit de donnée est subdivisée en un certain nombre de crénaux temporels (moments ou “chips”) en multipliant directement les données par la séquence du code [12, 13]. C’est le principe de 1’0-CDMA temporel à séquence directe (DS/OCDMA), le nombre de chips correspondant à la longueur de la séquence de code. Les données codées de chaque utilisateur sont envoyées simultanément via une même fibre.

Aussi la manipulation des signaux 0-CDMA peut s’envisager soit de manière cohérente, soit de manière incohérente. Dans une approche cohérente les caractéristiques du signal optique mesuré sont 1′ amplitude et la phase. Il est coûteux de disposer d’un oscillateur local synchronisé à une fréquence de code optique de l’ordre du Gigahertz en réception. La plupart des études sur le CDMA optique portent sur les systèmes incohérents où la modulation d’intensité et la détection directe sont les moyens opérationnels pour moduler et détecter un signal optique. L’intensité étant une grandeur strictement positive, contrairement à l’amplitude complexe du champ, il est peu réaliste à court terme d’utiliser une modulation bipolaire [14, 15]. Cette contrainte rend a priori impossible l’obtention de codes orthogonaux stricts tels que ceux utilisés en radio-fréquence [7, 16]. De nouvelles classes de codes optiques sont alors proposées, les OOC (pour Optical Orthogonal Codes) [17] ou les séquences de codes premiers (prime codes) [18-20], déclinés dans de nombreuses variantes. L’objectif de ces codages optiques est d’obtenir une capacité de multiplexage maximum (i.e. un maximum d’utilisateurs), tout en préservant des propriétés d’autocorrélation et d’inter-corrélation limitant les interférences entre utilisateurs encore appelées interférences d’accès multiples (lAM). Le choix du type de code employé est évidemment lié à un compromis entre ces paramètres (21 ] .

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction Générale
1 Généralités sur les techniques de transmission et principe de l’accès multiple
1.1 Problématique de l’ accès multiple pour les réseaux hertziens
1.2 Implémentation des techniques d’accès dans les réseaux optiques
1.2.1 Multiplexage par répartition de temps en optique (OTDMA)
1.2.2 Multiplexage en longueur d’onde (Wavelength Division Multiplexing)
1.2.3 Accès multiple par répartition de codes optiques (0-CDMA)
1.2.4 Les codes optiques orthogonaux
1.2.5 Les codes premiers
1.3 Conclusion
Bibliographie
2 Les systèmes de détection multi-utilisateurs
2.1 Détection mono-utilisateur
2.2 Résultats numériques
2.2.1 Approximation gaussienne standard des interférences.
2.3 Récepteurs multi-utilisateurs
2.3.1 Détecteurs sous-optimaux linéaires
2.3.2 Détecteurs sous-optimaux soustractifs
2.3.2.1 Le détecteur par élimination successive des interférences (SIC)
2.3.2.2 Le détecteur par élimination parallèle des interférences (PIC)
2.4 Comparaison en termes de complexité des détecteurs
2.5 Performance en termes de taux d’erreur binaire
2.6 Conclusion
Bibliographie
3 Annulation parallèle des interférences par compensation
3.1 Introduction
3.2 Approximation de la probabilité du système
3.3 Analyse des performances en fonction des paramètres (a, seuil)
3.3.1 Optimisation du facteur de compensation a
3.3.2 Etude des performances du récepteur PIC linéaire compensé
3.4 Etude d’une structure avec amplification
3.4.1 Etude des performances du récepteur PIC avec amplification
3.4.2 Influence des deux facteurs combinés
3.5 Implémentation du traitement du PIC en temps réel
3.5.1 Le choix de la plateforme de développement
3.5.2 Implémentation des codes
3.5.3 Implémentation du corrélateur
3.5.4 Implémentation de l’étalement
3.5.5 Implémentation de la synchronisation
3.6 Conclusion
Bibliographie
4 Impact des éléments optiques sur les récepteurs
4.1 Introduction
4.2 Description d’une fibre optique
4.2.1 Atténuation
4.2.2 Principe de modélisation de la dispersion d’une fibre multi-modes
4.3 Impact de la dispersion sur le récepteur PIC avec compensation .
4.4 Influence de la photodiode
4.5 Conclusion
Bibliographie
Conclusion Générale

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.