LA PLATEFORME IP DVB-RCS, ARCHITECTURE ET EXPERIMENTATIONS

Télécharger le fichier pdf d’un mémoire de fin d’études

Les services de télécommunications par satellite

Initialement, le satellite n’était perçu que comme un relais entre deux points géographiquement distants. Les services de télévision et de téléphonie se réduisaient donc à des communications point-à-point exploitant peu la large couverture du satellite.
Depuis une quarantaine d’années et en raison des progrès technologiques considérables, (semi conducteurs, traitement du signal, puissance, lanceurs..) une mutation à dans deux directions, a vu le jour. Les satellites « rudimentaires » du début, se sont étoffés de composants de plus en plus sophistiqués et résistants. Ils ont ainsi vu leur taille croître. Le poids d’INTELSAT 1 ne dépassait pas les 68 kg pour une capacité de 480 canaux téléphoniques et une durée de vie d’environ un an et demi. Le satellite KA-SAT [2] offrira 500 Mbit/s et pèsera 5,8 tonnes pour une durée de vie estimée à 15 ans.
D’autre part, les stations terrestres très imposantes au départ se sont progressivement munies d’antennes de plus en plus réduites. Les antennes actuelles des récepteurs TV par satellite ne dépassent pas les 96 cm alors que 2 antennes de 30 m de diamètre étaient nécessaires pour la première transmission de télévision en direct avec TELESTAR.
La taille décroissante des stations terrestres a parallèlement entraîné leur coût à la baisse et permis leur vulgarisation auprès des professionnels tout d’abord et puis des particuliers.
Cette évolution a avantagé l’exploitation d’une des qualités intrinsèques des satellites : leurs larges couvertures et par conséquent leur habilité à collecter plusieurs signaux provenant de sources différentes et à les diffuser par la suite vers plusieurs destinations. Ainsi, il devint possible pour le satellite de recevoir des signaux issus de multiples stations terrestres avant de les transmettre à une seule station centrale traditionnellement appelée Hub ou Gateway. Inversement, il fut possible d’émettre depuis cette station centrale en direction d’un ensemble de stations terrestres situées dans la zone de couverture du satellite.
Une des conséquences directes et des plus visibles fut le succès de la télévision. Le satellite a permis aux chaînes de TV et d’informations de disposer d’une large audience affranchie des frontières géographiques. Le satellite apporte la possibilité d’atteindre un large public et fournit des services communément appelés DTH (Direct-To-Home). Pour les agences de presse, il est notamment devenu un moyen indispensable de collecte et d’échange de programmes et d’informations auprès des partenaires et des correspondants partout dans le monde.
En parallèle, d’autres types de services se sont développés comme la téléphonie par satellite Irridium [3], Globalstar [4] ou la diffusion de radio numérique DAB (Digital Audio Broadcasting [5]) ainsi que des communications mobiles (voix et données) pour des applications maritimes (INMARSAT[6]) ou militaires (SYRACUSE [7])
Notons au passage qu’un autre facteur de succès a été une libéralisation du marché des télécommunications et un assouplissement de la législation. Ceci à conduit à la multiplication du nombre des opérateurs et des fournisseurs de service par satellite attirés par le fort potentiel de croissance du marché.
Les réseaux ainsi constitués de points de collecte et de transmission de données et composé de petites stations sol ne tarderont pas à être désignés par réseau VSAT (Very Small Aperture Terminal). Appellation commerciale à l’origine, ce terme décrit une station terrestre conçue et commercialisée par Telecom General, une entreprise américaine. Son utilisation fut ensuite généralisée pour désigner toute station terrestre ayant une antenne de moins de 3 mètres. On dénombrait en 2003, 700 000 stations VSAT installées [8].
Le nombre de terminaux VSAT déployés dans le monde, l’évolution des technologies d’accès et de partage de bande passante, la révolution Internet et la mutation des comportements observée chez les usagers, sont tous des facteurs qui ont poussé à rendre ces terminaux interactifs. Initialement prévus pour la seule fonction de réception, doter ces terminaux d’une voie retour leur a permis d’émettre et recevoir de l’information sous plusieurs formes (voix, vidéo, données).

La fin des réseaux dédiés et l’avènement d’Internet

La fin des réseaux dédiés

Jusqu’au milieu des années quatre vingt-dix, les architectures de télécommunications suivaient le paradigme « d’intégration verticale ». Chaque service de télécommunication possède son propre réseau et surtout ses propres protocoles et normes tel que le GSM pour la téléphonie mobile, le Réseau Téléphonique Commuté (RTC) pour la téléphonie fixe, les réseaux X25 pour les données. Dans la même logique, le satellite avec son lot de technologies spécifiques acheminait essentiellement des services de télévision.
L’introduction graduelle de nouveaux services au sein de réseaux particuliers, tel que le fax en plus de la voix sur le réseau de téléphonie, les messages textes en parallèle aux appels GSM ainsi que le télétexte avec la diffusion télé, a permis de prendre conscience de la conception limitée qu’on avait des réseaux. En effet, cette vision entraîne non seulement des situations de monopole naturel mais aussi un usage systématique de technologies propriétaires compliqués à faire évoluer et encore plus difficiles à interconnecter. Les difficultés liées à l’hétérogénéité de ces réseaux découlaient essentiellement de l’association systématique qu’il y avait entre celle du service fourni et de la technologie du réseau utilisée.
Dé-corréler deux notions principales, les services -au sens contenu du terme- et réseau au sens -média de transmission- constitue un changement radical de la conception de ces derniers. Les acteurs du monde des télécommunications ont rapidement pris conscience qu’on pouvait quasiment transmettre n’importe quel type d’informations (voix, vidéo, données) sur n’importe quel support de transmission pour peu qu’on y apporte les adaptations nécessaires.
Ainsi et localement à chaque « catégorie » de réseaux on a observé l’éclosion d’un mouvement d’harmonisation des moyens de transmission de l’information et des interfaces inter-réseaux par l’adoption de protocoles communs ce qui conduit à la fin du cloisonnement entre fixe et mobile, terrestre et satellite.

L’avènement d’Internet

Parallèlement à ce mouvement d’harmonisation, l’avènement d’Internet est venu conforter les acteurs dans la nouvelle conception qu’ils avaient des réseaux.
Internet plus qu’une simple infrastructure pour le transfert de l’information, est venu confirmer la suprématie d’une conception de réseau en couches virtuellement superposées. L’adoption d’un « modèle en couches » définie chacune autour d’un ensemble de protocoles permet à chaque niveau de s’extraire aux difficultés soulevées et résolues par les niveaux inférieurs. L’avantage est de limiter l’étendue du problème que chaque entité du réseau de transport devra traiter. Plus particulièrement, on réduit l’étendue de l’impact que pouvaient avoir sur les données véhiculées, les caractéristiques physiques du réseau de transport qu’il soit terrestre ou satellitaire, filaire ou non.
Cette nouvelle architecture s’articule autour d’un concept central : la commutation par paquets. Fragmenter les flux de données en plusieurs paquets contenant chacun les informations nécessaires à leur routage confère un caractère discret au flux de données. Il permet leur entrelacement donnant, non seulement, l’impression à chaque source d’informations de disposer de l’ensemble des ressources, mais aussi, qu’une même ressource peut être utilisée par plusieurs communications simultanées.
Plusieurs solutions étaient en concurrence, le protocole IP l’a emporté en raison de sa souplesse. Une autre raison est une API (Application Programming Interface) simple d’utilisation qui facilite le développement d’applications et de services.
De plus en plus centré autour du protocole IP, ce modèle ouvert apporte la réplique à la croissance rapide du nombre de services hétérogènes à véhiculer sur Internet. Son efficacité résulte du pouvoir fédérateur du protocole IP et sa capacité à traiter des flux d’informations de nature différentes tout en permettant d’interconnecter des réseaux de nature hétérogène.

Une nouvelle infrastructure de télécommunications

Un mouvement de standardisation a graduellement pris sa place autour d’IP. Il a conduit à l’émergence de nouveaux protocoles des couches supérieures standardisant le transport en mode connecté ou non connecté selon les besoins applicatifs permettant le transfert de fichiers, de courrier électronique, de la voix ou de la vidéo.
Différents organismes de standardisation et de normalisation comme l’ETSI [10], IETF [11] en Europe ou la TIA [12] aux Etats Unis ont entamé un effort d’adaptation des couches dites basses, au transport de l’IP. L’objectif était clairement de pouvoir véhiculer de l’IP sur des réseaux de natures physiques différentes (fixe, mobile, câblés, sans fils…).
Ce mouvement d’harmonisation des protocoles de communications autour d’un format « universel » de paquets d’information débuté au milieu des années quatre-vingt-dix, a conduit à ce qu’on appelle aujourd’hui les réseaux de nouvelle génération ou NGN (Next Generation Neworks). Bien que dépourvus d’une définition unique, les NGN sont surtout l’illustration de la normalisation des interfaces et des protocoles de communication entre réseaux de natures physiques différentes. C’est aussi leur aptitude à véhiculer des services hétérogènes (voix, vidéo, data) en mode paquet. Une des conséquences les plus perceptibles, est la multiplication des offres de triple et même quadruple play proposées par les fournisseurs d’accès à Internet (Accès à Internet, Télévision, téléphonie fixe et même téléphonie mobile). La figure 1.2 est une illustration de ce mouvement de convergence centré autour de l’IP.
Ce qui se dégage essentiellement de cette définition est un ensemble de caractéristiques communes :
– Un réseau de commutation par paquets orienté vers le « tout IP » ;
– Le découplage des fonctions service et réseau de transport ;
– La garantie d’une qualité de service QoS des services fournis ;
– L’ubiquité et l’accessibilité de ces réseaux ;
La figure 1.3 décrit la segmentation établie entre les différents acteurs des réseaux NGN. La distinction entre le service et les réseaux y est clairement montrée. Il est à noter la séparation entre les réseaux de transit et d’accès. C’est aussi une preuve de l’importance que revêtent les technologies qui leur sont associées notamment l’ADSL ainsi que l’ensemble des technologies « radio » telles que le WiFi, Wimax et le satellite que nous étudierons précisément dans le cadre de cette thèse.

Le satellite comme composant de l’infrastructure NGN

Introduction

A ce jour, L’ADSL reste incontestablement la technologie dominante pour l’accès à Internet particulièrement pour des utilisateurs résidentiels ou des PME. Cependant, le satellite occupe largement sa place dans l’échiquier des technologies d’accès. Grâce à ses avantages intrinsèques, il comble les lacunes observées au niveau de l’ADSL ou des technologies radio comme le Wifi ou le Wimax.
Les offres d’accès à Internet par satellite qui se multiplient tous les jours et pour des prix équivalents à ceux de l’ADSL pour des débits semblables en sont une preuve [14]. Le succès des réseaux Internet par satellite tels que Twister [15] solution par excellence à la fracture numérique ou l’adoption du satellite par des entreprises pétrolières comme le moyen privilégié de connexion à Internet ou à leur site central en métropole pour leurs plateformes en haute mer ou dans le désert en sont d’autres.
L’usage croissant du satellite comme un relais de toutes les formes d’informations non restreintes à la diffusion vidéo est également perceptible chez les opérateurs. Le diagramme figure 1.4 montre l’occupation d’un transpondeur de l’opérateur Eutelsat à des périodes différentes de la journée. On y observe une répartition de charge entre données, audio et vidéo.

Avantages et utilisations des systèmes satellites

Le recours croissant au satellite pour acheminer des données, de la voix ou pour fournir l’accès à Internet en plus de son usage « traditionnel » comme un moyen de diffusion de la télévision est conforté par les avantages multiples qu’il procure.
Pour ce type d’utilisation, les réseaux sont majoritairement bâtis autour de satellites géostationnaires. Ces derniers présentent les avantages suivants :
Une infrastructure terrestre réduite; Une large couverture ;
Un déploiement rapide des terminaux.
Alors que le déploiement des réseaux terrestres ne peut être que progressif et doit garder une continuité physique, les réseaux satellites de part leur mode de transmission hertzien, ne requièrent pas la création d’infrastructures sur le domaine public. C’est aussi la raison pour laquelle ils s’affranchissent des frontières géographiques. Le caractère continental et parfois mondial des principaux opérateurs suffit pour s’en convaincre.
Les grandes zones de couverture des satellites, pouvant atteindre des continents entiers, combinées à une rapidité de déploiement en fait un moyen central pour la lutte contre la fracture numérique. Le projet DDSO (Digital Divide, the Satellite Offer) parrainé par la commission Européenne et piloté par Astrium [17] dédié à l’accès Internet pour zones rurales de plusieurs pays Européens confirme la position privilégiée du satellite dans ce domaine.
Les réseaux satellite offrent également un moyen d’interconnexion et de relais entre des réseaux terrestres (Internet) et des stations embarquées dans des bateaux, ou des voitures. Ils s’avèrent particulièrement utiles pour la collecte instantanée des programmes de télévision enregistrés sur le terrain, pour la téléphonie mobile récemment proposée en service commercial à bord des avions. Un autre atout du satellite est l’impact réduit que peuvent avoir les catastrophes naturelles (incendies, inondation, tremblement de terre) sur ses infrastructures. Ils peuvent en revanche causer des dégâts irréversibles aux réseaux terrestres. La facilité de déploiement et de maintien des réseaux satellites en font le meilleur et parfois l’unique moyen de communication en cas de sinistres, facilitant ainsi l’intervention des pompiers en cas d’inondation ou de tornades et celui des soldats en cas de conflits ou de guerres. Nombre de services, autres que la télévision, exploitent à l’heure actuelle la capacité naturelle de diffusion des satellites. Ce sont des moyens incontournables pour la diffusion de radio, de données telles que la météo ou les dépêches d’informations.
Une autre utilisation non moins importante mais moins connue du satellite est le « backhauling » consistant à transporter le trafic entre sites distribués ou entre deux réseaux de cœur aussi bien pour de l’Internet que pour la téléphonie. C’est notamment le cas à l’île de Madagascar où France Telecom connecte l’ensemble de l’île au réseau Internet mondial via un lien satellite de 2 Mbit/s.

Systèmes satellites bidirectionnels

Les avantages de l’utilisation des satellites que nous venons d’évoquer sont globalement communs à tous les systèmes. Toutefois, et selon les applications et les services proposés (téléphonie, transfert de données, télévision, renseignement militaire…) l’architecture du réseau et les caractéristiques des satellites mis en œuvre peuvent varier. Dans cette section, nous décrivons les caractéristiques principales des réseaux satellites destinées aux transmissions bidirectionnelles de flux IP.

Architecture générale

Un réseau satellite fournissant des services interactifs à haut débits, se compose de trois segments distincts (cf. figure 1.5)
– Le segment spatial qui consiste en un ou plusieurs satellites géostationnaires (GEO) assurant le relais, l’amplification et la transposition du signal transmis et selon les cas, du traitement à bord.
– Le segment utilisateur ou site distant ou terminal – l’appellation diffère selon l’usage- Ce sont les points d’accès au réseau global pour les utilisateurs finaux. Ces terminaux reçoivent les services multimédia auxquels ils sont abonnés, et transmettent du trafic ou des requêtes de bande passante via une voix retour qui peut être terrestre ou par satellite.
– Le segment opérateur, il est constitué d’une ou plusieurs Gateway ou passerelles pour former le NCC (Network Contrôle Center). Elle comporte généralement l’ensemble des connexions au réseau extérieur (Internet, téléphonie…)

Topologies

Deux principales topologies existantes. Le recours à l’une ou l’autre dépend de la taille du réseau (nombre de terminaux), des services proposés mais aussi des fonctionnalités embarquées ou non à bord du satellite

Réseau en étoile

Dans cette configuration la Gateway forme le lien entre les utilisateurs finaux situés au niveau des terminaux et les fournisseurs de services. Elle centralise l’ensemble des connexions vers le réseau Internet, le réseau de téléphonie mobile ou fixe. La passerelle assure notamment des fonctions de contrôle d’accès des terminaux, de synchronisation temporelle et d’allocation de ressources.
La plupart des satellites de télécommunication géostationnaires, en orbite actuellement, sont transparents puisque leur rôle consiste à amplifier le signal et transposer sa fréquence sans aucun traitement à bord. La majorité des réseaux en opération repose sur une topologie en étoile où tout le traitement « intelligent » (modulation, codage..) se fait au sol. Un des inconvénients de cette architecture est justement l’importance critique que revêt la passerelle ou le (NCC). En effet, une panne à ce niveau peut entraîner un dysfonctionnement global du réseau. Une autre faiblesse est que dans le cas d’une communication inter-terminaux tels que la voix sur IP, l’impact du délai sur la qualité est doublement ressenti en raison du double bond (sol-satellite) effectué par le signal.

Réseau maillé

Dans un réseau maillé ou Mesh, des communications « directes » entre terminaux sont possibles. Le temps de transmission est ainsi diminué de moitié. Dans le genre de réseau, le rôle de la passerelle ou du NCC, appelé parfois modérateur se restreint à la synchronisation temporelle et l’allocation de bande passante aux terminaux. Les connexions avec les réseaux extérieurs tels qu’Internet ou téléphonie peuvent être réparties sur plus d’un terminal.
Cette répartition des fonctionnalités critiques sur plusieurs terminaux qui peuvent dans l’absolu avoir tous le rôle de Gateway réduit considérablement la vulnérabilité du système. Toutefois, les réseaux Mesh requièrent des satellites performants disposant de fonctionnalités avancées telles que le routage et la commutation à bord.
En dépit des avantages qu’il apporte, ce genre de réseau n’est pas encore très répandu. Les satellites avec traitement à bord sur lesquels il repose ne sont toujours pas assez développés pour raisons techniques mais surtout pour des raisons de coûts. D’autre part, les terminaux Mesh incluant des fonctions avancées et donc onéreuses résistent peu au passage à l’échelle.
Il est toutefois possible de combiner ces deux topologies pour aboutir à des configurations mixtes de réseaux satellites. Le groupe de travail BSM (Broadband Satellite Multimedia) de l’ETSI distingue ainsi plusieurs familles de systèmes satellite combinant une topologie maillée et étoilée définis dans [18] ainsi que plusieurs types de satellite avec ou sans intelligence embarquée.

La couverture du satellite

La majorité des satellites de télécommunications actuellement en orbite assure une couverture mono faisceau. Conçus pour la diffusion de programmes TV, l’objectif était de s’étendre sur la zone la plus large possible puisque le même message est envoyé à tout le monde. Toutefois, le gain était limité par l’angle d’ouverture de l’antenne en plus d’une mauvaise utilisation du spectre de fréquences allouées. Ceci constitue une contrainte à l’augmentation du débit nécessaire à la transmission de services interactifs (Internet, VoIP, VoD…). Une couverture mono faisceau avec une petite ouverture d’antenne et donc concentrée sur une zone moins étendue apporte certes un meilleur gain mais ne permet pas de couvrir une multitude de terminaux géographiquement distants.
Les techniques multi faisceaux concilient ces deux solutions. La couverture du satellite est étendue par la juxtaposition de plusieurs faisceaux ou spots. Chaque faisceau offre ainsi un gain d’autant plus élevé que l’ouverture d’antenne est réduite. Ainsi, pour une taille d’antenne équivalente le terminal bénéficie d’un débit supérieur. D’autre part, avec un signal de meilleur gain, le recours aux bandes de fréquences élevées comme la bande Ka se trouve désormais simplifié. Cette technique permet notamment une multiplication virtuelle du nombre de fréquences en réutilisant la même fréquence sur des spots non adjacents pour un usage optimisé du spectre.
. Monofaisceau Monofaisceau Multifaisceaux
Néanmoins, un système multi faisceau pose des défis technologiques complexes résidants essentiellement dans les interférences qu’il pourrait engendrer entre différents spots en plus de la difficulté de la mise en place d’un système de saut de transpondeur (transponder hoppping) afin de permettre à une Gateway située dans un spot x d’émettre du trafic dans un spot y. Cette complexité a longtemps contraint le développement et la diffusion de cette technique qui existe pourtant depuis longtemps (Astra 1H est composé de 32 transpondeurs en bande Ka [19]). Elle arrive à présent à maturité et tend à être implantée sur un grand nombre de satellites de télécommunications en cours de fabrication. Le satellite KA-SAT dont le lancement est prévu 2010 par Eutelsat, totalisera 82 faisceaux différents en bande Ka dont chacun couvrira une zone de 250 km de diamètre (4 suffiront pour couvrir la France) [2]

Le traitement à bord

Le rôle des satellites transparents consiste à transposer la fréquence du signal reçu et amplifier sa puissance avant de le retransmettre. L’amplification du signal à bord du satellite permet le recours à des antennes de taille réduite en réception. En revanche, la transposition des fréquences minimise les risques d’interférences entre signaux montants et descendants
Une autre catégorie plus sophistiquée des satellites, dits régénératifs, consiste à embarquer des fonctionnalités avancées à bord (On Board Processing). Leur apport réside dans leur faculté de démoduler les signaux en bande de base, régénérer le signal, router ou commuter les paquets, les multiplexer avant de les retransmettre [20].
Le traitement embarqué permet de découpler le bruit introduit sur la voie montante et descendante ce qui réduit par ailleurs la taille des antennes des stations sols. Ce genre de satellites est particulièrement utile pour les réseaux maillés. On tend de plus en plus, du moins dans des projets expérimentaux, à embarquer de l’intelligence à bord du satellite. Le réseau expérimental Arethuse [21] disposait d’un processeur embarqué comprenant un démodulateur et décodeur multi-porteuses, du routage en Mesh et Star en plus de l’encapsulation ATM vers MPEG. Nous verrons d’une manière plus détaillée ces schémas d’encapsulation dans les chapitres qui suivent.
Les constellations de satellites opérant en orbite MEO ou LEO telles qu’Iridium, GPS, intègrent également de l’intelligence embarquée plus ou moins avancée en fonction du système. Toutefois, on observe que sur les 260 satellites -géostationnaires- de télécommunications civiles en 2008, excepté les satellites INMARSAT et Thuraya en plus de quelques charges utiles expérimentales, seulement 2% des satellites intègrent du traitement à bord [20]. Au moins à court terme, cette situation n’est pas amenée à changer. L’évolution permanente des techniques de codage et de modulation d’un côté et des technologies des microprocesseurs d’un autre pendant la durée de vie d’un satellite géostationnaire (entre 15 et 18 ans) remettent constamment en cause les systèmes de traitement à bord des satellites en orbite, en les rendant rapidement obsolètes. Les satellites régénératifs restent coûteux en raison de la complexité des systèmes (processeurs, redondances..) qu’ils embarquent d’autant plus qu’il serait difficile de mettre à jour un satellite géostationnaire à 36000 km de la terre.

Cadre de référence des systèmes satellites étudiés

Préambule

A l’instar des autres technologies d’accès, les efforts entamés pour adapter des protocoles du monde IP dédiés à la signalisation, à la gestion et au contrôle, par ailleurs largement éprouvés sur les réseaux terrestres, demeurent encore inachevés dans un contexte satellite. Les satellites GEO souffrent d’un large produit délai-bande particulièrement dommageable à l’efficacité d’un protocole comme TCP ; ce qui requiert la mise en place de moyens permettant d’en améliorer les performances sur satellite à l’exemple des PEP (Proxy Enhancing Protocol) [30]
D’un autre côté, les politiques de qualité de service IP comme le contrôle d’admission ou l’agrégation de flux nécessitent une interaction avec les mécanismes de niveau 2 afin de compenser une bande passante faible également caractéristique des réseaux satellite et parfaire une gestion de ressources trop grossière au niveau IP. L’ensemble des techniques de compression des en-têtes et des contenus de paquets apporte une contribution qui permet une économie de bande passante et minimise le surcoût provoqué par les encapsulations successives des paquets IP.

Le modèle architectural BSM fondé sur IP

A partir de ces constatations le groupe BSM (Broadband Satellite Multimedia) de l’ETSI [3] a décidé de définir un cadre architectural propice à l’intégration de ces protocoles et les adapter aux spécificités des réseaux BSM. Ce modèle architectural se veut générique et non spécifique à un système satellite particulier.
Ce cadre de référence n’exclut pas le recours à une architecture maillée avec un satellite régénératif [3,4]. Néanmoins, la plupart des réseaux IP par satellites en fonctionnement adoptent une topologie en étoile qui n’est sans doute pas sans relation avec le grand nombre de satellites transparents en orbite.
Par conséquent, on propose dans le contexte de ce travail de thèse de se restreindre aux réseaux satellite ayant les caractéristiques suivantes :
– Une topologie en étoile.
– Un satellite géostationnaire transparent donc un long délai de propagation terre-satellite de l’ordre de 250 ms.
L’architecture proposée dans la figure 2.1 a été définie dans le rapport TR 102 157 [3]. Elle définit ainsi une interface SI-SAP (Satellite Independent Service Access Point) entre les fonctionnalités indépendantes du système satellite sous-jacent et les fonctionnalités spécifiques au système satellite utilisé. Deux fonctions d’adaptation s’ajoutent. La première SIAF (Satellite Independent Adaptation Function) se situe en bas de la couche 3 pour adapter les protocoles de niveau 3 aux « services support BSM » et inversement. La seconde SDAF (Satellite Dependent Adaptation Function) opère en haut de la couche 2 pour adapter les « services support BSM » aux services offerts par l’interface air native. Ces « services support BSM » s’appuient sur des mécanismes de niveau 2 du système satellite sous-jacent. Ils offrent notamment des services orientés connexion ou non, uni- ou bidirectionnels et symétriques ou asymétriques (en bande passante, en QoS…) et des connexions unicast ou multicast. Les couches SLC et SMAC peuvent être apparentées au niveau de la couche 2 du modèle OSI et la couche SPHY au niveau 1.
Les niveaux 1 et 2 du modèle BSM regroupent l’ensemble des mécanismes spécifiques au satellite. Ils permettent la transmission du signal à travers un milieu bruité et organisent les accès à la bande passante entre les différents terminaux géographiquement dispersés.

Gestion et accès aux ressources aux niveaux des couches basses

Introduction

En comparaison à ce qui est offert par l’ADSL ou par la fibre, la ressource radio reste un paramètre non seulement limitant mais aussi coûteux pour les systèmes satellite. De surcroît, la transmission par satellite est caractérisée par une forte atténuation de l’espace et par une puissance plafonnée au niveau du transpondeur. S’ajoute aussi l’obligation de partager les ressources entre l’ensemble des utilisateurs du réseau. Toutes ces raisons justifient le besoin de recourir à des stratégies d’allocation, de partage et de gestion des ressources radio en vue de garantir une efficacité du système et assurer sa rentabilité économique.
Cette problématique s’étend à l’ensemble des niveaux protocolaires. Elle va de la qualité de service IP au contrôle de puissance du canal radio [5] Ceci étant et indépendamment des protocoles et des technologies sous-jacentes spécifiques à chaque système de transmissions bidirectionnelles par satellite, les mécanismes opérant au niveau 2 et 1, SLC, SMAC et SPHY au sens BSM, pour la gestion et l’allocation de la bande passante sont généralement similaires.
Nous exposons dans ce qui suit les principales techniques de gestion et d’allocation de bandes. Nous nous penchons notamment sur certains procédés mis en œuvre pour compenser les atténuations atteignant les liaisons satellite.

Accès aux ressources

La politique d’accès est le moyen qui organise le partage des ressources entre les différents utilisateurs du système. Elle leur permet d’émettre simultanément leur trafic (voix, vidéo, données) [5].
Il est toutefois nécessaire de distinguer le sens du trafic (montant ou descendant) dans le cas d’une topologie en étoile. En effet, les flux allant de la Gateway vers les terminaux partent de la même source vers des destinations multiples alors que dans le sens contraire ils sont issus de sources multiples mais vers une même destination (la Gateway).

Lien descendant

Dans ce sens du trafic, le flux suit un comportement typique d’un réseau de diffusion par satellite. La Gateway dispose d’une porteuse unique avec une large bande passante pouvant atteindre des dizaines de mégabits par seconde. Les différents types de flux (voix, vidéo, data), échantillonnés en plusieurs slots, suivent un multiplexage temporel pour former une porteuse TDM (Time Division Multiplex) qui s’étale sur toute la bande disponible.
Dans la zone de couverture du satellite, tous les terminaux reçoivent la même porteuse.
Toutefois, ils n’extraient que les trames qui leur sont destinées2.
Dans le cas où le satellite ne permet pas de couvrir toute la zone où sont situés les terminaux, plusieurs TDM, éventuellement émises par plusieurs satellites, peuvent être générées. Elles peuvent notamment opérer dans des bandes de fréquences différentes (C et Ku par ex.) si les conditions climatiques sont différentes d’une zone couverte.
Par ailleurs, et en raison de l’usage croissant des techniques multifaisceaux, le lien descendant peut comporter plusieurs porteuses TDM avec des bandes passantes plus réduites couvrant chacune un nombre moins important de terminaux.

Lien montant (Necessity dictates sharing)

Sur le lien montant, toutes les stations, dispersées géographiquement, émettent simultanément leur flux respectifs en utilisant le même canal radio. Devant ces accès multiples et en l’absence d’une politique qui organise les accès, les collisions entre différents trames émises peuvent sensiblement dégrader les performances du réseau d’autant plus que les délais de propagation sont élevés.
Les principales politiques d’accès sont CDMA, FDMA et TDMA mais aussi plusieurs combinaisons les associant.
Avec le CDMA (Code Division Multiple Access) les stations transmettent en permanence en utilisant la même fréquence. Le problème d’interférence est résolu à la réception par l’identification de la « signature » ou du code associé à chaque émetteur. Ces codes sont en général orthogonaux afin de faciliter la discrimination entre les différents signaux. Couramment utilisée par les militaires pour les propriétés de discrétion qu’elle apporte en étalant le spectre, cette technique est moins présente dans les systèmes satellites commerciaux actuels mis à part quelques applications spécifiques [6]. Son inconvénient majeur consiste en un débit faible : le spectre des fréquences porteuses est occupé par un débit qui reste faible pour une porteuse donnée [2].
Fréquemment utilisée pour les applications analogiques telles que la téléphonie ou la radio, la FDMA (Frequency Division Multiple Access) consiste en un partage du spectre des fréquences porteuses entre les différents utilisateurs. Le spectre est divisé en sous-bandes avec une fréquence porteuse pour chacune. Ainsi, les stations émettent en permanence et le canal achemine plusieurs porteuses simultanément. Des intervalles de garde entre les différentes porteuses sont nécessaires pour éviter les interférences et pallier les imperfections des filtres et des oscilloscopes.
En TDMA (Time Division Multiple Access), le canal est fragmenté en plusieurs tranches horaires couramment appelées Time Slot. L’émetteur dispose de la totalité du canal sur des courts instants. Ainsi un multiplexage temporel est effectué entre times slots en provenance de différents émetteurs et les stations transmettent leur flux d’une manière séquentielle. En raison de la dispersion géographique dans la zone de couverture du satellite, les délais de transmission en direction de la Gateway varient d’un terminal à un autre. Les stations ne découvrent le chevauchement des signaux qu’avec une latence significative due au délai terre-satellite de d‘environ 250 ms. C’est une perte non négligeable de quelques mégabits par seconde sur le canal. Afin de compenser les variations de transmission entre terminaux, une tranche de temps sans émission de trafic est insérée entre les times slots consécutifs et appelée temps de garde (Guard Time). Pour une variation de délai entre 250 et 290 ms, la différence de temps est d’un total de 80 ms pour le délai global (Round Trip Time). Un temps de garde de 80 ms entre deux slots consécutifs est une perte significative de bande passante [6]. La mise en place d’une procédure de synchronisation entre stations émettrices permet d’éviter les collisions des times slots et minimiser les temps de garde. Ceci constitue la principale difficulté de la mise en place d’un accès de type TDMA. La synchronisation repose sur l’existence d’une référence de temps dont la précision peut atteindre l’ordre de quelques nanosecondes (Plusieurs implantations reposent sur une référence GPS). Cette référence est diffusée périodiquement de la Gateway à l’ensemble des terminaux. Connaissant leur position, celle du satellite, les terminaux évaluent leur propre délai de transmission, le temps transmission satellite-Gateway étant invariable pour le terminal et connu de ce dernier.
D’autres politiques hybrides associant ces trois techniques de bases (FDMA, TDMA, CDMA) sont notamment utilisées. La méthode la plus couramment utilisée et largement éprouvée dans les réseaux satellite combine FDMA et TDMA pour un multiplexage simultané en temps et en fréquence appelé MF-TDMA (Multi Frequency Time Division Multiple Access). Cette méthode hybride (cf. figure 2.2) allie à la fois les avantages des deux méthodes d’accès et maximise le nombre d’usagers pouvant accéder au réseau satellite. Toutefois, un de ses principaux critères de performance réside dans l’aptitude des terminaux aux sauts de fréquences (Frequency Hopping), et donc de basculer d’une porteuse à une autre entre slots adjacents ou proches. Les temps de garde entre les times slots en plus des intervalles entre fréquences adjacentes représentent aussi des critères d’évaluation de l’efficacité de l’usage de la bande passante.

Allocation de ressources

Préalablement à l’accès au canal radio, l’utilisation de la bande, essentiellement sur le lien retour où la ressource est limitée, doit être régie par une autorité de contrôle qui veille à ce que l’allocation de la bande soit optimale et équitable entre les émetteurs. Par conséquent une fonction « administrative » est mise en œuvre pour répartir les ressources entre les différents terminaux. Ce partage dépend de plusieurs facteurs tels que le niveau de service établi avec chaque terminal (SLA), la disponibilité de la bande passante, les attributs de qualité de service spécifiée par les couches supérieures, la nature des applications transmises, la faisabilité, la rentabilité…
Les deux méthodes les plus courantes se fondent sur deux principes différents : allocation statique et allocation dynamique de ressources [2].

Allocation statique

Basée sur un niveau de service préétabli (SLA), la ressource est attribuée sous forme d’un débit ou d’un volume fixe dédié à chaque terminal et immédiatement disponible dès sa connexion au réseau. Cette allocation est indépendante des besoins instantanés de la station ainsi que de leur variation dans le temps. Cependant, elle garantit une disponibilité des ressources pour des applications à forte contraintes temporelles telles que la VoIP ou la télévision [5], en plus de la connaissance exacte dans le temps des ressources dont dispose le terminal.
Toutefois, elle peut s’avérer contraignante si la bande requise au terminal est supérieure à celle qui lui est allouée ou dans le cas où elle est sous-utilisée par les autres terminaux. En plus, elle ne prend pas en compte l’évolution des besoins en bande passante dans le temps qui peuvent excéder la quantité disponible. Aussi, demeure-t-elle peu efficace pour un passage à l’échelle puisqu’elle constitue un gaspillage de bande passante précieuse quand le nombre de terminaux croît.

Allocation dynamique

L’allocation de ressources varie dans le temps en fonction de l’évolution des besoins immédiats de chaque station désirant émettre ainsi que de l’ensemble des ressources disponibles.
Dans les systèmes satellite reposant sur un schéma d’accès MF-TDMA, le DAMA (Dynamic Assignment Multiple Access), protocole de niveau MAC, est le plus répandu pour des allocations dynamiques. Le DAMA attribue les ressources aux terminaux sur la base de requêtes explicites adressées par ces derniers. Cette fonction désignée notamment par RRM (Radio Ressource Allocator) qui peut également comprendre la fonction CAC (Call Admission Control)3 relève du rôle de la Gateway. Elle est responsable de la réception des demandes en bandes passantes émises par les terminaux. Elle établit l’allocation en fonction de la charge totale du réseau et la nature des flux à écouler (débit constant, bursty). Ensuite, elle organise l’accès aux porteuses retour en attribuant individuellement aux terminaux les times slots à utiliser pour émettre. Cette stratégie requiert l’existence d’une entité, désignée par RRR (Radio Resource Request), au niveau du terminal responsable de l’évaluation du volume du trafic à émettre avant de soumettre les requêtes. La littérature abonde de descriptions d’algorithmes DAMA [2,5,7,8,55]. Même s’il est un élément déterminant de l’efficacité d’un système satellite aussi bien d’un point de vue des performances que de l’utilisation de la bande passante, la liberté de son implantation est laissée aux concepteurs.
Il est communément admis que la première stratégie est recommandée pour les réseaux devant acheminer des volumes importants de trafic entre stations traitant des débits élevés tandis que la deuxième est adaptée pour un réseau avec un grand nombre de petites stations disposant de ressources limitées [2]. Cette affirmation reste tout de même relative au système considéré.
En effet, c’est là que le dimensionnement de trafic prend toute son importance puisque ce sont des décisions à prendre au cas par cas en combinant ces deux stratégies pour optimiser l’utilisation de la bande passante et satisfaire les contraintes de qualité de service propres à chaque stations. Cela reste largement dépendant de la taille, de la nature du réseau, du coût de la bande passante, des types de services et de leur répartition dans le volume global, du niveau de service établi avec le client pour chaque application mais aussi de celui décidé par l’opérateur en fonction de ses critères de rentabilité.
Par ailleurs, une troisième méthode d’accès aléatoire dite allocation avec contention existe. Cette méthode est adaptée aux réseaux à grand nombre de terminaux avec de longues périodes d’inactivité entre les transmissions [2]. Son principe est de permettre une transmission quasiment sans restriction pendant une durée limitée en occupant la totalité de la bande. Cette technique ne se prête pas à une garantie de qualité de service. En raison de l’accès aléatoire au canal, cette stratégie développe une tolérance aux collisions entre paquets et par conséquent la nécessité des retransmissions. Elle est lourdement pénalisée par les délais de propagation entre émetteurs et récepteurs terrestre. Néanmoins, son principal avantage réside dans la simplicité de sa mise en œuvre et son coût peu élevé [1]. Le protocole ALOHA [9] et sa variante Slotted ALOHA en sont des illustrations. Notons que cette méthode peut venir en complément aux précédentes pour certains types d’utilisations.

Le niveau physique et les techniques de contre-mesure (FMT)

Il ne s’agit pas dans cette partie de présenter ni de détailler les caractéristiques de la couche physique pour les liaisons satellites, sujet qui dépasse largement le cadre de ce travail. Nous considérons les techniques dont l’utilisation impacte directement la bande passante disponible et influe les décisions prises par les couches supérieures.

Pertes et atténuations sur le lien physique.

Au niveau physique l’ensemble des décisions (qualité de service, allocation de bande passante..) qu’elles soient optimales ou non ont déjà été prises et une séquence de bits doit donc être envoyée sur le lien radio. Toutefois, la qualité de service décidée par les couches protocolaires supérieures doit être préservée. Ainsi, préserver la qualité de service de la liaison physique revient à assurer un taux d’erreurs binaires BER inférieur à un certain seuil pendant une certaine de durée de l’année. C’est ce qu’on désigne par la disponibilité de la liaison.
En effet, et contrairement aux réseaux terrestres, où les pertes sont majoritairement dues à la congestion, les techniques de contrôle d’accès telles que le CAC, limitent fortement les pertes de ce genre. En revanche, les erreurs de bits dues à la nature bruitée du canal, provoquent des pertes au niveau paquets4. En effet, ces pertes sont loin d’être uniformément réparties. Les liaisons satellites observent des jeux d’erreurs en rafales, couplés à des erreurs ponctuelles plus classiques. Ces dernières pouvant être recouvrées plus facilement ; les pertes en rafales entraînent des pertes de paquets. Ces erreurs sont corrélées aux perturbations atmosphériques et aux atténuations pouvant atteindre le canal radio.
La fonction première du lien physique est donc celle de compenser les atténuations qui affectent le signal transmis avec des mécanismes qui sont certes transparents pour les couches supérieures mais en étroite relation avec les techniques d’accès et de partage de bande de niveau MAC. Le signal radio est d’autant plus sensible aux diverses conditions atmosphériques que les fréquences sont plus élevées.
Afin de compenser ces atténuations, une marge est ajoutée à la valeur requise du niveau de signal sur bruit et interférences évaluée lors du bilan de liaison. Elle sert à préserver la disponibilité du système. Deux approches peuvent être adoptées pour le choix de la marge. La première consiste à contrebalancer la dégradation du signal par une marge statique estimée en fonction des conditions de propagation du pire mois de l’année [10]. Il va sans dire que cette méthode représente un gaspillage significatif de ressources qui peut, toutefois, s’avérer incontournable dans le cas d’un service de diffusion TV (one way) pour des millions de récepteurs.

Techniques de contre-mesure (FMT)

La seconde approche consiste à adapter la valeur de la marge en fonction des pertes réelles subies par le signal radio. Cette méthode constitue le principe de base des méthodes de contre-mesures d’atténuations ou FMT (Fade Mitigation Techniques). L’objectif n’est pas de détailler ces techniques. Les études traitant du sujet sont nombreuses dans la littérature [10,11,12,13]. Il est surtout question de dégager l’impact qu’elles peuvent avoir sur la manière dont seront encapsulés les paquets des niveaux supérieurs. Les techniques FMT peuvent être répartie en trois catégories : contrôle de puissance, diversité et adaptation de la forme d’onde.
– Le contrôle de puissance : le but est de maintenir la valeur du signal sur bruit à une valeur constante. Ainsi, on fait varier la puissance de transmission de la porteuse en fonction de dégradations subies. Plusieurs variantes de cette technique on été développées [11].
– La diversité : il s’agit de modifier l’architecture de la chaîne de transmission en introduisant des éléments externes qui bénéficient de conditions de propagation plus favorables. Cela peut consister en un changement de site, de satellite, de temps ou de fréquence [11,12,14,15].

Adaptation de la forme d’onde (taux de codage et modulation)

Certes, les techniques précédentes permettent une haute disponibilité du lien mais induisent des coûts et une complexité non négligeables. Elles ne sont pas forcément adaptées à un contexte de transmission multimédia bidirectionnelle par satellite qui en plus des impératifs de coûts peu élevés exige une certaine stabilité de l’architecture du système. Afin de pallier ces contraintes, une troisième technique de contre mesure paraît plus attractive puisque elle tire avantage de la possibilité qu’ont les terminaux à émettre du trafic, en plus de celle d’en recevoir.
En effet, et en se fondant sur des informations passées ou quasi instantanées remontées par les terminaux sur la qualité du lien physique, on modifie dynamiquement la forme d’onde pour l’adapter au mieux au niveau du signal sur bruit plus interférence du terminal. Une forme d’onde adaptative consiste à varier un ou plusieurs de ses paramètres afin de s’adapter aux conditions de transmission et notamment au rapport signal sur bruit SNIR (Signal to Noise plus Interference Ratio). Concrètement et en fonction des conditions de propagation on fait varier la valeur de l’énergie émise par bit d’information qui se traduit par une variation de la valeur du signal sur bruit selon la formule ci-dessous.

Réduction du débit

Typiquement, on transmet à des débits élevés dans le cas de conditions favorables et à des débits plus faibles si les conditions de propagation sont mauvaises (atténuations). Les performances en puissance d’une forme d’onde sont liées à l’énergie transmise par bit utile Eb . Un moyen d’augmenter cette énergie consiste à considérer des bits avec une durée plus longue, un débit plus faible, tout en gardant un même niveau de puissance transmise.
Le débit est le produit l’efficacité spectrale5 par la bande selon la relation Rb * B . Le moyen de le réduire est d’agir soit sur la bande, soit sur l’efficacité spectrale. La chaîne de transmission est ainsi plus fiable suite à l’augmentation de l’énergie moyenne par bit utile même si le signal occupe une bande moins large par rapport au signal du départ car la durée du bit est plus longue.

Adaptation du codage et de la modulation

Dans ce cas, on fait varier les valeurs que peut prendre l’énergie par bit d’information Eb / N0 . Pour ce faire on agit soit sur le code correcteur d’erreur, soit sur la modulation du signal sachant que ces deux techniques sont souvent combinées.
Adaptation du codage canal: dans le cas de mauvaises conditions de transmission on ajoute des bits de redondances en modifiant le taux de codage. Ceci engendre une variation du débit utile transmis mais assure une transmission avec moins de bits erronés.
Adaptation de la modulation: en fonction du niveau d’atténuation subi par la liaison radio on fait varier l’ordre de la modulation (i.e. le nombre de bits par symbole). L’accroître permet de transmettre à plus fort débit tout en gardant une bande passante constante, toutefois au pris d’un Eb / N0 élevé. D’un autre côté, la réduction de ce taux de modulation permet de réduire la valeur requise de Eb / N0 , en cas d’affaiblissement, et donc de toujours garantir le bilan de liaison.
Faire varier le taux de codage et l’ordre de la modulation, souvent associés sous le vocable ModCod, implique des modifications sur le nombre de bits avant codage mais aussi sur la durée en symboles des trames de la couche physique. Ceci n’est pas sans incidence sur le nombre de trames MAC à encapsuler dans la trame physique. Cet aspect sera abordé dans le chapitre suivant mais surtout développé en étudiant l’efficacité d’encapsulation des paquets IP sur le format de trame MAC DVB-S2 [16] au chapitre VI.

Contraintes et solutions à la mise en œuvre de l’IP sur satellite

Les méthodes d’accès au support et les caractéristiques de la couche radio pour les liaisons satellite ne sont pas sans conséquences sur le comportement des protocoles de la pile IP. Les systèmes satellite, réseau sans fil par excellence, se distinguent par une bande passante réduite en comparaison à l’ADSL ou à la fibre optique. Ils souffrent notamment d’un produit capacité-délai élevé pondéré par un délai terre-satellite de l’ordre de 250 ms. Le caractère fortement bruité des liaisons radio et l’asymétrie accentuée entre les liens compromet souvent le fonctionnement performant des protocoles IP terrestres implicitement conçus pour une structure filaire à l’instar de TCP, principal protocole de transport.
D’un autre côté, l’absence de technologies standardisées au niveau 2 laissent le champ libre aux multiples propositions pour l’indispensable interaction entre les mécanismes de qualité de service de niveau IP et ceux de la couche MAC. Concernant cette dernière, de multiples protocoles ont été étudiés (ATM, MPEG, MPLS..). Certains ont été implantés voire standardisés. Le but était non seulement de réduire le surcoût protocolaire mais aussi de minimiser le trafic induit à ce niveau par la signalisation entre les terminaux et la Gateway.
Loin d’être exhaustifs, surtout dans un contexte NGN en permanente évolution, nous nous proposons dans cette section d’explorer les principaux verrous à la mise en œuvre de l’IP sur des systèmes satellites GEO. Quelques une de ces problématiques comme le protocole TCP, font l’objet de recherches depuis quelques années. Certaines ont déjà débouché sur des solutions industrielles que nous avons pu testées dans le cadre de cette étude.

TCP/IP adapté au satellite

Introduction

Le protocole TCP a été conçu au début des années 1980 dans un contexte de technologies réseau très différent de celui d’aujourd’hui. Même si sa longévité témoigne de sa robustesse, des évolutions technologiques – comme l’augmentation des débits et le caractère hétérogène des réseaux actuels (liaisons sans fil, réseaux cellulaires, réseaux d’accès asymétriques…) – posent de sérieux problèmes de performance à TCP. Dans sa première version [17], le protocole ne comprenait pas de techniques de contrôle de flux. Depuis, TCP a considérablement évolué avec l’ajout de plusieurs algorithmes comme le Slow Start, Congestion Avoidance pour le contrôle de congestion en plus des mécanismes de recouvrement d’erreur Fast Recovery dans la version TCP Tahoe en 1988 et ensuite de TCP Reno en 1990. Des algorithmes de retransmission de paquets Fast Retransmit sont ensuite venus l’améliorer pour enfin aboutir en 1996 à la version la plus déployée jusqu’à aujourd’hui [18].
L’adaptation de TCP aux réseaux satellite géostationnaires est les un des points les plus étudiés dans le cadre d’IP sur satellite. En effet, La performance de bout-en-bout de TCP sur les liens satellite à délai élevé souffre des interactions avec les mécanismes de contrôle de flux
Cette partie expose les principales contraintes liées à l’utilisation du protocole TCP par satellite. Nous insisterons davantage sur les solutions qui ont conduit à des implantations réelles.

Les limites du protocole TCP sur satellite

Les réseaux satellite s’inscrivent dans une catégorie caractérisée par un fort produit Bande x Délai (BDP) (Bandwidth Delay Product). Dans ce contexte, les pertes de paquets qu’elles soient dues à la congestion ou aux erreurs de transmission peuvent avoir d’importantes conséquences quant à l’utilisation des capacités de transmission. C’est le résultat de la nature même de cette catégorie de réseaux :
– Un délai de propagation élevé (500 ms aller-retour).
– Une asymétrie souvent forte entre lien Aller et Retour
– Des méthodes d’accès dynamiques.
– Les erreurs sur le lien physique

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTIO
I. LES RESEAUX SATELLITE DANS UN CONTEXTE DE CONVERGENCE IP
I.1. INTRODUCTION
I.2. LES SATELLITES DE TELECOMMUNICATIONS ET LA CONVERGENCE IP
I.2.1 Un peu d’histoire
I.2.2 Les services de télécommunications par satellite
I.2.3 La fin des réseaux dédiés et l’avènement d’Internet
I.2.4 Le satellite comme composant de l’infrastructure NGN
I.3. SYSTEMES SATELLITES BIDIRECTIONNELS
I.3.1 Architecture générale
I.3.2 Topologies
I.3.3 La couverture du satellite
I.3.4 Le traitement à bord
I.3.5 Bande de fréquences et bande Ka
I.4. CONCLUSION
II. LE SATELLITE COMME SUPPORT DE L’IP, DIFFICULTE DE LA MISE EN OEUVRE
II.1. INTRODUCTION
II.2. CADRE DE REFERENCE DES SYSTEMES SATELLITES ETUDIES
II.2.1 Préambule
II.2.2 Le modèle architectural BSM fondé sur IP
II.3. GESTION ET ACCES AUX RESSOURCES AUX NIVEAUX DES COUCHES BASSES
II.3.1 Introduction
II.3.2 Accès aux ressources
II.3.3 Allocation de ressources
II.3.4 Le niveau physique et les techniques de contre-mesure (FMT)
II.4. CONTRAINTES ET SOLUTIONS A LA MISE EN OEUVRE DE L’IP SUR SATELLITE
II.4.1 TCP/IP adapté au satellite
II.4.2 TCP et son adaptation aux communications par satellite
II.4.3 La qualité de service et la gestion de la bande passante
II.4.4 Architectures de qualité de service existantes
II.4.5 L’effet de la signalisation et de l’encapsulation
II.5. CONCLUSION
III. DVB-RCS, UN STANDARD POUR LA TRANSMISSION DE L’IP BIDIRECTIONNEL PAR SATELLITE.
III.1. INTRODUCTION
III.2. LA NORME DVB
III.3. LA VOIE ALLER DVB-S
III.3.1 La couche physique DVB-S
III.3.2 L’accès au canal
III.3.3 Le standard DVB-S et la norme MPEG-2
III.3.4 Les méthodes d’encapsulation de l’IP sur DVB
III.3.5 La résolution des adresses
III.4. LA VOIE RETOUR DVB-RCS
III.4.1 Pile protocolaire
III.4.2 La couche physique
III.4.3 Accès et Allocation des ressources
III.5. CONCLUSION
IV. LA PLATEFORME IP DVB-RCS, ARCHITECTURE ET EXPERIMENTATIONS
IV.1. INTRODUCTION
IV.2. LA PLATEFORME IP DVB-RCS
IV.2.1 Introduction
IV.2.2 Principaux critères de spécification
IV.2.3 Architecture générale de la plate forme IP DVB-RCS.
IV.2.4 Fonctionnement du système DVB-RCS
IV.2.5 Architecture finale de la plateforme
IV.3. EXPERIMENTATIONS, RESULTATS ET ANALYSES
IV.3.1 Pour un service VoIP sur DVB-RCS de bonne qualité
IV.3.2 Scénarios des tests et interprétations
IV.4. CONCLUSION
V. IDIRECT ET DVB-RCS, COMPARAISON DES PERFORMANCES BOOKMARK NOT DEFINED.
V.1. INTRODUCTION
V.2. PRESENTATION DE LA TECHNOLOGIE IDIRECT
V.2.1 Introduction
V.2.2 Couche physique
V.2.3 Allocation de bande passante et accès au canal
V.2.4 Qualité de service
V.2.5 Les fonctionnalités niveau transport
V.2.6 Architecture et aspects non abordés
V.3. ETUDE COMPARATIVE IDIRECT DVB-RCS
V.3.1 Aperçu de la plateforme
V.3.2 Couche physique et couche MAC
V.3.3 Tests applicatifs de voix sur IP
V.4. CONCLUSION
VI. LE NOUVEAU STANDARD DVB-S2 ET LES APPLICATIONS IP PAR SATELLITE
VI.1. INTRODUCTION
VI.2. LE STANDARD DVB-S2
VI.2.1 Introduction
VI.2.2 Les principaux apports du standard
VI.2.3 Les méthodes d’encapsulation
VI.2.4 L’interface air du standard DVB-S2
VI.3. LE PROJET DVB-S2 SATELLITE EXPERIMENT ET LES EXPERIMENTATIONS
VI.3.1 Introduction
VI.3.2 La plateforme de tests
VI.3.3 Les évaluations théoriques
VI.3.4 Les tests applicatifs et l’ACM
VI.4. CONCLUSION
VII. CONCLUSION ET PERSPECTIVES
VII.1. CONCLUSION

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *