Qualité de service dans le standard IEEE 802.11 

Mode d’accès PCF

Ce mode d’accès est complémentaire au mode d’accès décentralisé et nécessite la présence d’un coordinateur, généralement le point d’accès, qui prend le contrôle du support et autorise ou non les stations à émettre. Cette méthode est optionnelle contrairement à la méthode DCF et ne fonctionne qu’en mode infrastructure, où les stations de base ont la charge de la gestion de l’accès au canal dans leur zone de couverture pour les mobiles qui leur sont rattachés. Les communications directes entre les stations sans fils ne sont plus possibles, elles doivent toutes passer par le point d’accès. De ce fait, la moitié de la bande passante est gaspillée.
Cette méthode a été lancée par le standard pour répondre aux besoins des utilisateurs ayant des trafics temps réel. Elle est basée sur la définition d’une période sans contention CFP (Contention Free Period) qui se déroulera en alternance avec la période avec contention CP (Contention Period) gérée par le mode DCF. Au sein d’un même BSS, le temps d’accès au canal sera alors partagé en des intervalles (CFP + CP) nommés Beacon Interval ou balise. Les stations peuvent utiliser à la fois les algorithmes PCF et DCF. La durée maximale, CFPMaxDuration est définie par le point d’accès. Les périodes CFP s’initient lors de l’émission d’une balise par le point d’accès. Pendant la durée CFP-MaxDuration, c’est la méthode d’accès PCF qui est activée, le reste du temps c’est la méthode DCF.
Pour alterner les modes PCF et DCF, on utilise une super-trame qui permet de notifier la période de répétition du mode sans contention (PCF). Le début de cette super-trame est marqué par une trame balise. Pour émettre cette balise, on utilise l’inter-trame PIF (Fig. I.4).
Le début du mode PCF peut être retardé, soit par l’attente de la fin de l’émission d’un paquet qui n’est pas fini, soit par l’attente de son acquittement s’il arrive avant le PIFS.
L’acquittement est prioritaire parce que le SIFS est plus court que le PIFS.

Mode d’accès DCF

La méthode d’accès basique de la couche Mac 802.11 est la DCF (Distributed Coordination Function) qui se base sur l’utilisation de CSMA/CA (Carrier Sense Multiple Access/Collision Avoidance) pour supporter les transmissions asynchrones de données.
L’accès au support est contrôlé par l’utilisation d’espaces inter trames ou Inter-Frame Spacing (IFS). Ils correspondent à l’intervalle de temps entre la transmission de deux trames. Ce sont en fait des périodes d’inactivité sur le support de transmission qui permettent de gérer l’accès au support pour les stations ainsi que d’instaurer un système de priorités lors d’une transmission. Les valeurs des différents IFS sont calculées par la couche physique. Ces IFS sont :
 Short IFS (SIFS): Est le plus court des IFS. Il est utilisé pour séparer les différentes trames transmises au sein d’un même dialogue comme par exemple, entre des données et leurs acquittements ou entre différents fragments d’une même trame ou pour toute autre transmission relative à un même dialogue (question-réponse).
 Extended Inter-Frame Spacing (EIFS) : Est utilisé par les stations opérant en mode DCF. C’est le plus long des IFS et est utilisé suite à un FCS (Frame Check Sequence) erroné.
Dans DCF, une station doit écouter le canal avant d’initialiser l’envoi d’un paquet. Si le canal est libre pendant un temps DIFS, la station peut transmettre son paquet. Les stations en écoute constatent une émission et déclencheront pour une durée fixée leur indicateur NAV et utiliseront cette information pour retarder toute transmission prévue.
Si le canal est resté libre durant une période DIFS, les stations qui veulent émettre choisissent, dans une fenêtre appelée Contention Window (CW), un backoff aléatoire exprimé en un nombre de time slots d’une durée fixe de 20 μs. Ce temps aléatoire (Temps De Backoff) est choisi de la façon suivante :
Temps de Backoff = Random (0, CW) × Slot Time
Où Random (a, b) est la fonction de tirage aléatoire uniforme d’un entier dans l’intervalle [a, b] ; CW est la valeur en cours de la fenêtre de contention.
Une fois ce tirage effectué, tant que le canal reste libre, les stations décrémentent leur backoff. La première station qui termine la décrémentation, s’engage à émettre ses données.
Dès que les autres stations détectent le regain d’activité sur le canal, ils stoppent la décrémentation de leurs backoff et entrent en période de defering. Lorsque le canal redevient libre pendant un temps supérieur à DIFS, les stations qui n’avaient pas pu émettre peuvent reprendre la décrémentation de leur backoff au point où ils l’avaient laissé.
Une collision peut avoir lieu si deux ou plusieurs stations ont commencé à transmettre en même temps, sinon un acquittement est envoyé à l’émetteur pour accuser la réception. Le récepteur attend pendant un temps SIFS après la réception correcte des données avant d’envoyer son ACK. Pour réduire la probabilité de collisions, après chaque échec de transmission, la fenêtre de contention est doublée (4) jusqu’à une valeur maximale prédéfinie CWmax.
La fenêtre de contention est réinitialisée à une valeur minimale fixe CWmin, après chaque transmission avec succès ou lorsqu’un paquet est rejeté suite au dépassement de la limite des retransmissions.
Cette technique permet d’éviter au maximum les collisions en laissant, pour chaque station, la même probabilité d’accès au support. Cependant, si au moins deux stations obtiennent leur backoff à zéro en même temps et elles émettent simultanément, une collision peut apparaître et sa détection par la station émettrice n’est malheureusement pas possible.
Pour cela, un acquittement (ACK) est utilisé pour informer la station émettrice que la trame est reçue avec succès.
Le schéma (Fig.I.5) présente l’élection de la station qui transmettra, lorsque plusieurs stations souhaitent transmettre dans un même temps. La station A émet, et c’est alors que les stations B et C souhaitent émettre un paquet. Elles écoutent le support, mais il est occupé, donc elles attendent qu’il se libère. Une fois, le support libre, elles attendent le temps d’un DIFS (temps d’attente avant d’émettre une nouvelle trame de données). Elles attendent chacune le temps calculé par leur exécution de l’algorithme du Backoff. La station C a tiré un temps moins long, donc c’est elle qui émet avant la station B.
Il faut noter que le temps de pause qui sépare un paquet de données de son acquittement est SIFS. Il est plus court que DIFS. La station en période de defering ne pourra reprendre la décrémentation de son backoff que si le canal est à nouveau libre pendant DIFS. Le fait que SIFS soit plus court empêche que la décrémentation ne reprenne de manière inopportune entre les données et leur acquittement.
Le mécanisme de backoff limite les risques de collision mais ne les supprime pas complètement. Aussi, si une collision se produit quand même (détectée grâce à l’absence d’acquittement), un nouveau backoff va être tiré au hasard. Mais à chaque collision consécutive, la taille de la fenêtre de contention va doubler afin de diminuer les chances que de telles collisions se répètent. La borne inférieure de la Contention Window est toujours zéro, et la borne supérieure va évoluer entre les valeurs CWmin et CWmax définies par la norme. Il existe aussi un mécanisme de réservation qui est optionnel. C’est le virtual Carrier Sense qui permet de réserver le support entre deux stations avant tout envoi de données. Ce mécanisme permet d’éviter le problème de la station caché. Ce problème est simple. On a trois stations : A, B et C. La station B est à portée des deux stations mais, A et C ne peuvent pas se voir, car hors de portée, comme le montre le schéma.
Lorsque A émet des données pour la station B, la station C peut très bien essayer de faire la même chose. En effet, lorsqu’elle écoute le support elle n’entend rien, puisque la station est hors de sa portée. Ainsi, croyant le support libre, elle va émettre et brouiller la réception de la station B. C’est pour éviter ce problème, que l’algorithme du VCS, entre en jeu.
Lorsque A veut envoyer des données vers B, elle émet une requête Request to Send (RTS) qui sera reçue par l’ensemble des stations qui seront à sa portée. Cette requête contient la source, le destinataire et la durée estimée de la transaction. Dès que B (station destinataire) reçoit cette requête, elle émet un Clear to Send (CTS) pour annoncer qu’elle est prête et que le support est libre. La station C ne reçoit que le CTS. Cependant, le CTS porte les mêmes informations que le RTS. La station C ne transmettra alors pas pendant la période de temps spécifié dans le CTS. Ce mécanisme permet donc de réserver le support auprès de toutes les stations à portée des deux stations voulant communiquer.
Dans le schéma, on voit par quel mécanisme se met en place le VCS. Cela permet ainsi à la source d’émettre son paquet en évitant les collisions. Toutes les stations à portée des deux stations qui communiquent, attendent que la source ait émis son paquet et que le destinataire ait acquitté le paquet.

Définition de la qualité de service

Selon la recommandation E.800 du CCITT, la qualité de service (QoS pour Quality of Service) correspond à « l’effet général de la performance d’un service qui détermine le degré de satisfaction d’un utilisateur du service ». Cette définition n’est que subjective et reflète la perception de la qualité de service observée par un utilisateur.
Plus techniquement, une seconde définition de la qualité de service a été proposée : « La qualité de service constitue, pour un élément du réseau (une application, un hôte ou même un routeur), la capacité d’obtenir un certain niveau d’assurance de telle sorte que la fluidité du trafic et/ou les services requis soient au mieux satisfaits »
Enfin, une troisième définition consisterait à dire que :
« La qualité de service correspond à tous les mécanismes d’un réseau qui permettent de partager équitablement et selon les besoins requis des applications, toutes les ressources offertes, de manière à offrir, autant que possible, à chaque utilisateur la qualité dont il a besoin »
Généralement, cette qualité est axée sur le débit, le délai et la perte des paquets : la téléphonie par Internet a pour but de pouvoir converser en temps réel (facteur du délai) sans entre-coupures engendrées par des délais supplémentaires; télécharger une application volumineuse ne demande pas plus que de disposer d’une assez large bande passante pour récupérer le fichier le plus vite possible (facteur du débit) ; les deux applications sont demandeuses (fermement ou plus souplement) en matière de réception de l’intégralité des paquets(facteur de pertes).

Paramètres de la qualité de service

La notion de qualité de service est un aspect multidimensionnel basé sur des critères plus ou moins complexes à pouvoir garantir.
Les principaux paramètres de la qualité de service sont :
 Débit : parfois appelé bande passante par abus de langage, définit le volume maximal d’information (bits) par unité de temps.
 Gigue : elle représente la fluctuation du signal numérique, dans le temps ou en phase.
 Latence, délai ou temps de réponse : elle caractérise le retard entre l’émission et la réception d’un paquet.
 Perte de paquet: elle correspond à la non-délivrance d’un paquet de données.

Garanties de délai

L’information qui circule à l’intérieur d’un réseau est hétérogène, tant sur l’aspect de son flux, de sa nature ou de sa fréquence. En effet, les utilisateurs du réseau manipulent aussi bien des applications de transfert de fichiers que des applications multimédia. Contrairement à une opération simple du type transfert de fichier, le domaine du multimédia requiert beaucoup plus de garantie en matière de qualité de service temporelle. Plus particulièrement, ces dernières applications sont sensibles au délai et à la gigue (variation du délai), mais aussi aux pertes d’information. Ainsi, la téléphonie par Internet, la vidéo-conférence, le multimédia interactif, etc… requièrent de strictes garanties en délai, en gigue et en taux de pertes. Citons à titre d’exemple le cas des jeux interactifs multimédia : les paquets de ces applications, qui subiront un délai de transit significatif ne seront plus correctement utilisés et détérioreront l’efficacité et la synchronisation de l’application. La perte des paquets aura un impact plus accentué sur la qualité du jeu puisque le son et la vidéo seront particulièrement dégradés.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Liste des figures
Liste des tableaux 
Résumé 
Abstract 
Introduction générale
Chapitre I : Les réseaux sans fil 
Introduction
I. Les réseaux sans fil
I.1Généralités
I.2 Classification des réseaux sans fil selon la zone de couverture
I.2.1Les WPAN (Wireless Personal Area Networks)
I.2.2Les WLAN (Wireless Local Area Networks)
I.2.3Les WWAN (Wireless Wide Area Networks)
I.2.4Les WMAN (Wireless Metropolitan Area Networks)
I.3 Architecture WLAN
I.3.1 Mode avec infrastructure
I.3.2 Mode ad hoc
I.4.Les réseaux Ad hoc
I.5. la norme 802.11
I.5.1 Introduction
I.5.2.La couche liaison de données
I.6 La couche MAC
I.6.1 Le CSMA/CA de la norme IEEE 802.11
I.6.2 Mode d’accès PCF
I.6.3Mode d’accès DCF
I.7 Conclusion
Chapitre II : Qualité de service dans le standard IEEE 802.11 
II Introduction
II.1 Définition de la qualité de service
II.2 Paramètres de la qualité de service
II.2.1 Garanties de délai
II.2.2 Garanties de débit
II.3 La qualité de service dans 802.11
II.3.1 Limitations de la méthode d’accès PCF
II.3.2 Limitations de la méthode d’accès de base DCF
II.4 Le nouveau standard IEEE 802.11e
II.4.1 La méthode d’accès EDCA
II.4.2 La méthode d’accès HCCA
II.5 Après 802.11e
II.6 Conclusion
Chapitre III: Algorithmes de backoff : Etat de l’art et nouvelle proposition 
III.1 Introduction
III.2 Etat de l’art
III.3 Contexte
III.4 Motivation et solution proposée
III.4.1 Problèmes liés à la méthode d’accès DCF
III.4.2 Première partie : modification de la taille de la fenêtre de contention
IV.4.3 Deuxième partie : minimisation des slots inactifs
Chapitre IV: Simulation et évaluation 
IV.1 Présentation du simulateur NS2
IV.1.1 L’outil de visualisation NAM
IV.1.2 Composants
IV.1.3 Modèles de mobilité
IV.1.4 Les différents modèles de propagation radio sous NS2
IV.2 Paramètres de Simulation
IV.2.1 Débit utile (throughput)
IV.2.2 Le taux de pertes
IV.2.3 Le délai
IV.3 Scénarios des simulations
IV.3.1 Scénario 1
IV.3.1.1 La perte
IV.3.1.2 Le débit
IV.3.1.3 Le délai
IV.3.2Scénario 2
IV.3.2.1 La perte
IV.3.2.2 Le débit
IV.3.2.3 Le délai
IV.4 Conclusion
Conclusion générale et perspectives
Bibliographie

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *