Beruflich Dokumente
Kultur Dokumente
1
Objectif
Comprendre le fonctionnement de réseaux opérateurs
Notion de la QoS dans les réseaux opérateurs
Architecture à QoS garantie IntServ & DiffServ
MPLS et Ingénierie de trafic
Contrôle de la QoS par politiques (bandwidth broker)
Architecture de réseaux NGN
Introduction à l’hybridation de réseaux satellite/terrestre
2
Prérequis & Apports
Prérequis
Architecture de réseaux
Modèle TCP/IP et Modèle OSI
Architecture NGN
Apports
Rappel sur les réseaux haut débit (ATM et ADSL)
Comprendre l’architecture de réseaux à QoS, signalisation, politiques
Comprendre l’approvisionnement de ressources, et le contrôle par politiques
Architecture NGN
Comprendre l’hybridation terrestres satellitaires
3
Plan
1. Application Multimédias et Notion de QoS
1. Applications Audio et leurs besoins en QoS
2. Routage à QoS, Ordonnancement et Contrôle d’admission
2. Etude des architectures classiques IP à QoS
Architectures IntServ-RSVP et DiffServ
3. Ingénierie de trafic et le protocole MPLS
MPLS, principe de communication de label
MPLS/VPN et MPLS/BGP
4. Le contrôle de la QoS par politiques de services
Framework Policy et Signalisation, COPS, et ses extension,
5. Exemple d’architecture à QoS pour les réseaux NGN
Principes, strate transport, strate service, plan de gestion
Tequila et EuQoS
6. Les réseaux hybrides satellites et terrestres
QoS dans les réseaux satellite DVBS/RCS
Intégration du satellite dans une architecture de QoS IMS
4
Organisation
1. Cours Intégré de 3h par semaine/12 semaines
2. Evaluation des connaissances
1. DS (30% de la note globale)
2. Examen (70% de la note globale)
3. Support de cours
1. Diapositives à fournir à chaque étudiant (PDF ou papiers)
2. Enoncés de TP/TD
Attention !
Elimination 3 absences non justifiées (Avis Administration)
5
Application Multimédias et Notion de QoS
6
Classification des applications multimédias
Selon l’interactivité
Non interactives : radio et TV, vidéo à la demande, e-learning...
Interactives: vidéo surveillance, téléguidage, vidéo conférence, téléphonie
Selon la criticité
(Très) critiques : guidage et supervision, télé opération chirurgicale
(Moyennement) critiques : vidéo conférence, bourse, téléachat
Non critiques : TV, radio, jeux
Selon les contraintes temporelles (temps-réel)
Streaming de données audio/vidéo préalablement stockées
Streaming 1-à-m temps réel de données audio-vidéo
7
Compression de données
La qualité du son/image est conséquence directe sur le débit
L’augmentation de la taille de données et les limitations du
débit ont des conséquences directes sur la qualité de données
multimédia exploitables
Il faut alors réduire le débit utilisé par les applications
multimédia
Réduire la quantité d’informations à transmettre, par compression de
données
On utilise des CODECS pour compresser les données multimédia
Traitement de signal vidéo avec des transformées temporelles et
8 spatiales (Fourrier)
Exemple de compression multimédia
Vidéo : pour une image de 1024*1024 pixels avec un pixel codé sur 2
octets
Avant la compression: 2 Mo de mémoire pour le stockage, un délai de160
secondes sur un réseau 100Kb/s
Apres la compression de facteur de 10: 0,2 Mo de mémoire, un délai de 16
secondes
Audio: Signal analogique échantillonné à un rythme constant
Téléphonie: 8000 échantillons/s ==> 64 kb/s
Musique CD : 44000 échantillons/s
Chaque échantillon est quantifié et représenté sur 8 bits (ou 7)
A la réception le signal numérique est transformé en analogique.
9
Exemples de techniques de compression dans Internet
Compression de l’audio
GSM (13 Kb/s); G.729 (8 Kb/s); G.723(6.4 et 5.3 Kb/s)
MPEG layer 3 (MP3) : 96, 128, 160 ou 320 kb/s
Compression de la vidéo
MPEG 2 : pour images animées + son - ‘high quality DVD video’ (3-6 Mb/s)
MPEG 4 : Object oriented video compression (de 5 kb/s à plus d’un Gb/s)
10
Exigences des applications multimédia
Manipulation de grandes quantités de données en continue
Transmission des informations dans un délai borné (RTT borné)
Partage de ressources (coexistence) avec d’autres applications non multimédia
Exigences :
délai, gigue, débit, taux (probabilité) de perte de données
Les valeurs des exigences changement avec l’évolution technologique
Tendance actuelle de la demande :
des délais de plus en plus courts, des débits de plus en plus élevés, des taux de perte
de plus en plus faibles.
11
Exigences des applications multimédia
Téléphonie et audio conférence:
Faible débit (~ 64 Kb/s), mais des délais courts (< 250 ms)
Vidéo à la demande:
débit élevé (~ 10 Mb/s), latence non critique
Vidéo conférence:
débit élevé pour chaque participant (~1.5 Mb/s), délai faible (< 100 ms), états
synchronisés (Lip Sychroniation)
Jeux interactives distribuées (IUT-T)
Un délai maximum de 70 ms, une gigue maximale de 20 ms
12
Exigences des applications multimédia
13
Protocole RTP
Real-Time Transport Protocol (RTP)
Protocole de transport de données
soumises à des contraintes de temps
réel, tels que des flux média audio ou
vidéo
14
Entête de paquet RTP
Type de flux (7 bits)
Numéro de séquence (16 bits) : utilisé pour détecter les pertes
Estampille (32 bits) : fournit l’instant d’échantillonnage du premier octet du
paquet. Elle est utilisée pour absorber la gigue.
Identificateur de source de synchronisation (32 bits) : identifie la source du
flux. Chaque flux dans RTP a un identificateur affecté par la source de manière
aléatoire (mais distinct de ceux déjà existants) au début du flux.
15
Champ Type de flux RTP
16
Real-Time Control Protocol (RTCP)
C'est un protocole de contrôle des flux RTP
Il fournit les statistiques de bandes passantes et des informations de contrôle
pour un flux RTP (taux de paquets transmis/perdus, la gigue de transfert, etc.)
Les statistiques sont envoyés dans des paquets rapports par les récepteurs, à
la demande de la source
Les paquets rapports sont utilisés par la source pour modifier/adapter son
rythme aux conditions du réseau.
Typiquement, la bande passante utilisée pour RTCP est limitée à 5% de la
bande passante de la session. Cette fraction est partagée entre les demandes
de rapports émises par les sources (25%) et les rapports émis par les
récepteurs (75%)
17
Multimédia et QoS
18
Aspects liés à la QoS
Exprime des exigences sur le comportement d’un fournisseur de service
S’exprime par différents types de paramètres (délai, disponibilité de
service,…)
Implique différents niveaux de service (déterministe ou autres)
Nécessite la mise en place de divers mécanismes (réservation, contrôle,...)
Concerne aussi bien le réseau que les applications
Concerne à la fois différents types d’équipements et différentes couches
19
Classes (niveaux) de service
Garantie absolue (déterministe) Quel niveau choisir ?
C’est la nature de
Probabiliste/stochastique/statistique l’application qui permet de
décider
Prédictive, à charge contrôlée
Meilleure que le meilleur effort
Coercitive (exerce des contraintes)
Meilleur effort du réseau
Indifférent
20
Paramètres de QoS
Aspects temporels
Temps de transfert, latence, délai, Gigue
Temps de réponse ( aller-retour)
Temps d’établissement/fermeture de connexion
21
Paramètres de QoS
Volume
Bits/s, Paquets/s
Pourcentage de bande passante
Fiabilité/disponibilité/robustesse
Taux de disponibilité
MTBF, MTTR
Paramètres d’erreurs
Taux d’erreur, taux de perte
Taux de désordre de paquets
Erreur d’établissement/fermeture de connexion
22
Autres paramètres de QoS
Cout
Pénalité, bonus, prix du service
Autres
Maintenabilité, simplicité, interopérabilité, passage à l’échelle, etc.
Sécurité
Capacité du contrôle d’accès
Capacité du chiffrement
Surcoût des mécanismes de sécurité (sur la performance et le délai)
23
Expression de la QoS
Déterministe
Une valeur (délai < 10 ms) ou intervalle de valeurs (délai dans
[ 80 .. 100])
Probabiliste
Avec une probabilité P (délai < 100 ms à 90%)
Statistique
Expression sur la moyenne, variance, écart type
Loi de distribution (évaluation de performance)
24
Notion de Contrat de service
Le contrat de service est dit aussi SLA (Service Level Agreement)
SLA = Contrat User-Provider, entre utilisateur et fournisseur de service
SLA Statique ou Dynamique
SLA est implémenté selon une description de la spécification du service, dite
Service Level Specification (SLS)
25
Panorama des fonctions de
gestion de QoS
26
Fonctions mises en œuvre
pour la garantie de QoS
27
Fonctionnement simplifié d’un routeur/commutateur
28
Fonctionnement simplifié d’un routeur/commutateur
29
Eléments du délai de bout-en-bout
Délais d’attente dans les files d’entrée
Délais de construction de paquets
Délais de commutation
Délais d’attente dans les files de sortie
Délai de transmission
Délais de propagation
30
Niveaux de prise en compte de la QoS
Problèmes à résoudre?
• Modèles d’expression de QoS
• Fonctions de gestion de QoS
• Validation/vérification de QoS
31
Modèles de trafic
32
Propriétés des modèles de trafic
Trois propriétés essentielles doivent être respecter pour
modéliser le trafic dans le réseau
Simplicité d’expression du modèle
Facilité de test et de vérification
Faible surcout de l’implémenter dans le réseau
Challenge
La simplicité du modèle et sa facilité d’utilisation, risque d’introduire
des pertes de précisons dans le dimensionnement des ressources
(problème de surdimensionnement)
33
Caractérisation de trafic
Trafic périodique : simple à modéliser
Trafic apériodique: Souvent difficile à modéliser
Distribution des instants d’arrivée selon quelle loi (poisson, …) ?
Taille maximale des rafales?
Durée minimale d’une rafale?
Distribution de la taille des rafales?
Distribution des pertes de messages ?
Corrélation entre les paquets (pour autoriser les pertes) ?
34
Modèles de trafics fréquemment utilisés
Modèle périodique: Période, Longueur maximale de paquet
Modèle-1 avec rafale (Ferrari):
Lpmax : longueur maxi de paquet
Xmin (intervalle de temps min entre deux messages successifs)
Xave (intervalle de temps moyen entre deux messages successifs)
I (intervalle de temps sur lequel Xave est calculé).
Modèle-2 avec rafale (Cruz)
Débit moyen ρ et taille de rafale σ :
Nombre total de paquets générés n’excède jamais σ + ρT dans tout
intervalle T.
35
Modèles de trafics fréquemment utilisés
Modèle 3 avec rafale (Seau percé)
Débit moyen d’écoulement du seau (ρ) et la taille maximale du seau
(σ).
Eviter le débordement du seau.
Modèle-4 avec rafale (Seau à jeton)
Débit moyen de génération de jeton (ρ) et nombre maximal de jetons
en attente (σ).
La source ne peut transmettre que si elle a des jetons.
36
Modèle de trafic de l’IETF (RFC 2215)
Spécification à l’aide d’un Tspec
Taille σ et débit ρ de seau percé
Débit maximum p
Taille maximum de paquet M
Borne sup, A(T), de trafic par intervalle de temps T :
A(T) ≤ min(M + pT, σ + ρT)
Autres modèles : probabiliste, stochastique,… (cours
évaluation de performances)
37
Contrôle d’admission
Objectif
Est-ce que le nouveau flux peut affecter la QoS des flux déjà acceptés ?
Est-ce que le nœud peut offrir la QoS requise par le nouveau flux ?
Est-ce que le nouveau flux a le droit d’utiliser les ressources du nœud ?
Est-ce que tous les nœuds à traverser acceptent le nouveau flux ?
Informations utilisées
Caractéristiques du nouveau trafic et de la QoS demandée
Etat et historique du réseau
Date de fin de trafic déjà acceptés
Perturbations éventuelles de la QoS des trafics déjà acceptés
38 Politique d’utilisation des ressources
Exemples de Contrôle d’admission déterministe
39
Contrôle d’admission statistique
Pourquoi on en a besoin?
La plupart des flux sont plutôt à caractère aléatoire
Eviter le surdimensionnement en rejetant des flux qui pourraient être
acceptés si on fait un peu plus attention à l’allocation des ressources
Risques d’utilisation de CA statistique
Apparition de situations de congestion
Dégradation de la QoS
Conséquence : CA statistique non adapté aux applications critiques
40
Types de CA statistique
CA basés sur les débits moyen et maximal
CA basés sur la bande passante effective cumulée
CA basés sur l’ingénierie de la courbe de perte
CA basés sur la variance maximale
CA basés sur la théorie des larges déviations
Autres types
41
Exemple 1 : CA statistique basé sur les débits moyen et
maximum: pour la garantie du taux de perte
Notations
C : capacité du lien considéré
Maxj : débit max du flux j
Avrj : débit moyen du flux j
Hypothèses
Toute source j est de type on-off (soit elle émet à son débit max soit elle est
silencieuse)
Tous les paquets ont la même taille (1 unité)
Pas de buffer au niveau du lien pour stocker les paquets en attente de transmission
42
Exemple 1 : CA statistique basé sur les débits moyen et
maximum: pour la garantie du taux de perte
Principe
La source j étant on/off, la densité de probabilité de son trafic est :
, =
=
− , =
Si on considère N flux indépendants qui partagent le même lien, alors la densité de
probabilité du flux agrégé, q(x), est la convolution de , …, : q(x) = ( * *… )
La probabilité de perte de paquets Pl pour N flux est:
é ∑ ( )
= = ∑ …
Test de CA :
Si Pl(N+1) ≤ Taux de perte requis, alors accepter le N+1ème flux, sinon le refuser
43
Exemple 2 : CA statistique basé sur la bande passante
effective cumulée: Pour la garantie de la bande passante
Notations
C : capacité du lien; B : taille de queue du routeur
[0, [: quantité de bits transmis par la source j dans l’intervalle [0, [
: taux de perte d’une queue de taille maximale B
( ) : bande passante effective du flux j
N : nombre de flux multiplexés
Test du CA ∑ ( )<
Exemple de définition de ( ) si peut être définie par une loi
exponentielle = = + lim [0, [
→
44
Contrôle d’admission basé sur les mesures
Si les caractéristiques de flux sont peu variables
Utilisation de la demande maximale et moyenne pour accepter le flux
Décision et réservation définitives
Si les caractéristiques de flux sont peu ou pas connues (imprécision de trafic)
Utiliser une estimation initiale du trafic et réserver les ressources
Effectuer des mesures sur le trafic et ajuster les réservations en re-estimant le trafic
Accepter un plus grand nombre de flux
Coût des mesures et efficacité réelle des ajustements
Problèmes
Que faut-il mesurer ? Quand ? Où ?
Comment définir progressivement des modèles de trafic ?
Comment évaluer l’apport par rapport au CA sans mesure ?
45
Exemple de contrôle d’admission basé sur les mesures
Notations
Chaque source est modélisée par un seau à jetons (ρ, δ). Ainsi, le total
du trafic généré par la source, pendant U unités de temps, ne peut
excéder ρU + δ et la source ne peut transmettre que si elle a des
jetons.
C : capacité du lien
v : ratio d’utilisation du lien fixé à l’avance (v≤1). Ainsi, la bande
passante maximale utilisée est vC.
: pire cas du délai de transfert estimé
: estimation (en bits) du flux agrégé sur le lien
N : nombre de flux déjà acceptés
46
Exemple de contrôle d’admission basé sur les mesures
Test de CA
Condition sur le délai
Soient (ρN+1, δN+1) les paramètres du seau à jetons du nouveau flux N+1 et
DmaxN+1, le délai de transfert maxi exigé par ce flux.
Le pire temps d’attente pour un paquet du flux N+1 est obtenu en supposant
que tous les flux transmettent simultanément un paquet de taille maxi égale à
∑
leur ∶D=
Le pire temps de transfert estimé, , est utilisé à la place de (D est plus
pessimiste que )
Le test de CA obtenu est : > +
Condition sur la bande passante: = ̂+
47
Exemple de contrôle d’admission basé sur les mesures
Processus de mesure
Le délai de transfert et débit du flux agrégé sont mesurés périodiquement et sont
adoptés comme valeurs pour les paramètres et ̂
Pour simplifier, on considère que tous les paquets ont la même taille et que leur temps
de transmission est égal à 1.
48
Exemple de contrôle d’admission basé sur les mesures
Processus de mesure
Un échantillon de mesure du délai est obtenu pour chaque transmission de paquet.
Chaque échantillon de mesure du débit du flux agrégé est obtenu sur une période S.
Chaque bloc de mesure dure T unités de temps (T= nS).
A la fin de chaque bloc de mesure, l’échantillon dont la valeur est la plus élevée est
adopté pour estimer et ̂
Les paramètres et ̂ sont mis à jour immédiatement (i.e. avant la fin du bloc) :
Si un nouveau flux k est accepté, la mise à jour se fait ainsi = + et ̂ = ̂ +
Quand une mesure dans le bloc actuel est plus élevée que celle déjà estimée alors, les
paramètres sont mis à jour immédiatement.
49
Problèmes ouverts
Sur les modèles
Modèles statistiques efficaces
Combinaison de modèles pour l’agrégation de flux
Compromis : Complexité/Précision/Surdimensionnement
Sur les CA
CA efficaces utilisables en ligne
Caractérisation approximative des flux et complexité du CA
Compromis entre complexité et performance
CA adapté aux réseaux sans fil
Contrôle d’admission en cas de AS interconnectés (inter-domaines)
Chaque système autonome (AS) peut avoir son CA
Comment avoir une décision de CA de bout en bout optimale ?
Comment utiliser le CA basé sur les mesures avec des CA locaux hétérogènes ?
50
Routage à QoS
51
Notion de routage à QoS
C’est le mécanisme de routage qui permet l’établissement du chemin pour
flux en tenant compte de la disponibilité des ressources du réseau et des
exigences de QoS des flux [RFC2386]
Les protocoles de routages incluent les paramètres de QoS tels que la bande
passante disponible, l’utilisation des liens, les ressources de calcul des nœuds,
le délai et la gigue
Fonctions
Collecter les informations sur les états des réseaux
Trouver le meilleur chemin aux flux en fonction de leurs contraintes de QoS
Changement de chemin s’il y a une dégradation progressive de la QoS
Optimiser l’utilisation des ressources réseau
52
Principes généraux du routage à QoS
Sélection de chemin
A la demande (pour chaque paquet, pour chaque flux, …)
Périodiquement et stockage dans une table
Pré-calcul basé sur les algorithmes de Bellman-Ford et Dijkstra
53
Composants du routage
54
Classes d’algorithmes de routage
Routage par la source
Chaque routeur a une vue locale du réseau (mise à jour périodique ou non)
Sélection du chemin par la source et notification de ce chemin aux autres nœuds
Peu efficace pour les réseaux de grande taille
Routage distribué (hop by hop)
Sélection du prochain nœud seulement
Informations d’état échangées avec les voisins
Difficulté de partage et d’échange d’informations d’état
Routage hiérarchique
Hiérarchisation des nœuds (agrégation)
Réduction de la complexité de gestion des états
Partitionnement du réseau peut conduire à des cliques dans le réseau
55
Routage intra domaine et inter domaines
56
Algorithmes de routage à QoS
Critères de classement
Contraintes prises en compte délai, gigue, bande passante, …)
Stratégie du routage (par la source, distribué, hiérarchique)
Complexité de l’algorithme
Complexité de la communication pour maintenir les informations
d’état
Propriétés
Complexité (traitement et messages) faible
Passage à l’échelle
Coexistence de routage à QoS avec routage best effort
57
Formalisation des problèmes de routage à QoS
58
Exemple de chemins à QoS
59
Exemple de chemins à QoS
60
Formalisation des problèmes de routage à QoS
Problème du chemin (le plus court) avec contraintes de QoS
Enoncé du problème dans le cas unicast
Etant donné : une source s, une destination d, les vecteurs-poids associés aux arcs, un
vecteur de besoins de QoS B, trouver un chemin p de s à d tel que :
61
62
Problèmes de routage à QoS
63
Problèmes de routage à QoS à 1 métrique
64
Problèmes de routage à QoS à m métriques
65
Principes de résolution
Prise en compte contrainte par contrainte
PS = Sélection des chemins respectant QoS1
PS2 = Sélection parmi l’ensemble PS1 des chemins respectant QoS2
….
PSm = Sélection parmi PSm-1 des chemins respectant QoSm
Prise en compte d’une contrainte et optimisation de critère(s)
Sélection de chemins respectant la contrainte QoSx
Optimisation d’un critère simple ou composé
66
Principes de résolution
Utilisation de métrique composée
67
Eléments sur les coûts du routage à QoS
Traitement/calcul
Calcul des chemins (souvent NP-complet)
Calcul lié aux échanges d’état
Stockage
Informations de topologie du réseau
Informations d’état (sur différentes métriques)
Table de routage courante, tables de routage pré-calculées
Bande passante (paquets liés au routage)
Facteurs de coût du routage
Fréquence de sélection des chemins
Métriques
Facteurs de complexité (nombre de nœuds/liens, entrées de la table de routage,…)
Compromis précision/surcoût
68
Exemples d’algorithmes de routage à QoS
Exemple 1 : Extension de Dijkstra’s Shortest path algorithm (Cas Unicast)
69
70
Ordonnancement de paquets
71
Approches de gestion de files d’attente
Attente dans les files de sortie Liens Liens
Nœud de commutation
Tout paquet est placé dans sa file de d’entrée De sortie
sortie dès son arrivée. File File
Avantage : c’est la plus performante au d’attente d’attente
niveau débit
72
Approches de gestion de files d’attente
Attente dans les files d’entrée
Les paquets arrivant sur un port d’entrée sont placés dans une file d’attente associée
à ce port et servis en FIFO
Inconvénient : « Head-of-line blocking » (lorsque le premier paquet de la file est
bloqué, car son lien de sortie est occupé, tous les autres paquets sont bloqués, même
si leur lien de sortie sont libres).
Attente dans les files de sortie virtuelles (évite le « Head-of-line blocking »)
A chaque port d’entrée sont associées autant de files d’attente que de liens de sortie
utilisés par les paquets arrivant sur ce port. Tout paquet attend dans sa file de sortie
Attente dans une file unique
Tous les paquets arrivant au routeur sont placés dans une file d’attente unique avant
d’être servis. C’est la plus simple, mais la moins efficace pour la garantie de QoS.
73
Ordonnancement de paquets
Algorithme d’ordonnancement de paquets = Discipline de service
74
Classification des algorithmes d’ordonnancement
Déterminisme
Garantie déterministe
Garantie non déterministe (Probabiliste, meilleur effort)
Paramètres de QoS
Garantie d’un seul paramètre de QoS (Délai, débit…)
Garantie de plusieurs paramètres de QoS
Priorité
Stratégies fondées sur des priorités fixes
Stratégies Round Robin
Conservation
Stratégies sans oisiveté (work-conserving)
Stratégies avec oisiveté (non-work-conserving)
75
Loi de conservation de Kleinrock (1971)
Formule de Little (1956) : E(t) = E(n) /λ
E(t) : moyenne de temps de réponse
E(N) : moyenne du nombre de clients dans la file
λ : taux d’arrivée des clients
La loi de conservation de Kleinrock stipule que : Si l’ordonnanceur est
conservatif alors, quelque soit la discipline choisie : ∑ =
peut être considéré comme un délai pondéré pour la connexion k.
N connexions géré par un ordonnanceur.
le débit moyen de la connexion k.
le délai moyen de traitement par paquet de la connexion k.
le délai moyen de séjour en file d’attente par paquet de la connexion k.
76
Loi de conservation
Cette loi signifie que, pour tout ordonnanceur conservatif, la somme des
délais pondérés est constante. Donc si on offre à une connexion un délai plus
court, on le fait au détriment des autres connexions qui vont avoir un délai
plus élevé
Tout ordonnanceur non conservatif ne peut que conduire à une somme de
poids pondérés supérieure à celle d’un ordonnanceur conservatif (à cause des
temps d’oisiveté).
FIFO est la discipline conservative la plus simple. Donc la somme des délais
pondérés de FIFO peut être considérée comme une borne inférieure pour
toutes les disciplines de service
77
Disciplines de service
Conservatives Non conservatives
FP (Fixed Priority) Jitter EDD
FQ (Fair Queueing) Stop-and-Go
WFQ (Weighted Fair Queueing) HRR (Hierarchical Round Robin)
WF2Q (Worst-case FairWeighted Fair RCSP (Rate Controlled Static Priority)
Queueing)
SCFQ (Self-Clocked Fair Queueing)
Virtual CLocks
Delay EDD (Delay Earliest Due Date)
78
Ordonnancement FIFO
Naturelle (la première qui vient à l’esprit)
Non équitable
Ne permet pas la garantie de QoS (en général)
79
Ordonnancement FP
FP (Fixed Priority) = PQ (Priority Queueing)
Une priorité fixe est associée à chaque flux (connexion) ou à chaque paquet
Les paquets de priorité élevée sont servis d’abord
80
Round Robin (RR) de base pour les tâches
Une seule queue pour toutes les tâches (processus).
Servir pendant Δt chaque tâche. Si la tâche n’a pas fini la recycler en queue.
Ordonnancement largement utilisé dans les systèmes non temps réel.
81
Weighted Round Robin (WRR)
Associer à chaque flux un poids normalisé en fonction de la taille
moyenne de paquet du flux.
Servir les queues à tour de rôle et en fonction de leurs poids.
Avantages :
Prise en compte de l’importance (poids) de chaque flux
Protection des flux les uns contre les autres.
Inconvénients :
pénalise les flux à faibles poids.
82
WRR pour flux périodiques
Chaque connexion est définie par (Pi, Di, ei)
Pi : intervalle minimum d’arrivée de message sur la connexion i,
Di : délai de bout en bout
ei : nombre de paquet par message
L’ordonnanceur fonctionne de manière cyclique et chaque tour est défini par un
nombre de slots maximum, RL.
La longueur d’un slot est égale à 1 et correspond à la durée de transmission du paquet
le plus long. A chaque tour, les connexions sont servies à tour de rôle.
l’ordonnanceur de chaque routeur affecte à chaque connexion en poids (en fonction
de , ) et contenu dans la demande de connexion qui indique le nombre de
slots affectés à cette connexion, à chaque tour.
Si la demande peut être satisfaite, les slots sont réservés, sinon aucun slot n’est réservé
et les routeurs ayant déjà réservé des slots pour cette connexion sont avertis pour
annuler leur réservation.
83
WRR pour flux périodiques
Trois conditions à respecter pour garantir les contraintes temporelles
84
Problèmes posés par l’utilisation de WRR
Avec des paquets de tailles et des poids différents, on a besoin de connaître la
taille moyenne de paquets à l’avance. Cette taille moyenne est parfois difficile à
connaître a priori (ce qui rend WRR non équitable)
Si la différence entre les tailles min et max) de paquets ou entre les poids min
et max) est importante, la durée d’un tour peut être élevée, conduisant à de
longues périodes de non équité.
Conséquence :
WRR est une discipline efficace pour des paquets de petites tailles avec des durées de
tour petites (c’est le cas d’ATM par exemple).
85
Ordonnancement PS « Processor Sharing »
Temps partagé simple du processeur (pour l’ordonnancement de tâches)
PS n’est pas implantable pour les paquets (sinon on risque de transmettre des
paquets contenant moins d’un bit) Generalized PS
86
Ordonnancement GPS « Generalized Processor Sharing »
PS + équité en tenant compte de l’allocation préalable des tâches (poids φi)
GPS garantit un temps d’exécution (ci) selon le poids φi
87
Ordonnancement PGPS et WFQ
PGPS « Packet Generalized Processor Sharing » (Parekh et Gallager 1993)
GPS : l’interruption de tâche peut se faire à n’importe quel moment => non applicable
directement aux réseaux PGPS = version de GPS appliquée aux réseaux
PS + équité en tenant compte de l’allocation préalable des connexions (poids φi)
88
Technique «Weighted Fair-Queueing » (Demers, Keshav et
Shenker 1989)
89
Ordonnancement WFQ
WFQ = une mise en œuvre de PGPS
Principe général de WFQ
V(t) : temps virtuel du système qui capte progression de la quantité de service
normalisé à l’instant t . V(t) peut être défini par :
90
Ordonnancement WFQ
Pour tout paquet k de la connexion i à transmettre, on associe :
91
Ordonnancement WFQ: Performances
Hypothèse Notations:
Le flux C est conforme à un seau percé
• c : flux/connexion
( ) • s : routeur
Tous les routeurs sur le chemin implantent WFQ • ∅ : poids de la connexion c au niveau de s
Borne de débit garanti : • : débit du flux c transitant par s
∅ • : ensemble des connexions passant
= par s
∑ ∈ ∅
• : débit du lien de sortie de s
Borne de délai garantie de bout-en-bout :
• : nombre de routeurs sur la route de c
( )
+∑ + • : taille max de paquet du flux c
• : taille max de paquet transitant
par s : délai de propagation sur le tout
le chemin
92
Ordonnancement WFQ: Mise en œuvre
On étudie la stratégie WFQ pour chaque lien de sortie dans le réseau
considéré.
n : nombre de connexions passant par un lien de sortie donné
: proportion de la bande passante allouée à la connexion i sur le lien de sortie au
moment de l’établissement de connexion.
U : somme des proportions de bande passante allouées à toutes les connexions
sur le lien de sortie considéré (U≤ 1)
Une connexion est dite inactive si elle n’a aucun paquet en attente dans
la file du lien de sortie ou en cours de transmission sur le lien de sortie ;
sinon elle est dite active.
93
Ordonnancement WFQ: Mise en œuvre
Les paquets en sortie associés à une connexion i sont placés dans la file du lien de
sortie.
Les paquets d’une même connexion sont servis selon l’ordre FIFO ; mais l’ensemble
des paquets n’est pas servi en FIFO.
Un paquet d’une connexion est prêt pour transmission quand il est le premier des
paquets en attente pour cette connexion.
Pour gérer les paquets prêts des différentes connexions actives, une file à
priorité FP est utilisée par l’ordonnanceur. Chaque connexion active i a une
entrée ( , ) dans la file FP. Cette entrée est insérée dans la file FP selon
son échéance exprimée en temps virtuel (etv).
Les paquets prêts sont transmis selon l’ordre donné par la file FP (c-à-d, selon
l’ordre des échéances virtuelles).
94
Ordonnancement de paquets
Après un temps d’inactivité du lien de sortie (car il n’y avait aucun paquet à
transmettre), quand le premier paquet arrive, sur une connexion i, l’ordonnanceur
calcule l’échéance virtuelle et la place avec i en tête de la file FP. La transmission
de ce paquet commence immédiatement (car la file du lien de sortie était vide au
moment de cette arrivée).
Quand un lien de sortie est actif (c-à-d qu’il y a un paquet en cours de transmission
sur ce lien), l’ordonnanceur calcule pour tout paquet qui arrive, sur une
connexion i qui est inactive, et l’insère dans la file FP. Si cette connexion i était active,
le paquet arrivé est mis en file d’attente de la connexion sans traitement.
Lorsqu’un paquet termine sa transmission, il est retiré de la file d’attente et son
entrée est retirée de la file FP. Si la connexion i, qui est la source du paquet qui vient
de terminer sa transmission, est active, l’ordonnanceur calcule l’échéance virtuelle
de son nouveau paquet prêt et l’insère dans la file FP. Ensuite, il commence la
transmission du paquet dont l’entrée est la première dans la file FP.
95
Calcul des nombres de fin pour un lien de sortie
96
Exemple
97
Contrôle de congestion et gestion des files
d’attentes
98
Principe de l’allocation des ressources
Ressources = CPU, mémoire, bande passante
QoS fournie dépend des ressources allouées pour le service
Politique d’allocation des ressources droits d’utiliser des ressources, coûts,
etc.
Allocation de ressources:
Sans Négociation : rigide (tout ou rien), sûre
Avec Négociation : à la connexion, flexible, complexe
Avec Renégociation : s’adapter au réseau à tout moment, transmettre à
moindre coût, (très) complexe
99
Stratégies d’allocation de ressources
Stratégies d’allocation de ressources : Allocation non statistique ou statique
Allocation non statistique (“peak bandwidth allocation”)
Allouer une capacité maximale s’il reste encore assez de bande passante
Adaptée au trafic à rythme fixe (CBR)
Risque de sous-utilisation du réseau
Allocation statistique
L’allocation ne se fait pas sur la base du débit maximum de connexion
La somme des débits correspondant aux connexions acceptées peut être supérieure à
celui des ports de sortie du nœud.
Adaptée à des flux variables (VBR)
Difficulté de prédire la garantie de QoS
100
Problèmes de la réservation de ressources
Des ressources réservée mais non utilisées : Perte
Ressources minimales/moyennes à réserver : difficiles à déterminer
101
Allocation de ressources
Gestion de buffers (tampons ou queues)
Gestion de buffers (un flux / une file, une file partagée entre plusieurs flux)
Mémoire de stockage des paquets limitée ⇒ Contrôler son utilisation
Deux décisions majeures :
Quand rejeter les paquets ?
Quels paquets rejeter ?
Contrôle et traitement de trafic
Contrôle de congestion
Contrôle de trafic de l’utilisateur
Façonnage du trafic de l’utilisateur (« traffic shaping »)
Marquage de paquets
102
Allocation adaptative (locale)
Avantages
Chaque source connaît le meilleur moyen de réduire ses exigences.
Chaque source peut appliquer une stratégie qui dépend de sa classe.
Inconvénients
La dégradation de QoS peut venir d’autres sources “non disciplinées”.
103
Allocation adaptative (globale)
Avantages
Meilleure utilisation des ressources.
Les surcharges de réseau peuvent être limitée par réduction des demandes.
Inconvénients
Surcoût important.
104
Initiation de la réservation de ressources
105
Problème de congestion
Flux aléatoires + Mémoire limitée + bande passante limitée ⇒ Possibilité de
congestion
Effets négatifs : taux de perte élevé latence élevée
Nécessité de contrôle de congestion
106
Suppression de paquets
107
Stratégies de suppression de paquets
Politique de suppression de paquets Quels paquets supprimer et dans
quelles conditions ?
Rejeter sans distinction les paquets arrivant en fonction de l’état courant des buffers
Utiliser des seuils de congestion (anticiper les situations de congestion)
Utiliser les données des contrats utilisateur pour rejeter les paquets hors profil
Affecter des priorités basses aux paquets hors profil
Méthodes : réactives vs préventives
Compromis:
Techniques de contrôle de congestion Complexité/ Performance/Prévision
– RED (“Random Early Detection”) &
Détermination des seuils
– Variantes de RED (FRED, WRED…)
– ECN (“Explicit Congestion Notification”)
– Autres
108
Propriétés de stratégies de contrôle de congestion
Anticipation des situations de congestion (aspects probabilistes)
Notification aux sources qui persistent à dépasser leur limite
Rendement du réseau (‘throughput’) élevé
Latence limitée
Adaptation aux bursts (rafales de paquets)
Taille des queues appropriée (pas de surdimensionnement
inutile)
Complexité d’implantation réduite
Équité au niveau du rejet de paquets
109
Discipline de service: FIFO
FIFO : technique la plus simple pour gérer les files d’attente de routeurs.
une seule queue par interface de sortie (servir le paquet en tête)
mettre en queue le paquet arrivant si file non pleine
rejeter le dernier paquet si queue pleine
110
Limites (inconvénients) de FIFO :
Impossible de différencier les trafics (car on a une seule queue) :
les paquets arrivant sont rejetés sans distinction en cas de queue saturée.
Donc on ne prend pas en compte l’importance des paquets.
Il n’y a pas d’isolation de flux.
Un flux qui persiste à envoyer plus de paquets finit par avoir plus de service par
rapport aux autres qui s’auto limitent.
Inconvénients du rejet en fin de queue (‘drop-tail’):
Les routeurs doivent avoir des queues de taille importante pour maintenir un taux
d’utilisation élevé.
Des buffers larges impliquent des latences importantes
Nécessité d’utiliser des méthodes de gestion actives
111
Technique RED (Random Early Detection)
RED : technique la plus populaire pour l’évitement de congestion
Proposée par Floyd et Jacobson (1993) pour gérer les flux TCP
Gestion de queue avec des seuils - technique de gestion active (préventive)
112
Algorithme de la technique RED
Pour chaque paquet arrivant: estimation d’une taille moyenne de queue Qmoy :
Qmoy = (1-w)Qmoy + w*Qreel w<<1 (ex. w=0.002)
/* Qreel : taille réelle de la queue de paquets acceptés et non encore transmis.
Cette variable est incrémentée à chaque acceptation de nouveau paquet et
décrémentée à chaque transmission de paquet. */
113
Algorithme de la technique RED
Rejet/marquage probabiliste en fonction de la taille moyenne de
queue
Si Qmoy < SeuilMin : pas de rejet/marquage du paquet arrivant
Si Qmoy ≥ SeuilMax : rejet/marquage systématique du paques arrivant
Si SeuilMin ≤ Qmoy < SeuilMax : rejet/marquage avec une probabilité pa,
calculée comme suit :
pb = Pmax*(Qmoy - SeuilMin)/(SeuilMax – SeuilMin)
pa = pb/(1 – pb*compte)
Compte = nombre de paquets reçus depuis le dernier paquet
marqué/rejeté pendant que la condition SeuilMin ≤ Qmoy < SeuilMax
reste satisfaite.
114
Explication des paramètres de RED
Si l’on admet que l’on peut accepter des rafales de L paquets au maximum, alors le poids w doit
( )
respecter : + 1 + <
Par exemple :
SeuilMin = 5 et L = 50 conduit à choisir w ≤ 0 0042
La variation de Q (i.e. la sensibilité de Q aux rafales) dépend de la valeur de w.
moy moy
Si w est très petit alors, Q répond lentement aux changements de la queue réelle.
moy
Les valeurs de SeuilMin et SeuilMax dépendent de la taille moyenne de queue désirée. Cette taille
influe sur le délai moyen d’attente en queue. En général, SeuilMax est fixé au moins au double de
SeuilMin.
Pmax désigne une borne supérieure pour la probabilité de marquage de paquet.
Le nombre de paquets marqués/rejetés avant d’atteindre le seuil de congestion dépend de cette
valeur.
Pmax est fixée selon les besoins (est-ce que l’on veut anticiper de manière forte ou non les situations
de congestion).
Les auteurs de RED (Floyd et Jacobson) préconisent que la valeur de Pmax ne doit pas être
supérieure à 0.1.
115
Exemple de fonctionnement de RED
116
Exemple de fonctionnement de RED
117
Exemple de fonctionnement de RED
118
Exemple de fonctionnement de RED
119
Exemple de fonctionnement de RED
120
Exemple de fonctionnement de RED
121
Limites (inconvénients de RED)
Perturbation par les flux qui se comportent mal
Sensible au nombre de sources
Difficultés de choisir les paramètres (seuils et Pmax)
Variantes de RED
FRED (Flow RED)
CBT RED ( Class Based Threshold RED) : analogue à FRED
SRED (Stabilized RED)
DRED (Dynamic RED)
WRED (Weighted RED)
ARED (Adaptative RED)
122
Chapitre 1: Architecture IntServ
Akram Hakiri
123
Motivation
L’internet est basé fournit une seule classe de service (Best-effort)
C’est-à-dire le réseau ne garantie rien quant à la livraison des données
Les applications actuelles sont élastiques (FTP, HTTP, etc.)
Tolèrent le délai et les pertes
Peuvent s’adapter à la congestion
Les applications « temps-réel » ne sont pas élastiques (streaming, SNMP)
Ne tolèrent pas le retard (délai) et les pertes
Que doit-on modifier:
Ces applications pour être plus adaptatives ?
Ou bien, Internet pour supporter le trafic inélastique ?
124
Améliorer la QoS IP
Les groupes IETF proposent de nouvelles approches pour
contrôler la QoS dans les réseaux IP
Fournir plusieurs catégories de service ou classes de services
Garantir le contrat de service
Dimensionnent des ressources réseaux (routeurs)
IETF propose:
Integrated Services (IntServ)
Differentiated Services (DiffServ)
Resource ReSerVation Protocol (RSVP)
125
Principes de garantie de la QoS
Une application VoIP à 1Mbps et une application FTP à 1,5Mbps,
qui partagent un lien de 1,5Mbps
Les rafales FTP congestionnent R1 et cause la perte de paquets voix
On doit donner une certaine priorité au trafic VoIP par rapport à FTP
126
Principe 1
Principe1: On doit marquer les paquets pour que le
routeur peut distinguer les différentes classes de trafic, et utilise
de nouvelles politiques pour traiter chaque classe
127
Principe 2
Fournir une protection (isolation) à une classe par rapport aux autres
classes
Principe 2: Réguler le trafic (trafic policing) pour s’assurer que les sources
respectent les exigences en bande passante
Le marquage et la régulation du trafic doivent se faire sur les bords du réseau
128
Principe 3
En plus du marquage et régulation, allouer une partie de la bande passante à
chaque flux d’application, peut conduire à une utilisation inefficace des
ressources, si l’un des flux n’utilise pas sa BP allouée,
Principe 3: Tout en fournissant l’isolation du trafic, il est souhaitable
d'utiliser les ressources aussi efficacement que possible.
129
Principe 4
Le réseau ne peut supporter du trafic au delà de la capacité de ces liens
Principe 4: besoin du contrôle d’admission (Call Admission
Control), l’application déclare ces besoins, le réseau peut accepter la
demande de connexion ou la bloquer s’il ne peut satisfaire sa demande
130
Résumé
131
IETF IntServ (1994)
Réservation par flot
Traitement des flux individuels de paquets, chaque flux
demande un niveau de service différent du réseau
Le niveau de service quantifiable mathématiquement
Débit minimum, un débit crête, probabilité de perte, un délai
Problèmes
Complexité de mise en œuvre
Résistance au facteur d’échelle
Complexité de la facturation
132
Les composants IntServ
Type du modèle de service
Que promet le réseau?
Interface de service
Comment l’application peut décrire ces besoins ?
Ordonnancement de paquets
Comment le réseau répond-il aux promesses?
Établir la garantie
Comment la promesse est-elle transmise au réseau?
Comment l'admission de nouvelles applications est-elle contrôlée?
133
Modèle de service
Le réseau peut supporter des flux de trafic avec différentes
"qualité de service".
Meilleur effort
Services prédictifs ou différenciés
Forte garantie sur le niveau de service (en temps réel)
L'ensemble de services pris en charge sur un réseau spécifique
peut être considéré comme un modèle de service.
Modèle qui peut être utilisé pour sélectionner un service
e.g., compromis entre le coût et la performance
Architecture réseau qui prend en charge l'ensemble des services
134 Considère les interactions entre les services
Modèle de service
Service garanti (Guaranteed Service, GS)
Cible les applications temps-réel « dure »
L'utilisateur spécifie les caractéristiques de trafic et les
exigences de service.
Nécessite un contrôle d'admission à chacun des routeurs.
Le réseau peut garantir mathématiquement la bande
passante, le délai et la gigue.
135
Modèle de service
Charge contrôlée (Controlled Load, CL)
Cible les applications adaptative aux conditions du réseau non
congestionné dans une certaine fenêtre de performance .
L'utilisateur spécifie les caractéristiques du trafic et la bande
passante.
Nécessite un contrôle d'admission à chacun des routeurs.
La garantie n'est pas aussi forte qu'avec le service garanti.
par exemple, contrôle d'admission basé sur la mesure.
Best-effort
136
Interface de service
La session doit d'abord déclarer son exigence de QoS et
caractériser le trafic qu'il enverra à travers le réseau
R-Spec: définit la QoS demandée par le récepteur (ex. le débit
r)
T-Spec: définit les caractéristiques de trafic (profil de trafic)
de l’émetteur (ex., seau percé avec, un débit r et une longueur
de la file d'attente b).
Un protocole de signalisation est nécessaire pour transporter
les spécifications R-Spec et T-Spec aux routeurs où la
réservation est nécessaire;
RSVP est le protocole de signalisation.
137
Ordonnancement de paquets
138
Ordonnancement de paquets
Les paquets arrivant sur un port d’entrée sont placés dans
une file d’attente associée à ce port et servis selon un
algorithme d’ordonnancement
Service garantie
Utilise le filtre seau à jeton pour caractériser le trafic
Décrit par le débit « r » et la taille du seau « b »
Utilise l’algorithme d’ordonnancement WFQ dans le routeur
Une borne maximale au pire-cas pour le délai d’attente = b/r
139
Contrôle d’admission
L’admission d’une session ou connexion
les routeurs admettront les connexions en fonction des
spécifications R-Spec et T-Spec et en fonction des ressources
actuelle allouée à d'autres appels.
140
Réservation des ressource (RSVP)
141
Réservation des ressources (RSVP)
RSVP est un protocole de signalisation qui avertit les
nœuds intermédiaires de l’arrivée de données
correspondant à une QoS prédéfinie.
RSVP définie un session définie par le triple [DestIP@,
Protocol-ID, DestPort]
L’adresse de destination peut être unicast ou multicast
142
Réservation des ressources (RSVP)
La demande de réservation de ressources est formée
par le descripteur de trafic, qui est formé par deux
éléments : Flowspec et filter spec
Flowspec définie la QoS désirée, c’est-à-dire, la classe de
service, R-Spec et T-Spec
Filter Spec, définie la spécification de la session, c’est-à-
dire, l’ensemble de paquets de données (flux) pour
recevoir la QoS définie dans FlowSpec
143
Réservation des ressources (RSVP)
144
Réservation des ressources (RSVP)
145
Réservation des ressources (RSVP)
La réservation de ressources se fait sur les nœuds
intermédiaires qui possèdent la fonctionnalité RSVP
Ces nœuds mémorisent les informations d’états et
communiquent entre eux périodiquement pour mettre à
jour leurs tables de d’état,
L’émetteur envoie un message PATH qui dresse la liste
des nœuds intermédiaires à emprunter par les messages
RSVP de demande de QoS.
146
Réservation des ressources (RSVP)
La demande de réservation de la QoS est faite
obligatoirement par le récepteur, qui connait les
caractéristiques du flots lorsqu’il reçoit le message
PATH de l’émetteur
Cette demande de QoS arrive à l’émetteur sous forme
de message RSVP
147
Réservation des ressources (RSVP)
Les parties essentielles d'un message PATH, du point de
vue de la réservation, sont les parties Adspec et
Sender_Tspec.
ADSPEC représente, au nœud courant, un résumé de la
somme des ressources disponible en terme de débit et
de délai sur le chemin de donné,
L’initiateur d’une réservation sur un chemin y insère ses
propres infos de capacité.
148
Description de flot
FilterSpec: identifier la (les) source(s)
IPv4: Adresse source et numéro de port
IPv6: Adresse source et flow ID
Session: identifier la (les) destination(s)
Adresse de destination, protocole ID et numéro de port
FlowSpec: décrire les caractéristiques du flot
Le trafic émis (TSpec)
Le service désiré (RSpec)
149
Spécification de flot : TSpec
TSPEC= (r, b, p, m, M)
r
r: débit moyen bits
p
b: sporadicité
p: débit crête b
150
Modélisation : Token bucket
Description d'un flux selon :
Une sporadicité : b
Un débit moyen : r
Une file de jeton de capacité maximale b est remplie avec un débit r
Un jeton est consommé à chaque émission d'un octet
Un datagramme de longueur M peut sortir de la file principale si et seulement s'il y a M
jetons
Taux de régénération des jetons
r
b Capacité en jetons
TSPEC(r, b, p, M)
p Débit crête
Trafic entrant
M
151
Taille de paquet
Chapitre 2: Architecture DiffServ
Akram Hakiri
152
Differentiated Services (DiffServ 1998)
L’objectif est de faire face aux défaillances d’IntServ et RSVP
Scalabilité: le maintien des états par les routeurs dans les
grands réseaux est difficile en raison du grand nombre de flux
Flexibilité du modèle de service: IntServ n’a que deux
classes (GS, CL), il est souhaitable de fournir plus de classes
qualitatives, et offrir une distinction de classes « relative »
Simplifier la signalisation (mieux que RSVP): plusieurs
applications et utilisateurs veulent simplement une notion de
service plus qualitative
153
DiffServ - Motivation
Faire une enfoncement plus fin à la bordure du réseau
Généralement, les liens à la bordure sont plus fins
Étiqueter des paquets avec un champ.
Estampille de priorité
Le réseau de cœur utilise uniquement le champs de priorité
pour gérer la QoS
Un petit nombre de niveaux de priorité avec un comportement
d’acheminement bien défini
Peut être manipulé rapidement
154
DiffServ
DiffServ défini une architecture et un ensemble de
comportements
Il incombe aux fournisseurs de services de définir et d'implémenter
des services de bout en bout au-dessus de cette architecture.
Offre un modèle de service plus souple; différents fournisseurs
peuvent offrir un service différent.
La motivation principale de DiffServ est la scalabilité
Garder le cœur du réseau simple
DiffServ supporte la QoS pour les agrégats de flux.
155
Architecture DiffServ
156
Fonctions du routeur DiffServ
157
Fonctions du routeur DiffServ
Classification : marque les paquets selon les règles de
classification à préciser.
Mesure: vérifie si le trafic est conforme au profil négocié.
Marquage: marque le trafic conforme au profil.
Conditionnement: retarde et réachemine, rejette ou
remarque l'autre trafic.
Shaper : retarde certains paquets pour les rendre conformes à certain
rythme.
Dropper : écarte (élimine) certains paquets non conformes ou ayant
un taux de rejet exigé plus élevé que celui des autres paquets
158
Classification et conditionnement
Le paquet est marqué dans le champs type de service (Type of
Service ou TOS) dans l’entête IPv4 et la classe de trafic (Traffic
Class ou TC) dans l’entête IPv6.
159
Classification et conditionnement
6 bits sont utilisés pour le
Differentiated Service
Code Point (DSCP) et
déterminent le PHB que
le paquet recevra.
Les 2 autres bits sont
actuellement non utilisés.
160
161
Modèle DiffServ
162
Modèle DiffServ
163
Fonctions du routeur de cœur
Acheminement des paquets: selon le PHB (“Per-
Hop-Behavior” ) associé à chaque classe de trafic
particulière,
Le PHB est strictement basé sur le marquage de classe
(aucun autre champ d'en-tête ne peut être utilisé pour
influencer PHB).
GROS AVANTAGE!
Aucune information d'état à maintenir par les
routeurs!
164
PHB (“Per-Hop-Behavior” )
Le PHB est le traitement par saut subit un paquet marqué par un champs
DSCP
Le PHB entraîne un comportement de performance de transmission
observable (mesurable) différent pour différentes classes de service
PHB ne spécifie pas le mécanisme à utiliser pour assurer la performance du
comportement PHB
Agrégation du traitement: les paquets de même classe de trafic sont
traités de la même manière
Exemples de PHB
La classe A obtient x% de la bande passante sur un lien sortant à des intervalles
de temps d'une longueur spécifiée.
Les paquets de classe A sortent d'abord avant les paquets de la classe B.
165
PHB (“Per-Hop-Behavior” )
Groupes de PHB standardisés
Expedited Forwarding (RFC 2598 – Juin 1999)
Assured Forwarding (RFC 2597 Juin 1999)
Best effort (RFC 2474 – Déc 1998) Code DSCP = ‘000000’
Remarque:
PHB corresponde à un DSCP recommandé par l’IETF,
mais les operateurs réseaux peuvent choisir les siens,
mais il aurait un problème d’interopérabilité
166
Expedited Forwarding (EF) (DSCP =‘101110’)
Garantie un certain débit minimal pour le trafic EF
Permet l’isolation du trafic: la garantie pour le trafic EF n’est
pas influencée par les autres classes de trafic (plus prioritaire).
Peut fonctionner correctement si le trafic à la source ne dépasse
pas une borne maximale (débit crête)
Il offre une bande passante garantie, une faible latence, une faible gigue
et faible probabilité de perte
Exemple:
Adapté à la VoIP et les lignes virtuelles louées (ex.VPN)
167
Assured Forwarding
AF définit 4 classes avec une certaine bande passante et des
files d’attentes qui leur sont attribués.
L’objectif est d’offrir différents niveaux de services, en terme de
débit (Gold, Silver, Bronze, etc.)
Chaque classe, défini 3 niveaux de rejet (drop precedence) en
cas de congestion
Le délai et la gigue ne pas garanties, et la probabilité de perte
est non quantifiable mais dépend du DSCP
Le trafic non conforme sera remarqué
168
Assured Forwarding
169
Limites du modèle DiffServ
La fourniture de la QoS par agrégation de flux ne permet
d’avoir la QoS de bout-en-bout pour chaque flux
Les contrat de service sont statiques, ne répond pas à
l’évolution du besoin de l’utilisateur
DiffServ est orienté émetteur, ne connais rien sur la
capacité du récepteur (SIP)
170
Limites du modèle DiffServ
Nombre limité de classes de services, souvent
surdimensionné, en agrégeant deux flux de 10ms et 50ms
Implantations efficaces des blocs fonctionnels (scheduling,
routing, meter, shaping…)
Les solutions possibles
Réservation de ressources dynamiques : stratégies et
signalisation
DiffServ sur MPLS, GMPLS, DiffServ et réseaux ad hoc,
réseaux de capteurs
171
IntServ vs DiffServ (Résumé)
172
IntServ & DiffServ
173
Chapitre 3: Multi Protocol Label Switching
Akram Hakiri
174
MPLS - Motivation
Les opérateurs veulent :
Empiler deux environnements IP & ATM sur une même
architecture (service AAL5)
Bénéficier l’universalité de l’adressage IP et la puissance de
transfert de l’ATM (QoS)
Deux problèmes qui se posent:
la conversion d’une adresse IP (1500 octets) en cellules ATM
(53 octets)
Conversion d’une adresse IP en couple VPI/VCI !!
175
MPLS - Motivation
Emulation LAN (protocole LANE)
Remplacer un sous-réseau IP par un réseau ATM (conserver les interfaces UNI)
Une adresse MAC comme intermédiaire entre l’adresse IP et l’adresse ATM pour
interconnecter des switches ATM avec des terminaux LAN
Mais, nécessite une double correspondance IP-MAC et MAC-ATM
Le protocole CIOA (Classical IP over ATM), mais limité à un seul réseau
ATM
Utiliser un serveur de routes lorsqu’il y a plusieurs routes ATM
MPOA (Multi Protocol Over ATM),
PNNI (Private Network Node Interface)
NHRP (Next Hop Resolution Protocol),
176
MPLS-Motivation
Nécessité d’avoir une expédition ultra-rapide et offrir la QoS ATM
un seul protocole plus homogène qui regroupe IP et ATM
MPLS: Multi Protocol Label Switching
MPLS + IP forme un mécanisme puissant combinant les points forts
des deux technologies de commutation (circuit et paquets IP).
177
MPLS
Comme MPLS est multi-protocoles, il faut aussi des
labels multi protocoles
Comme ATM et Ethernet, il utilise la commutation d’une
référence, dite étiquette, mais d’autres types de trames
LAP-M et PPP
MPLS crée un chemin pour les étiquettes, qui n’est autre
que le circuit virtuel ATM
Les paquets IP qui suivent ce chemin sont commutés
dans les routeurs IP.
178
MPLS et le modèle OSI
MPLS est un protocole de la couche 2,5
Applications
TCP UDP
IP
MPLS MPλS
PPP FR ATM Ethernet DWDM
Physical
179
Types de Trames MPLS
Entête Cellule ATM VPI VCI PTI CLP HEC DATA
Label
Shim header
180
Routage conventionnel (rappel)
Dest Out
Construction de table 47.1 1
de routage 47.2 2 1 47.1
47.3 3 3
Dest Out 1 2
47.1 1 3
2
47.2 2
47.3 3
1
47.3 3 47.2
181
Routage conventionnel (rappel)
D e s t O u t
D e s t O u t
4 7 .1 1
Transmission 4
4
7 .1
7 .2
1
2
4 7 .2 2
traditionnelle IP 4 7 .3 3
4 7 .3 3
1 47.1
D e s t O u t IP 47.1.1.1
1 2 IP 47.1.1.1
4 7 .1 1 3
4 7 .2 2 2
4 7 .3 3
IP 47.1.1.1
1
47.3 3 47.2
2
IP 47.1.1.1
182
Routage IP conventionnel (1/2)
Sur chaque routeur les paquets sont analysé pour
déterminer le prochain saut, selon la table de routage.
La procédure est répétée dans tous routeurs traversés
Problème:
Il n’est pas toujours nécessaire d’analyser le contenu de
toute l’en-tête IP à chaque passage par un routeur
Il serait préférable de réaliser ce traitement à la bordure du
réseau d’accès, à l’entrée et à la sortie du cœur du réseau
183
Pourquoi MPLS
Solution:
réduire le temps de traitements dans les routeurs afin de
gagner en performance!!
C’est le principale avantage de MPLS:
l’entête IP est analysée une seule fois par le routeur de
bordure « Ingress »
Le routeur de bordure affecte a une classe « FEC » identifiée
un « Label »
Les autres Routeurs commutent le paquet selon le Label sans
184 analyser d’entête IP
Label MPLS
Définit dans la RFC 3031, il permet d’identifier une FEC
186
Composants d’un réseau MPLS
187
Commutation de Labels
• Chaque trame encapsulant un paquet IP qui entre dans le
réseau MPLS se voit ajouter par le LSR d’entrée, un label
au niveau de l’en-tête permettant d’acheminer la trame
dans le réseau.
• Les chemins sont préalablement ouverts par un
protocole de réservation de ressources, RSVP ou LDP.
• À la sortie du réseau, le label ajouté à l’en-tête de la
trame est supprimée par le LSR de sortie, ou Egress LSR.
188
Commutation de labels sur LSR d’entrée
189
Commutation de labels
sur LSR de cœur
190
Commutation de labels sur LSR de sortie
191
Label Switched Path (LSP)
Le routage saut par saut (hop-by-hop).
Les LSRs sont indépendants les uns des autres
LSR utilise un protocole de routage comme OSPF
Pour des sous-réseaux ATM, PNNI
Le routage explicite (identique au routage à la source)
Le LER d’entrée du domaine MPLS spécifie la liste des nœuds
par lesquels la signalisation a été routée,
le choix de cette route pouvant avoir été contraint par des
demandes de qualité de service.
192
Établissement du LSP
Il
existe deux modes pour l’établissement d’un LSP
MPLS :
Mode non connecté
les
LSP sont établis par le protocole LDP et suivent le plus
court chemin IP
Mode connecté
Les chemins sont établis par le protocole RSVP-TE, et suivent un
chemin explicite, indépendant du chemin IP
les chemins sont établis en fonction des contraintes de trafic et
des ressources disponibles (bande passante, délai...)
193
Label Distribution Protocol (LDP )
LDP est le protocole de distribution des labels MPLS
Ce protocole tient compte des adresses unicast et
multicast
Le routage est explicite et est géré par les nœuds de
sortie.
Les échanges s’effectuent sous le protocole TCP pour
assurer une qualité acceptable
194
Label Distribution Protocol (LDP )
Le protocole LDP comprend les messages suivants :
Message de découverte (DISCOVERY MESSAGE), qui
annonce et maintient la présence d’un LSR dans le réseau.
Message de session (SESSION MESSAGE), qui établit,
maintient et termine des sessions entre des ports LDP.
Message d’avertissement (ADVERTISEMENT MESSAGE),
qui crée, maintient et détruit la correspondance entre les
références et les FEC.
Message de notification (NOTIFICATION MESSAGE), qui
donne des informations d’erreur ou de problème.
195
Techniques de distributions de Labels
Basé sur la topologie, il utilise les messages destinés au
routage comme OSPF
Basé sur la demande, il utilise une demande d’ouverture
d’un chemin pour un flot (RSVP-TE) en tenant en compte les
ressources réseau
Basé sur le trafic, à la réception d’un paquet, une référence
est assignée à la trame qui le transporte.
Par Protocol MPLS dédié, il utilise le protocole LDP ou le
protocole Constraint-based routing LDP (support de la QoS)
196
Exemple de distribution des labels (1/4)
Avant de fixer les labels et de les expédier, il faut que les
tables de routages soient construite (OSPF, RIP, BGP,
etc.)
Chaque LSR associe un label à chaque FEC
Ensuite, les labels sont communiquées aux autres LSR en
prenant le chemin inverse des données.
197
Exemple de distribution des labels (2/4)
Construction de table d’expédition (par OSPF…)
198
Exemple de distribution des labels (3/4)
Distribution de label
199
Exemple de distribution des labels (4/4)
Les paquets empruntent le LSP
200
Forwarding Equivalence Class (FEC)
Une classe représente une destination ou un ensemble
de destinations ayant le même préfixe dans l’adresse IP.
un paquet qui a une destination donnée appartient à une
classe et suit une route commune (même traitement)
avec les autres paquets de cette classe.
Cela définit un arbre, dont la racine est le destinataire et
dont les feuilles sont les émetteurs.
Les paquets n’ont plus qu’à suivre l’arbre jusqu’à la
racine
201
Exemple de classe d’équivalence (FEC)
202
Exemple de classe d’équivalence (FEC)
Dans cet exemple, les terminaux 1, 2 et 3 souhaitent
émettre un flux de paquets IP vers la station terminale 4.
Pour cela, la station 1 émet ses trames (encapsulant les
paquets IP) avec la référence 28, qui est commutée vers
la référence 47 puis commutée vers les références 77
puis 13 puis 36.
Le flot partant de la station 2 est commuté de 53 en 156
puis en 77, 13 et 36.
203
Exemple de classe d’équivalence (FEC)
Enfin, letroisième flot, partant de la station 3, est
commuté à partir des valeurs 134 puis 197, 13 et 36.
On voit que l’agrégation s’effectue sur les deux premiers
flots avec la seule valeur 77 et que les trois flux sont
agrégés sur les valeurs 13 et 36.
La station 4 aurait pu être remplacée par un sous-
réseau, ce qui aurait certainement permis d’agréger
beaucoup plus de flux et d’avoir une granularité moins
fine.
204
Exemple de classe d’équivalence (FEC)
le récepteur est la machine 1 et la FEC est déterminée
par l’arbre dont les feuilles sont les machines terminales
1, 2 et 3.
La classe d’équivalence, en descendant l’arbre à partir de
1, commence par les références 28 puis 47 et se
continue par les branches 77 puis 13 puis 36.
205
Exemple de classe d’équivalence (FEC)
À partir de 2, les références 53 puis 156 sont utilisées
pour aller vers la racine.
À partir de 3, ce sont les références 134 et 197 qui sont
utilisées.
Toutes les références que nous venons de citer
appartiennent à la même classe d’équivalence.
Il y a une correspondance entre FEC et classe de QoS.
206
Utilisation de MPLS
MPLS offre trois fonctions essentielles :
l’encapsulation de trafic (tunneling MPLS) utilisée pour le
support des réseaux privés virtuels (VPN),
l’ingénierie de trafic incluant un contrôle d’admission et
l’optimisation de la bande passante, qui permet de partager
la charge et d’éviter les congestions,
la protection de trafic permettant un reroutage en moins de
50 ms en cas de panne.
Supporter la qualité de service (QoS)
Routage multicast
207
Routage multicast (rappel)
Multicast (RFC1112): Le datagramme est envoyé d’une source
vers un groupe de destinations (@IP de classe D (IPv4))
224.0.0.0 ~ 239.255.255.255
le protocole IGMP (Internet Group Management Protocol) est
utilisé par les membres pour rejoinder un groupe multicast
Les membres joignent et quittent le groupe et indiquent cela aux
routeurs
La source peut ne pas appartenir au groupe multicast
Les routeurs écoutent toutes les adresses multicast et utilisent
des protocoles de routage multicast pour gérer les groupes
208
Routage multicast (rappel)
Multicast au niveau application Multicast IP
Plusieurs destinations unicast Groupe multicast
R R
S S
R R
R R
209
MPLS Multicast- Motivation
La croissance des flux multicast avec de fortes
contraintes de bande passante et de disponibilité (IPTV,
visioconférence multipoint, jeux en réseau)
Le besoin de transporter ces flux multicast dans des
réseaux privés virtuels (VPN)
Ceci nécessite de disposer de fonctions de
D’encapsulation (Tunneling) multicast,
TE multicast (optimisation des arbres, contrôle d’admission)
Protection multicast.
210
Multicast MPLS
L’IETF a étendu l’architecture MPLS afin de supporter
efficacement le transport des flux multicast
Repose sur l’établissement de LSP MPLS point-à-multipoint
(P2MP), ou arbres MPLS
Il s’agit de LSP avec un LSR de tête appelé «LSR racine» et un
ensemble de LSR destinations appelés «LSR feuilles», avec une
réplication du trafic sur les routeurs de transit.
Le multicast MPLS hérite de toutes les propriétés de MPLS.
Il permet l’encapsulation de trafic multicast dans des tunnels
pour le support de VPNs
211
Racine
Exemple de P2MP LSPs
Bronche Feuille
Feuille
Feuille
212 Feuille
Mise en place des Arbres MPLS
Consiste à étendre les protocoles LDP et RSVP-TE pour
offrir deux modes pour l’établissement des arbres, le
mode non connecté et le mode connecté
Mode non connecté
Repose sur une extension du protocole LDP, appelée
«multicast LDP» (MLDP)
Les arbres LDP suivent le plus court chemin vers la racine.
213
Mise en place des Arbres MPLS
Mode connecté
Repose sur une extension du protocole RSVP-TE dite «P2MP RSVP-
TE»,
Les arbres P2MP RSVP-TE sont établis de façon explicite et
empruntent des chemins indépendants des chemins IP, en respectant
des contraintes d’ingénierie de trafic (bande passante...).
Le mode connecté permet un contrôle d’admission et une
optimisation des arbres.
Il permet également de protéger les arbres sur une extension des
mécanismes de protection MPLS Fast Reroute, appelée « P2MP MPLS
Fast Reroute ».
214
Multicast LDP (MLDP)
Le protocole multicast LDP (MLDP) est une extension du
protocole LDP mettant en place des LSP P2MP.
Les LSP P2MP LDP sont construits sur le plus court chemin
vers le LSR racine.
Leur établissement est initié par les LSR feuilles et les LSR de
transit ne maintiennent pas l’information sur les feuilles mais
uniquement sur les LSR voisins dans l’arbre.
MLDP passe donc très bien à l’échelle, la taille d’un état étant
indépendante du nombre de feuilles de l’arbre.
215
Multicast LDP (MLDP)
MLDP est bien adapté aux opérateurs de VPN MPLS qui
ont déjà déployé LDP pour le transport de trafic unicast
et veulent offrir des services multicast.
216
Construction de P2MP LSP avec LDP
Étape 1: tous les nœuds feuilles trouvent l'identité du LSP
Par une application qui utilise P2MP LSP avec LDP
L'identité comprend l'adresse du nœud racine
Étape 2: :Chaque nœud feuille initialise la configuration P2MP
LSP par envoi du message LDP Label Mapping vers la racine
Envoie un message (upstream) vers le LSR qui se trouve sur le chemin
vers la racine
Utilise une route unicast vers la racine
Le message de mappage d'étiquette porte l'identité du LSP
Encodé comme élément P2MP FEC (Forwarding Equivalence Class)
217
Construction de P2MP LSP avec LDP
Étape 3: chaque nœud intermédiaire entre la feuille et la racine
propage le message de mapping de label LDP (LDP Label
Mapping) vers la racine
Envoie le message (upstream) uniquement au LSR sur le chemin vers la
racine
Utilise une route unicast vers la racine
218
Élément P2MP FEC
Tous les nœuds feuilles d'un même P2MP LSP donné doivent
utiliser le même classe d’équivalence élément PECMP FEC pour
cet LSP
Par une application qui utilise P2MP LSP avec LDP
L‘élément P2MP FEC transporte deux information:
L’adresse du nœud racine
Une valeur opaque qui doit être unique au moins dans le contexte du
nœud root
L'élément P2MP FEC forme un identifiant globalement unique
pour un P2MP LSP
219
Élément P2MP FEC
L'élément
P2MP FEC n'a pas besoin de spécifier
directement quels paquets sont mappés dans le P2MP
LSP
Il y a un mapping indirect (ex. par auto-découverte dans VPN
multicast)
L'élément
P2MP FEC est transporté dans les messages
« LDP Label Mapping” et “Label Withdraw”
Ce qui permet de créer une liaison d'étiquette pour un
élément FEC P2MP donné (pour un P2P PSP)
220
Exemple de signalisation LDP P2MP
221
Construction de P2MP LSP avec RSVP-TE
Étape
1: la racine trouve les adresses IP de touts le
nœuds filles
Par une application qui utilise P2MP LSP avec RSVP-TE
Étape
2: la racine calcule les chemins à partir de lui-
même vers tous les nœuds feuilles
Soit par le protocole Constrained Shortest Path First (CSPF),
ou bien de manière approximative avec le protocole
constrained minimum cost tree (aka Steiner tree)
Supporte les mêmes contraintes d'ingénierie de trafic que
222 LSP point-à-point avec RSVP-TE
Construction de P2MP LSP avec RSVP-TE
Étape
3: Root utilise RSVP-TE pour configurer le
chemin P2MP LSP
Établitl'état de transmission de l'étiquette
peut impliquer des réserves de ressources
223
Signalisation RSVP-TE pour P2MP LSP
RSVP-TE pour P2MP LSP est une extension de RSVP-TE
pour les communication point à point
Modifications minimale de l’échange RSVP-TE classique
Composants de RSVP-TE pour P2MP LSP
P2MP Tunnel
P2MP LSP
Un ou plusieurs labels par tunnels P2MP
S2L sub-LSP
Un ou plusieurs sous-labels par P2MP LSP
Messages Path et Resv
224
Tunnel P2MP
Le tunnel P2MP est identifié par l'objet P2MP SESSION qui
comprend:
Extended Tunnel ID : adresse IPv4 / IPv6 du nœud racine du tunnel
P2MP ID: Identifiant logique 32 bits du tunnel P2MP
Unique dans le contexte du nœud racine
Tunnel ID: identifiant sur 16 bits
Unique dans le contexte du nœud racine
236
MPLS DiffServ Tunneling Modes
237
Uniform Mode
238
Pipe Mode
239
Short Pipe Mode
240
MPLS et QoS
MPLS est amené à inter fonctionner
avec DiffServ, car LDP supporte avant
tout de la QoS à faible granularité.
IntServ et DiffServ sont donc 2
mécanismes complémentaires
permettant d'établir une QoS
consistante sur les réseaux MPLS et
non MPLS.
241
Ingénierie du trafic (TE)-Motivation
L'ingénierie du trafic permet à un administrateur de réseau de rendre le
chemin déterministe et de contourner les chemins routés hop-by-hop
routés.
Un administrateur peut choisir de définir explicitement le chemin entre
les stations pour assurer la QoS ou faire en sorte que le trafic suit un
chemin spécifié pour réduire le chargement du trafic à travers certains
bonds.
L'administrateur réseau peut réduire la congestion en forçant les
paquets à dépasser des segments surchargés.
L'ingénierie du trafic permet de définir une politique de transfert de
paquet indépendamment des protocoles de routage dynamique.
242
Ingénierie du trafic (TE)-Motivation
Améliorer les performances des routeurs en traitant les paquets IP
directement au niveau 2 (commutation) sans avoir à remonter
systématiquement au niveau 3 (routage) à chaque bond.
Commute un paquet IP à partir d'un " label " revient à utiliser le label
entrant comme pointeur dans un tableau dont la case correspondante
contient l'interface de sortie vers laquelle le paquet doit être envoyé,
ainsi que le nouveau label à lui affecter.
Une telle opération, qui correspond exactement au traitement du champ
VPI/VCI d'une cellule entrant dans un commutateur ATM, est à priori
beaucoup plus simple que l'opération classique de routage d'un paquet
IP.
243
MPLS et l’ingénierie de trafic
Par " Traffic Engineering MPLS ", il faut comprendre:
établissement de connexions à la demande,
gestion de trafic ,
gestion des routes,
gestion des ressources,
gestion de l'écoulement de flux de trafic à travers un réseau IP.
via un Label Switched Path (LSP), MPLS permet d'imposer le
chemin que les paquets IP doivent suivre pour atteindre une
destination donnée. Un LSP est donc unidirectionnel.
244
Ingénierie du trafic (TE)
Ingénierie du trafic (TE)
Effectuer des calculs pour déterminer les ressources à affecter à un chemin
lorsque le système est relativement statique.
Si le système est dynamique, des chemins doivent s’ouvrir et se fermer pour
satisfaire à des contraintes qui s’expriment sur des laps de temps plus courts.
Dans RSVP-TE, il n’y a pas de négociation de labels: C’est le plan de gestion qui
prend à sa charge cette négociation.
L’IETF a introduit dans l’architecture MPLS:
un routage à base de contrainte
et un protocole de routage interne à état des liens étendu afin de réaliser une
ingénierie de trafic efficace.
245
MPLS et l’ingénierie de trafic
MPLS et ses LSPs constituent dès lors un outil de gestion et
d'optimisation de l'utilisation des ressources d'un réseau IP
Traffic Engineering " de LSP MPLS s'apparente à la fonction Soft
PVC unidirectionnel qui existe en commutation ATM
La principale différence entre un LSP MPLS et un Soft PVC ATM
est qu'il est possible d'associer à un Soft PVC une catégorie de
service ATM, ainsi que des paramètres de trafic et de QoS.
Dans un réseau MPLS simple, établir des LSP revient alors à
établir des Soft PVC UBR unidirectionnels : on marque un chemin
à travers le réseau sans lui associer de ressources.
246
MPLS et l’ingénierie de trafic
Overload !!
LER 1 LER 4 IP
IP Overload !!
IP L
IP L
Forward to IP L
LSR 2
LSR 3 LSR 2 LSR 3
LSR 4
LSR X
247
MPLS et VPN
Les VPNs (RFC 2547) est l’une des applications les plus répandue de
MPLS
Il permet d’offrir des services réseau IP privé sur le réseau IP public
On peut utiliser un adressage privé sur un réseau public.
Il utilise la couche IP (VPN niveau 3)
Il permet de supporter la QoS, et offre une scalabilité aisée
Accès contrôlé et protégé (isolé) vis-à-vis des autres flux sur l'infrastructure
public.
Utilise des labels (au lieu des @IP) pour interconnecter des sites distants
Chaque site a ses propres adresses privées
248
VPN MPLS
On peut implémenter plusieurs VPNs sur un même réseau MPLS
Un identifient « Route Distinguisher » permet de différencier les routes
Route Distinguisher : sur 8 octets ajouté au préfixe IP (4 octets) pour étendre
l’adressage
Pour Interdire le routage inter-VPNs, MPLS implémente une table de routage
spécifique (Virtual Routing and Forwarding table VRF)
Isolation de trafic: Chaque VPN possède sa VRF et ne voient pas les autres routes
MPLS
249
MPLS et VPN
Les informations de routage à l'intérieur
d'un VPN sont distribuées de la manière
suivante :
1. du site client vers le VBG (VPN Border
Gateway) source : via RIP, OSPF ou en routage
statique
2. au niveau du VBG source : exportation vers
BGP
3. entre VBG source et VBG destination : via BGP
4. au niveau du VBG destination : importation à
partir de BGP
5. du VBG destination vers le site client : via RIP,
OSPF ou en routage statique
250
MPLS et VPN
Le VBG source applique 2 labels au paquet de data lorsqu'un VPN est utilisé
(Cisco utilise une autre méthode: La VPN-IP@ = 96 bits: 64 bits identifiant le
VPN et 32 bits de l'@ IP-V4 classique).
le premier label (extérieur) identifie le chemin vers le VBG destination, et change à
chaque bond
le second label (intérieur) spécifie le VPN-ID attribué au VPN et n'est pas modifié
entre le VBG source et le VBG destination
Cette paire de labels permet d'implémenter aisément les mécanismes des VPN dans
MPLS:
251
Extensions du MPLS
Generalized Multi Protocol Label Switching (GMPLS)
pour étendre MPLS aux réseaux optiques
Virtual Private LAN Services (VPLS) pour la gestion de
VPNs multipoint de niveau 2
Découpler les technologies du cœur de réseau des accès
Pas de gestion de table de routage sur les PE
252
GMPLS
GMPLS est proposé pour la signalisation dans les réseaux optiques
Les opérateurs réseau veulent transporter une grande quantité
d’information de manière fiable
Carry applications
Problèmes: IP
and services
Complexité dans la gestion de couches multiples ATM Traffic Engineering
Utilisation de bande passante inefficace SONET/SDH Transport/Protection
Solutions
Éliminer les couches intermédiaires IP sur réseaux optiques (IP/WDM)
Besoin d’un protocole qui réalise les fonctions des couches intermédiaires
(GMPLS)
253
GMPLS
La sélection de l'architecture peut être basée sur la décision commerciale
GMPLS fournit un plan de contrôle commun qui
supporte plusieurs types de trafic (ATM, IP, SONET and etc.)
Supporte les modèles overlay et peer-to-peer
Support multifournisseurs
Effectue un approvisionnement rapide
UNI UNI
255
Interfaces de contrôle GMPLS
GMPLS a apporté quelques modifications sur MPLS:
Séparation de la voie de signalisation et de données
Supporter plus d'interfaces de contrôle
Packet Switch Capable (PSC)
Router/ATM Switch/Frame Reply Switch
Time Division Multiplexing Capable (TDMC) PSC TDMC LSC
SONET/SDH ADM/Digital Crossconnects FSC
Lambda Switch Capable (LSC) TDMC
All Optical ADM or Optical Crossconnects (OXC)
Fiber-Switch Capable (FSC)
LSC
256
GMPLS – Label suggéré
Problème:
la configuration d’un routeur optique prend beaucoup de temps
Solution
Chaque LSR sélectionne une étiquette (Étiquette suggérée) et signale cette
étiquette à LSR en aval, et commencez à programmer son commutateur.
Ce qui réduit la surcharge du LSR lors de sa configuration
No suggested label with suggested label
Program Switch λ1 X λ2
Request Request Suggested Label = λ1 Suggested Label = λ2
258
Conclusion
Augmentation de besoin pour supporter la QoS sur Internet
Les solutions traditionnelles (par hop vs par application)
DiffServ vs IntServ
DiffServ + IntServ + MPLS
Il manquent le provisionnement de la QoS de bout en bout
La signalisation de la QoS
La déclaration de niveau de service (SLA & SLS)
Intégration de novelles technologies (WIMAX, 3G, 4G, 5G)
Besoin de nouvelles architectures à QoS E2E
259
Chapitre 4: Contrôle par politique
Akram Hakiri
260
Motivation
Croissance exponentielle des réseaux, en taille et en volume
Une grande variété de périphériques gérés (non seulement les
routeurs, commutateurs, etc.) et les ressources.
Un grand nombre de services de réseau différents
Réseaux convergents (données, voix, vidéo, web)
Nouveaux services (VPN,VoIP, IPTV)
Complexité croissante de MPLS, DiffServ et IntServ-RSVP
Besoin d’améliorer le niveau d’abstraction et d’automatisation
du management du réseau
Besoin de solutions évolutives de gestion des réseaux
261
Techniques classiques - CLI
CLI (Command Line Interface)
Chaque équipement est programmé individuellement pour implémenter les
objectifs de l’administrateur, même pour implémenter les mêmes objectifs
Lorsque la topologie change, l’administrateur doit mettre à jour les routeurs
indépendamment
Problèmes
Problèmes d'évolutivité SIGNIFICATIFS
Problèmes de cohérence
Difficile de mettre en œuvre des politiques complexes
Manque d'automatisation
Besoin de personnel hautement spécialisé
Difficile de surveiller le réseau
262
Techniques classiques - SNMP
Simple Network Management Protocol (SNMP)
Les périphériques sont gérés de manière unifiée
Augmentation du niveau d'abstraction
Autorisé une certaine automatisation
Problème
SNMP a été conçu pour la surveillance – pas pour configurer des
périphériques
Problèmes d'évolutivité et d'efficacité
Les équipements sont fixent et dépendant du fournisseur
La configuration dépend toujours du rôle, des capacités, limitations du
263 périphérique, du fabricant et de la topologie globale du réseau
Le contrôle par politique (PBN)
Une approche moderne de management du réseau moderne
Basée sur des politiques et des stratégies abstraites de haut
niveau (PBN--Policy Based Network)
Le contrôle par politiques tente de
Augmenter le niveau d'abstraction
Automatisez le management du réseau
Centraliser et simplifier les configurations du réseau
Simplifier la supervision
Augmenter la flexibilité de gestion
Il faut une architecture évolué pour implémenter les politiques
264
Architecture PBN
Deux éléments clés Business/Control
Policies
(après avoir été transformées sur la forme PEP PEP PEP PEP
appropriée)
Devices
265
Avantages du PBN
Gestion centralisée Business/Control
Policies
Other
Évolutivité
Services &
Directory
Events
Service
Automatisation Consistance
Changement dynamique des politiques PDP PDP
Manager Decision Making
266
Common Open Policy Service -- COPS
COPS est un protocole de requête et de réponse simple, utilisé
pour échanger des informations entre PDP et PEP [RFC 2748]
PEP : Policy Enforcement Point
Routeurs
PDP : Policy Decision Point
Serveurs contenant des base de données de politique
COPS utilise des règles de négociées simples pour assurer QoS
l'allocation des ressources, des priorités et de l'autorisation
hiérarchique, etc.
267
COPS
Basé sur un modèle client serveur classique
Utilise TCP pour l’échange de messages (fiabilité)
Affectation des ressources aux priorités souhaitées des services.
Programmer les équipements de manière autonome
COPS permet au routeur (PEP) de communiquer avec PDP à propos
de l'allocation des ressources demandées pour différents types de
trafic
Contrôle d'admission: constate s'il existe suffisamment de ressources
pour satisfaire la demande
Contrôle de la politique: vérifie si la demande doit être considérée
(considère la priorité).
268
COPS – les messages
OPN: Open Connection
OPN
CAT: Connection Accept
CAT
CC: Connection Close
KA PDP1
KA: Keep Alive
KA
KA
PEP CC
OPN
CAT
PDP2
CC
269
COPS – les messages
REQ: Request
REQ
DEC: Decision
DEC
RPT: Report
RPT
SSQ
SSC
RPT
270
Rôle du PDP
Reçoit les politiques de haut niveau
Surveille les événements réseau
Enregistre les capacités/limitations des PEP
Produit et met à jour les données de configuration des PEP selon
les politiques du réseau et l'état du réseau
Lier les stratégies avec l'état du réseau
Produit les données de configuration APPROPRIÉES selon le type
de chaque PEP spécifique, son rôle, ses capacités et ses limites
L'intelligence du modèle de contrôle par politiques est
principalement concentrée au niveau PDP
271
Rôle du PEP
Reçoit des données de configuration
Business/Control
Policies
Other
du PDP
Services &
Directory
Events
Service
de la décision.
Le PEP peut contenir et gérer PDP PDP
PDP Devices
272
Exemple de politiques
Le trafic de la machine 10.1.1.x doit avoir une priorité
haute Remarquer le trafic de cette machine avec DSCP=6
La politique reste toujours valide même si:
Changements de topologie (les nœuds sont ajoutés,
supprimés, ou remplacés)
le sous-réseau " 10.1.1.x " est modifié/étendu
Les services réseau changent (DiffServ est remplacé par
RSVP)
273
Base de données de politiques (Serveur LDAP)
Serveur LDAP (Leightweight Directory Business/Control
Policies
Access Protocol)
Other
Services &
Directory
Events
Service
275
Mode de fonctionnement
COPS peut aussi interroger d’autres entités telles qu’un
serveur d’authentification ou encore un bandwidth broker en
utilisant SNMP
Ce modèle générique de contrôle de réseau par politique
permet de réaliser deux modes de contrôle distinctes :
l’outsourcing
et la configuration (aussi appelé provisionning).
276
Mode Outsourcing
un routeur détecte un nouveau évènement et ne Current
Policies
peut pas la traiter avec la configuration actuelle, il state
REQ
politiques et renvoie la décision prise à partir des
DEC
2
règles de politique.
Il est utilisé avec le modèle IntServ-RSVP, lorsque New
Event
5
le routeur reçoit un message RESV et doit 1
INSTALL
décider d’accepter ou de refuser la réservation PEP
Device
de ressource
277
Mode Provisioning (configuration)
Lorsque des évènements extérieurs Policies
Current
state
impliquent une modification de la
configuration des routeurs, le PDP peut A CHANGE
PDP
communiquer à ces derniers des nouvelles
B
règles à appliquer au travers du protocole
DEC
COPS.
Ce modèle peut donc pallier à la principale PEP C
INSTALL, UPDATE,
faiblesse de DiffServ dont la configuration des DELETE
CONFIGURATION
classes de service est statique DATA
Device
278
Extension de COPS
COPS a fait l’objet de différentes extensions :
COPS-RSVP [RFC 2749] l’utilisation de COPS dans un
contexte IntServ/RSVP
COPS-PR [RFC 3084] qui s’oriente vers le provisionnement de
politique de QoS dans un environnement DiffServ.
COPS-ODRA: COPS Usage for Outsourcing Diffserv
Resource Allocation
COPS-DRA: COPS Usage for Diffserv Resource Allocation
279
COPS usage for RSVP (RFC 2749)
Définie un type de client (PEP) COPS pour RSVP
Fournit une surveillance et un contrôle centralisés de
RSVP
Fonctions du PEP-RSVP
Contrôle d'admission
Classification des données
Gestion de la bande passante (mise en file d'attente)
Police de données
Rapport d'utilisation RSVP
280
COPS usage for RSVP (RFC 2749)
Exemple d’opérations COPS-RSVP
Un routeur (PEP) reçoit les requêtes PATH/RESV
Il essaye de traiter et de servir les requêtes localement
Si le PEP ne peut pas servir les requêtes localement, il
communique avec le PDP
Ensuite, il effectuer le contrôle d'admission conformément à
la décision PDP
281
Exemple (VoIP) COPS-RSVP
Comme c’est RSVP est le protocole de signalisation, il a alors besoin de
certaines informations:
User Authentication (AUTH_USER)
Application Identification (AUTH_APP)
Solves application flow classification issues
DCLASS (DSCP)
TCLASS (802.1p)
SENDER_TSPEC / FLOW_SPEC
Token Bucket Rate, Token Bucket Size, Peak Data Rate
SENDER_TEMPLATE / FILTER_SPEC
Source IP Address and Port number
SESSION
Destination IP Address and Port number
282
Exemple (VoIP) COPS-RSVP
DiffServ
Domain
Egress
Ingress DS PEP
Interior
Access PEP Nodes
Network Access
Network
Host
1 Host
Policy 2
Server
(PDP)
283
Exemple (VoIP) COPS-RSVP
Media Gatekeeper,
Call Gateway Proxy, etc.
Signalling Controller
Gateway
IP Network
PSTN Control
Host
Media Media
Flows Gateway
284
RSVP Signaling Architectural
Overview
• Hosts initiate and respond to RSVP messages
– Reservation initiation, failure, termination or network policy change
• Edge Routers Police BW and Policy Reservations
– DS Edge Routers maintain RSVP soft-state
– DS Core Routers do not maintain RSVP soft-state
• Use DiffServ or TE’d paths to provide QoS assurances in the core
• Admission Control decided by Policy Server (PDP) or Router LDP
• RSVP messages flow end-to-end
• RSVP Reservations must be made separately in each directions
• RSVP-enabled hosts benefit
– Non-RSVP-aware hosts either:
• Achieve no QoS
• Use other access technology-specific QoS
• Use proprietary mechanisms
285
RSVP Reservation
- DS Edge Node DiffServ Domain
DS
Access Interior
Ingress Nodes 5. Process Egress
Network Path Msg.
1. Path PEP 3. P-HOP 4. Path PEP
Access
Host 1 Network
Host 2
Policy
2. COPS-RSVP Server
(PDP) If no BW is available for reservation,
PEP initiates Path failure
DS
Interior
Ingress Nodes Egress
Access PEP PEP
Network Path
6. Resv
Host 1 Host 2
Access
Network
Policy 8. COPS-PR
Server
(PDP)
9. COPS-RSVP
7. COPS-RSVP
9. Resv message sent by Ingress PEP to PDP to confirm reservation. PDP can return DCLASS object
to 287
be sent in Resv msg. sent to Host 1.
RSVP Reservation
- DS Edge Node (cont.)
DiffServ Domain
DS
Interior
Ingress Nodes Egress
Access PEP PEP
Network Path
11. Resv
Host 2
Host 1 Access
Network
10. COPS-PR
Policy
Server
(PDP)
11. Ingress PEP accepts reservation by sending RESV message to Host 1. If PDP rejected
reservation, PEP sends ResvErr back to interface specified inside RSVP N-HOP object.
288
RSVP Reservation
- DS Boundary Node
• The following steps are introduced into the reservation if there are RSVP-capable Boundary
Nodes interconnecting DS Domains
DS Domain 1 DS Domain 2
DS DS
Ingress Interior Interior Egress
Edge Boundary
Node PEP Node Edge
PEP 4b. New PEP
Path P-HOP 4c. Path
Access
Host 1 Network Access Host 2
Network
4a. COPS-RSVP
If no BW is available for
Policy reservation, PEP initiates
Server Path failure
(PDP)
4a. Path Msg. encapsulated in COPS-RSVP message. PDP instructs boundary PEP to forward Path Msg.
and keep soft-state for reservation
4b. Boundary PEP adds its egress interface to RSVP P-HOP object
289
4c. DS Interior Nodes forward Path Message
RSVP Reservation
- DS Boundary Node (cont.)
DS Domain 1 DS Domain 2
DS DS
Ingress Interior Interior Egress
Edge Node Boundary Node Edge
PEP PEP
PEP
Path Path
8c. Resv
Resv
Host 1 Access Host 2
Network
Access
Network
8b. COPS-PR
8a. COPS-RSVP
Policy
Server
(PDP)
8a. If no BW available, PDP informs boundary PEP to generate ResvErr to Host 1. If reservation
accepted, Egress PEP forwards Resv to Host 1.
8b. If reservation succeeds, PDP sends new filters down to PEP
8c. Boundary PEP admits reservation by sending RESV message to Host 1. If PDP rejected reservation,
PEP sends ResvErr back to interface specified in RSVP N-HOP object.
290
RSVP/DiffServ & COPS
Client (QoS)
PDP: “Allow PATH” or “Reject PATH”
Using COPS PR Push
Service Agreement for
RSVP Session (5tuple):
PATH Mark PHB = EF; Meter = TB2
RSVP-enabled Differentiated
campus network service PDP: “You may
network(s) Reserve Bandwidth
up to TB2”
COPS PDP
RSVP-enabled
campus network
RESV Client
291
291 Client: “Yes, Reserve Bandwidth”
COPS Request-Decision Sequence
Interacting Across COPS Client-Types
293
Policy Information Base (PIB)
La PIB a été introduite pour COPS-
PR pour envoyer les données sur les
capabilités d’un routeur (PEP) vers
le PDP
Elle transporte les politiques à
installer/mettre à jour du PDP vers
le PEP
Ressemble à la structure du MIB
(Management Information Base)
Structure en arbre de
provisionnement de classe, chacune
a des instances de provisionnement
294
Policy Information Base (PIB)
Modules du PIB
Policy Framework : contient des informations générales
QoS IP : filtres IP spécifiques, classificateurs, actions
QoS IEEE 802: filtre et classe spécifique 802.1P/Q (précédence IP)
Règles du PIB
Chaine de caractère, le PDP l’utiliser pour envoyer les ordres, etc.
295
Exemple PIB
PRID VALUE
2.1.3.2.1 (100,2)
2.1.3.1.2 (4,NO)
2.2.1.2.1 (100,2,10)
2.2.1.2.2 (100,1,11)
2.2.1.1.1 (128.1.1.1,6)
296 2.2.1.1.2 (128.1.1.2,6)
COPS-PR Example 1
Policy:
if traffic to IPs 128.1.1.1 or 128.1.1.2 has DSCP=4
then remark it with DSCP=6
297
COPS-PR Example 2
Policy: if traffic to engineers has DSCP=4 then remark it with
DSCP=6
Event: PDP->PEP DEC PIB (@ PEP)
PEP connects <NULL>
<EMPTY>
No Engineer is logged
Two Engineers log on at 128.1.1.1 and Install: 2.1.3.2.1 (100,2)
128.1.1.2 2.1.3.2.1 (100,2) 2.1.3.1.2 (6,NO)
if traffic to 128.1.1.1 2.1.3.1.2 (6,NO) 2.2.1.2.1 (100,2,10)
2.2.1.2.1 (100,2,10) 2.2.1.2.2 (100,1,11)
or 128.1.1.2 has DSCP=4 2.2.1.2.2 (100,1,11) 2.2.1.1.1 (128.1.1.1,4)
then remark with DSCP=6 2.2.1.1.1 (128.1.1.1,4) 2.2.1.1.2 (128.1.1.2,4)
Engineer at 128.1.1.2 logs out 2.2.1.1.2 (128.1.1.2,4)
Remove: 2.1.3.2.1 (100,2)
if traffic to 128.1.1.1 has 2.2.1.2.2 2.1.3.1.2 (6,NO)
DSCP=4 2.2.1.1.2 2.2.1.2.1 (100,2,10)
2.2.1.1.1 (128.1.1.1,4)
then remark with DSCP=6
An Engineer logs to 128.1.1.3 Install:
(similar to the first case) 2.2.1.2.2 (100,1,11)
298 Similar to the first case
2.2.1.1.2 (128.1.1.3,4)
Chapitre 5: Approche IUT-NGN (TEQUILA &
EuQoS)
299
TEQUILA: Traffic Engineering for Quality of Service in the
Internet at Large Scale
Objectifs:
Spécifier, valider et implémenter des service et outils pour TE
Planification, dimensionnement, et contrôle dynamique du trafic
Management de la QoS de bout-en-bout sur DiffServ
Définition du « Service Level Specification (SLS) »
Négociation, Monitoring and Renforcement de SLSs
Ingénierie de trafic intra et inter-domaines pour répondre au SLS
Protocoles et mécanismes de négociation, de routage à QoS, de supervision et de
renforcement de SLS de bout-en-bout
300
TEQUILA: Architecture
L’architecture de TEQUILA suppose un réseau Internet multi domaines, formé
par plusieurs systèmes autonomes (AS).
Chaque AS est formé de routeurs d'accès (Edge Routers) et de routeurs de
bordure (Core Routers)
Les routeurs d'accès connectent les réseaux d'accès des clients aux ASs via
des protocoles de routage intra-domaine, comme OSPF, IS-IS et RIP2
Les routeurs de bordure connectent les ASs entre eux, possiblement via un
protocole eBGP, selon une topologie Mesh
Chaque AS est administré par un seul et unique administrateur
301
Bandwidth broker (BB)
C’est un gestionnaire de:
bande passante qui traite les échanges avec le SLS
Ressources qui assure la réservation, contrôle d’admission et l'ingénierie de trafic
Configuration réseau, car il permet de renforcer la QoS
302
Négociation du SLS pour application multimédia
303
Négociation du SLS pour application multimedia
304
TEQUILA: TE
Négociation de QoS entre domaines différents à travers différents
Bandwidth broker qui coordonnent entre eux
On trouve des mécanismes de négociation au niveau session comme SIP
305
TEQUILA: TE
306
????? End-to-end Path
?
Access ? AS
Access network
network ?????? ??????????
DOMAIN
? AS
?
??????????
DOMAI
DOMAIN?
N Access
AS
? network
AS ?
AS
?
Access network AS
?
DOMAIN DOMAIN ?? Access network
???????
307
Solutions classiques
Utiliser un chemin de signalisation pour forcer chemin de données (sur le chemin)
Chemin de contrôle ou de signalisation utilise un protocole IntServ RSVP
Utiliser un protocole de session comme SIP (TEQUILA)
Et les données envoyées sur cette voie de QoS
Mais, cette approche est difficile à maintenir et déployer
L’approche EuQoS
Sélectionner le chemin de données avec BGP modifié pour EUQoS
Introduire un gestionnaire de bande passante plus étendu (Resource Manager)
Tirer la signalisation de chemin de données (off-path)
Envoyer des données sur le (QoS) chemin de données
308
Architecture globale d’EUQoS
USER 1 Application Level USER 2
311
Sélection du chemin de données: qBGP avec classe de
service QoS
BR3-x
BR3-out
BR3-in
BR4-in
AS 3
BR3-y
AS 4
BR4-out
BR5-in
AS 5 Receiver
Sender
BRout
BR6-in
Access AS 6
Network
312
Commencer à partir du chemin de données
BR4-in
AS 4
BR4-out
313
Ajouter un Bandwidth Broker & Resource Manager par
domaine
BR4-in
EBB4
AS 4
BR4-out
314
Utiliser ce BB pendant la phase de signalisation
BR4-in
EBB4
BR4-out
315
Utiliser un chemin de signalisation lors de la phase de
signalisation
BR4-in
EBB4
AS 4
BR4-out
BR4-in
EBB4
AS 3
AS 4
BR4-out
EBB5 BR5-in
Receiver
AS 5
Sender
BR5-out BR6-in
317
Data Signaling EBB6 AS 6
Indépendance de la technologie réseau sous-jacente
318
AQ-SSN Contrôle d’admission
EQ-SAP
NSIS
ResCom ResCom
EBB/RM1 EBB/RM2 EBB/RM3
ResCom-Ack ResCom-Ack
Res-Ack Res-Ack
ResCom ResCom ResCom Res-Ack
Com-Ack
Com-Ack Com-Ack
LOOSE
PATH
PCC PCE
1: Path Request TED
PCE [RFC 4655--2006] est capable de trouver une voie appropriée pour le transport
de données entre une source et une destination
321
MPLS et Path Computation Element (PCE)
L’architecture PCE définie deux entités:
PCC (Path Computation Client) demande l’établissement du chemin MPLS
PCE (Path Computation Element) un nœud du réseau, un serveur dédié ou une plateforme de calcul haute
performance qui permet de calculer le chemin de bout-en-bout
Les PCEs des domaines collaborent pour calculer un dur chemin inter-domaine
322
Création du chemin de bout-en-bout
BGP
BGP
and
PCE
PCE
324
Protocole de signalisation
325
Protocole de signalisation
326
Protocole de signalisation
327
Implémentation de la QoS
328
Exemple de déploiement de CoS
329
Scénario multi-domaines
330
Scénario multi-domaines
331
Classes de service (CoS)
332
Résumé des composants EUQoS
333
Conclusion
EUQoS présente une architecture évoluée de fourniture de la QoS
Adresse des besoins variées en multi-domaines, multi-technologies, hétérogènes
La signalisation est déduite à partir du protocole de routage (qBGP), qui permet de tirer le chemin de
signalisation entre Bandwidth Brokers
Comme TEQUILA, EUQoS aussi utilise des équipements réseaux propriétaires pour implémenter la
QoS
Le plan de contrôle est toujours dans le routeur, il n’est pas possible de contrôler le chemin de
signalisation en dehors du plan de données
De nouveaux services et applications apparaissent toujours, et l’architecture client-serveur ou 3-tiers
ne sont pas suffisantes
Problème d’adressage au niveau IPv4 et de déploiement de IPv6
besoin d’une infrastructure réseau différente, flexible et capable de supporter le nouveau trafic
cloud computing, virtualisation du réseau, SDN et Internet des Objets
334
Chapitre 6: Les réseaux hybrides satellites et
terrestres
335