Multiplexage du trafic vidéo dans ATM

Transcription

Multiplexage du trafic vidéo dans ATM
Chapitre 4
Multiplexage du trafic vidéo dans ATM
Résumé
Le but de ce chapitre est d’analyser les techniques de modélisation de trafic et leur adéquation au trafic vidéo.
L’analyse prend en considération l’environnement préventif du contrôle de trafic ATM. Tout d’abords, nous
présentons les raisons de la variabilité du trafic vidéo pour mettre en évidence la multitude d’échelles de temps de
ses fluctuations. Ensuite, nous passons en revue quelques modèles de trafic utilisé pour la vidéo VBR. La garantie
de QoS dans les réseaux ATM passe par l’étude de performances de multiplexeurs de trafic. Nous analysons des
méthodes de contrôle de performances de files d’attente et distinguons deux échelles de congestion: cellule et
rafale. Deux classes de multiplexage sont ensuite présentées : le Rate Envelope Multiplexing et le Rate Sharing.
La conclusion de ce chapitre justifie le choix des paramètres de trafic et les schémas de multiplexage choisis pour
la vidéo à débit variable.
4.1 Echelle de variabilité
Dans l’ingénierie de trafic, il est essentiel de comprendre les propriétés intrinsèque d’un trafic pour pouvoir
en maîtriser les effet sur un réseau, et en particulier bien dimensionner les ressources de ce réseau. Le but de ce
paragraphe est donc d’essayer d’analyser les propriétés essentielles de la vidéo à débit variable qui fait d’elle une
classe à part du trafic du RNIS-LB, bien différente de ce qu’on connaissait déjà du trafic audio et données. Un
aspect particulièrement intéressant étant les échelles de temps des fluctuations de la vidéo à débit variable pouvant
aller de l’échelle cellule (variabilité du débit cellulaire durant la génération d’une seule image) à l’échelle
séquence (différence entre le débit d’un match de foot et celui d’un journal télévisé).
31
Contrôle de trafic ATM pour sources vidéo à débit variable
4.1.1 Echelle cellule
La variation du débit à l’échelle de la cellule est un phénomène très étudié depuis l’apparition de la technologie ATM. C’est la perturbation de la forme d’un trafic donné du fait de sa «cellularisation» et du fait de l’aspect
asynchrone du multiplexage ATM. Un exemple typique d’étude de la variabilité à l’échelle de la cellule est la
gigue qui affecte les connexions CBR ce qui nécessite des mécanismes de re-synchronisation au bout de la connexion comme c’est le cas pour l’AAL-1. Ce phénomène est souvent modélisé par la file d’attente D+M/D/1 où
l’on considère qu’un flux initialement périodique est perturbé par un trafic de fond de type Poisson [7].
En ce qui concerne le trafic MPEG, les fluctuations à l’échelle de la cellule sont dues à la manière dont le
train binaire est généré à la sortie du codeur. Dans [107], les auteurs distinguent trois options de génération de
trafic à la sortie d’un codeur VBR comme l’illustre la figure 7.
Débit crête
image i-1
Débit crête
Débit crête
image i
image i+1
a) Les données sont émises au
rythme de leurs générations
par l’algorithme de codage.
image i-1
image i
image i+1
b) Chaque image est émises à
son débit moyen (fraction du
débit crête) pendant une période image.
image i-1
image i
image i+1
c) Chaque image est émise au
débit crête de la connexion
pendant une fraction de la
période image.
Figure 7: Génération de trafic à la sortie d’un codeur VBR.
Dans la première option (figure 7-a) on considère que les données sont émises au fur et à mesure qu’elles
sont générées par le codeur, autrement dit, une cellule ATM est émise aussitôt que le codeur génère 48 octets de
données (ou 47 selon le protocole utilisé). La distribution des cellules est alors fonction de la complexité spatiale
et temporelle des macro-blocs de l’images. Une région uniforme donne lieu à une faible quantité de donnée et
donc des cellules plutôt espacées. Inversement, une région à forte complexité génère des cellules à un rythme plus
élevé et donc plutôt collées les unes aux autres. La prise en compte de ce type de fluctuations nécessite la connaissance de la distribution des données dans l’image codée qui peut être utilisée pour le dimensionnement du nombre
de sources transmises simultanément sur un canal réseau. L’avantage de ce modèle de trafic est que l’information
est transmise en temps réel sans aucune attente.
La deuxième option (Figure 7-b) suppose que les données sont mémorisées pendant une période image avant
d’être émises au débit moyen de l’image donnée par le rapport de la taille de l’image compressée par la période
image. L’arrivée des cellules est alors périodique. Contrairement au modèle précédant, la connaissance de la distribution des cellules dans l’image n’est plus utile (au prix du délai de mémorisation de 40 ms) et seule la distribution de la taille des images est importante.
Dans la troisième option (Figure 7-c) les données sont également retardées de 40 ms avant d’être émises au
débit crête de la connexion pendant une fraction de la période image proportionnelle à la taille de l’image compressée. Les cellules sont alors collées pendant la durée de la rafale. Comme le modèle précédent, seule la distribution de la taille des images est significative et est directement liée à celle de la durée des rafales.
En conclusion, la variation à l’échelle de la cellule dépend surtout de la manière dont les données sont émises
sur le canal. La prise en compte de ce phénomène n’est significative que si l’on opère à des délai inférieurs à la
période image (e.g. 40 ms). Si on accepte un retard d’une période image, seule la taille de l’image devient importante pour les étude du trafic réseau. Même dans le cas des codeurs CBR associés au canaux de transmission CBR,
cette échelle de variation est négligée puisque le trafic est défini aux frontières de périodes images. Notons enfin
que des systèmes de mises en paquets comme MPEG Système ou AAL-5 introduisent une gigue au niveau paquet
qui doit être également prise en compte.
32
Multiplexage du trafic vidéo dans ATM
Taille de l’image (Kbits)
100
90
80
70
60
50
40
30
20
10
0
5
10
15
20
25
30
35
40
45
50
Numéro de l’image
Figure 8: Variation à l’échelle Image: l’effet IPB.
4.1.2 Echelle image
La variabilité à l’échelle de l’image se traduit par la différence entre les tailles des images compressées d’une
séquence vidéo. Ce type de variation est propre à la source du trafic et ne dépend pas du système de transmission.
De ce fait, un trafic vidéo est le plus souvent caractérisé par la distribution des tailles de ses images. Nous distinguons deux raisons pour la variabilité de la taille des images : le contenu de l’image et l’algorithme de codage. La
première provient du fait que la complexité spatiale (niveau de détails, couleurs, etc.) et temporelle (rapidité des
mouvements) de l’image a un effet direct sur la taille de l’image compressée [43]. La deuxième raison provient du
fait que l’algorithme de codage définit des types d’images codées différemment. En particulier, dans MPEG, les
images P sont plus petites que les images I et plus grandes que les images B (pour des images de complexités
comparables) ce qui donne une forme de variation typique au trafic MPEG où l’on devine facilement la structure
du GoP, comme le montre la figure 8.
La variation des tailles IPB permet à l’algorithme de codage d’être à la fois robuste (les images I arrêtent la
propagation des erreurs) et d’atteindre un bon taux de compression (grâce aux images B). De ce fait, la variabilité
IPB est aussi présente dans les trafic générés par les codeur CBR. Ce type de variabilité est en fait propre à l’algorithme MPEG.
4.1.3 Echelle scène
Si l’on observe un trafic vidéo VBR à une échelle de temps de plusieurs dizaines de secondes, on observe des
variations dont l’amplitude est beaucoup plus importante que celle constatée à l’échelle de l’image. C’est l’effet
de scène.
Une scène est une suite d’images ayant plus ou moins le même contenu (personne qui parle, plan fixe...) à
l’intérieur d’une séquence vidéo (le film ou l’émission,...). Lorsque les images d’une scène ont une forte complexité spatiale (beaucoup de petits détails, beaucoup de couleurs non uniformes...), l’étape de quantification ne permet pas d’atteindre un grand rapport de compression. D’autre part, si la complexité temporelle est forte, i.e. le
mouvement des objets d’une image à l’autre est important (lors d’un changement de scène, zoom rapide de la
caméra...), l’estimation des vecteurs de mouvement échoue et une grande quantité de donnée est générée par le
codage de la scène. Nous appelons scène active, une scène qui montre une grande complexité spatiale et temporelle et donc qui génère un débit (quantité de données divisée par la période de temps) plus grand que la moyenne
de la séquence vidéo. Nous appelons scène peu active une scène à faible complexité spatiale et temporelle. Par
33
Contrôle de trafic ATM pour sources vidéo à débit variable
exemple, une scène montrant un gros plan sur le visage d’une personne qui parle tend à générer un trafic de faible
débit (par rapport à une moyenne à long terme) du fait des régions uniforme et de la similitude des images successives. Ce type de scène génère un débit inférieur à la moyenne de le séquence vidéo.
Les variations à l’échelle de la scène sont de plus basse fréquence que celles de l’effet IPB. Elles peuvent
donc être observées en filtrant le trafic à l’aide d’une moyenne glissante (Moving Average) pour éliminer les fluctuations à court terme. La figure 9 montre la moyenne glissante, sur une fenêtre de 12 images, d’une séquence très
active (vidéo clip de musique rock) codée en MPEG-1. La durée de cette séquence est de une minute et les rafales
observées sont de l’ordre de la dizaine de secondes.
La variabilité du trafic due au contenu de la scène est la moins bien étudiée en ce qui concerne le trafic vidéo
car cette variabilité ne dépend que du contenu de la scène qui est très souvent imprédictible (car lié au scénario du
film ou de la séquence). Ceci provient aussi de l’absence de durée typique d’une scène active ou inactive qui évoluent d’une manière plutôt arbitraire. Comme ce phénomène est rarement présent dans les séquences de type visioconférence qui sont les plus étudiées dans le cadre des réseaux ATM, la plupart des modèles de trafic développés
ne tiennent pas en compte les variations à l’échelle de la scène (voir [27] pour un modèle de trafic prenant en
compte l’effet de scène).
4.1.4 Echelle séquence
Les documents vidéo peuvent être classifiés selon le contenu. On parle alors d’une séquence de foot, journal
télévisé, film, publicité etc... Si l’on observe le trafic généré par un programme de télévision pendant une journée,
on s’attend à ce que le débit change d’une séquence à l’autre. Cette échelle de variation est bien connue dans le
codage CBR. En effet le débit constant, paramètre du codage CBR, est choisi selon le type de séquence. On sait
par exemple qu’une séquence de foot nécessite plus de débit qu’une vidéo-conférence.
Pour le réseau, il est plus facile de gérer la variabilité du débit à l’échelle de la séquence que les autres types
de variabilités. En effet, la durée de la connexion est souvent considérée comme étant la durée de la séquence
vidéo, i.e. on établit une connexion réseau pour transmettre une séquence vidéo. Comme les paramètres de la connexion réseau sont déclarés par l’utilisateur, c’est ce dernier qui est responsable de caractériser son trafic à
l’échelle de la séquence (e.g. selon une pré-classification des types de séquences et des débits CBR correspondants). C’est alors à l’algorithme CAC de décider de l’acceptation de la connexion. La caractérisation du débit à
l’échelle de la séquence est cependant utile pour le dimensionnement de la capacité globale du réseau pour contrôler le taux de rejet des connexions (de la même manière que le dimensionnement d’un réseau téléphonique).
Taille de l’image (Kbits)
120
100
80
60
40
20
Numéro de l’image
0
7000
7200
7400
7600
7800
8000
Figure 9: Variation à l’échelle de la scène.
34
8200
8400
Multiplexage du trafic vidéo dans ATM
Figure 10: Débit instantané de quatre séquences vidéo.
Pour mieux illustrer cette variabilité de débit engendré par le type de séquence, quatre documents vidéo de
10.000 images chacun ont été codés en MPEG-1 et dont voici les caractéristiques :
Séquence
Débit
moyen(
Mb/s)
Débit
min
(Mb/s)
Débit
crête
(Mb/s)
Variance
(Mb/s)2
Ecart
type
(Mb/s)
Coefficient de
Variation
Auto-corrélation
1er ordre
Rapport
débit
crête/
moyen
Video Clip
1.106
0.143
5.033
0.422
0.649
0.3444
0.3360
4.55
Spitting
Images
1.026
0.253
3.072
0.368
0.606
0.3496
-0.2482
2.99
Mayotte
0.505
0.198
1.597
0.087
0.295
0.3421
-0.3150
3.16
Pierre’s
Conference
0.581
0.245
1.468
0.168
0.410
0.4991
-0.4194
2.52
Tableau 3 : Statistiques sur les trafic de séquences MPEG-1
35
Contrôle de trafic ATM pour sources vidéo à débit variable
Quatre séquences de différents types ont été compressées utilisant MPEG-1. La première séquence s’appelle
Video Clip et représente un clip vidéo musical qui a été choisi pour la grande complexité des ses images, les
changement de scène fréquents, la diversité des couleurs et la rapidité des mouvements. La deuxième séquence,
The Spitting Images, est un programme de la télévision britannique montrant un ensemble de marionnettes un peu
comme “les guignols de l’info”. La troisième séquence, Mayotte, est un document amateur filmé par un touriste
aux îles de Mayotte. Il montre de longues scènes panoramiques sans trop de zoom ni de changement de scènes. La
dernière séquence, Pierre’s Conference, est du type vidéo-conférence et montre un professeur pendant une séance
de cours dans un plan fixe. Le tableau 3 montre les statistiques obtenues en analysant les tailles des images
générées pour chaque séquence. les paramètres du codage MPEG-1 sont données dans le tableau 4.
Paramètre
Valeur
Résolution de l’image
384x288
Paramètre de Quantification
8
Distance entre images I
5
Distance entre images P
2
Séquence d’images à l’affichage
...IBBPBBI...
Contrôle de débit
Aucun
Tableau 4 : Paramètres du codage MPEG-1
Concernant la distribution de la taille des images obtenues, la figure 12 montre la différence entre les quatre
séquences et donc l’absence d’une forme typique pour le trafic vidéo. Les travaux de Heeke sur des séquences de
vidéo-conférence ont abouti à la même conclusion [46]. L’effet IPB est très clair dans la séquence Pierre’s Conference et devient indiscernable quand les fluctuations à l’échelle de la scène sont importantes (comme c’est la cas
pour Video Clip).
Les courbes de la figure 11 montrent l’ensemble des paramètres du GCRA (i.e. r et M) pouvant être choisis
pour chaque séquence pour ne pas avoir de pertes dans l’UPC (i.e. l’ensemble de paramètres auquel la séquence
est conforme). Les courbes montrent l’impact significatif du contenu de la séquence sur les ressources réseaux
nécessaires pour fournir une qualité de service donnée. Par exemple, à temps de réponse égal (le temps de réponse
est défini par M/r), le débit requis pour Video Clip peut être trois fois plus grand que celui de Mayotte.
40
M (Mbits)
35
30
Video Clip
25
20
Mayotte
The Spitting Images
15
10
5 Pierre’s
Conference
0
0
0.5
1
1.5
2
2.5
3
3.5
4
Figure 11: Paramètres GCRA pour des séquences MPEG-1
36
4.5
r (Mb/s)
Multiplexage du trafic vidéo dans ATM
35
Proba. x 103
35
30
30
25
a) Video Clip
20
15
15
10
10
5
5
0
0
50
100
150
200 250 300
Taille image x 10-3
Proba. x 103
0
0
35
30
50
100
150
200 250 300
Taille image x 10-3
Proba. x 103
30
25
c) Mayotte
20
15
15
10
10
5
5
50
100
150 20000 250 300
Taille image x 10-3
d) Pierre’s Conference
25
20
0
0
b) The Spitting Images
25
20
35
Proba. x 103
0
0
50
100
150
200
250 300 350
Taille image x 10-3
Figure 12: Distribution de la taille d’images des séquences MPEG-1
4.1.5 Conclusion
Le but de cette section était de comprendre les causes de variabilité du trafic vidéo. La conclusion principale
est le fait que la trafic fluctue sur plusieurs échelles de temps allant de la période image (i.e. 40 ms) à la durée de
la connexion (e.g. plusieurs dizaines de minutes).
Chaque échelle de variabilité engendre des problèmes spécifiques dans le réseau. Les fluctuations au niveau
cellulaire introduisent des problèmes de gigue et nécessitent de mécanismes d’espacement dans les éléments du
réseau et de re-synchronisation à la sortie du réseau. A l’échelle de l’image, un buffer de lissage est souvent utilisé
pour accommoder l’effet IBP en particulier dans le cas des codeurs CBR. Les fluctuations à l’échelle de la scène
posent le problème de la stationnarité du trafic vidéo VBR illustré par les phénomènes de dépendances à long termes dans les séquences de longues durées. Enfin, la variabilité à l’échelle de la séquence illustre la disparité des
débits générés par des documents vidéo de contenu différents ainsi que leur impact sur la caractérisation des
paramètres du GCRA.
37
Contrôle de trafic ATM pour sources vidéo à débit variable
4.2 Modélisation du trafic vidéo
Pour étudier les multiplexeurs ATM, une modélisation du trafic d’entrée est nécessaire. Un modèle de trafic
est un objet mathématique ou algorithmique qui présente des caractéristiques, souvent statistiques, similaires au
trafic réel. Il sert à mieux connaître et décrire le trafic et permet de dimensionner les files d’attentes dans les
réseaux. Un modèle de trafic sert aussi à générer des données pour les simulations numériques. Plusieurs types de
modèles sont utilisés dans la littérature dont nous décrivons ci-après les plus fréquentes.
4.2.1 Loi stationnaire du débit
Une trafic vidéo peut être caractérisé par la distribution de son débit. La distribution du débit peut être
définie sur plusieurs échelles comme indiqué plus haut. Sur l’échelle cellulaire, cela consiste à donner la distribution de l’inter-arrivée des cellules. Pour une description indépendante du réseau, la distribution de la taille des
images est aussi convenable. Plus généralement, il est pratique de considérer le modèle fluide où le trafic d’une
source i est défini par un débit instantané fonction du temps, notons le R(t). Si on connaît la densité de probabilité
de R(t), notée F (sous hypothèse de stationnarité), des résultats simples de performances du multiplexage peuvent
être obtenus. En effet, supposons qu’on multiplexe N sources homogènes et indépendantes caractérisées par leur
débit instantané Ri(t) et leur densité de probabilité f (que l’on suppose, sans perte de généralité, commune à toutes
les sources), dans un canal à débit constant C sans possibilité d’attente (sans buffer). Le débit agrégé noté Λ(t) est
égal à la somme de tous les débits et sa densité de probabilité est égale à fN : la convolution N fois de f. Le trafic en
excès (quand Λ(t) > C) est perdu et le débit instantané des pertes est égal á L(t) = (Λ(t) - C)+, l’opérateur + désigne
la partie positive de la fonction. La moyenne du débit de perte L est donnée par :
∞
L =
∫ ( x – C )fN ( x ) dx
C
et le taux de perte, qui est un paramètre de QoS du schéma de multiplexage est égal à L/Λ. L’importance d’un tel
schéma de multiplexage est expliqué dans le paragraphe 4.3.3. Nous décrivons ci-après quelques lois de distribution ayant été utilisées pour la modélisation du trafic vidéo.
La loi de Gauss
Cette loi est utilisée par Helmut Heeke [45] comme hypothèse sur la loi stationnaire du débit variable de la
vidéo. L’utilisation de cette loi est principalement suggérée par la forme en cloche des histogrammes des tailles
d’images vidéo. L’utilisation de la loi de Gauss ne peut être utile qu’à titre indicatif ou pour la génération de
trafics simples car elle ne constitue qu’une approximation grossière du trafic vidéo à débit variable. L’observation
des histogrammes de traces de données réelles montrent que la cloche n’est presque jamais symétrique.
La loi Gamma
Cette loi est utilisée par D. Heyman et T.V. Lakshman [47, 48] pour caractériser la densité de tailles
d’images issues de traces vidéo réelles. La fonction densité fG(x) de la loi Gamma est la suivante :
α α–1
– λx
λ x
f G ( x ) = -------------------- e
;
Γ(α )
x, λ, α > 0
∞
Γ(x) étant la fonction Gamma : Γ ( α ) =
∫t
0
38
α – 1 –t
e dt .
Multiplexage du trafic vidéo dans ATM
La loi Gamma est définie par deux paramètres: le paramètre d’échelle (scale) λ et le paramètre de forme
(shape) α. La forme de la loi Gamma semble correspondre à certains types de traces vidéo VBR [48]. Il faut
cependant noter qu’une distribution en unimodale (en cloche) comme la loi Gamma ou celle de Gauss n’est valable que pour un codage où toutes les images sont de même type (I, B). Pour un trafic MPEG en général, il faudra
tenir compte de l’échelle de variation IBP en appliquant des facteurs de réajustement pour les trames B et P par
exemple. Une autre manière est de considérer la distribution de la taille des GoP, et de dériver les tailles des
images à l’intérieur d’un GoP en fonction de leurs type.
La loi de Weibull
Cette loi a été utilisé dans [47] pour caractériser la durée des scènes. Sa fonction de distribution complémentaire
(probabilité que la variable soit plus grande que x) est donnée par :
Sw(x) = 1 - e
– λx
α
;
x, λ, α > 0
La loi de Pareto
Cette loi a été utilisée dans [30] pour caractériser la loi stationnaire du débit de la séquence “Starwar”. La densité
de la distribution de Pareto généralisée est la suivante :
α k–1
Γ ( α + k )λ x
f P ( x ) = ----------------------------------------------------;
k+α
Γ ( α )Γ ( k ) ( λ + x )
x, α, λ, k > 0
La cas classique de la loi Pareto correspond a k = 1.
4.2.2 Chaîne de markov
Le comportement d’une source vidéo VBR peut aussi être modélisé par une chaîne de markov [46] [82] [47]
[48] [22]. La chaîne de markov peut être définie en temps continu ou en temps discret. Un modèle en temps continu consiste à représenter la variable X(t) : intensité du débit à l’instant t. A temps discret, c’est le nombre de cellules (ou d’octets) par image qui est représenté par une chaîne de markov. Partant d’une trace vidéo, une chaîne de
markov à temps discret peur être construite de la manière suivante: soit Xn la taille en cellule de la nième image,
pour éviter un espace d’état très grand, on utilise en général une quantification des valeurs de Xn en considérant la
variable aléatoire Yn = INT(Xn/K) (INT = partie entière, K = 50 ou 100 par exemple). La matrice de transition P =
(pij) est alors construite à partir des données empiriques de la manière suivante [47]:
Nombre de transitions de i à j pij = ------------------------------------------------------------------------------Nombre de transitions d'origine i
L’avantage de l’utilisation des chaînes de markov par rapport aux autres modèles de trafic est la possibilité
de résolution analytique de systèmes de files d’attentes.
4.2.3 Modèles auto-régressifs
Les modèles auto-régressifs [47, 48] sont connus pour bien approximer l’auto-corrélation du trafic en question. En effet, par construction, les paramètres du modèle permettent de contrôler les dépendances entres échantillons successifs. Ainsi, un modèle du premier ordre (noté AR(1)) s’écrit de la manière suivante:
Xn+1 = a + bXn + cεn
39
Contrôle de trafic ATM pour sources vidéo à débit variable
où εn sont des variables aléatoires i.i.d ayant comme distribution une loi de Gauss de moyenne zéro et de
variance 1. Ce modèle est déterminé par trois paramètres, il suffit en pratique de fournir la moyenne, la variance et
le coefficient d’auto-corrélation d’ordre 1. D’une manière générale un modèle AR(k) s’écrit :
Xn+1 = a0 + a1Xn + a2Xn-1 + ... + akXn-k+1 + ak+1εn
D’autres modèles auto-régressifs ont été proposés, nous présentons plus en détail le modèle DAR et le
modèle TES.
La modélisation DAR (Deterministic AutoRegressive)
Supposons connus le coefficient d’auto-corrélation d’ordre 1, noté ρ, et les probabilités stationnaires de la
taille d’image, f0, f1, ..., fK, FK (avec FK =
∑
k>K
f k , il sert à limiter le nombre d’états et correspond à la limitation
du débit crête K), ces probabilités peuvent correspondre à une distribution comme Pareto, Weibull ou Gamma. On
construit alors la chaîne de markov dont la matrice de transition est la suivante [47]:
P = ρI + (1-ρ)Q
I désigne la matrice unité et chaque ligne de Q est formée par f0, f1, ..., fK, FK. La chaîne de markov représente la
taille des images. Le modèle DAR est défini par un plus petit nombre de paramètres qu’une chaîne de markov en
général. Ce modèle a été suffisant dans certains cas pour étudier les performances d’un multiplexeur ATM[47]. Il
tend cependant à sur-estimer le taux de perte pour certaines séquences .
La modélisation TES (Transform-Expand-Sample)
Développé par Benjamin Melamed de NEC Research Institute à Princeton NJ [83], cette méthode permet de
générer des séries de données pour les simulation et l’évaluation des performances de multiplexeurs ATM. La
méthode TES est basée sur les modèles auto-régressifs du premier ordre. Le principal avantage de cette méthode
est sa capacité à reproduire aussi bien la structure corrélative que la distribution stationnaire d’un échantillon de
données. Nous reproduisons ci-après le principe de la méthode TES. Soit {Vn} une séquence de variables aléatoire indépendantes et identiquement distribuées de densité f. On définit le processus {Un} de la manière suivante:
Un = frac{Un-1 + Vn} pour n > 0
avec U0 uniforme sur l’intervalle [0,1], frac{x} désigne la partie fractionnaire de x. Le processus {Un} est une
séquence de variables corrélées et identiquement distribuées, dont la loi est uniforme sur l’intervalle [0,1]. La
construction de la séquence {Un} permet de contrôler son auto-corrélation en choisissant {Vn} d’une manière
appropriée. Dans la pratique, {Un} est transformée pour donner lieu à une séquence {Xn} ayant la distribution
voulue. En effet, si F désigne la distribution voulue pour la série de donnée {Xn}, il suffit d’appliquer la transformation D=F-1 au processus {Un} pour la génération de {Xn} :
Xn = D(Un)
D étant définie de manière appropriée si F n’est pas strictement monotone [24]. La fonction d’auto-corrélation de
{Xn} est donnée par [69]:
∞
2
˜ ( i2Πv ) 2
ρ ( τ ) = ------ ∑ Re [ ˜f τ ( i2Πv ) ] D
2
σ v=1
40
Multiplexage du trafic vidéo dans ATM
avec X˜ désigne la transformée de Laplace de X, fτ la τ-convolution de f, σ2 la variance de {Xn} et i2 = -1. Le choix
de f et D permet donc déterminer à la fois la fonction d’auto-corrélation et la distribution des {Xn}. De plus, il est
possible d’obtenir une auto-corrélation ossillatoire ou monotone décroissante. En particulier, si on choisit {Vn}
uniforme sur un intervalle [-L,R] avec 0< L, R, L+R <1, alors l’amplitude de la fonction d’auto-corrélation est
contrôlée par la paramètre α = R+L (un α grand donne lieu à de faibles amplitudes) et la fréquence des oscillations de l’auto-corrélation est contrôlée par le paramètre φ = (R-L)/(R+L) (φ = 0 donne lieu à une fonction monotone décroissante, et φ non nulle engendre une fonction oscillatoire, plus la valeur de φ est grande et plus la
fréquence des oscillations est élevée). Un exemple de l’utilisation des modèles TES pour l’évaluation des performance d’un multiplexeur de trafic vidéo se trouve dans [76].
4.2.4 Auto-similarité
Cette propriété statistique, connue aussi sous les noms de dépendances à long terme, persistance ou encore
effet de Hurst, a suscité un grand intérêt dans les études de trafic des réseau de données. Des observations sur le
trafic de données dans les réseaux locaux à Bellcore [78] ont permis de mettre en évidence l’auto-similarité de
certains type de trafics. Les mêmes auteurs se sont aussi intéressés au trafic vidéo à débit variable [3, 30]. Le trafic
Internet et plus particulièrement TCP/IP n’a pas échappé à la règle puisqu’il a été montré auto-similaire.
Le concept d’auto-similarité est bien défini mathématiquement. Plusieurs définitions équivalentes sont données dans [3] et [78]. Nous retenons ici une propriété particulièrement simple: Soit {Xi} une série de données
ayant une moyenne λ et une variance finie σ2. Soit {Xk(m)} une nouvelle série de données construite à partir de la
première par agrégation de m éléments successifs: Xk(m) = 1/m (Xkm-m+1 +... + Xkm). La présence de dépendances
à long terme dans la série {Xi} signifie que la variance de l’échantillon Xk(m) décroît (en fonction de m) plus lentement que 1/m, i.e.: Var(Xk(m)) ~ cm-β quand m tend vers l’infini avec 0 < β < 1.
L’auto-similarité du trafic est causée par une persistance de l’auto-corrélation dans le temps. En ce qui concerne la vidéo, cela peut être du par exemple à la répétition de certaines scènes dans un film. D’une manière
générale, cela provient de la forte corrélation de l’histoire racontée dans un document vidéo. Comme le contenu
de la scène, en terme d’activité et de mouvement est lui même responsable de la variation du trafic engendré, il est
plus ou moins “naturel” que la corrélation de la sémantique du document vidéo se manifeste sous forme de propriétés statistiques du trafic. Il est cependant important de noter que les travaux qui ont permis d’identifier les
dépendances à long terme dans la vidéo à débit variable ont souvent utilisé des séquences codées en boucle
ouverte (à quantificateur constant) [3, 30]
4.3 Performances d’un multiplexeur ATM
Dans ce paragraphe, on considère un multiplexeur ATM où les cellules d’une ou d’un ensemble de connexions sont acceptées en entrée et sont servies à un débit constant. Ce type de multiplexage est à l’origine des délais
variables dans les différents éléments du réseau (concentrateur de trafic à l’interface, commutateurs...). La taille
des mémoires des multiplexeurs est souvent limitée et de ce fait, les cellules en excès sont rejetées. Le contrôle
des performances d’un réseau ATM, en termes de délai et pertes, passe par l’étude de files d’attentes modélisant
un multiplexeur ATM. L’étude de files d’attente de ce genre, généralement une file G/D/1/K, peut se faire soit
analytiquement soit par simulation selon les hypothèses sur le trafic d’entrée. A ce titre, une littérature très abondante existe déjà et permet de couvrir un grand nombre de modèles de files d’attente pour ATM [2, 17]. Paradoxalement, très peu d’entre elles ont pu servir dans la mise en oeuvre de procédures de contrôle de trafic à cause
probablement de la complexité des modèles de trafic utilisés. Le but de cette section est de décrire d’une façon
générale les différentes manières d’étudier les performances d’un multiplexeur ATM et leur éventuel intérêt pour
le contexte de gestion de trafic ATM. Le paragraphe suivant définit ce que peut être une mesure adéquate du gain
statistique de multiplexage pour la vidéo à débit variable.
41
Contrôle de trafic ATM pour sources vidéo à débit variable
4.3.1 Gain statistique de multiplexage
Le multiplexage statistique est un principe de base dans la conception du RNIS-LB. Cela consiste à tirer
profit de la superposition d’un grand nombre de trafics pour partager la bande passante du multiplexeur plus efficacement. Le gain statistique de multiplexage mesure le rapport entre le débit alloué à l’ensemble du trafic du
multiplexeur et la somme des débits qui seraient alloués à chaque flux individuellement tout en offrant la même
QoS. Le gain statistique de multiplexage est souvent calculé par rapport au débit crête de la connexion, i.e. le rapport entre le débit du multiplexeur et la somme des débits crêtes des connexions multiplexées.
Pour la vidéo, la QoS au niveau réseau peut ne pas être significative pour l’utilisateur final. En plus, il n’y a
pas de relations connues entre la QoS réseau en termes de débit et taux de perte et la qualité visuelle du document
vidéo. Une définition adéquate du gain statistique de multiplexage serait alors la suivante : soit C le débit du multiplexeur et N le nombre maximal de connexions VBR acceptées par la CAC pour offrir une QoS donnée. C/N est
alors le débit équivalent d’une connexion individuelle. Soit d le débit d’un codage CBR ayant une qualité visuelle
équivalente à celle d’une connexion VBR. Le gain statistique de multiplexage g est alors donné par :
g = Nd/C
La difficulté d’évaluation de ce gain provient de la nécessité de mesurer la qualité visuelle et de comparer celle
d’un codage VBR et d’un codage CBR qui se fait généralement par des techniques d’évaluation subjectives de la
qualité. Cependant, c’est probablement la définition la plus juste de gain de multiplexage car elle permet directement de décider si le codage VBR est plus économique que le codage CBR.
Une autre difficulté pour mesurer g concerne la définition de N, i.e. le nombre de connexions pouvant être
multiplexées. Il y a globalement deux manières pour calculer N : a priori ou a posteriori. Trouver N a posteriori
se fait par expérimentation i.e. par simulation ou par des mesures réelles donnant des courbes de taux de perte ou
de délai en fonction de N. Même si le gain obtenu est intéressant, cette méthode présente peu d’intérêt pour l’environnement préventif du contrôle de trafic ATM. En effet, l’algorithme CAC peut avoir besoin de décider a priori
de l’acceptation de la connexion en se basant sur les paramètres du trafic déclarés utilisant des techniques de prédiction pessimistes qui considèrent le pire des cas pour le comportement de la source, dans la mesure des
paramètres déclarés. Comme N est prédit sur des hypothèses pessimistes, le gain g est plus faible que dans le cas
des études de simulations. Cette perte de bande passante du réseau constitue la contre-partie de pouvoir offrir une
garantie de qualité de service pour le débit variable.
L’évaluation exacte du gain de multiplexage statistique représente une mesure d’efficacité des mécanismes
de contrôle de trafic et de gestion de ressources dans les réseaux ATM car cela détermine la compétitivité
économique d’un réseau par rapport à un autre.
4.3.2 Les échelles de congestion
Ce paragraphe concerne le contrôle des performances d’un multiplexeur ATM. Nous y présentons la notion
d’échelles de congestion et son impact sur le contrôle du trafic ATM.
La figure 13 montre que la probabilité de saturation du buffer d’une file d’attente dépend de caractéristiques
détaillées du trafic d’arrivée. Ces courbes sont des figures illustratives issues d’études de files d’attente ayant pour
processus d’arrivée la superposition de trafics ON/OFF [17, 107]. L’allure générale de ces courbes suggère que le
comportement global de la file d’attente présente deux composantes : la première correspond à une congestion de
cellules, où la probabilité de saturation décroît très rapidement en fonction de taille du buffer. Comme le montre la
figure 13 (a), cette composante peut être approximée par une file M/D/1. L’idée principale est que les performances de la file d’attente correspondant à de petites valeurs de le taille du buffer, dépend essentiellement de la
charge de la file et n’est pas sensible aux propriétés détaillées du trafic d’entrée. Dans la deuxième composante,
appelée composante de congestion à l’échelle rafale, la pente de décroissance de la probabilité de saturation est
42
Multiplexage du trafic vidéo dans ATM
he
Ec
Ec
log P{queue > x}
log P{queue > x}
le
ellu
le
llu
Ce
fale
C
lle
le
hel
Echelle
Ra
Eche
lle R
afale
Exacte
M/D/1
Fluide
x
x
(b)
(a)
Figure 13 : Echelles de congestion
nettement plus faible. Cette branche de la courbe est bien approximée par l’utilisation d’un modèle fluide qui a
pour effet d’éliminer les fluctuations à l’échelle cellule et ne garder que celles de l’échelle rafale. Cela veut dire
que pour la composante rafale, quand la charge de la file d’attente croit, le buffer nécessaire pour absorber les
congestions croit beaucoup plus rapidement que dans le cas de la congestion à l’échelle cellulaire. En effet, pour
les faibles valeurs de la taille du buffer, celui-ci est très rapidement saturé durant les rafales qui sont tout simplement perdues. Si par contre le buffer est suffisamment grand et correspond à la composante de congestion de
rafales, celles-ci remplissent le buffer et engendrent des délais qui dépendent de la loi d’arrivée de ces rafales.
Dans ce cas, pour contrôler les performances de la file d’attente, il faut prendre en compte des propriétés
détaillées du trafic d’arrivée qui peuvent le décrire au niveau rafale. La figure 13 (b), montre l’effet de paramètres
qui contrôlent le niveau rafale (e.g. taille moyenne de la rafale, variance de la taille des rafales) sur les performances de la file d’attente (à charge constante). La région correspondante à l’échelle cellule n’est pas sensible à
ces paramètres, par contre, la probabilité de saturation du buffer (et donc le taux de perte) dans la deuxième composante en dépend fortement.
La présence de ces deux échelles de congestion suggère que l’on peut contrôler les performances d’une file
d’attente des deux manières décrites dans les paragraphes suivants qui constituent la base des schémas de multiplexage présentés au chapitre 6.
4.3.3 Rate Envelope Multiplexing (REM)
Dans le cas où le réseau doit garantir des délais faibles qui correspondent aux applications temps réel, les
multiplexeurs sont munis de buffers FIFO de faible tailles. Il est alors intéressant de considérer les congestions à
l’échelle de la cellule uniquement. Pour cela, le contrôle de trafic doit maintenir le débit d’arrivée Λ(t) inférieur à
la capacité du lien de sortie C, du moins avec une probabilité proche de 1 (e.g. 1-ε) :
P[Λ(t) > C] < ε
Les fluctuations du débit à l’échelle cellulaire peuvent engendrer des sur-charges de courtes durées, i.e.la simultaneité des arrivées fait que le débit dépasse C durant des intervalles très courts, ces surcharges sont justement
absorbées par les petits buffers. Notons que ces sur-charges instantanées peuvent être causées par l’arrivée simultanée de plusieurs cellules appartenant à des connexions différentes, ce phénomène n’apparaît donc pas dans la
modélisation fluide pour laquelle aucun buffer n’est nécessaire. Le buffer requis pour ce type de multiplexage est
dimensionné pour absorber uniquement les fluctuations à l’échelle cellule, pour cela un modèle M/D/1/K est suf-
43
Contrôle de trafic ATM pour sources vidéo à débit variable
fisamment précis. Pour une configuration réaliste de multiplexeurs ATM, un buffer d’une centaine de cellules
correspondant à des délais de l’ordre de la milli-seconde est suffisant [17, 106]. Avec une faible probabilité, des
sur-charges au niveau rafales peuvent avoir lieu, la durée de ce genre de congestion est suffisamment longue pour
saturer les buffers disponibles et le débit des pertes L(t) engendré peut être approximé par (Λ(t) -C) durant toute la
période de congestion :
L(t) = (Λ(t) -C).1{Λ(t) > C}
La taux de perte CLR est alors donné par :
E{L( t)}
CLR = --------------------E{Λ(t)}
Le rôle du contrôle de trafic est donc de garantir que CLR ne dépasse pas la valeur négociée. Puisque la
capacité du lien doit pouvoir absorber les rafales du trafic d’entrée avec une grande probabilité (i.e. 1-ε), cela se
traduit par la nécessité de maintenir la charge de la file d’attente inférieur à un certain seuil et empêche d’atteindre
une bonne utilisation du réseau. Des résultats de performances sont discutés au chapitre 6. L’avantage de ce type
de multiplexage est le fait que ses performances dépendent essentiellement de paramètres de la distribution stationnaire du trafic d’entrée. C’est justement l’avantage de considérer les congestions à l’échelle de la cellule
uniquement. Comme l’idée principale est que le débit disponible du réseau constitue une “enveloppe” du trafic
offert, ce schéma de multiplexage est appelé REM pour Rate Envelope Multiplexing [17, 106].
4.3.4 Rate Sharing (RS)
Dans le multiplexage REM, le contrôle de trafic à pour rôle de maintenir la probabilité de sur-charge (à
l’échelle fluide) négligeable. Dans le cas où cela se traduit par une utilisation trop faible du réseau, celle-ci peut
être améliorée en utilisant des buffers pour absorber les rafales en excès. Dans ce cas, le trafic d’arrivée peut
dépasser la capacité du lien de sortie avec une probabilité significative. La taille de ces buffers est sensiblement
plus grande que dans le cas de REM. Dans le même contexte de garantie des paramètres de QoS, et spécifiquement le taux de perte CLR, et le délai maximum max_CTD, le contrôle de trafic doit prendre en compte les performances de la file d’attente du multiplexeur. Ceci peut se faire de deux manières : garanties statistiques et garanties
déterministes :
• la première consiste à utiliser un modèle de trafic qui décrit la source suffisamment précisément (e.g. modèle
markovien, source ON/OFF) pour prédire les performances de la file G/D/1/K correspondante. Comme cellesci sont très sensibles à des paramètres tels que variance, coefficient de variation [38] ou coefficients d’autocorrélation, le modèle de trafic doit également en tenir compte. La précision requise du modèle engendre de
grands problèmes quand à l’utilisation d’une approche statistique pour le multiplexage RS dans le cadre des
réseaux ATM. D’une part, l’étude de la file d’attente devient très complexe, et peut ne pas être compatible
avec les procédures de contrôle de trafic qui doivent décider en temps réel de l’acceptation de la connexion.
Des propriétés subtiles comme l’auto-similarité peut avoir des conséquences très graves sur les performances
[86]. D’autre part, ces paramètres sont dépourvus de sémantique pour l’équipement ATM (ou l’utilisateur) ce
qui ne permet pas de les déclarer facilement. En plus, comme dans un environnement préventif, les paramètres
déclarés doivent être contrôlés en temps réel, et il est difficilement concevable de contrôler des paramètres
comme la variance ou l’auto-corrélation en temps réel. Ce problème est d’autant plus important que l’erreur
commise sur l’un de ces paramètres affecte d’une manière significative les performances du multiplexeur.
L’approche statistique peut cependant servir à optimiser l’utilisation du réseau pour les classes de services ne
nécessitant pas de garantie de QoS.
• L’approche déterministe consiste à imposer des contraintes sur le débit de chaque source de manière à connaître exactement le montant de ressources nécessaires pour chacune d’elles. Supposons que chaque source i
soit contrôlée par un leaky bucket de paramètres ri et bi. Un débit de service plus grand ou égal à la somme des
44
Multiplexage du trafic vidéo dans ATM
ri et une taille de buffer plus grande ou égale à la somme des bi suffisent pour garantir un taux de perte nul et
un délai plus petit ou égal à
∑ bi ⁄ ∑ ri
[18]. Si en plus un mécanisme de type Weighted Fair Queueing est
implémenté, un délai plus petit ou égal à bi/ri est garanti pour chaque source (comme établi au paragraphe
3.2.3). Cette approche a l’avantage de résoudre les problèmes de contrôle des paramètres du trafic puisqu’ils
sont définis par rapport au leaky bucket et sont contrôlables à l’aide du GCRA. L’approche déterministe reste
une approche pessimiste en ce sens que l’allocation des ressources suppose le pire des cas de comportement de
la source. Ainsi, le buffer du multiplexeur peut être très sous-utilisé. L’approche statistique donne en général
de meilleurs taux d’occupation.
Pour le multiplexage RS, nous retenons l’approche déterministe basée sur les paramètres du leaky bucket.
Dans le chapitre 6, nous présentons un schémas de multiplexage de type RS qui combine l’approche déterministe
et l’approche statistique.
4.4 Conclusion
Le but du chapitre 4 est d’analyser l’adéquation des modèles de trafic et des schémas de multiplexage au
contexte de contrôle de trafic dans ATM relatif aux services vidéo à débit variable. Il s’agit de prendre en compte
la nature de la source (i.e. le codeur) en termes de caractéristiques du trafic et de besoin en QoS.
En ce qui concerne la qualité de service, les applications vidéo à contraintes de temps implémentent un
buffer de play-back dans le décodeur pour absorber les variations du délai du réseau. Pour ce type d’application, il
convient d’envisager un multiplexage de type REM, qui présente les avantages suivants :
• le délai de bout en bout est très faible, ce qui correspond au caractère temps réel (e.g 30 ms) et dispense de
l’utilisation de grandes buffers dans le décodeur et dans le réseau. En fait, le multiplexage REM permet
d’avoir des délais plus courts que ceux obtenus pour le codage CBR, car il n’y a plus besoin du buffer de lissage du codeur CBR. La Les performances se mesurent en termes de taux de perte que la procédure CAC se
doit de garantir.
• les paramètres de trafic utilisés dans REM décrivent la distribution stationnaire du trafic. Il n’y a pas besoin
d’inclure des paramètres plus détaillés tels que l’auto-corrélation.
Pour cela, il faut que l’utilisateur (ou le terminal/codeur) puisse déclarer des paramètres de trafics à la fois
contrôlables par l’UPC et utilisables pour le multiplexage REM. L’approche qui consiste à prédire des paramètres
statistiques par caractérisation préalable de séquences vidéo présente de nombreux inconvénients. D’une part, le
trafic vidéo VBR ne se prête pas à une prédiction fiable à cause des nombreuses échelles de temps de ses fluctuations. Durant la même séquence, la distribution du débit peut prendre plusieurs formes selon la scène en cours.
D’autre part, il n’est pas envisageable de garantir la QoS en se basant sur des paramètres non poliçables comme la
variance ou l’auto-corrélation. Pour pouvoir construire un multiplexage efficace, il faut donner les moyens au
codeur de déclarer des paramètres qui caractérisent avec précision son débit. L’objet du chapitre 5 est justement
de rendre la sortie du codeur conforme aux paramètres déclarés.
Pour les applications qui supportent des délais plus longs (e.g. 300 ms), mais toujours garantis, une approche
de type Rate Sharing est envisageable. Dans ce cas, et tenant compte de l’environnement préventif du contrôle de
trafic ATM, il convient d’utiliser des garanties déterministes dont les paramètres sont directement liés à des
mécanismes de policing tel que le leaky bucket.
45
Contrôle de trafic ATM pour sources vidéo à débit variable
46