Multiplexage du trafic vidéo dans ATM
Transcription
Multiplexage du trafic vidéo dans ATM
Chapitre 4 Multiplexage du trafic vidéo dans ATM Résumé Le but de ce chapitre est d’analyser les techniques de modélisation de trafic et leur adéquation au trafic vidéo. L’analyse prend en considération l’environnement préventif du contrôle de trafic ATM. Tout d’abords, nous présentons les raisons de la variabilité du trafic vidéo pour mettre en évidence la multitude d’échelles de temps de ses fluctuations. Ensuite, nous passons en revue quelques modèles de trafic utilisé pour la vidéo VBR. La garantie de QoS dans les réseaux ATM passe par l’étude de performances de multiplexeurs de trafic. Nous analysons des méthodes de contrôle de performances de files d’attente et distinguons deux échelles de congestion: cellule et rafale. Deux classes de multiplexage sont ensuite présentées : le Rate Envelope Multiplexing et le Rate Sharing. La conclusion de ce chapitre justifie le choix des paramètres de trafic et les schémas de multiplexage choisis pour la vidéo à débit variable. 4.1 Echelle de variabilité Dans l’ingénierie de trafic, il est essentiel de comprendre les propriétés intrinsèque d’un trafic pour pouvoir en maîtriser les effet sur un réseau, et en particulier bien dimensionner les ressources de ce réseau. Le but de ce paragraphe est donc d’essayer d’analyser les propriétés essentielles de la vidéo à débit variable qui fait d’elle une classe à part du trafic du RNIS-LB, bien différente de ce qu’on connaissait déjà du trafic audio et données. Un aspect particulièrement intéressant étant les échelles de temps des fluctuations de la vidéo à débit variable pouvant aller de l’échelle cellule (variabilité du débit cellulaire durant la génération d’une seule image) à l’échelle séquence (différence entre le débit d’un match de foot et celui d’un journal télévisé). 31 Contrôle de trafic ATM pour sources vidéo à débit variable 4.1.1 Echelle cellule La variation du débit à l’échelle de la cellule est un phénomène très étudié depuis l’apparition de la technologie ATM. C’est la perturbation de la forme d’un trafic donné du fait de sa «cellularisation» et du fait de l’aspect asynchrone du multiplexage ATM. Un exemple typique d’étude de la variabilité à l’échelle de la cellule est la gigue qui affecte les connexions CBR ce qui nécessite des mécanismes de re-synchronisation au bout de la connexion comme c’est le cas pour l’AAL-1. Ce phénomène est souvent modélisé par la file d’attente D+M/D/1 où l’on considère qu’un flux initialement périodique est perturbé par un trafic de fond de type Poisson [7]. En ce qui concerne le trafic MPEG, les fluctuations à l’échelle de la cellule sont dues à la manière dont le train binaire est généré à la sortie du codeur. Dans [107], les auteurs distinguent trois options de génération de trafic à la sortie d’un codeur VBR comme l’illustre la figure 7. Débit crête image i-1 Débit crête Débit crête image i image i+1 a) Les données sont émises au rythme de leurs générations par l’algorithme de codage. image i-1 image i image i+1 b) Chaque image est émises à son débit moyen (fraction du débit crête) pendant une période image. image i-1 image i image i+1 c) Chaque image est émise au débit crête de la connexion pendant une fraction de la période image. Figure 7: Génération de trafic à la sortie d’un codeur VBR. Dans la première option (figure 7-a) on considère que les données sont émises au fur et à mesure qu’elles sont générées par le codeur, autrement dit, une cellule ATM est émise aussitôt que le codeur génère 48 octets de données (ou 47 selon le protocole utilisé). La distribution des cellules est alors fonction de la complexité spatiale et temporelle des macro-blocs de l’images. Une région uniforme donne lieu à une faible quantité de donnée et donc des cellules plutôt espacées. Inversement, une région à forte complexité génère des cellules à un rythme plus élevé et donc plutôt collées les unes aux autres. La prise en compte de ce type de fluctuations nécessite la connaissance de la distribution des données dans l’image codée qui peut être utilisée pour le dimensionnement du nombre de sources transmises simultanément sur un canal réseau. L’avantage de ce modèle de trafic est que l’information est transmise en temps réel sans aucune attente. La deuxième option (Figure 7-b) suppose que les données sont mémorisées pendant une période image avant d’être émises au débit moyen de l’image donnée par le rapport de la taille de l’image compressée par la période image. L’arrivée des cellules est alors périodique. Contrairement au modèle précédant, la connaissance de la distribution des cellules dans l’image n’est plus utile (au prix du délai de mémorisation de 40 ms) et seule la distribution de la taille des images est importante. Dans la troisième option (Figure 7-c) les données sont également retardées de 40 ms avant d’être émises au débit crête de la connexion pendant une fraction de la période image proportionnelle à la taille de l’image compressée. Les cellules sont alors collées pendant la durée de la rafale. Comme le modèle précédent, seule la distribution de la taille des images est significative et est directement liée à celle de la durée des rafales. En conclusion, la variation à l’échelle de la cellule dépend surtout de la manière dont les données sont émises sur le canal. La prise en compte de ce phénomène n’est significative que si l’on opère à des délai inférieurs à la période image (e.g. 40 ms). Si on accepte un retard d’une période image, seule la taille de l’image devient importante pour les étude du trafic réseau. Même dans le cas des codeurs CBR associés au canaux de transmission CBR, cette échelle de variation est négligée puisque le trafic est défini aux frontières de périodes images. Notons enfin que des systèmes de mises en paquets comme MPEG Système ou AAL-5 introduisent une gigue au niveau paquet qui doit être également prise en compte. 32 Multiplexage du trafic vidéo dans ATM Taille de l’image (Kbits) 100 90 80 70 60 50 40 30 20 10 0 5 10 15 20 25 30 35 40 45 50 Numéro de l’image Figure 8: Variation à l’échelle Image: l’effet IPB. 4.1.2 Echelle image La variabilité à l’échelle de l’image se traduit par la différence entre les tailles des images compressées d’une séquence vidéo. Ce type de variation est propre à la source du trafic et ne dépend pas du système de transmission. De ce fait, un trafic vidéo est le plus souvent caractérisé par la distribution des tailles de ses images. Nous distinguons deux raisons pour la variabilité de la taille des images : le contenu de l’image et l’algorithme de codage. La première provient du fait que la complexité spatiale (niveau de détails, couleurs, etc.) et temporelle (rapidité des mouvements) de l’image a un effet direct sur la taille de l’image compressée [43]. La deuxième raison provient du fait que l’algorithme de codage définit des types d’images codées différemment. En particulier, dans MPEG, les images P sont plus petites que les images I et plus grandes que les images B (pour des images de complexités comparables) ce qui donne une forme de variation typique au trafic MPEG où l’on devine facilement la structure du GoP, comme le montre la figure 8. La variation des tailles IPB permet à l’algorithme de codage d’être à la fois robuste (les images I arrêtent la propagation des erreurs) et d’atteindre un bon taux de compression (grâce aux images B). De ce fait, la variabilité IPB est aussi présente dans les trafic générés par les codeur CBR. Ce type de variabilité est en fait propre à l’algorithme MPEG. 4.1.3 Echelle scène Si l’on observe un trafic vidéo VBR à une échelle de temps de plusieurs dizaines de secondes, on observe des variations dont l’amplitude est beaucoup plus importante que celle constatée à l’échelle de l’image. C’est l’effet de scène. Une scène est une suite d’images ayant plus ou moins le même contenu (personne qui parle, plan fixe...) à l’intérieur d’une séquence vidéo (le film ou l’émission,...). Lorsque les images d’une scène ont une forte complexité spatiale (beaucoup de petits détails, beaucoup de couleurs non uniformes...), l’étape de quantification ne permet pas d’atteindre un grand rapport de compression. D’autre part, si la complexité temporelle est forte, i.e. le mouvement des objets d’une image à l’autre est important (lors d’un changement de scène, zoom rapide de la caméra...), l’estimation des vecteurs de mouvement échoue et une grande quantité de donnée est générée par le codage de la scène. Nous appelons scène active, une scène qui montre une grande complexité spatiale et temporelle et donc qui génère un débit (quantité de données divisée par la période de temps) plus grand que la moyenne de la séquence vidéo. Nous appelons scène peu active une scène à faible complexité spatiale et temporelle. Par 33 Contrôle de trafic ATM pour sources vidéo à débit variable exemple, une scène montrant un gros plan sur le visage d’une personne qui parle tend à générer un trafic de faible débit (par rapport à une moyenne à long terme) du fait des régions uniforme et de la similitude des images successives. Ce type de scène génère un débit inférieur à la moyenne de le séquence vidéo. Les variations à l’échelle de la scène sont de plus basse fréquence que celles de l’effet IPB. Elles peuvent donc être observées en filtrant le trafic à l’aide d’une moyenne glissante (Moving Average) pour éliminer les fluctuations à court terme. La figure 9 montre la moyenne glissante, sur une fenêtre de 12 images, d’une séquence très active (vidéo clip de musique rock) codée en MPEG-1. La durée de cette séquence est de une minute et les rafales observées sont de l’ordre de la dizaine de secondes. La variabilité du trafic due au contenu de la scène est la moins bien étudiée en ce qui concerne le trafic vidéo car cette variabilité ne dépend que du contenu de la scène qui est très souvent imprédictible (car lié au scénario du film ou de la séquence). Ceci provient aussi de l’absence de durée typique d’une scène active ou inactive qui évoluent d’une manière plutôt arbitraire. Comme ce phénomène est rarement présent dans les séquences de type visioconférence qui sont les plus étudiées dans le cadre des réseaux ATM, la plupart des modèles de trafic développés ne tiennent pas en compte les variations à l’échelle de la scène (voir [27] pour un modèle de trafic prenant en compte l’effet de scène). 4.1.4 Echelle séquence Les documents vidéo peuvent être classifiés selon le contenu. On parle alors d’une séquence de foot, journal télévisé, film, publicité etc... Si l’on observe le trafic généré par un programme de télévision pendant une journée, on s’attend à ce que le débit change d’une séquence à l’autre. Cette échelle de variation est bien connue dans le codage CBR. En effet le débit constant, paramètre du codage CBR, est choisi selon le type de séquence. On sait par exemple qu’une séquence de foot nécessite plus de débit qu’une vidéo-conférence. Pour le réseau, il est plus facile de gérer la variabilité du débit à l’échelle de la séquence que les autres types de variabilités. En effet, la durée de la connexion est souvent considérée comme étant la durée de la séquence vidéo, i.e. on établit une connexion réseau pour transmettre une séquence vidéo. Comme les paramètres de la connexion réseau sont déclarés par l’utilisateur, c’est ce dernier qui est responsable de caractériser son trafic à l’échelle de la séquence (e.g. selon une pré-classification des types de séquences et des débits CBR correspondants). C’est alors à l’algorithme CAC de décider de l’acceptation de la connexion. La caractérisation du débit à l’échelle de la séquence est cependant utile pour le dimensionnement de la capacité globale du réseau pour contrôler le taux de rejet des connexions (de la même manière que le dimensionnement d’un réseau téléphonique). Taille de l’image (Kbits) 120 100 80 60 40 20 Numéro de l’image 0 7000 7200 7400 7600 7800 8000 Figure 9: Variation à l’échelle de la scène. 34 8200 8400 Multiplexage du trafic vidéo dans ATM Figure 10: Débit instantané de quatre séquences vidéo. Pour mieux illustrer cette variabilité de débit engendré par le type de séquence, quatre documents vidéo de 10.000 images chacun ont été codés en MPEG-1 et dont voici les caractéristiques : Séquence Débit moyen( Mb/s) Débit min (Mb/s) Débit crête (Mb/s) Variance (Mb/s)2 Ecart type (Mb/s) Coefficient de Variation Auto-corrélation 1er ordre Rapport débit crête/ moyen Video Clip 1.106 0.143 5.033 0.422 0.649 0.3444 0.3360 4.55 Spitting Images 1.026 0.253 3.072 0.368 0.606 0.3496 -0.2482 2.99 Mayotte 0.505 0.198 1.597 0.087 0.295 0.3421 -0.3150 3.16 Pierre’s Conference 0.581 0.245 1.468 0.168 0.410 0.4991 -0.4194 2.52 Tableau 3 : Statistiques sur les trafic de séquences MPEG-1 35 Contrôle de trafic ATM pour sources vidéo à débit variable Quatre séquences de différents types ont été compressées utilisant MPEG-1. La première séquence s’appelle Video Clip et représente un clip vidéo musical qui a été choisi pour la grande complexité des ses images, les changement de scène fréquents, la diversité des couleurs et la rapidité des mouvements. La deuxième séquence, The Spitting Images, est un programme de la télévision britannique montrant un ensemble de marionnettes un peu comme “les guignols de l’info”. La troisième séquence, Mayotte, est un document amateur filmé par un touriste aux îles de Mayotte. Il montre de longues scènes panoramiques sans trop de zoom ni de changement de scènes. La dernière séquence, Pierre’s Conference, est du type vidéo-conférence et montre un professeur pendant une séance de cours dans un plan fixe. Le tableau 3 montre les statistiques obtenues en analysant les tailles des images générées pour chaque séquence. les paramètres du codage MPEG-1 sont données dans le tableau 4. Paramètre Valeur Résolution de l’image 384x288 Paramètre de Quantification 8 Distance entre images I 5 Distance entre images P 2 Séquence d’images à l’affichage ...IBBPBBI... Contrôle de débit Aucun Tableau 4 : Paramètres du codage MPEG-1 Concernant la distribution de la taille des images obtenues, la figure 12 montre la différence entre les quatre séquences et donc l’absence d’une forme typique pour le trafic vidéo. Les travaux de Heeke sur des séquences de vidéo-conférence ont abouti à la même conclusion [46]. L’effet IPB est très clair dans la séquence Pierre’s Conference et devient indiscernable quand les fluctuations à l’échelle de la scène sont importantes (comme c’est la cas pour Video Clip). Les courbes de la figure 11 montrent l’ensemble des paramètres du GCRA (i.e. r et M) pouvant être choisis pour chaque séquence pour ne pas avoir de pertes dans l’UPC (i.e. l’ensemble de paramètres auquel la séquence est conforme). Les courbes montrent l’impact significatif du contenu de la séquence sur les ressources réseaux nécessaires pour fournir une qualité de service donnée. Par exemple, à temps de réponse égal (le temps de réponse est défini par M/r), le débit requis pour Video Clip peut être trois fois plus grand que celui de Mayotte. 40 M (Mbits) 35 30 Video Clip 25 20 Mayotte The Spitting Images 15 10 5 Pierre’s Conference 0 0 0.5 1 1.5 2 2.5 3 3.5 4 Figure 11: Paramètres GCRA pour des séquences MPEG-1 36 4.5 r (Mb/s) Multiplexage du trafic vidéo dans ATM 35 Proba. x 103 35 30 30 25 a) Video Clip 20 15 15 10 10 5 5 0 0 50 100 150 200 250 300 Taille image x 10-3 Proba. x 103 0 0 35 30 50 100 150 200 250 300 Taille image x 10-3 Proba. x 103 30 25 c) Mayotte 20 15 15 10 10 5 5 50 100 150 20000 250 300 Taille image x 10-3 d) Pierre’s Conference 25 20 0 0 b) The Spitting Images 25 20 35 Proba. x 103 0 0 50 100 150 200 250 300 350 Taille image x 10-3 Figure 12: Distribution de la taille d’images des séquences MPEG-1 4.1.5 Conclusion Le but de cette section était de comprendre les causes de variabilité du trafic vidéo. La conclusion principale est le fait que la trafic fluctue sur plusieurs échelles de temps allant de la période image (i.e. 40 ms) à la durée de la connexion (e.g. plusieurs dizaines de minutes). Chaque échelle de variabilité engendre des problèmes spécifiques dans le réseau. Les fluctuations au niveau cellulaire introduisent des problèmes de gigue et nécessitent de mécanismes d’espacement dans les éléments du réseau et de re-synchronisation à la sortie du réseau. A l’échelle de l’image, un buffer de lissage est souvent utilisé pour accommoder l’effet IBP en particulier dans le cas des codeurs CBR. Les fluctuations à l’échelle de la scène posent le problème de la stationnarité du trafic vidéo VBR illustré par les phénomènes de dépendances à long termes dans les séquences de longues durées. Enfin, la variabilité à l’échelle de la séquence illustre la disparité des débits générés par des documents vidéo de contenu différents ainsi que leur impact sur la caractérisation des paramètres du GCRA. 37 Contrôle de trafic ATM pour sources vidéo à débit variable 4.2 Modélisation du trafic vidéo Pour étudier les multiplexeurs ATM, une modélisation du trafic d’entrée est nécessaire. Un modèle de trafic est un objet mathématique ou algorithmique qui présente des caractéristiques, souvent statistiques, similaires au trafic réel. Il sert à mieux connaître et décrire le trafic et permet de dimensionner les files d’attentes dans les réseaux. Un modèle de trafic sert aussi à générer des données pour les simulations numériques. Plusieurs types de modèles sont utilisés dans la littérature dont nous décrivons ci-après les plus fréquentes. 4.2.1 Loi stationnaire du débit Une trafic vidéo peut être caractérisé par la distribution de son débit. La distribution du débit peut être définie sur plusieurs échelles comme indiqué plus haut. Sur l’échelle cellulaire, cela consiste à donner la distribution de l’inter-arrivée des cellules. Pour une description indépendante du réseau, la distribution de la taille des images est aussi convenable. Plus généralement, il est pratique de considérer le modèle fluide où le trafic d’une source i est défini par un débit instantané fonction du temps, notons le R(t). Si on connaît la densité de probabilité de R(t), notée F (sous hypothèse de stationnarité), des résultats simples de performances du multiplexage peuvent être obtenus. En effet, supposons qu’on multiplexe N sources homogènes et indépendantes caractérisées par leur débit instantané Ri(t) et leur densité de probabilité f (que l’on suppose, sans perte de généralité, commune à toutes les sources), dans un canal à débit constant C sans possibilité d’attente (sans buffer). Le débit agrégé noté Λ(t) est égal à la somme de tous les débits et sa densité de probabilité est égale à fN : la convolution N fois de f. Le trafic en excès (quand Λ(t) > C) est perdu et le débit instantané des pertes est égal á L(t) = (Λ(t) - C)+, l’opérateur + désigne la partie positive de la fonction. La moyenne du débit de perte L est donnée par : ∞ L = ∫ ( x – C )fN ( x ) dx C et le taux de perte, qui est un paramètre de QoS du schéma de multiplexage est égal à L/Λ. L’importance d’un tel schéma de multiplexage est expliqué dans le paragraphe 4.3.3. Nous décrivons ci-après quelques lois de distribution ayant été utilisées pour la modélisation du trafic vidéo. La loi de Gauss Cette loi est utilisée par Helmut Heeke [45] comme hypothèse sur la loi stationnaire du débit variable de la vidéo. L’utilisation de cette loi est principalement suggérée par la forme en cloche des histogrammes des tailles d’images vidéo. L’utilisation de la loi de Gauss ne peut être utile qu’à titre indicatif ou pour la génération de trafics simples car elle ne constitue qu’une approximation grossière du trafic vidéo à débit variable. L’observation des histogrammes de traces de données réelles montrent que la cloche n’est presque jamais symétrique. La loi Gamma Cette loi est utilisée par D. Heyman et T.V. Lakshman [47, 48] pour caractériser la densité de tailles d’images issues de traces vidéo réelles. La fonction densité fG(x) de la loi Gamma est la suivante : α α–1 – λx λ x f G ( x ) = -------------------- e ; Γ(α ) x, λ, α > 0 ∞ Γ(x) étant la fonction Gamma : Γ ( α ) = ∫t 0 38 α – 1 –t e dt . Multiplexage du trafic vidéo dans ATM La loi Gamma est définie par deux paramètres: le paramètre d’échelle (scale) λ et le paramètre de forme (shape) α. La forme de la loi Gamma semble correspondre à certains types de traces vidéo VBR [48]. Il faut cependant noter qu’une distribution en unimodale (en cloche) comme la loi Gamma ou celle de Gauss n’est valable que pour un codage où toutes les images sont de même type (I, B). Pour un trafic MPEG en général, il faudra tenir compte de l’échelle de variation IBP en appliquant des facteurs de réajustement pour les trames B et P par exemple. Une autre manière est de considérer la distribution de la taille des GoP, et de dériver les tailles des images à l’intérieur d’un GoP en fonction de leurs type. La loi de Weibull Cette loi a été utilisé dans [47] pour caractériser la durée des scènes. Sa fonction de distribution complémentaire (probabilité que la variable soit plus grande que x) est donnée par : Sw(x) = 1 - e – λx α ; x, λ, α > 0 La loi de Pareto Cette loi a été utilisée dans [30] pour caractériser la loi stationnaire du débit de la séquence “Starwar”. La densité de la distribution de Pareto généralisée est la suivante : α k–1 Γ ( α + k )λ x f P ( x ) = ----------------------------------------------------; k+α Γ ( α )Γ ( k ) ( λ + x ) x, α, λ, k > 0 La cas classique de la loi Pareto correspond a k = 1. 4.2.2 Chaîne de markov Le comportement d’une source vidéo VBR peut aussi être modélisé par une chaîne de markov [46] [82] [47] [48] [22]. La chaîne de markov peut être définie en temps continu ou en temps discret. Un modèle en temps continu consiste à représenter la variable X(t) : intensité du débit à l’instant t. A temps discret, c’est le nombre de cellules (ou d’octets) par image qui est représenté par une chaîne de markov. Partant d’une trace vidéo, une chaîne de markov à temps discret peur être construite de la manière suivante: soit Xn la taille en cellule de la nième image, pour éviter un espace d’état très grand, on utilise en général une quantification des valeurs de Xn en considérant la variable aléatoire Yn = INT(Xn/K) (INT = partie entière, K = 50 ou 100 par exemple). La matrice de transition P = (pij) est alors construite à partir des données empiriques de la manière suivante [47]: Nombre de transitions de i à j pij = ------------------------------------------------------------------------------Nombre de transitions d'origine i L’avantage de l’utilisation des chaînes de markov par rapport aux autres modèles de trafic est la possibilité de résolution analytique de systèmes de files d’attentes. 4.2.3 Modèles auto-régressifs Les modèles auto-régressifs [47, 48] sont connus pour bien approximer l’auto-corrélation du trafic en question. En effet, par construction, les paramètres du modèle permettent de contrôler les dépendances entres échantillons successifs. Ainsi, un modèle du premier ordre (noté AR(1)) s’écrit de la manière suivante: Xn+1 = a + bXn + cεn 39 Contrôle de trafic ATM pour sources vidéo à débit variable où εn sont des variables aléatoires i.i.d ayant comme distribution une loi de Gauss de moyenne zéro et de variance 1. Ce modèle est déterminé par trois paramètres, il suffit en pratique de fournir la moyenne, la variance et le coefficient d’auto-corrélation d’ordre 1. D’une manière générale un modèle AR(k) s’écrit : Xn+1 = a0 + a1Xn + a2Xn-1 + ... + akXn-k+1 + ak+1εn D’autres modèles auto-régressifs ont été proposés, nous présentons plus en détail le modèle DAR et le modèle TES. La modélisation DAR (Deterministic AutoRegressive) Supposons connus le coefficient d’auto-corrélation d’ordre 1, noté ρ, et les probabilités stationnaires de la taille d’image, f0, f1, ..., fK, FK (avec FK = ∑ k>K f k , il sert à limiter le nombre d’états et correspond à la limitation du débit crête K), ces probabilités peuvent correspondre à une distribution comme Pareto, Weibull ou Gamma. On construit alors la chaîne de markov dont la matrice de transition est la suivante [47]: P = ρI + (1-ρ)Q I désigne la matrice unité et chaque ligne de Q est formée par f0, f1, ..., fK, FK. La chaîne de markov représente la taille des images. Le modèle DAR est défini par un plus petit nombre de paramètres qu’une chaîne de markov en général. Ce modèle a été suffisant dans certains cas pour étudier les performances d’un multiplexeur ATM[47]. Il tend cependant à sur-estimer le taux de perte pour certaines séquences . La modélisation TES (Transform-Expand-Sample) Développé par Benjamin Melamed de NEC Research Institute à Princeton NJ [83], cette méthode permet de générer des séries de données pour les simulation et l’évaluation des performances de multiplexeurs ATM. La méthode TES est basée sur les modèles auto-régressifs du premier ordre. Le principal avantage de cette méthode est sa capacité à reproduire aussi bien la structure corrélative que la distribution stationnaire d’un échantillon de données. Nous reproduisons ci-après le principe de la méthode TES. Soit {Vn} une séquence de variables aléatoire indépendantes et identiquement distribuées de densité f. On définit le processus {Un} de la manière suivante: Un = frac{Un-1 + Vn} pour n > 0 avec U0 uniforme sur l’intervalle [0,1], frac{x} désigne la partie fractionnaire de x. Le processus {Un} est une séquence de variables corrélées et identiquement distribuées, dont la loi est uniforme sur l’intervalle [0,1]. La construction de la séquence {Un} permet de contrôler son auto-corrélation en choisissant {Vn} d’une manière appropriée. Dans la pratique, {Un} est transformée pour donner lieu à une séquence {Xn} ayant la distribution voulue. En effet, si F désigne la distribution voulue pour la série de donnée {Xn}, il suffit d’appliquer la transformation D=F-1 au processus {Un} pour la génération de {Xn} : Xn = D(Un) D étant définie de manière appropriée si F n’est pas strictement monotone [24]. La fonction d’auto-corrélation de {Xn} est donnée par [69]: ∞ 2 ˜ ( i2Πv ) 2 ρ ( τ ) = ------ ∑ Re [ ˜f τ ( i2Πv ) ] D 2 σ v=1 40 Multiplexage du trafic vidéo dans ATM avec X˜ désigne la transformée de Laplace de X, fτ la τ-convolution de f, σ2 la variance de {Xn} et i2 = -1. Le choix de f et D permet donc déterminer à la fois la fonction d’auto-corrélation et la distribution des {Xn}. De plus, il est possible d’obtenir une auto-corrélation ossillatoire ou monotone décroissante. En particulier, si on choisit {Vn} uniforme sur un intervalle [-L,R] avec 0< L, R, L+R <1, alors l’amplitude de la fonction d’auto-corrélation est contrôlée par la paramètre α = R+L (un α grand donne lieu à de faibles amplitudes) et la fréquence des oscillations de l’auto-corrélation est contrôlée par le paramètre φ = (R-L)/(R+L) (φ = 0 donne lieu à une fonction monotone décroissante, et φ non nulle engendre une fonction oscillatoire, plus la valeur de φ est grande et plus la fréquence des oscillations est élevée). Un exemple de l’utilisation des modèles TES pour l’évaluation des performance d’un multiplexeur de trafic vidéo se trouve dans [76]. 4.2.4 Auto-similarité Cette propriété statistique, connue aussi sous les noms de dépendances à long terme, persistance ou encore effet de Hurst, a suscité un grand intérêt dans les études de trafic des réseau de données. Des observations sur le trafic de données dans les réseaux locaux à Bellcore [78] ont permis de mettre en évidence l’auto-similarité de certains type de trafics. Les mêmes auteurs se sont aussi intéressés au trafic vidéo à débit variable [3, 30]. Le trafic Internet et plus particulièrement TCP/IP n’a pas échappé à la règle puisqu’il a été montré auto-similaire. Le concept d’auto-similarité est bien défini mathématiquement. Plusieurs définitions équivalentes sont données dans [3] et [78]. Nous retenons ici une propriété particulièrement simple: Soit {Xi} une série de données ayant une moyenne λ et une variance finie σ2. Soit {Xk(m)} une nouvelle série de données construite à partir de la première par agrégation de m éléments successifs: Xk(m) = 1/m (Xkm-m+1 +... + Xkm). La présence de dépendances à long terme dans la série {Xi} signifie que la variance de l’échantillon Xk(m) décroît (en fonction de m) plus lentement que 1/m, i.e.: Var(Xk(m)) ~ cm-β quand m tend vers l’infini avec 0 < β < 1. L’auto-similarité du trafic est causée par une persistance de l’auto-corrélation dans le temps. En ce qui concerne la vidéo, cela peut être du par exemple à la répétition de certaines scènes dans un film. D’une manière générale, cela provient de la forte corrélation de l’histoire racontée dans un document vidéo. Comme le contenu de la scène, en terme d’activité et de mouvement est lui même responsable de la variation du trafic engendré, il est plus ou moins “naturel” que la corrélation de la sémantique du document vidéo se manifeste sous forme de propriétés statistiques du trafic. Il est cependant important de noter que les travaux qui ont permis d’identifier les dépendances à long terme dans la vidéo à débit variable ont souvent utilisé des séquences codées en boucle ouverte (à quantificateur constant) [3, 30] 4.3 Performances d’un multiplexeur ATM Dans ce paragraphe, on considère un multiplexeur ATM où les cellules d’une ou d’un ensemble de connexions sont acceptées en entrée et sont servies à un débit constant. Ce type de multiplexage est à l’origine des délais variables dans les différents éléments du réseau (concentrateur de trafic à l’interface, commutateurs...). La taille des mémoires des multiplexeurs est souvent limitée et de ce fait, les cellules en excès sont rejetées. Le contrôle des performances d’un réseau ATM, en termes de délai et pertes, passe par l’étude de files d’attentes modélisant un multiplexeur ATM. L’étude de files d’attente de ce genre, généralement une file G/D/1/K, peut se faire soit analytiquement soit par simulation selon les hypothèses sur le trafic d’entrée. A ce titre, une littérature très abondante existe déjà et permet de couvrir un grand nombre de modèles de files d’attente pour ATM [2, 17]. Paradoxalement, très peu d’entre elles ont pu servir dans la mise en oeuvre de procédures de contrôle de trafic à cause probablement de la complexité des modèles de trafic utilisés. Le but de cette section est de décrire d’une façon générale les différentes manières d’étudier les performances d’un multiplexeur ATM et leur éventuel intérêt pour le contexte de gestion de trafic ATM. Le paragraphe suivant définit ce que peut être une mesure adéquate du gain statistique de multiplexage pour la vidéo à débit variable. 41 Contrôle de trafic ATM pour sources vidéo à débit variable 4.3.1 Gain statistique de multiplexage Le multiplexage statistique est un principe de base dans la conception du RNIS-LB. Cela consiste à tirer profit de la superposition d’un grand nombre de trafics pour partager la bande passante du multiplexeur plus efficacement. Le gain statistique de multiplexage mesure le rapport entre le débit alloué à l’ensemble du trafic du multiplexeur et la somme des débits qui seraient alloués à chaque flux individuellement tout en offrant la même QoS. Le gain statistique de multiplexage est souvent calculé par rapport au débit crête de la connexion, i.e. le rapport entre le débit du multiplexeur et la somme des débits crêtes des connexions multiplexées. Pour la vidéo, la QoS au niveau réseau peut ne pas être significative pour l’utilisateur final. En plus, il n’y a pas de relations connues entre la QoS réseau en termes de débit et taux de perte et la qualité visuelle du document vidéo. Une définition adéquate du gain statistique de multiplexage serait alors la suivante : soit C le débit du multiplexeur et N le nombre maximal de connexions VBR acceptées par la CAC pour offrir une QoS donnée. C/N est alors le débit équivalent d’une connexion individuelle. Soit d le débit d’un codage CBR ayant une qualité visuelle équivalente à celle d’une connexion VBR. Le gain statistique de multiplexage g est alors donné par : g = Nd/C La difficulté d’évaluation de ce gain provient de la nécessité de mesurer la qualité visuelle et de comparer celle d’un codage VBR et d’un codage CBR qui se fait généralement par des techniques d’évaluation subjectives de la qualité. Cependant, c’est probablement la définition la plus juste de gain de multiplexage car elle permet directement de décider si le codage VBR est plus économique que le codage CBR. Une autre difficulté pour mesurer g concerne la définition de N, i.e. le nombre de connexions pouvant être multiplexées. Il y a globalement deux manières pour calculer N : a priori ou a posteriori. Trouver N a posteriori se fait par expérimentation i.e. par simulation ou par des mesures réelles donnant des courbes de taux de perte ou de délai en fonction de N. Même si le gain obtenu est intéressant, cette méthode présente peu d’intérêt pour l’environnement préventif du contrôle de trafic ATM. En effet, l’algorithme CAC peut avoir besoin de décider a priori de l’acceptation de la connexion en se basant sur les paramètres du trafic déclarés utilisant des techniques de prédiction pessimistes qui considèrent le pire des cas pour le comportement de la source, dans la mesure des paramètres déclarés. Comme N est prédit sur des hypothèses pessimistes, le gain g est plus faible que dans le cas des études de simulations. Cette perte de bande passante du réseau constitue la contre-partie de pouvoir offrir une garantie de qualité de service pour le débit variable. L’évaluation exacte du gain de multiplexage statistique représente une mesure d’efficacité des mécanismes de contrôle de trafic et de gestion de ressources dans les réseaux ATM car cela détermine la compétitivité économique d’un réseau par rapport à un autre. 4.3.2 Les échelles de congestion Ce paragraphe concerne le contrôle des performances d’un multiplexeur ATM. Nous y présentons la notion d’échelles de congestion et son impact sur le contrôle du trafic ATM. La figure 13 montre que la probabilité de saturation du buffer d’une file d’attente dépend de caractéristiques détaillées du trafic d’arrivée. Ces courbes sont des figures illustratives issues d’études de files d’attente ayant pour processus d’arrivée la superposition de trafics ON/OFF [17, 107]. L’allure générale de ces courbes suggère que le comportement global de la file d’attente présente deux composantes : la première correspond à une congestion de cellules, où la probabilité de saturation décroît très rapidement en fonction de taille du buffer. Comme le montre la figure 13 (a), cette composante peut être approximée par une file M/D/1. L’idée principale est que les performances de la file d’attente correspondant à de petites valeurs de le taille du buffer, dépend essentiellement de la charge de la file et n’est pas sensible aux propriétés détaillées du trafic d’entrée. Dans la deuxième composante, appelée composante de congestion à l’échelle rafale, la pente de décroissance de la probabilité de saturation est 42 Multiplexage du trafic vidéo dans ATM he Ec Ec log P{queue > x} log P{queue > x} le ellu le llu Ce fale C lle le hel Echelle Ra Eche lle R afale Exacte M/D/1 Fluide x x (b) (a) Figure 13 : Echelles de congestion nettement plus faible. Cette branche de la courbe est bien approximée par l’utilisation d’un modèle fluide qui a pour effet d’éliminer les fluctuations à l’échelle cellule et ne garder que celles de l’échelle rafale. Cela veut dire que pour la composante rafale, quand la charge de la file d’attente croit, le buffer nécessaire pour absorber les congestions croit beaucoup plus rapidement que dans le cas de la congestion à l’échelle cellulaire. En effet, pour les faibles valeurs de la taille du buffer, celui-ci est très rapidement saturé durant les rafales qui sont tout simplement perdues. Si par contre le buffer est suffisamment grand et correspond à la composante de congestion de rafales, celles-ci remplissent le buffer et engendrent des délais qui dépendent de la loi d’arrivée de ces rafales. Dans ce cas, pour contrôler les performances de la file d’attente, il faut prendre en compte des propriétés détaillées du trafic d’arrivée qui peuvent le décrire au niveau rafale. La figure 13 (b), montre l’effet de paramètres qui contrôlent le niveau rafale (e.g. taille moyenne de la rafale, variance de la taille des rafales) sur les performances de la file d’attente (à charge constante). La région correspondante à l’échelle cellule n’est pas sensible à ces paramètres, par contre, la probabilité de saturation du buffer (et donc le taux de perte) dans la deuxième composante en dépend fortement. La présence de ces deux échelles de congestion suggère que l’on peut contrôler les performances d’une file d’attente des deux manières décrites dans les paragraphes suivants qui constituent la base des schémas de multiplexage présentés au chapitre 6. 4.3.3 Rate Envelope Multiplexing (REM) Dans le cas où le réseau doit garantir des délais faibles qui correspondent aux applications temps réel, les multiplexeurs sont munis de buffers FIFO de faible tailles. Il est alors intéressant de considérer les congestions à l’échelle de la cellule uniquement. Pour cela, le contrôle de trafic doit maintenir le débit d’arrivée Λ(t) inférieur à la capacité du lien de sortie C, du moins avec une probabilité proche de 1 (e.g. 1-ε) : P[Λ(t) > C] < ε Les fluctuations du débit à l’échelle cellulaire peuvent engendrer des sur-charges de courtes durées, i.e.la simultaneité des arrivées fait que le débit dépasse C durant des intervalles très courts, ces surcharges sont justement absorbées par les petits buffers. Notons que ces sur-charges instantanées peuvent être causées par l’arrivée simultanée de plusieurs cellules appartenant à des connexions différentes, ce phénomène n’apparaît donc pas dans la modélisation fluide pour laquelle aucun buffer n’est nécessaire. Le buffer requis pour ce type de multiplexage est dimensionné pour absorber uniquement les fluctuations à l’échelle cellule, pour cela un modèle M/D/1/K est suf- 43 Contrôle de trafic ATM pour sources vidéo à débit variable fisamment précis. Pour une configuration réaliste de multiplexeurs ATM, un buffer d’une centaine de cellules correspondant à des délais de l’ordre de la milli-seconde est suffisant [17, 106]. Avec une faible probabilité, des sur-charges au niveau rafales peuvent avoir lieu, la durée de ce genre de congestion est suffisamment longue pour saturer les buffers disponibles et le débit des pertes L(t) engendré peut être approximé par (Λ(t) -C) durant toute la période de congestion : L(t) = (Λ(t) -C).1{Λ(t) > C} La taux de perte CLR est alors donné par : E{L( t)} CLR = --------------------E{Λ(t)} Le rôle du contrôle de trafic est donc de garantir que CLR ne dépasse pas la valeur négociée. Puisque la capacité du lien doit pouvoir absorber les rafales du trafic d’entrée avec une grande probabilité (i.e. 1-ε), cela se traduit par la nécessité de maintenir la charge de la file d’attente inférieur à un certain seuil et empêche d’atteindre une bonne utilisation du réseau. Des résultats de performances sont discutés au chapitre 6. L’avantage de ce type de multiplexage est le fait que ses performances dépendent essentiellement de paramètres de la distribution stationnaire du trafic d’entrée. C’est justement l’avantage de considérer les congestions à l’échelle de la cellule uniquement. Comme l’idée principale est que le débit disponible du réseau constitue une “enveloppe” du trafic offert, ce schéma de multiplexage est appelé REM pour Rate Envelope Multiplexing [17, 106]. 4.3.4 Rate Sharing (RS) Dans le multiplexage REM, le contrôle de trafic à pour rôle de maintenir la probabilité de sur-charge (à l’échelle fluide) négligeable. Dans le cas où cela se traduit par une utilisation trop faible du réseau, celle-ci peut être améliorée en utilisant des buffers pour absorber les rafales en excès. Dans ce cas, le trafic d’arrivée peut dépasser la capacité du lien de sortie avec une probabilité significative. La taille de ces buffers est sensiblement plus grande que dans le cas de REM. Dans le même contexte de garantie des paramètres de QoS, et spécifiquement le taux de perte CLR, et le délai maximum max_CTD, le contrôle de trafic doit prendre en compte les performances de la file d’attente du multiplexeur. Ceci peut se faire de deux manières : garanties statistiques et garanties déterministes : • la première consiste à utiliser un modèle de trafic qui décrit la source suffisamment précisément (e.g. modèle markovien, source ON/OFF) pour prédire les performances de la file G/D/1/K correspondante. Comme cellesci sont très sensibles à des paramètres tels que variance, coefficient de variation [38] ou coefficients d’autocorrélation, le modèle de trafic doit également en tenir compte. La précision requise du modèle engendre de grands problèmes quand à l’utilisation d’une approche statistique pour le multiplexage RS dans le cadre des réseaux ATM. D’une part, l’étude de la file d’attente devient très complexe, et peut ne pas être compatible avec les procédures de contrôle de trafic qui doivent décider en temps réel de l’acceptation de la connexion. Des propriétés subtiles comme l’auto-similarité peut avoir des conséquences très graves sur les performances [86]. D’autre part, ces paramètres sont dépourvus de sémantique pour l’équipement ATM (ou l’utilisateur) ce qui ne permet pas de les déclarer facilement. En plus, comme dans un environnement préventif, les paramètres déclarés doivent être contrôlés en temps réel, et il est difficilement concevable de contrôler des paramètres comme la variance ou l’auto-corrélation en temps réel. Ce problème est d’autant plus important que l’erreur commise sur l’un de ces paramètres affecte d’une manière significative les performances du multiplexeur. L’approche statistique peut cependant servir à optimiser l’utilisation du réseau pour les classes de services ne nécessitant pas de garantie de QoS. • L’approche déterministe consiste à imposer des contraintes sur le débit de chaque source de manière à connaître exactement le montant de ressources nécessaires pour chacune d’elles. Supposons que chaque source i soit contrôlée par un leaky bucket de paramètres ri et bi. Un débit de service plus grand ou égal à la somme des 44 Multiplexage du trafic vidéo dans ATM ri et une taille de buffer plus grande ou égale à la somme des bi suffisent pour garantir un taux de perte nul et un délai plus petit ou égal à ∑ bi ⁄ ∑ ri [18]. Si en plus un mécanisme de type Weighted Fair Queueing est implémenté, un délai plus petit ou égal à bi/ri est garanti pour chaque source (comme établi au paragraphe 3.2.3). Cette approche a l’avantage de résoudre les problèmes de contrôle des paramètres du trafic puisqu’ils sont définis par rapport au leaky bucket et sont contrôlables à l’aide du GCRA. L’approche déterministe reste une approche pessimiste en ce sens que l’allocation des ressources suppose le pire des cas de comportement de la source. Ainsi, le buffer du multiplexeur peut être très sous-utilisé. L’approche statistique donne en général de meilleurs taux d’occupation. Pour le multiplexage RS, nous retenons l’approche déterministe basée sur les paramètres du leaky bucket. Dans le chapitre 6, nous présentons un schémas de multiplexage de type RS qui combine l’approche déterministe et l’approche statistique. 4.4 Conclusion Le but du chapitre 4 est d’analyser l’adéquation des modèles de trafic et des schémas de multiplexage au contexte de contrôle de trafic dans ATM relatif aux services vidéo à débit variable. Il s’agit de prendre en compte la nature de la source (i.e. le codeur) en termes de caractéristiques du trafic et de besoin en QoS. En ce qui concerne la qualité de service, les applications vidéo à contraintes de temps implémentent un buffer de play-back dans le décodeur pour absorber les variations du délai du réseau. Pour ce type d’application, il convient d’envisager un multiplexage de type REM, qui présente les avantages suivants : • le délai de bout en bout est très faible, ce qui correspond au caractère temps réel (e.g 30 ms) et dispense de l’utilisation de grandes buffers dans le décodeur et dans le réseau. En fait, le multiplexage REM permet d’avoir des délais plus courts que ceux obtenus pour le codage CBR, car il n’y a plus besoin du buffer de lissage du codeur CBR. La Les performances se mesurent en termes de taux de perte que la procédure CAC se doit de garantir. • les paramètres de trafic utilisés dans REM décrivent la distribution stationnaire du trafic. Il n’y a pas besoin d’inclure des paramètres plus détaillés tels que l’auto-corrélation. Pour cela, il faut que l’utilisateur (ou le terminal/codeur) puisse déclarer des paramètres de trafics à la fois contrôlables par l’UPC et utilisables pour le multiplexage REM. L’approche qui consiste à prédire des paramètres statistiques par caractérisation préalable de séquences vidéo présente de nombreux inconvénients. D’une part, le trafic vidéo VBR ne se prête pas à une prédiction fiable à cause des nombreuses échelles de temps de ses fluctuations. Durant la même séquence, la distribution du débit peut prendre plusieurs formes selon la scène en cours. D’autre part, il n’est pas envisageable de garantir la QoS en se basant sur des paramètres non poliçables comme la variance ou l’auto-corrélation. Pour pouvoir construire un multiplexage efficace, il faut donner les moyens au codeur de déclarer des paramètres qui caractérisent avec précision son débit. L’objet du chapitre 5 est justement de rendre la sortie du codeur conforme aux paramètres déclarés. Pour les applications qui supportent des délais plus longs (e.g. 300 ms), mais toujours garantis, une approche de type Rate Sharing est envisageable. Dans ce cas, et tenant compte de l’environnement préventif du contrôle de trafic ATM, il convient d’utiliser des garanties déterministes dont les paramètres sont directement liés à des mécanismes de policing tel que le leaky bucket. 45 Contrôle de trafic ATM pour sources vidéo à débit variable 46