Le cours TPS 2012 sur les communications radio
Transcription
Le cours TPS 2012 sur les communications radio
La chaîne de transmission numérique : éléments constitutifs et dimensionnement TPS 3ème année Hervé BOEGLEN Plan 1. Introduction 2. Antennes 3. Bilan de liaison 4. Le canal radiomobile 5. Techniques de communications numériques haut débit 6. Un système complet : DVB-T 1/192 1. Introduction Tout à commencé grâce à C. Shannon en 1948 avec « A Mathematical Theory of Communication » : 2/192 1. Introduction Définition de l’information : L’information envoyée par une source numérique X lorsque le jième message est transmis est : I j = − log 2 ( p j ) Définition de l’entropie ou information mutuelle moyenne : H ( X ) = ∑ p j ⋅ I J = −∑ p j ⋅ log 2 ( p j ) M M j =1 j =1 H(X) s’exprime en bits (binary units) 4/192 1. Introduction Comment s'assurer de l'efficacité de la représentation des données émises par une source ? Longueur moyenne d’un code : M L = ∑ pj ⋅l j j =1 Le premier théorème de Shannon : La longueur moyenne d'un code quelque soit le procédé d'encodage de source possède la limite suivante : L ≥ H (X ) 5/192 1. Introduction On peut alors définir le critère d'efficacité suivant : H (X ) η= L Il existe plusieurs procédés permettant de s’approcher de la limite théorique : Huffmann, Lempel-Ziv… Le 2ème théorème de Shannon : codage de canal : Soit une source X d’entropie H(X) qui émet des symboles chaque Ts secondes sur un canal de transmission de capacité C utilisé chaque Tc secondes. Si : H (X ) C ≤ Ts Tc 6/192 1. Introduction Il existe une possibilité de codage pour laquelle les données de la source peuvent être transmises sur le canal et reconstituées avec une très faible probabilité d'erreur. Le paramètre C/Tc est appelé le débit critique. Rem : Ce théorème ne donne pas d'indication pour construire le code idéal ni de résultat précis quant à la probabilité d'erreur. 3ème théorème de Shannon : capacité d’un canal BBAG de bande passante limitée B : C( bits / s ) S = B ⋅ log2 1 + N 7/192 1. Introduction 8/192 1. Introduction Exercice : Une image de télévision noir et blanc est constituée de 3.105 pixels, chacun de ces pixels peuvent prendre un niveau de luminosité parmi 10 avec la même probabilité. On suppose que le rythme de transmission est de 30 images par secondes et que SNR = 30dB. Déterminer la BP requise pour la transmission de ce signal. H(X) = log2(10) = 3,32bits RB = H(X).30.3.105 = 29,9Mbits/s B = RB/log2(1001) ≈ 3MHz 9/192 1. Introduction Les modulations numériques : Quand il s'agit de transmettre des données numériques sur un canal passe-bande, il est nécessaire de moduler les données autour d'une porteuse. Il existe quatre techniques principales de modulation numérique selon que le message fait varier l'amplitude, la phase ou la fréquence de la porteuse. Ces techniques sont : ASK (Amplitude Shift Keying) : modulation d’amplitude FSK (Frequency Shift Keying) : modulation de fréquence PSK (Phase Shift Keying) : modulation de phase QAM (Quadrature Amplitude modulation) : modulation d’amplitude sur deux porteuses en quadrature. Dans tous les cas, le principe consiste à utiliser des symboles binaires pour modifier les caractéristiques d’une ou plusieurs porteuses. 10/192 1. Introduction Le modulateur/démodulateur IQ 11/192 1. Introduction L’exemple de la modulation QPSK : Dans ce cas, la phase de la porteuse prend 4 valeurs différentes correspondant au « transport » de deux bits par symbole. Chaque signal de durée Ts s’écrit : 1≤ i ≤ 4 2 Es π cos 2πf c t + (2i − 1) ⋅ g (t ) si (t ) = 0 ≤ t ≤ Ts 4 Ts Es est l’énergie du symbole et fc = nc/Ts est la fréquence de la porteuse. La durée d’un symbole est égale à Ts = Tb.log2(4)=2.Tb. Exercice : Montrer que le signal QPSK peut s’écrire sous la forme suivante : si (t ) = Es ⋅ (X IN ( i ) ⋅ Φ IN (t ) − X QUAD ( i ) ⋅ Φ Q (t ) ) avec Φ IN (t ) = 2 2 . cos(2πf c t ) Φ QUAD (t ) = . sin (2πf c t ) Ts Ts 12/192 1. Introduction Exercice (suite) : En déduire la structure du modulateur QPSK. Représenter sur un graphique à deux dimensions les 4 vecteurs suivants : [ s i = X IN (i ) X QUAD (i ) ] 1≤ i ≤ 4 Cette représentation graphique s’appelle une constellation. Montrer que les 4 points s’inscrivent sur un cercle de rayon ES Calculer la distance Euclidienne entre les points de la constellation. En déduire la distance Euclidienne minimale entre les points de cette constellation. d mn = dm − dn Relation entre le nombre de points de la constellation N et nombre de bits transportés nb: N =2 nb 13/192 1. Introduction Quelques exemples de constellations : Démo MATLAB + VSA89600 sur QPSK 14/192 1. Introduction Critères de performance : Probabilité d’Erreur et Taux d’erreur binaire sur canal à BBAG Etude du cas de la modulation BPSK : Le récepteur reçoit : r = ± ES + n 15/192 1. Introduction n représente un bruit blanc de moyenne nulle et de Densité Spectrale de Puissance N0/2 W/Hz. Le seuil de décision du récepteur est fixé à 0. Les densités de probabilités exprimant l’envoi respectivement d’un 1 (s1) ou d’un 0 (s2) s’écrivent : 2 1 p (r s1 ) = ( ) /N ( ) /N exp − r − ES πN 0 1 p (r s2 ) = exp − r + ES πN 0 0 2 0 16/192 1. Introduction Supposons l’émission de s2 (0), la probabilité d’erreur est simplement la probabilité que r > 0 : P (e s2 ) = +∞ ∫ p(r s )dr 2 0 = = = ( +∞ 1 − r + E exp s πN 0 ∫0 +∞ 1 2 z dz exp − ∫ π ( ) /N 2 0 dr ) ES N0 ES 1 erfc 2 N0 erfc(u) représente la fonction d’erreur complémentaire : erfc(u ) = 2 π +∞ ( ) 2 exp z dz − ∫ u 17/192 1. Introduction Les signaux étant symétriques, P(e|s1)=P(e|s2). De plus, comme les deux signaux s1 et s2 sont équiprobables, la probabilité d’erreur totale s’écrit : Pe = = 1 1 P (e s1 ) + P (e s2 ) 2 2 ES 1 erfc 2 N 0 Remarque : ce résultat peut également s’exprimer en fonction de la distance Euclidienne entre les deux points s1 et s2, d12 = 2 ES : d2 1 12 Pe = erfc 4N0 2 18/192 1. Introduction Alors à quoi ça sert toutes ces formules ? A obtenir des courbes de TEB ! 19/192 1. Introduction Encombrement spectral, efficacité spectrale : Pour limiter la bande passante de transmission, on a recours au filtrage des impulsions associées aux symboles. Nyquist à montré que l’optimum est B = 1/TS Hz. 20/192 1. Introduction Comme Ts = Tb.log2(M) et que rb = 1/Tb, l’efficacité spectrale s’écrit alors : η=rb/B = log2(M) (bits/s/Hz) En résumé : Modulation BPSK QPSK 8PSK QAM η (bits/s/Hz) 1 2 3 4 A retenir : a rythme binaire égal une modulation de grande efficacité spectrale utilisera moins de bande qu’une modulation de faible efficacité spectrale. 21/192 1. Introduction Conclusion : diagramme d’efficacité spectrale à Pe = 10-5 : 22/192 1. Introduction En transmission, le bruit thermique est prédominant Bruit thermique pour une résistance : Vn = 4kTBR avec : Constante de Boltzmann k = 1,38 ×10 −23 J / K Température en degrés Kelvin (K) T Largeur de bande en Hertz (Hz) B Résistance en Ohms (Ω) R La puissance de bruit s’écrit : 2 Vn 1 Pn = ⋅ = kTB 2 R 23/192 1. Introduction Température équivalente de bruit d’un quadripôle : On a : P0 Te = GkB Facteur de bruit d’un quadripôle : F= Pi PN i PO PN O ≥1 24/192 1. Introduction Facteur de bruit d’un quadripôle, illustration : 25/192 1. Introduction Relation avec la température de bruit : On a : Soit : PN 0 = kGB(T0 + Te ) F= Pi PN i PO PN O Pi PN O Pi kGB(T0 + Te ) 1 kGB(T0 + Te ) Te = ⋅ = ⋅ = ⋅ = 1+ kT0 B PO kT0 B PO G kT0 B T0 26/192 1. Introduction Relation avec la température de bruit : On a également : Te = T0 ( F − 1) Quadripôles en cascade : Température de bruit équivalente de la mise en cascade: Te1= (F1-1) T0 T0 Te2= (F2-1)T0 Ge1 Ge2 F1 F2 T2 T3 27/192 1. Introduction Quadripôles en cascade : Température de bruit équivalente de la mise en cascade: T2 = (Te1 + T0 )Ge1 Teq + T0 = T3 = (Te 2 + T2 )Ge 2 = (Te 2 + (Te1 + T0 )Ge1 )Ge 2 (Te 2 + (Te1 + T0 )Ge1 )Ge 2 Te 2 Ge1Ge 2 = Ge1 + Te1 + T0 Te 2 Teq = Te1 + + Ge1 28/192 1. Introduction Quadripôles en cascade : Relation avec les facteurs de bruit : Ne1q= (F1-1)kT0 Ne1=kT0 Ne2q= (F2-1)kT0 Ge1 Ge2 F1 F2 Ne2 Ne3 N e 2 = [( F1 − 1)kT0Ge1 + kT0Ge1 ] = F1kT0Ge1 N e3 = F1Ge1kT0Ge 2 + ( F2 − 1)kT0Ge 2 F= N e3 F G kT G + ( F2 − 1)kT0Ge 2 (F − 1) = 1 e1 0 e 2 = F1 + 2 Ge1Ge 2 kT0 Ge1 Ge1Ge 2 kT0 29/192 1. Introduction Quadripôles en cascade : Relation avec les facteurs de bruit : F1n F2 − 1 F3 − 1 + + = F1 + Ge1 Ge1Ge 2 Si le premier élément de la chaîne est un ampli à grand gain, alors le bruit sera principalement fixé par le facteur de bruit de cet ampli. ⇒ nécessité d’amplis faible bruit en étage d’entrée 30/192 1. Introduction Exercice : Calculer le facteur de bruit F de ce récepteur 31/192 1. Introduction Système de transmission sans fil Rôle central de l’antenne 32/192 2. Antennes Définition : Une antenne est un transducteur transformant une onde guidée dans une ligne de transmission en une onde se propageant librement dans l’espace. L’antenne convertit des grandeurs électriques dans un conducteur (tension, courant) en grandeurs électromagnétiques dans l’espace et inversement. L’antenne proprement dite (c’est-à-dire sans composants associés) peut être utilisée indifféremment en émission ou en réception. 33/192 2. Antennes Différent types d’antennes : 34/192 2. Antennes L’antenne de référence : la source isotrope Pas de réalité physique. Référence 0dBi 35/192 2. Antennes 36/192 2. Antennes Directivité : On appelle directivité le rapport entre la densité de puissance créée dans une direction donnée et la densité de puissance d’une antenne isotrope. U (θ , ϕ D (θ , ϕ ) = Pe 4π ) 37/192 2. Antennes Gain de l’antenne : Le gain est défini de la même manière que la directivité en tenant compte de la puissance fournie à l’antenne : U (θ , ϕ G (θ , ϕ ) = Pf 4π ) Ce gain est parfois dénommé gain réalisé en opposition au gain intrinsèque ne prenant en compte que les pertes de l’antenne (sans les pertes d’adaptation). Gintrinsèque = Gréalisé 1 − S11 2 38/192 2. Antennes L’antenne en tant que circuit : Pa Pe puissance émise Pi générateur Pr Ze L’antenne étant un système résonant (onde stationnaire), il faut faire en sorte que l’impédance qu’elle ramène face à la ligne (son impédance d’entrée) soit adaptée à celle-ci. La ligne est alors en onde progressive, toute la puissance est transmise à l’antenne. L’antenne sert alors de transformateur d’impédance entre l’espace libre et la ligne de transmission. La puissance rayonnée ne dépend que de la puissance acceptée et des pertes de l’antenne. 39/192 2. Antennes Coefficient de réflexion: On définit la qualité d’adaptation d’une antenne soit en donnant son impédance caractéristique (souvent 50 ohms), soit en donnant son niveau de coefficient de réflexion. Ze = R + jX coefficient de réflexion en puissance : S11 S11 2 Pr = Pi est le coefficient de réflexion en tension Impédance déduite d’une mesure de réflexion : 1 + S11 Ze = Zc. 1 − S11 40/192 2. Antennes Bande passante : Il existe de nombreuses définitions de bandes passantes. La plus commune est la bande passante à -3dB en adaptation où le coefficient de réflexion de l’antenne respecte un certain niveau. 41/192 2. Antennes Relation avec l’impédance : L’impédance complexe d’une antenne varie en fonction de la fréquence. Cela correspond aux variations de répartition des courants à sa surface. Z(f) = R(f) + j X(f) On cherche à faire correspondre la fréquence de fonctionnement avec un point d’impédance purement réel proche de celle du système (50 ohms en général). résonance série X(f) R(f) f mode fondamental 42/192 2. Antennes Diagrammes de rayonnement : Il existe une multitude de façons de représenter le rayonnement d’une antenne : diagramme en champ, en puissance, gain, directivité, en polaire ou cartésien, en linéaire ou en décibels, en 2D ou 3D 43/192 2. Antennes Diagrammes de rayonnement : Utilisation 44/192 2. Antennes Diagrammes de rayonnement : Utilisation • L’ouverture à mi-puissance (Half Power BeamWidth HPBW) est l’angle entre deux points du diagramme de rayonnement de valeur la moitié du maximum (ou -3dB) et situés de part et d’autres du lobe principal. Une directivité élevée correspond une ouverture a mi-puissance étroite. • L’ouverture des premiers nuls est l’angle entre deux points du diagramme de valeur nulle et située de part et d’autres du lobe principal (First Nul BeamWidth FNBW) . • Le niveau des premiers lobes (First Side Lobe Level) est la valeur maximales des premiers lobes secondaires situées de part et d’autres du lobe principal. • Le rapport avant-arrière (Front To Back Ratio FTBR) est la différence entre le niveau maximal et le niveau dans la direction opposée. 45/192 2. Antennes Polarisation : Si le vecteur E (et de fait H) reste dans un même plan au cours de la propagation, on parle d’onde à polarisation linéaire. Si par contre le vecteur E (et de fait le vecteur H) tourne en cours de propagation dans le plan Oxy et décrit une ellipse (cercle) on parle d’onde à polarisation elliptique (circulaire). 46/192 2. Antennes Diagrammes de rayonnement d’une antenne à polarisation circulaire : Pour une onde à polarisation circulaire, il n’y a pas de plans E et de plans H. On utilise au moins deux plans orthogonaux. On représente alors DRHCP et DLHCP. 47/192 2. Antennes 48/192 2. Antennes Logiciels de conception : • Agilent ADS-Momentum (méthode des moments MoM) • Ansoft-Ansys HFSS (méthode des éléments finis FEM) • CST Microwave Studio (méthode temporelle) • X-FDTD+codes labos (méthodes des différences finies dans le domaine temporelle FDTD) • IMST Empire (FDTD) • Feko (diverses: MoM, MLFMM, FEM, PO, GO, UTD) • etc. Démo ADS : TP de fabrication antenne patch 2,4GHz. 49/192 3. Bilan de liaison 2 λ C = Pr = Ge (θ , ϕ ) ⋅ Gr (θ , ϕ ) ⋅ Pe 4πr 50/192 3. Bilan de liaison On obtient alors le rapport C/N0 : 2 λ Ge (θ , ϕ ) ⋅ Gr (θ , ϕ ) ⋅ Pe 4πr C = N0 kTeq Soit en dB.Hz : λ 2 Gr (θ , ϕ ) C − [k ]dB N = [Pe ⋅ Ge (θ , ϕ )]dB + 4πr + T dB dB eq 0 dB 51/192 3. Bilan de liaison Dans le cas d’une transmission numérique : Eb C = 10 log(rb) + N 0 dB N 0 dB 52/192 3. Bilan de liaison Exemple de la mission CASSINI-HUYGENS Question : quelles doivent être les caractéristiques d’un système de télécommunication numérique pour permettre la réception d’images sans erreurs depuis un point situé à 1,25milliards de kms de la terre ? 53/192 3. Bilan de liaison Le sous-système de télécommunication de la sonde : 54/192 3. Bilan de liaison Le sous-système de télécommunication de la sonde : Trois antennes : deux LGA et une HGA de 4m de diamètre avec G = 48dB Emission et réception en bande X (8,4GHz/E et 7.2GHz/R). Puissance d’émission = 20W ! Débit en réception : 1kbits/s. Débit en émission variable de 14,22 à 165,9kbits/s Les données recueillies sont enregistrées à raison de 15h/jours puis transmises pendant 9h/jour. La station DSN de Goldstone reçoit ainsi 1Go/jour sur une antenne de 34m ou jusqu’à 4Go/jour sur une antenne de 70m. 55/192 3. Bilan de liaison Exercice : 1. Quelle est la densité de puissance rayonnée au niveau de la Terre ? PeGe pr = 4πR 2 2. Calculer l’affaiblissement de la liaison : λ αP = 4πR 3. L’antenne de réception possède un gain Gr = 74dB, son facteur de gain est de fgr = 0,66. En déduire le diamètre de l’antenne. 2 πD Gr = ⋅ fg λ 56/192 2 3. Bilan de liaison Exercice : déterminer le rapport signal sur bruit d’une transmission de la sonde Cassini. G/T = 62dB, rb =100kbits/s, Lo = 1,6dB, k =1,38e-23. C dBHz = PIRE ( dBW ) + (G / Teq )( dB / K ) − Ls( dB ) − Lo( dB ) − k ( dB ) N0 C Eb = 10 log(rb) + N 0 dB N 0 dB CCE ? les liens intéressants http://telecom.esa.int/wbts/wbts/cws/menus/home/index.htm# http://deepspace.jpl.nasa.gov/dsndocs/810-005/stationdata.cfm http://saturn.jpl.nasa.gov/home/index.cfm 57/192 4. Le canal radiomobile Propagation multitrajets : diffraction LOS scattering C A D B h(τ) Transmitter Receiver H(f) reflection FT Distorsion du spectre du signal transmis 58/192 4. Le canal radiomobile Effet Doppler : y fn = fmax.cos(αn) f max v = ⋅ f0 c0 Direction d’arrivée de la nième onde incidente. αn x Direction du mouvement Le spectre du signal transmis subit une expansion fréquentielle La RI du canal devient variable en fonction du temps 59/192 4. Le canal radiomobile Analyse : On transmet : ( ) s (t ) = ℜ u (t )e j 2πf ct = x(t ) cos(2πf c t ) − y (t ) sin (2πf c t ) Le signal reçu est : N j (2πf c (t −τ n ( t ) )+φ Dn ) r (t ) = ℜ∑ α n (t )u (t − τ n (t ))e n =0 Avec N = nombre de trajets, et pour chaque trajet, sa longueur rn(t) et le retard correspondant τn(t) = rn(t)/c, le déphasage dû à l’effet Doppler φDn et l’amplitude αn(t). 60/192 4. Le canal radiomobile Analyse (suite) : On peut simplifier r(t) en posant : φ n (t ) = 2πf cτ n (t ) − φ D n [ ] N − jφ n ( t ) j 2πf c t r (t ) = ℜ∑ α n (t )e u (t − τ n (t )) e n =0 Essayons de faire apparaître la RI du canal : +∞ r (t ) = ℜ ∫ h(τ , t )u (t − τ )dτ e j 2πf ct −∞ N h(τ , t ) = ∑ α n (t )e n =0 − jφ n ( t ) δ (τ − τ n (t )) 61/192 4. Le canal radiomobile Deux paramètres peuvent varier : τ et t h(t, τ) ne dépend pas de t : N h(τ , t ) = h(τ ) = ∑ α n e − jφn δ (τ − τ n ) n =0 canal invariant dans le temps. Les signaux provenant des différents trajets s’interfèrent de manière constructive ou destructive SELECTIVITE EN FREQUENCE. 62/192 4. Le canal radiomobile Influence de la durée des retards sur la fonction de transfert du canal : Le canal est d’autant plus sélectif que τmax est grand. 63/192 4. Le canal radiomobile Sélectivité en fréquence = IES : Plus la sélectivité en fréquence est importante et plus l’IES est importante 64/192 4. Le canal radiomobile A ce stade, on peut distinguer deux types de canaux : Le canal bande étroite ou narrowband : Peu de sélectivité en fréquence et donc peu d’IES 65/192 4. Le canal radiomobile Le canal large bande ou broadband : Sélectivité en fréquence, IES importante 66/192 4. Le canal radiomobile Exercice : on transmet s (t ) = e j 2πf 0t sur un canal à deux trajets de retards {0, τ}. Déterminer et représenter |r(t)| et |H(f)|2. h(t,τ) dépend de t : effet Doppler 67/192 4. Le canal radiomobile Signal transmis ( Retard de propagation s (t ) = ℜ u (t )e j 2πf 0t ) τ (t ) = R(t ) R0 − vr (t ) = c c La fréquence de la porteuse est décalée (« décalage Doppler ») Signal reçu : passe-bande r (t ) = s (t − τ (t )) = ℜ u (t − τ (t )) ⋅ e j 2πf 0 (t −τ (t ) ) f v f R j 2πf f 0 + 0 r t − j 2π 0 0 c c = ℜu (t − τ (t )) ⋅ e ⋅e { } Fréquence Doppler fD fv f0 − f0 + 0 r c fv = − 0 r c = Signal reçu : bande de base − j 2π ( f D t +ϕ ) rBB (t ) = u (t − τ (t )) ⋅ e 68/192 4. Le canal radiomobile N h(τ , t ) = ∑ α n (t )e n =0 − jφ n ( t ) δ (τ − τ n (t )) 69/192 4. Le canal radiomobile Influence de la fréquence Doppler max : 70/192 4. Le canal radiomobile Influence de la fréquence Doppler max, canal large bande : 71/192 4. Le canal radiomobile En résumé : 72/192 4. Le canal radiomobile Canal de Rayleigh : La durée max des retards << Ts (narrowband) Le signal reçu est une superposition d’un grand nombre de trajets sans LOS Les composantes I et Q ont une distribution Gaussienne Dans ce cas on a : z (t ) = r (t ) = rI2 (t ) + rQ2 (t ) et z(t) suit une distribution de Rayleigh : ( ) ( ( )) 2z z 2 exp − z / Pr = 2 exp − z 2 / 2σ 2 , z ≥ 0 pz ( z ) = Pr σ 73/192 4. Le canal radiomobile Canal de Rayleigh (suite) : φ(t) la phase de r(t) suit une distribution uniforme 74/192 4. Le canal radiomobile Canal de Rice : Le signal reçu est une superposition de trajets réfléchis et d’un trajet LOS Le facteur de Rice K (ou C) est le rapport de la puissance du trajet LOS sur la puissance des trajets NLOS : s2 K= 2σ 2 75/192 4. Le canal radiomobile Comparaison Rayleigh et Rice : 76/192 4. Le canal radiomobile Le modèle WSSUS : La RI du canal h(τ,t) est un processus aléatoire et est caractérisé par sa fonction d’autocorrélation : φh (τ 1 ,τ 2 ; t1 , t 2 ) = E {h(τ 1 , t1 ) ⋅ h* (τ 2 , t 2 )} Dans le cas de l’approximation WSSUS, on suppose que : • Le processus aléatoire est stationnaire au sens large (WSS), autrement dit la fonction d’autocorrélation est indépendante de t : φh (τ 1 ,τ 2 ; ∆t ) = E {h(τ 1 , t ) ⋅ h* (τ 2 , t + ∆t )} avec ∆t = t 2 − t1 • Les différents trajets ne sont pas corrélés (US) : φh (τ 1 ,τ 2 ; ∆t ) = 0∀τ 1 ≠ τ 2 φh (τ ; ∆t ) = E {h(τ , t ) ⋅ h* (τ , t + ∆t )} 77/192 4. Le canal radiomobile Caractérisation WSSUS : φH ( ∆t ) Tc Channel intensity profile φh (τ ) φh (τ ; ∆t ) Frequency time correlation function φH ( ∆f ) φH ( ∆f ; ∆t ) S h (τ ;ν ) µTm σTm Scattering function S H ( ∆f ;ν ) Bc Channel Doppler spectrum S H (ν ) Bd 78/192 4. Le canal radiomobile Le profil en puissance des retards : Φ h (τ ,0) = Φ h (τ ) Il représente la puissance moyenne associé à un trajet en fonction de son retard. C’est une grandeur facilement mesurable. On peut alors définir les étalements des retards moyens et en valeur efficace : µT = m ∫ ∞ 0 ∫ τ ⋅ Φ h (τ )dτ ∞ 0 Φ h (τ )dτ ∫ (τ − µ ) ⋅ Φ (τ )dτ ∫ Φ (τ )dτ ∞ σT = m 0 2 Tm h ∞ 0 h Remarque : si on défini la densité de probabilité de Tm par : Φ (τ ) pT (τ ) = ∞ h ∫0 Φ h (τ )dτ m Alors µTm et σTm représentent respectivement la moyenne et la valeur efficace de cette densité de probabilité. 79/192 4. Le canal radiomobile Le profil en puissance des retards (suite) : Exercice : soit le profil en puissance des retards suivant : e −τ / .00001 0 ≤ τ ≤ 20 µs Φ h (τ ) = 0 ailleurs Calculer µTm et σTm et déterminer le rythme symbole maximum pour que l’IES soit négligeable. 80/192 4. Le canal radiomobile Notion de bande de cohérence : Φ h (τ ) Φ H (∆f ) En général, on prend : Bc ≈ 1/ σTm Exercice : pour les canaux Indoor, on a σTm ≈ 50ns alors que pour des microcellules outdoor σTm ≈ 30µs. Déterminer le rythme symbole maximum dans ces deux cas pour éviter l’IES. Déterminer BC dans les deux cas. 81/192 4. Le canal radiomobile Spectre Doppler et temps de cohérence du canal : Les variations temporelles du canal provoquent un décalage Doppler des fréquences du signal reçu. Cet effet peut être caractérisé en prenant la TF de ΦH(∆f,∆t) par rapport à ∆t. Dans le but de caractériser l’influence Doppler pour une seule fréquence, on fixe ∆f = 0. On obtient alors : +∞ S H (ν ) = ∫ Φ H (∆t )e − j 2πν∆t d∆t −∞ SH(ν) est la Densité Spectrale de Puissance Doppler du canal (c’est une TF d’une fonction d’autocorrélation). La valeur maximale de ν pour laquelle SH(ν) est non nulle s’appelle l’étalement Doppler et est noté Bd. 82/192 4. Le canal radiomobile Spectre Doppler et temps de cohérence du canal (suite) : Le temps pour lequel ΦH(∆t) est différent de 0, s’appelle le temps de cohérence du canal Tc. On a généralement Bd ≈ 1/Tc Φ H (∆t ) S H (ν ) 83/192 4. Le canal radiomobile Spectre Doppler et temps de cohérence du canal (suite) : Remarque : la DSP Doppler est proportionnelle à la densité de probabilité p(fD) des décalages Doppler. 84/192 4. Le canal radiomobile Spectre Doppler et temps de cohérence du canal (suite) : Exercice : pour un canal de Bd = 80Hz, quelle est la séparation temporelle nécessaire entre les échantillons pour s’assurer qu’ils soient indépendants ? En résumé : Etalement des retards Décalage Doppler Time FT FT Frequency Time Frequency Frequency 85/192 4. Le canal radiomobile Techniques de simulation des canaux radiomobiles : Pour l’aide à la conception de systèmes de transmission numériques, il est important de pouvoir disposer d’outils de simulation des canaux de transmissions. Il y a deux techniques principales : • La méthode du filtre : AWGN σ2 =0.5 H(z) + AWGN σ2 =0.5 H(z) s(n) X j 86/192 4. Le canal radiomobile Techniques de simulation des canaux radiomobiles (suite) : La méthode de la somme de sinusoïdes : ci,1 cos(2πfi,1t + θi,1) X ci,2 cos(2πfi,2t + θi,2) X + µi(t) ci,∞ cos(2πfi,∞t + θi,∞) X Illustration : simulations MATLAB ! 87/192 4. Le canal radiomobile Illustration de la dégradation du TEB : 88/192 4. Le canal radiomobile Illustration de la dégradation du TEB : Dégradation du TEB dû au fading 0 10 Canal BBAG Canal de Rayleigh -1 10 -2 TEB 10 -3 10 -4 10 -5 10 -6 10 0 2 4 6 SNR/bit (dB) 8 10 12 89/192 4.1. Les modulations différentielles de phase Lorsque que l’on travaille sur des canaux perturbés et que l’on souhaite éviter les techniques (généralement complexes) d’estimation de canal, les modulations différentielles de phase sont une bonne alternative. Dans le cas des modulations MPSK différentielles, l’information est contenue dans les transitions de phase plutôt que dans la phase absolue. Commençons par l’expression du signal à transmettre s[n] durant l’intervalle iN ≤ n < (i + 1)N : s[n] = 2 p[n − iN ]cos(nω0 + θ + θ i ) où p[n] représente une impulsion d’énergie unité, ω0 la pulsation de la porteuse, θ la phase inconnue de la porteuse et θi la phase codée différentiellement : 90/192 4.1. Les modulations différentielles de phase θ i = θ i −1 + ∆θ (d i ) La rotation de phase ∆θ(di) dépend du symbole d’entrée di ∈{0, 1, …, M-1}. Exemple : Pour M = 4 on a une DQPSK. Dans ce cas, di ∈{0, 1, 2, 3} et il y a quatre sauts de phase possibles : di ∆θ(di) 0 0 1 π/2 2 π 3 3π/2 Exprimons le signal s[n] de façon à pouvoir obtenir une structure générale d’encodeur différentiel : 91/192 4.1. Les modulations différentielles de phase s[n] = 2 p[n − iN ]cos(nω0 + θ + θ i −1 + ∆θ (d i )) = cos(θ i −1 + ∆θ (d i )) 2 p[n − iN ]cos(nω0 + θ ) − sin (θ i −1 + ∆θ (d i )) 2 p[n − iN ]sin (nω0 + θ ) = I (i ) 2 p[n − iN ]cos(nω0 + θ ) − Q(i ) 2 p[n − iN ]sin (nω0 + θ ) avec : I (i ) = cos(θ i −1 + ∆θ (d i )) = cos(θ i −1 ) cos(∆θ (d i )) − sin (θ i −1 )sin (∆θ (d i )) Comme I ( j − 1) = cos(θ j −2 + ∆θ (d j −1 )) et ∆θ (d j −1 ) = θ j −1 − θ j − 2 On a : I ( j − 1) = cos(θ j −1 ) D’où : I (i ) = I (i − 1) cos(∆θ (d i )) − Q(i − 1) sin (∆θ (d i )) 92/192 4.1. Les modulations différentielles de phase De même : Q(i ) = sin (θ i −1 + ∆θ (d i )) = cos(θ i −1 )sin (∆θ (d i )) − sin (θ i −1 ) cos(∆θ (d i )) = I (i − 1) sin (∆θ (d i )) − Q(i − 1) cos(∆θ (d i )) Les équations précédentes montrent que I(i) et Q(i) sont fonctions de leurs valeurs précédentes I(i-1) et Q(i-1) et des valeurs sin(∆θ(di)) et cos(∆θ(di)). Ces dernières peuvent être précalculées et stockées dans une table de LUT. Les expressions précédentes nous permettent d’établir la structure générale d’un modulateur de phase différentiel : 93/192 4.1. Les modulations différentielles de phase Exemple : modulateur DBPSK : di ∆θ(di) cos(∆θ(di)) sin(∆θ(di)) 0 π -1 0 1 0 +1 0 94/192 4.1. Les modulations différentielles de phase On remarque que : • I(i) = I(i-1) cos(∆θ(di)) • Q(i) =0 La structure de l’émetteur se simplifie : Exercice : encoder la séquence binaire bk = {1 0 0 1 0 0 1 1} en DBPSK. On considérera que Ik-1 = 1. 95/192 4.1. Les modulations différentielles de phase Décodage des signaux DMPSK : récepteur cohérent : On peut montrer que la structure suivante : 96/192 4.1. Les modulations différentielles de phase Permet d’implémenter la règle de décision suivante : {( )} ) ( 2 2 dˆi = min xi' − cos(∆θ (d )) + y i' − sin (∆θ (d )) d Performance des modulations différentielles : Performance des modulations DBPSK et DQPSK 0 10 -1 10 -2 TEB 10 -3 10 -4 10 DBPSK Rayleigh fDTS = 0.001 DBPSK AWGN BPSK AWGN DQPSK AWGN -5 10 -6 10 0 5 10 Eb/N0 (dB) 15 97/192 5. Techniques de communications numériques Gain de codage : 98/192 5. Techniques de communications numériques Historique des CCE 1950 1960 11920 Shannon’s Paper 1948 Hamming defines basic binary codes Gallager’s Thesis On LDPCs Berlekamp and Massey rediscover Euclid’s Viterbi’s Paper polynomial technique On Decoding Convolutional Codes and enable practical algebraic decoding Reed and Solomon Forney suggests define ECC 99/192 concatenated codes Technique BCH codes Proposed 5. Techniques de communications numériques Historique des CCE (suite) 1980 1990 RS codes appear in CD players Berrou’s Turbo Code Paper - 1993 TCM Heavily Adopted into Standards Turbo Codes Adopted into Standards (DVB-RCS, 3GPP, etc.) 2000 LDPC beats Turbo Codes For DVB-S2 Standard - 2003 Renewed interest in LDPCs due to TC Research 100/192 5. Techniques de communications numériques On peut classer les CCE en fonction de leur structure. On a deux grandes familles : Les codes en blocs linéaires : • Définition (Code en blocs) : Un code en blocs de taille M et de longueur n, défini sur un alphabet de q symboles, est un ensemble de M séquences q-aires de longueur n appelées mots de code. Si q=2, les symboles sont des bits. Généralement, M=qk, k étant un entier. Le code sera désigné par la paire (n,k). Chaque séquence de k symboles d'information est codée en un mot de code constitué de n symboles. k est appelé dimension du code. Un code en blocs associe donc aux k symboles d'information un mot de code de n symboles. 101/192 5. Techniques de communications numériques • Définition : (Rendement) : Le rendement R d’un code en blocs (n,k) est : R=k n • La théorie de l'information indique que les très longs codes en blocs sont les plus puissants. De tels codes sont difficiles à chercher théoriquement et nécessitent des circuits compliqués pour réaliser les opérations de codage et de décodage. • Les codes en blocs sont caractérisés par trois paramètres : leur longueur n, leur dimension k et leur distance minimale dmin La distance minimale mesure la différence entre les deux mots de code les plus similaires. 102/192 5. Techniques de communications numériques • Définition (Distance de Hamming) : Soient x et y deux séquences q-aires de longueur n. La distance de Hamming entre x et y, notée dH(x,y), est le nombre de symboles différents entre les deux séquences. • Exemple : Considérons deux séquences binaires x=10101 et y=01100. La distance de Hamming dH(x,y) est égale à 3. • Définition (Distance minimale) : Soit C={ci,i=1,…,M} un code en bloc. La distance minimale dmin du code C est la distance de Hamming entre les deux mots de code les plus proches : d min = min{d H (ci ; c j ), ∀i, j = 1, M , i ≠ j} 103/192 5. Techniques de communications numériques • Définition (Capacité de correction) : La capacité de correction d’un code en blocs est donnée par : t= (d min − 1) 2 • Un code en blocs linéaire est facilement décrit par sa matrice génératrice G. Ainsi la méthode de codage s’écrit-elle : c=i.G • Tout code en blocs admet une matrice de test de parité telle que : G.HT=0 • Définition (code systématique) : Un code systématique est un code dans lequel un mot de n symboles contient les k symboles d'information non modifiés. Les n-k symboles restant sont appelés symboles de parité. G est équivalente à une matrice de la forme : G = [P I k ] 104/192 5. Techniques de communications numériques • Exemple : code de Hamming (7,4) : 1 0 G= 1 1 1 0 1 0 0 0 1 1 0 1 0 0 1 1 0 0 1 0 0 1 0 0 0 1 Quels sont les mots du code ? Ce code est-il systématique ? Donner dmin et en déduire la capacité de correction de ce code Calculer H Soit r =(1001001) un mot reçu. Montrer qu’il contient une erreur et que le récepteur peut la localiser et la corriger. 105/192 5. Techniques de communications numériques Les codes en blocs performants : BCH : Bose, Chaudhuri, Hocquenghem Reed-Muller Reed-Solomon (GF2^N) : lecteurs de CD/DVD, Cassini (255,223) 106/192 5. Techniques de communications numériques Les codes convolutifs : ils forment une classe extrêmement souple et efficace de CCE. Ce sont les codes les plus utilisés dans les systèmes de télécommunications fixes et mobiles. Contrairement aux codes en blocs chaque mot du code dépend du message à l’instant t mais aussi des messages précédents longueur de contrainte ν. • Exemple d’encodeur (2,1,2) : 107/192 5. Techniques de communications numériques • Définition (longueur de contrainte) : La longueur de contrainte ν d’un code convolutif est égale au nombre d’éléments retard de son encodeur. ν=2 dans l’exemple précédent. • Un code convolutif peut être décrit soit par sa matrice génératrice G, soit par sa matrice de test de parité H. La représentation de ces matrices se fait par des nombres en base 8. Elle permet la construction de l’encodeur. • Définition (Transformée en D) : Une séquence de bits, {am} peut être représentée par sa transformée en D : a( D) = +∞ m a D ∑ m m = −∞ 108/192 5. Techniques de communications numériques • Exemple : – Déterminer G pour le codeur de l’exemple précédent – Encoder la séquence suivante : u = (1 0 0 1 1) en utilisant la transformée en D (attention GF(2) !). – Mettre G sous forme récursive systématique et en déduire une nouvelle représentation de l’encodeur. • Tables de codes : La détermination de « bons » codes convolutifs à fait l’objet de nombreuses recherches et le concepteur a à sa disposition des tables de codes. 109/192 5. Techniques de communications numériques 2m g11(D) g12(D) dfree 4 7 5 5 8 17 13 6 16 23 35 7 (GSM) 16 31 33 7 32 77 51 8 64 163 135 10 (802.11a) 64 155 117 10 (802.11b) 64 133 175 9 128 323 275 10 256 457 755 12 (IS-95) 256 657 435 12 Codes de rendement ½ de distance libre maximale • Exemple : Construire l’encodeur associé au code (2,1,4) de la table. En déduire son gain de codage asymptotique dans le cas d’un décodage souple. 110/192 5. Techniques de communications numériques • Représentations graphiques de l’encodeur convolutif : – Le graphe d’état : 111/192 5. Techniques de communications numériques • Fonction de transfert T(W,D,L) et spectre de distance : (exemple du code (2,1,3) précédent) L = longueur de la séquence W = poids de la séquence non codée D = poids de la séquence codée On a : Finalement : 112/192 5. Techniques de communications numériques • Fonction de transfert T(W,D,L) et spectre de distance : (exemple du code (2,1,3) précédent) Le développement en série de T(W,D,L) conduit à : Interprétation : • Une séquence de longueur l = 3, un poids d’entrée de longueur w = 1 et de poids de sortie d = 5, • Une séquence de longueur l = 4, un poids d’entrée de longueur w = 2 et de poids de sortie d = 6, • Une séquence de longueur l = 5, un poids d’entrée de longueur w = 2 et 113/192 de poids de sortie d = 6, etc. 5. Techniques de communications numériques • Fonction de transfert T(W,D,L) et spectre de distance : (exemple du code (2,1,3) précédent) Illustration des séquences à partir du treillis pour d ≤ 7 : dfree = 5 114/192 5. Techniques de communications numériques • Fonction de transfert T(W,D,L) et spectre de distance : (exemple du code (2,1,3) précédent) Nombre de séquences de poids de Hamming d : Nombre total (w) de bits d’information non nuls associé aux séquences du code de poids de Hamming d (utile pour le calcul du TEB) : Exemple : 115/192 5. Techniques de communications numériques • Exemples de spectres de distance NSC et RSC: (code (2,1,3) précédent) 116/192 5. Techniques de communications numériques • Distance libre et gain de codage asymptotique : γ = 10 ⋅ log10 (R ⋅ d free ) Pour un récepteur à décision souple R ⋅ d free γ = 10 ⋅ log10 2 Pour un récepteur à décision dure 117/192 5. Techniques de communications numériques • Bornes d’erreur : – On peut montrer que : » La probabilité d’erreur dans une séquence s’écrit : » La probabilité d’erreur par bit 118/192 5. Techniques de communications numériques • Bornes d’erreur : – Exemple pour le code précédent : 119/192 5. Techniques de communications numériques • Représentations graphiques de l’encodeur convolutif : – Le treillis : • Exemple : A l’aide de Matlab, afficher le treillis du code (2,1,3) de l’exemple précédent. 120/192 5. Techniques de communications numériques • Définition : (distance libre) : La distance libre dfree d’un code convolutif est égale à la plus petite distance de Hamming qui existe entre deux séquences qui divergent puis convergent à nouveau : ∆ d free = min{d (v' , v' ') : u' ≠ u' '} u',u'' où v’ et v’’ sont les mots du code correspondant aux séquences u’ et u’’. C’est cette distance qui affecte les performances asymptotiques d’un code. 121/192 5. Techniques de communications numériques Le poinçonnage : 122/192 5. Techniques de communications numériques • Décodage optimal des codes convolutifs : – L’algorithme de Viterbi (1967). Il s’agit d’un algorithme basé sur principe du maximum de vraisemblance (ML). Il minimise la probabilité d’erreur par mot du code. C’est le plus utilisé en pratique du fait de sa faible complexité. – L’algorithme BCJR ou MAP (11924). Il s’agit d’un algorithme basé sur le critère du maximum à posteriori (MAP). Il minimise la probabilité d’erreur par bit. Il est bien plus complexe que l’algorithme de Viterbi et est donc moins utilisé dans le décodage des codes convolutifs. Par contre il présente l’avantage de fournir une information de fiabilité sur le décodage effectué ce qui est un élément clé pour le décodage itératif (Turbo codes). 123/192 5. Techniques de communications numériques • L’algorithme de Viterbi : A partir du trellis du code convolutif, on réalise les étapes suivantes : 1. On démarre le treillis à l’état 0, 2. On calcule le métrique de branche γk de toutes les branches et pour chaque état du treillis, 3. Pour chaque branche, on additionne le métrique de branche γk au métrique d’état précédent ce qui donne le métrique cumulé, 4. Pour chaque état, on sélectionne le chemin qui possède le métrique cumulé le plus faible (appelé survivant) et on élimine les autres chemins. En cas d’égalité, on tire au sort le survivant, 5. On revient à l’étape 2 jusqu’à la fin de la séquence à décoder. 6. A la fin du treillis, on sélectionne la branche de plus faible métrique et on remonte le treillis en passant par le chemin de plus faible métrique ; chaque branche traversée donne la valeur des bits d’information (1 bit dans le cas de l’exemple). 124/192 5. Techniques de communications numériques • Exemple : Pour illustrer simplement les capacités de correction des erreurs de l’algorithme nous décodons la séquence v = [10 10 11 11 01] qui contient une erreur en position 1 : 125/192 5. Techniques de communications numériques • Techniques d’implémentation : – Profondeur du treillis p ≥ 6ν – Décision dure/décision souple : 126/192 5. Techniques de communications numériques • L’algorithme MAP-BCJR : The goal of the maximum a posteriori (MAP) decoder is to determine P( u(t)=1 | y ) and P( u(t)=0 | y ) for each t. – The probability of each message bit, given the entire received codeword. These two probabilities are conveniently expressed as a loglikelihood ratio: P[u (t ) = 1 | y ] λ (t ) = log P[u (t ) = 0 | y ] 127/192 5. Techniques de communications numériques • Determining Message Bit Probabilities from the Branch Probabilities: S3 p3,3 S2 For each t, ∑ P(S (t − 1) → S Si → S j S1 S0 – pi,j(t) = P( Si(t-1) Sj(t) | y ) – where Sj(t) means that S(t)=Sj S3 S2 Let pi,j(t) be the probability that the encoder made a transition from Si to Sj at time t, given the entire received codeword. S1 p0,0 i ∑ P(S (t − 1) → S j (t ) | y ) ∑ P(S (t − 1) → S j (t ) | y ) S i → S j :u =1 (t ) | y ) = 1 The probability that u(t) = 1 is P(u (t ) = 1 | y ) = S0 j Likewise P(u (t ) = 0 | y ) = S i → S j :u = 0 i i 128/192 5. Techniques de communications numériques • Determining the Branch Probabilities α3 γ3,3 β3 α2 β2 α1 β1 α0 γ0,0 Let γi,j(t) = Probability of transition from state Si to state Sj at time t, given just the received word y(t) – γi,j(t) = P( Si(t-1) Sj(t) | y(t) ) Let αi(t-1) = Probability of starting at state Si at time t, given all symbols received prior to time t. – αi(t-1) = P( Si(t-1) | y(1), y(2), …, y(t-1) ) β0 βj = Probability of ending at state Sj at time t, given all symbols received after time t. – βj(t) = P( Sj(t) | y(t+1), …, y(L+m) ) Then the branch probability is: – pi,j(t) = αi(t-1) γi,j(t) βj (t) 129/192 5. Techniques de communications numériques • Computing α α3(t-1) γ3,3(t) α3(t) α can be computed recursively. Prob. of path going through Si(t-1) and terminating at Sj(t), given y(1)…y(t) is: • αi(t-1) γi,j(t) α1(t-1) Prob. of being in state Sj(t), given y(1)…y(t) is found by adding the probabilities of the two paths terminating at state Sj(t). For example, – α3(t)=α1(t-1) γ1,3(t) + α3(t-1) γ3,3(t) The values of α can be computed for every state in the trellis by “sweeping” through the trellis in the forward direction. 130/192 5. Techniques de communications numériques • Computing β β3(t) γ3,3(t+1) Likewise, β is computed recursively. Prob. of path going through Sj(t+1) and terminating at Si(t), given y(t+1), …, y(L+m) – βj(t+1) γi,j(t+1) β3(t+1) β2(t+1) Prob. of being in state Si(t), given y(t+1), …, y(L+m) is found by adding the probabilities of the two paths starting at state Si(t). For example, – β3(t) = β2(t+1) γ1,2(t+1) + β3(t+1) γ3,3(t+1) The values of β can be computed for every state in the trellis by “sweeping” through the trellis in the reverse direction. 131/192 5. Techniques de communications numériques • Computing γ Every branch in the trellis is labeled with: – γi,j(t) = P( Si(t-1) Sj(t) | y(t) ) Let xi,j = (x1, x2, …, xn) be the word generated by the encoder when transitioning from Si to Sj. – γi,j(t) = P( xi,j | y(t) ) From Bayes rule, – γi,j(t) = P( xi,j | y(t) ) = P( y(t) | xi,j ) P( xi,j ) / P( y(t) ) P( y(t) ) – Is not strictly needed because will be the same value for the numerator and denominator of the LLR λ(t). – Instead of computing directly, can be found indirectly as a normalization factor (chosen for numerical stability) P( xi,j ) – Initially found assuming that code bits are equally likely. – In a turbo code, this is provided to the decoder as “a priori” information. 132/192 5. Techniques de communications numériques • Computing P( y(t) | xi,j ) If BPSK modulation is used over an AWGN channel, the probability of code bit y given x is conditionally Gaussian: − ( y − mx ) 2 1 exp P( y | x) = 2 2π σ 2 σ mx = Es (2 x − 1) σ2 = N0 2 – In Rayleigh fading, multiply mx by a, the fading amplitude. The conditional probability of the word y(t) n P ( y | x) = ∏ p ( y i | xi ) i =1 133/192 5. Techniques de communications numériques • Summary of MAP algorithm Label every branch of the trellis with γi,j(t). Sweep through trellis in forward-direction to compute αi(t) at every node in the trellis. Sweep through trellis in reverse-direction to compute βj(t) at every node in the trellis. Compute the LLR of the message bit at each trellis section: P[u (t ) = 1 | y ] λ (t ) = log P[u (t ) = 0 | y ] = log ∑ α (t − 1)γ i S i → S j :u =1 i, j (t ) β j (t ) ∑ α (t − 1)γ i S i → S j :u = 0 i, j (t ) β j (t ) MAP algorithm also called the “forward-backward” algorithm (Forney). 134/192 5. Techniques de communications numériques • Performances des codes convolutifs (Viterbi) : – Influence de la longueur de contrainte : 135/192 5. Techniques de communications numériques • Performances des codes convolutifs : influence du rendement : 136/192 5. Techniques de communications numériques Les CCE approchant la capacité de Shannon : 137/192 5. Techniques de communications numériques Les Turbo-Codes : 1993 Berrou, Glavieux • Introduction : 138/192 5. Techniques de communications numériques Les Turbo-Codes : 1993 Berrou, Glavieux • Introduction : 139/192 5. Techniques de communications numériques Les Turbo-Codes : 1993 Berrou, Glavieux • Introduction : 140/192 5. Techniques de communications numériques Les Turbo-Codes : 1993 Berrou, Glavieux • L’effet Turbo : 141/192 5. Techniques de communications numériques Les Turbo-Codes : 1993 Berrou, Glavieux • La performance dépend du nombre d’itérations : 0 10 -1 10 1 iteration -2 10 2 iterations -3 BER 10 -4 10 6 iterations 3 iterations -5 10 10 iterations -6 10 18 iterations -7 10 0.5 1 1.5 E /N in dB 2 142/192 5. Techniques de communications numériques Turbo-Codes (suite) : Exemple de l’UMTS • L’encodeur : Systematic Output Xk Input Xk “Upper” RSC Encoder Uninterleaved Parity Zk Output Interleaved “Lower” Parity Interleaved Interleaver RSC Z’k Input X’k Encoder Norme 3GPP TS 25 212 v6.6.0, Release 6 (2005-09) – UMTS Multiplexing and channel coding Les données sont segmentées en blocs de L bits. – avec 40 ≤ L ≤ 5114 143/192 5. Techniques de communications numériques Turbo-Codes (suite) : Exemple de l’UMTS • L’entrelaceur : Les données sont introduites en ligne dans une matrice R fois C. – R = 5, 10, ou 20. – 8 ≤ C ≤ 256 – Si L < RC alors la matrice est complétée par des zéros. X1 X2 X3 X4 X5 X6 X7 X8 X9 X10 X11 X12 X13 X14 X15 X16 X17 X18 X19 X20 X21 X22 X23 X24 X25 X26 X27 X28 X29 X30 X31 X32 X33 X34 X35 X36 X37 X38 X39 X40 – Les données de chaque ligne sont permutées 144/192 5. Techniques de communications numériques Turbo-Codes (suite) : Exemple de l’UMTS • Le codeur convolutif RSC : Systematic Output (Upper Encoder Only) Parity Output (Both Encoders) D D D 145/192 5. Techniques de communications numériques Turbo-Codes (suite) : Exemple de l’UMTS • Le décodeur SISO-MAP : λu,i λc,i SISO MAP Decoder λu,o λc,o Entrées : – λu,i LLR des bits de données. En provenance de l’autre décodeur. – λc,i LLR des bits codés. Informations en provenance du canal. Sorties : – λu,o LLR des bits de données. Transmis à l’autre décodeur. – λc,o LLR des bits codés. Non utilisé. 146/192 5. Techniques de communications numériques Turbo-Codes (suite) : Exemple de l’UMTS • Architecture du décodeur : Initialisation et ordonnancement : – L’entrée λu,i est initialisée à 0. – Le décodeur “Upper” démarre en premier, puis le “Lower”. 147/192 5. Techniques de communications numériques Turbo-Codes (suite) : Exemple de l’UMTS • Exemple de performance : BER of 640 bit turbo code in AWGN 0 10 -1 10 -2 10 L=640 bits Canal BBAG 10 itérations -3 BER 10 -4 10 -5 10 -6 10 -7 10 0 0.2 0.4 0.6 1.2 1 0.8 Eb/No in dB 1.4 1.6 1.8 2 148/192 5. Techniques de communications numériques Les LDPC : Les Low-Density Parity-Check (LDPC) codes sont une classe de codes en blocs linéaires caractérisés par une matrice de test de parité H creuse. – H possède une faible densité de 1, Les LDPC ont été inventés par Robert Gallager au début des années 1960 mais ont été ignorés jusqu’à leur redécouverte au milieu des années 1990 par MacKay Le fait que H soit creuse conduit à une distance minimale dmin élevée et reduit la complexité du décodage. Ils s’approchent de 0.0045 dB de la limite de Shannon. 149/192 5. Techniques de communications numériques Les LDPC : Comme les Turbo codes, les LDPC peuvent être décodés itérativement – Plutôt qu’un treillis, le décodage est effectué à partir d’un graphe de Tanner – Les messages sont échangés entre v-nodes et c-nodes – Les extrémités du graphe sont des chemins où circule l’information Décodage dur – Algorithme de Bit-flipping Décodage souple – Algorithme Sum-product • Connu aussi sous algorithme de message passing/ belief propagation – Min-sum algorithm • Approximation de plus faible complexité que le Sum-Product En general, la complexité par iteration des codes LDPC codes est inférieure aux turbo codes – Cependant, beaucoup plus d’itérations peuvent être requise (max≈100;avg≈30) – Ainsi, la complexité globale peut être supérieure aux Turbo codes 150/192 5. Techniques de communications numériques Les LDPC : Un graphe de Tanner est un graphe bipartite qui représente la matrice de test de parité H Il y a deux classes de noeuds : – Les noeuds de variable : Correspond aux bits des mots du code ou de manière équivalente aux colonnes de la matrice H • Ce sont les v-nodes – Les noeuds de parité : Correspond aux équations de test de parité ou de manière équivalente aux lignes de la matrice H • Ce sont les m=n-k c-nodes – Bipartite signifie que les noeuds du même type ne peuvent être connectés entre eux (e.g. un c-node ne peut être connecté à un autre cnode) Le ième noeud de parité est connecté au jème noeud de variable si le (i,j)ème élément de la matrice de test de parité est égal à 1, i.e. si hij =1 – Tous les v-nodes connectés à un c-node particulier doivent donner une somme (modulo-2) égale à zéro 151/192 5. Techniques de communications numériques Les LDPC : • Exemple : graphe de Tanner d’un code de Hamming (7,4) : 1 1 1 0 1 0 0 H = 1 1 0 1 0 1 0 1 0 1 1 0 0 1 c-nodes f0 v0 v1 f1 v2 v3 f2 v4 v5 v6 v-nodes 152/192 5. Techniques de communications numériques Les LDPC : Un cycle de longueur l dans un graphe de Tanner est un chemin de de l liaisons distinctes qui se referme sur lui-même. Le girth d’un graphe de Tanner est la longueur du cycle minimum du graphe. – Le cycle minimum d’un graphe de Tanner a une longueur de 4 c-nodes f0 v0 v1 f1 v2 v3 f2 v4 v5 v6 v-nodes 153/192 5. Techniques de communications numériques Les LDPC : • Exemple : algorithme de bit-flipping pour le code de Hamming (7,4) : f0 =1 y0 =1 y1 =1 y2 =1 f1 =1 y3 =1 f2 =0 y4 =0 y5 =0 y6 =1 Received code word c0 =1 c1 =0 c2 =1 c3 =1 c4 =0 c5 =0 c6 =1 Transmitted code word 154/192 5. Techniques de communications numériques Les LDPC : • Exemple : algorithme de bit-flipping pour le code de Hamming (7,4) : f1 =1 f0 =1 y0 =1 y1 =1 y2 =1 y3 =1 f2 =0 y4 =0 y5 =0 y6 =1 155/192 5. Techniques de communications numériques Les LDPC : • Exemple : algorithme de bit-flipping pour le code de Hamming (7,4) : f0 =0 y0 =1 y1 =0 y2 =1 f1 =0 y3 =1 f2 =0 y4 =0 y5 =0 y6 =1 156/192 5. Techniques de communications numériques Les LDPC : Codes réguliers et irréguliers Un code LDPC est régulier si les lignes et colonnes de H ont un poids uniforme, i.e. toutes les lignes ont le même nombre de uns (dv) et toutes les colonnes ont le même nombre de uns (dc) – Les codes de Gallager et MacKay sont réguliers – Bien que les codes réguliers aient des performances impressionnantes, ils sont à 1 dB de la capacité et sont généralement moins bons que les turbo codes Un code LDPC est irrégulier si les lignes et les colonnes de la matrice H ont un poids non uniforme – Les codes LDPC irréguliers codes dépassent les turbo codes pour des longueurs de blocs n>105 La paire de distribution de dégré (λ, ρ) pour un code LDPC est définie par λ ( x) = dv ∑λ x i =2 ρ ( x) = dc ∑ρ i =1 i −1 i i x i −1 λi, ρi représentent la fraction des liaisons émanant d’un noeud de variable 157/192 (parité) de degré i 5. Techniques de communications numériques Les LDPC : Exemple de performances : 158/192 5. Techniques de communications numériques Pourquoi OFDM : Lorsque le canal est sélectif en fréquence et que le débit doit être important. Idée de base : Le spectre du signal à transmettre est divisé en N sous-canaux en bande étroite : 159/192 5. Techniques de communications numériques l’influence du canal se résume à un facteur complexe pour chaque sous-porteuse Dans le cas d’une transmission en série (une seule porteuse) : • Le délai maximal τmax >> durée symbole Ts IES égalisation temporelle complexe Dans le cas d’une transmission parallèle (plusieurs porteuses) : • Le délai maximal τmax << durée symbole Ts peu ou pas d’IES égalisation fréquentielle simple 160/192 5. Techniques de communications numériques Exemple : • Rythme symbole : 10 Mbits/s • Transmission BPSK B = 10MHz • Canal multitrajet de τmax = 10µs Transmission monoporteuse : TS,SC = 0,1µs = τmax/100 l’IES s’étend sur 100 symboles Transmission multiporteuses : • Nombre de porteuses N = 1000 • Durée d’un symbole OFDM : TS,MC = N.TS,SC = 10.τmax • Intervalle de garde : Tg ≥ τmax = 0,1TOFDM Pas d’IES 161/192 5. Techniques de communications numériques Fonctionnement : 162/192 5. Techniques de communications numériques Cas monoporteuse : 2 bits/symbole pour QPSK t − iTS , SC s (t ) = ∑ Si ⋅ rect i = −∞ TS , SC +∞ Cas multiporteuses : 1 s (t ) = ∑ i = −∞ N +∞ TS , MC = N ⋅ TS , SC N −1 ∑S k =0 i ,k e 2*N bits par symbole OFDM pour QPSK j 2πk∆ft ∆f = t − iTS , MC ⋅ rect T S , MC 1 TS , MC BMC = N ⋅ ∆f 163/192 5. Techniques de communications numériques Signal à temps discret du ième bloc OFDM : si ,n = si (n ⋅ ∆t ) si ,n 1 = N 1 N N −1 ∑S k =0 N −1 ∑S k =0 i ,k e i ,k e j 2π j 2πk∆f∆t nk N ∆f .∆t = 1 TS , MC ⋅ TS , MC N = 1 N (IDFT) On peut l’implémenter à l’aide d’algorithmes de FFT 164/192 5. Techniques de communications numériques Spectre OFDM : 165/192 5. Techniques de communications numériques Orthogonalité des porteuses : Sous-porteuse OFDM k : Les sous-porteuses sont orthogonales : 166/192 5. Techniques de communications numériques Intervalle de garde ou préfixe cyclique Intervalle de garde TG : • Pour enlever totalement l’IES, la durée de l’intervalle de garde doit être supérieure au retard maximum τmax du canal : 167/192 5. Techniques de communications numériques Paramètres de conception : Invariant en temps pendant la durée Ts d’un symbole OFDM Non sélectif en fréquence dans la bande ∆f d’une sous-porteuse 168/192 5. Techniques de communications numériques Transmission sur canal multitrajet : Les symboles OFDM peuvent être traités séparément puisque la présence de Tg garanti une absence d’IES 169/192 5. Techniques de communications numériques Démodulation OFDM : Démodulation cohérente : L’influence du canal est supprimée que ce soit en phase et en amplitude Connaissance du canal indispensable Démodulation différentielle : L’information est modulée différentiellement par rapport au symbole précédent Pas de connaissance de l’état du canal nécessaire 170/192 5. Techniques de communications numériques Symboles pilotes : Il faut connaître les facteurs Hi,k complexes pour la démodulation cohérente : Des symboles connus (pilotes) peuvent être utilisés pour estimer le canal : 171/192 5. Techniques de communications numériques OFDM : chaîne de transmission complète : 172/192 5. Techniques de communications numériques Les inconvénients : L’amplitude d’un symbole OFDM subit de larges fluctuations non linéarités dans les amplis Les distorsions induites affectent les canaux adjacents filtrage Certaines sous-porteuses peuvent être très affaiblies flat fading dans les sous-canaux d’où nécessité de CCE Un léger décalage de la fréquence des sousporteuses induit une perte d’orthogonalité et donc l’apparition d’IES nécessité d’une synchronisation fréquentielle précise. 173/192 5. Techniques de communications numériques Exemple d’utilisation d’OFDM sur canal COST207 TU : Transmission DBPSK sur canal COST207 TU Rb = 500kb/s 0 10 OFDM DBPSK 64 porteuses fDTs = 0.0001 OFDM DBPSK 128 porteuses fDTs = 0.0001 OFDM DBPSK 256 porteuses fDTs = 0.0001 OFDM DBPSK 256 porteuses fDTs = 0.00002 DBPSK fDTs = 0.0001 -1 BER 10 -2 10 -3 10 0 5 10 20 15 Eb/N0 (dB) 25 30 35 174/192 5. Techniques de communications numériques Techniques de la diversité : • Principe : – Fournir au récepteur plusieurs versions du même signal sur des canaux indépendants – plusieurs copies du même signal ont peu de chance de s’évanouir simultanément : • Diversité fréquentielle : on utilise plusieurs porteuses séparées par un ∆f > à la bande de cohérence Bc du canal • Diversité temporelle : on utilise plusieurs time slots séparés par un ∆t > que le temps de cohérence Tc du canal. Exemple : codage + entrelacement. • Diversité spatiale : on utilise plusieurs antennes séparées par plusieurs multiples de la longueur d’onde à transmettre. 175/192 5. Techniques de communications numériques Plaçons nous dans le cas du canal de Rayleigh : • La probabilité d’erreur Pe s’obtient en intégrant la probabilité d’erreur du cas Gaussien sur la densité de probabilité du fading : ∞ p (γ ) Pe = ∫ Pe (γ ) p (γ )= dγ 0 1 γ0 e −γ γ0 γ ≥ 0. • On définit le SNR instantané et moyen par : = γ a 2 Eb N 0 = γ 0 E {a 2 } ⋅ Eb N 0 • Pour la BPSK on a pour une valeur quelconque de a : 176/192 5. Techniques de communications numériques Frequency-selective channel (equalization or Rake receiver) BER ( = Pe ) Frequency-selective channel (no equalization) AWGN channel (no fading) “BER floor” Flat fading channel SNR Pe ≈ 1 4γ 0 means a straight line in log/log scale (= γ0) 177/192 5. Techniques de communications numériques • On peut améliorer les performances si le récepteur sait exploiter plusieurs copies non corrélées du signal transmis : Pe is proportional to BER 1 γ 0L Diversity of L:th order Average SNR 178/192 5. Techniques de communications numériques • Nous ne verrons que la technique MRC (Maximal Ratio Combining) qui est la plus efficace : – On a : α = a e − jθi i – Alors : M r = ∑ αi ri e i =1 i jθi M = ∑ ai ri i =1 – En supposant que la DSP du bruit est identique sur chaque branche : M r2 1 = γΣ = N tot N 0 ( ∑ ai ri ) 2 i =1 M 2 a ∑i i =1 179/192 5. Techniques de communications numériques • On peut montrer que le TEB de la BPSK en MRC s’écrit : k − + L k 1 1+ µ 1− µ Pe = µ ∑ k = 2 k =0 2 L L −1 γ 0 (1 + γ 0 ) 2 L − 1) ! 2 L − 1 ( = 1= L 1 = L L ! ⋅ ( L − 1) ! = 3= L 2 = 10 = L 3 = 35 = L 4 180/192 5. Techniques de communications numériques • TEB de la BPSK en MRC : Cf. Digital communications over fading channels Simon Alouini Wiley BER ( = Pe ) AWGN channel (no fading) Flat fading channel, Rayleigh fading, L=1 SNR L=4 L=3 L=2 (= γ0) 181/192 5. Techniques de communications numériques • MIMO : – La diversité traditionnelle est basée sur plusieurs antennes de réception – La technologie MIMO utilise la diversité d’antennes en émission et en réception – On parle aussi de codage spatio-temporel – Avec Mt antennes d’émission et Mr antennes de réception on obtient Mt x Mr branches – Le traitement en émission et en réception est fait spatialement (antennes) et temporellement (symboles successifs) 182/192 5. Techniques de communications numériques • Avantages du MIMO : – Augmentation de la capacité de transmission (CSI parfaite à la réception) : – Plus grande robustesse de transmission 183/192 5. Techniques de communications numériques • Exemple : la technique d’ALAMOUTI (code 2 x 1) : h1 x1[n] TX y[n] RX h2 x2 [ n ] • Soit deux séquences antennes x1 x2 s1 s2 −s * 2 s1* 2n 2n + 1 temps s1[n], s2 [n] que l’on encode ainsi : ES (h1s1 + h2 s2 ) + N 0 w1 y[2n] = 2 ES − h1s2* + h2 s1* + N 0 w2 y[2n + 1] = 2 ( ) 184/192 5. Techniques de communications numériques • Exemple : la technique d’ALAMOUTI (code 2 x 1) : – Les équations précédentes peuvent s’écrire : y[2n] y *[2n + 1] = ES 2 h1 h* 2 h2 s1 w1 + N0 * * − h1 s2 w2 – Pour le décodage, il suffit de remarquer que : z1 z 2 s h1* h2 y[2n] ES 2 1 || h || + * = * h2 −h1 y [2n + 1] 2 s2 ( w1 N 0 || h || w 2 ) 185/192 5. Techniques de communications numériques • Exemple : la technique d’ALAMOUTI (code 2 x 1) : – Finalement on a deux canaux parallèles s1 ES || h ||2 2 N 0 || h || w1 z1 s2 ES || h ||2 2 || h ||2 ES SNR = 2 N0 z2 N 0 || h || w 2 || h ||2 =| h1 |2 + | h2 |2 186/192 6. Un système complet : DVB-T Schéma de la TNT : 187/192 6. Un système complet : DVB-T Coded Orthogonal Frequency Division Multiplex (norme ETSI 300 744) : 188/192 6. Un système complet : DVB-T OFDM : paramètres DVB-T : 189/192 6. Un système complet : DVB-T OFDM insuffisant COFDM : 190/192 6. Un système complet : DVB-T Performances TNT : • Débits possibles Si TEB < 2E-4 après Viterbi alors QEF après RS Allemagne France 191/192 Bibliographie • Livres : – Digital Communications, 5th Edition, J. Proakis, McGraw-Hill, 2007. – Digital Communications: A Discrete-Time Approach, M. Rice, Prentice Hall, 2008. – Wireless Communications, A. Goldsmith, Cambridge University Press, 2005. – Principles of Mobile Communication, G. Stuber, Springer, 2011. – Error control coding, S. Lin, D. Costello, Prentice Hall, 2004. – Iterative Error Correction: Turbo, Low-Density Parity-Check and Repeat-Accumulate Codes, S. Johnson, Cambridge University Press , 2009 • Logiciels : – IT++ : http://itpp.sourceforge.net/stable/ – CML : http://code.google.com/p/iscml/ 192/192