Sommaire - Association Télécom Bretagne | Alumni

Transcription

Sommaire - Association Télécom Bretagne | Alumni
Sommaire
Edito
5
Introduction au Très Haut Débit
7
Les architectures FTTx
9
Le point de vue de la région Bretagne…
13
… et la stratégie de la métropole brestoise
13
Problématique de déploiement : cas de France Télécom
14
La fibre aux entreprises
15
VDSL : 100 mégabits sur ligne téléphonique ?
17
Le Wimax, aujourd’hui et demain
21
Les réseaux Wi-Fi municipaux
23
HSPA et son positionnnement marché
27
HSPA : point sur la gestion et le partage des ressources
28
HSPA : tous les aspects techniques
29
La vidéosurveillance IP et les réseaux « Très Haut Débit »
32
Théodore Flutabec
34
Direction : Louis Chautard
Rédacteurs en Chef : Nicolas Marcoux, Marc Watiez
Assistantes de Rédaction : Aurélia Dehedin, Olivia Niangi
Ont participé à ce numéro : Julien Kervella ; Nicolas Marcoux ; Marc Watiez ; Thomas Renault ; Hubert Le Sech ; Alexandre Ribeil ;
Charlotte Rajaofera ; Hubert Reynier ; Bernard Debbasch ; Damien Chapon ; Mathieu Portier ; Patrick Wetterwald ; Yannick Bouguen ;
Jérôme Sardou ; Paul Therond ; Christophe Raix ; Erwan Monjarret
Fabrication : Les Editions Magenta
Couverture : Photos fournies par L.E.M (Getty Images)
Publicité : Les Editions Magenta - 12 avenue de la Grange - 94100 Saint-Maur - Tél. : 01.55.97.07.03 – [email protected]
Impression : Les Editions Magenta - 12 avenue de la Grange - 94100 Saint-Maur - Tél. : 01.55.97.07.03 – [email protected]
Administration : Association des Ingénieurs de l’ENST de Bretgne - 10 rue de l’Arrivée - 75015 Paris - Tél. : 01.42.22.02.28
Tirage : 1 400 exemplaires
3
Notre avenir
est mobile,
le vôtre aussi.
• TÉLÉCOMS
• INFORMATIQUE
• FONCTIONS SUPPORT
• MARKETING
• COMMERCIAL
• RELATION CLIENTS
Chez Bouygues Telecom, nous avons depuis toujours la culture de
l'innovation et de la créativité, à l’image du dynamisme de notre secteur.
Avec 7 400 collaborateurs et 4,54 Mds d'euros CA, toute notre entreprise
est orientée vers un seul objectif : la satisfaction clients.
Ingénieurs H/F
Télécoms, informatique, d’affaires, d’études, chefs de projets déploiement
Nos ingénieurs vous le diront, s'ils nous ont rejoints, c'est avant tout pour nos projets
novateurs et stimulants qui donnent un sens à leur passion pour les nouvelles
technologies et la téléphonie mobile. C'est aussi parce que chez nous, “opportunités
d'évolution” et “ambiance de travail conviviale” ne restent pas de simples promesses.
Des collaborateurs avec qui nous partageons les mêmes valeurs tournées vers le même
objectif, la satisfaction clients, nous souhaitons les garder longtemps !
Retrouvez toutes nos offres et postulez en ligne :
www.recrute.bouyguestelecom.fr
UN NOUVEAU MONDE. LE VÔTRE.
© Photo : Maria Darama - Mention légale : i-mode et le logo i-mode sont des marques déposées ou enregistrées par NTT DoCoMo, Inc. au Japon et dans d’autres pays.
Bouygues Telecom,
lauréat d’argent
du palmarès n° 16
- Editorial -
Louis CHAUTARD (Promo 1986)
Président de l’Association des Ingénieurs de l’ENST Bretagne
[email protected]
Toujours plus !
FTTH, VDSL, 3G+, Wi-Fi, WIMAX…, les nouvelles technologies d’accès très haut débit du fixe et du
mobile arrivent, à un rythme soutenu pour certaines, et de façon plus timorée voire hésitante pour
d’autres.
Il est clair que des accès permettant de multiplier par 10 ou plus les débits existants vont considérablement
faire évoluer l’offre de services et nous affranchir de certaines limites d’usage liées aux déplacements.
Approche un monde où nous pourrons à tout moment, n’importe où et facilement accéder à une quantité
considérable d’informations et de programmes, et échanger selon plusieurs modes, pour une vie plus
conviviale et plus riche espérons-le.
Nous, ingénieurs télécoms, sommes des acteurs clefs de cet extraordinaire mouvement que vivent les
technologies de l’information. Nous pouvons être fiers de cela.
N’oublions pas cependant qu’au-delà de la logique technologique nous avons un devoir moral, dans la
mesure où nous pouvons et devons faire en sorte que ces évolutions soient accessibles au plus grand
nombre et qu’elles soient porteuses de sens, d’un vrai progrès.
D’autre part je fais le vœu que ce foisonnement de technologies contribue véritablement à l’amélioration
de la communication entre les personnes et permette de résorber quelque peu l’individualisme ambiant ;
je reste souvent perplexe en effet lorsque je croise certains individus qui, armés jusqu’aux dents d’outils de
communication du dernier cri, se révèlent en fait inaptes à la simple communication interpersonnelle en
face à face ! Les nouveaux outils seront-ils des béquilles permettant d’aller au-delà de nos limites naturelles
et personnelles à communiquer ou seront-ils au contraire des façades derrière lesquelles il sera plus facile
de ne montrer qu’une petite partie de nous mêmes ?
Soyons de fervents concepteurs de nouveaux moyens de communication, et faisons en sorte qu’ils soient
des outils au service de la convivialité et de la solidarité !
Bon été à tous, et venez nous rencontrer dans les locaux de l’AITB au 10 rue de l’Arrivée !
5
����������������������������
007
BRETAGNE
GN
E
ETA
uai
TIO
N EN
ST BR
OCI
A
ASS
OC
IAT
ION
EN
ST B
RET
AG
NE
N°32 Juin 2007
ann
�����
��������������������
���������������������
����������������
ASS
Le Très
Haut Débit
re 2
ann
uai
LA REVUE DES INGÉ
NIEURS TELECOM
re 2
007
������������������������������������
��������������
- THD : introduction -
Introduction au Très Haut Débit
Julien KERVELLA
Promo 2003
[email protected]
Julien est Account Manager Telecom et responsable de la ligne de solutions Services à Valeur Ajoutée pour Unilog, société du groupe
LogicaCMG.
Q
uand Edouard Estaunié, Ingénieur des
Postes & Télégraphes, inventa en 1904 le mot
« Télécommunications » pour désigner les technologies et techniques appliquées aux communications à distance, peut-être aurait-il été surpris de constater combien
ces techniques et technologies ont évolué, assurant diversité
et richesse des services disponibles.
mes de télécommunications internationaux, comme 3GPP,
l’ETSI ou l’ITU. L’utilisation des réseaux correspondants
est soumise aux autorités de régulation nationale, comme
l’ARCEP en France.
Et puis le Très Haut Débit n’est pas nouveau. En distinguant
Très Haut Débit fixe et Très Haut Débit mobile, on s’aperçoit que les Etats-Unis et la Corée du Sud ont des opérateurs proposant des services sous UMTS/HSPA et/ou fibre
optique ; le Japon et les pays scandinaves proposent au
grand public de la fibre optique ; les Emirats Arabes Unis,
l’Indonésie et l’Australie de l’UMTS/HSPA.
Ce sont d’abord les télégraphes, puis les télégraphes sans-fil,
qui ont cédé progressivement la place aux téléphones fixes
et mobiles côtoyant aujourd’hui PC, radios ou télévisions.
La voix, la data et les contenus sont à la portée de tous et de
nombreux acteurs se positionnent pour en tirer les revenus,
dans un marché déréglementé. Ce sont des éditeurs, des
opérateurs, des fournisseurs d’accès, des moteurs de recherche qui facturent le grand public et les entreprises.
Pour le Très Haut Débit Mobile, il est caractérisé par l’accroissement des débits descendants de 384 kb à 7,2 Mb et
de ceux montants de 64 kb à 1,4 Mb. L’UMTS/HSPA a par
exemple été lancé depuis quelques mois dans plusieurs
grandes villes françaises (Lyon depuis mi-2006, Paris
depuis le 15/01/07).
Néanmoins, les demandes des clients s’orientent vers une
convergence des services, c’est-à-dire la capacité à utiliser
l’ensemble des services accessibles indépendamment de
l’appareil (téléphone, PC, télévision) et du réseau, pour
un budget minimal (seuil à 45€ pour le fixe). Ces services
pourront être utilisés pour faire vivre des communautés
créées par les abonnés.
Pour le Très Haut Débit fixe, trois propriétés techniques
sont à noter :
• premièrement, le THD autorise un débit de l’ordre de
50 Mb, 100 Mb ou plus (d’où son nom), là où
aujourd’hui les technologies DSL, par ailleurs privilégiées en France, ne supportent que des débits d’environ 10 Mb (max = 24 Mb). Ces niveaux de débit permettent l’avènement de services plus « gourmands »
en bande passante telle la télévision haute définition.
Pour illustrer, ci-dessous un tableau estimant les débits
nécessaires par type de services ;
Dans ce contexte, certains services sont plus attendus que
d’autres : il y a notamment la télévision haute-définition
(TV HD), la vidéosurveillance et la capacité à télécharger /
uploader plus vite d’autres contenus (textes, photos, audio,
jeux) de plus en plus riches.
Ces services sont étroitement corrélés aux différents types
de réseaux d’accès sous-jacents, comme le Wi-Fi/Wimax,
la fibre optique (couplée ou non au VDSL), et bien sûr la
« 3G » ou la « 3G+ », dont les principes, mis en exergue lors
des campagnes marketing des opérateurs, sont connus de
la plupart des abonnés mobiles.
Mais qu’est ce que le « Très Haut Débit » ?
D’abord, comme l’expression le suggère, le « Très Haut
Débit » se traduit par une augmentation significative des
débits montants et descendants. Les normes définissant
ces évolutions sont validées par les institutions et organis-
7
- THD : introduction • deuxièmement, les débits sont symétriques : un abonné
interagit donc plus facilement avec ses communautés,
comme dans le cas de jeux en réseau en temps réels
(ex : Second Life, World of Warcraft, …) ;
• et troisièmement, la fibre optique n’atténue pas le signal
en fonction de la distance de l’abonné au DSLAM. Ce
signal n’est pas non plus perturbé par l’ensemble des
appareils électroniques ou les lignes environnantes,
contrairement au DSL.
pourrait dès lors paraître surprenant pour un ISP de vouloir stopper ou « cannibaliser » cette source de revenus
par l’apparition de services voisins reposant sur une autre
technologie.
Ensuite, les investissements nécessaires à l’installation
d’un réseau en fibre (CAPEX, CAPital EXpenditures) sont
énormes : il faut creuser des tranchées en ville, installer
des câbles, fermer les tranchées, etc. Et aujourd’hui, un ISP
ne peut pas toujours utiliser le réseau de son concurrent.
De plus, la construction de ce type de réseau impose des
accords entre bailleurs d’immeubles et ISP pour installer la
fibre jusqu’à l’appartement, ce qui ajoute encore à la complexité de la tâche. Et puis il faut évidemment apporter le
contenu à l’abonné en contractualisant avec les chaînes
de télévision et les éditeurs. Pour un nouvel entrant sur le
marché français, l’ensemble de ces accords est particulièrement coûteux par rapport à ce qu’il est possible de facturer
à l’abonné. Il faut aussi créer des services différenciants par
rapport à ceux mis à disposition à travers le réseau DSL
(TV HD, IP TV, jeux en réseaux, …).
Des réseaux en fibre optique ont fait leur apparition en
France ces dernières années, souvent à l’état expérimental.
La ville de Pau a construit son propre réseau grâce notamment à AXIONE (filiale de Bouygues) et lancé des services THD grâce à Mediafibre, l’ISP local. Erenis et Citéfibre
ont aussi créé leurs réseaux dans des quartiers parisiens.
Ces trois sociétés ont progressivement conquis respectivement de l’ordre de 3000, 10000 et 500 abonnés, des chiffres évidemment peu comparables aux bases installées des
ISP Orange (plus de 6 M), Free (2,3 M) ou Neuf Cegetel
(2,2 M). Il est à noter que Noos dispose aussi d’un réseau
hybride fibre optique / câble coaxial (technologie HFC).
L’avenir du THD fixe en France dépend donc des investissements que seront capables de lever les ISP pour créer un
réseau, faire monter en compétences leurs équipes, créer
des services différenciants par rapport à ceux mis à disposition à travers les réseaux DSL. Il faut aussi qu’un acteur
du marché suffisamment crédible se lance dans l’aventure.
Free l’a fait au mois de septembre 2006 en communiquant
sur un investissement d’1 milliard d’euros d’ici 2012 et
un service disponible courant 2007. Cet effet d’annonce a
été peu accueilli par le marché boursier, mais a généré un
mouvement de fond : Neuf Cegetel a racheté Mediafibre
et Erenis, et Orange a prévu de commercialiser son service dans une dizaine de ville, dont Paris, Lyon et Toulouse
cette année.
Devant l’intérêt des services proposés par le Très Haut
Débit, deux questions viennent naturellement : « pourquoi le THD n’a-t-il pas envahi le marché français ? » et
« quel est son avenir en France ? ». Quelques éléments de
réponse, pour la partie Très Haut Débit fixe (fibre optique),
sont décrits plus bas.
Pour répondre à la première question, on peut se pencher
sur le tableau ci-après, montrant la croissance du nombre
d’abonnements Internet Haut Débit.
La technologie DSL profite toujours d’un marché en forte
croissance. En outre, si l’on considère les opérateurs traditionnels, ces derniers ont rapidement choisi de promouvoir le DSL au lieu de la fibre optique, puisque la technologie DSL s’appuie sur des réseaux en cuivre déjà installés
pour la téléphonie fixe. Le modèle économique est donc
plus simple et les seuils de rentabilité plus accessibles. Il
L’objet de ce numéro est donc de présenter, sous l’étendard
du « Très Haut Débit (THD) », les réseaux d’accès, qu’ils
soient fixe ou mobile, et d’évoquer si possible leurs potentiel et pérennité respectifs.
8
- THD : la fibre -
Les architectures FTTx
Marc WATIEZ
Promo 1992
[email protected]
Après plusieurs postes en R&D à France Télécom (Réseau
Intelligent, portabilité des numéros, optimisation de réseaux),
Marc est à présent responsable de la planification des réseaux
de collecte et d’accès sud-est.
Nicolas MARCOUX
Promo 2005
[email protected]
Nicolas est consultant chez Beijaflore dans la filiale Télécom. Il est actuellement en mission depuis
plus d’un an chez France Télécom, dans la division Corporate, où il mène des études d’architectures
réseaux pour définir des recommandations destinées à l’ensemble des filiales du Groupe.
I
l existe plusieurs architectures dans le domaine de la
fibre optique pour l’accès résidentiel. Certains d’entre
vous ont sûrement entendu ou lu les mots FTTCab,
FTTC, FTTB, FTTH, etc. que l’on regroupe bien souvent
sous le terme FTTx où x représente une déclinaison d’architecture. Pour comprendre les différentes possibilités,
nous pouvons nous poser cette question fondamentale :
jusqu’où faut-il amener la fibre optique pour raccorder les
clients ?
analogie avec la boucle locale d’accès cuivre qui arrive
jusqu’à notre maison ou appartement. Ainsi pour la fibre
optique nous pouvons appliquer le même raisonnement et
donc supposer que l’on pourrait l’avoir jusqu’à notre domicile. Mais à la différence de la boucle locale cuivre qui est
déjà en place, tout est à construire pour la fibre optique !
Ainsi, ceci se traduit par d’énormes investissements dont
une grande partie par du génie civil. C’est ce critère économique qui explique en partie l’existence des déclinaisons des architectures d’accès optique présentées dans le
schéma ci-dessous.
Pour y répondre, une possibilité évidente est de faire une
Figure 1 : les architectures FTTx
9
- THD : la fibre FTTH (Fibre-to-the-Home) : la fibre optique arrive jusqu’au
domicile du client comme la prise téléphonique classique
RTC.
FTTB (Fibre-to-the-Building) : la fibre optique arrive dans
l’immeuble, les clients sont ensuite raccordés en technologie xDSL avec les paires de cuivre classiques ou bien en
Ethernet avec des paires torsadées (RJ45) comme celles
utilisées pour connecter les PC aux LAN d’une entreprise.
FTTC (Fibre-to-the-Curb) : la fibre optique
arrive « au trottoir » sur lequel est installé un
« mini-DSLAM » très proche des clients (<300m).
FTTCab (Fibre-to-the-Cabinet) : la fibre arrive jusqu’au
sous-répartiteur dans lequel est installé un DSLAM
(>300m).
Des débits possibles résultera également l’offre de service
que pourra développer l’opérateur.
La mise en œuvre
Il y aura toujours des problématiques de génie civil quelles
que soient les architectures utilisées mais le degré de complexité variera en fonction de celle employée. En effet, plus
la fibre sera proche du client, plus les difficultés de mise
en œuvre seront importantes. Par exemple, pour poser les
fibres, il faudra, dans le cas du FTTC, demander l’accord
aux mairies ou aux collectivités locales et dans le cas du
FTTH, une autorisation sera également demandée aux
syndics des immeubles.
Les opérateurs devront prendre en considération ces trois
critères dans leur choix d’architecture. Cela dépendra également de la stratégie de services (double canal TV-HD,
VoD, Internet, partage, etc.) qu’ils souhaitent développer.
Comparaison des FTTx
Quelle est la meilleure architecture ? Difficile d’y répondre
étant donné qu’une architecture peut être la plus appropriée pour un certain opérateur compte tenu de son contexte (capacité d’investissement, réseau actuel, stratégie,
etc.) et non valable pour un autre… Néanmoins, pour bien
comprendre les différences, nous allons les comparer sur
trois critères principaux qui sont les coûts, le débit et les
difficultés de mise en œuvre.
Sur le marché français, plusieurs acteurs se sont déjà techniquement positionnés, comme résumé dans la figure
ci-jointe. Les uns en FTTB ou FTTLA (avec terminaison
finale en coaxial ou cuivre), les autres en FTTH, soit en
point à point soit en PON.
C’est la famille FTTH que nous allons regarder plus particulièrement dans la suite, puisque choisie par les principaux acteurs en France (Deutsche Telekom et Belgacom,
eux, ont choisi le FTTC).
Les coûts
C’est évidemment dans cet ordre : FTTCab, FTTC, FTTB,
et FTTH que les coûts augmentent. Ils sont majoritairement composés par les coûts
de génie civil. Néanmoins,
ils peuvent être fortement
diminués en réutilisant par
exemple les égoûts ou plus
généralement toute conduite
souterraine existante.
Le débit
Nous pouvons distinguer le
cas tout optique (FTTH) et
le cas combiné optique plus
autre accès (FTTCab, FTTC,
FTTB). Pour le premier, nous
savons que la fibre optique
est désormais un support largement utilisé par les opérateurs et qui offre des débits
très supérieurs par rapport aux autres supports de transmission classique. De plus, le gros avantage est de pouvoir
dans le futur exploiter des technologies comme le C-WDM
(multiplexage des longueurs d’ondes) pour faire face aux
besoins de croissance des débits. Pour le second, le goulot d’étranglement sera forcément la technologie tiers pour
raccorder le client. En effet, les technologies actuelles sur
support cuivre (xDSL) ou paires torsadées (Ethernet) n’atteignent pas les mêmes performances que la fibre optique.
Le réseau peut être organisé selon une topologie en point
à point ou en point à multipoint : dans le premier cas, une
fibre ou paire de fibres est dédiée à chaque client final dans
le réseau d’accès. L’architecture pourra être soit passive
soit active, respectivement sans ou avec des équipements
intermédiaires (switch Ethernet, DSLAM déporté, ONU)
avec de l’électronique active nécessitant une alimentation
électrique.
10
- THD : la fibre FTTH en point à point
plusieurs maisons/immeubles d’où des économies en
investissements ou CAPEX (CAPital EXpenditures)
notamment par rapport à une architecture en fibre
directe point à point (il faut tout de même acheter les
équipements actifs)
- les charges ou OPEX (OPerational EXpenditures) sont
plus élevées que dans des architectures passives (alimentation et exploitation des éléments actifs)
- l’intelligence dans l’élément actif permet de partager de
manière flexible la bande passante aux clients jusque
100 Mbit/s, et de mutualiser les trafics de type chaînes
TV jusqu’au nœud distant
- plus simple à déployer avec une seule fibre pour toute
la boucle
- complexité technique de la solution du fait notamment
de l’exploitation de milliers d’équipements actifs dans
les armoires de rue ou en sous-sol (ex. de Fastweb en
Italie)
- boucle non dégroupable (puisque tous les clients en
zone arrière lui sont rattachés)
a) AOEN (shared Active Optical Ethernet Network)
Dans ce cas, un switch Ethernet, élément actif intelligent,
est utilisé entre le central et le client final.
L’architecture peut être en étoile ou en boucle. Dans le cas
de l’étoile, une fibre est dédiée à chaque client final jusqu’au
nœud distant, qui agrège le trafic de sa zone arrière et le
remonte en fibre directe jusqu’au central. Dans le cas de
la boucle, le switch Ethernet fait partie de la boucle qui est
connectée au central, il n’y a donc pas de fibre dédiée entre
les deux.
Note : la topologie en anneau sera a priori plus adaptée à
des architecture de type FTTB et pour des zones denses.
b) en fibre directe
L’architecture de raccordement est très simple : chaque
maison/appartement est directement relié au central par
sa propre fibre, entre l’OLT côté central et l’ONT (Optical
Network Termination) côté client qui termine la liaison
optique.
Côté central, l’OLT (Optical Line Terminal) est une unité
de raccordement optique multiplexant plusieurs clients.
Les ONU (Optical Network Unit) sont des équipements
actifs situés sur le trottoir (FTTC) ou en pied d’immeuble
(FTTB), avec terminaison en fibre ou en cuivre, ils insèrent
ou extraient les informations qui les concernent, la coordination de l’ensemble étant assurée par des mécanismes
anticollisions. Les ONT (Optical Network Termination)
finissent la liaison optique chez le client.
Avantages et inconvénients
- solution la plus coûteuse en termes de CAPEX (une
fibre dédiée par client jusqu’au central, coûts fibre et
génie civil)
- OPEX limitées du fait de l’absence d’équipements actifs
à l’accès (moins de pannes, aussi)
- augmentation de capacité virtuellement sans limite,
contrôle de la bande passante de chaque client possible
depuis le central
- dégroupage facilité car pas de mutualisation de fibre ni
de point de concentration
Avantages et inconvénients
- la plus grande partie de la fibre est mutualisée pour
11
- THD : la fibre FTTH point à multipoint (PON, shared Passive Optical
Network)
L’architecture est dans ce cas arborescente avec des coupleurs optiques passifs intercalés dans le réseau d’accès,
partage de la même tête d’émission/réception au central, et
en partie de la même fibre.
(il faut tout de même acheter les coupleurs)
- OPEX limitées du fait de l’absence d’équipements actifs
à l’accès (moins de pannes, aussi)
- bande passante partagée d’où pas 100 Mbit/s pour chacun tout le temps
- la bande passante est partagée entre 64 clients au plus
jusque 100 Mbit/s
- pas de mutualisation des flux TV broadcastés
- dégroupable si couplage avec technologie CWDM (chaque opérateur pouvant alors se voir attribuer sa propre
paire de longueurs d’onde, une pour chaque sens de
transmission)
Depuis 2005, en Europe, c’est la solution PON qui est la
plus choisie.
Il faut cependant savoir que la « famille PON » se subdivise entre APON (ATM Passive Optical Network), BPON
(Broadband PON), EPON (Ethernet PON), GPON (Gigabit
capable PON) selon le protocole utilisé, avec différentes
bandes passantes pour le client final…
Les principales caractéristiques de ces variantes sont décrites dans le tableau ci-après.
Les coupleurs ont pour rôle de partager l’énergie lumineuse en plusieurs parties égales sans modifier le signal.
Le partage du support s’effectue par multiplexage temporel (TDM pour le sens descendant, comme dans le réseau
téléphonique, TDMA dans le sens remontant, comme en
GSM). La division du signal optique introduit des pertes
optiques qui font qu’il n’est pas possible de mettre trop de
coupleurs en cascade (typiquement un à deux étages).
Mais d’autres évolutions sont évidemment à prévoir. Depuis
2005, un groupe de travail a été créé sur NGA (nouvelle
génération d’accès) au FSAN (Full Service Access Network,
forum de standardisation des technos BPON et GPON)
pour répondre à des besoins en débit plus importants,
pour des clients plus éloignés du central, et plus éloignés
les uns des autres. Le NGA offrirait 10Gbit/s dans le sens
descendant, au moins 2,5Gbit/s dans le sens remontant,
voire le double, et augmenterait les possibilités d’éloignement du central…
Avantages et inconvénients
- une grande partie de la fibre est mutualisée 32 à 64 client
finaux d’où des économies en CAPEX notamment par
rapport à une architecture en fibre directe point à point
* GEM est une variante de GFP (Generic Framing Procedure) assez proche du monde SDH (Synchronous Digital Hierarchy)
12
- THD : la fibre -
Le point de vue de la région Bretagne…
Thomas RENAULT
[email protected]
Thomas Renault est en charge de la mission développement numérique régional au Conseil régional de Bretagne.
«Le très haut débit est un objectif du Conseil régional de
Bretagne. En effet, le Président l’a affirmé : en 2012 tous
les Bretons devront avoir accès au très haut débit. Cette
ambition, unique pour une région française, est le fer de
lance d’une nouvelle politique numérique régionale appelée Bretagne 2.0 et votée à l’unanimité en décembre 2006
par le Conseil régional de Bretagne.
tion). Il s’agit aussi de développer le potentiel numérique
du territoire, les usages publics d’Internet et une administration régionale qui montre l’exemple.
Pour atteindre l’objectif du très haut débit, différents projets sont en cours :
- organisation de groupes de travail avec les principales
collectivités régionales concernées sur la mutualisation
du génie civil, le dialogue avec les opérateurs, le traitement des zones blanches, l’évolution de Megalis...
- mobilisation de fonds publics dans le cadre du CPER et
des programmes opérationnels européens.
- expérimentations : opticalisation du réseau cuivre,
techniques de pose de fibre en aérien, technologie hertzienne...
Six grandes orientations sont proposées dans Bretagne 2.0 :
une Bretagne numérique pour tous (une couverture totale
du territoire à court terme et une promotion des usages
auprès du grand public, des entreprises…), une Bretagne
de la connaissance (avec la connexion des lycées au très
haut débit, par exemple), une Bretagne laboratoire de l’ultra haut débit (création d’un réseau de recherche régional
sur l’ultra haut débit et de plates-formes d’expérimenta-
… et la stratégie de la métropole brestoise
Hubert LE SECH
Promo 94
[email protected]
Hubert est responsable de la division «éclairage public, signalisation lumineuse et réseaux de télécommunications» à Brest métropole
océane. Il a occupé auparavant différentes positions d’ingénieur offres et d’ingénieur d’affaires chez Alcatel. Contact.
Brest métropole océane s’est saisi il y a quelques années
du sujet de l’aménagement numérique de son territoire en
développant son réseau métropolitain à haut débit.
La construction de ce réseau a débuté en 2001. A ce jour,
il dessert les différents établissements municipaux et communautaires, les établissements d’enseignement supérieur et de recherche, les centraux téléphoniques brestois,
les points d’accès métropolitains au réseau régional haut
débit Mégalis ainsi que les pépinières d’entreprises du
Technopôle Brest Iroise.
Cette infrastructure optique d’initiative publique est
aujourd’hui utilisée par les opérateurs de télécommunications pour déployer leurs réseaux et offrir leurs services
aux particuliers et entreprises brestoises. Elle permet également de raccorder à très haut débit l’ensemble des éta-
blissements d’enseignement supérieur et de recherche au
réseau régional Mégalis.
En 2006, Brest métropole océane a décidé d’étendre son réseau,
ce qui va permettre d’ici 2008 de l’étendre à toutes les communes de Brest métropole océane ainsi que de desservir les principaux centres hospitaliers de Brest métropole océane.
Ce réseau métropolitain est actuellement le véritable outil
d’aménagement numérique de Brest métropole océane
pour le haut débit.
Aujourd’hui, les enjeux de l’aménagement numérique du
territoire se déplacent sur le terrain du Très Haut Débit.
La problèmatique du Très Haut Débit, pour Brest métropole océane, est analogue à celle du haut débit : les opérateurs déploieront prioritairement dans les zones renta-
13
- THD : la fibre bles et où les conditions de déploiement seront facilitées.
L’intervention de la collectivité est donc, à nouveau, déterminante pour attirer les opérateurs pour développer la
compétitivité et l’attractivité du territoire.
Le nerf de la guerre pour le Très Haut Débit, ce sont
les fourreaux qui représentent environ 75% du coût de
déploiement d’un réseau Très Haut Débit de type FTTH.
Brest métropole océane considère donc que développer
et optimiser son potentiel de fourreaux est essentiel. Pour
celà, l’objectif est de développer progressivement et systèmatiquement sur Brest métropole océane une infrastruc-
ture, notamment de fourreaux ou «réseaux souples», pour
le Très Haut Débit lors de toutes les opérations d’aménagement de zones économiques et résidentielles ainsi que
lors de toutes les interventions sur le domaine public qui
le permettent.
C’est dans ce sens que Brest métropole océane a décidé
d’adapter son organisation interne en regroupant, dans une
même division, les activités liées aux «réseaux souples» afin
de mettre en oeuvre cette stratégie qui permettra de développer le potentiel numérique de son territoire afin de favoriser le déploiement du Très Haut Débit sur son territoire.
Problématique de déploiement :
cas de France Télécom
Alexandre RIBEIL
Promo Mas. 2003
[email protected]
Après son mastère spécialisé communication optique, Alexandre a intégré France Telecom R&D
pour travailler sur les réseaux d’accès optiques : il a commencé par la transmission puis l’architecture
organique et enfin l’architecture fonctionnelle.
L
’enjeu principal est le développement de nouveaux
services pour exploiter au mieux la bande passante
disponible.
Concernant la partie réseau, l’objectif de France Télécom
est dans la mesure du possible de déployer la fibre optique
jusqu’à l’abonné en limitant le génie civil.
Pour cela, plusieurs moyens sont mis en œuvre : la réutilisation des conduites existantes et l’utilisation d’un support
partagé type PON (Passive Optical Network) en sont les
principaux. Le PON est une infrastructure passive, c’est-àdire sans électronique entre central et client, avec partage des
fibres issues du central entre plusieurs terminaisons clients
(partage passif par un ou plusieurs étages de coupleurs).
volume de fibres, 1 ou 16.
Du point de vue architecture fonctionnelle, 1 VLAN
(Virtual LAN) par service est partagé par l’ensemble des
clients raccordés en zone arrière de l’équipement côté central, l’OLT (Optical Line Termination). Celui-ci joue donc
le rôle de switch et, en fonction notamment de l’adresse
MAC, va aiguiller les flux vers les ports id (port GEM).
Du point de vue du câblage dans l’immeuble, pour amener
la fibre chez le client résidentiel, un document normatif
est actuellement en cours de rédaction pour définir ce que
devra être le câblage optique dans les nouveaux immeubles.
L’objectif de France Télécom est de pouvoir mutualiser au
maximum les infrastructures des différents opérateurs dans
les parties communes des immeubles pour ne pas avoir à y
ré-intervenir et minimiser ainsi les dérangements induits.
Le câblage optique est défini du pied d’immeuble jusqu’à
l’entrée chez le client, avec ou sans point de coupure.
Pour le dimensionnement d’un réseau le facteur le plus
important est celui du nombre de foyers multiplié par le
taux de pénétration. A partir de ce nombre il est possible
de déterminer le nombre de câbles nécessaires, le dimensionnement de la matrice de brassage des équipements centre et du lien collecte.
Comme illustré dans la figure ci-joint, le réseau
est constitué par un seul arbre PON, hiérarchisé,
et il est possible d’obtenir un taux de pénétration
variable en fonction de la politique de pré déploiement du réseau. Par exemple sur une zone de 16
foyers, on peut cibler un taux de pénétration de
100% au niveau du transport ou au niveau de la
partie terminale, cela ne représente pas le même
14
- THD : la fibre -
La fibre aux entreprises
Charlotte RAJAOFERA
Promo 2005
[email protected]
Charlotte est consultante senior chez Greenwich Consulting, cabinet de conseil en stratégie et management des télécommunications et média. Après une année Jeune Ingénieur chez Siemens en tant
qu’ingénieur radio et un rapide passage en audit financier chez PriceWaterhouseCoopers, elle a
rejoint Greenwich Consulting en novembre 2005 où elle intervient sur des problématiques variées
(stratégie, marketing, organisation, CRM, etc.). Elle a notamment pu participer au lancement d’un
pilote FTTH.
Hubert REYNIER
Promo 1991
[email protected]
A sa sortie de l’ENST Bretagne, Hubert a travaillé chez Arthur Andersen (deux ans) comme
auditeur puis chez Ascom (trois ans) comme directeur de projets internationaux, avant
d’intégrer le MBA de la Yale School of Management.
En 1997, il a rejoint Ernst & Young Conseil, racheté en 2000 par Cap Gemini. Il fonde en 2001,
avec trois autres associés, Greenwich Consulting, cabinet leader en Europe du conseil en stratégie
et management des télécommunications et média. En 2006 et 2007, il lance les activités de conseil
en banque et assurance (WIGHT Consulting) et en commerce et distribution
(Lennox Consulting) du Groupe Greenwich.
L
a fibre optique est déjà une
réalité dans de nombreux
pays.
Au Japon et en Corée, par exemple,
les marchés résidentiels comptabilisent environ huit millions de clients,
notamment grâce au déploiement
des technologies FTTx. La principale raison de ce fort développement est le caractère très concentré
de la population de ces 2 pays. En
effet, l’essentiel des investissements
liés au déploiement de ces technologies réside dans le coût de raccordement des immeubles, donc plus
la concentration urbaine est importante, plus l’investissement est amorti.
En Corée, par exemple, près de la moitié de la population
est concentrée dans de grands immeubles verticaux de
grandes agglomérations.
En France, la situation est singulièrement différente car ce sont principalement les opérateurs privés qui
prennent en charge l’installation
du réseau en fibre optique avec des
investissements prévus de l’ordre du
milliard d’euros par opérateur pour,
dans un premier temps, couvrir les
grandes villes (~25% de la population). Pour des raisons de rentabilité
économique des offres, il est plus
que probable que les entreprises ne
puissent bénéficier d’accès FTTH
dans des zones non couvertes par le
plan de déploiement des offres résidentielles : dans un premier temps,
les entreprises raccordées seront situées dans les zones
urbaines et périurbaines.
Quatre opérateurs se sont positionnés : Orange et ses concurrents Free, Neuf Telecom et Noos Numéricâble. Ces
acteurs se sont déjà lancés dans une course au déploiement, l’objectif commun étant de raccorder le plus vite les
clients les plus rentables, à savoir ceux situés dans les zones
très denses (les grandes villes et leur périphérie). Le marché de la fibre pour les entreprises sera donc fortement lié
à celui du marché résidentiel.
En Europe, le marché le plus avancé est sans conteste la
Suède, affichant un taux de 56% de population raccordable
et 650000 abonnés : un succès particulièrement dû à l’organisation de la fibre optique dans le pays, mise en place par
les autorités locales en tant que réseaux municipaux.
15
- THD : la fibre Quels avantages pour les entreprises ? Baisse
des prix, montée en débit, nouveaux services,
nouvelles offres ?
les entreprises est de bénéficier d’accès très haut débit, de
l’ordre de 50 à 100 Mbits/s, à un rapport prix / débit très
avantageux par rapport aux accès DSL.
Quels sont les enjeux et objectifs auxquels
vont être confrontés les opérateurs ?
L’arrivée de la fibre comme nouvelle technologie d’accès
devrait avoir de nombreux apports pour les entreprises :
sur la data tout d’abord, ces accès aux débits supérieurs à
50 ou 100 Mbits/s faciliteront et sécuriseront le transport
des flux critiques pour les entreprises : interconnexion de
sites distants, applications métier… Ils devraient également favoriser l’essor de nouvelles applications professionnelles, fortement consommatrices de bande passante
comme la vidéosurveillance ou les services de vidéoconférence.
Avec le FTTH, les opérateurs sont confrontés à deux
enjeux majeurs : d’un côté, la remise en question des barrières traditionnelles entre le marché des professionnels
et le marché des entreprises, de l’autre la protection de la
valeur globale du marché.
Les opérateurs télécoms ont récemment annoncé le lancement d’offres résidentielles. Les performances de la fibre
optique vont également leur permettre de proposer, à un
prix très concurrentiel, des offres aux professionnels (sociétés de moins de neufs salariés). En intégrant par exemple
4 à 8 lignes de téléphonie sur IP, ces nouvelles offres créent
un risque de descente en gamme des offres ADSL entreprise et donc de cannibalisation d’une partie des revenus.
De même, la fiabilité du FTTH peut inciter une partie des
entreprises à opter pour des offres n’incluant plus de GTR
(Garantie de Temps de Rétablissement), mais aussi à accélérer leur migration du RTC vers le tout IP, détruisant au
passage de la valeur sur le trafic et les usages.
Sur la téléphonie également, le formidable gain en débit
et la fiabilité accrue de la fibre par rapport au cuivre
devraient permettre de sécuriser le transport de la VoIP.
Sur ce dernier aspect, les opérateurs pourront à terme
proposer de nouvelles offres de VoIP, intégrant sur un
seul accès fibre plusieurs centaines de lignes téléphoniques avec une qualité de service (QoS) supérieure au
réseau voix traditionnel.
Concernant l’évolution des offres destinées aux entreprises, il est encore trop tôt pour se prononcer, les premières
offres du marché restant pour l’instant à l’état d’annonce.
Toutefois, si l’on se penche sur les pays les plus avancés en
la matière, on observe que la banalisation de la fibre dans
les offres Triple Play n’a pas induit de véritable rupture dans
les offres du marché Entreprise. Le principal intérêt pour
Le principal défi posé aux opérateurs sur le marché des
entreprises est donc de réussir le lancement d’offres FTTH
tout en protégeant les revenus de leur cœur de gamme. La
pression devrait être forte sur les prix du SDSL comme sur
Les offres Très Haut Débit pour les particuliers annoncées par les opérateurs français
Il n’y a pas encore de lancement annoncé d’offres de fibre à destination des entreprises. Les opérateurs qui se lanceront
sur ce marché devront composer avec les options technologiques déjà prises et une cohérence tarifaire avec les offres
résidentielles à venir
16
- THD : la fibre la GTR, composante des offres avec débit symétrique et
principal générateur de valeur. Il faudra aux acteurs traditionnels proposer une approche innovante pour positionner subtilement le FTTH par rapport aux gammes actuelles, principalement axées sur le couple prix / débit.
Quelles que soient les nouvelles orientations choisies,
l’objectif des opérateurs sera de rentabiliser la mise en
œuvre coûteuse des équipements sans détruire de la
valeur. Les opérateurs déjà positionnés pourraient par
exemple pousser de nouveaux services ou de nouvelles
briques applicatives.
Cependant l’évolution la plus intéressante est attendue
du côté de Free, dans l’obligation d’amortir ses investissements. Loin de son positionnement d’origine, la filiale
d’Iliad pourrait attaquer le marché des entreprises et ainsi
bousculer les positionnements concurrentiels. L’opérateur
devra au préalable maîtriser les processus garantissant la
GTR et construire un réseau de distribution. Pour acquérir
ces compétences, Free pourrait lancer des partenariats avec
des challengers du marché, comme Colt ou Completel, ou
adresser le marché avec des offres de gros.
cipaux
opérateurs,
FAI, constructeurs,
chaînes de télévision...
Greenwich couvre les
principaux marchés
européens grâce à
ses onze bureaux : Paris, Bruxelles, Amsterdam, Lisbonne,
Düsseldorf, Munich, Madrid, Milan, Londres, Berne et
Stockholm. Greenwich Consulting est aujourd’hui l’un des
leaders du conseil Télécoms et Médias.
______________________________________
Fondé en 2001, Greenwich Consulting est un cabinet de
conseil spécialisé en Stratégie et Management dans les secteurs des Télécoms et Médias, notamment auprès des prin-
Pour en savoir plus : http://www.greenwich-consulting.com
VDSL :
100 mégabits sur ligne téléphonique ?
Bernard DEBBASCH
Promo 1983
[email protected]
Bernard est maintenant CEO de Vitendo Systems, Inc., une start-up basée en Californie qu’il a créée en 2005. Il était auparavant VP/GM
du groupe VDSL à Conexant (précédemment GlobespanVirata) aux USA.
Un peu d’histoire
La vraie réponse est liée au fait que les lignes téléphoniques enterrées depuis parfois des décennies ont une
réponse en fréquence bien plus élevée que le 300-3400
Hz qui est nécessaire pour acheminer une conversation
vocale.
Peu d’entre vous, sans doute, se souviennent des modems
à coupleurs acoustiques qui permettaient un accès à distance à 300 bps sur ligne téléphonique. Pourtant, c’était la
technologie disponible pour le grand public (et les élèves
de l’école !) au début des années 80. On parle maintenant
de 100 Mbps full-duplex – 300 000 fois plus rapide venant de la même prise téléphonique. Qu’est ce qui a
changé ? La réponse est simple : rien !
Cette ressource était, jusqu’à l’avènement des technologies DSL, inutilisée, bien que présente dans chacune des
centaines de millions de paires téléphoniques enfouies
dans le sol. La figure 1 montre l’atténuation d’une paire
17
- THD : le cuivre téléphonique en cuivre de 0,4 mm de diamètre en fonction de la fréquence. Il est clairement visible que la bande
passante disponible va bien au delà des 4 kHz utilisés
par la voix et les modems analogiques. Malgré la forte
atténuation, quelques mégahertz de bande passante sont
encore disponibles à une distance de plusieurs centaines
de mètres.
téléphonique est autorisé à transmettre et d’autres dans
lesquelles il peut recevoir. La règle inverse est appliquée
du côté utilisateur. Les plans de fréquence existants sont
compatible avec ADSL et ADSL2 et répartissent le spectre
de telle sorte que priorité soit donnée au flux descendant
(plan 998) ou essayent d’avoir une répartition plus symétrique des flux montant et descendant (plan 997). La partie noble du spectre (fréquences basses) est évidemment
la plus convoitée, dû au fait qu’elle permet de couvrir de
plus longues distances. La figure 2 montre la répartition
entre les différent flux jusqu’à 12 MHz (note : les plans
ont maintenant été étendus pour inclure les fréquences
jusqu’à 30 MHz).
Bataille pour un standard
C’est un peu le sentiment que les participants à l’effort
de standardisation des technologies VDSL ont ressenti
durant les quelques années passées à essayer de trouver
un compris entre deux technologies radicalement différentes. Le problème à résoudre était de savoir comment
utiliser les bandes de fréquences définies plus haut. Les
deux protagonistes étaient DMT et QAM mais les deux
camps se reconnaissaient comme supporter de la « porteuse unique » pour QAM ou supporter des « porteuses
multiples » pour DMT. Les défenseurs de la porteuse unique se proposaient de moduler une seule fréquence par
bande avec un signal large bande. Seules deux porteuses
seraient nécessaires par sens de transmission. Le camp
des porteuses multiples proposait d’étendre à VDSL la
technique utilisée pour ADSL : le spectre à couvrir est
séparé en sous-porteuses de 4,3125 kHz de large. Il faut
donc 2782 porteuses (en pratique 4096) pour couvrir
12 MHz de bande passante. Les avantages sont multiples :
chaque sous-porteuse peut être indépendamment activée
ou non, la puissance d’émission – densité spectrale - ajustée pour chaque sous-porteuse et la quantité d’information transmise adaptée en fonction de la qualité du signal
dans chaque sous-bande. La complexité apparente de
cette technique est réduite par l’utilisation de modules
FFT et IFFT qui, de nos jours, peuvent être implémentés
facilement dans des circuits spécialisés.
Figure 1 : atténuation (paire de 0,4 mm)
Bien que l’implication du terme VDSL soit tournée vers
la vitesse de transfert (« Very High Speed DSL »), le terme
englobe en fait l’ensemble des techniques DSL à large
bande utilisant le spectre de fréquence au-delà des 1 ou
2 MHz utilisés par les standards ADSL et ADSL2.
Les plans de fréquence
De la même manière que les réseaux de radio coordonnent leurs fréquences d’émission et de réception, les
déploiements DSL doivent eux aussi respecter certaines
contraintes. Il est facile d’imaginer qu’il faut éviter que
dans un central téléphonique, certaines lignes transmettent, à forte puissance, sur une plage de fréquence sur
laquelle d’autres lignes essayent de recevoir un signal qui
est presque dans le bruit. Le spectre de fréquence est donc
divisé en bandes de fréquence dans lesquelles le central
Figure 2 : plans de fréquence
18
- THD : le cuivre Au final, la décision de choisir la technologie DMT
a été influencée par un groupe de pression inattendu :
les radioamateurs. En effet, les radioamateurs ont convaincu les différents organismes de standardisation de
limiter la puissance d’émission des modems VDSL dans
les bandes ondes courtes qu’ils utilisent afin d’éviter de
brouiller et désensibiliser leurs récepteurs. Ils obtinrent
donc une réduction d‘au moins 20 dB de la densité spectrale dans les bandes amateurs. La technologie DMT, de
par sa propriété de pouvoir ajuster chaque sous-porteuse
indépendamment, était la réponse idéale à ce problème.
Ce résultat a été démontré dans des « Jeux Olympiques
VDSL » où s’affrontèrent quatre fournisseurs de chips
pour VDSL, deux du camp DMT et deux du camp QAM,
les juges étant deux laboratoires de tests indépendants.
Finalement, le fait qu’ADSL, ADSL2 et maintenant VDSL
utilisent des modulations très similaires, permet d’avoir
des produits multi-modes qui s’adaptent à l’évolution des
réseaux et services.
des opérateurs consistait à offrir des vitesses de plus en
plus élevées, que de moins en moins de clients pouvaient
atteindre. Ces déploiements étaient, en général, faits à
partir des centraux téléphoniques et étaient donc limités
en performance par la longueur de la boucle locale.
Ces dernières années, des déploiements plus rationnels et
mieux planifiés ont vu le jour, en particulier en Europe et
aux Etats-Unis. Le but de ces déploiements est d’offrir un
service donné (par exemple 25-30 Mbps à 1000 mètres)
et d’assurer que tous les clients desservis soient capable de
recevoir ce service 24 heures sur 24. Lorsque la vitesse de
connexion est garantie, il est facile aux opérateurs d’offrir
une offre étendue de services qui inclut en général la diffusion de programmes de télévision sur IPTV. Le support
VDSL permet d’offrir dans ce cas deux canaux en définition normale plus un canal en haute définition, ainsi
que des services de téléphonie sur IP et de connexion à
Internet. C’est la voie qu’a choisi AT&T aux USA pour
son projet LightSpeed qui vise à entrer en compétition
directe avec les opérateurs de réseaux câblés.
Performance
Finalement, il est important de noter que VDSL devient
un partenaire de la fibre optique au lieu d’être son ennemi
comme cela est souvent décrit. L’utilisation des lignes téléphoniques existantes ne nécessite plus que la fibre aille
dans chaque maison ou appartement (FTTH) ce qui est,
en pratique, rarement réalisable. Les fibres peuvent être
amenées à un point de concentration suffisamment proche des logements pour que la partie finale de la liaison
soit réalisée sur les paires téléphoniques existantes, en
VDSL, et sans perte de débit. C’est la rationalisation des
projets FTTN - fibre jusqu’à un nœud de raccordement.
La question de la performance d’une liaison VDSL (ou
même ADSL) reste souvent sans réponse précise. La
principale raison est qu’une certaine vitesse à une distance donnée n’a de sens que si tous les autres paramètres
sont spécifiés. Une des limitations principales de toute
liaison DSL est le couplage entre paires (« crosstalk »).
Ce couplage augmente avec la distance et la fréquence et
est donc défavorable aux techniques VDSL. Il est donc
important de quantifier combien de liaisons DSL et de
quels types seront activées dans le même câble. D’autres
paramètres comme le diamètre du cuivre, la présence
ou non de discontinuités au niveau de la ligne (passage
d’un diamètre à un autre) – parmi bien d’autres - influencent la performance réelle d’une liaison VDSL. Au final,
il est clair que même si les fournisseurs de circuits pour
VDSL ont démontré des vitesses de 100 Mbps, au delà
d’une centaine de mètres de ligne téléphonique très peu
de clients verront plus de 50 Mbps lors d’un déploiement
sur le terrain.
Glossaire
Bps
DMT
DSL
IFFT
IP
IPTV
FFT
FTTH
FTTN
Mbps
QAM
VDSL
Applications
Il y a en gros deux stratégies pour le déploiement de
VDSL. La première stratégie est ce que l’on pourrait appeler le déploiement « sauvage », surtout pratiqué en Asie
(Corée et Japon) au début des années 2000. La stratégie
19
:
:
:
:
:
:
:
:
:
:
:
:
Bits par seconde
Discrete Multi Tone
Digital Subscriber Line
Inverse FFT
Internet Protocol
IP Television
Fast Fourrier Transform
Fiber To The Home
Fiber To The Node
Mégabits par seconde
Quadrature Amplitude Modulation
Very High Speed DSL
- Plein Phare -
Ouverture du Campus
Telecom Bretagne dans Second Life
PDT : heure officielle de Second Life
Le lundi 25 juin, l’ENST Bretagne a ouvert son campus dans Second Life, avec une journée dédiée à l’événement et dont
le programme était le suivant :
Heure de Brest
Événement
Heure PDT
10h00
11h00 et 15h00
Ouverture du site
« Pourquoi l’ENST Bretagne dans Second Life ? »
par André Chomette, directeur (en direct)
Feu d’artifice
Conférence de Gwendal Simon sur le Web 2.0
Complétez votre garde-robe avec un T-shirt Telecom Bretagne :
distribution gratuite
Cocktail sur la plage comme dans la vraie vie car le campus est
également au bord de la mer
Espace danse animé par les étudiants
Concert en direct avec un DJ
1:00 am
2:00 am et 6:00 am
11h15 et 15h15
11h30 et 15h30
12h00 et 16h00
16h30
17h00
21h00
2:15 am et 6:00 am
2:30 am et 6:30 am
3:00 am et 7:00 am
7:30 am
8:00 am
12:00 am
Second Life (http://www.secondlife.com/) est une simulation sociétale virtuelle, permettant de vivre une «seconde vie»
sous la forme d’un avatar dans un univers persistant géré par les joueurs. Actuellement, plusieurs millions de joueurs
résident déjà dans l’univers de Second Life. L’aspect social est prédominant dans ce jeu et contrairement à d’autres jeux
massivement multijoueurs, il n’y a pas de quêtes, pas de combats contre l’environnement...
L’Ecole est ainsi la première école d’ingénieur française à ouvrir un site
dans ce nouvel univers ; son île, encore en travaux, est située sur le campus européen, à côté de l’université d’Oxford ; vous pouvez y croiser des
élèves ou des membres du personnel (attention, coup de vieux garanti
quand on croise un élève promo... 2009 !).
Pour vous y rendre, téléchargez le client SL (Second Life pour les avertis)
et rendez vous sur l’île (aller dans la map et faire une recherche avec le
mot telecom sans accent).
NB : avec cet article, vous avez un petit avant-goût d’un thème de notre
prochain Phare Ouest…
20
- THD : le sans-fil -
Le Wimax, aujourd’hui et demain
Damien CHAPON
Promo Mas. 2004
[email protected]
Damien est architecte réseaux à Orange Labs. Il a occupé auparavant différentes missions d’ingénieur réseaux en tant que consultant.
Qu’est ce que le WiMAX ?
Fréquence
Depuis quelques années, le nombre de connexions haut
débit est en forte augmentation. Pourtant, beaucoup - habitant des zones trop éloignées des centraux téléphoniques - n’auront jamais accès à l’ADSL (Asymmetric Digital
Subscriber Line). Dans le même temps, le nombre de personnes équipées en Wi-Fi explose mais cette technologie
n’offre qu’une couverture de quelques dizaines de mètres
ainsi qu’une mobilité réduite.
Le WiMAX est déployé en mode FDD (Frequency Division Duplexing) dans sa version fixe et en mode TDD
(Time Division Duplexing) dans sa version mobile. L’un des
avantages techniques du WiMAX est son interface radio
basée sur la modulation SOFDMA (Scalable Orthogonal
Frequency Division Multiple Access) qui est suffisamment
flexible pour pouvoir être adaptée à différentes largeurs de
canal.
Le WiMAX (Worldwide Interoperability for Microwave Access) est une solution point-multipoint permettant à la fois
de compléter la couverture ADSL tout en offrant la souplesse d’une connexion sans-fil. En effet, cette technologie
radio propose une couverture, des débits et la mobilité, qui
lui permettent de répondre à un grand nombre d’usages.
La question des fréquences est aussi un enjeu politique. A
ce jour, les fréquences disponibles en Europe ne sont pas
ouvertes à la mobilité. Ce n’est pas le cas des USA ou de
certains pays asiatiques, où certains opérateurs envisagent
de déployer le WiMAX pour offrir des services mobiles.
Sprint a commencé un déploiement sur l’ensemble des
USA et KT a ouvert son offre WiBro (variante coréenne du
WiMAX) en juin 2006 en Corée.
Le WiMAX est basé sur les normes IEEE 802.16 et HiperMAN de l’ ETSI (European Telecommunications Standards
Institute). Dans sa version fixe, le WiMAX est décrit dans
la norme IEEE 802.16-2004 ratifiée fin 2003. Sa version
mobile a été développée dans la norme 802.16e terminée
fin 2005.
Performance
De nombreux articles parus dans
la presse au sujet du WiMAX
présentaient des performances
flatteuses mais souvent erronées
au sujet du WiMAX.
Le WiMAX forum, créé en 2003, est un
consortium composé de constructeurs et
d’opérateurs (environ 350 membres à ce
jour) dont le but est d’assurer la promotion
et l’interopérabilité des équipements WiMAX. Le WiMAX forum définit également l’architecture
réseau qui fait du WiMAX l’un des premiers systèmes mobiles IP de bout en bout, le service voix étant fourni par de
la VoIP (Voice over Internet Protocol)
En effet, la couverture «réelle» du WiMAX dépend fortement de l’environnement dans lequel il est déployé. La
portée du WiMAX sera bien plus grande dans le cas d’un
déploiement rural, où les utilisateurs sont en vue directe de
la station de base, que dans un déploiement urbain où de
nombreux obstacles se trouvent entre le récepteur et la station de base. Un autre facteur important est la fréquence
utilisée puisque des fréquences plus basses offrent des portées plus grandes.
21
- THD : le sans-fil -
• «Hot zone». Dans ce type de déploiement, une zone est
couverte en WiMAX (gare, aéroport, …) pour un usage
occasionnel. Dans ce cas le WiMAX entre en concurrence avec les «hot spot» Wi-Fi mais a l’avantage d’offrir
une plus grande couverture ainsi qu’une plus grande
qualité de service ;
• déploiement temporaire dans le cas d’événement exceptionnel ou après une catastrophe.
Le WiMAX implémente des techniques de codage radio
efficaces et permet aussi l’utilisation de techniques MIMO
(Multiple Input Multiple Output) qui consistent à utiliser
plusieurs antennes en émission et en réception afin d’augmenter les débits.
Les premiers produits certifiés WiMAX qui seront disponibles en fin d’année n’auront pas de fonctionnalité MIMO.
Les débits proposés par cette première version d’équipement seront d’environ 20 Mbps (sens descendant + sens
montant) pour une largeur de bande de 10 MHz à se partager entre les différents utilisateurs.
Le futur
Les produits certifiés WiMAX mobile ne sont pas encore
disponibles alors que les évolutions du WiMAX sont déjà
en cours. En effet, l’IEEE (Institute of Electrical and Electronics Engineers) vient de lancer le 802.16m dont le but
est d’augmenter l’efficacité de l’interface radio afin d’améliorer la couverture et d’atteindre des débits de 1 Gbps en
accès nomadique et de 100 Mbps en mobilité. Samsung a
d’ailleurs déjà atteint ces débits lors d’une démonstration
dans un bus se déplacant à 60 km/h en utilisant des équipements dotés de pas moins de 8 antennes en émission et
en réception.
Cas d’usage
De par sa conception, le WiMAX peut être utilisé dans de
nombreux types de déploiements :
• extension de la couverture ADSL. Permettre aux zones
blanches d’avoir accès au haut débit ;
• service nomadique. L’utilisateur peut se connecter en
WiMAX à différents endroits mais il ne peut pas faire
de mobilité ;
• WiMAX mobile. Peut être vu comme un concurrent
au HSPA ou bien comme un complément au HSPA en
zone dense. Les applications sont l’internet mobile, la
voix étant proposée en VoIP ;
Dans le même temps, le 3GPP développe actuellement la
technologie LTE (Long Term Evolution) afin de contrer
l’initiative du WiMAX forum. Les premiers produits LTE
sont attendus pour 2009/2010.
Efficacité spectrale (source : WiMAX forum)
22
- THD : le sans-fil -
Les réseaux Wi-Fi municipaux
Mathieu PORTIER
Promo 1995
[email protected]
Mathieu est aujourd’hui architecte réseaux chez Naxos, filiale opérateur télécoms de la RATP. Il a
occupé auparavant différentes positions de développeur et d’ingénieur réseaux chez Nortel et Noos.
Patrick WETTERWALD
Promo 1982
[email protected]
Patrick est maintenant en charge de la direction des projets et de la stratégie du Centre Technologique Europe de Cisco Systems. Il a
occupé auparavant différentes positions de manager engineering chez IBM France et Lucent Technologies Bell Labs en Californie.
La maturité du marché et des technologies
Mais la liste serait trop longue pour être énumérée ici.
Le Wi-Fi est et restera, pour de nombreuses années encore,
la technologie d’accès sans-fil aux réseaux informatiques.
Les Anglo-Saxons ont inventé un terme qui définit la
phase d’enthousiasme qui précède la phase de croissance
d’une nouvelle technologie : « Hype ». Cette phase est derrière nous, et nous pouvons maintenant aborder la phase
de maturité.
Cela fait plusieurs années qu’on nous promet l’eldorado de
la mobilité mais ce marché (mobilité IP) n’en finit pas de
démarrer. Les technologies sont pourtant là ; l’intérêt des
utilisateurs et des constructeurs aussi. Alors que manque
t-il ? Sans doute la disponibilité d’un réseau d’accès, gratuit ou presque, avec une bande passante acceptable. Les
réseaux municipaux Wi-Fi maillés (meshed) sont
un élément de la réponse. Ces réseaux devraient
être planifiés et gérés comme les réseaux de distribution d’eau, d’électricité et de gaz ; sans pour
autant pousser la similitude jusqu’à l’extrême et
les comparer à l’éclairage public ; bien que…
Cette idée, d’accès Wi-Fi en tout point d’un territoire, fait son chemin dans les conseils municipaux. Ainsi, beaucoup de villes dans le monde
ont franchi le pas et possèdent un réseau Wi-Fi
maillé et de nombreux hot-spots. Nous avons
aujourd’hui des retours d’expérience de déploiements réels qui permettent de bâtir une meilleure
planification et de mieux gérer le niveau d’attente
des utilisateurs.
Les constructeurs en sont à leur deuxième, voire
troisième génération de produit. Et, élément
capital et indispensable,
plus
aucun ordinateur portable
dans le monde n’est fabriqué sans une puce Wi-Fi.
Sans oublier les capteurs,
les étiquettes actives, PDA,
MP3, téléphones bi-mode,
et autres consoles de jeu…
qui intègrent et utilisent
cette technologie radio.
Quelles sont les technologies mises en œuvre ?
Le Wi-Fi désigne l’ensemble des technologies de réseau
local de transmission sans-fil (WLAN) spécifiées par
l’IEEE 802.11. Il fonctionne dans une bande de fréquences
libres (2,4GHz ou 5GHz), qui permet le déploiement sans
avoir à acquérir de licence mais avec l’inconvénient que
plusieurs émetteurs peuvent interférer entre eux.
23
- THD : le sans-fil Les différents protocoles regroupés sous l’appellation WiFi sont détaillés dans le tableau ci-dessous :
Wi-Fi, Mesh, WIMAX, 802.11n, fibre optique, laser sont
souvent opposés et leurs mérites respectifs sont vantés
comme étant la solution à
tout problème technique.
Non, ces technologies ne
sont pas concurrentes mais
plutôt
complémentaires.
En fonction de l’usage, de
la topologie du terrain, de
la zone de couverture, de
la bande passante et des
contraintes de coût, l’étude
préliminaire à tout déploiement sérieux déterminera
quelle est la technologie à
utiliser. L’accès sera souvent en Wi-Fi, le cœur du réseau
d’accès en WIMAX, Wi-Fi ou laser. On maillera (mesh), ou
pas, en fonction des accès filaires
ou fibres existants…
Ce qu’il faut retenir, c’est surtout
l’aspect multiservice de ces réseaux.
Ils sont capables de véhiculer aussi
bien la voix que la vidéo, les données ou les informations venant
de capteurs environnementaux
et donc de satisfaire toutes sortes
d’applications. Le support de plusieurs WLAN (Wireless
LAN) permet à plusieurs opérateurs de se partager la bande
passante sans interagir entre eux. Ces réseaux offrent toutes les garanties de sécurité IP (confidentialité) et de résistance aux attaques involontaires ou frauduleuses.
Si l’on parle de déploiement, les nouveaux produits « mesh
Wi-Fi », comme le point d’accès outdoor 1500 de Cisco,
permettent de réduire considérablement les coûts de
déploiement et de fonctionnement. Les liaisons s’effectuent
la plupart du temps par radio : finis les coûteux travaux de
voirie et les tranchées qui plombent les budgets d’investissement. De plus, ces réseaux offrent des capacités d’autoorganisation, de configuration automatique des nœuds, de
réparation automatique, de redondance, qui permettent
aussi d’économiser sur les budgets de fonctionnement.
Mais tout n’est pas rose pour les développeurs de ces technologies. Ces produits fonctionnent sur des bandes de fréquences « libres ». Tout un chacun peut émettre à sa guise
sur ces fréquences (tout en respectant les limites définies
par les organismes de régulation des pays concernés,
comme l’ARCEP en France). Les interférences radio sont
donc nombreuses et chaque produit doit rivaliser d’ingéniosité pour conserver
l’intégrité de sa bande
passante.
En France les puissances d’émission autorisées sont précisées dans le tableau suivant :
Les réseaux Wi-Fi, initialement conçus pour du simple
partage de ressources informatiques ou d’accès Internet,
ont rapidement évolué pour intégrer des mécanismes de
contrôle d’accès et de cryptage de la voie radio (802.11i)
et prendre en compte les besoins de Qualité de Service
(802.11e) afin de répondre à de nouveaux usages.
Photo 1 : Cisco Outdoor
Wireless AP 1500
24
- THD : le sans-fil qui oblige les villes de grande importance à se doter de
capteurs environnementaux. La remontée des données se
fait sans coût de communication additionnel.
Le suivi des chantiers par les employés municipaux : la
possibilité pour les intervenants dans la ville d’échanger
rapidement des informations précises et souvent visuelles
afin de prendre les bonnes décisions.
Les situations de crise (disaster recovery) : les réseaux de
ce type ont montré leur capacité à résister aux situations
critiques : le dernier à s’écrouler, le premier à remonter.
Photo 2 : Cisco Wireless and
Mobile router 3200
Les cas de déploiements réels
Les applications
Existe-t-il une recette miracle de déploiement ?
Non ! Les spécificités des régions et la géopolitique ne permettent pas d’élaborer un modèle unique de déploiement
et de modèle économique. Il n’existe pas de recette miracle,
chaque déploiement doit être étudié et adapté aux besoins,
tant du point de vue technique que du point de vue de la
relation public-privé. Cette relation est obligatoire s’il s’agit
de couverture radio du domaine public. Ces réseaux utilisent souvent des infrastructures
communautaires (feux de signalisation, mobiliers urbains, candélabres, bâtiments…).
Il est difficile de donner une liste d’applications, toutefois nous
pouvons citer par domaine, les usages les plus appropriés :
Les transports : un des exemples les plus représentatifs est
l’expérimentation menée par NAXOS, la RATP, Netsize et
Cisco, sur le BUS Communicant de la Ligne 38 à Paris,
dont l’infrastructure est la suivante :
• Le modèle nord américain
Une des raisons du développement des réseaux Wi-Fi municipaux aux Etats-Unis est la mauvaise qualité des connexions
ADSL (ce qui n’est pas le cas en
Europe). Pour ne pas agrandir le
fossé avec le vieux continent et
l’Asie, les villes américaines ont dû
réagir et proposer une alternative
aux offres des opérateurs. Tel est
le cas de la ville de Lompoc, où les
opérateurs locaux ont commencé
à investir et augmenter la qualité
des liaisons ADSL au moment
même où la municipalité installait
le Wi-Fi.
La ville de Houston (non encore
déployée) quant à elle, met en avant quatre objectifs
majeurs pour justifier son investissement :
1) réduire et éviter les coûts de la mobilité (budget en
augmentation de 600 k$ par an et qui avoisine les 2 millions de dollars aujourd’hui),
2) réduire la fracture numérique et miser sur l’éducation
pour tous,
3) augmenter la concurrence et diminuer le prix des connexions Internet fixes et mobiles,
4) promouvoir le développement économique (conventions, tourisme, tissu économique local).
Enfin, un des plus gros déploiements attendus est celui
D’autres exemples vont de la gestion des parcmètres, au
trafic routier (feux tricolores) ou à l’annonce aux usagers
des retards sur les bus et trams.
La sécurité publique : la vidéosurveillance est la première
des applications citées au top50, mais d’autres services
utilisent ces réseaux : les services d’urgence, la police, les
pompiers… avec, bien sûr, des applications de téléphonie
sur IP.
L’aide aux personnes dépendantes : maintien des personnes à domicile (le domicile ici comprend le quartier où la
personne vit et non plus seulement son appartement).
Les réseaux de capteurs : il existe une directive européenne
25
- THD : le sans-fil de la Silicon Valley, où un consortium d’entreprises
appelé Silicon Valley Metro Connect, formé de : Azulstar
Network, Cisco, Inc., IBM et Seakay, va offrir une connexion sans-fil à 2,4 millions de résidents. Ce réseau, unique au monde de par sa taille, couvrira 42 municipalités
pour une surface totale de 4000 km².
La liste des villes américaines ayant décidé d’investir dans
le sans-fil s’allonge de jour en jour. Nous pouvons citer
entre autres : San Francisco, Mountain View, Madison,
Austin, Philadelphie, New York…
De ce fait, elle peut garder une partie de la bande passante pour ses propres applications et besoins. Elle
n’aura donc pas à payer pour ce service. Elle peut même
dégager des revenus grâce à la bande passante louée.
On peut comparer ce modèle à ce qui se fait pour le
réseau de fibre optique et les câblo-opérateurs ;
• Le modèle européen
Légèrement différentes, les villes européennes mettent
l’accent sur les nouvelles applications plutôt que sur la
simple connexion Internet. La qualité de nos connexions
filaires (ADSL) n’est pas un argument majeur en faveur du
sans-fil. Par contre, la couverture des zones rurales et leur
développement économique sont une priorité. Ainsi, la
province de Brescia a décidé d’investir 2 millions d’euros
dans la création d’un réseau sans-fil maillé devant couvrir
120 villes et villages de cette région du nord de l’Italie.
La région espère générer un retour sur investissement de
139 millions d’euros sur 6 ans.
Apres les vagues d’attentats de ces dernières années, l’Europe met un effort important sur la sécurité des personnes
et une des premières applications citées par les Directeurs
des Systèmes de l’Information (DSI) des grandes villes est
la vidéosurveillance. Le sans-fil, ici aussi, est vu comme un
avantage certain, même si la demande en bande passante
demande une attention particulière lors de l’architecture
du réseau. Westminster est un bon exemple de ce type
d’applications.
• l’opérateur paie le déploiement du réseau et reverse une
redevance à la municipalité pour l’utilisation de l’espace
public et des ressources communautaires. Cette alternative a pour avantage que la municipalité n’a pas à investir pour l’infrastructure, en contre partie elle doit payer
pour l’usage qu’elle en fera pour ses propres besoins ;
• un modèle hybride des 2 premières solutions.
Dans tous les cas, un organisme public ne peut se substituer à un opérateur, sauf dans le cas des zones blanches
(c’est-à-dire si aucun opérateur ne veut couvrir cette partie
du territoire).
Dans la réalité, la situation n’est pas aussi simple et de longues négociations sont nécessaires avant d’aboutir à un
accord satisfaisant toutes les parties. Rares sont les cas où
il n’y a que deux intervenants. Naxos par exemple se place
comme un opérateur d’infrastructure sur laquelle viennent
s’appuyer des fournisseurs d’applications.
Les municipalités sont le plus souvent motrices dans de tels
projets car le développement économique de leur territoire
est en jeu, ainsi que le service au citoyen. Il est loin le temps
où les hot-spots étaient réservés à la partie touristique de la
ville. Ils fleurissent maintenant dans les zones de développement économique.
• L’Asie
Le cas de l’Asie est intéressant du fait que les déploiements
en cours sont souvent le fait d’une décision politique forte.
Beijing prévoit, pour les Jeux Olympiques de 2008, une
couverture presque totale de la ville par un réseau intégrant
150 stations de base WIMAX et 9000 réseaux locaux sans-fil
basés sur la nouvelle technologie 3G chinoise TD-SCDMA.
Taipei, qui fut longtemps la première ville d’Asie à avoir
lancé un programme d’envergure de couverture totale
Wi-Fi, découvre ses premières difficultés liées au manque
d’abonnés (environ 10% de ce qui était prévu à fin 2006).
On ne peut justifier un réseau municipal uniquement sur
l’offre de connexion Internet. Les nouvelles applications
ont un rôle primordial à jouer.
Le modèle économique
Au-delà du réseau et de la technologie d’accès, la couverture totale (ou presque) d’une collectivité ou d’un territoire
par des connexions haut débit, va exciter la créativité des
développeurs. Ceux-ci devraient d’ici peu offrir une multitude de nouvelles applications au service des municipalités
et des citoyens que nous sommes.
Seule l’infrastructure d’accès manquait jusqu’à présent, les
technologies sont là et les déploiements sont en cours.
Quel modèle économique faut-il utiliser pour que mon
projet soit un succès ? Ici encore la réponse est multiple.
En se limitant uniquement à l’Europe, plusieurs modèles
peuvent être envisagés :
• la municipalité investit dans l’infrastructure et passe des
conventions avec des opérateurs pour l’accès Internet.
26
- THD : le sans-fil -
HSPA et son positionnnement marché
Jérôme SARDOU
Promo 1996
[email protected]
Responsable développement du haut débit mobile au sein de la direction des marchés grand public et professionnels d’Orange mobile.
L
a 3G fait l’actualité : Bouygues Telecom vient de lancer son offre 3G ; une quatrième licence doit être
attribuée à l’été ; et Orange et SFR annoncent des
débits de plus en plus élevés sur leurs réseaux 3G lancés il
y a un peu plus de 2 ans : 1,8 Mbps, 3,6 Mbps, 7,2 Mbps
et plus pour les débits descendants, 384 kbps, 1,4 Mbps et
plus pour les débits montants.
Les premiers usages de ces débits sont les usages PC en
mobilité : pouvoir consulter et envoyer ses mails, surfer sur
le web, télécharger des fichiers n’importe où et avec un grand
confort. Cela nécessite des débits descendants importants.
Les débits montants sont nécessaires aussi pour l’envoi de
fichiers volumineux, comme les contenus auto-produits, qui
connaissent un énorme succès sur le web, ou des fichiers
professionnels dans les domaines par exemple de la santé,
du journalisme, du bâtiment.
Ces évolutions ont un nom : dans le domaine technologique c’est le HSPA (High Speed Packet Access), qui regroupe
le HSDPA (Downlink) et le HSUPA (Uplink), et dans le
domaine commercial c’est la 3G+ ou encore le très haut
débit mobile.
Le marché est bien là, en attestent les ventes de cartes PC
multi réseaux en forte croissance. Ces cartes PCMCIA permettent de se connecter automatiquement sur le meilleur
réseau disponible GPRS, EDGE, 3G, HSDPA ou Wi-Fi. Les
opérateurs de téléphonie mobile proposent ces cartes à leurs
clients entreprises et professionnels, avec des forfaits de Mo
ou avec de l’illimité.
Entendons-nous bien : les débits annoncés sont des débits
crêtes maximum théoriques, le débit réel disponible dépendant de nombreux paramètres tels que la distance à l’antenne
d’émission et le nombre d’utilisateurs simultanés. A titre
d’exemple, on considère que pour un débit théorique de
1,8 Mbps l’on dispose d’un débit utile moyen de 1,4 Mbps.
Les fabricants de PC ont bien perçu le potentiel de ce marché et proposent à présent des PC embedded, intégrant une
carte SIM et un module HSPA. Ils multiplient les accords
de partenariat avec les opérateurs mobiles pour emprunter
leurs réseaux. On peut même imaginer qu’ils deviennent un
jour des MVNO data (Mobile Virtual Network Operator).
Même en prenant en compte ce biais, les débits restent
impressionnants. Le haut débit mobile vient rivaliser avec le
haut débit fixe. Alors pourquoi cette course hauts débits, pour
quels usages ? A-t-on besoin de tels débits en mobilité ?
Débits crête maximum théoriques de la 3G et de ses évolutions apparus sur le marché français
7,2 M
3,6 M
1,8 M
384 k
64 k
1,4M
384 k
128 k
27
- THD : le sans-fil De façon très logique les cartes PC et PC embedded sont
les premiers terminaux sur le marché à proposer les évolutions HSPA. Les téléphones mobiles suivent bien après.
Deux raisons à cela : l’intégration de la technologie HSPA
dans les téléphones mobiles est certainement plus délicate ;
par ailleurs le marché du multimédia mobile est beaucoup
moins mature. La montée en débit ne peut capitaliser sur des
usages existants mais va plutôt porter le développement de
nouveaux usages tels que le téléchargement de titres musicaux, de jeux next gen (aux graphismes comparables à ceux
d’une console de jeux portable), ou encore la TV mobile.
Les applications des routeurs cellulaires sont multiples dans
de nombreux secteurs d’activité. Ils permettent de mettre
en place des accès fixes temporaires, par exemple l’accès à
l’intranet à partir de bureaux de chantiers dans le secteur
de la construction, ou encore le raccordement de lecteurs
de cartes bleues sur les marchés de fruits et légumes. Les
premières solutions de routeurs cellulaires sont apparues
en 2005 et sont matures depuis mi-2006.
On voit que le HSPA présente un gros potentiel commercial. Il va intégrer de nombreux terminaux très variés. Il va
couvrir un spectre large d’usages très différents. Cela devrait
se traduire dans la manière de commercialiser cette technologie. Il ne devrait pas y avoir une seule offre, une offre
de débits qui autorisent de multiples usages, mais vraisemblablement plusieurs offres, adaptées à chaque usage. Cela
est d’autant plus probable qu’il paraît difficile dans une offre
de débits de valoriser chaque montée en débits. On voit
mal un opérateur avoir des offres à 1,8 Mbps, 3,6 Mbps et
7,2 Mbps. Seule la capacité du terminal (et bien sûr du réseau
à un endroit donné) va conditionner le débit disponible.
Plus étonnant, le HSPA va aussi apparaître dans de nouveaux équipements électroniques, par exemple les routeurs
cellulaires. Ces routeurs sont le trait d’union entre le réseau
3G+ et un réseau local Wi-Fi.
Une commercialisation donc orientée usages et non capacité
réseau. Cette commercialisation n’est pas sans difficulté. A
l’heure où l’illimité apparaît dans les offres opérateurs, le
risque est de saturer le réseau, de ne pas maîtriser la montée
en charge, notamment sur de nouveaux usages mal connus.
En conséquence les opérateurs devraient limiter en volume
leurs offres 3G+.
HSPA : point sur la gestion et
le partage des ressources
Paul THEROND
Promo 2004
[email protected]
Paul a profité des ouvertures à l’internationnal de l’Ecole pour faire un S4 en Italie suivi d’une 3ème année à Munich, puis d’un stage de fin
d’études à Rome prolongé par un CDD d’un an et demi. Début 2006, il intègre la R&D UMTS Nortel, reprise début par Alcatel-Lucent
L
es constructeurs télécoms UMTS forment un groupe
de plus en plus restreint. En peu de temps le paysage
des équipementiers a beaucoup changé avec l’apparition du chinois Huawei, qui prend des parts de marché
de plus en plus grandes, et les rapprochements de Nokia et
Siemens d’une part, ainsi que de Lucent, Alcatel et Nortel
(pour la 3G) d’autre part. Ces politiques de fusion/rachat
poursuivent un même but : réduire les coûts de production
d’une R&D qui répond à des besoins en de plus en plus
importants. L’une des raisons de ce bouleversement est liée
au coût du haut débit. Si ses avantages sont pourtant simples à comprendre, sa mise en place est coûteuse et néces-
site de nombreux travaux annexes.
On peut légitimement se poser la question suivante : quels
sont les freins au développement du haut débit à l’intérieur
même de la 3G ? Ou plus concrètement : pourquoi est-ce
que la 3G dont on parle depuis déjà longtemps n’apparaît
encore que modestement dans notre entourage ?
Le moteur du haut débit dans la 3G est l’HSPA (High Speed
Packet Access) ; s’il permet d’atteindre des débits théoriques
impressionnants le débit réel est bien en dessous des valeurs
annoncées. La clé de l’amélioration de ces débits auprès des
abonnés est la gestion et le partage des ressources.
28
- THD : le sans-fil Prenons l’exemple de l’HSPA. On rappelle tout d’abord que
les ressources HSDPA (High Speed Downlink Packet Access),
donc dans le sens réseau vers utilisateur (sens descendant),
sont partagées entre tous les abonnés connectés. Le type de
service offert est le plus souvent du transfert de données
(Web, MMS), de plus ces services ne sont que rarement
sensibles au délai d’envoi/réception (hormis pour le video
streaming par exemple). Ainsi il est possible d’optimiser
les transmissions puisque ces services n’ont pas besoin de
ressources allouées en permanence. Par exemple pour le
web browsing, le transfert de données est nécessaire lors de
l’affichage d’une nouvelle page, et non lors de la consultation : le trafic est représenté par un pic à un instant donné,
et pendant le temps de la consultation un autre utilisateur
peut profiter de toutes les capacités du réseau. Il faut donc
réussir à optimiser les temps de transmission et bien sûr il
faut établir des priorités en fonction des services existants :
le video streaming sera plus prioritaire qu’un MMS.
L’introduction d’une gestion dynamique des ressources
est nécessaire. Elle se fait de manière différente selon chaque service (web browsing, email, video streaming, etc.) en
fonction de la bande passante disponible, de la qualité de
service requise et du nombre d’utilisateurs connectés. Le
Resource Management est un nouveau défi lié au haut débit
et il est d’autant plus complexe que la 3G doit, par définition, permettre à un même utilisateur de profiter de plusieurs services simultanément.
une nouvelle gestion des ressources voix a été implémentée. Elle permet d’adapter le débit voix en fonction du trafic
et par exemple d’envoyer des trames quasi vides dans les
blancs lors d’une conversation. Ici l’objectif est différent :
il ne s’agit pas d’économiser de la bande passante puisque
les appels voix sont transmis sur des canaux dédiés mis en
place lors de l’établissement d’appel. En revanche on gagne
en puissance d’émission en qualité de service, etc. Toutes
ces économies sont récupérables par le mobile pour gérer
en même temps d’autres services.
Cette gestion intelligente des ressources est absolument
nécessaire pour obtenir de bons résultats sur le terrain ; en
effet un haut débit théorique est inutile si l’abonné ne voit
pas une réelle amélioration de service ou si son portable
n’arrive pas à gérer plusieurs applications en même temps.
Toutes ces problématiques sont donc liées au haut débit et
en font un produit extrêmement complexe, elles expliquent
en partie les difficultés rencontrées par les abonnés 3G.
Enfin je voudrais conclure avec un mot sur la prochaine
étape de l’évolution des télécoms dont le mot clé est « convergence ». La « 4G » est déjà connu sous le nom de Long
Term Evolution (LTE), elle propose de faire converger les
technos (UMTS, Wimax, W-CDMA), notamment par le
biais de la voix sur IP. L’aboutissement de LTE initiera une
révolution dans le monde des opérateurs télécoms : la naissance d’une vraie différentiation des offres. En effet, jusqu’à
présent la technologie s’impose aux différents opérateurs
qui ne peuvent proposer que des services compartimentés.
L’apparition des téléphones 3 en 1 et autres boxes n’est donc
qu’un avant-goût de la prochaine génération.
Le principe d’optimisation des ressources s’est également
étendu à la voix. La 3G met en place de nouveaux codecs
qui utilisent des gammes de débits différents, adaptables
au trafic réel. Sous le nom d’AMR (Adaptive Multi Rate),
HSPA : tous les aspects techniques
Yannick BOUGUEN
Promo 2004
[email protected]
Ingénieur réseaux d’accès mobiles à Orange Labs et délégué 3GPP
C
HSDPA : une voie descendante
à grande vitesse
omme l’indique son sigle cabalistique, le HSPA
(pour High Speed Packet Access) est une évolution
du réseau mobile UMTS qui permet d’augmenter
substantiellement les débits fournis pour les applications
paquets. Vous avez certainement déjà entendu parler des
acronymes HSDPA et HSUPA qui sont respectivement les
déclinaisons de l’HSPA en downlink (du réseau vers le terminal) et en uplink (du terminal vers le réseau). Certains
principes technologiques sont communs à ces deux évolutions mais elles diffèrent cependant sur certains points.
Le HSDPA offre une voie descendante à haut débit et par
paquets. Ainsi, dès son ouverture commerciale, les abonnés
HSDPA étaient en mesure de télécharger des informations
à des débits approchant 1,5 Mbits/s, valeur à comparer
aux 384 kbits/s que permet d’atteindre la première version de l’UMTS appelée release99 et normalisée au 3GPP
29
- THD : le sans-fil (3rd Generation Partnership Project). Le débit maximal
théorique que l’on pourrait obtenir avec HSDPA est de
14,4 Mbit/s mais les débits maxima actuels sont bridés à
3,6 Mbit/s. Pratiquement, l’évolution vers HSDPA ne
nécessite normalement pas de modification hardware des
équipements réseaux mais requiert l’acquisition de nouveaux terminaux par les abonnés.
et de canal partagé.
Une modulation plus efficace
Cette latence abrégée permet aussi d’adapter plus efficacement la modulation aux conditions radio inhérentes à chaque mobile sous couverture. La version initiale de l’UMTS
n’intègre qu’une seule modulation du signal, très robuste
au bruit, nommé QPSK. La modulation 16QAM, moins
robuste mais bien plus efficace en bonnes conditions radio,
a été introduite avec HSDPA. Initialement, il était même
prévu d’implémenter la modulation 64QAM mais les
constructeurs de terminaux préférèrent rester prudents.
Pratiquement, la détermination de la modulation à utiliser
s’opère de la manière suivante : le mobile transmet en permanence à la station de base la qualité de réception qu’il a
mesurée, via un canal de contrôle et la station de base en
déduit la modulation à utiliser.
Le HSDPA a été introduit au sein de la release5 du 3GPP et
est basé sur les concepts suivants :
• un canal partagé et une migration de certaines fonctionnalités réseaux au plus proche de l’utilisateur,
• une modulation plus efficace en bonnes conditions
radio,
• une gestion astucieuse des ressources disponibles.
Ces évolutions découlent d’un changement de perspective au sein du 3GPP. En effet, l’UMTS release99 avait
été conçu pour des
applications à débits
presque
symétriques (voix, visiophonie…) et relativement
modestes au regard
des débits atteints
dans les réseaux fixes
aujourd’hui. La première version de
l’UMTS était ainsi
basée sur la notion de
canal dédié par application (canaux DCH).
Cette stratégie a pour
principal
avantage
d’assurer une garantie
de service à l’application considérée mais revêt pour inconvénient majeur de sous-utiliser les ressources réellement
disponibles au sein du réseau. Avec le développement des
usages liés à l’Internet, le 3GPP a voulu adapter l’UMTS à
des services de consultation et de téléchargement, nécessitant des débits descendants supérieurs aux 384 kbit/s proposés jusqu’alors.
Une répartition des ressources astucieuse
Du point de vue des terminaux, la norme a défini douze
catégories de mobiles, différenciées principalement par
les modulations et le nombre maximal de codes qu’elles
peuvent supporter (pour rappel, l’UMTS est basé sur un
accès multiple à répartition par codes). Côté réseau, le
3GPP a laissé une marge d’appréciation aux constructeurs
en matière de gestion des ressources entre utilisateurs.
Comme mentionné précédemment, HSDPA est basé sur
la notion de canal partagé, ce qui induit une gestion des
ressources entre applications. L’une des fonctions clés de
HSDPA, intégrée à la station de base, est la fonction d’ordonnanceur, aussi appelée scheduler. Celui-ci a la charge
de répartir les codes et les intervalles de temps disponibles
entre les utilisateurs d’une même cellule. Les critères régissant la politique d’ordonnancement peuvent différer selon
la stratégie retenue par l’opérateur. Ce dernier doit faire un
arbitrage entre une équité inter-utilisateurs et une maximisation de l’utilisation des ressources radio. En d’autres
termes, si l’opérateur veut optimiser les débits maxima par
Un canal partagé
Pour optimiser l’usage du spectre disponible, la solution
envisagée fut de multiplexer tous les utilisateurs d’une cellule sur un même canal partagé. Ce partage sous-entend
une gestion rapide des ressources entre applications et
entre utilisateurs. Ce besoin de vitesse de traitement est à
l’origine de la migration de la fonction de répartition des
ressources du RNC vers la station de base (Radio Network
Controller, équipement interfaçant quelques centaines de
stations de base au réseau cœur). Ainsi, le délai de réaction du système a été rabaissé de 300 à 75 ms. Par ailleurs,
la cadence d’expédition des paquets a été abaissée de 10 à
2 ms. La figure ci-jointe illustre les notions de canal dédié
30
- THD : le sans-fil La modulation
utilisateur, il privilégiera les mobiles qui se trouvent dans
les meilleures conditions de réception. L’inconvénient
d’une telle stratégie est qu’elle peut empêcher l’accès aux
ressources pour un usager situé loin de la station de base.
Une autre stratégie pourrait consister à niveler les différences de débits entre un utilisateur proche de la station de
base et un utilisateur éloigné, ce au détriment de l’efficacité
du système.
Comme dans le sens remontant, c’est le terminal qui a en
charge cette modulation, celle-ci ne doit pas être trop complexe. Pas question donc, comme en HSDPA, de faire occasionnellement appel à des modulations très performantes,
telle 16QAM. Il faut se contenter de la modulation de base
(QPSK) de l’UMTS actuel.
L’absence de canal partagé
HSUPA : le haut débit
montant
Le terminal gérant la voie remontante est incapable d’orchestrer le partage d’un même canal avec d’autres utilisateurs. Il n’a pas conscience de l’activité des autres utilisateurs. Il lui faut donc un canal dédié. Dans la release99,
c’est bien un canal dédié, nommé DCH, qui supporte la
voie montante. Sa qualité est assurée de deux façons : d’une
part la puissance d’émission est modulée selon les besoins ;
d’autre part, quand il se trouve aux confins de deux cellules,
le signal émis par le terminal est écouté par les deux stations
de base et les signaux reçus sont combinés pour obtenir
un meilleur signal. C’est ce qu’on appelle le soft handover.
Cependant, avec son débit constant, le canal dédié ne convient pas à une transmission de paquets qui est par définition réalisée par rafales. C’est pourquoi le 3GPP a conçu un
canal dédié amélioré, nommé E-DCH dont le débit varie
de 5,76 Mbit/s à 0 en fonction des besoins. C’est la station
de base qui attribue au terminal le droit d’émettre à tel ou
tel débit de façon à limiter les interférences. Bien que le eDCH soit tout à fait adapté au transfert de paquets, le DCH
demeure indispensable pour des applications nécessitant
un débit constant et pour la signalisation.
Le HSDPA permet aux clients mobiles de recevoir des
vidéos de bonne qualité ou d’importer de gros fichiers dans
un délai raisonnable. Mais qu’en est-il du professionnel
nomade qui doit envoyer un courriel avec une pièce jointe
de plusieurs Mo ? Pour lui éviter des temps d’envoi de message inconsidérés, le 3GPP a mis au point le HSUPA qui,
comme son nom l’indique, diffère assez peu du HSDPA.
Normalisé dans le cadre de la release6 du 3GPP, ce système
porte le débit remontant des 384 kbit/s de l’UMTS actuel à
quelques 5,76 Mbit/s théoriques. Là non plus, l’activation
de HSUPA ne nécessite normalement pas de modification
hardware des équipements réseaux mais requiert l’acquisition de nouveaux terminaux par les abonnés.
A l’instar du HSDPA, le HSUPA réduit le délai de réaction
du système en décentralisant la gestion des ressources vers
les stations de base. Mais il subsiste tout de même quelques
différences entre ces deux évolutions…
31
- THD : une vision service -
La vidéosurveillance IP et les
réseaux « Très Haut Débit »
Christophe RAIX
Promo Mas. 2004
[email protected]
Chistophe est assistant Chef de Marché Vidéosurveillance chez Bosch Security Systems (BOSCH
Group). Bosch Security Systems est un fournisseur novateur de produits intégrés de sécurité et de
communication de grande qualité et ce, dans le monde entier.
http://www.boschsecurity.fr
Qu’est ce que la vidéosurveillance IP ?
Coûts de stockage de données réduits
Lorsque la vidéosurveillance s’ouvre au monde des réseaux,
elle vous permet également de tirer parti de technologies
informatiques telles que les dispositifs de stockage NAS
(Network Attached Storage) et les réseaux SAN (Storage
Area Network), qui peuvent contenir des volumes de données importants. Le système utilise des serveurs de stockage haute densité dédiés et ne se fonde plus sur un seul
disque dur. Les vidéos sur ces serveurs peuvent dès lors être
partagées avec d’autres personnes partout dans le monde.
Le terme vidéosurveillance désigne la surveillance, à distance, de locaux, d’installations, de processus industriels,
d’individus ou de phénomènes naturels grâce à la visualisation et l’enregistrement d’images vidéo.
La vidéosurveillance IP permet aux utilisateurs de visualiser et d’enregistrer des images vidéo via un réseau IP
(LAN/WAN/Internet).
Fiabilité
La vidéosurveillance tire parti des avantages de la technologie Internet pour créer un système de sécurité plus fiable. Elle peut automatiquement router le trafic vidéo vers
un système de stockage de sauvegarde en cas de coupure
d’électricité ou de panne du réseau.
Les avantages de la vidéosurveillance IP
Accessibilité
À une époque où le secteur de la vidéosurveillance s’efforce
de réduire le personnel nécessaire pour utiliser les systèmes
de sécurité, les réseaux IP permettent une centralisation
accrue. Un seul opérateur peut surveiller des caméras distantes et sans-fil à partir de n’importe quel point du réseau,
et les vidéos peuvent également être stockées à distance.
Évolutivité
Les réseaux IP offrent une flexibilité accrue en matière
d’extension des systèmes de vidéosurveillance. Non seulement il est très aisé d’ajouter des caméras, mais accroître
l’espace de stockage et le distribuer sur l’ensemble du réseau
est également un jeu d’enfant. Qui plus est, les réseaux IP
peuvent prendre en charge plusieurs ‘utilisateurs’, ce qui
est exceptionnel. Tout comme un serveur de messagerie
électronique peut envoyer les mêmes données à plusieurs
destinataires simultanément, le commutateur réseau est en
mesure de cloner les vidéos et d’utiliser les mêmes données
à plusieurs reprises.
Installation simplifiée à un coût réduit
Loin de requérir des kilomètres de câblages coaxiaux
comme les systèmes analogiques, les systèmes de vidéosurveillance IP se connectent par le biais des systèmes CAT5 ou des systèmes de communication sans fil qui existent
déjà dans de nombreux bâtiments.
Caméra IP
Face Avant
32
- THD : une vision service sants pour la transmission d’images vidéo. En effet, lorsqu’on désire obtenir une qualité et une résolution vidéo
équivalentes à celles d’un équipement analogique, on
utilisera une compression MPEG 4 ou MPEG 2 avec une
résolution 4CIF (704 px x576 px, px = pixels). Ces technologies de compression vidéo et cette résolution utiliseront
une bande passante de 3,5 à 6 Mbits/s (MPEG 4) ou de
3,5 à 6 Mbits/s (MPEG 2). A cela il faut ajouter le fait que
la vidéosurveillance génère des flux vidéo sur les réseaux
24h/24h et 7j/7j.
Face Arrière
Encodeur IP
Qualité vidéo
Les systèmes IP modernes utilisent la norme MPEG-4, qui
fait un usage plus efficace des capacités du réseau que le
M-JPEG. Dans les applications où une qualité inférieure
est suffisante et permettrait de limiter l’espace de stockage
requis, l’IP offre la possibilité de personnaliser la qualité de
la sortie vidéo en fonction de vos besoins et de vos capacités de stockage.
De plus, ces réseaux permettent un renouvellement et une
qualité d’image indépendants de la localisation des caméras à l’intérieur du réseau.
Le déploiement des réseaux haut débit multiplie les applications de la vidéosurveillance en matière de sécurité territoriale :
 supervision de la voie publique (trafic
routier, parkings, chantiers, zones de violence, …),
 surveillance de bâtiments publics (mairies, centres administratifs, établissements
scolaires, ...) et privés (bureaux, usines, entrepôts, …),
 co-surveillance d’établissements privés
recevant du public - ERP (gares, hôpitaux,
centres commerciaux, aéroports, ...),
 surveillance de zones critiques (centrales
électriques, bassins d’assainissement, …),
 surveillance événementielle (spectacles,
épreuves sportives, …).
Systèmes de vidéosurveillance IP avec un système de gestion vidéo
L’intérêt du « très haut débit » et ses usages
Ainsi, la vidéosurveillance IP fait partie des principaux
utilisateurs de réseaux « très haut débit ».
Les réseaux « très haut débit » autorisent les débits suffi-
Systèmes de vidéosurveillance IP multi-site
33
- Théodore Flutabec -
34