Sommaire - Association Télécom Bretagne | Alumni
Transcription
Sommaire - Association Télécom Bretagne | Alumni
Sommaire Edito 5 Introduction au Très Haut Débit 7 Les architectures FTTx 9 Le point de vue de la région Bretagne… 13 … et la stratégie de la métropole brestoise 13 Problématique de déploiement : cas de France Télécom 14 La fibre aux entreprises 15 VDSL : 100 mégabits sur ligne téléphonique ? 17 Le Wimax, aujourd’hui et demain 21 Les réseaux Wi-Fi municipaux 23 HSPA et son positionnnement marché 27 HSPA : point sur la gestion et le partage des ressources 28 HSPA : tous les aspects techniques 29 La vidéosurveillance IP et les réseaux « Très Haut Débit » 32 Théodore Flutabec 34 Direction : Louis Chautard Rédacteurs en Chef : Nicolas Marcoux, Marc Watiez Assistantes de Rédaction : Aurélia Dehedin, Olivia Niangi Ont participé à ce numéro : Julien Kervella ; Nicolas Marcoux ; Marc Watiez ; Thomas Renault ; Hubert Le Sech ; Alexandre Ribeil ; Charlotte Rajaofera ; Hubert Reynier ; Bernard Debbasch ; Damien Chapon ; Mathieu Portier ; Patrick Wetterwald ; Yannick Bouguen ; Jérôme Sardou ; Paul Therond ; Christophe Raix ; Erwan Monjarret Fabrication : Les Editions Magenta Couverture : Photos fournies par L.E.M (Getty Images) Publicité : Les Editions Magenta - 12 avenue de la Grange - 94100 Saint-Maur - Tél. : 01.55.97.07.03 – [email protected] Impression : Les Editions Magenta - 12 avenue de la Grange - 94100 Saint-Maur - Tél. : 01.55.97.07.03 – [email protected] Administration : Association des Ingénieurs de l’ENST de Bretgne - 10 rue de l’Arrivée - 75015 Paris - Tél. : 01.42.22.02.28 Tirage : 1 400 exemplaires 3 Notre avenir est mobile, le vôtre aussi. • TÉLÉCOMS • INFORMATIQUE • FONCTIONS SUPPORT • MARKETING • COMMERCIAL • RELATION CLIENTS Chez Bouygues Telecom, nous avons depuis toujours la culture de l'innovation et de la créativité, à l’image du dynamisme de notre secteur. Avec 7 400 collaborateurs et 4,54 Mds d'euros CA, toute notre entreprise est orientée vers un seul objectif : la satisfaction clients. Ingénieurs H/F Télécoms, informatique, d’affaires, d’études, chefs de projets déploiement Nos ingénieurs vous le diront, s'ils nous ont rejoints, c'est avant tout pour nos projets novateurs et stimulants qui donnent un sens à leur passion pour les nouvelles technologies et la téléphonie mobile. C'est aussi parce que chez nous, “opportunités d'évolution” et “ambiance de travail conviviale” ne restent pas de simples promesses. Des collaborateurs avec qui nous partageons les mêmes valeurs tournées vers le même objectif, la satisfaction clients, nous souhaitons les garder longtemps ! Retrouvez toutes nos offres et postulez en ligne : www.recrute.bouyguestelecom.fr UN NOUVEAU MONDE. LE VÔTRE. © Photo : Maria Darama - Mention légale : i-mode et le logo i-mode sont des marques déposées ou enregistrées par NTT DoCoMo, Inc. au Japon et dans d’autres pays. Bouygues Telecom, lauréat d’argent du palmarès n° 16 - Editorial - Louis CHAUTARD (Promo 1986) Président de l’Association des Ingénieurs de l’ENST Bretagne [email protected] Toujours plus ! FTTH, VDSL, 3G+, Wi-Fi, WIMAX…, les nouvelles technologies d’accès très haut débit du fixe et du mobile arrivent, à un rythme soutenu pour certaines, et de façon plus timorée voire hésitante pour d’autres. Il est clair que des accès permettant de multiplier par 10 ou plus les débits existants vont considérablement faire évoluer l’offre de services et nous affranchir de certaines limites d’usage liées aux déplacements. Approche un monde où nous pourrons à tout moment, n’importe où et facilement accéder à une quantité considérable d’informations et de programmes, et échanger selon plusieurs modes, pour une vie plus conviviale et plus riche espérons-le. Nous, ingénieurs télécoms, sommes des acteurs clefs de cet extraordinaire mouvement que vivent les technologies de l’information. Nous pouvons être fiers de cela. N’oublions pas cependant qu’au-delà de la logique technologique nous avons un devoir moral, dans la mesure où nous pouvons et devons faire en sorte que ces évolutions soient accessibles au plus grand nombre et qu’elles soient porteuses de sens, d’un vrai progrès. D’autre part je fais le vœu que ce foisonnement de technologies contribue véritablement à l’amélioration de la communication entre les personnes et permette de résorber quelque peu l’individualisme ambiant ; je reste souvent perplexe en effet lorsque je croise certains individus qui, armés jusqu’aux dents d’outils de communication du dernier cri, se révèlent en fait inaptes à la simple communication interpersonnelle en face à face ! Les nouveaux outils seront-ils des béquilles permettant d’aller au-delà de nos limites naturelles et personnelles à communiquer ou seront-ils au contraire des façades derrière lesquelles il sera plus facile de ne montrer qu’une petite partie de nous mêmes ? Soyons de fervents concepteurs de nouveaux moyens de communication, et faisons en sorte qu’ils soient des outils au service de la convivialité et de la solidarité ! Bon été à tous, et venez nous rencontrer dans les locaux de l’AITB au 10 rue de l’Arrivée ! 5 ���������������������������� 007 BRETAGNE GN E ETA uai TIO N EN ST BR OCI A ASS OC IAT ION EN ST B RET AG NE N°32 Juin 2007 ann ����� �������������������� ��������������������� ���������������� ASS Le Très Haut Débit re 2 ann uai LA REVUE DES INGÉ NIEURS TELECOM re 2 007 ������������������������������������ �������������� - THD : introduction - Introduction au Très Haut Débit Julien KERVELLA Promo 2003 [email protected] Julien est Account Manager Telecom et responsable de la ligne de solutions Services à Valeur Ajoutée pour Unilog, société du groupe LogicaCMG. Q uand Edouard Estaunié, Ingénieur des Postes & Télégraphes, inventa en 1904 le mot « Télécommunications » pour désigner les technologies et techniques appliquées aux communications à distance, peut-être aurait-il été surpris de constater combien ces techniques et technologies ont évolué, assurant diversité et richesse des services disponibles. mes de télécommunications internationaux, comme 3GPP, l’ETSI ou l’ITU. L’utilisation des réseaux correspondants est soumise aux autorités de régulation nationale, comme l’ARCEP en France. Et puis le Très Haut Débit n’est pas nouveau. En distinguant Très Haut Débit fixe et Très Haut Débit mobile, on s’aperçoit que les Etats-Unis et la Corée du Sud ont des opérateurs proposant des services sous UMTS/HSPA et/ou fibre optique ; le Japon et les pays scandinaves proposent au grand public de la fibre optique ; les Emirats Arabes Unis, l’Indonésie et l’Australie de l’UMTS/HSPA. Ce sont d’abord les télégraphes, puis les télégraphes sans-fil, qui ont cédé progressivement la place aux téléphones fixes et mobiles côtoyant aujourd’hui PC, radios ou télévisions. La voix, la data et les contenus sont à la portée de tous et de nombreux acteurs se positionnent pour en tirer les revenus, dans un marché déréglementé. Ce sont des éditeurs, des opérateurs, des fournisseurs d’accès, des moteurs de recherche qui facturent le grand public et les entreprises. Pour le Très Haut Débit Mobile, il est caractérisé par l’accroissement des débits descendants de 384 kb à 7,2 Mb et de ceux montants de 64 kb à 1,4 Mb. L’UMTS/HSPA a par exemple été lancé depuis quelques mois dans plusieurs grandes villes françaises (Lyon depuis mi-2006, Paris depuis le 15/01/07). Néanmoins, les demandes des clients s’orientent vers une convergence des services, c’est-à-dire la capacité à utiliser l’ensemble des services accessibles indépendamment de l’appareil (téléphone, PC, télévision) et du réseau, pour un budget minimal (seuil à 45€ pour le fixe). Ces services pourront être utilisés pour faire vivre des communautés créées par les abonnés. Pour le Très Haut Débit fixe, trois propriétés techniques sont à noter : • premièrement, le THD autorise un débit de l’ordre de 50 Mb, 100 Mb ou plus (d’où son nom), là où aujourd’hui les technologies DSL, par ailleurs privilégiées en France, ne supportent que des débits d’environ 10 Mb (max = 24 Mb). Ces niveaux de débit permettent l’avènement de services plus « gourmands » en bande passante telle la télévision haute définition. Pour illustrer, ci-dessous un tableau estimant les débits nécessaires par type de services ; Dans ce contexte, certains services sont plus attendus que d’autres : il y a notamment la télévision haute-définition (TV HD), la vidéosurveillance et la capacité à télécharger / uploader plus vite d’autres contenus (textes, photos, audio, jeux) de plus en plus riches. Ces services sont étroitement corrélés aux différents types de réseaux d’accès sous-jacents, comme le Wi-Fi/Wimax, la fibre optique (couplée ou non au VDSL), et bien sûr la « 3G » ou la « 3G+ », dont les principes, mis en exergue lors des campagnes marketing des opérateurs, sont connus de la plupart des abonnés mobiles. Mais qu’est ce que le « Très Haut Débit » ? D’abord, comme l’expression le suggère, le « Très Haut Débit » se traduit par une augmentation significative des débits montants et descendants. Les normes définissant ces évolutions sont validées par les institutions et organis- 7 - THD : introduction • deuxièmement, les débits sont symétriques : un abonné interagit donc plus facilement avec ses communautés, comme dans le cas de jeux en réseau en temps réels (ex : Second Life, World of Warcraft, …) ; • et troisièmement, la fibre optique n’atténue pas le signal en fonction de la distance de l’abonné au DSLAM. Ce signal n’est pas non plus perturbé par l’ensemble des appareils électroniques ou les lignes environnantes, contrairement au DSL. pourrait dès lors paraître surprenant pour un ISP de vouloir stopper ou « cannibaliser » cette source de revenus par l’apparition de services voisins reposant sur une autre technologie. Ensuite, les investissements nécessaires à l’installation d’un réseau en fibre (CAPEX, CAPital EXpenditures) sont énormes : il faut creuser des tranchées en ville, installer des câbles, fermer les tranchées, etc. Et aujourd’hui, un ISP ne peut pas toujours utiliser le réseau de son concurrent. De plus, la construction de ce type de réseau impose des accords entre bailleurs d’immeubles et ISP pour installer la fibre jusqu’à l’appartement, ce qui ajoute encore à la complexité de la tâche. Et puis il faut évidemment apporter le contenu à l’abonné en contractualisant avec les chaînes de télévision et les éditeurs. Pour un nouvel entrant sur le marché français, l’ensemble de ces accords est particulièrement coûteux par rapport à ce qu’il est possible de facturer à l’abonné. Il faut aussi créer des services différenciants par rapport à ceux mis à disposition à travers le réseau DSL (TV HD, IP TV, jeux en réseaux, …). Des réseaux en fibre optique ont fait leur apparition en France ces dernières années, souvent à l’état expérimental. La ville de Pau a construit son propre réseau grâce notamment à AXIONE (filiale de Bouygues) et lancé des services THD grâce à Mediafibre, l’ISP local. Erenis et Citéfibre ont aussi créé leurs réseaux dans des quartiers parisiens. Ces trois sociétés ont progressivement conquis respectivement de l’ordre de 3000, 10000 et 500 abonnés, des chiffres évidemment peu comparables aux bases installées des ISP Orange (plus de 6 M), Free (2,3 M) ou Neuf Cegetel (2,2 M). Il est à noter que Noos dispose aussi d’un réseau hybride fibre optique / câble coaxial (technologie HFC). L’avenir du THD fixe en France dépend donc des investissements que seront capables de lever les ISP pour créer un réseau, faire monter en compétences leurs équipes, créer des services différenciants par rapport à ceux mis à disposition à travers les réseaux DSL. Il faut aussi qu’un acteur du marché suffisamment crédible se lance dans l’aventure. Free l’a fait au mois de septembre 2006 en communiquant sur un investissement d’1 milliard d’euros d’ici 2012 et un service disponible courant 2007. Cet effet d’annonce a été peu accueilli par le marché boursier, mais a généré un mouvement de fond : Neuf Cegetel a racheté Mediafibre et Erenis, et Orange a prévu de commercialiser son service dans une dizaine de ville, dont Paris, Lyon et Toulouse cette année. Devant l’intérêt des services proposés par le Très Haut Débit, deux questions viennent naturellement : « pourquoi le THD n’a-t-il pas envahi le marché français ? » et « quel est son avenir en France ? ». Quelques éléments de réponse, pour la partie Très Haut Débit fixe (fibre optique), sont décrits plus bas. Pour répondre à la première question, on peut se pencher sur le tableau ci-après, montrant la croissance du nombre d’abonnements Internet Haut Débit. La technologie DSL profite toujours d’un marché en forte croissance. En outre, si l’on considère les opérateurs traditionnels, ces derniers ont rapidement choisi de promouvoir le DSL au lieu de la fibre optique, puisque la technologie DSL s’appuie sur des réseaux en cuivre déjà installés pour la téléphonie fixe. Le modèle économique est donc plus simple et les seuils de rentabilité plus accessibles. Il L’objet de ce numéro est donc de présenter, sous l’étendard du « Très Haut Débit (THD) », les réseaux d’accès, qu’ils soient fixe ou mobile, et d’évoquer si possible leurs potentiel et pérennité respectifs. 8 - THD : la fibre - Les architectures FTTx Marc WATIEZ Promo 1992 [email protected] Après plusieurs postes en R&D à France Télécom (Réseau Intelligent, portabilité des numéros, optimisation de réseaux), Marc est à présent responsable de la planification des réseaux de collecte et d’accès sud-est. Nicolas MARCOUX Promo 2005 [email protected] Nicolas est consultant chez Beijaflore dans la filiale Télécom. Il est actuellement en mission depuis plus d’un an chez France Télécom, dans la division Corporate, où il mène des études d’architectures réseaux pour définir des recommandations destinées à l’ensemble des filiales du Groupe. I l existe plusieurs architectures dans le domaine de la fibre optique pour l’accès résidentiel. Certains d’entre vous ont sûrement entendu ou lu les mots FTTCab, FTTC, FTTB, FTTH, etc. que l’on regroupe bien souvent sous le terme FTTx où x représente une déclinaison d’architecture. Pour comprendre les différentes possibilités, nous pouvons nous poser cette question fondamentale : jusqu’où faut-il amener la fibre optique pour raccorder les clients ? analogie avec la boucle locale d’accès cuivre qui arrive jusqu’à notre maison ou appartement. Ainsi pour la fibre optique nous pouvons appliquer le même raisonnement et donc supposer que l’on pourrait l’avoir jusqu’à notre domicile. Mais à la différence de la boucle locale cuivre qui est déjà en place, tout est à construire pour la fibre optique ! Ainsi, ceci se traduit par d’énormes investissements dont une grande partie par du génie civil. C’est ce critère économique qui explique en partie l’existence des déclinaisons des architectures d’accès optique présentées dans le schéma ci-dessous. Pour y répondre, une possibilité évidente est de faire une Figure 1 : les architectures FTTx 9 - THD : la fibre FTTH (Fibre-to-the-Home) : la fibre optique arrive jusqu’au domicile du client comme la prise téléphonique classique RTC. FTTB (Fibre-to-the-Building) : la fibre optique arrive dans l’immeuble, les clients sont ensuite raccordés en technologie xDSL avec les paires de cuivre classiques ou bien en Ethernet avec des paires torsadées (RJ45) comme celles utilisées pour connecter les PC aux LAN d’une entreprise. FTTC (Fibre-to-the-Curb) : la fibre optique arrive « au trottoir » sur lequel est installé un « mini-DSLAM » très proche des clients (<300m). FTTCab (Fibre-to-the-Cabinet) : la fibre arrive jusqu’au sous-répartiteur dans lequel est installé un DSLAM (>300m). Des débits possibles résultera également l’offre de service que pourra développer l’opérateur. La mise en œuvre Il y aura toujours des problématiques de génie civil quelles que soient les architectures utilisées mais le degré de complexité variera en fonction de celle employée. En effet, plus la fibre sera proche du client, plus les difficultés de mise en œuvre seront importantes. Par exemple, pour poser les fibres, il faudra, dans le cas du FTTC, demander l’accord aux mairies ou aux collectivités locales et dans le cas du FTTH, une autorisation sera également demandée aux syndics des immeubles. Les opérateurs devront prendre en considération ces trois critères dans leur choix d’architecture. Cela dépendra également de la stratégie de services (double canal TV-HD, VoD, Internet, partage, etc.) qu’ils souhaitent développer. Comparaison des FTTx Quelle est la meilleure architecture ? Difficile d’y répondre étant donné qu’une architecture peut être la plus appropriée pour un certain opérateur compte tenu de son contexte (capacité d’investissement, réseau actuel, stratégie, etc.) et non valable pour un autre… Néanmoins, pour bien comprendre les différences, nous allons les comparer sur trois critères principaux qui sont les coûts, le débit et les difficultés de mise en œuvre. Sur le marché français, plusieurs acteurs se sont déjà techniquement positionnés, comme résumé dans la figure ci-jointe. Les uns en FTTB ou FTTLA (avec terminaison finale en coaxial ou cuivre), les autres en FTTH, soit en point à point soit en PON. C’est la famille FTTH que nous allons regarder plus particulièrement dans la suite, puisque choisie par les principaux acteurs en France (Deutsche Telekom et Belgacom, eux, ont choisi le FTTC). Les coûts C’est évidemment dans cet ordre : FTTCab, FTTC, FTTB, et FTTH que les coûts augmentent. Ils sont majoritairement composés par les coûts de génie civil. Néanmoins, ils peuvent être fortement diminués en réutilisant par exemple les égoûts ou plus généralement toute conduite souterraine existante. Le débit Nous pouvons distinguer le cas tout optique (FTTH) et le cas combiné optique plus autre accès (FTTCab, FTTC, FTTB). Pour le premier, nous savons que la fibre optique est désormais un support largement utilisé par les opérateurs et qui offre des débits très supérieurs par rapport aux autres supports de transmission classique. De plus, le gros avantage est de pouvoir dans le futur exploiter des technologies comme le C-WDM (multiplexage des longueurs d’ondes) pour faire face aux besoins de croissance des débits. Pour le second, le goulot d’étranglement sera forcément la technologie tiers pour raccorder le client. En effet, les technologies actuelles sur support cuivre (xDSL) ou paires torsadées (Ethernet) n’atteignent pas les mêmes performances que la fibre optique. Le réseau peut être organisé selon une topologie en point à point ou en point à multipoint : dans le premier cas, une fibre ou paire de fibres est dédiée à chaque client final dans le réseau d’accès. L’architecture pourra être soit passive soit active, respectivement sans ou avec des équipements intermédiaires (switch Ethernet, DSLAM déporté, ONU) avec de l’électronique active nécessitant une alimentation électrique. 10 - THD : la fibre FTTH en point à point plusieurs maisons/immeubles d’où des économies en investissements ou CAPEX (CAPital EXpenditures) notamment par rapport à une architecture en fibre directe point à point (il faut tout de même acheter les équipements actifs) - les charges ou OPEX (OPerational EXpenditures) sont plus élevées que dans des architectures passives (alimentation et exploitation des éléments actifs) - l’intelligence dans l’élément actif permet de partager de manière flexible la bande passante aux clients jusque 100 Mbit/s, et de mutualiser les trafics de type chaînes TV jusqu’au nœud distant - plus simple à déployer avec une seule fibre pour toute la boucle - complexité technique de la solution du fait notamment de l’exploitation de milliers d’équipements actifs dans les armoires de rue ou en sous-sol (ex. de Fastweb en Italie) - boucle non dégroupable (puisque tous les clients en zone arrière lui sont rattachés) a) AOEN (shared Active Optical Ethernet Network) Dans ce cas, un switch Ethernet, élément actif intelligent, est utilisé entre le central et le client final. L’architecture peut être en étoile ou en boucle. Dans le cas de l’étoile, une fibre est dédiée à chaque client final jusqu’au nœud distant, qui agrège le trafic de sa zone arrière et le remonte en fibre directe jusqu’au central. Dans le cas de la boucle, le switch Ethernet fait partie de la boucle qui est connectée au central, il n’y a donc pas de fibre dédiée entre les deux. Note : la topologie en anneau sera a priori plus adaptée à des architecture de type FTTB et pour des zones denses. b) en fibre directe L’architecture de raccordement est très simple : chaque maison/appartement est directement relié au central par sa propre fibre, entre l’OLT côté central et l’ONT (Optical Network Termination) côté client qui termine la liaison optique. Côté central, l’OLT (Optical Line Terminal) est une unité de raccordement optique multiplexant plusieurs clients. Les ONU (Optical Network Unit) sont des équipements actifs situés sur le trottoir (FTTC) ou en pied d’immeuble (FTTB), avec terminaison en fibre ou en cuivre, ils insèrent ou extraient les informations qui les concernent, la coordination de l’ensemble étant assurée par des mécanismes anticollisions. Les ONT (Optical Network Termination) finissent la liaison optique chez le client. Avantages et inconvénients - solution la plus coûteuse en termes de CAPEX (une fibre dédiée par client jusqu’au central, coûts fibre et génie civil) - OPEX limitées du fait de l’absence d’équipements actifs à l’accès (moins de pannes, aussi) - augmentation de capacité virtuellement sans limite, contrôle de la bande passante de chaque client possible depuis le central - dégroupage facilité car pas de mutualisation de fibre ni de point de concentration Avantages et inconvénients - la plus grande partie de la fibre est mutualisée pour 11 - THD : la fibre FTTH point à multipoint (PON, shared Passive Optical Network) L’architecture est dans ce cas arborescente avec des coupleurs optiques passifs intercalés dans le réseau d’accès, partage de la même tête d’émission/réception au central, et en partie de la même fibre. (il faut tout de même acheter les coupleurs) - OPEX limitées du fait de l’absence d’équipements actifs à l’accès (moins de pannes, aussi) - bande passante partagée d’où pas 100 Mbit/s pour chacun tout le temps - la bande passante est partagée entre 64 clients au plus jusque 100 Mbit/s - pas de mutualisation des flux TV broadcastés - dégroupable si couplage avec technologie CWDM (chaque opérateur pouvant alors se voir attribuer sa propre paire de longueurs d’onde, une pour chaque sens de transmission) Depuis 2005, en Europe, c’est la solution PON qui est la plus choisie. Il faut cependant savoir que la « famille PON » se subdivise entre APON (ATM Passive Optical Network), BPON (Broadband PON), EPON (Ethernet PON), GPON (Gigabit capable PON) selon le protocole utilisé, avec différentes bandes passantes pour le client final… Les principales caractéristiques de ces variantes sont décrites dans le tableau ci-après. Les coupleurs ont pour rôle de partager l’énergie lumineuse en plusieurs parties égales sans modifier le signal. Le partage du support s’effectue par multiplexage temporel (TDM pour le sens descendant, comme dans le réseau téléphonique, TDMA dans le sens remontant, comme en GSM). La division du signal optique introduit des pertes optiques qui font qu’il n’est pas possible de mettre trop de coupleurs en cascade (typiquement un à deux étages). Mais d’autres évolutions sont évidemment à prévoir. Depuis 2005, un groupe de travail a été créé sur NGA (nouvelle génération d’accès) au FSAN (Full Service Access Network, forum de standardisation des technos BPON et GPON) pour répondre à des besoins en débit plus importants, pour des clients plus éloignés du central, et plus éloignés les uns des autres. Le NGA offrirait 10Gbit/s dans le sens descendant, au moins 2,5Gbit/s dans le sens remontant, voire le double, et augmenterait les possibilités d’éloignement du central… Avantages et inconvénients - une grande partie de la fibre est mutualisée 32 à 64 client finaux d’où des économies en CAPEX notamment par rapport à une architecture en fibre directe point à point * GEM est une variante de GFP (Generic Framing Procedure) assez proche du monde SDH (Synchronous Digital Hierarchy) 12 - THD : la fibre - Le point de vue de la région Bretagne… Thomas RENAULT [email protected] Thomas Renault est en charge de la mission développement numérique régional au Conseil régional de Bretagne. «Le très haut débit est un objectif du Conseil régional de Bretagne. En effet, le Président l’a affirmé : en 2012 tous les Bretons devront avoir accès au très haut débit. Cette ambition, unique pour une région française, est le fer de lance d’une nouvelle politique numérique régionale appelée Bretagne 2.0 et votée à l’unanimité en décembre 2006 par le Conseil régional de Bretagne. tion). Il s’agit aussi de développer le potentiel numérique du territoire, les usages publics d’Internet et une administration régionale qui montre l’exemple. Pour atteindre l’objectif du très haut débit, différents projets sont en cours : - organisation de groupes de travail avec les principales collectivités régionales concernées sur la mutualisation du génie civil, le dialogue avec les opérateurs, le traitement des zones blanches, l’évolution de Megalis... - mobilisation de fonds publics dans le cadre du CPER et des programmes opérationnels européens. - expérimentations : opticalisation du réseau cuivre, techniques de pose de fibre en aérien, technologie hertzienne... Six grandes orientations sont proposées dans Bretagne 2.0 : une Bretagne numérique pour tous (une couverture totale du territoire à court terme et une promotion des usages auprès du grand public, des entreprises…), une Bretagne de la connaissance (avec la connexion des lycées au très haut débit, par exemple), une Bretagne laboratoire de l’ultra haut débit (création d’un réseau de recherche régional sur l’ultra haut débit et de plates-formes d’expérimenta- … et la stratégie de la métropole brestoise Hubert LE SECH Promo 94 [email protected] Hubert est responsable de la division «éclairage public, signalisation lumineuse et réseaux de télécommunications» à Brest métropole océane. Il a occupé auparavant différentes positions d’ingénieur offres et d’ingénieur d’affaires chez Alcatel. Contact. Brest métropole océane s’est saisi il y a quelques années du sujet de l’aménagement numérique de son territoire en développant son réseau métropolitain à haut débit. La construction de ce réseau a débuté en 2001. A ce jour, il dessert les différents établissements municipaux et communautaires, les établissements d’enseignement supérieur et de recherche, les centraux téléphoniques brestois, les points d’accès métropolitains au réseau régional haut débit Mégalis ainsi que les pépinières d’entreprises du Technopôle Brest Iroise. Cette infrastructure optique d’initiative publique est aujourd’hui utilisée par les opérateurs de télécommunications pour déployer leurs réseaux et offrir leurs services aux particuliers et entreprises brestoises. Elle permet également de raccorder à très haut débit l’ensemble des éta- blissements d’enseignement supérieur et de recherche au réseau régional Mégalis. En 2006, Brest métropole océane a décidé d’étendre son réseau, ce qui va permettre d’ici 2008 de l’étendre à toutes les communes de Brest métropole océane ainsi que de desservir les principaux centres hospitaliers de Brest métropole océane. Ce réseau métropolitain est actuellement le véritable outil d’aménagement numérique de Brest métropole océane pour le haut débit. Aujourd’hui, les enjeux de l’aménagement numérique du territoire se déplacent sur le terrain du Très Haut Débit. La problèmatique du Très Haut Débit, pour Brest métropole océane, est analogue à celle du haut débit : les opérateurs déploieront prioritairement dans les zones renta- 13 - THD : la fibre bles et où les conditions de déploiement seront facilitées. L’intervention de la collectivité est donc, à nouveau, déterminante pour attirer les opérateurs pour développer la compétitivité et l’attractivité du territoire. Le nerf de la guerre pour le Très Haut Débit, ce sont les fourreaux qui représentent environ 75% du coût de déploiement d’un réseau Très Haut Débit de type FTTH. Brest métropole océane considère donc que développer et optimiser son potentiel de fourreaux est essentiel. Pour celà, l’objectif est de développer progressivement et systèmatiquement sur Brest métropole océane une infrastruc- ture, notamment de fourreaux ou «réseaux souples», pour le Très Haut Débit lors de toutes les opérations d’aménagement de zones économiques et résidentielles ainsi que lors de toutes les interventions sur le domaine public qui le permettent. C’est dans ce sens que Brest métropole océane a décidé d’adapter son organisation interne en regroupant, dans une même division, les activités liées aux «réseaux souples» afin de mettre en oeuvre cette stratégie qui permettra de développer le potentiel numérique de son territoire afin de favoriser le déploiement du Très Haut Débit sur son territoire. Problématique de déploiement : cas de France Télécom Alexandre RIBEIL Promo Mas. 2003 [email protected] Après son mastère spécialisé communication optique, Alexandre a intégré France Telecom R&D pour travailler sur les réseaux d’accès optiques : il a commencé par la transmission puis l’architecture organique et enfin l’architecture fonctionnelle. L ’enjeu principal est le développement de nouveaux services pour exploiter au mieux la bande passante disponible. Concernant la partie réseau, l’objectif de France Télécom est dans la mesure du possible de déployer la fibre optique jusqu’à l’abonné en limitant le génie civil. Pour cela, plusieurs moyens sont mis en œuvre : la réutilisation des conduites existantes et l’utilisation d’un support partagé type PON (Passive Optical Network) en sont les principaux. Le PON est une infrastructure passive, c’est-àdire sans électronique entre central et client, avec partage des fibres issues du central entre plusieurs terminaisons clients (partage passif par un ou plusieurs étages de coupleurs). volume de fibres, 1 ou 16. Du point de vue architecture fonctionnelle, 1 VLAN (Virtual LAN) par service est partagé par l’ensemble des clients raccordés en zone arrière de l’équipement côté central, l’OLT (Optical Line Termination). Celui-ci joue donc le rôle de switch et, en fonction notamment de l’adresse MAC, va aiguiller les flux vers les ports id (port GEM). Du point de vue du câblage dans l’immeuble, pour amener la fibre chez le client résidentiel, un document normatif est actuellement en cours de rédaction pour définir ce que devra être le câblage optique dans les nouveaux immeubles. L’objectif de France Télécom est de pouvoir mutualiser au maximum les infrastructures des différents opérateurs dans les parties communes des immeubles pour ne pas avoir à y ré-intervenir et minimiser ainsi les dérangements induits. Le câblage optique est défini du pied d’immeuble jusqu’à l’entrée chez le client, avec ou sans point de coupure. Pour le dimensionnement d’un réseau le facteur le plus important est celui du nombre de foyers multiplié par le taux de pénétration. A partir de ce nombre il est possible de déterminer le nombre de câbles nécessaires, le dimensionnement de la matrice de brassage des équipements centre et du lien collecte. Comme illustré dans la figure ci-joint, le réseau est constitué par un seul arbre PON, hiérarchisé, et il est possible d’obtenir un taux de pénétration variable en fonction de la politique de pré déploiement du réseau. Par exemple sur une zone de 16 foyers, on peut cibler un taux de pénétration de 100% au niveau du transport ou au niveau de la partie terminale, cela ne représente pas le même 14 - THD : la fibre - La fibre aux entreprises Charlotte RAJAOFERA Promo 2005 [email protected] Charlotte est consultante senior chez Greenwich Consulting, cabinet de conseil en stratégie et management des télécommunications et média. Après une année Jeune Ingénieur chez Siemens en tant qu’ingénieur radio et un rapide passage en audit financier chez PriceWaterhouseCoopers, elle a rejoint Greenwich Consulting en novembre 2005 où elle intervient sur des problématiques variées (stratégie, marketing, organisation, CRM, etc.). Elle a notamment pu participer au lancement d’un pilote FTTH. Hubert REYNIER Promo 1991 [email protected] A sa sortie de l’ENST Bretagne, Hubert a travaillé chez Arthur Andersen (deux ans) comme auditeur puis chez Ascom (trois ans) comme directeur de projets internationaux, avant d’intégrer le MBA de la Yale School of Management. En 1997, il a rejoint Ernst & Young Conseil, racheté en 2000 par Cap Gemini. Il fonde en 2001, avec trois autres associés, Greenwich Consulting, cabinet leader en Europe du conseil en stratégie et management des télécommunications et média. En 2006 et 2007, il lance les activités de conseil en banque et assurance (WIGHT Consulting) et en commerce et distribution (Lennox Consulting) du Groupe Greenwich. L a fibre optique est déjà une réalité dans de nombreux pays. Au Japon et en Corée, par exemple, les marchés résidentiels comptabilisent environ huit millions de clients, notamment grâce au déploiement des technologies FTTx. La principale raison de ce fort développement est le caractère très concentré de la population de ces 2 pays. En effet, l’essentiel des investissements liés au déploiement de ces technologies réside dans le coût de raccordement des immeubles, donc plus la concentration urbaine est importante, plus l’investissement est amorti. En Corée, par exemple, près de la moitié de la population est concentrée dans de grands immeubles verticaux de grandes agglomérations. En France, la situation est singulièrement différente car ce sont principalement les opérateurs privés qui prennent en charge l’installation du réseau en fibre optique avec des investissements prévus de l’ordre du milliard d’euros par opérateur pour, dans un premier temps, couvrir les grandes villes (~25% de la population). Pour des raisons de rentabilité économique des offres, il est plus que probable que les entreprises ne puissent bénéficier d’accès FTTH dans des zones non couvertes par le plan de déploiement des offres résidentielles : dans un premier temps, les entreprises raccordées seront situées dans les zones urbaines et périurbaines. Quatre opérateurs se sont positionnés : Orange et ses concurrents Free, Neuf Telecom et Noos Numéricâble. Ces acteurs se sont déjà lancés dans une course au déploiement, l’objectif commun étant de raccorder le plus vite les clients les plus rentables, à savoir ceux situés dans les zones très denses (les grandes villes et leur périphérie). Le marché de la fibre pour les entreprises sera donc fortement lié à celui du marché résidentiel. En Europe, le marché le plus avancé est sans conteste la Suède, affichant un taux de 56% de population raccordable et 650000 abonnés : un succès particulièrement dû à l’organisation de la fibre optique dans le pays, mise en place par les autorités locales en tant que réseaux municipaux. 15 - THD : la fibre Quels avantages pour les entreprises ? Baisse des prix, montée en débit, nouveaux services, nouvelles offres ? les entreprises est de bénéficier d’accès très haut débit, de l’ordre de 50 à 100 Mbits/s, à un rapport prix / débit très avantageux par rapport aux accès DSL. Quels sont les enjeux et objectifs auxquels vont être confrontés les opérateurs ? L’arrivée de la fibre comme nouvelle technologie d’accès devrait avoir de nombreux apports pour les entreprises : sur la data tout d’abord, ces accès aux débits supérieurs à 50 ou 100 Mbits/s faciliteront et sécuriseront le transport des flux critiques pour les entreprises : interconnexion de sites distants, applications métier… Ils devraient également favoriser l’essor de nouvelles applications professionnelles, fortement consommatrices de bande passante comme la vidéosurveillance ou les services de vidéoconférence. Avec le FTTH, les opérateurs sont confrontés à deux enjeux majeurs : d’un côté, la remise en question des barrières traditionnelles entre le marché des professionnels et le marché des entreprises, de l’autre la protection de la valeur globale du marché. Les opérateurs télécoms ont récemment annoncé le lancement d’offres résidentielles. Les performances de la fibre optique vont également leur permettre de proposer, à un prix très concurrentiel, des offres aux professionnels (sociétés de moins de neufs salariés). En intégrant par exemple 4 à 8 lignes de téléphonie sur IP, ces nouvelles offres créent un risque de descente en gamme des offres ADSL entreprise et donc de cannibalisation d’une partie des revenus. De même, la fiabilité du FTTH peut inciter une partie des entreprises à opter pour des offres n’incluant plus de GTR (Garantie de Temps de Rétablissement), mais aussi à accélérer leur migration du RTC vers le tout IP, détruisant au passage de la valeur sur le trafic et les usages. Sur la téléphonie également, le formidable gain en débit et la fiabilité accrue de la fibre par rapport au cuivre devraient permettre de sécuriser le transport de la VoIP. Sur ce dernier aspect, les opérateurs pourront à terme proposer de nouvelles offres de VoIP, intégrant sur un seul accès fibre plusieurs centaines de lignes téléphoniques avec une qualité de service (QoS) supérieure au réseau voix traditionnel. Concernant l’évolution des offres destinées aux entreprises, il est encore trop tôt pour se prononcer, les premières offres du marché restant pour l’instant à l’état d’annonce. Toutefois, si l’on se penche sur les pays les plus avancés en la matière, on observe que la banalisation de la fibre dans les offres Triple Play n’a pas induit de véritable rupture dans les offres du marché Entreprise. Le principal intérêt pour Le principal défi posé aux opérateurs sur le marché des entreprises est donc de réussir le lancement d’offres FTTH tout en protégeant les revenus de leur cœur de gamme. La pression devrait être forte sur les prix du SDSL comme sur Les offres Très Haut Débit pour les particuliers annoncées par les opérateurs français Il n’y a pas encore de lancement annoncé d’offres de fibre à destination des entreprises. Les opérateurs qui se lanceront sur ce marché devront composer avec les options technologiques déjà prises et une cohérence tarifaire avec les offres résidentielles à venir 16 - THD : la fibre la GTR, composante des offres avec débit symétrique et principal générateur de valeur. Il faudra aux acteurs traditionnels proposer une approche innovante pour positionner subtilement le FTTH par rapport aux gammes actuelles, principalement axées sur le couple prix / débit. Quelles que soient les nouvelles orientations choisies, l’objectif des opérateurs sera de rentabiliser la mise en œuvre coûteuse des équipements sans détruire de la valeur. Les opérateurs déjà positionnés pourraient par exemple pousser de nouveaux services ou de nouvelles briques applicatives. Cependant l’évolution la plus intéressante est attendue du côté de Free, dans l’obligation d’amortir ses investissements. Loin de son positionnement d’origine, la filiale d’Iliad pourrait attaquer le marché des entreprises et ainsi bousculer les positionnements concurrentiels. L’opérateur devra au préalable maîtriser les processus garantissant la GTR et construire un réseau de distribution. Pour acquérir ces compétences, Free pourrait lancer des partenariats avec des challengers du marché, comme Colt ou Completel, ou adresser le marché avec des offres de gros. cipaux opérateurs, FAI, constructeurs, chaînes de télévision... Greenwich couvre les principaux marchés européens grâce à ses onze bureaux : Paris, Bruxelles, Amsterdam, Lisbonne, Düsseldorf, Munich, Madrid, Milan, Londres, Berne et Stockholm. Greenwich Consulting est aujourd’hui l’un des leaders du conseil Télécoms et Médias. ______________________________________ Fondé en 2001, Greenwich Consulting est un cabinet de conseil spécialisé en Stratégie et Management dans les secteurs des Télécoms et Médias, notamment auprès des prin- Pour en savoir plus : http://www.greenwich-consulting.com VDSL : 100 mégabits sur ligne téléphonique ? Bernard DEBBASCH Promo 1983 [email protected] Bernard est maintenant CEO de Vitendo Systems, Inc., une start-up basée en Californie qu’il a créée en 2005. Il était auparavant VP/GM du groupe VDSL à Conexant (précédemment GlobespanVirata) aux USA. Un peu d’histoire La vraie réponse est liée au fait que les lignes téléphoniques enterrées depuis parfois des décennies ont une réponse en fréquence bien plus élevée que le 300-3400 Hz qui est nécessaire pour acheminer une conversation vocale. Peu d’entre vous, sans doute, se souviennent des modems à coupleurs acoustiques qui permettaient un accès à distance à 300 bps sur ligne téléphonique. Pourtant, c’était la technologie disponible pour le grand public (et les élèves de l’école !) au début des années 80. On parle maintenant de 100 Mbps full-duplex – 300 000 fois plus rapide venant de la même prise téléphonique. Qu’est ce qui a changé ? La réponse est simple : rien ! Cette ressource était, jusqu’à l’avènement des technologies DSL, inutilisée, bien que présente dans chacune des centaines de millions de paires téléphoniques enfouies dans le sol. La figure 1 montre l’atténuation d’une paire 17 - THD : le cuivre téléphonique en cuivre de 0,4 mm de diamètre en fonction de la fréquence. Il est clairement visible que la bande passante disponible va bien au delà des 4 kHz utilisés par la voix et les modems analogiques. Malgré la forte atténuation, quelques mégahertz de bande passante sont encore disponibles à une distance de plusieurs centaines de mètres. téléphonique est autorisé à transmettre et d’autres dans lesquelles il peut recevoir. La règle inverse est appliquée du côté utilisateur. Les plans de fréquence existants sont compatible avec ADSL et ADSL2 et répartissent le spectre de telle sorte que priorité soit donnée au flux descendant (plan 998) ou essayent d’avoir une répartition plus symétrique des flux montant et descendant (plan 997). La partie noble du spectre (fréquences basses) est évidemment la plus convoitée, dû au fait qu’elle permet de couvrir de plus longues distances. La figure 2 montre la répartition entre les différent flux jusqu’à 12 MHz (note : les plans ont maintenant été étendus pour inclure les fréquences jusqu’à 30 MHz). Bataille pour un standard C’est un peu le sentiment que les participants à l’effort de standardisation des technologies VDSL ont ressenti durant les quelques années passées à essayer de trouver un compris entre deux technologies radicalement différentes. Le problème à résoudre était de savoir comment utiliser les bandes de fréquences définies plus haut. Les deux protagonistes étaient DMT et QAM mais les deux camps se reconnaissaient comme supporter de la « porteuse unique » pour QAM ou supporter des « porteuses multiples » pour DMT. Les défenseurs de la porteuse unique se proposaient de moduler une seule fréquence par bande avec un signal large bande. Seules deux porteuses seraient nécessaires par sens de transmission. Le camp des porteuses multiples proposait d’étendre à VDSL la technique utilisée pour ADSL : le spectre à couvrir est séparé en sous-porteuses de 4,3125 kHz de large. Il faut donc 2782 porteuses (en pratique 4096) pour couvrir 12 MHz de bande passante. Les avantages sont multiples : chaque sous-porteuse peut être indépendamment activée ou non, la puissance d’émission – densité spectrale - ajustée pour chaque sous-porteuse et la quantité d’information transmise adaptée en fonction de la qualité du signal dans chaque sous-bande. La complexité apparente de cette technique est réduite par l’utilisation de modules FFT et IFFT qui, de nos jours, peuvent être implémentés facilement dans des circuits spécialisés. Figure 1 : atténuation (paire de 0,4 mm) Bien que l’implication du terme VDSL soit tournée vers la vitesse de transfert (« Very High Speed DSL »), le terme englobe en fait l’ensemble des techniques DSL à large bande utilisant le spectre de fréquence au-delà des 1 ou 2 MHz utilisés par les standards ADSL et ADSL2. Les plans de fréquence De la même manière que les réseaux de radio coordonnent leurs fréquences d’émission et de réception, les déploiements DSL doivent eux aussi respecter certaines contraintes. Il est facile d’imaginer qu’il faut éviter que dans un central téléphonique, certaines lignes transmettent, à forte puissance, sur une plage de fréquence sur laquelle d’autres lignes essayent de recevoir un signal qui est presque dans le bruit. Le spectre de fréquence est donc divisé en bandes de fréquence dans lesquelles le central Figure 2 : plans de fréquence 18 - THD : le cuivre Au final, la décision de choisir la technologie DMT a été influencée par un groupe de pression inattendu : les radioamateurs. En effet, les radioamateurs ont convaincu les différents organismes de standardisation de limiter la puissance d’émission des modems VDSL dans les bandes ondes courtes qu’ils utilisent afin d’éviter de brouiller et désensibiliser leurs récepteurs. Ils obtinrent donc une réduction d‘au moins 20 dB de la densité spectrale dans les bandes amateurs. La technologie DMT, de par sa propriété de pouvoir ajuster chaque sous-porteuse indépendamment, était la réponse idéale à ce problème. Ce résultat a été démontré dans des « Jeux Olympiques VDSL » où s’affrontèrent quatre fournisseurs de chips pour VDSL, deux du camp DMT et deux du camp QAM, les juges étant deux laboratoires de tests indépendants. Finalement, le fait qu’ADSL, ADSL2 et maintenant VDSL utilisent des modulations très similaires, permet d’avoir des produits multi-modes qui s’adaptent à l’évolution des réseaux et services. des opérateurs consistait à offrir des vitesses de plus en plus élevées, que de moins en moins de clients pouvaient atteindre. Ces déploiements étaient, en général, faits à partir des centraux téléphoniques et étaient donc limités en performance par la longueur de la boucle locale. Ces dernières années, des déploiements plus rationnels et mieux planifiés ont vu le jour, en particulier en Europe et aux Etats-Unis. Le but de ces déploiements est d’offrir un service donné (par exemple 25-30 Mbps à 1000 mètres) et d’assurer que tous les clients desservis soient capable de recevoir ce service 24 heures sur 24. Lorsque la vitesse de connexion est garantie, il est facile aux opérateurs d’offrir une offre étendue de services qui inclut en général la diffusion de programmes de télévision sur IPTV. Le support VDSL permet d’offrir dans ce cas deux canaux en définition normale plus un canal en haute définition, ainsi que des services de téléphonie sur IP et de connexion à Internet. C’est la voie qu’a choisi AT&T aux USA pour son projet LightSpeed qui vise à entrer en compétition directe avec les opérateurs de réseaux câblés. Performance Finalement, il est important de noter que VDSL devient un partenaire de la fibre optique au lieu d’être son ennemi comme cela est souvent décrit. L’utilisation des lignes téléphoniques existantes ne nécessite plus que la fibre aille dans chaque maison ou appartement (FTTH) ce qui est, en pratique, rarement réalisable. Les fibres peuvent être amenées à un point de concentration suffisamment proche des logements pour que la partie finale de la liaison soit réalisée sur les paires téléphoniques existantes, en VDSL, et sans perte de débit. C’est la rationalisation des projets FTTN - fibre jusqu’à un nœud de raccordement. La question de la performance d’une liaison VDSL (ou même ADSL) reste souvent sans réponse précise. La principale raison est qu’une certaine vitesse à une distance donnée n’a de sens que si tous les autres paramètres sont spécifiés. Une des limitations principales de toute liaison DSL est le couplage entre paires (« crosstalk »). Ce couplage augmente avec la distance et la fréquence et est donc défavorable aux techniques VDSL. Il est donc important de quantifier combien de liaisons DSL et de quels types seront activées dans le même câble. D’autres paramètres comme le diamètre du cuivre, la présence ou non de discontinuités au niveau de la ligne (passage d’un diamètre à un autre) – parmi bien d’autres - influencent la performance réelle d’une liaison VDSL. Au final, il est clair que même si les fournisseurs de circuits pour VDSL ont démontré des vitesses de 100 Mbps, au delà d’une centaine de mètres de ligne téléphonique très peu de clients verront plus de 50 Mbps lors d’un déploiement sur le terrain. Glossaire Bps DMT DSL IFFT IP IPTV FFT FTTH FTTN Mbps QAM VDSL Applications Il y a en gros deux stratégies pour le déploiement de VDSL. La première stratégie est ce que l’on pourrait appeler le déploiement « sauvage », surtout pratiqué en Asie (Corée et Japon) au début des années 2000. La stratégie 19 : : : : : : : : : : : : Bits par seconde Discrete Multi Tone Digital Subscriber Line Inverse FFT Internet Protocol IP Television Fast Fourrier Transform Fiber To The Home Fiber To The Node Mégabits par seconde Quadrature Amplitude Modulation Very High Speed DSL - Plein Phare - Ouverture du Campus Telecom Bretagne dans Second Life PDT : heure officielle de Second Life Le lundi 25 juin, l’ENST Bretagne a ouvert son campus dans Second Life, avec une journée dédiée à l’événement et dont le programme était le suivant : Heure de Brest Événement Heure PDT 10h00 11h00 et 15h00 Ouverture du site « Pourquoi l’ENST Bretagne dans Second Life ? » par André Chomette, directeur (en direct) Feu d’artifice Conférence de Gwendal Simon sur le Web 2.0 Complétez votre garde-robe avec un T-shirt Telecom Bretagne : distribution gratuite Cocktail sur la plage comme dans la vraie vie car le campus est également au bord de la mer Espace danse animé par les étudiants Concert en direct avec un DJ 1:00 am 2:00 am et 6:00 am 11h15 et 15h15 11h30 et 15h30 12h00 et 16h00 16h30 17h00 21h00 2:15 am et 6:00 am 2:30 am et 6:30 am 3:00 am et 7:00 am 7:30 am 8:00 am 12:00 am Second Life (http://www.secondlife.com/) est une simulation sociétale virtuelle, permettant de vivre une «seconde vie» sous la forme d’un avatar dans un univers persistant géré par les joueurs. Actuellement, plusieurs millions de joueurs résident déjà dans l’univers de Second Life. L’aspect social est prédominant dans ce jeu et contrairement à d’autres jeux massivement multijoueurs, il n’y a pas de quêtes, pas de combats contre l’environnement... L’Ecole est ainsi la première école d’ingénieur française à ouvrir un site dans ce nouvel univers ; son île, encore en travaux, est située sur le campus européen, à côté de l’université d’Oxford ; vous pouvez y croiser des élèves ou des membres du personnel (attention, coup de vieux garanti quand on croise un élève promo... 2009 !). Pour vous y rendre, téléchargez le client SL (Second Life pour les avertis) et rendez vous sur l’île (aller dans la map et faire une recherche avec le mot telecom sans accent). NB : avec cet article, vous avez un petit avant-goût d’un thème de notre prochain Phare Ouest… 20 - THD : le sans-fil - Le Wimax, aujourd’hui et demain Damien CHAPON Promo Mas. 2004 [email protected] Damien est architecte réseaux à Orange Labs. Il a occupé auparavant différentes missions d’ingénieur réseaux en tant que consultant. Qu’est ce que le WiMAX ? Fréquence Depuis quelques années, le nombre de connexions haut débit est en forte augmentation. Pourtant, beaucoup - habitant des zones trop éloignées des centraux téléphoniques - n’auront jamais accès à l’ADSL (Asymmetric Digital Subscriber Line). Dans le même temps, le nombre de personnes équipées en Wi-Fi explose mais cette technologie n’offre qu’une couverture de quelques dizaines de mètres ainsi qu’une mobilité réduite. Le WiMAX est déployé en mode FDD (Frequency Division Duplexing) dans sa version fixe et en mode TDD (Time Division Duplexing) dans sa version mobile. L’un des avantages techniques du WiMAX est son interface radio basée sur la modulation SOFDMA (Scalable Orthogonal Frequency Division Multiple Access) qui est suffisamment flexible pour pouvoir être adaptée à différentes largeurs de canal. Le WiMAX (Worldwide Interoperability for Microwave Access) est une solution point-multipoint permettant à la fois de compléter la couverture ADSL tout en offrant la souplesse d’une connexion sans-fil. En effet, cette technologie radio propose une couverture, des débits et la mobilité, qui lui permettent de répondre à un grand nombre d’usages. La question des fréquences est aussi un enjeu politique. A ce jour, les fréquences disponibles en Europe ne sont pas ouvertes à la mobilité. Ce n’est pas le cas des USA ou de certains pays asiatiques, où certains opérateurs envisagent de déployer le WiMAX pour offrir des services mobiles. Sprint a commencé un déploiement sur l’ensemble des USA et KT a ouvert son offre WiBro (variante coréenne du WiMAX) en juin 2006 en Corée. Le WiMAX est basé sur les normes IEEE 802.16 et HiperMAN de l’ ETSI (European Telecommunications Standards Institute). Dans sa version fixe, le WiMAX est décrit dans la norme IEEE 802.16-2004 ratifiée fin 2003. Sa version mobile a été développée dans la norme 802.16e terminée fin 2005. Performance De nombreux articles parus dans la presse au sujet du WiMAX présentaient des performances flatteuses mais souvent erronées au sujet du WiMAX. Le WiMAX forum, créé en 2003, est un consortium composé de constructeurs et d’opérateurs (environ 350 membres à ce jour) dont le but est d’assurer la promotion et l’interopérabilité des équipements WiMAX. Le WiMAX forum définit également l’architecture réseau qui fait du WiMAX l’un des premiers systèmes mobiles IP de bout en bout, le service voix étant fourni par de la VoIP (Voice over Internet Protocol) En effet, la couverture «réelle» du WiMAX dépend fortement de l’environnement dans lequel il est déployé. La portée du WiMAX sera bien plus grande dans le cas d’un déploiement rural, où les utilisateurs sont en vue directe de la station de base, que dans un déploiement urbain où de nombreux obstacles se trouvent entre le récepteur et la station de base. Un autre facteur important est la fréquence utilisée puisque des fréquences plus basses offrent des portées plus grandes. 21 - THD : le sans-fil - • «Hot zone». Dans ce type de déploiement, une zone est couverte en WiMAX (gare, aéroport, …) pour un usage occasionnel. Dans ce cas le WiMAX entre en concurrence avec les «hot spot» Wi-Fi mais a l’avantage d’offrir une plus grande couverture ainsi qu’une plus grande qualité de service ; • déploiement temporaire dans le cas d’événement exceptionnel ou après une catastrophe. Le WiMAX implémente des techniques de codage radio efficaces et permet aussi l’utilisation de techniques MIMO (Multiple Input Multiple Output) qui consistent à utiliser plusieurs antennes en émission et en réception afin d’augmenter les débits. Les premiers produits certifiés WiMAX qui seront disponibles en fin d’année n’auront pas de fonctionnalité MIMO. Les débits proposés par cette première version d’équipement seront d’environ 20 Mbps (sens descendant + sens montant) pour une largeur de bande de 10 MHz à se partager entre les différents utilisateurs. Le futur Les produits certifiés WiMAX mobile ne sont pas encore disponibles alors que les évolutions du WiMAX sont déjà en cours. En effet, l’IEEE (Institute of Electrical and Electronics Engineers) vient de lancer le 802.16m dont le but est d’augmenter l’efficacité de l’interface radio afin d’améliorer la couverture et d’atteindre des débits de 1 Gbps en accès nomadique et de 100 Mbps en mobilité. Samsung a d’ailleurs déjà atteint ces débits lors d’une démonstration dans un bus se déplacant à 60 km/h en utilisant des équipements dotés de pas moins de 8 antennes en émission et en réception. Cas d’usage De par sa conception, le WiMAX peut être utilisé dans de nombreux types de déploiements : • extension de la couverture ADSL. Permettre aux zones blanches d’avoir accès au haut débit ; • service nomadique. L’utilisateur peut se connecter en WiMAX à différents endroits mais il ne peut pas faire de mobilité ; • WiMAX mobile. Peut être vu comme un concurrent au HSPA ou bien comme un complément au HSPA en zone dense. Les applications sont l’internet mobile, la voix étant proposée en VoIP ; Dans le même temps, le 3GPP développe actuellement la technologie LTE (Long Term Evolution) afin de contrer l’initiative du WiMAX forum. Les premiers produits LTE sont attendus pour 2009/2010. Efficacité spectrale (source : WiMAX forum) 22 - THD : le sans-fil - Les réseaux Wi-Fi municipaux Mathieu PORTIER Promo 1995 [email protected] Mathieu est aujourd’hui architecte réseaux chez Naxos, filiale opérateur télécoms de la RATP. Il a occupé auparavant différentes positions de développeur et d’ingénieur réseaux chez Nortel et Noos. Patrick WETTERWALD Promo 1982 [email protected] Patrick est maintenant en charge de la direction des projets et de la stratégie du Centre Technologique Europe de Cisco Systems. Il a occupé auparavant différentes positions de manager engineering chez IBM France et Lucent Technologies Bell Labs en Californie. La maturité du marché et des technologies Mais la liste serait trop longue pour être énumérée ici. Le Wi-Fi est et restera, pour de nombreuses années encore, la technologie d’accès sans-fil aux réseaux informatiques. Les Anglo-Saxons ont inventé un terme qui définit la phase d’enthousiasme qui précède la phase de croissance d’une nouvelle technologie : « Hype ». Cette phase est derrière nous, et nous pouvons maintenant aborder la phase de maturité. Cela fait plusieurs années qu’on nous promet l’eldorado de la mobilité mais ce marché (mobilité IP) n’en finit pas de démarrer. Les technologies sont pourtant là ; l’intérêt des utilisateurs et des constructeurs aussi. Alors que manque t-il ? Sans doute la disponibilité d’un réseau d’accès, gratuit ou presque, avec une bande passante acceptable. Les réseaux municipaux Wi-Fi maillés (meshed) sont un élément de la réponse. Ces réseaux devraient être planifiés et gérés comme les réseaux de distribution d’eau, d’électricité et de gaz ; sans pour autant pousser la similitude jusqu’à l’extrême et les comparer à l’éclairage public ; bien que… Cette idée, d’accès Wi-Fi en tout point d’un territoire, fait son chemin dans les conseils municipaux. Ainsi, beaucoup de villes dans le monde ont franchi le pas et possèdent un réseau Wi-Fi maillé et de nombreux hot-spots. Nous avons aujourd’hui des retours d’expérience de déploiements réels qui permettent de bâtir une meilleure planification et de mieux gérer le niveau d’attente des utilisateurs. Les constructeurs en sont à leur deuxième, voire troisième génération de produit. Et, élément capital et indispensable, plus aucun ordinateur portable dans le monde n’est fabriqué sans une puce Wi-Fi. Sans oublier les capteurs, les étiquettes actives, PDA, MP3, téléphones bi-mode, et autres consoles de jeu… qui intègrent et utilisent cette technologie radio. Quelles sont les technologies mises en œuvre ? Le Wi-Fi désigne l’ensemble des technologies de réseau local de transmission sans-fil (WLAN) spécifiées par l’IEEE 802.11. Il fonctionne dans une bande de fréquences libres (2,4GHz ou 5GHz), qui permet le déploiement sans avoir à acquérir de licence mais avec l’inconvénient que plusieurs émetteurs peuvent interférer entre eux. 23 - THD : le sans-fil Les différents protocoles regroupés sous l’appellation WiFi sont détaillés dans le tableau ci-dessous : Wi-Fi, Mesh, WIMAX, 802.11n, fibre optique, laser sont souvent opposés et leurs mérites respectifs sont vantés comme étant la solution à tout problème technique. Non, ces technologies ne sont pas concurrentes mais plutôt complémentaires. En fonction de l’usage, de la topologie du terrain, de la zone de couverture, de la bande passante et des contraintes de coût, l’étude préliminaire à tout déploiement sérieux déterminera quelle est la technologie à utiliser. L’accès sera souvent en Wi-Fi, le cœur du réseau d’accès en WIMAX, Wi-Fi ou laser. On maillera (mesh), ou pas, en fonction des accès filaires ou fibres existants… Ce qu’il faut retenir, c’est surtout l’aspect multiservice de ces réseaux. Ils sont capables de véhiculer aussi bien la voix que la vidéo, les données ou les informations venant de capteurs environnementaux et donc de satisfaire toutes sortes d’applications. Le support de plusieurs WLAN (Wireless LAN) permet à plusieurs opérateurs de se partager la bande passante sans interagir entre eux. Ces réseaux offrent toutes les garanties de sécurité IP (confidentialité) et de résistance aux attaques involontaires ou frauduleuses. Si l’on parle de déploiement, les nouveaux produits « mesh Wi-Fi », comme le point d’accès outdoor 1500 de Cisco, permettent de réduire considérablement les coûts de déploiement et de fonctionnement. Les liaisons s’effectuent la plupart du temps par radio : finis les coûteux travaux de voirie et les tranchées qui plombent les budgets d’investissement. De plus, ces réseaux offrent des capacités d’autoorganisation, de configuration automatique des nœuds, de réparation automatique, de redondance, qui permettent aussi d’économiser sur les budgets de fonctionnement. Mais tout n’est pas rose pour les développeurs de ces technologies. Ces produits fonctionnent sur des bandes de fréquences « libres ». Tout un chacun peut émettre à sa guise sur ces fréquences (tout en respectant les limites définies par les organismes de régulation des pays concernés, comme l’ARCEP en France). Les interférences radio sont donc nombreuses et chaque produit doit rivaliser d’ingéniosité pour conserver l’intégrité de sa bande passante. En France les puissances d’émission autorisées sont précisées dans le tableau suivant : Les réseaux Wi-Fi, initialement conçus pour du simple partage de ressources informatiques ou d’accès Internet, ont rapidement évolué pour intégrer des mécanismes de contrôle d’accès et de cryptage de la voie radio (802.11i) et prendre en compte les besoins de Qualité de Service (802.11e) afin de répondre à de nouveaux usages. Photo 1 : Cisco Outdoor Wireless AP 1500 24 - THD : le sans-fil qui oblige les villes de grande importance à se doter de capteurs environnementaux. La remontée des données se fait sans coût de communication additionnel. Le suivi des chantiers par les employés municipaux : la possibilité pour les intervenants dans la ville d’échanger rapidement des informations précises et souvent visuelles afin de prendre les bonnes décisions. Les situations de crise (disaster recovery) : les réseaux de ce type ont montré leur capacité à résister aux situations critiques : le dernier à s’écrouler, le premier à remonter. Photo 2 : Cisco Wireless and Mobile router 3200 Les cas de déploiements réels Les applications Existe-t-il une recette miracle de déploiement ? Non ! Les spécificités des régions et la géopolitique ne permettent pas d’élaborer un modèle unique de déploiement et de modèle économique. Il n’existe pas de recette miracle, chaque déploiement doit être étudié et adapté aux besoins, tant du point de vue technique que du point de vue de la relation public-privé. Cette relation est obligatoire s’il s’agit de couverture radio du domaine public. Ces réseaux utilisent souvent des infrastructures communautaires (feux de signalisation, mobiliers urbains, candélabres, bâtiments…). Il est difficile de donner une liste d’applications, toutefois nous pouvons citer par domaine, les usages les plus appropriés : Les transports : un des exemples les plus représentatifs est l’expérimentation menée par NAXOS, la RATP, Netsize et Cisco, sur le BUS Communicant de la Ligne 38 à Paris, dont l’infrastructure est la suivante : • Le modèle nord américain Une des raisons du développement des réseaux Wi-Fi municipaux aux Etats-Unis est la mauvaise qualité des connexions ADSL (ce qui n’est pas le cas en Europe). Pour ne pas agrandir le fossé avec le vieux continent et l’Asie, les villes américaines ont dû réagir et proposer une alternative aux offres des opérateurs. Tel est le cas de la ville de Lompoc, où les opérateurs locaux ont commencé à investir et augmenter la qualité des liaisons ADSL au moment même où la municipalité installait le Wi-Fi. La ville de Houston (non encore déployée) quant à elle, met en avant quatre objectifs majeurs pour justifier son investissement : 1) réduire et éviter les coûts de la mobilité (budget en augmentation de 600 k$ par an et qui avoisine les 2 millions de dollars aujourd’hui), 2) réduire la fracture numérique et miser sur l’éducation pour tous, 3) augmenter la concurrence et diminuer le prix des connexions Internet fixes et mobiles, 4) promouvoir le développement économique (conventions, tourisme, tissu économique local). Enfin, un des plus gros déploiements attendus est celui D’autres exemples vont de la gestion des parcmètres, au trafic routier (feux tricolores) ou à l’annonce aux usagers des retards sur les bus et trams. La sécurité publique : la vidéosurveillance est la première des applications citées au top50, mais d’autres services utilisent ces réseaux : les services d’urgence, la police, les pompiers… avec, bien sûr, des applications de téléphonie sur IP. L’aide aux personnes dépendantes : maintien des personnes à domicile (le domicile ici comprend le quartier où la personne vit et non plus seulement son appartement). Les réseaux de capteurs : il existe une directive européenne 25 - THD : le sans-fil de la Silicon Valley, où un consortium d’entreprises appelé Silicon Valley Metro Connect, formé de : Azulstar Network, Cisco, Inc., IBM et Seakay, va offrir une connexion sans-fil à 2,4 millions de résidents. Ce réseau, unique au monde de par sa taille, couvrira 42 municipalités pour une surface totale de 4000 km². La liste des villes américaines ayant décidé d’investir dans le sans-fil s’allonge de jour en jour. Nous pouvons citer entre autres : San Francisco, Mountain View, Madison, Austin, Philadelphie, New York… De ce fait, elle peut garder une partie de la bande passante pour ses propres applications et besoins. Elle n’aura donc pas à payer pour ce service. Elle peut même dégager des revenus grâce à la bande passante louée. On peut comparer ce modèle à ce qui se fait pour le réseau de fibre optique et les câblo-opérateurs ; • Le modèle européen Légèrement différentes, les villes européennes mettent l’accent sur les nouvelles applications plutôt que sur la simple connexion Internet. La qualité de nos connexions filaires (ADSL) n’est pas un argument majeur en faveur du sans-fil. Par contre, la couverture des zones rurales et leur développement économique sont une priorité. Ainsi, la province de Brescia a décidé d’investir 2 millions d’euros dans la création d’un réseau sans-fil maillé devant couvrir 120 villes et villages de cette région du nord de l’Italie. La région espère générer un retour sur investissement de 139 millions d’euros sur 6 ans. Apres les vagues d’attentats de ces dernières années, l’Europe met un effort important sur la sécurité des personnes et une des premières applications citées par les Directeurs des Systèmes de l’Information (DSI) des grandes villes est la vidéosurveillance. Le sans-fil, ici aussi, est vu comme un avantage certain, même si la demande en bande passante demande une attention particulière lors de l’architecture du réseau. Westminster est un bon exemple de ce type d’applications. • l’opérateur paie le déploiement du réseau et reverse une redevance à la municipalité pour l’utilisation de l’espace public et des ressources communautaires. Cette alternative a pour avantage que la municipalité n’a pas à investir pour l’infrastructure, en contre partie elle doit payer pour l’usage qu’elle en fera pour ses propres besoins ; • un modèle hybride des 2 premières solutions. Dans tous les cas, un organisme public ne peut se substituer à un opérateur, sauf dans le cas des zones blanches (c’est-à-dire si aucun opérateur ne veut couvrir cette partie du territoire). Dans la réalité, la situation n’est pas aussi simple et de longues négociations sont nécessaires avant d’aboutir à un accord satisfaisant toutes les parties. Rares sont les cas où il n’y a que deux intervenants. Naxos par exemple se place comme un opérateur d’infrastructure sur laquelle viennent s’appuyer des fournisseurs d’applications. Les municipalités sont le plus souvent motrices dans de tels projets car le développement économique de leur territoire est en jeu, ainsi que le service au citoyen. Il est loin le temps où les hot-spots étaient réservés à la partie touristique de la ville. Ils fleurissent maintenant dans les zones de développement économique. • L’Asie Le cas de l’Asie est intéressant du fait que les déploiements en cours sont souvent le fait d’une décision politique forte. Beijing prévoit, pour les Jeux Olympiques de 2008, une couverture presque totale de la ville par un réseau intégrant 150 stations de base WIMAX et 9000 réseaux locaux sans-fil basés sur la nouvelle technologie 3G chinoise TD-SCDMA. Taipei, qui fut longtemps la première ville d’Asie à avoir lancé un programme d’envergure de couverture totale Wi-Fi, découvre ses premières difficultés liées au manque d’abonnés (environ 10% de ce qui était prévu à fin 2006). On ne peut justifier un réseau municipal uniquement sur l’offre de connexion Internet. Les nouvelles applications ont un rôle primordial à jouer. Le modèle économique Au-delà du réseau et de la technologie d’accès, la couverture totale (ou presque) d’une collectivité ou d’un territoire par des connexions haut débit, va exciter la créativité des développeurs. Ceux-ci devraient d’ici peu offrir une multitude de nouvelles applications au service des municipalités et des citoyens que nous sommes. Seule l’infrastructure d’accès manquait jusqu’à présent, les technologies sont là et les déploiements sont en cours. Quel modèle économique faut-il utiliser pour que mon projet soit un succès ? Ici encore la réponse est multiple. En se limitant uniquement à l’Europe, plusieurs modèles peuvent être envisagés : • la municipalité investit dans l’infrastructure et passe des conventions avec des opérateurs pour l’accès Internet. 26 - THD : le sans-fil - HSPA et son positionnnement marché Jérôme SARDOU Promo 1996 [email protected] Responsable développement du haut débit mobile au sein de la direction des marchés grand public et professionnels d’Orange mobile. L a 3G fait l’actualité : Bouygues Telecom vient de lancer son offre 3G ; une quatrième licence doit être attribuée à l’été ; et Orange et SFR annoncent des débits de plus en plus élevés sur leurs réseaux 3G lancés il y a un peu plus de 2 ans : 1,8 Mbps, 3,6 Mbps, 7,2 Mbps et plus pour les débits descendants, 384 kbps, 1,4 Mbps et plus pour les débits montants. Les premiers usages de ces débits sont les usages PC en mobilité : pouvoir consulter et envoyer ses mails, surfer sur le web, télécharger des fichiers n’importe où et avec un grand confort. Cela nécessite des débits descendants importants. Les débits montants sont nécessaires aussi pour l’envoi de fichiers volumineux, comme les contenus auto-produits, qui connaissent un énorme succès sur le web, ou des fichiers professionnels dans les domaines par exemple de la santé, du journalisme, du bâtiment. Ces évolutions ont un nom : dans le domaine technologique c’est le HSPA (High Speed Packet Access), qui regroupe le HSDPA (Downlink) et le HSUPA (Uplink), et dans le domaine commercial c’est la 3G+ ou encore le très haut débit mobile. Le marché est bien là, en attestent les ventes de cartes PC multi réseaux en forte croissance. Ces cartes PCMCIA permettent de se connecter automatiquement sur le meilleur réseau disponible GPRS, EDGE, 3G, HSDPA ou Wi-Fi. Les opérateurs de téléphonie mobile proposent ces cartes à leurs clients entreprises et professionnels, avec des forfaits de Mo ou avec de l’illimité. Entendons-nous bien : les débits annoncés sont des débits crêtes maximum théoriques, le débit réel disponible dépendant de nombreux paramètres tels que la distance à l’antenne d’émission et le nombre d’utilisateurs simultanés. A titre d’exemple, on considère que pour un débit théorique de 1,8 Mbps l’on dispose d’un débit utile moyen de 1,4 Mbps. Les fabricants de PC ont bien perçu le potentiel de ce marché et proposent à présent des PC embedded, intégrant une carte SIM et un module HSPA. Ils multiplient les accords de partenariat avec les opérateurs mobiles pour emprunter leurs réseaux. On peut même imaginer qu’ils deviennent un jour des MVNO data (Mobile Virtual Network Operator). Même en prenant en compte ce biais, les débits restent impressionnants. Le haut débit mobile vient rivaliser avec le haut débit fixe. Alors pourquoi cette course hauts débits, pour quels usages ? A-t-on besoin de tels débits en mobilité ? Débits crête maximum théoriques de la 3G et de ses évolutions apparus sur le marché français 7,2 M 3,6 M 1,8 M 384 k 64 k 1,4M 384 k 128 k 27 - THD : le sans-fil De façon très logique les cartes PC et PC embedded sont les premiers terminaux sur le marché à proposer les évolutions HSPA. Les téléphones mobiles suivent bien après. Deux raisons à cela : l’intégration de la technologie HSPA dans les téléphones mobiles est certainement plus délicate ; par ailleurs le marché du multimédia mobile est beaucoup moins mature. La montée en débit ne peut capitaliser sur des usages existants mais va plutôt porter le développement de nouveaux usages tels que le téléchargement de titres musicaux, de jeux next gen (aux graphismes comparables à ceux d’une console de jeux portable), ou encore la TV mobile. Les applications des routeurs cellulaires sont multiples dans de nombreux secteurs d’activité. Ils permettent de mettre en place des accès fixes temporaires, par exemple l’accès à l’intranet à partir de bureaux de chantiers dans le secteur de la construction, ou encore le raccordement de lecteurs de cartes bleues sur les marchés de fruits et légumes. Les premières solutions de routeurs cellulaires sont apparues en 2005 et sont matures depuis mi-2006. On voit que le HSPA présente un gros potentiel commercial. Il va intégrer de nombreux terminaux très variés. Il va couvrir un spectre large d’usages très différents. Cela devrait se traduire dans la manière de commercialiser cette technologie. Il ne devrait pas y avoir une seule offre, une offre de débits qui autorisent de multiples usages, mais vraisemblablement plusieurs offres, adaptées à chaque usage. Cela est d’autant plus probable qu’il paraît difficile dans une offre de débits de valoriser chaque montée en débits. On voit mal un opérateur avoir des offres à 1,8 Mbps, 3,6 Mbps et 7,2 Mbps. Seule la capacité du terminal (et bien sûr du réseau à un endroit donné) va conditionner le débit disponible. Plus étonnant, le HSPA va aussi apparaître dans de nouveaux équipements électroniques, par exemple les routeurs cellulaires. Ces routeurs sont le trait d’union entre le réseau 3G+ et un réseau local Wi-Fi. Une commercialisation donc orientée usages et non capacité réseau. Cette commercialisation n’est pas sans difficulté. A l’heure où l’illimité apparaît dans les offres opérateurs, le risque est de saturer le réseau, de ne pas maîtriser la montée en charge, notamment sur de nouveaux usages mal connus. En conséquence les opérateurs devraient limiter en volume leurs offres 3G+. HSPA : point sur la gestion et le partage des ressources Paul THEROND Promo 2004 [email protected] Paul a profité des ouvertures à l’internationnal de l’Ecole pour faire un S4 en Italie suivi d’une 3ème année à Munich, puis d’un stage de fin d’études à Rome prolongé par un CDD d’un an et demi. Début 2006, il intègre la R&D UMTS Nortel, reprise début par Alcatel-Lucent L es constructeurs télécoms UMTS forment un groupe de plus en plus restreint. En peu de temps le paysage des équipementiers a beaucoup changé avec l’apparition du chinois Huawei, qui prend des parts de marché de plus en plus grandes, et les rapprochements de Nokia et Siemens d’une part, ainsi que de Lucent, Alcatel et Nortel (pour la 3G) d’autre part. Ces politiques de fusion/rachat poursuivent un même but : réduire les coûts de production d’une R&D qui répond à des besoins en de plus en plus importants. L’une des raisons de ce bouleversement est liée au coût du haut débit. Si ses avantages sont pourtant simples à comprendre, sa mise en place est coûteuse et néces- site de nombreux travaux annexes. On peut légitimement se poser la question suivante : quels sont les freins au développement du haut débit à l’intérieur même de la 3G ? Ou plus concrètement : pourquoi est-ce que la 3G dont on parle depuis déjà longtemps n’apparaît encore que modestement dans notre entourage ? Le moteur du haut débit dans la 3G est l’HSPA (High Speed Packet Access) ; s’il permet d’atteindre des débits théoriques impressionnants le débit réel est bien en dessous des valeurs annoncées. La clé de l’amélioration de ces débits auprès des abonnés est la gestion et le partage des ressources. 28 - THD : le sans-fil Prenons l’exemple de l’HSPA. On rappelle tout d’abord que les ressources HSDPA (High Speed Downlink Packet Access), donc dans le sens réseau vers utilisateur (sens descendant), sont partagées entre tous les abonnés connectés. Le type de service offert est le plus souvent du transfert de données (Web, MMS), de plus ces services ne sont que rarement sensibles au délai d’envoi/réception (hormis pour le video streaming par exemple). Ainsi il est possible d’optimiser les transmissions puisque ces services n’ont pas besoin de ressources allouées en permanence. Par exemple pour le web browsing, le transfert de données est nécessaire lors de l’affichage d’une nouvelle page, et non lors de la consultation : le trafic est représenté par un pic à un instant donné, et pendant le temps de la consultation un autre utilisateur peut profiter de toutes les capacités du réseau. Il faut donc réussir à optimiser les temps de transmission et bien sûr il faut établir des priorités en fonction des services existants : le video streaming sera plus prioritaire qu’un MMS. L’introduction d’une gestion dynamique des ressources est nécessaire. Elle se fait de manière différente selon chaque service (web browsing, email, video streaming, etc.) en fonction de la bande passante disponible, de la qualité de service requise et du nombre d’utilisateurs connectés. Le Resource Management est un nouveau défi lié au haut débit et il est d’autant plus complexe que la 3G doit, par définition, permettre à un même utilisateur de profiter de plusieurs services simultanément. une nouvelle gestion des ressources voix a été implémentée. Elle permet d’adapter le débit voix en fonction du trafic et par exemple d’envoyer des trames quasi vides dans les blancs lors d’une conversation. Ici l’objectif est différent : il ne s’agit pas d’économiser de la bande passante puisque les appels voix sont transmis sur des canaux dédiés mis en place lors de l’établissement d’appel. En revanche on gagne en puissance d’émission en qualité de service, etc. Toutes ces économies sont récupérables par le mobile pour gérer en même temps d’autres services. Cette gestion intelligente des ressources est absolument nécessaire pour obtenir de bons résultats sur le terrain ; en effet un haut débit théorique est inutile si l’abonné ne voit pas une réelle amélioration de service ou si son portable n’arrive pas à gérer plusieurs applications en même temps. Toutes ces problématiques sont donc liées au haut débit et en font un produit extrêmement complexe, elles expliquent en partie les difficultés rencontrées par les abonnés 3G. Enfin je voudrais conclure avec un mot sur la prochaine étape de l’évolution des télécoms dont le mot clé est « convergence ». La « 4G » est déjà connu sous le nom de Long Term Evolution (LTE), elle propose de faire converger les technos (UMTS, Wimax, W-CDMA), notamment par le biais de la voix sur IP. L’aboutissement de LTE initiera une révolution dans le monde des opérateurs télécoms : la naissance d’une vraie différentiation des offres. En effet, jusqu’à présent la technologie s’impose aux différents opérateurs qui ne peuvent proposer que des services compartimentés. L’apparition des téléphones 3 en 1 et autres boxes n’est donc qu’un avant-goût de la prochaine génération. Le principe d’optimisation des ressources s’est également étendu à la voix. La 3G met en place de nouveaux codecs qui utilisent des gammes de débits différents, adaptables au trafic réel. Sous le nom d’AMR (Adaptive Multi Rate), HSPA : tous les aspects techniques Yannick BOUGUEN Promo 2004 [email protected] Ingénieur réseaux d’accès mobiles à Orange Labs et délégué 3GPP C HSDPA : une voie descendante à grande vitesse omme l’indique son sigle cabalistique, le HSPA (pour High Speed Packet Access) est une évolution du réseau mobile UMTS qui permet d’augmenter substantiellement les débits fournis pour les applications paquets. Vous avez certainement déjà entendu parler des acronymes HSDPA et HSUPA qui sont respectivement les déclinaisons de l’HSPA en downlink (du réseau vers le terminal) et en uplink (du terminal vers le réseau). Certains principes technologiques sont communs à ces deux évolutions mais elles diffèrent cependant sur certains points. Le HSDPA offre une voie descendante à haut débit et par paquets. Ainsi, dès son ouverture commerciale, les abonnés HSDPA étaient en mesure de télécharger des informations à des débits approchant 1,5 Mbits/s, valeur à comparer aux 384 kbits/s que permet d’atteindre la première version de l’UMTS appelée release99 et normalisée au 3GPP 29 - THD : le sans-fil (3rd Generation Partnership Project). Le débit maximal théorique que l’on pourrait obtenir avec HSDPA est de 14,4 Mbit/s mais les débits maxima actuels sont bridés à 3,6 Mbit/s. Pratiquement, l’évolution vers HSDPA ne nécessite normalement pas de modification hardware des équipements réseaux mais requiert l’acquisition de nouveaux terminaux par les abonnés. et de canal partagé. Une modulation plus efficace Cette latence abrégée permet aussi d’adapter plus efficacement la modulation aux conditions radio inhérentes à chaque mobile sous couverture. La version initiale de l’UMTS n’intègre qu’une seule modulation du signal, très robuste au bruit, nommé QPSK. La modulation 16QAM, moins robuste mais bien plus efficace en bonnes conditions radio, a été introduite avec HSDPA. Initialement, il était même prévu d’implémenter la modulation 64QAM mais les constructeurs de terminaux préférèrent rester prudents. Pratiquement, la détermination de la modulation à utiliser s’opère de la manière suivante : le mobile transmet en permanence à la station de base la qualité de réception qu’il a mesurée, via un canal de contrôle et la station de base en déduit la modulation à utiliser. Le HSDPA a été introduit au sein de la release5 du 3GPP et est basé sur les concepts suivants : • un canal partagé et une migration de certaines fonctionnalités réseaux au plus proche de l’utilisateur, • une modulation plus efficace en bonnes conditions radio, • une gestion astucieuse des ressources disponibles. Ces évolutions découlent d’un changement de perspective au sein du 3GPP. En effet, l’UMTS release99 avait été conçu pour des applications à débits presque symétriques (voix, visiophonie…) et relativement modestes au regard des débits atteints dans les réseaux fixes aujourd’hui. La première version de l’UMTS était ainsi basée sur la notion de canal dédié par application (canaux DCH). Cette stratégie a pour principal avantage d’assurer une garantie de service à l’application considérée mais revêt pour inconvénient majeur de sous-utiliser les ressources réellement disponibles au sein du réseau. Avec le développement des usages liés à l’Internet, le 3GPP a voulu adapter l’UMTS à des services de consultation et de téléchargement, nécessitant des débits descendants supérieurs aux 384 kbit/s proposés jusqu’alors. Une répartition des ressources astucieuse Du point de vue des terminaux, la norme a défini douze catégories de mobiles, différenciées principalement par les modulations et le nombre maximal de codes qu’elles peuvent supporter (pour rappel, l’UMTS est basé sur un accès multiple à répartition par codes). Côté réseau, le 3GPP a laissé une marge d’appréciation aux constructeurs en matière de gestion des ressources entre utilisateurs. Comme mentionné précédemment, HSDPA est basé sur la notion de canal partagé, ce qui induit une gestion des ressources entre applications. L’une des fonctions clés de HSDPA, intégrée à la station de base, est la fonction d’ordonnanceur, aussi appelée scheduler. Celui-ci a la charge de répartir les codes et les intervalles de temps disponibles entre les utilisateurs d’une même cellule. Les critères régissant la politique d’ordonnancement peuvent différer selon la stratégie retenue par l’opérateur. Ce dernier doit faire un arbitrage entre une équité inter-utilisateurs et une maximisation de l’utilisation des ressources radio. En d’autres termes, si l’opérateur veut optimiser les débits maxima par Un canal partagé Pour optimiser l’usage du spectre disponible, la solution envisagée fut de multiplexer tous les utilisateurs d’une cellule sur un même canal partagé. Ce partage sous-entend une gestion rapide des ressources entre applications et entre utilisateurs. Ce besoin de vitesse de traitement est à l’origine de la migration de la fonction de répartition des ressources du RNC vers la station de base (Radio Network Controller, équipement interfaçant quelques centaines de stations de base au réseau cœur). Ainsi, le délai de réaction du système a été rabaissé de 300 à 75 ms. Par ailleurs, la cadence d’expédition des paquets a été abaissée de 10 à 2 ms. La figure ci-jointe illustre les notions de canal dédié 30 - THD : le sans-fil La modulation utilisateur, il privilégiera les mobiles qui se trouvent dans les meilleures conditions de réception. L’inconvénient d’une telle stratégie est qu’elle peut empêcher l’accès aux ressources pour un usager situé loin de la station de base. Une autre stratégie pourrait consister à niveler les différences de débits entre un utilisateur proche de la station de base et un utilisateur éloigné, ce au détriment de l’efficacité du système. Comme dans le sens remontant, c’est le terminal qui a en charge cette modulation, celle-ci ne doit pas être trop complexe. Pas question donc, comme en HSDPA, de faire occasionnellement appel à des modulations très performantes, telle 16QAM. Il faut se contenter de la modulation de base (QPSK) de l’UMTS actuel. L’absence de canal partagé HSUPA : le haut débit montant Le terminal gérant la voie remontante est incapable d’orchestrer le partage d’un même canal avec d’autres utilisateurs. Il n’a pas conscience de l’activité des autres utilisateurs. Il lui faut donc un canal dédié. Dans la release99, c’est bien un canal dédié, nommé DCH, qui supporte la voie montante. Sa qualité est assurée de deux façons : d’une part la puissance d’émission est modulée selon les besoins ; d’autre part, quand il se trouve aux confins de deux cellules, le signal émis par le terminal est écouté par les deux stations de base et les signaux reçus sont combinés pour obtenir un meilleur signal. C’est ce qu’on appelle le soft handover. Cependant, avec son débit constant, le canal dédié ne convient pas à une transmission de paquets qui est par définition réalisée par rafales. C’est pourquoi le 3GPP a conçu un canal dédié amélioré, nommé E-DCH dont le débit varie de 5,76 Mbit/s à 0 en fonction des besoins. C’est la station de base qui attribue au terminal le droit d’émettre à tel ou tel débit de façon à limiter les interférences. Bien que le eDCH soit tout à fait adapté au transfert de paquets, le DCH demeure indispensable pour des applications nécessitant un débit constant et pour la signalisation. Le HSDPA permet aux clients mobiles de recevoir des vidéos de bonne qualité ou d’importer de gros fichiers dans un délai raisonnable. Mais qu’en est-il du professionnel nomade qui doit envoyer un courriel avec une pièce jointe de plusieurs Mo ? Pour lui éviter des temps d’envoi de message inconsidérés, le 3GPP a mis au point le HSUPA qui, comme son nom l’indique, diffère assez peu du HSDPA. Normalisé dans le cadre de la release6 du 3GPP, ce système porte le débit remontant des 384 kbit/s de l’UMTS actuel à quelques 5,76 Mbit/s théoriques. Là non plus, l’activation de HSUPA ne nécessite normalement pas de modification hardware des équipements réseaux mais requiert l’acquisition de nouveaux terminaux par les abonnés. A l’instar du HSDPA, le HSUPA réduit le délai de réaction du système en décentralisant la gestion des ressources vers les stations de base. Mais il subsiste tout de même quelques différences entre ces deux évolutions… 31 - THD : une vision service - La vidéosurveillance IP et les réseaux « Très Haut Débit » Christophe RAIX Promo Mas. 2004 [email protected] Chistophe est assistant Chef de Marché Vidéosurveillance chez Bosch Security Systems (BOSCH Group). Bosch Security Systems est un fournisseur novateur de produits intégrés de sécurité et de communication de grande qualité et ce, dans le monde entier. http://www.boschsecurity.fr Qu’est ce que la vidéosurveillance IP ? Coûts de stockage de données réduits Lorsque la vidéosurveillance s’ouvre au monde des réseaux, elle vous permet également de tirer parti de technologies informatiques telles que les dispositifs de stockage NAS (Network Attached Storage) et les réseaux SAN (Storage Area Network), qui peuvent contenir des volumes de données importants. Le système utilise des serveurs de stockage haute densité dédiés et ne se fonde plus sur un seul disque dur. Les vidéos sur ces serveurs peuvent dès lors être partagées avec d’autres personnes partout dans le monde. Le terme vidéosurveillance désigne la surveillance, à distance, de locaux, d’installations, de processus industriels, d’individus ou de phénomènes naturels grâce à la visualisation et l’enregistrement d’images vidéo. La vidéosurveillance IP permet aux utilisateurs de visualiser et d’enregistrer des images vidéo via un réseau IP (LAN/WAN/Internet). Fiabilité La vidéosurveillance tire parti des avantages de la technologie Internet pour créer un système de sécurité plus fiable. Elle peut automatiquement router le trafic vidéo vers un système de stockage de sauvegarde en cas de coupure d’électricité ou de panne du réseau. Les avantages de la vidéosurveillance IP Accessibilité À une époque où le secteur de la vidéosurveillance s’efforce de réduire le personnel nécessaire pour utiliser les systèmes de sécurité, les réseaux IP permettent une centralisation accrue. Un seul opérateur peut surveiller des caméras distantes et sans-fil à partir de n’importe quel point du réseau, et les vidéos peuvent également être stockées à distance. Évolutivité Les réseaux IP offrent une flexibilité accrue en matière d’extension des systèmes de vidéosurveillance. Non seulement il est très aisé d’ajouter des caméras, mais accroître l’espace de stockage et le distribuer sur l’ensemble du réseau est également un jeu d’enfant. Qui plus est, les réseaux IP peuvent prendre en charge plusieurs ‘utilisateurs’, ce qui est exceptionnel. Tout comme un serveur de messagerie électronique peut envoyer les mêmes données à plusieurs destinataires simultanément, le commutateur réseau est en mesure de cloner les vidéos et d’utiliser les mêmes données à plusieurs reprises. Installation simplifiée à un coût réduit Loin de requérir des kilomètres de câblages coaxiaux comme les systèmes analogiques, les systèmes de vidéosurveillance IP se connectent par le biais des systèmes CAT5 ou des systèmes de communication sans fil qui existent déjà dans de nombreux bâtiments. Caméra IP Face Avant 32 - THD : une vision service sants pour la transmission d’images vidéo. En effet, lorsqu’on désire obtenir une qualité et une résolution vidéo équivalentes à celles d’un équipement analogique, on utilisera une compression MPEG 4 ou MPEG 2 avec une résolution 4CIF (704 px x576 px, px = pixels). Ces technologies de compression vidéo et cette résolution utiliseront une bande passante de 3,5 à 6 Mbits/s (MPEG 4) ou de 3,5 à 6 Mbits/s (MPEG 2). A cela il faut ajouter le fait que la vidéosurveillance génère des flux vidéo sur les réseaux 24h/24h et 7j/7j. Face Arrière Encodeur IP Qualité vidéo Les systèmes IP modernes utilisent la norme MPEG-4, qui fait un usage plus efficace des capacités du réseau que le M-JPEG. Dans les applications où une qualité inférieure est suffisante et permettrait de limiter l’espace de stockage requis, l’IP offre la possibilité de personnaliser la qualité de la sortie vidéo en fonction de vos besoins et de vos capacités de stockage. De plus, ces réseaux permettent un renouvellement et une qualité d’image indépendants de la localisation des caméras à l’intérieur du réseau. Le déploiement des réseaux haut débit multiplie les applications de la vidéosurveillance en matière de sécurité territoriale : supervision de la voie publique (trafic routier, parkings, chantiers, zones de violence, …), surveillance de bâtiments publics (mairies, centres administratifs, établissements scolaires, ...) et privés (bureaux, usines, entrepôts, …), co-surveillance d’établissements privés recevant du public - ERP (gares, hôpitaux, centres commerciaux, aéroports, ...), surveillance de zones critiques (centrales électriques, bassins d’assainissement, …), surveillance événementielle (spectacles, épreuves sportives, …). Systèmes de vidéosurveillance IP avec un système de gestion vidéo L’intérêt du « très haut débit » et ses usages Ainsi, la vidéosurveillance IP fait partie des principaux utilisateurs de réseaux « très haut débit ». Les réseaux « très haut débit » autorisent les débits suffi- Systèmes de vidéosurveillance IP multi-site 33 - Théodore Flutabec - 34