La téléinformatique

Transcription

La téléinformatique
FASCICULE
INFORMATIQUE GENERALE
La téléinformatique
AVERTISSEMENT
CET
OUVRAGE
CONTIENT
DES
REPRODUCTIONS
EFFECTUEES PAR L'IGPDE AVEC L'AUTORISATION DU
CENTRE FRANÇAIS D'EXPLOITATION DU DROIT DE COPIE
(CFC).
TOUTE NOUVELLE REPRODUCTION
L'AUTORISATION PREALABLE DU CFC .
EST
SOUMISE
A
Sommaire
SOMMAIRE
GENERALITES .................................................................................................................................. 6
1.
L’expansion des réseaux informatiques ............................................................................... 7
2.
Généralités sur les réseaux .................................................................................................... 7
3.
Le télétraitement ...................................................................................................................... 8
4.
Pourquoi le télétraitement ? ................................................................................................... 9
PRINCIPES DE TELECOMMUNICATION....................................................................................... 10
1.
Les supports de transmission.............................................................................................. 10
1.1.
Les conducteurs physiques............................................................................................. 10
1.2.
Les supports utilisés pour la propagation libre................................................................ 11
2.
Caractéristiques liées aux transmissions de données...................................................... 13
2.1.
Le débit............................................................................................................................ 13
2.2.
Les modes d’exploitation................................................................................................. 13
2.3.
La qualité de la liaison..................................................................................................... 13
2.4.
Le mode de transmission ................................................................................................ 13
2.5.
La synchronisation .......................................................................................................... 13
3.
Les matériels mis en œuvre.................................................................................................. 14
4.
La logique mise en œuvre..................................................................................................... 14
LES RESEAUX ................................................................................................................................ 16
1.
Les deux grands modèles de réseaux................................................................................. 16
1.1.
Le modèle OSI de l’ISO................................................................................................... 16
1.2.
Le modèle Internet de l’ARPA......................................................................................... 17
2.
Typologie et topologie des réseaux..................................................................................... 17
2.1.
Eléments matériel de basé.............................................................................................. 17
2.2.
Architectures et topologie des réseaux ........................................................................... 17
2.3.
Les réseaux longue distance .......................................................................................... 19
2.4.
Les autres technologies .................................................................................................. 22
2.5.
Les réseaux locaux (LAN) ............................................................................................... 25
2.6.
Le réseau mondial Internet ............................................................................................. 26
2.7.
Les futures infrastructures technologiques des réseaux à haut débit............................. 30
3.
Le Réseau privé virtuel (RPV)............................................................................................... 36
3.1.
Eléments matériel de base.............................................................................................. 36
3.2.
Le concept de réseau privé virtuel .................................................................................. 37
3.3.
Fonctionnement d'un VPN .............................................................................................. 38
LES ARCHITECTURES INFORMATIQUES.................................................................................... 40
1.
L’architecture centralisée ..................................................................................................... 40
1.1.
L’informatique totalement centralisée ............................................................................. 40
1.2.
L’informatique centralisée avec télétraitement................................................................ 40
2.
L’architecture déconcentrée................................................................................................. 40
2.1.
L’informatique répartie avec fichiers centralisés ............................................................. 40
2.2.
L’informatique répartie avec fichiers répartis .................................................................. 41
page 4
Toute reproduction même partielle interdite IGPDE
Généralités
2.3.
3.
L’informatique totalement décentralisée ......................................................................... 41
L’architecture client/serveur ................................................................................................ 41
3.1.
Sur serveur mini.............................................................................................................. 41
3.2.
Sur serveur de type PC................................................................................................... 41
Toute reproduction même partielle interdite IGPDE
page 5
Généralités
GENERALITES
" Remarque :
Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus
d'autres aspects propres aux domaines :
♦
scientifiques (calcul, simulation, … ;
♦
et industriels (conduite de processus de fabrication, …) ;
La téléinformatique peut se définir comme le domaine de l’informatique utilisant les techniques de
transmission à distance. Cet aspect de l’informatique n’a cessé d’occuper une place prédominante.
En effet, bon nombre de personnes ont déjà soit été confrontées à un service tel que le minitel, soit
ont utilisé un guichet bancaire automatique, ou soit, plus récemment, utilisées les réseaux Internet
et Intranet.
La conjugaison de l’informatique et des télécommunications a ouvert des horizons nouveaux. Elle
a connu et connaît toujours des développements constants et concomitants à ceux des techniques
informatiques.
Les premiers essais de transmission de données entre deux ordinateurs ont lieu dans les années
60.
Les années 70 sont marquées par la généralisation des techniques d’accès à distance, la
décentralisation des stations d’entrée/sortie et l’apparition des terminaux.
A la fin des années 70 apparaissent des réseaux de terminaux (communication de circuits avec
des concentrateurs, des multiplexeurs) ainsi que des réseaux d’ordinateurs (communication de
messages, paquets).
La notion de terminal englobe des équipements allant d’un simple poste de travail composé d’un
écran de visualisation et d’un clavier, à des équipements englobant en complément des unités
auxiliaires telles que les imprimantes.
La téléinformatique est devenu un des sujets prédominants depuis les années 80 et le restera
encore pour de nombreuses années. Les principaux aspects sont les réseaux publics, les réseaux
locaux, les communications entre réseaux, les communications par satellite, les fibres optiques, les
communications digitales.
Si la technologie semble à peu près au point pour permettre le développement de tous ces
aspects, un problème important subsiste, celui de la normalisation.
page 6
Toute reproduction même partielle interdite IGPDE
Généralités
1.
L’EXPANSION DES RESEAUX INFORMATIQUES
Les télécommunications sont déjà très anciennes. Depuis 170 ans, elles n’ont cessé d’évoluer pour
en arriver, aujourd’hui à leur utilisation généralisée dans l’informatique professionnelle et
personnelle et bientôt, dans l’informatique nomade avec l’évolution des réseaux sans fil.
Nous allons tracer brièvement l’historique des télécommunications.
♦
1851 Le télégraphe MORSE arrive en France
♦
1873 Brevet BAUDOT
♦
1873 Installation des premiers téléphones à Paris
♦
1873 Création du CCITT (Comité Consultatif International pour le Télégraphe et le Téléphone)
♦
1960 Réseaux de terminaux en étoile
♦
1963 Ouverture du Télex et du RTC (Réseau Téléphonique Commuté) ; téléinformatique
♦
1968 Premier frontal de télécommunications
♦
1970 Les premiers réseaux d’ordinateurs
♦
1972 Le réseau Caducée
♦
1978 Ouverture du réseau public TRANSPAC
♦
1980 Adoption par l’ISO du modèle OSI
♦
1984 Télécom 1
♦
1993 Les premiers réseaux locaux sur micro-ordinateurs
2.
GENERALITES SUR LES RESEAUX
L’utilisation ou non des réseaux dépend essentiellement de l’architecture informatique retenue pour
un système d’information. S’il s’agit d’une informatique totalement centralisée où les matériels et
les personnels informaticiens sont concentrés en un seul lieu, il ne sera sans doute pas fait appel
au réseau.
S’il s’agit d’informatique décentralisée (distribuée ou répartie), il y aura des échanges entre
ordinateur central et des moyens locaux. Dans ce cas, il sera fait appel aux réseaux en
remplacement des procédures de transfert de données sur support magnétique transportable
(bandes, cassettes, disquettes, CD-ROM).
Enfin, il peut s’agir d’une informatique totalement transactionnelle. Dans ce cas, l’utilisateur ne
dispose que d’un terminal et est en dialogue permanent avec l’ordinateur via un système de
communication évolué et permettant les échanges en temps réel.
Il ne faut cependant pas croire que l’utilisation du réseau soit synonyme de temps réel. Il existe, en
effet, une utilisation du réseau qui consiste à soumettre, à distance des traitements par lots
("batch") : il s’agit du "remote batch processing" (traitement distant par lots).
La notion de base sur laquelle repose le traitement informatique par l’intermédiaire des réseaux est
le télétraitement (ou télématique, association de télécommunications et d’informatique).
Toute reproduction même partielle interdite IGPDE
page 7
Généralités
3.
LE TELETRAITEMENT
C’est l’ensemble des moyens, matériels et logiciels, destiné à transmettre des données à distance
afin d’être traitées sur un ordinateur central.
Une ère nouvelle s’est ouverte pour les télécommunications depuis qu’elles permettent non
seulement de transmettre un message écrit ou verbal (voire des signaux de mesure ou de contrôle
ou des images fixes ou mobiles), mais de traiter instantanément ce message à distance.
Si la transmission "off line" (en différé) peut être considérée comme le prolongement naturel de la
transmission télégraphique, le fait que celle-ci puisse être introduite dans les ordinateurs ou en
émaner élargit prodigieusement leur domaine d’utilisation. Mais l’étape la plus décisive a été
franchie grâce à la transmission de données "on line" (en direct) qui permet de traiter directement
avec un ordinateur sans intermédiaire humain. Les télécommunications permettaient jusqu’alors
d’informer, de commander, de dialoguer à distance.
Grâce à l’informatique, elles offrent désormais la possibilité de calculer, de raisonner, de gérer et
de décider en faisant abstraction de la distance, du temps et du volume des informations à traiter
(bien que ce point puisse être discuté au regard des coûts d’exploitation de certains réseaux.
Certains ont dit que le télétraitement, apporterait une mutation technologique comparable à celle
qu’apporta GUTEMBERG il y a déjà cinq siècles en inventant l’imprimerie. En effet, à cette époque
se posait déjà le problème de la diffusion des connaissances du fait de leur croissance de plus en
plus rapide. Aujourd’hui, le taux de croissance du besoin de transmission de données est estimé à
100 % par an. Ce taux ne peut qu’évoluer à la hausse avec la globalisation des économies
internationales.
Pour donner à l’ordinateur des meilleures chances d’efficacité, il faut d’abord que l’information à
traiter lui soit fournie dans de bonnes conditions. Selon AT&T (American Telephone and
Telegraph), qui fut la société pionnière du développement du télétraitement, l’ordinateur a permis
d’éviter un certain nombre d’écueils en matière de transmission des informations :
♦
l’information retardée : la réception tardive par le siège d’une société des fiches de présence
établies dans ses établissements dispersés, l’empêche de tirer parti de la rapidité de calcul de
la paye de son personnel par son ordinateur central. Le problème sera le même lorsque
l’ordinateur central devra assurer la gestion des stocks et de l’approvisionnement des
magasins, gestion qui ne peut être optimisée si l’ordinateur, devant recevoir l’information, se
trouve retardé par un délai de transmission.
♦
l’information périmée : le risque réside dans la possibilité d’établir une facture ou un état de
frais alors que l’ordinateur n’a pas reçu l’information récente qui permettait d’établir une facture
correcte. Ce risque est réel lorsque les informations de mise à jour sont transmises par voie de
courrier.
♦
l’information difficilement accessible : l’information peut être difficile à atteindre parce
qu’éparpillée, volumineuse ou éloignée.
♦
l’information onéreuse : la multiplication des ordinateurs et de la documentation dans les
nombreuses agences des banques, des compagnies d’assurances, des grandes sociétés
commerciales et dans les services extérieurs des administrations, compromettent la rentabilité
et l’efficacité des systèmes informatiques. Grâce au télétraitement, il suffit de doter tous ces
services d’un terminal pour leur donner accès à une documentation d’autant plus fiable qu’elle
est unique. En ce sens, le télétraitement permet un traitement économique de l’information.
♦
l’information inexacte : lorsqu’un document commercial ou administratif passe entre plusieurs
mains, il peut rapidement être entaché d’erreurs. S’il existe une ou plusieurs copies de l’original
informatique, l’erreur est réduite d’autant. À l’occasion de télétraitements, les copies de
sauvegarde pourront permettre de prouver la réalité de la décision originale ou de l’acte
original.
page 8
Toute reproduction même partielle interdite IGPDE
Généralités
♦
4.
l’information mutilée : il n’est pas rare de se trouver en face d’informations altérées dans leur
contenu car les moyens de collecte ne sont pas suffisamment fiables. L’utilisation de la
téléinformatique doit permettre de limiter au minimum le risque d’altération des données.
POURQUOI LE TELETRAITEMENT ?
Le télétraitement procure à l’entreprise un instrument essentiel de compétitivité en lui permettant
d’optimiser sa gestion.
Il assure les liaisons internes entre les niveaux nationaux, régionaux, départementaux, voire
locaux, ces différents niveaux dépendant des choix déterminés par le schéma directeur de
l’informatique de la structure (entreprise ou administration).
Le télétraitement assure aussi les liaisons avec l’extérieur, par exemple la réalisation d’objectifs
communs. Des commandes pouvant être effectuées à différents niveaux, le télétraitement, bien
utilisé, peut permettre une certaine harmonisation des décisions
Toute reproduction même partielle interdite IGPDE
page 9
Principes de télécommunication
PRINCIPES DE TELECOMMUNICATION
1.
LES SUPPORTS DE TRANSMISSION
La transmission de données informatiques nécessite l’utilisation de supports spécifiques. Ceux-ci
peuvent être regroupés en deux grandes familles selon que la propagation des signaux est
supportée par des conducteurs physiques ou non.
Toutes les voies de transmission utilisent la propagation des ondes électromagnétiques. On les
divise en deux grandes catégories selon le support physique utilisé :
♦
Les conducteurs physiques ;
♦
Les supports utilisés pour la propagation libre.
1.1.
Les conducteurs physiques
Les conducteurs physiques les plus couramment utilisés aujourd’hui sont les suivants.
1.1.1.
LES LIGNES METALLIQUES (OU PAIRE TORSADEE)
C'est une ligne électrique, qui peut être soit une ligne téléphonique, soit un câble électrique.
La transmission à l'aide de ce support est facile mais comporte quelques inconvénients tel que
l'affaiblissement du signal sur de grandes distances (d'où la nécessité de la réamplifier
régulièrement) et surtout la sensibilité aux bruits. Ce dernier défaut peut être atténué par l'utilisation
d'un blindage, tel qu'un câble coaxial. Un câble coaxial est un fil électrique entouré par une
enveloppe métallique, les deux étant séparés par un isolant. Le réseau téléphonique utilise
principalement des paires de fils torsadés pour le raccordement des abonnés.
1.1.2.
LES CABLES COAXIAUX
Les câbles coaxiaux permettent, par multiplexage de voies, de faire cohabiter plusieurs lignes
téléphoniques.
page 10
Toute reproduction même partielle interdite IGPDE
Principes de télécommunication
1.1.3.
LA FIBRE OPTIQUE
La fibre optique
Le transport d'informations est réalisé par propagation d'ondes lumineuses dans des fibres de
verre. La propagation lumineuse s'effectue par réflexion sur les parois de la fibre qui a un diamètre
compris entre 100 et 300 microns. Les fibres optiques ont bon nombre d'avantages tels que très
grande bande passante, bonne immunité aux bruits électromagnétiques, petite taille, pas
d'affaiblissement du signal. La bande passante varie de 50 MHz jusqu'à 100 GHz selon le type de
fibre utilisé. On distingue trois types de fibre classés par ordre croissant de capacité: les fibres
multimodes à saut d'indice, les fibres multimodes à gradient d'indice et les fibres monomodes. Le
principal point faible réside dans les connexions qui sont délicates. Une diode électroluminescente
ou laser convertit le signal électrique à transmettre en un signal optique alors qu'un détecteur de
lumière, une photodiode, effectue la conversion inverse. La présence ou l'absence d'un signal
lumineux permet le codage d'un bit.
L'utilisation de ces divers supports dépend du type de liaison.
Une liaison intercontinentale est réalisée à l'aide d'un satellite, une liaison entre des ordinateurs
d'un même pays par les lignes téléphoniques, une liaison entre deux bâtiments d'une même ville
par des fibres optiques, une liaison de divers équipements dans un même bâtiment par un câble
coaxial et une liaison entre des équipements proches l'un de l'autre par de simples fils électriques.
La fibre optique, possédant une très large bande passante, autorise des débits élevés.
Il est à noter que l'utilisation de la fibre optique tend à se généraliser aux liaisons nationales et
internationales.
1.2.
Les supports utilisés pour la propagation libre
Les supports utilisés pour la propagation libre sont les suivants.
Toute reproduction même partielle interdite IGPDE
page 11
Principes de télécommunication
1.2.1.
LES FAISCEAUX HERTZIENS
Le faisceau hertzien
Ce support utilise les ondes radioélectriques pour transporter des informations. Les liaisons
radioélectriques sont réalisées par ondes courtes, moyennes et longues.
La propagation peut se faire en ligne droite, c'est le cas pour des utilisations telles que la télévision
et la radio, mais pour permettre les transmissions sur de grandes distances, il est plus aisé
d'utiliser des satellites. Les satellites utilisés sont géostationnaires: ils tournent à la même vitesse
angulaire (par rapport au centre de la terre) que la terre avec une orbite située à 36.000 km
d'altitude. Si l'on prend la terre comme système de référence, alors un satellite géostationnaire est
immobile. Les principaux avantages sont la couverture de grandes distances, la diffusion, tout en
évitant les problèmes de câblages. Les principaux défauts sont l'affaiblissement des signaux dans
l'air et le temps de propagation qui est de l'ordre de 260 ms pour un trajet aller-retour. Un satellite
travaille au moins avec deux bandes de fréquences, une (montante) dans laquelle il reçoit les
informations, l'autre (descendante) dans laquelle il renvoie ces informations.
1.2.2.
LES LIAISONS SATELLITES
Encore balbutiantes il y a deux ans, les offres de connexions bidirectionnelles par satellite gagnent
du terrain : elles ont vu leurs prix baisser mais elles restent onéreuses pour de petites structures.
Après cinq ans de présence en France, l'Internet par satellite n'en est encore aujourd'hui qu'à son
tout début. Les offres bi-directionnelles donnent l'occasion pour les entreprises implantées en
province et ne disposant pas de l'ADSL, de profiter du haut débit sans payer le coût d'une ligne
spécifique.
En attendant la venue du Wimax, technologie de réseau sans fil longue portée, le satellite a le
champ libre pour s'imposer. La nouvelle loi sur l'économie numérique (LEN) pourrait également lui
donner un coup de pouce, en donnant aux municipalités la possibilité de jouer le rôle d'opérateur,
ce qui les laissent libres d'adopter de nouvelles technologies dont le satellite.
Autre élément qui pourrait jouer en faveur du satellite : les distributeurs proposent du matériel pour
pallier le temps d'accès parfois très long sur ce type de connexion.
Les services varient d'un revendeur à l'autre, les plus fréquent étant : des antivirus, des firewalls,
des noms de domaines et l'ajout d'IP fixes. De façon plus marginale, certaines entreprises
proposent de monter des réseaux VPN ou des solutions contre les intempéries.
Les débits proposés varient de 128 Kb/s à 1024 Kb/s.
page 12
Toute reproduction même partielle interdite IGPDE
Principes de télécommunication
2.
CARACTERISTIQUES LIEES AUX TRANSMISSIONS DE DONNEES
2.1.
Le débit
Il s’exprime en bits par seconde (bps) et ses multiples (Kbps, Mbps) et permet de calculer les
temps nécessaires au transfert des données.
2.2.
Les modes d’exploitation
Il s’agit du sens de transfert des informations entre les équipements situés aux extrémités des
liaisons. Il existe trois modes :
♦
simplex (ou unidirectionnel) ;
♦
semi-duplex (alternativement dans un sens puis dans l’autre) ;
♦
full duplex (les informations transitent dans les deux sens simultanément).
2.3.
La qualité de la liaison
Celle-ci s’exprime en taux d’erreur et est le résultat du rapport entre le nombre de bits (ou
caractères pour la transmission parallèle) erronés et le nombre total de bits (ou caractères) émis
pendant une période donnée.
Les erreurs sont détectées à l’aide de méthodes basées sur le codage des informations émises. Le
fameux "bit de parité" est l’exemple d’un codage destiné à repérer les erreurs de transmission.
D’autres codages existent, comme des sommes de contrôle (checksum) ou des contrôles
cycliques de redondance (CRC).
2.4.
Le mode de transmission
Deux modes existent : le mode série et le mode parallèle. En mode série, un caractère est
transmis sous la forme d’une file de bits (les uns à la suite des autres), alors qu’en mode parallèle
tous les bits sont envoyés simultanément ; il y a donc transfert complet d’un caractère à la fois.
2.5.
La synchronisation
Elément essentiel lié à la transmission des données, la synchronisation consiste à assurer une
adéquation entre le rythme de l’émission et celui de la réception afin de bien recevoir le message.
Cette synchronisation s’effectue grâce à des horloges situées à chaque extrémité de la liaison. On
distingue deux modes de transmission :
♦
asynchrone : dans ce cas, chaque horloge se recale sur l’autre après chaque caractère (on
parle aussi de transmission caractère) ;
♦
synchrone (ou en mode message ou mode bloc), qui permet de transmettre tous les bits d’un
même message de plusieurs caractères à l’aide d’un bit de synchronisation de départ.
Toute reproduction même partielle interdite IGPDE
page 13
Principes de télécommunication
3.
LES MATERIELS MIS EN ŒUVRE
Les matériels utilisés sont :
♦
les matériels d’entrée des données à distance et de restitution des résultats ;
♦
les matériels de transmission (modems, réseaux) ;
♦
les moyens de traitement (ordinateur central).
Donc une liaison télématique mettra en œuvre les éléments suivants :
TERMINAL
jonction
MODEM
LIGNE DE TRANSMISSION
MODEM
jonction
TERMINAL
4.
LA LOGIQUE MISE EN ŒUVRE
La logique mise en œuvre à l’occasion de l’utilisation des réseaux dépend en fait de la nature du
réseau et des choix qui ont été opérés en matière de fournisseur de gestionnaire de réseau.
Cette logique peut être différente selon qu’il s’agit d’un réseau local (Local Area Network ou LAN)
ou d’un réseau grande distance (Wide Area Network ou WAN).
Selon la logique retenue, les télécommunications s’appuieront sur un des deux modèles de
développement de réseau : OSI ou Internet.
page 14
Toute reproduction même partielle interdite IGPDE
Les réseaux
LES RESEAUX
1.
LES DEUX GRANDS MODELES DE RESEAUX
La conception d’un réseau est une opération d’une grande complexité. Pour sérier les problèmes
qui lui sont liés, on a défini des modèles théoriques sous forme de couches hiérarchisées.
À chacune de ces couches correspondent un ensemble de règles, appelée "protocole", qui permet
d’assurer des échanges corrects au niveau considéré. Ces protocoles sont l’objet de
normalisations afin qu’un grand nombre de systèmes d’informations puissent communiquer entre
eux.
1.1.
Le modèle OSI de l’ISO
La nécessité de rendre compatibles les solutions réseaux des constructeurs a amené l’ISO
(International Standards Organization), représenté en France par l’AFNOR, à proposer l’OSI (Open
System Interconnection).
Ce modèle de référence pour l’interconnexion de systèmes ouverts se compose de sept couches.
Chacune des couches joue un rôle essentiel et bien précis dans la cinématique de la procédure
d’interconnexion. Les sept couches du modèle OSI se décomposent comme suit :
♦
couche 7 "Application" : ce sont les programmes d’application ;
♦
couche 6 "Présentation" : il s’agit de la mise en forme des données ;
♦
couche 5 "Session", qui gère le dialogue ;
♦
couche 4 "Transport", qui effectue un contrôle de bout en bout du transfert des données ;
♦
couche 3 "Réseau", qui assure le relais des blocs de données à travers le réseau ;
♦
couche 2 "Liaison", qui gère le transfert entre deux systèmes en assurant le contrôle de la
bonne réception ;
♦
couche 1 "Physique", qui assure le transfert d’éléments binaires entre deux systèmes.
Ce modèle présente plusieurs avantages par rapport à la situation quelque peu anarchique qui
limitait auparavant les échanges informatisés :
♦
spécifiquement conçu pour la liaison de systèmes hétérogènes, il permet d’unifier les
méthodes d’accès au réseau et prend en compte l’ensemble des ressources nécessaires, tant
matérielles que logicielles, à l’utilisation des réseaux ;
♦
il n’est pas limité aux réseaux locaux et est soutenu par le CCITT, organisme chargé de la
standardisation des télécoms ;
♦
chaque couche du modèle OSI s’appuie sur l’ensemble des services apportés par les couches
inférieures et dialogue seulement avec les couches qui l’entourent ; aucun contact direct
n’existe donc entre les couches de même niveau de deux machines qui échangent des
informations. Ces informations transitent toujours à travers l’ensemble des couches selon des
règles très précises appelées protocoles.
Dans la pratique, on ne peut pas dire que tous les systèmes respectent strictement le modèle OSI.
Dans certains cas, des couches débordent sur d’autres couches, dans d’autres cas une seule
couche globale englobe plusieurs couches du modèle OSI.
page 16
Toute reproduction même partielle interdite IGPDE
Les réseaux
1.2.
Le modèle Internet de l’ARPA
Le modèle Internet de l’ARPA (Advanced Projects Research Agency) connue pour son réseau
Arpanet a été développé pour les besoins du département de la défense américaine.
Ce modèle ne présente que cinq couches (au lieu des sept du modèle OSI).
2.
TYPOLOGIE ET TOPOLOGIE DES RESEAUX
2.1.
Eléments matériel de basé
Les éléments d’un réseau local (non relié à l’extérieur) sont :
♦
les ordinateurs individuels : ils sont reliés au réseau par une carte spécialisée. Celle-ci est
identifiée par une adresse unique dite adresse MAC (medium access control) ;
♦
le réseau : il s’agit d’un réseau local, basé sur le protocole Ethernet. La jonction entre le
réseau et ses éléments est effectuée avec des prises RJ45 ;
♦
le hub : les appareils devant communiquer via le réseau sont connectés au hub, qui joue le
rôle d’un distributeur au sein du réseau local. La topologie des connexions au sein du hub est
celle d’un bus.
Comme chaque élément du réseau est relié par une liaison spécifique, la topologie du réseau est
celle d’une étoile. Pour étendre le réseau, plusieurs hubs peuvent être connectés.
Si maintenant on désire relier ce réseau local à un réseau plus étendu on rajoute :
♦
un routeur, qui permet de relier des réseaux distincts. Les données destinées au réseau local
ne franchissent pas le routeur et n’encombrent pas les lignes du réseau étendu ;
♦
enfin, si notre réseau local est particulièrement étendu, on peut diviser le réseau local en
plusieurs parties reliées par des ponts. La fonction d’un pont est d’écouter chaque segment du
réseau. Lorsqu’on transmet des données sur un segment du réseau, le pont auquel est relié ce
segment vérifie l’adresse de destination. Si elle fait partie du segment, le pont n’intervient pas.
Dans le cas contraire, le pont oriente les données vers le segment concerné au sein du
réseau.
2.2.
Architectures et topologie des réseaux
Il existe plusieurs architectures de réseaux traditionnels, à savoir les réseaux en étoile, les réseaux
en boucle et les réseaux hiérarchiques.
2.2.1.
LE RESEAU EN ETOILE
Dans les réseaux en étoile, un ordinateur principal est placé au centre du réseau. Des postes,
éventuellement des ordinateurs dépendants, sont reliés directement à l’ordinateur principal tout
autour, formant ainsi un dessin semblable à une étoile ; d’où le nom du réseau.
Toute reproduction même partielle interdite IGPDE
page 17
Les réseaux
D
A
C
B
E
La station D émet des messages à destination des autres stations du réseau local. Lorsque la
station B est en panne, les stations A, C et E reçoivent le message. Seul B est isolé du réseau.
Lorsque la station C est en panne, aucune station ne reçoit de message. En effet, C est la station
"relais" qui permet toute la communication sur le réseau local. C est un nœud du réseau.*
" Remarque :
Ce type de réseau est fragile.
2.2.2.
LE RESEAU LINEAIRE
A
B
C
D
L’information ne circule que dans un seul sens.
La station A émet un message à destination des autres stations du réseau local. Lorsque la station
B est en panne, les stations C, D et B (car elle est en panne) ne reçoivent pas le message. En
effet, la station B est une station relais pour les stations C et D.
Lorsque la station D est en panne, seule cette station ne reçoit pas le message.
" Remarque :
Ce type de réseau est extrêmement fragile.
page 18
Toute reproduction même partielle interdite IGPDE
Les réseaux
2.2.3.
LE RESEAU EN BOUCLE
Dans le cas du réseau en boucle, un câble formant une boucle débutant à l’ordinateur principal et
s’y terminant chemine en circuit fermé. Les postes sont reliés à ce câble et reçoivent les
informations qui circulent sur la boucle au fur et à mesure de leur arrivée. Tous les postes sont
arrosés" par les informations. À eux de savoir si celle-ci les intéresse et de s’en servir.
On peut aussi schématiser le réseau en boucle comme ceci :
A
E
B
D
C
Les liaisons sont doublées pour permettre la circulation des messages dans les deux sens.
Lorsque la station A émet un message et que la station B est en panne, les stations C, D et E
reçoivent le message, seule B ne le reçoit pas. La station A a émis le message dans les deux
sens.
Lorsque la station A émet un message et que la station C est en panne, les stations B, D et E
reçoivent le message, seule C ne le reçoit pas. La station A a émis le message dans les deux
sens.
" Remarque :
Ce type de réseau est plus sûr que les deux précédents (réseau en étoile, réseau
linéaire).
2.2.4.
LE RESEAU HIERARCHIQUE
Le réseau hiérarchique, comme son nom l’indique, met en œuvre de gros ordinateurs qui sont
maîtres et d’autres plus petits. Chaque petit ordinateur gère une sorte de réseau local et est
rattaché au réseau principal pour communiquer éventuellement avec les autres petits ordinateurs
eux-mêmes connectés au réseau principal.
2.3.
Les réseaux longue distance
Seuls sont abordés les points essentiels à mémoriser pour chacune des offres de réseau longue
distance existant actuellement qui peuvent orienter un choix d’organisation, à savoir :
♦
le réseau commuté, réseau public par excellence, sur lequel les informations transitent sur des
ressources de transmissions qui sont mises simultanément mais temporairement à la
disposition de tous les usagers,
Toute reproduction même partielle interdite IGPDE
page 19
Les réseaux
♦
à l’inverse, le réseau loué est permanent et s’appuie sur des liaisons spécialisées uniquement
accessibles à l’abonné.
2.3.1.
LES RESEAUX COMMUTES PUBLICS
2.3.1.1.
RTC (RESEAU TELEPHONIQUE COMMUTE)
C’est un réseau de structure maillée, réservé aux bas débits (9 600 bps) et qui assure le transport
de la voix et des données. Il utilise la commutation de circuit : une liaison est créée pour le temps
de la communication et libérée ensuite.
C’est un réseau presque entièrement numérique mais dont l’interface est analogique.
Ce réseau convient à une utilisation privée ou professionnelle peu fréquente d’un réseau de
transport ou d’accès à un autre réseau (accès Internet ou TRANSPAC par exemple). Il offre
néanmoins peu de sécurité, pour un taux d’erreur assez élevé (10-4).
Sa tarification s’effectue comme pour une facture téléphonique classique et comprend :
♦
des frais d’accès au réseau,
♦
un abonnement mensuel majoré éventuellement de frais dus à des services supplémentaires,
♦
le coût des communications établi à la durée en fonction de plages horaires.
2.3.1.2.
TRANSPAC (X25)
TRANSPAC est une filiale de France Télécom qui propose depuis 1978 les services du réseau de
même nom. Fondé sur la norme X25 (3 premières couches de la norme ISO), ce réseau
analogique utilise la commutation de paquets : les données sont scindées en blocs de 128 octets
auxquels s’ajoute un en-tête de 3 octets, le tout formant un paquet. Celui-ci constitue l’entité de
base transportée sur le réseau. L’une des particularités de TRANSPAC est la notion de circuit
virtuel. En effet, le circuit physique est établi pour une communication et peut être simultanément
emprunté par d’autres usagers.
Les paquets résultant du découpage des données utilisateurs transitent sur le réseau de transport
constitué :
♦
d’un réseau de distribution,
♦
de commutateurs de transit,
♦
du réseau principal.
Le premier paquet établit un chemin qui sera suivi par l’ensemble des paquets constitutifs du
même message (tables de routage gérées par les commutateurs).
Ce mode de transport implique des contrôles de la conservation de l’ordre des paquets (pour
reconstitution d’un message cohérent) et de flux. TRANSPAC supporte des débits allant jusqu’à 2
Mbps pour un taux d’erreur d’environ 10-8.
L’accès au réseau TRANSPAC nécessite la souscription d’un abonnement. Sa facturation tient
ensuite compte des moyens d’accès au réseau et de concentration et du coût des communications
proprement dites. L’accès au réseau peut s’effectuer par accès :
♦
direct par liaison spécialisée (concentrateur, modem, accès synchrones X25, hautes ou basses
vitesses, interface IP) : abonnement mensuel fonction de tranches de débit,
♦
direct par canal D Numéris (adaptateur) : tarif fonction du volume + abonnement mensuel,
♦
indirect par RTC ou Numéris canal B (coffret d’accès indirect) : facturation à la durée.
page 20
Toute reproduction même partielle interdite IGPDE
Les réseaux
Le coût des communications est fonction du type de circuit et du mode de tarification choisis par
l’abonné : pour les circuits virtuels (CVP et CVC), la taxation peut être indexée sur le volume ou sur
la durée.
TRANSPAC offre un service de groupe fermé d’abonnés (GFA), n’autorisant l’accès qu’à des
clients ayant des exigences de sécurité similaires. Ainsi, la DGI repose sur TRANSPAC dans le
cadre d’un GFA pour certaines de ses applications multisites.
L'intérêt de TRANSPAC réside dans la quasi-certitude pour l’utilisateur de voir son information
arriver à bon port. À cela plusieurs raisons : d’une part TRANSPAC double au moins ses
équipements de communication (nœuds, lignes…) afin de pallier une éventuelle défaillance ;
d’autre part, il est architecturé d’une manière telle que si un chemin direct d’un point à un autre
devient inopérant, une solution de secours est possible.
2.3.1.3.
TRANSDYN
C’est un service de télécommunication numérique par satellite composé d’un réseau satellitaire
proprement dit et de stations terrestres fixes ou mobiles (antennes). Il utilise le satellite
géostationnaire Telecom 2. À plus large échelle, les organismes Intelsat et Eutelsat (pour l’Europe)
se partagent la gestion de ce type de réseaux.
L’accès à ce mode de télécommunication est différencié en trois catégories :
♦
accès sur réservation : comme son nom l’indique, l’abonné au service doit réserver une
journée à l’avance une plage de communication et en préciser les paramètres (date, heure,
qualité de la liaison),
♦
accès appel par appel ou aléatoire : une phase d’appel permet d’établir la liaison entre les
deux équipements communicants,
♦
accès temps partiel : la liaison est louée pour une plage donnée dont la durée et la période
sont déterminées par contrat.
Le réseau TRANSDYN est adapté aussi bien aux bas débits (2 400 à 9 600 bps) qu’aux hauts
débits (128 000 bps et plus), pour un taux d’erreur faible (10-9) dont la valeur peut être encore
diminuée par abonnement à un service de correction d’erreur.
C’est un mode de transmission fiable mais manquant de souplesse notamment en ce qui concerne
la réglementation des accès. Pour cela, il est utilisé majoritairement pour des opérations ayant trait
à des transferts de volumes importants et planifiés. Le principe de facturation se décompose en :
♦
frais d’accès au réseau suivant la classe de débit,
♦
frais fixes (équipements terrestres locaux),
♦
abonnement mensuel suivant la classe de débit,
♦
coût des communications dépendant du débit, des horaires, du niveau de service appliqué et
du mode d’accès retenu.
2.3.1.4.
TRANSCOM
Il s’agit d’un service de télécommunication numérique de type commuté (commutation de circuit
comme le RTC) offrant un débit de 64 000 bps.
Ce service qui a vu le jour en 1986 est basé sur l’utilisation des lignes téléphoniques numériques
(du réseau RTC) et de commutateurs numériques, réalisant ainsi une liaison numérique de bout en
bout. TRANSCOM a préfiguré Numéris.
Toute reproduction même partielle interdite IGPDE
page 21
Les réseaux
2.3.2.
LES RESEAUX LOUES
Pour des raisons de sécurité le plus souvent, des entreprises sont amenées à préférer des liaisons
louées à l’offre de transmission commutée. Il s’agit néanmoins de réseaux publics, dont une partie
des liaisons sont mises à la disposition permanente de l’abonné. En France, les deux services les
plus fréquemment rencontrés en matière de liaisons spécialisées sont TRANSFIX et les liaisons
spécialisées analogiques.
2.3.2.1.
TRANSFIX
Ce service, disponible depuis 1985, s’appuie sur le réseau physique TRANSMIC (TransModulation par Impulsion et Codage) qui utilise une méthode de multiplexage dans le temps (32
voies logiques véhiculant l’information). Il s’agit d’un réseau numérique couvrant une large gamme
de débits (de 2,4 à 1920 Kbps) et offrant une excellente couverture du territoire national. Ses
points forts sont :
♦
la supervision de réseau,
♦
la qualité de service,
♦
un taux d’erreur de 10-7 à 10-8.
" Remarque :
TRANSPAC loue des lignes TRANSFIX.
2.3.2.2.
LES LIAISONS ANALOGIQUES SPECIALISEES
Elles sont basées sur le RTC, à la permanence près. Pour un taux d’erreur d’environ 10-7, ces
liaisons offrent une qualité supérieure à celle du RTC. Le débit maximum autorisé est de 19,2
Kbps, ce qui reste suffisant pour de la transmission de données (sauf gros volumes). C’est un
service encore attractif compte tenu d’un mode de tarification basé sur un forfait d’accès et un
abonnement mensuel, indépendamment du volume ou du taux d’utilisation.
2.4.
Les autres technologies
2.4.1.
NUMÉRIS
NUMÉRIS est la version Française du RNIS (Réseau Numérique à Intégration de Services). Le
principe du RNIS est l’intégration dans un réseau numérique unique des services des autres
réseaux (RTC, TRANSCOM, TRANSPAC) de façon à transporter la voix, les données, les images
animées ou non. Les abonnés NUMÉRIS peuvent ainsi communiquer avec les usagers de ces
réseaux. Deux types de canaux véhiculent l’information :
♦
le canal D transporte les données de signalisation,
♦
le canal B transporte les données elles-mêmes, sur des liaisons numériques synchrones à
64 Kbps.
NUMÉRIS fournit :
♦
des services support réseau TRANSCOM (données) et RTC (données non stratégiques : voix,
télécopies) à 64 Kbps,
♦
un service d’accès à TRANSPAC (canal D),
♦
des téléservices : téléphone, télécopie, vidéotex, télétex,
♦
des services de complément : l’identification, le transfert, la présentation d’appel…
page 22
Toute reproduction même partielle interdite IGPDE
Les réseaux
NUMÉRIS a été créé pour remplacer TRANSCOM et RTC. Mais la migration ne pourra s’effectuer
qu’à l’occasion de baisses significatives des coûts. Sa tarification est soumise aux même principes
que pour le RTC.
2.4.2.
LE RELAIS DE TRAME (FRAME RELAY)
Le principe du relais de trames est dérivé de la norme X25, à la différence près que les trames
sont prises en charge par les couches 1 et 2 uniquement du modèle ISO. Le Frame Relay Forum
est chargé de sa normalisation. L’amélioration apportée par cette technique provient donc de la
disparition des contrôles d’erreurs et de flux dans les nœuds du réseau (assurés au niveau de la
couche 3 en X25) : les contrôles s’effectuant aux extrémités, le transfert des données est plus
rapide.
Les corrections X25 en matière de contrôle, de demandes de retransmission sont effectuées au
niveau du réseau grande distance ce qui les rend peu efficientes lors des interconnections avec les
réseaux locaux. Globalement, les caractéristiques d’un réseau relais de trames sont similaires à
celles d’un réseau X25 (TRANSPAC). Il faut également noter que le relais de trame n’est possible
que dans un contexte de fiabilité maximum : les contrôles non pris en charge doivent être
compensés par la fiabilité du réseau et des ressources intermédiaires.
Le relais de trames est adapté à la liaison avec les réseaux locaux car, bien qu’utilisant les mêmes
infrastructures de base que X25, la longueur des trames peut atteindre 4 096 octets et contenir
entièrement une trame Ethernet sans la fragmenter. En France, l’implémentation du relais de
trames est partagée entre les opérateurs TRANSPAC, SIRIS et EQUANT. Le réseau physique
s’appuie sur des lignes TRANSFIX (circuit virtuel permanent).
Aujourd’hui Frame Relay devance l’ATM et X25 pour les mises en place de réseaux nouveaux.
C’est un réseau fortement orienté données, cependant la voix commence à être intégrée.
2.4.3.
ATM (ASYNCHRONOUS TRANSFER MODE)
Le développement de l’ATM correspond à un nouveau besoin d’intégration voix-données-images.
À titre d’information, la diffusion d’images animées nécessite une vitesse de 100 Mbps minimum.
Il s’agit d’un mode de communication numérique asynchrone par paquets : les données sont
découpées en cellules de taille fixe et réduite, ce qui permet une très grande vitesse de
transmission. Ces cellules se déplacent de manière intelligente et indépendante et savent choisir le
chemin optimal. Les données sont reconstruites à l’arrivée en respectant leur synchronisme ce qui
permet le transfert associé de l’image et du son. Cette technique de commutation large bande
conçue par le CNET supporte des liaisons à débit variable.
La particularité de l’ATM est le support de tous les réseaux physiques existants locaux et distants.
C’est le vecteur de communication qui adhère le mieux au concept des « autoroutes de
l’information » : diversité des débits (allant jusqu’aux très hauts débits sur fibre optique) et
intégration de multiples technologies (réseau local, d’entreprise ou de transport).
La mise en œuvre d’ATM, protocole complexe, se déroule en plusieurs étapes au sein des liaisons
longue distance. Les réseaux locaux équipés peuvent être considérés comme des réseaux ATM
privés.
2.4.4.
TCP/IP (TRANSPORT CONTROL PROTOCOL/INTERNET PROTOCOL)
Il s’agit d’un ensemble de protocoles développés au début des années 1970 et présents au début
principalement dans le monde UNIX.
Toute reproduction même partielle interdite IGPDE
page 23
Les réseaux
IP occupe la couche 3 et TCP la couche 4 en débordant sur la couche 5 :
Couche Application
Couche Transport (TCP)
Couche Internet (IP)
Couche Réseau
TCP/IP n’est pas qu’un simple protocole de transport, c’est toute une architecture qui couvre
l’ensemble des couches et inclus des applications telles que FTP (File Transfert Protocol) pour le
transfert de fichiers, NFS pour le partage de fichier… TCP/IP oblige à définir une adresse unique
pour chaque machine connectée au réseau.
Les adresses IP sont codées sur 32 bits, soit un peu plus de 4 milliards d’adresses possibles. Ces
32 bits se répartissent entre la classe d’adresse qui détermine l’ampleur du réseau et les
adresses des stations.
L’attribution des adresses des stations est effectuée par un organisme international : L’IANA
(Internet Assigned Numbers Authority).
Classes d’adresse :
♦
Classe A : adresses réseau codées sur 8 bits et attribuées à des entités (organisations, pays,
compagnies) ayant besoin d’une grande quantité d’adresses IP. On ne peut définir que 126
réseaux de classe A mais plus de 16 millions d’adresses sont disponibles.
♦
Classe B : adresses réseau codées sur 16 bits, admettant environ 16 000 réseaux.
♦
Classe C : adresses réseau codées sur 24 bits, admettant environ 2 millions de réseaux.
La limitation des adresses selon la classe du réseau qui est attribué à une société peut ne pas
suffire à couvrir les besoins de celle-ci. C’est pourquoi IP utilise un masque de sous-réseau pour
séparer l’adresse réseau de l’adresse des stations. L’usage des sous-réseaux permet de diviser la
plage d’adressage, au sein d’un même organisme, en plusieurs blocs d’adresses IP de taille
réduite. Enfin, la liaison entre l’adresse IP et la carte réseau de la station est assurée par le
protocole ARP (Address Resolution Protocol) qui constitue une table de correspondance entre
l’adresse IP et l’adresse physique (Ethernet).
Même si l’adresse IP est plus facilement compréhensible que l’adresse MAC de l’interface réseau,
elle n’est guère significative. Aussi la plupart des utilisateurs préfèrent utiliser des noms "en clair"
tels que "http : // www.société.com". Pour pouvoir utiliser cette désignation, il faut des bases de
données capables de convertir les adresses IP en adresses mémorisables aisément. Ceci est
réalisé par la résolution de noms. Lorsqu’un ordinateur recherche une adresse libellée en clair, il
interroge le serveur DNS (Domain Name Server) pour connaître l’adresse IP correspondante.
On voit que le paramétrage de TCP/IP est complexe. Ce protocole étant désormais largement
répandu dans le monde de la micro informatique, Microsoft a intégré dans son système
d’exploitation Windows un service de paramétrage dynamique DHCP (Dynamic Host Configuration
Protocol). Le rôle de DHCP est d’attribuer automatiquement des adresses IP aux ordinateurs du
réseau.
page 24
Toute reproduction même partielle interdite IGPDE
Les réseaux
2.5.
Les réseaux locaux (LAN)
2.5.1.
ETHERNET
Ethernet fait partie de la famille de protocoles CSMA/CD définis par la norme IEEE 802.3.
Physiquement, un segment Ethernet est un câble sur lequel sont connectés les différents nœuds
du réseau. Il peut s’agir de fibre optique, de câbles à paires torsadées, de câbles coaxiaux :
Support
Longueur maximale
Paires torsadées
100 mètres
Fibre optique
2 km
Câble coaxial
185 mètres
Ethernet est basé sur une typologie logique de type bus : les trames émises sont diffusées en
parallèle à tous les nœuds du réseau.
2.5.1.1.
LE 10 MBPS
L’architecture Ethernet standard est performante en présence d’un trafic faible. Elle se révèle lente
dès que le trafic devient trop important en raison des collisions plus fréquentes.
Une différence doit être faite entre le trafic sur le réseau et le nombre de postes connectés. Le
réseau peut saturer avec quelques postes s’échangeant beaucoup de données et fonctionner
correctement avec de nombreux postes connectés dialoguant peu souvent et/ou échangeant peu
d’informations.
2.5.1.2.
LE 100 MBPS
Il utilise la même méthode d’accès et le même format de trame. Cependant les élément matériels
(Hub, adaptateurs) sont spécifiques. Ceux utilisés pour l’Ethernet à 10 Mbps ne peuvent donc pas
être recyclés. Des collisions étant toujours possibles, le débit réel sera inférieur aux 100 Mbps
théoriques (40 à 60 Mbps).
Le protocole Ethernet s’applique aux réseaux locaux, les connexions longue distance passent par
des réseaux étendus dont les protocoles sont présentés dans les paragraphes suivants. En outre,
Ethernet n’est pas vraiment adapté aux transmissions numériques massives requises par le
multimédia en raison de l’absence de synchronisation.
2.5.2.
LE RESEAU A JETON
Ce type de réseau local est basé sur une méthode d'accès à jeton.
Ces méthodes d'accès, basées sur la circulation d'un jeton (token), sont des méthodes
déterministes empêchant les collisions de se produire. Le principe de base utilise un jeton libre (qui
est une séquence de bits prédéfinie) circulant librement sur le réseau. Toute station désirant
émettre un message doit s'emparer du jeton. Dès qu'elle l'a pris, elle peut émettre son ou ses
messages librement. Quand elle a terminé d'émettre, elle renvoie le jeton sur le réseau à la station
suivante. Si le jeton est pris par une autre station, il faut attendre. Ainsi, il n'y a pas de risque de
collision. Cette méthode peut être employée pour des réseaux en bus ou en anneau.
Cette technique est utilisée dans l'anneau à jeton (token ring) d'IBM qui permet des débits de
l'ordre de 18 Mbps.
Toute reproduction même partielle interdite IGPDE
page 25
Les réseaux
2.5.3.
LE STANDARD FDDI
FDDI (Fiber Distributed Data Interface) est un standard pour réseaux locaux ou métropolitains. Ce
standard est basé sur une structure d'anneau à jeton ainsi que sur l'utilisation de fibres optiques
pour le câblage. Ce protocole doit permettre d'accroître considérablement la performance, la
sécurité et la fiabilité des réseaux locaux. Il couvre les deux premiers niveaux du modèle OSI.
Le principal avantage de la fibre optique et de la transmission de signaux lumineux par rapport aux
fils de cuivre et des signaux électriques provient de la bande passante disponible. Le standard
FFDI définit une bande passante de 100 Mbits par seconde (Mbps) alors qu'un réseau de type
Ethernet est prévu pour 10 Mbits/s.
Parmi les autres avantages de FDDI, notons que les stations sur le réseau peuvent être séparées
par de longues distances jusqu'à deux kms). La distance maximale prévue pour de tels réseaux est
d'une centaine de kms.
La technologie FDDI repose sur l'utilisation de deux anneaux à jeton pour garantir une bonne
fiabilité. En mode normal d'utilisation seul un des anneaux est utilisé. Le second n'est utilisé qu'en
cas de problèmes sur le premier anneau. Les informations circulent alors dans le sens opposé à
celui du premier anneau.
Le problème majeur dans l'utilisation de fibres optiques provient de la difficulté à réaliser des
connexions.
2.6.
Le réseau mondial Internet
Un développement de la notion d'Internet a été réalisé par l'organisation DARPA (Defense
Advanced Projects Research Agency) connue pour son réseau Arpanet. Ce développement a
donné lieu à un modèle appelé TCP/IP (Transmission Control Protocol / Internet Protocol) du nom
des deux protocoles les plus connus. TCP fournit un service de transport de bout en bout pour
toute application, alors que IP est responsable du routage de l'information à travers le réseau.
Internet ne doit pas être considéré comme une mode passagère, une technologie supplémentaire,
mais bien plutôt comme la forme la plus apparente de la révolution numérique. Son entrée dans la
société informationnelle et l’émergence de nouveaux outils de communication bouleversent déjà
les règles de l’économie mondiale.
Nous assistons depuis une quinzaine d’année à développement dynamique d’Internet. En 1995, le
monde comptait moins de 10 millions de serveurs Internet, il y en a plus de 100 millions
aujourd’hui. Ce succès a surpris presque tout le monde par sa rapidité et sa puissance, qui n’en
est probablement qu’au commencement.
2.6.1.
DEFINITION
Internet, le "Réseau des réseaux", est un ensemble de réseaux interconnectés sous le protocole
TCP/IP. Les autorités militaires de l’époque ont voulu mettre sur pied un réseau capable :
♦
de relier une grande variété d’ordinateurs, quelques soient leurs systèmes d’exploitation
respectifs ;
♦
de résister à une attaque nucléaire. De ce fait, le réseau ne devait pas être centralisé. Ses
fonctions vitales ne devraient pas être concentrées sur quelques sites.
Plusieurs organismes gèrent le fonctionnement d’Internet :
page 26
Toute reproduction même partielle interdite IGPDE
Les réseaux
♦
l’ISOC (Internet Society) créée en 1990 organise, centralise et finance les travaux de
normalisations des protocoles utilisées sur Internet ;
♦
l’IAB (Internet Architecture Board) conseille techniquement l’ISOC depuis 1983. Elle est
composée de l’IETF et de l’IRTF ;
♦
l’IETF (Internet Engineering Task Force) est chargée de résoudre les problèmes à court
terme ;
♦
l’IRTF (Internet Research Task Force) est chargée de l’évolution, à long terme d’Internet.
2.6.2.
L’ACCES AU RESEAU INTERNET
Le réseau Internet est composé des éléments suivants :
♦
L’utilisateur, équipé d’un micro-ordinateur, lance l’exécution d’un logiciel de navigation (le
"navigateur") qui demande à consulter un site Web. L’ordinateur compose le numéro de
téléphone du fournisseur d’accès.
♦
Les fournisseurs d’accès ("providers" en anglais) sont des intermédiaires incontournables qui
ouvrent une "porte" sur Internet, moyennant un abonnement dont la tendance va vers la
gratuité (financement par la publicité). Ils disposent de lignes privées à haut débit fonctionnant
24 heures sur 24. Ils établissent la connexion avec le réseau, attribuent une adresse (IP) à
l’utilisateur et lui envoient celle du serveur Web demandé.
♦
Internet repose sur une norme de communication permettant la coopération entre des
machines et des réseaux disparates. L’information et son cheminement sont gérés par deux
protocoles de transmissions, "TCP" et "IP". Le protocole TCP (Transmission Control Protocol)
établit une connexion entre deux ordinateurs et fragmente les données en petits paquets
numériques. Le protocole IP (Internet Protocol) assure le cheminement et la cohérence de ces
données. L’adresse IP attribuée par le fournisseur d’accès est une suite de quatre nombres qui
désigne et identifie l’ordinateur sur le réseau. Dès que l’ordinateur est identifié, l’information
peut transiter.
♦
L’information est dirigée vers les routeurs, ordinateurs spécialisés dans la régulation du trafic
(par l’utilisation de tables de routage IP). Ils reçoivent les données sous forme de paquet TCP
générés par l’ordinateur de l’internaute. Ils les vérifient et les acheminent vers leur destination
finale. Les paquets transitent par différents routeurs.
♦
L’information arrive à destination. Les paquets sont rassemblés. Le serveur du site (appelé
"site Web") fragmente la page Web demandée en paquets TCP. Il utilise le même procédé
pour retourner l’information vers l’internaute.
Internet offre une grande variété de services que l’on peut regrouper en quatre ensembles :
♦
la communication entre personnes ;
♦
le transfert de fichiers ;
♦
les applications du Web.
2.6.3.
LES SERVICES DE COMMUNICATION ENTRE PERSONNES
Ils permettent de s’échanger des messages et/ou d’y adjoindre des documents sous forme de
pièces jointes. Il s’agit :
♦
des messageries électroniques (e-mail) ;
♦
des forums de discussions ;
♦
de la téléphonie et de la visiophonie.
Toute reproduction même partielle interdite IGPDE
page 27
Les réseaux
2.6.3.1.
MESSAGERIES ELECTRONIQUES (E-MAIL)
Les services de messagerie utilisent le protocole SMTP (Simple Mail Transfert Protocol) pour
l’envoi des messages accessibles en ligne.
Par contre, en mode différé, le message est rédigé hors connexion et envoyé sur un serveur POP
(Post Office Protocol).
Les pièces jointes doivent être au format ASCII. L’utilitaire MIME (Multipurpose Internet Mail
Extension) permet de transférer des fichiers binaires.
2.6.3.2.
LES FORUMS DE DISCUSSION
Organisés par thèmes, ils regroupent des boites à lettres qui permettent l’échange d’informations.
Quelques exemples de thèmes : news (informations sur le réseau, utilisent les protocoles UUCP et
NNTP), sci (sciences), misc (miscellaneous : divers)…
2.6.3.3.
LA TELEPHONIE ET LA VISIOPHONIE
Il s’agit en réalité non pas de communication en temps réel mais de transfert de fichiers son et
vidéo qui, s’ils sont rapides, donnent l’illusion d’une communication en temps réel.
Le son et la vidéo sont numérisés, compressés puis transmis à la machine distante qui effectue
leur décompression et leur restitution.
La qualité de la communication est fortement dépendante de la bande passante de la liaison à
Internet, de la charge du réseau et de la puissance de traitement des machines interconnectées.
2.6.3.4.
LE TRANSFERT DE FICHIERS (FTP)
FTP (File Transfert Protocol) permet d’importer sur la machine locale des fichiers ASCII ou binaires
(par l’intermédiaire de MIME) disponibles sur un serveur distant.
Une phase d’authentification (fourniture d’un nom d’utilisateur "login" et d’un mot de passe) est
généralement préalable au transfert proprement dit.
Il existe cependant des noms génériques donnant l’accès à des données "publiques",
généralement il s’agit de "guest" (invité) ou "anonymous" (anonyme).
L’accès aux fichiers disponibles s’effectue comme sur un disque dur local, avec des restrictions
d’accès selon les droits conférés à l’utilisateur authentifié. Ces systèmes distants sont souvent
gérés sous Unix.
2.6.3.5.
LE WORLD WIDE WEB (WWW)
Le World Wide Web (www), généralement abrégé en "Web" signifie "Toile Mondiale", par analogie
au maillage d’une toile d’araignée.
Le Web est né au CERN (Centre Européen de Recherche Nucléaires) pour permettre l’échange
aisé d’informations entre les ordinateurs des différents laboratoires.
L’accès au réseau Internet passe par l’usage d’adresses TCP/IP et éventuellement de noms de
domaines.
page 28
Toute reproduction même partielle interdite IGPDE
Les réseaux
2.6.3.6.
L’URL
Le Web est un sous-ensemble d’Internet dans lequel chaque ordinateur est identifié par une
adresse spécifique : l’URL (Uniform Resource Locator), dont la structure est la suivante :
<protocole>://<domaine>:<port>/<chemin d’accès>/<fichier>#<balise-html-optionnelle>
Par exemple "http://www.ladocfrancaise.gouv.fr" donne accès au site de la documentation
française.
En permettant d’accéder de proche en proche aux ordinateurs composant le réseau et en gérant le
dialogue, le mode de fonctionnement Web permet d’utiliser plus efficacement et plus simplement
Internet.
2.6.3.7.
LE MODELE CLIENT/SERVEUR DU WEB
Le navigateur s’appuie su IP pour transmettre les requêtes aux serveurs concernés. Chaque
serveur « écoute » des ports correspondant aux services qu’il fournit.
Par défaut, le port 80 est affecté au service HTTP, le port 21 au service FTP. Des programmes
dédiés prennent ensuite en charge le traitement des requêtes.
Le succès du Web est basé sur l’utilisation de deux protocoles : HTML et HTTP.
2.6.3.8.
LE PROTOCOLE HTML
HTML (Hypertext Mark-up Language) d’associer à un ensemble de mots consécutifs, dans un texte
donné, les coordonnées d’un site (Web ou FTP) ou d’un fichier. Cet ensemble de mots est mis en
valeur par rapport au texte (couleur spécifique et/ou soulignement).
C’est ce que l’on nomme les liens hypertexte. En cliquant (avec la souris) sur cet ensemble de
mots à l’écran, l’utilisateur accède directement à l’élément référencé.
Ces systèmes d’hypertexte sont également utilisés en dehors d’applications réseau, pour naviguer
entre des pages d’un document important (fichiers d’aide, dictionnaires, ouvrages
encyclopédiques…).
2.6.3.9.
LE PROTOCOLE HTTP
HTTP (HyperText Transfert Protocol) permet de différencier, lors des connexions aux ordinateurs
du réseau, la représentation de l’information et le codage des liens hypertexte à représenter. HTTP
autorise l’accès aux pages HTML et aux éléments multimédia les composant : images, vidéos et
sons.
2.6.3.10.
LA STRUCTURE DE L’INFORMATION SUR LE WEB
L’analogie la plus utilisée pour expliquer le Web est celle d’un livre. Imaginez chaque site Internet
comme un ouvrage dont le texte comporterait des renvois à non seulement à d’autres chapitres de
l’ouvrage mais aussi des renvois aux autres livres de la bibliothèque et aux documents de
l’ensemble des bibliothèques de la planète.
L’intérêt extrême accordé au Web s’explique par l’aisance de navigation entre les renvois.
L’utilisateur consultant la page HTML n’a pas à connaître l’URL du renvoi. Seul le concepteur de la
page Web doit la connaître. L’utilisateur ne verra qu’un texte explicatif ou une image sur lequel il
cliquera pour accéder au site désiré.
Toute reproduction même partielle interdite IGPDE
page 29
Les réseaux
La définition des pages Web
HTML ne se contente pas de permettre la définition des liens entre les pages Web. Il constitue un
langage de description de mise en forme. Des mots-clés permettent de définir les polices de
caractères utilisées, de diviser la page en zones, d’inclure des tableaux, des images…
L’utilisation du Web
La lecture de pages HTML est effectuée par un programme spécifique dénommé « navigateur ». Il
fusionne un gestionnaire de télécommunication reposant sur le protocole HTTP et un interpréteur
de langage HTML pour la restituer à l’écran des pages du Web. Les navigateurs les plus connus
sont Internet Explorer (de Microsoft) et Navigator (de Netscape).
Les sites Internet
Chaque page Web est conçue soit en programmant en code HTML, soit en utilisant un logiciel
spécialisé tel que Microsoft FrontPage ou WebExpert ; ce type de logiciel ayant l’avantage de
dispenser l’utilisateur d’une connaissance du code HTML et de permettre une visualisation de la
page. Lorsque la page est terminée, le(s) fichier(s) contenant le code HTML et les éventuels
documents multimédia associés sont copiés sur le serveur du fournisseur d’accès.
2.6.4.
EXTRANET ET INTERNET, DECLINAISONS DE LA TECHNOLOGIE INTERNET
La technologie Internet est utilisée sous deux autres formes : Intranet et Extranet :
♦
Intranet est un réseau à technologie Internet mais réservé exclusivement à un nombre
restreint de personnes, le plus souvent appartenant à la même entreprise ou administration.
L’intérêt majeur d’Intranet est de fédérer des environnements applicatifs hétérogènes et ainsi
de les rendre accessibles à un plus grand nombre à moindre frais, mais également de
mutualiser, de capitaliser et de rendre accessibles les connaissances à l’intérieur de
l’entreprise ou de l’administration.
♦
Extranet est une variante d’Intranet mais dont l’accès est ouvert à un nombre restreint de
personnes externes à l’entreprise ou à l’administration.
2.7.
Les futures infrastructures technologiques des réseaux à haut débit
Si, pour l’heure, les infrastructures de réseaux et les technologies de transport des projets
américains "Internet 2" et européens "TEN-155/Quantum" ont été conçues pour les communautés
universitaires, elles n’en demeurent pas moins un laboratoire de tests pour l’industrie, d’où devrait
sortir la prochaine génération d’Internet.
Les technologies nouvelles vont permettre aux opérateurs de brasser plus de trafic pour une
qualité de service enfin à la mesure des besoins.
Il ne faudra pas plus de un à trois ans pour que les technologies récentes commencent aient des
répercussions sur Internet et qu’elles donnent naissance à une nouvelle génération
d’infrastructures physiques et applicatives. Ces travaux devraient déboucher sur de nouvelles
technologies qui permettent de mieux gérer la bande passante.
Ces nouvelles générations d’infrastructures physiques et applicatives impliqueront forcément la
fusion des réseaux de télécommunication et d’Internet et devraient se concrétiser par des services
beaucoup moins chers, notamment pour la téléphonie et la vidéoconférence.
page 30
Toute reproduction même partielle interdite IGPDE
Les réseaux
Tous les grands opérateurs travaillent en effet à la mutation de leur réseau qui fera passer sur un
même fil des services de voix et de données.
2.7.1.
LA VITESSE DE TRANSMISSION, ENJEU TECHNOLOGIQUE MAJEUR
Pour répondre à une demande croissante des entreprises en termes de hauts débits, les
opérateurs de télécommunication investissent dans de nouvelles technologies de réseaux à large
bande comme le câble, la fibre optique ou l’ADSL.
La guerre que se livrent les fabricants d’équipements de télécommunications et les opérateurs
téléphoniques pour prendre position sur ces nouveaux marchés a pour enjeu principal le contrôle
de la bande passante, sorte de gros « tuyau » qui alimente l’ordinateur en informations. Plus ce
tuyau est large, plus le débit de l’information peut être important, plus vite les données arrivent à
l’ordinateur.
Deux types de technologies complémentaires multiplient la capacité de transmission des données :
la fibre optique permet le transport de l’information entre les serveurs, tandis que les technologies
DSL (Digital Subscriber Line) augmentent la vitesse d’accès entre le serveur et l’utilisateur.
2.7.1.1.
LES TECHNOLOGIES DE TRANSMISSION PAR FIBRES OPTIQUES
Les réseaux de fibres optiques ont vu leur performance accrue grâce aux technologies EDFA
(Erbium Doped Fiber Amplifier) et DWDM (Dense Wavelenght Division Multiplexing).
La première évite à un signal optique d’avoir à être converti en signal électronique lorsque les
informations arrivent sur le serveur. La seconde repose sur la division d’une même ligne en
plusieurs sous-lignes qui permet le transport d’une masse d’informations plus importante en un
temps plus court.
Une fois que ces informations sont arrivées au serveur, celui-ci les renvoie vers l’utilisateur qui, s’il
n’est pas câblé, utilise sa ligne téléphonique comme moyen de réception.
2.7.1.2.
LA TECHNOLOGIE DSL OU ADSL (ASYMETRIC DIGITAL SUBSCRIBER LINE)
Expérimentée fin 1996, il aura fallu moins de trois ans pour que la technologie ADSL passe du
stade expérimental au stade commercial en Île-de-France.
La technologie ADSL présente l’intérêt d’utiliser les infrastructures des actuels réseaux
téléphoniques tout en augmentant leur performance grâce à la conversion du signal analogique en
signal numérique.
En numérisant la partie terminale de la ligne téléphonique, la technologie ADSL donne accès à un
flux de données à très haut débit tout en laissant disponible la ligne téléphonique. L’ADSL utilise
les bandes de fréquences supra-vocales de la ligne téléphonique traditionnelle.
L’installation d’un modem et d’un filtre ADSL à chaque extrémité de la ligne téléphonique permet
d’exploiter ces fréquences. Ainsi équipé, il est possible d’émettre et/ou de recevoir des données
informatiques à haut débit.
La technologie ADSL autorise des débits 40 à 70 fois plus élevés qu’avec un simple modem sur
une ligne RTC. Cette évolution technologique majeure permet d’utiliser une même ligne
téléphonique pour téléphoner et naviguer simultanément sur le Web.
Internet est le seul service intéressant sur ADSL, le câble et le satellite étant mieux adaptés à la
télévision par exemple. L’ADSL permet de rester connecté en permanence à Internet, avec des
débits beaucoup plus importants.
Toute reproduction même partielle interdite IGPDE
page 31
Les réseaux
Mais si l’ADSL exploite les infrastructures existantes, il nécessite la mise en place d’équipements
adaptés, à la fois chez le client (filtre de séparation entre les communications téléphoniques et le
trafic des données, modem ADSL et carte réseau Ethernet) et au central téléphonique.
ADSL reste une solution très intéressante pour les gros consommateurs d’Internet et en particulier
pour les PME à la recherche de liaisons permanentes et qui hésitent à louer une ligne spécialisée
pour des raisons économiques.
2.7.1.3.
LE PROTOCOLE IP-V6
La croissance exponentielle du nombre de serveur connecté sur le réseau Internet contribue à
rendre obsolète le protocole "IPv4" identifiant chaque machine connectée sur Internet et régissant
les échanges d'informations sur le réseau.
Lorsque le protocole "IPv4" a été conçu au début des années 1970, il n'existait qu'une centaine
d'ordinateurs en réseau. Quatre milliards d'adresses disponibles, cela semblait alors largement
suffisant. Aujourd'hui, on est proche de la pénurie.
L'explosion du réseau mondial engendre, en effet, une pénurie des combinaisons de chiffres
identifiant les ordinateurs connectés. Le protocole "IPv4" doit donc progressivement être remplacé.
La nécessité d'une migration vers un système aux capacités presque illimitées constituait le terme
central du Forum consacré à l'IPv6 qui s'est tenu à Madrid du 13 au 15 mars 2002. Ce forum,
regroupant un grand nombre d'acteurs d'Internet et des télécommunications, a fait écho à une
communication de la Commission européenne qui appelait, fin février 2002, les Etats membres et
le secteur privé à se mobiliser pour promouvoir le nouveau protocole.
Le déploiement de la norme "IPv6", testée depuis le milieu des années 1990, permettra au réseau
de poursuivre sa croissance au-delà des ordinateurs. Il sera en effet indispensable au
développement de l'Universal Mobile Telecommunications System (UMTS) et de l'Internet mobile
comme à celui de la domotique en réseau.
Le standard actuel, qui prévoit un codage des adresses sur 32 bits (une succession de quatre
séries de chiffres telle que : 64.231.174.167) permet l'octroi d'un nombre d'adresses IP plafonné à
environ 4 milliards. La norme "IPv6" permet de coder des adresses IP sur une longueur quatre fois
plus grande, c'est-à-dire 128 bits. Il en résulte des capacités d'adressage presque infinies, c'est-àdire de l'ordre de 4 milliards à la puissance quatre.
Le nouveau standard devrait se développer plus rapidement en Asie où le manque d'adresses est
le plus fort. Aujourd'hui, une part importante du déploiement d'IPv6 se situe au Japon. En Europe,
les entreprises n'ont pas encore un fort besoin de franchir le pas.
Le basculement ne se fait pas sans mal, car tous les maillons de la chaîne - logiciels, systèmes
d'exploitation, routeurs, etc. - doivent être adaptés à la nouvelle norme. De plus, les deux
protocoles doivent cohabiter sur les mêmes équipements.
En aucun cas le basculement d'un protocole à l'autre ne se fait de façon brutale. Aujourd'hui,
poursuit le chercheur, "99,99 % du trafic mondial repose encore sur le protocole "IPv4". Dans les
cinq à dix prochaines années, la tendance devrait lentement s'inverser.
L'arrivée massive sur le marché de nouveaux terminaux connectés en permanence au réseau et,
notamment, des terminaux téléphoniques de troisième génération ou les nouvelles applications
domotiques, créera une forte demande d'adresses et devrait accélérer ce processus.
Aujourd'hui, il est nécessaire de configurer manuellement toute connexion au réseau, ce qui est
une opération relativement complexe. Le protocole IPv6 contient une fonction d'autoconfiguration
qui simplifiera grandement la procédure de connexion.
page 32
Toute reproduction même partielle interdite IGPDE
Les réseaux
Une simplification nécessaire à la mise en réseau d'appareils d'usage courant et à l'émergence de
nouvelles applications comme, par exemple, un caméscope capable de se connecter directement
au Réseau sans le truchement d'un PC.
Lors des premiers tests, IPv6 a souvent été présenté comme offrant une meilleure qualité de
service que son prédécesseur. Les paquets IPv6 incluent un "en-tête" permettant d'en acheminer
certains en priorité. Un atout pour les applications nécessitant un débit stable et continu, comme le
téléphone sur Internet (VoIP) ou la télémédecine ...
Mais, ce qui poussera à la migration vers IPv6, ce sont surtout les possibilités d'adressage, car le
principe des paquets prioritaires a été adapté à "IPv4". Dans le cas particulier des réseaux sans fil
de troisième génération, le nouveau standard offrira néanmoins un avantage. Lorsque la connexion
saute d'un sous-réseau à un autre, la continuité du débit est interrompue avec le protocole "IPv4",
ce qui ne se produit pas avec le protocole de mobilité d'IPv6.
2.7.1.4.
ATM SUR ADSL ET FIBRE OPTIQUE POUR LA VISIOPHONIE
France Télécom se livre à des expérimentations mettant en œuvre le mode de transmission ATM
sur différents types de réseaux, l’objectif étant d’assurer un service interactif et multimédia entre
sites distants.
Ce projet définit de nouveaux services dans lesquels les rapports humains jouent un rôle
primordial, en combinant la visiophonie et les outils de travail coopératifs avec les services Internet
à haut débit.
L’infrastructure ATM utilisée met en œuvre des réseaux en fibre optique et des réseaux ADSL,
assurant la transmission à large bande de ces services avec une garantie de débit jusque sur le
poste de réception final.
Des expériences de travail coopératif sur ATM et par satellite sont menées ; notamment
l’expérimentation d’une visiophonie par satellite utilisant successivement un lien ATM à 2 Mbps
puis une liaison numérique satellitaire et enfin une liaison numérique vers le destinataire.
2.7.1.5.
L’ACCES A INTERNET PAR SATELLITE
La connexion à Internet par satellite constitue une solution immédiate qui pourrait répondre aux
besoins des internautes privés de liaisons terrestres rapides. L’ensemble du réseau mondial sera
accessible par l’installation d’une carte spécifique à l’intérieur de l’ordinateur et relié à une parabole
classique. Cette dernière capte le satellite Telecom 2B qui offre un débit total de 2 Mbps à
l’ensemble des abonnés professionnels ou le satellite Hot Bird 3 qui dessert les particuliers à 0,5
Mbps. En moyenne la vitesse de réception des données sera 10 fois supérieure à celle que
fournissent les modems sur les lignes téléphoniques classiques.
Néanmoins, ce mode de transmission est réservé, bien entendu, à la réception, les lignes
téléphoniques servant à émettre les données et les requêtes des internautes. Mais le débit
nécessaire pour cette émission est très largement inférieur à celui imposé pour la réception du
Web.
2.7.1.6.
L’ACCES A INTERNET PAR ONDE RADIO : LE PROTOCOLE "WI-FI"
Le terme Wi-Fi (Wireless Fidelity) désigne une technologie qui permet de faire du réseau sans fil.
C'est un réseau local sans fil qui offre des débits de 11 mégabits, soit 22 fois supérieurs à ceux
d'une ligne ADSL normale. On peut faire passer du Web, du FTP, de la radio en ligne, de la vidéo,
partager des imprimantes, etc.
Toute reproduction même partielle interdite IGPDE
page 33
Les réseaux
Il supporte toutes les machines - machines de bureau, ordinateurs portables, assistants
numériques -, quel que soit leur environnement : PC, Mac, Linux ou Unix.
Un réseau Wi-Fi n'est pas un accès Internet en soi. C'est un réseau radio.
Pour établir un réseau, il faut une carte pour chaque poste client et un boîtier qui permet d'associer
le réseau standard type ADSL et le sans fil. L'équipement est moins cher pour le déploiement du
réseau, parce qu'il y a moins de travaux sur la voirie. Pour les utilisateurs, le plus cher est dans le
prix de la carte réseau, mais ils gagnent en mobilité.
En France, il est officiellement interdit de déployer un réseau Wi-Fi en extérieur. Le principal
obstacle au déploiement de réseaux Wi-Fi est, en effet, le code des télécommunications.
Une tolérance est cependant opérée par l'ART. Il est possible de créer des "hot spots" qui couvrent
un immeuble, un quartier, après que ces installations aient reçu l'autorisation de l'ART.
En revanche, la création d'un réseau Wi-Fi d'immeuble à immeuble, entre personnes, reste
interdite, ce qui reviendrait à créer un réseau indépendant. Or, la création d'un réseau indépendant
est soumise à autorisation de l'ART. Le code des télécommunications reste le principal obstacle au
déploiement de réseaux Wi-Fi. L'espoir réside dans le nouveau code européen.
2.7.1.7.
L’ACCES A INTERNET PAR LE RESEAU ELECTRIQUE
Accéder à Internet sans avoir besoin d'installer une prise téléphonique, ou de tirer un câble réseau
telle est la promesse du CPL (Courant Porteur en Ligne). Emergé des laboratoires en 1998, il
semble entrer seulement aujourd'hui en phase d'industrialisation.
Les courants porteurs en ligne constituent une solution permettant de surfer à haut débit sur
Internet en utilisant comme relais les prises de courant électriques.
La solution CPL, s'appuie en amont sur un accès haut débit type ADSL déjà installé. A partir de ce
point d'entrée "classique", la solution CPL permet de diffuser via le réseau électrique de l'accès
Internet dans le bâtiment.
L'offre repose sur des modems CPL à brancher sur des prises électriques standards. Elle est
immédiatement opérationnelle si les ordinateurs sont dotés de cartes PC éthernet. Le principal
avantage des courants porteurs en ligne est qu'ils permettent de partager de l'accès haut débit en
évitant une extension du câblage réseau télécom au sein de l'établissement sans engager des
grands travaux d'aménagement réseaux.
A priori, il n'existe pas de limites au nombre de modems que l'on peut installer, sachant
naturellement que le nombre de postes connectés à Internet impacte la performance de l'accès
haut débit qu'il faut partager.
2.7.2.
L’EVOLUTION DES BESOINS ENGENDRES PAR LE RESEAU INTERNET
À mesure que la technologie Internet s’est développée, ses usages ont évolué.
Téléphoner à l’autre bout du monde au coût d’un appel local, envoyer rapidement des données,
des messages vocaux, des fax ou encore des vidéos, dans n’importe quel pays en un instant, tout
cela est désormais possible grâce à Internet.
page 34
Toute reproduction même partielle interdite IGPDE
Les réseaux
On s’oriente en particulier vers davantage d’applications en temps réel ou particulièrement
exigeantes en terme de rapidité : télévision numérique, applications partagées, visioconférence,
formation à distance… Le potentiel est énorme.
Initialement conçu pour les militaires, puis les chercheurs, universitaires et scientifiques
américains, le réseau Internet n’a pas été prévu pour gérer un tel trafic. Le système actuel montre
donc ses limites et devient un goulot d’étranglement pour toutes ces applications qui transitent par
Internet, ralentissant ainsi le débit qui est devenu insuffisant pour la majorité des utilisateurs. De ce
fait, augmenter le débit des connexions reste l’une des préoccupations majeures des opérateurs
de télécommunications. C’est bien évidemment l’infrastructure qui est en cause au travers des
technologies de transport utilisées sur Internet.
Le protocole de transmission des données IP ne sait ni gérer les priorités, ni garantir qu’un paquet
de données arrive à bon port, ni encore assurer la sécurité des informations. Difficile, dans ces
conditions, de mettre en place des applications commerciales, multimédias, de téléphonie et autres
vidéoconférences. Pourtant, c’est précisément ce type de services que les entreprises attendent
d’Internet.
Pour offrir les débits nécessaires à ces nouvelles exploitations du réseau, des projets sont
actuellement menés aux États-Unis et en Europe. Ces projets devraient déboucher sur de
nouvelles technologies qui enrichiront la qualité des services sur Internet.
2.7.2.1.
LE PROJET AMERICAIN "INTERNET 2"
Lancé dès 1996, le projet "Internet 2", régi par le consortium UCAID (University Corporation for
Advanced Internet Development), compte une centaine d’universités américaines et des sociétés
telles qu’IBM, 3Com, Cisco, Nortel, Qwest ou encore MCI.
Ce projet poursuit un double objectif : fournir une infrastructure performante aux chercheurs et
universitaires et encourager le développement de nouvelles technologies de transport afin de
garantir une qualité de service optimale.
Plutôt que de chercher à améliorer l’Internet actuel, le projet se propose de repartir sur des bases
saines et de développer un nouveau réseau universitaire à très haut débit. Cet Internet nouvelle
génération, basé sur un ensemble de technologies et de protocoles très récents et axés sur les
applications multimédias large bande, sera d’abord un outil de travail pour chercheurs et
universitaires capables d’exploiter pleinement les capacités de l’infrastructure, le but ultime étant
par la suite de transférer les résultats du projet à la communauté Internet en général.
Un volet du projet comprend également la mise en œuvre de systèmes applicatifs (travaux en
commun à distance, réalité virtuelle…), rendue possible par de très hauts débits sur le réseau.
Elle s’appuie sur deux dorsales et des points de présence à hauts débits qui relient les universités
américaines. Ces deux dorsales VBNS (Very High Performance Backbone Network Service) et
ABILENE permettent de brasser un trafic de 622 Mbps et devraient autoriser un débit allant jusqu’à
2 400 Mbps.
2.7.2.2.
LES PROJETS EUROPEENS "TEN-155" ET "QUANTUM"
Soutenu par l’Espagne, l’Allemagne, la Grèce, l’Italie, la France et la Suisse, le programme
européen est coordonné par la société DANTE (une société privée détenue par les réseaux
gouvernementaux nationaux de la recherche et de l’éducation en Europe).
À l’inverse d’Internet 2, ces programmes n’intègrent aucun projet de recherche mais sont focalisés
sur des programmes européens transversaux d’infrastructure rapide à destination de la
communauté scientifique et universitaire. Américains et européens se différencient également par
Toute reproduction même partielle interdite IGPDE
page 35
Les réseaux
des vitesse de communication différentes : 622 Mbps pour Internet 2, contre seulement 150 Mbps
en Europe.
Moins avancé que le projet américain Internet 2 et moins ambitieux faute de moyens, le projet
européen a été conçu sur les mêmes bases : fournir une infrastructure à la communauté des
chercheurs et universitaires européens. Au départ, le projet, baptisé TEN34, ne comprenait qu’une
infrastructure de réseau dont le débit restait limité à 22 Mbps sur la dorsale RENATER en France.
D’où une vitesse de communication basse. En outre, l’absence de marché européen des
télécommunications complique les négociations. Le prix des interconnexions reste très élevé par
rapport aux États-Unis et, contrairement à Internet 2, aucun sponsor ne soutient les Européens, les
projets étant financés par les États membres.
Néanmoins, une prochaine génération est en cours de déploiement, offrant un débit de 150 Mbps
(projet TEN-155), accompagné du programme QUANTUM (Quality Network Technology for Useroriented Multimédia). Ce dernier prévoit un développement des technologies de transport et de la
qualité de service, dans le cadre de la mise en œuvre d’applications multimédia.
3.
LE RESEAU PRIVE VIRTUEL (RPV)
Un réseau privé virtuel (en anglais : Virtual Private Network : VPN) est un réseau étendu privé
établi en créant des liaisons permanentes spécialisées entre réseaux d'entreprises à travers des
réseaux publics afin de répondre aux besoins en partage des ressources de ses utilisateurs.
Le principal avantage de ce système réside dans l’intégration de mécanisme de chiffrement et
d’authentification pour préserver le réseau virtuel des utilisateurs non-autorisés.
Un réseau privé relie différents sites (réseaux locaux) géographiquement éloignés d'une entreprise
ou d'une autre entité privée multisite.
3.1.
Eléments matériel de base
La plupart des réseaux privés sont "virtuels", au sens où les supports de transmission qu'ils
empruntent ne sont pas propres à l'entreprise. Il serait en effet irrationnel aussi bien sur le plan
économique que sur le plan pratique de laisser chaque personne morale qui le souhaiterait
construire son réseau propre.
Les RPV sont donc bâtis sur l'infrastructure des réseaux publics existants. Ils partagent, par
multiplexage , avec le reste du trafic les artères principales de ces réseaux, mais sont protégés par
divers processus de contrôle d'accès et de chiffrement.
Les réseaux publics supports des RPV ont été d'abord en France Transpac, le réseau national
X.25 et son évolution plus rapide dite "relais de trame".
Pour les plus gros besoins en termes de débit, la nouvelle infrastructure ATM est désormais un
support de choix. Mais le recours au plus grand réseau public mondial, Internet , est bien entendu
également prometteur pour les RPV à moyen débit.
page 36
Toute reproduction même partielle interdite IGPDE
Les réseaux
3.2.
Le concept de réseau privé virtuel
Les réseaux locaux d'entreprise (LAN ou RLE) sont des réseaux internes à une organisation, c'està-dire que les liaisons entre machines appartiennent à l'organisation. Ces réseaux sont de plus en
plus souvent reliés à Internet par l'intermédiaire d'équipements d'interconnexion. Il arrive ainsi
souvent que des entreprises éprouvent le besoin de communiquer avec des filiales, des clients ou
même du personnel géographiquement éloignées via internet.
Pour autant, les données transmises sur Internet sont beaucoup plus vulnérables que lorsqu'elles
circulent sur un réseau interne à une organisation car le chemin emprunté n'est pas défini à
l'avance, ce qui signifie que les données empruntent une infrastructure réseau publique
appartenant à différents opérateurs. Ainsi il n'est pas impossible que sur le chemin parcouru, le
réseau soit écouté par un utilisateur indiscret ou même détourné. Il n'est donc pas concevable de
transmettre dans de telles conditions des informations sensibles pour l'organisation ou l'entreprise.
La première solution pour répondre à ce besoin de communication sécurisé consiste à relier les
réseaux distants à l'aide de liaisons spécialisées. Toutefois la plupart des entreprises ne peuvent
pas se permettre de relier deux réseaux locaux distants par une ligne spécialisée, il est parfois
nécessaire d'utiliser Internet comme support de transmission.
Un bon compromis consiste à utiliser Internet comme support de transmission en utilisant un
protocole d'"encapsulation" (en anglais tunneling, d'où l'utilisation impropre parfois du terme
"tunnelisation"), c'est-à-dire encapsulant les données à transmettre de façon chiffrée. On parle
alors de réseau privé virtuel (noté RPV ou VPN, acronyme de Virtual Private Network) pour
désigner le réseau ainsi artificiellement créé.
Ce réseau est dit virtuel car il relie deux réseaux "physiques" (réseaux locaux) par une liaison non
fiable (Internet), et privé car seuls les ordinateurs des réseaux locaux de part et d'autre du VPN
peuvent "voir" les données.
Le système de VPN permet donc d'obtenir une liaison sécurisée à moindre coût, si ce n'est la mise
en oeuvre des équipements terminaux. En contrepartie il ne permet pas d'assurer une qualité de
service comparable à une ligne louée dans la mesure où le réseau physique est public et donc non
garanti.
Toute reproduction même partielle interdite IGPDE
page 37
Les réseaux
3.3.
Fonctionnement d'un VPN
Un réseau privé virtuel repose sur un protocole, appelé protocole de tunnelisation (tunneling),
c'est-à-dire un protocole permettant aux données passant d'une extrémité du VPN à l'autre d'être
sécurisées par des algorithmes de cryptographie.
Le terme de "tunnel" est utilisé pour symboliser le fait qu'entre l'entrée et la sortie du VPN les
données sont chiffrées (cryptées) et donc incompréhensible pour toute personne située entre les
deux extrémités du VPN, comme si les données passaient dans un tunnel. Dans le cas d'un VPN
établi entre deux machines, on appelle client VPN l'élément permettant de chiffrer et de déchiffrer
les données du côté utilisateur (client) et serveur VPN (ou plus généralement serveur d'accès
distant) l'élément chiffrant et déchiffrant les données du côté de l'organisation.
De cette façon, lorsqu'un utilisateur nécessite d'accéder au réseau privé virtuel, sa requête va être
transmise en clair au système passerelle, qui va se connecter au réseau distant par l'intermédiaire
d'une infrastructure de réseau public, puis va transmettre la requête de façon chiffrée. L'ordinateur
distant va alors fournir les données au serveur VPN de son réseau local qui va transmettre la
réponse de façon chiffrée. A réception sur le client VPN de l'utilisateur, les données seront
déchiffrées, puis transmises à l'utilisateur ...
3.3.1.
LES PROTOCOLES DE TUNNELISATION
Les principaux protocoles de tunneling sont les suivants :
♦
PPTP (Point-to-Point Tunneling Protocol) est un protocole de niveau 2 développé par
Microsoft, 3Com, Ascend, US Robotics et ECI Telematics.
♦
L2F (Layer Two Forwarding) est un protocole de niveau 2 développé par Cisco, Northern
Telecom et Shiva. Il est désormais quasi-obsolète
♦
L2TP (Layer Two Tunneling Protocol) est l'aboutissement des travaux de l'IETF (RFC 2661)
pour faire converger les fonctionnalités de PPTP et L2F. Il s'agit ainsi d'un protocole de niveau
2 s'appuyant sur PPP.
♦
IPSec est un protocole de niveau 3, issu des travaux de l'IETF, permettant de transporter des
données chiffrées pour les réseaux IP.
3.3.2.
LE PROTOCOLE PPTP
Le principe du protocole PPTP (Point to Point Tunneling Protocol) est de créer des trames sous le
protocole PPP (Point to Point Protocol) et de les encapsuler dans un datagramme IP.
Ainsi, dans ce mode de connexion, les machines distantes des deux réseaux locaux sont
connectés par une connexion point à point (comprenant un système de chiffrement et
d'authentification, et le paquet transite au sein d'un datagramme IP.
page 38
Toute reproduction même partielle interdite IGPDE
Les réseaux
Datagramme IP
Trame PPP
Message original
De cette façon, les données du réseau local (ainsi que les adresses des machines présentes dans
l'en-tête du message) sont encapsulées dans un message PPP, qui est lui-même encapsulé dans
un message IP.
3.3.3.
LE PROTOCOLE L2TP
Le protocole L2TP est un protocole standard de tunnelisation (standardisé dans un RFC) très
proche de PPTP. Ainsi le protocole L2TP encapsule des trames protocole PPP, encapsulant ellesmêmes d'autres protocoles (tels que IP, IPX ou encore NetBIOS).
3.3.4.
LE PROTOCOLE IPSEC
IPSec est un protocole défini par l'IETF permettant de sécuriser les échanges au niveau de la
couche réseau. Il s'agit en fait d'un protocole apportant des améliorations au niveau de la sécurité
au protocole IP afin de garantir la confidentialité, l'intégrité et l'authentification des échanges.
Le protocole IPSec est basé sur trois modules :
♦
IP Authentification Header (AH) concernant l'intégrité, l'authentification et la protection contre le
rejeu. des paquets à encapsuler ;
♦
Encapsulating Security Payload (ESP) définissant le chiffrement de paquets. ESP fournit la
confidentialité, l'intégrité, l'authentification et la protection contre le rejeu.
Security Assocation (SA) définissant l'échange des clés et des paramètres de sécurité. Les SA
rassemblent ainsi l'ensemble des informations sur le traitement à appliquer aux paquets IP (les
protocoles AH et/ou ESP, mode tunnel ou transport, les algo de sécurité utilisés par les protocoles,
les clés utilisées,...). L'échange des clés se fait soit de manière manuelle soit avec le protocole
d'échange IKE (la plupart du temps), qui permet aux deux
Toute reproduction même partielle interdite IGPDE
page 39
Les architectures informatiques
LES ARCHITECTURES INFORMATIQUES
1.
L’ARCHITECTURE CENTRALISEE
1.1.
L’informatique totalement centralisée
Constituée d’un gros ordinateur et d’un pupitre, ce type d’architecture remonte aux débuts de
l’informatique de gestion.
Au ministère des finances, cette architecture a été mise en place dans les années 1960. Elle ne
permettait que le traitement par lots. Chaque utilisateur soumettait un travail à la salle machine
sous la forme d’un paquet de cartes perforées. Ces cartes étaient "habillées" d’autres cartes
destinées à conduire les travaux. Elles portaient alors le nom de cartes "job".
Ce type d’architecture a perduré jusqu’au milieu des années 1970, époque de l’arrivée des
premiers écrans et du début des travaux transactionnels.
1.2.
L’informatique centralisée avec télétraitement
Cette architecture représente la première grande révolution dans l’informatique professionnelle. Le
programmeur ou l’utilisateur dispose d’un écran "passif" déporté dans son bureau et relié à sa
machine hôte par réseau. Il soumet ses travaux directement depuis son clavier en utilisant un
"langage de commande". Il y a donc une réelle interactivité entre l’homme et la machine.
Cette architecture vieillissante se rencontre encore en France de nos jours et continue à rendre
des services appréciables.
2.
L’ARCHITECTURE DECONCENTREE
2.1.
L’informatique répartie avec fichiers centralisés
Dans ce type d’architecture, les programmes sont déportés sur des ordinateurs plus petits que
celui du site central ; ce dernier ne conservant que les gros fichiers ou bases de données
importantes.
Cette architecture, qui préfigurait l’informatique répartie, trouvait sa justification dans les problèmes
liés au volume des fichiers, aux coûts de stockage et à un certain retard technologique par rapport
à l’évolution des organisations.
page 40
Toute reproduction même partielle interdite IGPDE
Les architectures informatiques
2.2.
L’informatique répartie avec fichiers répartis
Dans ce type d’organisation deux niveaux de traitements sont prévus.
En local (niveau région, niveau département ou niveau service), les ordinateurs disposent à la fois
de leurs propres programmes et de leurs propres fichiers.
Au plan central, des applications spécifiques permettent des regroupements de fichiers locaux et
des traitements de masse ou à compétence géographique étendue.
Cette architecture est toujours présente parmi les grandes entreprises et les administrations.
2.3.
L’informatique totalement décentralisée
Ici, des choix politiques d’organisation ont été effectués par le biais d’un schéma directeur
informatique dans le but de responsabiliser des services en leur donnant la maîtrise de leurs
données. Souvent, chaque service utilisera les mêmes programmes que les autres services mais
disposera de fichiers ou bases de données propres, limités à leur compétence géographique. Cette
architecture n’est pas totalement fermée puisqu’il sera toujours possible de la relier à un autre
niveau d’exploitation ou de consultation grâce à la mise en place d’outils réseau.
3.
L’ARCHITECTURE CLIENT/SERVEUR
3.1.
Sur serveur mini
Architecture récente, ce modèle est largement utilisé de nos jours.
Ce modèle met en œuvre des machines (évoluant par exemple sous environnement UNIX) qui
gèrent le réseau local ainsi que les partages des gros fichiers, et des micro-ordinateurs qui
fonctionnent avec leurs propres programmes ou ceux du serveur.
Dans ce dernier cas, les PC fonctionnent en émulation (par exemple UNIX).
L’émulateur Affinity est utilisé pour ce type d’architecture et d’exploitation. Un des gros avantages
réside dans la substitution d’écrans passifs UNIX vieillissants (dont la maintenance est de plus en
plus difficile) par des micros qui peuvent également permettre de travailler sous Dos ou Windows.
3.2.
Sur serveur de type PC
Le serveur est un micro-ordinateur "musclé" de type PC qui assure le partage des ressources
communes (imprimantes, graveurs et/ou lecteurs de CD-ROM, bases de données, gros
programmes, périphériques de sauvegarde, connexions extérieures).
Ce type d’architecture tend à se généraliser.
Toute reproduction même partielle interdite IGPDE
page 41
Institut de la Gestion Publique
et du Développement Economique
20, allée Georges Pompidou
94306 Vincennes cedex
SERVEUR PEDAGOGIQUE INTRANET
http://alize.alize/crp/tic
2004