Architecture des réseaux haut débit cours, exercices et corrigés
Kim-Loan Thaï Véronique Vèque Simon Znaty
Architectu...
174 downloads
1723 Views
17MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Architecture des réseaux haut débit cours, exercices et corrigés
Kim-Loan Thaï Véronique Vèque Simon Znaty
Architecture des réseaux haut débit
Collection dirigée p a r Pierre Rolin
EXTRAIT DU CATALOGUE GÉNÉRAL Michael GRIFFITHS et Michel VAYSSADE, Architecture 2 édition, 1 9 9 0 .
des systèmes
d'exploitation,
e
Habib ABDULRAB, de Common
Lisp à la programmation
objet, 1 9 9 0 . E
Robert OGOR et Robert RANNOU, Langage ADA et algorithmique,
2 édition revue et
corrigée, 1 9 9 3 . Ivan LAVALLÉE, Algorithmique parallèle et distribuée, 1 9 9 0 . Jean-Pierre CHARDON et Dominique B l S S E Y , Télécommunications d'entreprise techniques et organisation, 2 édition revue et complétée, 1 9 9 2 .
—
E
Victor SANDOVAL, Technologie
de l'EDI, 1 9 9 0 .
Xavier MARSAULT, Compression revue et a u g m e n t é e , 1 9 9 5 .
et cryptage
Christian PÉLISSIER, UNIX— utilisation, tion revue et a u g m e n t é e , 1 9 9 5 . Christian PÉLISSIER, Guide de sécurité Jean-Louis JACQUEMIN, Informatique
des données
administration
des systèmes parallèle
multimédias, système
Radu HORAUD et Olivier MONGA, Vision par ordinateur, mentée, 1 9 9 5 . des réseaux
édition E
et réseau,
2 édi-
UNIX, 1 9 9 3 .
et systèmes
multiprocesseurs,
Michel ADIBA et Christine COLLET, Objets et bases de données
Laurent TOUTAIN, Technique l'interconnexion, 1994.
E
2
locaux
sous
2
E
1993.
— le SGBDO2, 1 9 9 3 . édition revue et aug-
Unix — des protocoles
P a t r i c e BOURSIER et Pierre-Antoine TAUFOUR, 2 édition revue et augmentée, 1 9 9 4 .
La technologie
Christian VAN HOUCKE, Le multimédia
1994.
à
multimédia,
E
en entreprise,
Gérard DUPOIRIER, Technologie de la CED — techniques et management documents électroniques, 2 édition revue et augmentée, 1 9 9 5 .
des
E
Jean-François JODOUIN, Réseaux 1994.
neuromimétiques
Jean-François JODOUIN, Les réseaux de neurones Victor SANDOVAL, SGML 1994.
— un outil
pour
— modèles
— principes
la gestion
P i e r r e ROLIN, Réseaux Pierre ROLIN, Réseaux mentée, 1 9 9 5 .
BOYER et
Patrice
applications,
et définitions,
électronique
Daniel CALI et Gabriel ZANY, Technologie de l'interconnexion méthodologies, marchés et évolutions, 1994. Jean PELLAUMAIL, P i e r r e P-simulation, 1994.
et
LEGUESDRON,
de
1994. documents,
de réseaux Réseaux
ATM
— et
haut débit, 1 9 9 5 . locaux
— normes
et protocoles,
5
E
édition revue et aug-
Xavier LAGRANGE, Philippe GODLEWSKJ, Sami TABBANE, Réseaux Pierre LECOY, Technologie
des télécoms,
1995.
GSM, 1 9 9 5 .
réseaux et télécommunications
Architecture des réseaux haut débit cours, exercices et corrigés
Kim-Loan Thai Véronique Vèque Simon Znaty
HERMES
© Hermès, Paris, 1995 Editions Hermès 14, rue Lantiez 75017 Paris ISBN 2-86601-494-4
Catalogage Electre-Bibliographie Thai, Kim Loan*Vèque, Véronique*Znaty, Simon Architecture des réseaux haut débit : cours, exercices et corrigés. Paris : Hermès, 1995. - (Réseaux et télécommunications) ISBN 2-86601-494-4 RAMEAU : ordinateurs, réseaux d': architectures : manuels d'enseignement supérieur DEWEY : 621.62 : Physique appliquée. Systèmes, réseaux et services des télécommunications Le Code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-5, d'une part, que les « copies ou reproductions strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective » et, d'autre part, que les analyses et les courtes citations dans un but d'exemple et d'illustration, « toute représentation ou reproduction intégrale, ou partielle, faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause, est illicite » (article L. 122-4). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du Code de la propriété intellectuelle.
à nos
parents,
à Kim-Mai
et Anh,
à à Marianne
Christophe, et
Edouard.
Table des matières
Introduction
1
Chapitre
5
1. Architecture en couches et normalisation
1.1. Introduction 1.2. Les réseaux 1.2.1. Classification 1.2.2. Applications 1.2.2.1. Applications des réseaux grande distance 1.2.2.2. Applications des réseaux locaux 1.2.2.3. Applications des réseaux métropolitains 1.2.3. Caractéristiques fonctionnelles 1.3. Les organismes de normalisation 1.3.1. Les organismes officiels internationaux 1.3.1.1. L'ISO 1.3.1.2. LUIT 1.3.2. Les organismes européens 1.3.3. Autres organismes 1.4. Le modèle de référence OSI 1.4.1. Concepts de base de la structuration en couches 1.4.1.1. Organisation des communications avec le modèle OSI. 1.4.1.2. Transfert de données 1.4.2. Définition des services 1.4.3. Description des couches 1.4.3.1. La couche physique 1.4.3.2. La couche liaison de données 1.4.3.3. La couche réseau 1.4.3.4. La couche transport 1.4.3.5. La couche session
5 5 5 7 7 8 8 9 10 12 12 13 13 14 15 16 16 19 21 22 22 23 23 23 23
VIII
Architecture des réseaux haut débit
1.4.3.6. La couche présentation 1.4.3.7. La couche application 1.5. L'architecture DoD et ses protocoles 1.6. L'administration de réseaux 1.6.1. Définition 1.6.2. Les normes d'administration 1.6.2.1. L'ISO 1.6.2.2. L'UIT-T 1.6.2.3. Le monde TCP/IP Exercices
24 24 24 26 26 27 27 32 32 35
Chapitre 2. Caractéristiques générales des réseaux locaux et des réseaux métropolitains
37
2.1. Introduction 2.2. L'architecture IEEE 2.3. Supports de transmission 2 . 3 . 1 . Caractéristiques 2.3.2. Les paires torsadées 2.3.3. Le câble coaxial 2.3.4. La fibre optique 2.3.5. Supports non guidés 2.4. Topologies 2.4.1. L'étoile 2.4.2. Le bus 2.4.3. L'anneau 2.5. Les familles de contrôle d'accès 2.5.1. L'accès statique 2.5.1.1. Accès multiple à répartition dans le temps 2.5.1.2. Accès multiple avec répartition en fréquence 2.5.2. L'accès déterministe 2.5.2.1. Le polling 2.5.2.2. Accès par jeton 2.5.3. L'accès aléatoire 2.5.3.1. Le protocole Aloha 2.5.3.2. CSMA (Carrier Sense Multiple Access) 2.5.3.3. CSMA/CD (CSMA with Collision Detection) 2.5.3.4. CSMA/CA (CSMA with Collision Avoidance) Exercices
37 38 40 40 42 44 45 46 47 47 48 49 51 51 51 52 53 53 53 56 56 57 58 59 60
Chapitre 3. Ethernet et Ethernet 100 Mbit
63
3 . 1 . Introduction 3.1.1. Historique 3.1.2. Le standard 802.3 3.2. Le protocole MAC
63 63 64 65
Table des matières
IX
3.2.1. Principe de fonctionnement de CSMA/CD 3.2.1.1. Transmission d'une trame 3.2.1.2. Détection des collisions 3.2.1.3. Reprise après collision 3.2.1.4. Réception d'une trame 3.2.2. Modèle fonctionnel de la couche MAC 3.2.3. Structure de la trame 3.2.4. Paramètres du protocole MAC 3.3. Service MAC 3.3.1. La primitive MA_DATA.request 3.3.2. La primitive MA_DATA.indication 3.4. La couche physique 3.4.1. Sous-couche PLS 3.4.2. Interface AUI 3.4.3. Fonctions de la MAU 3.5. Service PHY 3.5.1. Les primitives de service 3.5.2. Génération et effets 3.6. Les supports 3.6.1. Supports à base de câble coaxial 3.6.2. Les répéteurs 3.6.3. Supports à base de paires torsadées 3.6.4. Supports à base de fibre optique 3.6.5. Récapitulatif 3.7. Ethernet 100 Mbit/s 3.7.1. Fast Ethernet 3.7.2. lOOVGAnyLan 3.7.3. Ethernet Full Duplex 3.7.4. Ethernet isochrone Exercices
65 65 66 68 68 68 70 71 72 73 73 74 74 75 75 76 76 76 77 77 78 79 81 82 82 83 83 85 86 87
Chapitre 4. Accès par jeton : Token Ring et Token Bus
89
4 . 1 . Introduction 4.2. Token Ring 4.2.1. Principe de l'accès à jeton 4.2.2. Structure du standard 802.5 4.2.3. Le protocole MAC 802.5 4.2.3.1. Les trames MAC 4.2.3.2. Transmission d'une trame de données 4.2.3.3. Remise du jeton et retrait de la trame 4.2.3.4. Automate de transmission 4.2.3.5. Réception 4.2.3.6. Niveaux de priorité 4.2.3.7. Les temporisateurs et les drapeaux
89 90 90 91 92 92 95 95 96 97 97 98
X
Architecture des réseaux haut débit
4.2.4. Protocole SMT et gestion des fautes 4.2.5. Services MAC 802.5 4.2.5.1. Service MAC pour la sous-couche LLC 4.2.5.2. Service MAC pour l'entité SMT 4.2.6. La couche physique 4.2.6.1. Composants de la couche physique 4.2.6.2. Rôle de la TCU 4.2.6.3. Le tampon de latence 4.2.6.4. Supports et câblage 4.2.6.5. Spécification des services PHY 4.3. Token Bus 4.3.1. Principe de l'accès à jeton sur bus 4 . 3 . 1 . 1 . Anneau logique 4.3.1.2. Procédure de réveil 4.3.1.3. Initialisation de l'anneau logique 4.3.1.4. Retrait d'une station de l'anneau 4.3.1.5. Réception d ' u n e trame 4.3.2. Structure du standard 802.4 4.3.3. Le protocole MAC 802.4 4.3.3.1. Les trames MAC 4.3.3.2. Temps maximum de rotation du jeton et priorités 4.3.3.3. Gestion des fautes 4.3.4. Services MAC 802.4 4.3.4.1. Service MAC pour la sous-couche LLC 4.3.4.2. Service MAC pour l'entité SMT 4.3.5. La couche physique 4.3.5.1. Les supports 4.3.5.2. Le service PHY Exercices
99 100 100 101 103 103 103 104 104 105 106 106 106 107 110 110 110 110 111 111 113 114 115 115 116 118 118 118 119
Chapitre 5. FDDI (Fiber Distributed Data Interface)
123
5.1. Introduction 5.2. Architecture d'une station FDDI 5.3. Définition d'un nœud FDDI 5.4. Fonctionnement du protocole FDDI 5.4.1. Données synchrones et asynchrones 5.4.2. Le jeton temporisé 5.4.3. Format des trames 5.4.3.1. La trame FDDI 5.4.3.2. Le jeton 5.4.4. Processus Claim 5.4.5. Fonctionnement normal 5.4.6. Processus Beacon 5.5. Services FDDI
123 125 126 127 128 129 131 131 133 133 135 135 136
Table des matières
XI
5.5.1 Service MAC 5.5.2 Services PHY et PMD 5.6. Administration de FDDI 5.6.1. Blocs et entités SMT 5.6.1.1. Le bloc CMT 5.6.1.2. Le bloc RMT 5.6.2. Les services SMT 5.6.3. La MIB SMT 5.7. La couche physique 5.7.1. Couches PHY et PMD 5.7.2. Couche PMD et supports de FDDI 5.7.2.1. MMF-PMD 5.7.2.2. SMF-PMD 5.7.2.3. FDDI sur SONET 5.7.2.4. TP-PMD 5.7.2.5. L C F - P M D 5.8. Les dérivés 5.8.1. FDDI II 5.8.1.1. Architecture de FDDI II 5.8.1.2. Mode de fonctionnement hybride 5.8.2. FFOL Exercices
137 137 138 139 139 140 141 144 145 145 146 146 147 147 147 148 149 149 149 150 151 153
Chapitre 6 . DQDB (Distributed Queue Dual Bus)
157
6.1. Introduction 6.2. Architecture d'un nœud DQDB 6.3. Accès au support 6.3.1. Accès temporel synchrone 6.3.2. La cellule DQDB 6.3.3. Les trois classes de services 6.3.3.1. Le mode isochrone 6.3.3.2. Le mode asynchrone sans connexion 6.3.3.3. Le mode asynchrone avec connexion 6.3.4. Protocole de la file distribuée 6.3.5. Equilibrage de la charge (BandWidth Balancing) 6.4. Les unités de données du protocole DQDB 6.4.1. Fragmentation et encapsulations successives 6.4.2. L'IM-PDU (Initial MAC Protocol Data Unit) 6.4.3. La DM-PDU (Derived MAC Protocol Data Unit) 6.4.4. Le segment 6.5. Le protocole DQDB 6.5.1. Fonction de convergence MAC (MCF) 6.5.1.1. Processus d'émission 6.5.1.2. Processus de réception
157 159 160 160 161 162 162 162 163 163 167 167 167 168 171 172 172 173 173 173
XII
Architecture des réseaux haut débit
6.5.2. Fonction de convergence isochrone (ICF) et entité fonctionnelle PAF 6.5.3. Fonction de convergence orientée connexion (COCF) 6.5.4. Fonctions communes (CF) 6.6. Les services D Q Q B 6.6.1. Primitives du service MAC 6.6.2. Primitives du service isochrone DQDB 6.6.3. Primitives du service de données asynchrones orienté connexion.. 6.7. La couche physique 6.7.1. Les différents supports 6.7.2. Le service physique Exercices
175 175 176 176 176 177 177 178 178 178 180
Chapitre 7. L L C (Logical Link Control)
183
7.1. Introduction 7.2. Services fournis à la couche réseau 7.2.1. Service sans connexion : LLC1 7.2.2. Service avec connexion : LLC2 7.2.2.1. Etablissement de connexion 7.2.2.2. Libération et refus de connexion 7.2.2.3. Transfert de données 7.2.2.4. Réinitialisation de connexion 7.2.2.5. Contrôle de flux 7.2.3. Service sans connexion avec acquittement : LLC3 7.2.3.1. Service avec remise garantie 7.2.3.2. Service de polling avec réponse garantie 7.3. Interface M A C / L L C 7.4. Protocoles LLC 7.4.1. Unités de données 7.4.2. Protocole LLC de type 1 7.4.3. Protocole LLC de type 2 7.4.4. Protocole LLC de type 3 Exercices
183 184 184 185 186 187 188 189 190 191 191 192 195 196 196 197 198 198 200
Chapitre 8. A T M (Asynchronous Transfer Mode)
203
8.1. Introduction 8.2. Nouveaux services et multimédia 8.2.1. Les services large bande 8.2.2. Caractéristiques des trafics multimédias 8.3. Le réseau large bande 8.3.1. Normalisation 8.3.2. Modes de transfert dans un réseau commuté 8.3.2.1. Le mode de transfert synchrone 8.3.2.2. Le mode de transfert asynchrone
203 203 203 205 207 207 207 208 208
Table des matières
XIII
8.3.2.3. Choix de l'ATM 209 8.3.3. Principes fondamentaux du mode ATM 210 8.3.4. Connexions ATM 211 8.3.4.1. Principe de la connexion virtuelle 211 8.3.4.2. Translation des valeurs de VCI 211 8.3.4.3. Le conduit virtuel 212 8.3.4.4. Commutation à deux niveaux 213 8.3.4.5. Exemple d'allocation de VCI/VPI dans un réseau ATM .. 213 8.3.5. Architecture du réseau large bande 215 8.3.5.1. Interfaces du RNIS-LB 215 8.3.5.2. Configuration de référence à l'UNI 216 8.3.5.3. Réseau de distribution 217 8.3.5.4. Réseau de commutation ATM 219 8.3.5.5. Réseau de transmission 220 8.3.5.6. Le système de transmission PDH 221 8.3.5.7. Le système de transmission SONET 222 8.3.5.8. Le système de transmission SDH 224 8.3.5.9. Le système de transmission en mode cellule 225 8.3.6. Modèle de référence du RNIS-LB 225 8.3.7. La gestion du réseau large bande 227 8.4. La couche PHY 229 8.4.1. Structure de la couche PHY 229 8.4.2. La sous-couche Physical Medium (PM) 230 8.4.3. La sous-couche Transmission Convergence (TC) 230 8.4.3.1. Fonctionnalités 230 8.4.3.2. Adaptation au système SDH 231 8.4.3.3. Adaptation au système PDH 232 8.4.3.4. Adaptation au mode cellule 232 8.4.3.5. Délimitation de cellules 233 8.4.3.6. Calcul et vérification du champ HEC 234 8.4.3.7. Adaptation de débit 234 8.4.4. Services de la couche PHY 235 8.5. La couche ATM 236 8.5.1. Fonctions de la couche ATM 236 8.5.2. Structure de l'en-tête de la cellule 236 8.5.3. La gestion des erreurs 238 8.5.4. Priorités 238 8.5.5. Type du contenu 239 8.5.6. Services de la couche ATM 239 8.6. La couche AAL 240 8.6.1. Rôle 240 8.6.2. Classification des services 241 8.6.3. Structuration de la couche AAL 242 8.6.3.1. La sous-couche SAR 242
XIV
Architecture des réseaux haul débit
8.6.3.2. La sous-couche CS 8.6.4. Mécanismes utilisés par l'AAL 8.6.4.1. Segmentation 8.6.4.2. Compensation de la gigue de cellule 8.6.4.3. Traitement des gains et pertes de cellules 8.6.4.4. Synchronisation des extrémités 8.6.5. Types d'AAL 8.6.6. AAL 1 8.6.6.1. Fonctions de la SAR 8.6.6.2. Fonctions de la CS 8.6.7. AAL 2 8.6.8. AAL 3/4 8.6.8.1. Fonctions de la SAR 8.6.8.2. Fonctions de la CPCS 8.6.8.3. Fonctions de la SSCS 8.6.9. AAL 5 8.6.9.1. Fonctions de la SAR 8.6.9.2. Fonctions de la CPCS 8.6.9.3. Fonctions de la SSCS 8.6.9.4. Comparaison AAL 3/4 et AAL 5 8.7. Réseau local A T M 8.7.1. Emulation de réseau local 8.7.2. Adaptation du format de la trame 8.7.3. Adressage 8.7.4. Service sans connexion et diffusion 8.7.5. Architecture et configuration du réseau local émulé 8.7.6. Format de la trame 8.8. Le contrôle de congestion 8.8.1. Les méthodes 8.8.1.1. Méthodes préventives 8.8.1.2. Méthodes réactives 8.8.2. Le contrôle de congestion dans le RNIS-LB 8.8.3. Gestion et réservation de ressources 8.8.4. Admission d'une nouvelle connexion 8.8.5. Contrôle d'entrée du trafic 8.8.5.1. Objectifs 8.8.5.2. Le mécanisme du seau percé (Leaky Bucket) 8.8.5.3. Le contrôleur-espaceur du CNET 8.8.6. Contrôle de priorité et destruction sélective des cellules 8.8.7. Gestion rapide de ressources 8.8.8. Notification de congestion Exercices
242 242 243 243 244 244 245 246 247 247 247 248 249 250 251 252 252 252 254 254 255 255 256 256 257 258 260 261 261 262 262 263 264 264 265 265 266 267 269 270 270 272
Table des matières Chapitre 9. Interconnexion 9.1. Introduction 9.2. Principes de l'interconnexion 9.2.1. Choix du niveau d'interconnexion 9.2.2. Techniques d'interconnexion 9.2.3. Classification des équipements d'interconnexion 9.3. Les répéteurs 9.4. Les ponts 9.4.1. Qu'est-ce qu'un pont ? 9.4.2. Apprentissage dynamique des adresses de routage 9.4.3. Les ponts MAC 802 9.4.3.1. Les standards IEEE 9.4.3.2. Architecture de pont 9.4.3.3. Service MAC du pont 9.4.3.4. Fonctionnement du pont 9.4.3.5. Préservation de la QoS 9.5. Les routeurs et l'interconnexion de niveau réseau 9.5.1. Introduction 9.5.2. Qu'est-ce qu'un routeur ? 9.5.3. Fonctionnement d'un routeur 9.5.4. Routeurs statiques et routeurs dynamiques 9.5.5. Le protocole Internet 9.5.5.1. L'adressage Internet 9.5.5.2. Encapsulations successives 9.5.5.3. Routage Internet 9.5.5.4. La datagramme IP 9.5.5.5. Service Internet 9.5.5.6. IPng et IPv6 9.6. SMDS (Switched Multimegabit Data Service) 9 . 6 . 1 . Définition 9.6.2. Le modèle d'interconnexion 9.6.2.1. Le modèle LEC 9.6.2.2. Le modèle SS 9.6.3. Fonctionnalités de SMDS 9.6.3.1. Les utilisateurs du service SMDS 9.6.3.2. Le transport de données 9.6.3.3. Le routage 9.6.3.4. Le contrôle de congestion 9.6.3.5. Le partage de charge 9.6.3.6. La gestion 9.6.4. Le protocole ISSIP 9.6.4.1. Niveau 3 du protocole ISSIP 9.6.4.2. Niveau 2 du protocole ISSIP 9.6.4.3. Niveau 1 du protocole ISSIP
XV 277 277 278 278 278 279 279 280 280 281 282 282 283 284 285 286 286 286 287 287 288 288 288 289 290 291 293 294 295 295 295 296 297 298 298 298 298 299 299 300 300 300 300 301
XVI
Architecture des réseaux haut débit
9.7. Le relais de trames 9.7.1. Généralités 9.7.2. La trame Frame Relay 9.7.3. Principe de l'adressage Relais de trames 9.7.4. Etablissement d'une connexion Exercices
301 301 301 303 303 305
Corrigés
309
Chapitre 1
309
Chapitre 2
313
Chapitre 3
320
Chapitre 4
323
Chapitre 5
328
Chapitre 6
334
Chapitre 7
336
Chapitre 8
340
Chapitre 9
348
Bibliographie
363
Chapitre 1
363
Chapitre 2
365
Chapitre 3
367
Chapitre 4
368
Chapitre 5
368
Chapitre 6
369
Chapitre 7
370
Chapitre 8
370
Chapitre 9
372
Liste Index
des a c r o n y m e s
375 383
Introduction
Administrer un pays, une collectivité, faire du commerce, fabriquer une automobile, réserver un voyage, importer des marchandises, gérer un compte bancaire... Toutes ces tâches de la vie professionnelle ou quotidienne nécessitent une collaboration entre de nombreux acteurs établis dans des entreprises, des administrations, voire des pays distincts. Pour collaborer, ces acteurs peuvent quelquefois se rencontrer mais communiquent le plus souvent à distance. Seule solution au départ, le courrier postal sert désormais de trace légale de la transaction une fois conclue tandis que pendant toute la phase de négociation et de mise au point, on lui préfère des services de télécommunication, plus rapides et plus interactifs. Le télégramme, le télex et bien sûr le téléphone consistent à envoyer des impulsions électriques codées sur un support électrique ; l'infrastructure de ces lignes couvrant toute la surface de la terre. Le téléphone a connu un succès énorme, à tel point qu'il est depuis longtemps possible d'effectuer toutes sortes de démarches sans bouger de chez soi. Au fur et à mesure que les ordinateurs ont remplacé les êtres humains dans leurs tâches les plus répétitives, il a aussi fallu permettre à ces ordinateurs de c o m m u n i q u e r à d i s t a n c e , de manière a u t o m a t i q u e et r a p i d e . D e s télécommunications humaines, on passait à l'ère de la téléinformatique et des réseaux d'ordinateurs, avec leurs contraintes propres. En effet, l'ordinateur ne peut comprendre qu'un nombre limité de commandes dans un cadre bien défini. La moindre interférence sur la ligne trouble le comportement de la machine destinataire car elle n'a pas la possibilité d'extrapoler. Aussi ont été développés les protocoles de communication qui définissent les règles d'échange entre ordinateurs et fiabilisent les échanges. Les communications entre ordinateurs ont d'abord utilisé les infrastructures existantes : sur de grandes distances, le réseau téléphonique analogique, et au sein
2
Architecture des réseaux haut débit
de l'entreprise, des lignes série reliant les terminaux à l'ordinateur de calcul. Très vite, l'utilisation du téléphone a présenté de nombreux inconvénients : tarification inadaptée, débits faibles, extrême sensibilité aux interférences électromagnétiques. Dès les années 70, de nombreux travaux ont été menés tant par les industriels que par les opérateurs de télécommunication pour développer des services publics adaptés à la transmission de données : les réseaux à commutation de paquets. Ces réseaux étaient révolutionnaires dans la mesure où ils structurent les données en paquets facilitant ainsi reprise sur erreur et multiplexage temporel, avec des débits nettement plus élevés et une tarification au volume tenant compte de l'activité discontinue du trafic de données. Un peu plus tard, l'essor de la micro-informatique, avec le remplacement progressif des terminaux d'ordinateur par des micro-ordinateurs puis par des stations de travail, a lui aussi révolutionné les réseaux d'entreprise. Par rapport à un simple terminal, un micro-ordinateur dispose d'un microprocesseur, d'un système et d'un disque, mais isolé, il perd certains avantages des réseaux centralisés où la communication et le partage de ressources sont aisés. L'interconnexion des stations de travail ou des micro-ordinateurs par un réseau local (LAN — Local Area Network) vise donc à retrouver les avantages des réseaux centralisés. Le contexte particulier des réseaux locaux a conduit à développer de nouvelles techniques. En effet, sur de courtes distances, le risque d'interférences est plus faible, le débit permis plus élevé, le raccordement en multipoint possible. Une autre caractéristique importante de ce type de réseau est qu'il reste dans le domaine privé de l'entreprise ; la notion de service n'est plus fondamentale comme dans le cas d'un opérateur. Les protocoles des réseaux locaux ont donc suivi une philosophie différente de celle des réseaux grande distance et sont souvent plus simples et plus efficaces. A la fin des années 80, est apparu un troisième type de réseau, les réseaux métropolitains (MAN — Metropolitan Area Network) dont la taille est intermédiaire, à mi-chemin entre le réseau local et le réseau grande distance. Leur objectif est l'interconnexion à haut débit (au-delà de la centaine de Mbit/s) de réseaux locaux, sur un site étendu, un campus par exemple, voire une ville. Ces réseaux métropolitains ont profité de l'expérience acquise avec les réseaux locaux et utilisent des techniques voisines. Toutefois, en plus du service de transfert de données informatiques, ils permettent de nouveaux services tels le transfert d'images ou le transfert de voix téléphonique numérisée. Parallèlement, les réseaux grande distance ont eux aussi évolué. La numérisation de la parole par un procédé d'échantillonnage périodique du signal a conduit à la mise en place d'un nouveau réseau téléphonique complètement numérique offrant un service de transfert plus fiable, plus efficace, plus riche en fonctionnalités et plus rapide. La conséquence majeure est la possibilité d'intégrer sur un même réseau les services de transmission des données et de voix téléphonique. Le réseau numérique à intégration de services était né avec pour objectif d'offrir à terme un accès uniforme quel que soit le type de service demandé. Dans sa version large bande, ce concept sera généralisé puisqu'aux services de phonie et de données s'ajouteront les
Chapitre 1
Architecture en couches et normalisation
1.1.
Introduction
Comme nous allons le voir, il n'y pas un réseau mais des réseaux. Le paragraphe 1.2 relate succinctement les différences les plus marquantes entre les divers types de réseaux. De même, ces derniers ne sont pas utilisés pour relier un seul type d'équipements mais des équipements de nature diverse, provenant de constructeurs différents, appartenant à des générations différentes et possédant également des finalités différentes. Car quel est le point commun entre un ordinateur et un scanner ? Tous deux communiquent via des réseaux de communication. Gérer cette hétérogénéité a rapidement fait naître le besoin d'un cadre de normalisation. Le paragraphe 1.3 présente les principaux organismes acteurs de cette normalisation. Les principes du modèle de référence OSI définissant un cadre d'échange entre systèmes communicants sont ensuite présentés au paragraphe 1.4. L'architecture Internet du DoD est, quant à elle, décrite brièvement dans le paragraphe 1.5. Nous présentons enfin les principes de l'administration des réseaux dans le paragraphe 1.6.
1.2. Les 1.2.1.
réseaux Classification
La diversité des réseaux de communication est telle qu'une classification, aussi grossière soit-elle, est nécessaire. Le caractère distinctif le plus souvent utilisé est la
Remerciements De nombreux collègues et amis, membres de notre famille nous ont permis de mener à bien la rédaction de cet ouvrage. Nous remercions tout d'abord Pascal Anelli, maître de conférences à l'Université Pierre et Marie Curie, pour sa disponibilité et ses conseils judicieux sur le chapitre 8. Nous tenons à exprimer toute notre gratitude à Guy Pujolle, professeur à l'Université de Versailles, pour avoir su nous communiquer, par son enseignement et ses divers ouvrages, le goût des réseaux, et pour nous avoir encouragé dans les moments difficiles. Nous témoignons une reconnaissance toute particulière à Pierre Rolin, professeur à l'ENST-Bretagne, pour sa confiance et son efficace travail de relecture. Eric Horlait, professeur à l'Université Pierre et Marie Curie, et Ahmed Serhrouchni, maître de conférences à l'ENST, ont également accepté de nous relire. Qu'ils trouvent ici la marque de notre amitié. Nous remercions également Bruno Bouton, chercheur à l'Université de Versailles, pour ses remarques pertinentes sur les exercices corrigés. Enfin, nous remercions nos proches et les membres de nos familles pour le soutien, la compréhension et la patience dont ils ont fait preuve tout au long de la rédaction de cet ouvrage.
Kim-Loan THAI, Université Pierre et Marie Curie, Paris VI Véronique VÈQUE, Université Paris-Sud, Paris XI Simon ZNATY, Ecole Polytechnique Fédérale de Lausanne
Chapitre 1
Architecture en couches et normalisation
1.1.
Introduction
Comme nous allons le voir, il n'y pas un réseau mais des réseaux. Le paragraphe 1.2 relate succinctement les différences les plus marquantes entre les divers types de réseaux. De même, ces derniers ne sont pas utilisés pour relier un seul type d'équipements mais des équipements de nature diverse, provenant de constructeurs différents, appartenant à des générations différentes et possédant également des finalités différentes. Car quel est le point commun entre un ordinateur et un scanner ? Tous deux communiquent via des réseaux de communication. Gérer cette hétérogénéité a rapidement fait naître le besoin d'un cadre de normalisation. Le paragraphe 1.3 présente les principaux organismes acteurs de cette normalisation. Les principes du modèle de référence OSI définissant un cadre d'échange entre systèmes communicants sont ensuite présentés au paragraphe 1.4. L'architecture Internet du DoD est, quant à elle, décrite brièvement dans le paragraphe 1.5. Nous présentons enfin les principes de l'administration des réseaux dans le paragraphe 1.6.
1.2. Les 1.2.1.
réseaux Classification
La diversité des réseaux de communication est telle qu'une classification, aussi grossière soit-elle, est nécessaire. Le caractère distinctif le plus souvent utilisé est la
6
Architecture des réseaux haut débit
couverture géographique du réseau. On distingue ainsi trois types de réseaux. Dans leur ordre d'apparition, ce sont : - les réseaux grande distance (WAN — Wide Area Network), - les réseaux locaux (LAN — Local Area Network), - les réseaux métropolitains (MAN — Metropolitan Area Network). Les réseaux grande distance ont un diamètre supérieur à 50 km et desservent des régions ou des pays entiers. Les réseaux téléphoniques commutés et les réseaux à commutation de paquets en sont des exemples. Historiquement, les réseaux grande distance sont apparus en premier. Ils répondent individuellement à un type de service. Leurs composants appartiennent à plusieurs organisations : les exploitants de réseaux publics (ou assimilés) et/ou les exploitants privés reconnus possèdent les moyens de transmission, tandis que les utilisateurs privés possèdent les équipements terminaux. La facturation des communications se fait généralement au volume de données transmises ou à la durée. Pour maintenir la connectivité sur une grande distance, ils utilisent une structure maillée composée de nœuds de commutation reliés entre eux par des liaisons. Les débits offerts sont généralement inférieurs au Mbit/s. Ces inconvénients disparaîtront avec le déploiement du futur réseau large bande. Les réseaux locaux ne desservent qu'une seule organisation située dans un domaine privé dont la couverture géographique n'excède guère quelques kilomètres. Privés et gérés par l'organisation propriétaire, ils échappent donc aux contraintes d'un éventuel monopole des télécommunications comme à celles de la facturation. Apparus après les réseaux grande distance, ils ont profité de l'expérience acquise et du cadre particulier de la transmission sur de très courtes distances. Ainsi, le débit binaire nominal est au minimum de quelques Mbit/s et les équipements réseau se limitent au contrôleur de communication et au support de transmission. Les technologies utilisées permettent des taux d'erreurs beaucoup plus faibles que dans le cas des réseaux grande distance et une diffusion aisée de l'information. Les réseaux métropolitains [Klessig 86] se situent, en termes d'étendue, à michemin entre les réseaux locaux et les réseaux grande distance : ils desservent une zone de la taille d'une ville, de diamètre supérieur à 5 km mais inférieur à 50 km. L'objectif initialement visé est l'interconnexion de réseaux locaux ; pour cette raison, les débits supportés sont souvent de l'ordre de la centaine de Mbit/s. Les équipements réseau peuvent appartenir à plusieurs organisations, privées (interconnexion d'un campus) et/ou publiques (s'ils traversent des voies publiques). Les réseaux métropolitains utilisent des technologies voisines de celles des réseaux locaux. Ils utilisent néanmoins de façon quasi systématique de la fibre optique pour augmenter les distances de transmission tout en maintenant un débit élevé. De plus, la fibre permet des taux d'erreurs encore plus faibles que ceux présentés par les réseaux locaux.
Architecture en couches et normalisation
7
Le tableau 1.1 indique le type de réseau utilisé en fonction de la distance et de la localisation des processeurs ou des machines. localisation des processeurs
distance entre les processeurs
type de réseau
0,1 m
un circuit imprimé
machine à flot de données
1 m
un ordinateur
multiprocesseur
10 m
une salle
réseau local
100 m
un immeuble
réseau local
1 km
un campus
réseau métropolitain
10 km
une ville
réseau métropolitain
100 km
une région
réseau grande distance
1 0 0 0 km
un continent
réseau grande distance
1 0 0 0 0 km
la planète
réseau grande distance satellite et câbles sous-marins
Tableau 1.1. Distances
1.2.2.
et types de
réseaux
Applications
1 . 2 . 2 . 1 . Applications
des réseaux grande
distance
Au départ, les premiers réseaux avaient pour but de permettre la communication entre personnes grâce au télégraphe, au téléphone et à la télédiffusion. Avec le développement de l'informatique, le besoin de communication entre les ordinateurs s'est fait sentir. Quel était l'intérêt de machines capables de traiter des millions d'informations mais de manière isolée, sans possibilité de recoupements ou de partage avec d'autres applications ? Il est d'autre part rapidement apparu que la saisie de données est l'opération la plus coûteuse d'un traitement informatique. Elle a donc été déportée au plus près de sa source : on parle de télésaisie. Par exemple, une agence bancaire saisit les opérations de ses clients qui sont traitées par les serveurs de la caisse régionale évitant ainsi le remplissage de formulaires saisis de nouveau dans le site central. La télésaisie s'est enrichie pour devenir un traitement à part entière avec l'interrogation à distance d'une base de données et la mise à jour de cette base. Le client de la banque a-t-il suffisamment d'argent sur son compte ? Oui : le compte est immédiatement débité du montant de son retrait. Le temps de réponse est primordial dans ce type d'application. Le transfert de fichiers ou de grandes masses d'information est aussi une application classique des réseaux de télécommunication. Il n'a pas de caractère temps réel mais permet de traiter ultérieurement les données transférées ou encore de les sauvegarder sur un autre site. On privilégie ici la fiabilité du transfert.
8
Architecture des réseaux haut débit
La communication entre utilisateurs d'un système informatique s'est développée sous forme de messagerie électronique rendant le même service qu'un courrier postal avec la rapidité en plus. 1.2.2.2. Applications
des réseaux
locaux
Les réseaux locaux sont nés des besoins de communication au sein d'une organisation (entreprise, administration, université, etc.) [Schatt 87]. Pour en comprendre l'utilité, il suffit d'imaginer le cas d'une seule imprimante disponible pour l'ensemble des ordinateurs d'un même service. La solution "réseau local" s'impose car il est impensable que chacun établisse une liaison physique de son ordinateur à l'imprimante ; de même, il serait aberrant de faire passer le document à imprimer dans un réseau public pour le faire arriver à l'imprimante qui se trouve à proximité. L'un des bénéfices majeurs offerts par le réseau local est le partage de ressources onéreuses (imprimantes, disques, accès aux réseaux grande distance, etc.). Le partage et l'échange d'informations entre systèmes est une raison supplémentaire d'interconnecter des équipements informatiques via un réseau local. En effet, un utilisateur travaille rarement seul et coupé de l'extérieur. Il a besoin de communiquer avec le reste de son environnement (messagerie, forum, etc.) : le réseau local offre un moyen de communication électronique entre les différents utilisateurs. Il peut avoir besoin, à un moment donné, d'accéder à de l'information située en divers endroits, tout comme plusieurs utilisateurs peuvent avoir besoin d'accéder au même fichier : le réseau local offre un accès partagé à l'information. En environnement industriel, le réseau local constitue également un élément clé [Lepage 8 9 ] . Il y est surtout utilisé pour interconnecter divers équipements de contrôle et de mesure (capteurs, automates programmables industriels, robots, consoles de zone, etc.). Contrairement aux environnements bureautiques, l'exigence temps réel est forte, dans la mesure où les commandes et les mesures doivent être transmises dans un temps borné. 1.2.2.3. Applications
des réseaux
métropolitains
Un réseau métropolitain peut rendre les mêmes fonctionnalités qu'un réseau local. Par ailleurs, étant donné sa bande passante élevée et sa couverture géographique étendue, il peut être utilisé pour rendre d'autres types de services. Ses principales applications sont ainsi l'interconnexion de réseaux locaux, l'intégration des applications de voix et données et les communications multimédias. Le réseau métropolitain peut interconnecter des réseaux locaux distants situés dans une aire métropolitaine, c'est-à-dire dans une aire dont le diamètre n'excède pas la centaine de kilomètres. La large bande passante du réseau métropolitain et les fonctionnalités des protocoles mis en œuvre dans son architecture permettent de supporter aussi bien des applications classiques (données interactives, par exemple) que des applications sensibles au temps (voix ou vidéo, par exemple). De ce fait, le réseau métropolitain
Architecture en couches et normalisation
9
peut interconnecter des réseaux locaux voix/données au réseau numérique à intégration de services (RNIS) ou des PABX entre eux. Pour ce qui est des applications multimédias — réputées pour être gourmandes en bande passante —, le RNIS intègre la voix, les données et les images, mais les débits offerts sont limités à 1,544 ou 2,048 Mbit/s. Le RNIS large bande (RNISLB) opère à des débits de 34, 155 ou 622 Mbit/s. Le réseau métropolitain est l'un des premiers réseaux à fournir l'infrastructure sous-jacente pour les services et réseaux large bande.
1.2.3. Caractéristiques
fonctionnelles
Les réseaux de communication informatiques sont parfois désignés sous le terme de systèmes téléinformatiques. Un système téléinformatique est composé de plusieurs ordinateurs reliés entre eux par des moyens de télécommunication de manière à recueillir, traiter et diffuser l'information en temps réel et à tout endroit [Nussbaumer 87]. Les moyens de télécommunication, nous l'avons vu, sont de plusieurs types — réseau local, grande distance ou métropolitain — mais tous possèdent les mêmes caractéristiques fonctionnelles. Lorsqu'une organisation se dote d'un système téléinformatique, ce dernier est généralement supposé satisfaire un certain nombre d'objectifs, tels que : - améliorer la productivité du personnel par une automatisation de tâches routinières ; - faciliter la manipulation de l'information, la rendre plus accessible et éviter sa duplication ; - améliorer les interactions au sein du personnel, par le partage de l'information ; - réduire et contrôler les coûts, grâce à l'utilisation de méthodes de communication efficaces. Tous ces objectifs, joints à leur définition de base, permettent de définir les caractéristiques fonctionnelles des réseaux. Lesquels sont principalement : - le partage et la diffusion aisés d'informations qui sont les objectifs primordiaux des réseaux ; - la capacité, qui se définit par le débit que peut fournir le réseau de télécommunication et le type d'information qu'il est capable de transporter (données, voix, images, voix téléphonique, etc.) ; - la connectivité, qui mesure la facilité de raccordement physique des équipements au support de transmission ; - le coût qui est fonction des l'infrastructure déployée, des communications de l'utilisateur (distance, durée et volume) et de la politique commerciale des opérateurs ;
10
Architecture des réseaux haut débit
- la configuration, qui représente l'aptitude du réseau local à s'adapter aux besoins de son propriétaire (déplacements, ajouts, retraits d'équipements) ; - la fiabilité, qui d é p e n d à la fois de l ' e n v i r o n n e m e n t d'utilisation, équipements utilisés et des protocoles mis en œuvre ; - la c o n f i d e n t i a l i t é d e s d o n n é e s transportées, assurée par des adéquats ;
des
protocoles
- la disponibilité qui mesure l'adéquation entre les équipements ou ressources mis en œuvre par rapport à leur utilisation ; - l ' i n t e r c o n n e x i o n de réseaux de types différents : l o c a l / g r a n d e distance, public/privé, de pays différents. A titre anecdotique, le tableau 1.2 donne la liste des objectifs ayant guidé la c o n c e p t i o n du réseau local Ethernet [ D E C 8 0 ] . Il est intéressant de constater que certains ont été aujourd'hui largement dépassés (débits, distances) et que d'autres n'ont j a m a i s été atteints (stabilité à forte charge) !
simplicité
utilisation des mécanismes les plus simples possibles
coût modéré
du raccordement au réseau
compatibilité
de toutes les implantations pour ce qui est du transfert de données au niveau liaison
flexibilité de l'adressage
pour supporter les envois de trame en point-à-point ou en point-à-multipoint (multicast et broadcast)
équitabilité
de l'accès pour tous les équipements
débit
10 Mbit/s
délai de transfert
aussi faible que possible
stabilité
sous forte charge
maintenance, reconfiguration
facilitées
architecture en couches
pour séparer les aspects physiques des aspects logiques
distances géographiques
couvrant au plus 1 km
nombre d'équipements supportés
plusieurs centaines
T a b l e a u 1.2. Objectifs
1.3. Les o r g a n i s m e s de
initiaux
d'Ethernet
normalisation
Les télécommunications constituent un secteur industriel dont l'ampleur ne cesse de croître, tant au niveau du revenu généré annuellement qu'au niveau de son impact
Architecture en couches et normalisation
1 1
sur tous les aspects de la vie professionnelle et domestique. La normalisation dans les télécommunications est devenue très vite indispensable, si l'on veut pouvoir : - faciliter l'interconnexion et la communication entre différents utilisateurs ; - faciliter la portabilité d'équipements fonctionnellement — dans des applications différentes — et géographiquement — dans des régions différentes. Là, le fournisseur est directement concerné puisque la taille du marché augmentant, elle donne lieu à un coût moindre du fait des économies d'échelle ; - assurer qu'un équipement d'un vendeur A soit à même d'interopérer avec un équipement d'un vendeur B. Cela profite directement à l'utilisateur, qui peut ainsi mettre en place des environnements compétitifs. Le chemin vers la production de normes globales n'est pas aisé. Aujourd'hui encore, il est difficile de se retrouver dans la multitude d'organismes dits "de normalisation". Aux côtés des organismes officiels, sont apparues des organisations de nature diverse qui concourent, plus ou moins directement à ce processus de normalisation, avec la production de "standards", de "recommandations", de "profils", etc. Afin de gérer au mieux les conflits d'intérêt qui se dessinent en toile de fond, les organismes de normalisation officiels se concentrent essentiellement sur la production de normes de base. Ces normes autorisent la mise en œuvre de variantes et d'alternatives dont le choix relève de l'implémenteur. Ceci a pour conséquence que la réalisation, bien que conforme à la norme, n'est pas assurée de pouvoir interfonctionner avec une réalisation issue d'un autre choix. Le problème de l'interfonctionnement est généralement traité par des organismes régionaux, bien souvent des groupements d'utilisateurs ou de constructeurs. Ceux-ci adaptent les normes internationales de base selon des besoins propres et produisent des profils fonctionnels qui ne contiennent qu'un sous-ensemble limité des variantes autorisées. En aval de ce processus, d'autres organisations réalisent des tests de conformité et d'interfonctionnement visant à garantir qu'un équipement est conforme à un profil fonctionnel et qu'il est capable d'interfonctionnement (figure 1.1).
n o r m e s d e b a s e
g r o u p e m e n t s d'utilisateurs
o r g a n i s m e s d e n o r m a l i s a t i o n i n t e r n a t i o n a u x
o r g a n i s m e s d e n o r m a l i s a t i o n r é g i o n a u x
profils f o n c t i o n n e l s
d e
g r o u p e m e n t s c o n s t r u c t e u r s tests de c o n f o r m i t é
o r g a n i s a t i o n s de test
F i g u r e 1.1. Normalisation
et
acteurs
12
Architecture des réseaux haut débit
Le processus de normalisation n'est pas sans poser de problèmes. Pour ne citer que le principal, l'élaboration d'une norme demande un certain temps — pour ne pas dire un temps certain (plusieurs années), nécessaire pour obtenir un consensus des différents acteurs. Des techniques plus efficaces peuvent apparaître entre temps. Des standards de facto, reposant sur des solutions propriétaires, voient alors le jour bien avant les normes internationales, d'où une coexistence qui n'est pas toujours harmonieuse pour l'utilisateur.
1.3.1. Les
organismes
officiels
internationaux
Ils sont au nombre de trois et sont : - l'ISO (International Organization for Standardization), - le CEI (Comité Electrotechnique International), - l'UIT (Union Internationale des Télécommunications). 1.3.1.1. L'ISO L'ISO, fondée en 1946, est chargée de la normalisation dans un éventail très large de secteurs, mais ne couvrant pas l'électronique, l'électricité et l'électrotechnique qui sont prises en charge par le CEI. Elle regroupe des organisations nationales non gouvernementales comme l'AFNOR (Association Française de Normalisation) pour la France et l'ANSI (American National Standards Institute) pour les Etats-Unis, ainsi que des organisations jouant le rôle d'observateurs et ne prenant pas part aux votes (telle l'ECMA (European Computer Manufacturer Association), association regroupant des constructeurs informatiques — à l'origine européens, mais aujourd'hui pratiquement tous les grands internationaux). L'ISO est organisée de façon hiérarchique avec des comités techniques (TC — Technical Committee) au premier niveau, découpés en sous-comités (SC — Sub Committee), eux-mêmes découpés en groupes de travail (WG — Working Group). Ainsi les normes afférentes au modèle de référence OSI et à ses couches sont issues du comité technique TC 97 travaillant sur les systèmes d'information. Un comité technique joint, le JTC 1, a été créé en 1987 sur la technologie de l'information avec le CEI, étant donné le recouvrement des centres d'intérêt. Les normes issues du JTC 1 portent donc le double-logo de l'ISO et du CEI, y compris celles relatives au modèle OSI. A noter que le membre représentatif d'un pays au CEI est souvent le même qu'à l'ISO. Le processus d'élaboration d'une norme est long (cinq ans, en moyenne) et passe par plusieurs phases (WD — Working Document, CD — Committee Draft, DIS — Draft International Standard) avant d'aboutir à un document définitif (IS — International Standard).
Architecture en couches et normalisation 1.3.1.2.
13
LUIT
L'UIT est l'organisation internationale intergouvernementale compétente en télécommunications. Elle fonctionne sous l'égide de l'Organisation des Nations Unies et ses membres représentent les Etats. Pour le secteur qui nous intéresse, l'UIT-T (Telecommunication Standardization Sector, ex-CCITT) rassemble les administrations des télécommunications des pays membres de I'UIT et des exploitants (publics ou privés) mandatés, auxquels viennent d'ajouter des organisations régionales ou sectorielles. Le représentant français est France Télécom, le représentant américain le Département d'Etat. L'UIT-T est organisée en groupes de travail (SG — Study Group). Lors d'assemblées plénières qui se tiennent tous les quatre ans, les différents groupes soumettent les "questions" posées par leurs membres. Ces questions sont évaluées et affectées aux groupes adéquats. Cela permet de planifier le travail de normalisation pour les quatre années à venir. Chaque groupe prépare ensuite une proposition d'avis, qui sera votée lors de la prochaine assemblée. Cette procédure d'adoption a donné lieu à la parution, tous les quatre ans, d'un Livre (jaune en 1980, rouge en 1984, bleu en 1988) regroupant tous les avis promulgués. A ce cycle de quatre ans est venue s'ajouter en 1988 une seconde procédure d'adoption, plus souple et plus rapide, qui permet d'adopter un avis avec 70% de votes favorables et sans devoir attendre l'assemblée plénière.
1.3.2. Les
organismes
européens
A l'échelle européenne, plusieurs organisations traitent de la normalisation dans les domaines du traitement et de la technologie de l'information. On peut citer : - le CEN (Comité Européen de Normalisation) regroupe l'ensemble des pays européens (CEE et AELE). De même nature que l'ISO, il prépare et harmonise la normalisation au niveau européen pour tous les domaines techniques, exceptés ceux de l'électrotechnique et des télécommunications ; - le CENELEC (Comité Européen de Normalisation Electrotechnique) traite, comme le CEI, d'électrotechnique, mais au niveau européen. Il rassemble les comités nationaux d'électrotechnique des pays de la CEE et de l'AELE. Le C E N et le CENELEC se sont rapprochés dans le secteur de la technologie de l'information pour former le CEN/CENELEC (de la même façon que l'on a le JTC 1 de l'ISO/CEI) ; - la CEPT (Conférence Européenne des Postes et des Télécommunications) regroupe les administrations des télécommunications des pays européens. Elle établit les normes européennes et unifie les positions de ses membres auprès de l'UIT-T ; - l'ETSI (European Telecommunications Standard Institute) est un organisme permanent, créé à l'initiative des administrations de télécommunications européennes. Il est principalement chargé de produire des spécifications techniques pour les réseaux publics.
14
Architecture des réseaux haut débit
1.3.3. Autres
organismes
Outre les organisations officielles — internationales, continentales ou nationales —, il convient de mentionner les organismes ou associations qui jouent un rôle également important en matière de normalisation, tout aussi bien en amont du processus de normalisation, en élaborant des spécifications qui sont susceptibles de constituer des standards de facto, voire même d'être reprises par les organismes officiels, qu'en aval, en promouvant les normes. Il est difficile d'en dresser une liste complète, et nous nous limiterons donc à ne citer que les plus significatifs, pour ce qui concerne le thème de l'ouvrage : - l'IEEE (Institute of Electrical and Electronic Engineers) est une organisation professionnelle, dont les membres (principalement américains et d'origine industrielle aussi bien qu'académique) le sont à titre privé. C'est un forum d'échange et de réflexion qui constitue également un organisme de proposition ayant élaboré bon nombre de standards universellement utilisés : notamment, son comité 802 est à l'origine de la plupart des normes aujourd'hui officielles quant aux réseaux locaux et étendus ; - l'EIA (Electronic Industries Association) est une association professionnelle américaine qui se distingue par l'élaboration de standards dans le secteur du matériel et des composants électriques et électroniques (la célèbre "prise" RS-232C !) ; - ATM Forum est une organisation internationale, créée en 1991 et regroupant des opérateurs de télécommunications, des constructeurs, des fournisseurs, ainsi que des utilisateurs. Son but est d'accélérer le déploiement des services et produits ATM, en essayant d'obtenir rapidement une convergence des spécifications d'interopérabilité ; - M A P (Manufacturing Automation Protocol) et TOP (Technical and Office Protocol) sont des groupements d'utilisateurs, le premier initié par General Motors, le second par Boeing, qui ont pour principal objectif d'établir des profils fonctionnels respectivement en environnement industriel et en environnement bureautique ; - SPAG (Standards Promotion and Application Group) est un groupement de constructeurs européens ayant pour vocation de produire des profils fonctionnels autour du modèle OSI qui seront observés par les membres du groupe ; - COS (Corporation for Open Systems) s'est monté en 1986. C'est un groupement de constructeurs et d'utilisateurs du monde entier qui s'est donné pour objectif de promouvoir les produits multi-vendeurs conformes aux normes internationales relatives à l'OSI et au RNIS. Une activité importante est dédiée au développement d'un ensemble cohérent de méthodes de test et de certification.
Architecture en couches et normalisation
15
1.4. Le modèle de référence OSI Le modèle de référence pour l'interconnexion des systèmes ouverts, plus connu sous le nom de modèle OSI (Open Systems Interconnection), est le fruit de travaux entrepris par l'ISO pour répondre au problème de l'interconnexion de systèmes hétérogènes. Les architectures de communication existantes jusqu'alors étaient principalement des architectures dites "constructeur", qui, si elles permettaient à des systèmes informatiques provenant d'un même constructeur de communiquer entre eux, pouvaient créer des barrières entre systèmes de familles différentes. Dans la terminologie OSI, un système est dit ouvert lorsqu'il permet la communication entre équipements et logiciels de types différents, du moment que ces derniers sont conformes à l'ensemble des normes définies dans le cadre du modèle OSI. L'objectif de la normalisation OSI est de permettre la constitution de réseaux téléinformatiques dans lesquels peut venir s'intégrer tout système informatique capable d'effectuer des traitements et/ou des transferts d'information. Les normes OSI, contrôlées à un niveau international, ont pour rôle de simplifier l'interconnexion des systèmes tout en préservant l'indépendance des échanges d'information vis-à-vis du milieu de transmission utilisé. Ainsi, elles se limitent à spécifier les fonctions à réaliser par chaque système et les protocoles à mettre en œuvre entre les systèmes à interconnecter. Elles n'imposent en aucune façon une technologie particulière ou un mode de réalisation donné pour ces mêmes fonctions et protocoles : seul est spécifié le comportement des systèmes lors d'échanges avec d'autres systèmes ouverts, et non pas leur fonctionnement interne (langages de programmation, systèmes d'exploitation, interfaces d'application, interfaces utilisateur, etc.). Le modèle OSI définit l'architecture en sept couches conjointement adoptée par l'ISO et le CCITT en 1983. Cette décomposition en sept couches résulte d'un compromis : une première contrainte était d'éviter la prolifération de couches, une seconde était de limiter les fonctions à réaliser dans une couche aux fonctions possédant le même niveau d'abstraction ou s'appliquant à un même contexte. Cette structuration en couches a donc l'avantage non seulement de simplifier la compréhension globale de l'architecture de communication, mais également de simplifier sa mise en œuvre : les interfaces entre couches ont été choisies aussi simples que possible et de façon à ce qu'une modification portant sur une fonction ou un protocole d'une couche donnée n'affecte pas les autres couches. Les sept couches du modèle OSI sont les suivantes : -
couche couche couche couche couche couche couche
1 : physique, 2 : liaison de données, 3 : réseau, 4 : transport, 5 : session, 6 : présentation, 7 : application.
16
Architecture des réseaux haut débit
Les normes OSI se séparent en deux familles, d'une part les normes d'usage général qui servent à fixer une terminologie, à définir des concepts de base et à établir des règles d'utilisation de ces concepts et d'autre part, les normes spécifiques qui s'adressent à des points précis définis dans les normes d'usage général. Le modèle de référence OSI de base est décrit dans la recommandation X.200 du CCITT et dans la norme internationale IS 7498, composée de quatre parties auxquelles sont adjoints deux addendums : -
IS 7498-1 : Modèle de référence OSI [IS 7498-1] IS 7498-2 : Architecture de sécurité [IS 7498-2] IS 7498-3 : Dénomination et adressage [IS 7498-3] IS 7498-4 : Gestion OSI — Administration de réseau [IS 7498-4] Ad 1 : Transmission de données en mode sans connexion Ad 2 : Transmission de données en multipoint (diffusion)
Nous présentons dans la suite les concepts généraux de la structuration en couches et donnons par la même occasion quelques définitions propres à la terminologie OSI. Nous présenterons ensuite la notion de service, avant de donner une description des sept couches.
1.4.1. Concepts
de base
de la structuration
en
couches
Les concepts de la structuration en couches du modèle OSI peuvent être classés en deux catégories : ceux portant sur l'organisation des communications et ceux portant sur le transfert de données. 1.4.1.1. Organisation
des communications
avec le modèle
OSI
Chaque couche de rang N, dite couche (N), utilise les services (N-l) de la couche immédiatement inférieure de rang N - l , pour offrir les services (N) à la couche immédiatement supérieure de rang N+l (sauf, bien entendu, les couches d'extrémité). La couche ( N - l ) est dite fournisseur des senices ( N - l ) alors que la couche (N) est dite utilisateur des senices (N-l) (figure 1.2). couche (N+1 )
utilisateur du
? s e r v i e (N)
couche(N)
fournisseur du utilisateur du -
couche (N-1 )
fournisseur du
Figure 1.2. Modèle de service
service ( N - l ) *
en couches
Architecture en couches et normalisation
17
Une couche (N) peut comporter plusieurs sous-systèmes (N), chacun d'eux pouvant à son tour se décomposer en plusieurs entités (N) (figure 1.3). Les entités représentent les éléments actifs du sous-système ; ce sont elles qui réalisent les fonctions du sous-système. système ouvert A
système ouvert B
système ouvert Ç
sous-système (N+1) de A sous-système (N) de A sous-système (N-l) de A
sous-système (N+1) de B sous-système (N) de B sous-système (N-l) de B
sous-système (N+1) de C sous-système (N) de C sous-système (N-l) de C
couche de plus haut niveau
couche (N+1 ) couche (N) couche(N-l)
couche de plus bas niveau support physique d'interconnexion
Figure 1.3. Systèmes
ouverts,
sous-systèmes
et couches
Le service (N) est assuré par les entités (N), dites entités homologues. Les entités (N) communiquent et coopèrent entre elles selon un protocole (N) au travers de l'ensemble des services fournis par la couche (N-l). Les entités accèdent aux services ( N - l ) à partir de points d'accès à des services ( N - l ) appelés ( N - l ) S A P (Service Access Point) (figure 1.4). Chaque point d'accès (N) est identifié par une adresse de (N)SAP. Chaque (N)SAP ne peut être servi que par une seule entité (N) et ne peut servir qu'une seule entité (N+1). De façon dissymétrique, une entité (N) peut servir plusieurs (N)SAP et peut être servie à partir de plusieurs (N-l)SAP. (N)SAP service (N)
couche(N)
entité (N)
entité (N)
service (N-l) • (N-l)SAP Figure 1.4. Modèle général d'une couche
I8
Architecture des réseaux haut débit
Il est important de bien faire la distinction entre service et protocole. La notion de service correspond à une vision "verticale" du modèle OSI. dans le sens où elle met en jeu deux couches adjacentes, la couche inférieure fournissant le service et la couche supérieure l'utilisant. La notion de protocole, par contre, correspond à une vision "horizontale" du modèle de référence, puisqu'elle ne s'applique qu'aux échanges entre entités de même couche. Il y a découplage entre service et protocole. Les entités ( N + l ) peuvent communiquer en établissant une connexion (N), terminée par des points d'extrémité de connexion (N) appelés (N)CEP (Connection End-Point) et qui sont situés chacun dans un (N)SAP. L'échange d'information entre ces entités ( N + l ) est régi par un protocole ( N + l ) et la communication est dite en mode connecté
(figure 1.5).
couche (N+l)
entité (N)+l
protocole (N+l)
entité (N+l)
service (N) N(CEP)'
- (N)SAP couche (N) connexion (N) Figure 1.5. Communication
en mode
connecté
Le modèle OSI a été initialement conçu pour le mode connecté, c'est-à-dire pour que la communication entre entités de même rang se fasse sous la forme de connexion logique. Selon l'approche du mode connecté, pour que deux usagers distants puissent communiquer, il faut commencer par établir une connexion au niveau le plus bas, le niveau physique, puis établir une connexion au niveau suivant, le niveau liaison de données, et ainsi de suite jusqu'au niveau le plus haut, le niveau application. Cette phase d'établissement de connexion correspond en fait à une négociation tripartite entre deux entités (N+l ) et le service (N), ce dernier devant établir la connexion (N) souhaitée par les deux premières. Elle sert à fixer un certain nombre de caractéristiques de la communication, telles que l'identité des correspondants, le protocole (N) à suivre, les services optionnels à utiliser, ou encore les paramètres de qualité de service. Après cette phase d'établissement, la connexion entre dans la phase de transfert de données pendant laquelle est échangée l'information utile entre les deux entités (N+l). Toute cette information, structurée en blocs de données d'après le protocole (N), suit la route logique qui a été établie lors de la phase d'établissement. La communication s'achève ensuite par une phase de libération de connexion. Cette phase correspond à une libération des ressources mobilisées par la communication et à une rupture du dialogue entre les deux entités (N+l ) communicantes.
Architecture en couches et normalisation
19
Ce mode de communication comportant les trois phases d'établissement de connexion, de transfert de données et de libération de connexion possède plusieurs avantages : citons, entre autres, le fait d'offrir une négociation entre les trois acteurs au moment de l'établissement de la connexion ou également le fait d'assurer un transfert de données fiable, dans la mesure où ce mode offre la possibilité de réguler le flux d'information échangé, de détecter les blocs de données manquants, en double ou déséquencés. Ce mode permet, de plus, de minimiser le volume d'information de contrôle à échanger pendant la phase de transfert de données. Si le mode connecté possède des avantages, il n'en présente pas moins des inconvénients. Tout d'abord, il nécessite la mise en œuvre de procédures très lourdes pour l'établissement et la libération des connexions, ainsi que la présence simultanée des correspondants. Il ne s'avère donc pas adéquat pour le transfert de messages isolés dans le temps. Par ailleurs, la notion de connexion, très bien adaptée aux communications en bipoint avec deux entités communicantes, convient mal dès qu'il s'agit de faire communiquer plus de deux entités. -
C'est à la suite de ces considérations que l'ISO a entrepris des travaux sur les communications en mode non connecté ou datagramme. Ils ont abouti à l'additif 1 de la norme ISO 7498. Le modèle OSI en mode non connecté reprend les mêmes principes que le modèle de base en mode connecté, pour ce qui est de la structuration en couches et des fonctions de base. La principale différence repose sur le fait que les blocs de données, au lieu d'être véhiculés dépendamment les uns des autres pendant la phase de transfert, sont acheminés de façon tout à fait indépendante. Ils doivent par conséquent comporter toute l'information de contrôle nécessaire à leur acheminement vers leur destinataire. Par ailleurs, en mode non connecté, il n'y a ni établissement, ni libération de connexion. Cela implique qu'une communication entre entités (N+l) ne nécessite pas au préalable l'existence d'une communication entre entités (N). De même, il n'y a pas de négociation tripartite entre les deux entités (N+l) et le service (N). A la place, nous trouvons un type de négociation plus simple, bilatéral, puisque ne mettant en cause que deux intervenants : une entité (N+l) et le service (N), ou deux entités (N+l). En mode non connecté, les blocs de données étant acheminés indépendamment les uns des autres, il n'est pas toujours possible de fiabiliser le transfert de données ; en particulier, les pertes, les duplications et le déséquencement des blocs de données sont possibles. Pour terminer sur les deux modes de communication, on notera qu'une architecture mixte est souvent utilisée, dans laquelle par exemple un service non connecté (N) est construit au-dessus d'un service connecté (N-l), ou l'inverse. 1.4.1.2. Transfert de
données
Nous avons vu que deux entités (N) peuvent communiquer en utilisant le service (N-l) offert par la couche inférieure, l'échange de données étant régi par le protocole (N). Ce dernier spécifie l'ensemble des règles et des formats utilisés pour la communication.
20
Architecture des réseaux haut débit
Le service (N-1 ) assure le transfert d'unités de données de service (N-1 ), appelées (N-l)SDU (Service Data Unit), entre des (N-l)SAP. Les entités (N) peuvent alors s'échanger des unités de données de protocole (N), appelées (N)PDU (Protocol Data Unit), en les plaçant dans des (N-l)SDU. Chaque (N)PDU contient, d'une part, les informations de contrôle du protocole (N), appelées (N)PCI (Protocol Control Information), et d'autre part, les données utilisateur (N)UD (User Data) provenant des (N)SDU soumises par les entités (N+l) (figure 1.6).
(N)SDU
service (N)
couche(N)
N(PCI)
(N)SDU
(N)UD
N)UD
N(PCI)
(N)PDU
(N)PDU service
(N-l)
(N-l)SDU
(N-l)SDU
F i g u r e 1.6. Les unités de données
Le schéma de la figure 1.6 est un schéma simplifié dans la mesure où les relations entre (N)SDU et (N)PDU ou entre (N)PDU et (N-l)SDU ne sont pas forcément biunivoques. Plus précisément, plusieurs fonctions sont possibles sur les unités de données (figure 1.7). La fonction de segmentation permet d'engendrer plusieurs (N)PDU à partir d'une même (N)SDU ; en réception, la fonction inverse de réassemblage permettra de reconstituer la (N)SDU d'origine à partir des différentes (N)PDU reçues. La fonction de groupage permet le groupage de plusieurs (N)SDU dans une même (N)PDU ; la fonction inverse de dégroupage permettra de récupérer les différentes (N)SDU véhiculées dans une même (N)PDU. Enfin, la fonction de concaténation permet de concaténer plusieurs (N)PDU dans une même (N-l)SDU ; la fonction inverse de séparation permettra de séparer les différentes (N)PDU contenues dans une même (N-1 )SDU.
(N)PCI i
(N)SD
(N)PC1
(Nvsn
M)PCI
(N)SD
(N)PDU
(N)PDU
r
1
(N)PDU
(N)PDU
Segmentation
(N)PDU
(N-l)SDU
Groupage
Concaténation
F i g u r e 1.7. Opérations sur les unités de données
Architecture e n c o u c h e s et n o r m a l i s a t i o n
1.4.2. Définition
des
21
services
Nous avons pu voir à plusieurs reprises qu'à l'intérieur du modèle OSI, l'interaction entre couches adjacentes est représentée sous forme de services (N) offerts par la couche (N) à la couche (N+l) à partir des (N)SAP. De façon plus précise, l'ISO et le CCITT ont développé, respectivement dans la norme 8509 [IS 8509] et dans la recommandation X.210, un modèle conceptuel dans lequel fournisseurs et utilisateurs de services interagissent au moyen de primitives de quatre types, les requêtes, les indications, les réponses et les confirmations. Une primitive de requête est envoyée par un utilisateur des services (N) à un fournisseur des services (N) pour lui demander l'activation d'un service particulier (par exemple, l'établissement d'une connexion (N)). Une primitive d'indication est envoyée par un fournisseur des services (N) à un utilisateur des services (N) pour lui signaler l'activation d'un service particulier, de sa propre initiative ou suite à une demande faite à l'autre extrémité de la communication. Une primitive de réponse est envoyée par un utilisateur des services (N) à un fournisseur des services (N), sur un (N)SAP donné, en réponse à une primitive d'indication reçue sur ce même (N)SAP. Une primitive de confirmation est envoyée par un fournisseur des services (N) à un utilisateur des services (N), sur un (N)SAP donné, pour lui signaler que le service dont il avait demandé l'activation par une primitive de demande sur ce même SAP a été exécuté. Les services évoqués peuvent être confirmés ou non confirmés. Dans le premier cas, l'utilisateur ayant demandé l'activation du service reçoit une confirmation de la part du fournisseur sollicité après l'exécution du service. Cela fait intervenir les quatre types de primitives, selon l'enchaînement présenté en figure 1.8. Un exemple est donné par le service d'établissement de connexion. Les services non confirmés ne font intervenir qu'une primitive de requête et la primitive d'indication correspondante, un exemple possible étant le service de libération de connexion.
utilisateur du service (N)
fournisseur du service (N)
utilisateur du service (N)
requête indication ^réponse confirmation
Figure 1.8. Séquence des échanges
de primitives
de service
confirmé
22
Architecture des réseaux haut débit
Par convention, le nom d'une primitive est donné par l'initiale de la couche concernée, suivie du nom de service demandé, lui-même suivi du type de la primitive. Il est suivi par la liste des paramètres passés à la primitive. A titre d'exemples, la primitive de demande de connexion de transport est de la forme T_CONNECT.request (adresse de l'entité appelante, adresse de l'entité appelée, option données exprès, qualité de service, données utilisateur du service de transport) ; la primitive d'indication de données du niveau réseau est notée N_DATA.indication (données utilisateur du service de réseau).
1.4.3. Description
des
couches
Nous décrivons ici chacune des sept couches constituant le modèle de référence OSI (figure 1.9), en rappelant les principales fonctions réalisées. protocoles entre homologues
système d'extrémité application
IJ
6
^APDU
système d'extrémité ^
application
PPDU
présentation
présentation ^SPDU
session
session ^TPDU
transport ^
•S l
§1 u
3
2
NPDU^
réseau liaison de données
^ LPDU bil
V
1
physique
système relais
transport
réseau
reseau
liaison de données
liaison de données
physique
^
•
physique
support de transmission Figure 1.9. Les sept couches du modèle OSI
1.4.3.1. La couche
physique
La couche physique assure l'interface entre les systèmes et le support physique de transmission ainsi que le transport de l'information sous forme de bits sur le support, l'unité de données étant ici le bit. A ce titre, elle est responsable de l'interface électromécanique au support de communication. Elle fournit donc les moyens mécaniques, électriques, fonctionnels et procéduraux nécessaires à l'activation, au maintien et à la désactivation des connexions physiques entre entités de liaison de données. Elle peut correspondre, par exemple, à un circuit physique constitué d'une ligne et de deux modems, et définit dans ce cas les caractéristiques des jonctions modem-terminal, les caractéristiques des connecteurs, ou encore le protocole d'établissement, de maintien et de libération du circuit.
Architecture en couches et normalisation 1.4.3.2. La couche liaison de
23
données
La couche liaison de données fournit les moyens nécessaires à l'établissement, au maintien et à la libération des connexions de liaison de données, ainsi qu'au transfert de LSDU (SDU de niveau liaison) entre entités de réseau. Elle est responsable de la transmission, de la structuration en trames (LPDU) et du contrôle d'erreur sur une seule ligne de communication. Elle utilise pour ce faire les services offerts par la couche physique. Les circuits disponibles au niveau physique présentant généralement des taux d'erreurs inacceptables, la couche liaison est chargée de détecter et de corriger ces erreurs, dans la mesure du possible, afin de présenter à la couche supérieure un taux d'erreurs résiduelles acceptable. Par ailleurs, elle réalise une fonction de contrôle de flux afin d'éviter tout engorgement des systèmes d'extrémité de connexions. 1.4.3.3. La couche
réseau
La couche réseau fournit les moyens d'établir, de maintenir et de libérer des connexions de réseau entre entités de transport, ainsi que les moyens d'échanger des NSDU (SDU de niveau réseau) entre ces entités. Elle est responsable du transfert de données à travers le réseau de communication, indépendamment du médium et de la topologie du ou des sous-réseaux empruntés. Ses trois principales fonctionnalités sont l'adressage, le contrôle de congestion et le routage des paquets (NPDU). Elle assure alors à la couche transport son indépendance vis-à-vis des problèmes de routage et de relais dans le ou les sous-réseaux utilisés et lui masque la façon dont les ressources des couches inférieures sont utilisées pour obtenir des connexions de réseau. 1.4.3.4. La couche
transport
La fonction essentielle de la couche transport est d'assurer un transport de l'information de bout en bout, fiable, transparent, efficace, selon un niveau de qualité demandé par l'utilisateur. C'est la première couche à ne concerner que la source et la destination finale de l'information véhiculée. Elle doit décharger les couches supérieures de tout détail concernant les moyens mis en œuvre pour la transmission de données. La couche transport assure en particulier des fonctions de reprise sur erreur, de contrôle de flux, de multiplexage ou d'éclatement de connexions pour rendre le transport fiable et efficace. 1.4.3.5. La couche
session
La couche session fournit aux entités de présentation coopérantes les moyens nécessaires pour organiser et synchroniser leur dialogue et gérer leur échange de données. A cet effet, elle fournit les services nécessaires à l'établissement, au maintien et à la libération de connexions de session entre entités de présentation et à la prise en charge des interactions ordonnées d'échange de données. De plus, les
24
Architecture des réseaux haut débit
services de la session assurent la délimitation, le groupement logique et la synchronisation des données. 1.4.3.6. La couche
présentation
La couche présentation se charge de la représentation des informations que les entités d'application se communiquent ou auxquelles elles se réfèrent au cours de leur communication. Elle ne traite que de la syntaxe des données, et non pas de leur sémantique, et comporte des fonctions qui permettent de traduire les données échangées. Cette couche peut également assurer des fonctions de compression de données et de chiffrement. 1.4.3.7. La couche
application
En tant que couche la plus haute du modèle OSI, la couche application fournit à l'usager l'ensemble des services qui lui permettent d'accéder à l'environnement OSI et donc d'exploiter le système téléinformatique. Elle est responsable de la gestion des c o m m u n i c a t i o n s entre applications. Parmi les services offerts, citons l'authentification et l'identification des partenaires de la communication, les facilités de synchronisation des partenaires, le choix des règles du dialogue. De plus, cette couche comporte des fonctions de gestion des systèmes.
1.5. L'architecture D o D et s e s protocoles
niveau 2 hôte-à-hôte niveau 1 internet niveau 0 accès réseau
TCP IP
5-7
4
UDP 1CMP
EGP ARP
Ethernet
SNMP
X-Window
RPC
R-cmd
Telnet
SMTP
niveau 3 processus
FTP
Cette architecture [Cerf 83] est antérieure au modèle OSI qui a puisé dans nombre de ses concepts. Elle utilise un modèle hiérarchique, avec quatre couches relativement indépendantes. La figure 1.10 montre la correspondance entre les niveaux DoD et les couches OSI.
Arpanet
FDDI
IGP
X.25
Architecture du DoD F i g u r e 1 . 1 0 . Architecture
3
RARP| autres
1-2
Architecture OSI
DoD et ses relations avec le modèle OSI
Le niveau d'accès au réseau est le niveau le plus bas. L'idée sous-jacente ici est qu'en isolant les fonctions propres à l'accès au sous-réseau, le restant du logiciel de
Architecture en couches et normalisation
25
communication n'a pas à tenir compte de ses caractéristiques spécifiques. Ce niveau va donc traiter les échanges de données entre un hôte et le réseau auquel il est attaché. En particulier, il se charge du routage des données entre deux équipements rattachés au même réseau. Pour cela, l'émetteur sur ce sous-réseau doit fournir l'adresse physique du destinataire sur ce même sous-réseau et certaines informations quant aux services devant être fournis par le sous-réseau (comme la priorité, par exemple). Le protocole utilisé dépend du type de réseau utilisé : il peut s'agir de X.25 pour un réseau à commutation de paquets, de X.21 pour un réseau à commutation de circuits, d'un protocole 802.X pour un réseau local, etc. Le niveau suivant, appelé niveau Internet, est chargé de l'interconnexion de réseaux et permet donc l'échange de données entre deux machines raccordées à des réseaux distincts. Le protocole d'interconnexion est utilisé pour le routage à travers plusieurs sous-réseaux. Par conséquent, il est implanté non seulement dans les systèmes d'extrémité mais également dans les passerelles (routeurs). Outre le protocole Internet [RFC 791], il comprend entre autres les protocoles suivants : - ICMP (Internet Control Message Protocol) [RFC 792] : alors que IP est utilisé pour un service de datagramme dans un environnement d'interconnexion de réseaux, ICMP permet à une passerelle ou à un hôte destinataire de communiquer de façon occasionnelle avec un hôte source, notamment afin de lui signaler une erreur ou un problème dans le traitement d'un datagramme (destination impossible à atteindre, durée de vie maximum atteinte, congestion, etc.). ICMP utilise IP comme s'il était un protocole de niveau supérieur, mais constitue en fait une partie intégrante de IP et, en tant que telle, doit être implanté dans chaque module IP. Le rôle des messages de contrôle d'ICMP est de fournir un retour d'information sur les problèmes de l'environnement de communication et non pas de fiabiliser IP : il n'y a donc aucune garantie sur la remise des datagrammes ; - IGP (Interior Gateway Protocol) [RFC 1371] et EGP (Exterior Gateway Protocol) [RFC 904] : ce sont les protocoles utilisés pour l'échange d'information d'accessibilité et de routage entre passerelles ; - ARP (Address Resolution Protocol) [RFC 826] et RARP (Reverse Address Resolution Protocol) [RFC 903] : le protocole ARP permet d'obtenir l'adresse physique d'une station à partir de son adresse IP. Inversement, RARP permet à une station d'obtenir son adresse IP à partir de son adresse physique. Le protocole IP, dans sa version courante — version 4 —, utilise un format d'adressage organisé sur 32 bits. Du fait de l'expansion mondiale du réseau Internet, l'espace d'adressage est à l'heure actuelle une ressource extrêmement critique et des travaux sont en cours pour spécifier la nouvelle mouture du protocole, IPv6. Cette dernière utilise des adresses codées sur 128 bits, un en-tête simplifié afin d'augmenter les performances des routeurs et offre de nouvelles fonctionnalités, telles l'identification des flots de données ou l'authentification et la protection des données.
26
Architecture des réseaux haut débit
Le niveau hôte-à-hôte est très similaire à la couche transport OSI. Son rôle est de transférer les données de bout en bout entre les processus utilisateurs. Les deux protocoles les plus usuels sont TCP (Transmission Control Protocol) [RFC 7 9 3 J et UDP (User Datagram Protocol) [RFC 7 6 8 ] . Le premier est orienté connexion et comporte tous les mécanismes nécessaires à un transfert de données fiable, sans erreur, sans perte et sans duplication. Du point de vue de ses fonctionnalités, il est considéré comme équivalent au protocole de transport ISO classe 4 , même si des différences mineures existent. De même que TCP, UDP est bâti au-dessus d'IP. Protocole en mode non connecté, il utilise les services d'IP pour transporter des datagrammes d'un système d'extrémité à un autre. Il n'utilise aucun mécanisme de contrôle, le seul service supplémentaire qu'il offre par rapport à IP étant l'identification de processus à l'intérieur des hôtes (IP identifie des hôtes). Le dernier niveau est le niveau processus. Il contient des protocoles support pour différentes applications. Nous y trouvons des protocoles tels que FTP (File Transfer Protocol) [RFC 9 5 9 ] pour le transfert de fichiers, SMTP (Simple Mail Transfer Protocol) [RFC 8 2 1 ] pour la messagerie électronique, Telnet [RFC 8 5 4 ] pour l'émulation de terminal virtuel, SNMP (Simple Network Management Protocol) [RFC 1 1 5 7 ] pour la gestion de réseaux.
1.6. L'administration de réseaux 1.6.1.
Définition
L'administration de réseaux recouvre l'ensemble des activités de surveillance, d'analyse, de contrôle et de planification du fonctionnement des ressources d'un réseau de télécommunications dans le but de fournir des services de télécommunications à des usagers avec un certain niveau de qualité. Cette première définition amène son flot de questions. Que doit-on surveiller ? Qui doit surveiller ? Comment surveiller ? Quelles sont les connaissances nécessaires au diagnostic ? Comment contrôler ? Cette définition montre principalement que les problèmes ne sont pas de même nature. En effet, les approches méthodologiques à appliquer pour répondre à "Quoi ?", "Qui ?" et "Comment ?" diffèrent. Afin de répondre à ces questions portant sur des aspects différents, l'administration de réseaux peut être étudiée à travers des modèles ou points de vue (figure 1 . 1 1 ) . Ils permettent de classer les questions ou problèmes similaires par catégorie et de traiter chaque groupe indépendamment. Pour répondre à la question "Quoi ?", il est nécessaire de considérer le modèle informationnel qui fournit une représentation de réseaux par les données ; un modèle fonctionnel est aussi requis puisqu'il définit les fonctions à appliquer aux données afin d'atteindre les objectifs de gestion. Les entités de gestion distribuées à travers le réseau de gestion répondent à la question "Qui ?". Elles définissent principalement un modèle organisationnel. Enfin, les modèles de
Architecture en couches et normalisation
27
communication et architectural permettent de répondre à la question "Comment ?", pour le premier, en permettant l'échange d'information de gestion entre les gestionnaires et les agents et pour le second, en décrivant la structure générale des entités de gestion qui réalisent les activités de gestion ainsi que leurs interfaces. administration de réseaux
Quoi gérer ?
modèles informationnel e v fonctionnel
Qui gère ?
Comment gérer ?
modèle organisationnel
F i g u r e 1 . 1 1 . Les modèles
de l'administration
modèles de communication et V^^rchitectural^^^^ de
réseaux
Nous présentons dans la suite les travaux menés dans les organismes de normalisation et les modèles couvert par chacun d'eux.
1.6.2. Les
normes
d'administration
1.6.2.1. L'ISO La première norme de gestion OSI à avoir vu le jour est le cadre architectural pour la gestion OSI, présenté dans la partie 4 du modèle de référence pour l'interconnexion de systèmes ouverts [IS 7498-4]. Une deuxième norme définit les concepts architecturaux relatifs à la gestion système [IS 10040]. Celle-ci constitue le modèle de la gestion système dans un environnement de communication ouvert et de traitements distribués. Les normes de la gestion système peuvent être regroupées dans trois sousensembles : - l'ensemble des normes spécifiant les procédures pour réaliser les activités d'administration (normes 10164 sur les fonctions de gestion spécifiques) [IS 10164-1 à 7]; - l'ensemble des normes spécifiant les objets de gestion concernés par l'administration et les opérations qui sont réalisables sur chacun d'eux (normes 10165 sur la structure des informations de gestion) [IS 10165-1] [IS 10165-2] [IS 10165-4] ; - l'ensemble des normes spécifiant les services et les protocoles de la couche application pour échanger des informations en relation avec les procédures de gestion ([IS 9595] et [IS 9596] définissant respectivement CMIS et CMIP ainsi que les
28
Architecture des réseaux haut débit
parties des normes 10164 sur les fonctions de gestion spécifiant SMAE (System Management Application Entity) et S M A P (System Management Application Process)). La figure 1.12 récapitule l'ensemble des normes d'administration afférentes au modèle de référence OSI.
Modèle de Référence OSI ISO/IEC IS 7498
Cadre Architectural pour la Gestion OSI ISO/IEC IS 7498-4 Aperçu général de la Gestion des Systèmes ISO/IEC IS 10040 Structure de l'Information de Gestion CM1S/CMIP ISO/1EC IS 9595 ISO/IEC IS 9596
Modélisation de l'Information de Gestion ISO/IEC IS 10165-1
Guides pour la Définition de Définition de l'Info, de l'Information de Gestion Gestion ISO/IEC 10165-4 ISO/IEC IS 10165-2
Fonctions de Gestion de Systèmes ISO/IEC IS 10164-1 .. 19 Figure 1.12. Les normes d'administration Le modèle fonctionnel
de la gestion
OSI
OSI
Afin d'exercer son activité, l'administration de réseaux s'appuie sur un certain nombre de fonctions, qui peuvent être regroupées en cinq aires fonctionnelles (SMFA — Specific Management Functional Area). Ce sont : -
la gestion de la -configuration, la gestion des fautes, la gestion des performances, la gestion de la sécurité, la gestion de la comptabilité.
Par gestion de la configuration, il faut entendre les procédures permettant de contrôler, d'identifier, de collecter et de fournir des données sur les objets de gestion, c'est-à-dire les entités du réseau gérées dans un système de communication OSI. L'objectif ici est de veiller au fonctionnement continu des services d'interconnexion. Pour cela, des outils fonctionnels s'imposent qui permettent de : - démarrer, initialiser et arrêter le système,
Architecture en couches et normalisation -
29
positionner les paramètres du système ouvert, recueillir des informations sur l'état d'un système et agir sur ces états. modifier la configuration du système ouvert, associer des noms aux objets gérés.
La gestion des fautes recouvre l'ensemble des fonctionnalités qui permettent la détection, l'isolation et la correction des anomalies dans un système. Les fautes proviennent des pannes de composants matériels ou logiciels et se manifestent par des événements particuliers (erreurs) dans le fonctionnement du système. Elles peuvent être passagères ou persistantes. Lorsqu'une erreur est détectée, une analyse des informations de l'état du système doit permettre de la localiser et de diagnostiquer sa cause. Une action "curative" doit s'ensuivre, pour permettre la reprise du fonctionnement du système. La gestion des fautes est une fonction d'administration vitale pour assurer aux utilisateurs un niveau de service satisfaisant du système. La gestion des performances doit s'accompagner de fonctionnalités permettant de mesurer le niveau de performance du système (évaluation quantitative du comportement des objets administrés et de l'efficacité de la communication). Ici, des fonctions spécifiques doivent permettre le relevé de données statistiques comme de tenir un journal de bord journalier, dans un but de planification et d'analyse. La gestion de la sécurité est la collection des fonctions relatives à l'administration de réseaux et requises pour supporter les politiques de sécurité dans un réseau de télécommunication. Les fonctions essentielles de la gestion de sécurité comprennent la distribution des informations relatives à la sécurité, telles que les clés de cryptage et les privilèges d'accès, et le compte rendu des événements relatifs à la sécurité, tels que les intrusions dans un réseau, les tentatives d'accès à des informations ou à des services privilégiés par des processus non autorisés ou encore l'accès à des données et à des services protégés. La gestion de la comptabilité réalise un tri et des statistiques sur les informations de configuration. Elle n'a, de façon instantanée, aucune influence sur le maintien de la qualité de service et l'obtention de bonnes performances. Elle permet en particulier d'établir des relevés de taxation et de surveiller l'évolution de l'utilisation du réseau et prévoir les développements nécessaires. Le modèle
architectural
Le modèle architectural décrit la structure générale des entités accomplissant la tâche de gestion, leurs interfaces et les mécanismes de communication utilisés. Le modèle
informationnel
En association avec la normalisation des services et protocoles pour l'échange d'information entre deux systèmes, il est nécessaire d'obtenir la compréhension des objets, attributs et opérations associés à cette information. C'est pourquoi, un modèle d'information, le SMI (Structure of Managed Information), a été établi par l'ISO, définissant la structure logique et la sémantique de l'information de gestion.
30
Architecture des réseaux haut débit
Le SMI est fondé sur le concept d'objets stockés dans la MIB (Management Information Base). Les principes de conception du SMI sont basés sur une approche orientée objet. Les objets présentant mêmes structure et comportement sont regroupés dans des classes d'objet. Une classe possède une partie statique (structure) et une partie dynamique (comportement). Des relations d'héritage peuvent exister entre classes. Cela conduit donc à étendre les caractéristiques des superclasses. Une classe d'objet peut aussi bien hériter des caractéristiques (attributs et méthodes) d'une superclasse (héritage simple), que de plusieurs superclasses en même temps (héritage multiple). Un autre concept, Yallomorphisme, permet à un objet de gestion de se comporter de la même façon qu'un objet appartenant à une classe d'objet supérieure. Cela signifie que toutes les caractéristiques (structure et comportement) ajoutées pendant la phase de dérivation seront supprimées par l'objet de gestion ou par le système de gestion. Cette option a pour but de prendre en compte différentes phases de développement d'équipements ou différentes versions de logiciels. Afin de manipuler les objets, deux types d'opérations ont été définies, les premières applicables aux attributs de l'objet, les secondes à l'objet lui-même. Les opérations sur les objets incluent la création et la suppression. De plus, une opération "action" est possible. Elle est utilisée afin de définir des opérations arbitraires. La définition de ces actions et l'information nécessaire afin de les exécuter font partie de la spécification de la classe d'objet correspondante. Ce mécanisme est prévu afin de réaliser des activités de gestion complexes. Les opérations sur les attributs sont émises aux objets de gestion (MO — Managed Objects), afin de lire ou de modifier les valeurs d'attributs. Selon leur structure, les attributs peuvent être soit des attributs simples, soit des attributs multi-valués, soit des attributs de groupe. Un attribut simple, possède une valeur unique, alors qu'un attribut multivalué est composé d'un ensemble de valeurs qui peuvent être manipulées individuellement. Un attribut de groupe se réfère à un groupe d'attributs à l'intérieur d'une classe d'objet. Une opération sur un groupe d'attributs est réalisée sur chaque attribut de manière individuelle dans ce groupe. Différentes opérations sont possibles, en fonction du type d'attribut à manipuler : -
get attribute value, set-to-default value, replace attribute value, add member, remove member.
Les deux dernières opérations ne sont applicables qu'à des attributs multi-valués, alors que les deux premières sont les seules à pouvoir s'appliquer sur des attributs de groupe. Afin d'indiquer les objets sur lesquels appliquer une opération, un mécanisme de filtre peut être utilisé. Il sélectionne les MO souhaités à partir d'un ensemble de MO, en vérifiant la présence de certaines valeurs d'attributs. L'opération est
Architecture en couches et normalisation
31
appliquée si l'évaluation a réussi. Les M O sont structurés selon une relation de contenance. Une structure hiérarchique, appelée arbre de contenance, est déduite à partir de cette relation entre objets. Les MO sont nommés sur la base de cet arbre : un objet doit être nommé de façon à être identifié et référencé sans ambiguïté. Le nommage se fait en fonction de la position de ce MO dans l'arbre de contenance, grâce à une séquence de noms appelés noms de distinction relative (RDN — Relative Distinguished Name). Les informations d'administration sont décrites à l'aide de formulaires appelés "Templates" décrivant chacun un type d'information. Des formulaires ont été définis pour les types suivants : classe, package, paramètre, lien de nommage, attribut, groupe d'attributs, comportement, action et notification. Le modèle
de
communication
Le service c o m m u n d'information d'administration C M I S ( C o m m o n Management Information Service) permet la communication d'informations d'administration. Ces services sont : - les services d'opérations : • opérations sur les attributs : M-GET qui permet à un gestionnaire de demander à un agent la lecture d'informations concernant ses objets administrés ; M-SET qui permet à un gestionnaire de demander à un agent la mise à jour d'informations concernant ses objets administrés ; • opérations sur les objets : M-CREATE qui permet à un gestionnaire de demander à un agent la création d'un objet administré ; M-DELETE qui permet à un gestionnaire de demander à un agent la destruction d'un de ses objets administrés ; M-ACTION qui permet à un gestionnaire de demander à un système l'exécution d'une action spécifique plus complexe qu'une consultation, création ou suppression ; - le service de notification, M-EVENT-REPORT qui permet à un agent de signaler à un gestionnaire l'occurrence d'un événement concernant ses objets administrés. Le protocole commun d'administration C M I P (Common Management Information Protocol) fournit le support nécessaire à la communication entre entités d'applications utilisatrices du service CMIS. La syntaxe utilisée pour spécifier les éléments de protocole CMIP, ainsi que les informations qu'il transporte, est la syntaxe abstraite normalisée ASN.l (Abstract Syntax Notation One) [IS 8824]. Le modèle
organisationnel
La norme ISO 10040 fait reposer son modèle organisationnel sur les deux concepts importants que sont le manager (gestionnaire). Les correspondants administratifs (manager/ agent) sont représentés par des processus qui échangent des
32
Architecture des réseaux haut débit
informations selon un protocole. L'échange entre agent (administré) et manager (administrateur) se fait soit par un mécanisme de demande du manager et réponse de l'agent, soit par un compte rendu spontané de l'administré à l'administrateur lors d'un événement. Chaque agent gère sa propre MIB sur laquelle le manager peut travailler Nous obtenons ainsi le modèle de la gestion système de la figure 1.13. système ouvert 1
système ouvert 2
-manager
- a g e n t
-SMAP-
opérations
SMAE (CMIS)
notifications
objets administrés
!>MArSMAE (CMIS)
ressources à administrer
SMAP - System Management Application Protocol S M A E - System Management Application Entity
F i g u r e 1.13. Le modèle
1.6.2.2.
de gestion
système
L'U1T-T
L'UIT-T (ex-CCITT) a élaboré le concept de Réseau de Gestion des Télécommunications ( R G T ou T M N pour Telecommunications Management Network) IM.3010] pour définir une architecture fonctionnelle d'un système de gestion de réseaux souple, complet et évolutif. La notion de RGT est purement fonctionnelle. Elle ne préjuge en rien de la taille et des particularités des implantations physiques la réalisant. Il s'agit d'une architecture modulaire constituée de groupements fonctionnels dédiés à la réalisation de tâches particulières relatives au transport et au traitement des informations de gestion. Aussi, des points de référence ont été définis qui constituent des points de passage d'informations entre des groupements fonctionnels. L'UIT-T traite aussi de l'aspect informationnel avec la définition d'un modèle informationnel générique [M.3100]. 1.6.2.3. Le monde
TCP/IP
Le nombre important de réseaux TCP/IP ainsi que le besoin crucial de leur gestion a entraîné le développement d'un premier protocole de gestion, le protocole SGMP (Simple Gateway Monitoring Protocol) [RFC 1028], conçu à l'origine pour gérer les passerelles Internet des réseaux grande distance. Le protocole actuel SNMP (Simple Network Management Protocol) [RFC 1157] y trouve ses bases tout en intégrant certains concepts de gestion développés à l'ISO. En fait, les standards
Architecture en couches et normalisation
33
SNMP, établis depuis 1990, sont axés autour de deux aspects, la définition des protocoles d'échanges SNMP et la définition des informations d'administration des MIB. Le modèle
de
communication
SNMP définit essentiellement les protocoles permettant l'envoi de messages d'administration entre des managers et des agents. Un agent est un logiciel opérant à l'intérieur d'un équipement à gérer (terminal, serveur de terminaux, passerelle, pont, routeur, unité centrale, etc.) alors qu'un manager est un logiciel résidant dans une station de gestion de réseaux ayant la possibilité d'adresser des requêtes vers des agents. Le protocole S N M P fournit aux applications un ensemble très simple de commandes, qui sont : - GetRequest et GetNextRequest qui permettent à un manager de demander à un agent la lecture des informations concernant ses objets administrés ; - SetRequest qui permet à un manager de demander à un agent la mise à jour d'informations concernant ses objets administrés ; - GetResponse qui permet à un agent de renvoyer des informations à un manager lui ayant adressé un GetRequest, un GetNextRequest ou un SetRequest ; - Trap qui permet à un agent de signaler à un manager qu'une condition a été détectée localement dans son équipement. Chaque message SNMP, autre que les "traps", contient un identificateur de requête, une liste de variables (nom et valeur), un champ pour les types d'erreur (tooBig, noSuchName, badValue, readOnly, genErr) et un index d'erreur (indiquant le numéro de la variable en erreur). A travers un message SNMP, on ne peut adresser qu'une seule instance d'un objet spécifique. La répartition des rôles agent/manager n'est pas dynamique comme dans le modèle OSI. Une des principales faiblesses du protocole SNMP réside dans son manque de sécurité. Cet aspect a été amélioré avec la seconde version du protocole, SNMPv2 [RFC 1441]. Le modèle
informationnel
SNMP définit une collection d'objets "standards" à administrer à travers la spécification des MIB-I [RFC 1158] et MIB-II [RFC 1213] et récemment de la RMON MIB (Remote MONitoring MIB) [RFC 1271]. Les objets définis par SNMP ont une structure particulièrement simple. En effet, la définition d'un objet est limitée à un type simple ou à une table d'objets de types simples. La MIB-I correspond au premier lot de définitions d'objets SNMP. Elle contient une centaine d'objets, rangés par groupes fonctionnels au nombre de huit : "System", "Interfaces", "Address translation", "Internet Protocol (IP)", "Internet
34
Architecture des réseaux haut débit
Control Message Protocol (ICMP)", "Transmission Control Protocol (TCP)", "User Datagram Protocol (UDP)", "External Gateway Protocol (EGP)". Ces huit groupes permettent de gérer uniquement un réseau TCP/IP. Dernièrement, l'horizon des MIB-I et MIB-II s'est élargi avec l'introduction de la RMON MIB, dans laquelle neuf nouveaux groupes ont été définis ("Statistics", "History", "Alarms", "Hosts", "Host top N", "Traffic matrix", "Filters", "Packet capture" et "Events") afin d'apporter de nouvelles fonctionnalités (statistiques, historiques, détection de seuils d'alarme, gestion des hosts, estimation de flux, filtrage de capture de paquets, gestion des notifications d'événements, etc.). Cela confère un rôle plus important à l'agent qui exécute des tâches plus complètes afin de décharger le manager. Nous pouvons ainsi constater que les normes OSI de l'ISO couvrent les différents aspects importants de l'administration. De son côté, l'UIT-T s'intéresse principalement aux aspects fonctionnel et informationnel. Quant à SNMP, il permet de répondre rapidement aux premières préoccupations de l'administrateur et traite donc en priorité les modèles informationnel et de communication.
Architecture en couches et normalisation
35
Exercices Exercice
1.1
A quels types de besoins essaie de répondre le modèle OSI ? Exercice
1.2
Dans le modèle OSI, est-ce les TPDU qui encapsulent les paquets, ou le contraire ? Exercice
1.3
Dans quel(s) type(s) de trame achemine-t-on des paquets d'acquittement ? Même question pour les paquets d'établissement de connexion ? Exercice
1.4
Rappelez les avantages et inconvénients respectifs du mode de communication orienté connexion et du mode sans connexion. Exercice
1.5
Quel(s) problème(s) peut-on rencontrer lorsque, dans une architecture mixte, on superpose deux couches, l'une en mode connecté, l'autre en mode non connecté ? Exercice
1.6
Dans quelle(s) couche(s) du modèle OSI un contrôle d'erreur est-il mis en place ? Peut-il y avoir redondance ? Exercice
1.7
1. Que faut-il définir en premier, le protocole (N) ou le service (N) ? 2. Deux protocoles différents peuvent-ils rendre le même service ? 3 . Un protocole en mode connecté peut-il rendre un service en mode non connecté ? Si non, pourquoi ? Si oui, comment ? Exercice
1.8
Un utilisateur du service de session situé sur une machine A souhaite établir une connexion avec un autre utilisateur situé sur une machine B. On suppose que toutes les couches de communication opèrent en mode connecté, qu'aucune connexion n'est établie à quelque niveau que ce soit et qu'aucun incident ne se produit.
36
Architecture des réseaux haut débit
1 . Complétez le schéma suivant en indiquant les primitives de service invoquées sur la machine A. interface 6/5
interface 5/4
interface 4/3
S CONNECT. request
S. CONNECT. confirmation
2 . D o n n e z les primitives invoquées sur la machine B.
interface 3/2
Chapitre 2
Caractéristiques générales des réseaux locaux et des réseaux métropolitains
2.1.
Introduction
Comme nous l'avons défini au chapitre précédent, un réseau local est un réseau de taille réduite couvrant un domaine privé. Cette évidence a eu en fait énormément de conséquences sur les protocoles de communication d'un tel réseau. Un câble d'une longueur d'un kilomètre présente un taux d'erreurs moindre qu'un câble similaire d'une longueur de 100 km : cela permet d'utiliser des protocoles sans reprise sur erreur et donc plus simples et plus rapides. De plus, le temps de propagation très court permet d'envisager des techniques reposant sur la détection d'un signal en ligne ou sur un tour de rôle entre les stations. Enfin, sur des distances courtes, le signal peut être transféré à un débit plus important que sur de longues distances. Le développement des réseaux d'entreprise a donc conduit à développer de nouveaux protocoles adaptés à leurs besoins propres. De manière générale, on caractérise un réseau local par : - son support de transmission, - sa topologie, - sa méthode de contrôle d'accès au support. Il est important de définir précisément ces caractéristiques car chacune est étroitement dépendante des autres. Prenons l'exemple d'un réseau qui utilise la fibre optique, la topologie en bus multipoint et l'accès aléatoire y sont impossibles ; si
38
Architecture des réseaux haut débit
l'on veut tout de même un accès aléatoire, la topologie sera alors l'étoile que l'on qualifie souvent de "bus logique". Après avoir défini le cadre de développement des réseaux locaux et métropolitains, nous décrivons dans ce chapitre les principaux supports utilisés, les différentes topologies employées ainsi que les méthodes d'accès qui permettent de gérer le partage de la bande passante du réseau.
2.2. L'architecture
IEEE
Le besoin de normalisation au niveau des réseaux locaux s'étant très vite fait ressentir dès la fin des années 70, le comité 802 de l'IEEE a été formé afin d'élaborer et de proposer des spécifications relatives à un réseau local standard. L'approche adoptée par le comité pour son modèle architectural est une approche en couches, conforme au modèle de référence OSI de l'ISO. Le but visé étant de produire un standard permettant à des équipements informatiques interconnectés par un support physique unique, d'échanger des trames d'information, le comité 802 s'est restreint à l'étude des niveaux physique et liaison. Les standards produits correspondent ainsi à une implementation particulière des couches 1 et 2 du modèle OSI. La figure 2.1 illustre les relations entre le modèle OSI et le modèle IEEE. application présentation session transport réseau liaison de donnée;
contrôle de liaison logique (LLC) contrôle d'accès au support (MAC)
physique
physique
Modèle OSI
Modèle IEEE
F i g u r e 2 . 1 . Modèle OSI et modèle
IEEE
La couche physique est fonctionnellement la même que son équivalent dans le modèle OSI et traite essentiellement de la transmission de bits entre deux équipements informatiques. Sa particularité est qu'il est défini une couche physique par technique d'accès au support. La couche liaison de données est divisée en deux sous-couches : - la sous-couche MAC (Medium Access Control) : à la différence d'un réseau grande distance où les communications s'effectuent généralement sur des lignes point à point, les stations d'un réseau local partagent un seul et unique support de transmission, ce qui rend nécessaire un contrôle d'accès. La sous-couche MAC a
Caractéristiques des réseaux locaux et métropolitains
39
ainsi pour rôle d'assurer le partage du support entre tous les utilisateurs. Elle se situe immédiatement au-dessus de la couche physique ; - la sous-couche LLC (Logical Link Control) : sous-couche supérieure, elle a pour rôle de gérer les communications — les liaisons logiques — entre stations. Elle assure également l'interface avec les niveaux supérieurs.
application
802.10 Security and Privacy
liaison
802.2 Logical Link Control 802.1 Bridging
:SMA/CE
Token Bus
Token Rine
MAN
IVD
AnyLan
802.3
802.4
802.5
802.6
802.9
802.12
Fast Ethernet 802.14
MAC
802.10 Secure Data Exchange
PHY
802.1 Overview Architecture and Management
Le comité 802 n'a en fait pas donné lieu à un standard unique, mais plutôt à une série de standards visant à mieux couvrir l'ensemble des besoins. Plusieurs souscomités ont été créés, chacun traitant d'un sujet particulier pour lequel un standard spécifique est élaboré. La figure 2.2 montre les relations entre ces différents standards.
802.7 Broadband T A G 802.8 Fiber Optic T A G F i g u r e 2 . 2 . Les standards
IEEE
Le groupe 802.1 a été chargé de définir le cadre général de l'architecture. Ses travaux ont permis, dans le standard 802.1, la définition d'un glossaire, la définition des interfaces avec les niveaux supérieurs (la couche réseau), la spécification des outils de gestion de réseau et la spécification des règles d'interconnexion. Le service MAC est spécifié dans la norme ISO IS 10039. Le document 802.2 définit la souscouche LLC, tant au niveau des services fournis que des protocoles à utiliser. Les standards 802.3, 802.4, 802.5 et 802.6 définissent la sous-couche MAC et la couche physique des réseaux C S M A / C D , Token Bus et Token Ring et du réseau métropolitain DQDB respectivement. La méthode d'accès au support y est décrite et des recommandations sont données pour sa mise en œuvre. L'activité des groupes (TAG — Technical Advisory Groups), 802.7 et 802.8 sort du cadre initial des réseaux locaux : ils ne spécifient pas de standards mais donnent des conseils pratiques sur l'utilisation des supports large bande ou de la fibre optique. Les groupes 802.9, 802.12 et 802.14 ont été créés récemment. Le premier traite de
40
Architecture des réseaux haut débit
l'intégration de la voix et des données (IVD — Integrated Voice/Data) et de l'accès au réseau RNIS, les deux derniers travaillent sur de nouvelles spécifications d'Ethernet à 100 Mbit/s. Comme dans le modèle OSI, les transferts de l'information entre couches adjacentes d'un même système ou de même niveau sur des systèmes différents s'effectuent à l'aide de primitives de service. Pour chaque standard, on trouvera des spécifications relatives au service offert aux travers des primitives et des spécifications relatives au protocole. Les travaux ayant abouti au sein des souscomités 802.x de l'IEEE ont été adoptés par l'ISO en tant que normes de la série 8802-x [IS 8802-2, 8802-3, 8802-4, 8802-6, 8802-7J.
2.3.
S u p p o r t s de
transmission
L'élément de base d'un réseau local est le support physique de transmission. On y connecte les différents équipements terminaux au travers d'une prise qui est ellemême reliée à un adaptateur (figure 2.3). Ce dernier est responsable de l'interface équipement/réseau. A ce titre, il réalise le codage/décodage des signaux électriques. De plus, il gère le mécanisme d'accès au support et le mécanisme de détection d'erreurs de transmission.
support de transmission
i l prise adaptateur COmmunicateUT
traitement
transmission électrique
protocole d'accès
source ou puits de données
Figure 2.3. Les composants
2.3.1.
d'accès
Caractéristiques
Chaque type de support possède ses propres caractéristiques, ces dernières s'exprimant essentiellement en termes de : - bande passante, - technique de transmission, - atténuation, - poids et encombrement, - fiabilité (insensibilité aux perturbations électromagnétiques, résistance mécanique et thermique, etc.),
Caractéristiques des réseaux locaux et métropolitains
41
- coût (du support et des équipements nécessaires au transfert, de l'installation, de la maintenance, etc.). La bande passante, également appelée largeur de bande, représente la gamme de fréquences que peut transmettre le support. Si cette gamme correspond à l'intervalle [f], f i ] , la bande passante est alors définie par W = ij - f]. La caractérisation d'un support en bande passante est très importante, car d'elle dépend directement le débit binaire maximum ou capacité de transmission maximale. La relation est donnée par la formule de Shannon : C = W . l o g ( 1 + S/B) 2
où C est exprimé en bit/s, W est exprimé en Hz. S/B représente le rapport signal sur bruit, S étant la puissance moyenne du signal et B celle du bruit ; ce rapport n'étant pas quantifié, on choisit généralement de l'exprimer en décibels (dB) sous la forme 10 . log jo (S/B). Notons toutefois que C constitue une borne supérieure théorique et qu'il est extrêmement difficile, dans la pratique, d'approcher cette limite. La technique de transmission détermine la manière dont le support de transmission est employé pour véhiculer l'information. Les techniques les plus couramment utilisées pour les réseaux locaux sont la transmission en bande de base (numérique) et la transmission par modulation d'une porteuse (analogique). A titre d'exemple, le codage bande de base le plus utilisé dans les réseaux locaux est le codage Manchester ou biphase. Le codage consiste à représenter un bit de valeur binaire " 1 " par une transition montante au milieu de l'intervalle tandis qu'un bit de valeur binaire "0" est représenté par le symbole inverse (figure 2.4). L'intérêt de ce codage est qu'il assure au moins une transition du signal par symbole, permettant ainsi une bonne synchronisation de l'horloge du récepteur.
horloge
signal . binaire
code Manchester
0 -a -
Figure 2.4. Exemple de codage
Manchester
42
Architecture des réseaux haut débit
Dans les transmissions numériques, les bits de données sont véhiculés sur le support de transmission sous la forme d'impulsions discrètes électriques. Au fur et à mesure que les impulsions de données progressent sur le médium, le signal perd de sa puissance et les impulsions se déforment ; c'est le phénomène d'atténuation. Pour pallier ce problème, on utilise alors des répéteurs dont le rôle est de recevoir les signaux numériques et de les retransmettre avec leurs puissances et leurs formes originales. Les répéteurs régénèrent totalement les signaux et contribuent, de ce fait, à résoudre le problème des bruits. La transmission analogique requiert une bande passante plus importante que la transmission en bande de base. Le signal employé est de type analogique : il est continu et non discret. En fait, il se propage sur le médium sous la forme d'onde électromagnétique, caractérisée par son amplitude (niveau de voltage pour un support électrique, intensité du faisceau lumineux pour une fibre optique), sa fréquence et sa phase. Le signal de données est superposé à une porteuse en faisant varier (en modulant) l'une de ses trois caractéristiques. De la même façon qu'en codage bande de base, le signal électrique est atténué au cours de sa propagation sur le support, rendant nécessaire l'utilisation d'amplificateurs, dont le rôle est de recevoir les signaux et de les retransmettre à leur puissance originale. Malheureusement, si des bruits sont venus altérer ces signaux, ils seront eux aussi amplifiés. C'est pour cette raison qu'en transmission analogique, la qualité du signal tend à se dégrader avec la distance, même en utilisant des amplificateurs. Nous présentons dans la suite de ce paragraphe les différents supports de transmission. Bien que la plupart des supports employés dans l'industrie des télécommunications conventionnelles pourraient l'être dans le domaine des réseaux locaux et métropolitains, trois supports sont principalement retenus : les paires torsadées, le câble coaxial et la fibre optique. Même si l'utilisation systématique des supports métalliques a pu être remise en cause avec l'apparition de la fibre optique et les progrès faits en la matière, ils demeurent des supports d'avenir.
2.3.2. Les
paires
torsadées
Une paire torsadée est constituée de deux brins de cuivre, de diamètre inférieur au millimètre, isolés et agencés en spirale pour limiter les phénomènes d'interférences électromagnétiques parasites dues à l'environnement (diaphonie). Plusieurs paires sont groupées dans une même gaine protectrice pour former généralement un câble de 2, 4 ou 8 paires (4 le plus souvent). De façon générale, ce type de support possède une bande passante de quelques centaines de kHz permettant le transfert d'un signal modulé à un débit d'environ 10 kbit/s sur des distances de 5 à 6 km. Il est aussi possible de transférer directement un signal numérique à des débits allant jusqu'à 100 Mbit/s sur des distances courtes. 100 m au maximum. La connexion des équipements peut se fait soit en point à point soit en multipoint.
Caractéristiques des réseaux locaux et métropolitains
43
L'une des raisons pour lesquelles ce type de support est largement utilisé provient du fait que la plupart des installations téléphoniques l'utilisaient déjà (réutilisation de l'existant). Par ailleurs, il existe de nombreux produits de réseaux locaux reposant sur un câble téléphonique ordinaire et qui offrent des vitesses de transmission pouvant aller jusqu'à 10 Mbit/s. Les signaux véhiculés peuvent être numériques ou analogiques. Il s'agit donc d'un support simple et économique. En fait, ses principaux avantages résident, d'une part, dans un coût intéressant par rapport à celui du câble coaxial ou de la fibre optique et, d'autre part, dans la possibilité d'utiliser le précâblage téléphonique des immeubles diminuant ainsi de près de 40 % le coût total du réseau. Ses principaux inconvénients résident dans sa sensibilité aux perturbations électromagnétiques de l'environnement et dans une atténuation très importante du signal, proportionnelle à sa longueur. Les paires torsadées sont de ce fait souvent caractérisées par leur produit bande passante * longueur. Elles se distinguent entre elles par leur impédance (100, 120 ou 150 ohms), ainsi que par leur nature : - les paires non blindées (UTP — Unshielded Twisted Pair) ; - les paires blindées (STP — Shielded Twisted Pair) : le blindage est réalisé par une partie métallique, tresse ou ruban, visant à protéger le ou les conducteurs du câble des perturbations extérieures et à limiter le rayonnement du câble. Il est efficace contre les interférences à fréquences basses (inférieures à 10 MHz). Le câble blindé doit être relié à la masse, mais il peut apparaître comme une source d'interférences dès lors que les masses ne donnent pas en permanence les mêmes mesures ; - les paires écrantées : l'écrantage est réalisé par une fine feuille d'aluminium qui s'enroule autour du câble, le dispositif permettant de protéger le câble des interférences à fréquences hautes (supérieures à 1 MHz) tout en assurant une protection relative aux effets de masse. L'écrantage peut être utilisé en conjonction avec le blindage. Depuis l'explosion des réseaux et en l'absence de normalisation, le câblage a souvent été développé de façon anarchique à l'intérieur des bâtiments. Plusieurs années ont été nécessaires aux associations américaines EIA et TIA (Electronic Industries Association, Telephony Industries Association) avant d'obtenir en 1991 une première mouture de la norme EIA/TIA-568. Ce standard spécifie les minimums requis pour les câblages de télécommunication dans des environnements bureautiques. En particulier, elle définit la bande passante garantie et l'affaiblissement maximum (en fonction de l'impédance) pour chaque catégorie de câble de paires torsadées (tableau 2.1 ).
44
Architecture des réseaux haut débit
catégorie
affaiblissement (dB/km) fréquence (MHz)
100 ohms
120 ohms
150 ohms
UTP3
16
131
68
45
UTP4
20
102
73
50,5
UTP5
100
220
180
125
Tableau 2.1. Niveau de performances
par catégorie
de câble UTP
L'EIA/TIA recommande un connecteur de type RJ-45 (spécifié dans la norme ISO 8877) pour les paires UTP. Cette prise comporte huit broches, une par lien physique. L'utilisation des différentes broches est donnée dans le tableau 2.2 pour les deux versions du standard EIA/TIA-568. A titre d'exemple, Token Ring utilise les paires 1 et 3 alors qu'Ethernet 10BASET utilise les paires 2 et 4. paires 568A
paires 568B
broche
signal
paire 3 paire 3 paire 2 paire 1 paire 1 paire 2 paire 4 paire 4
paire 2 paire 2 paire 3 paire 1 paire 1 paire 3 paire 4 paire 4
1 2 3 4 5 6 7 8
émission donnée + émission donnée réception donnée + non utilisée non utilisée réception donnée non utilisée non utilisée
Tableau 2.2. Utilisation
2.3.3. Le câble
des différentes
paires dans
EIA/TIA-568
coaxial
Un câble coaxial est constitué de deux conducteurs cylindriques de même axe séparés par un isolant diélectrique. Différentes études ont permis de montrer que le rapport des diamètres des deux conducteurs devait être de 3,6 : on trouvera donc des câbles 2,6/9,5 ou 1,2/4,4 mm. Moins sensible que les paires torsadées aux phénomènes électriques (atténuation, interférences et autres), le câble coaxial offre des débits potentiels beaucoup plus importants (jusqu'à 150 Mbit/s). Mais là aussi, comme pour les paires torsadées, la bande passante est fonction de la qualité des conducteurs, de celle des isolants et de la longueur. Il y a deux types de câble coaxial qui diffèrent par leur impédance caractéristique qui correspond à la résistance du support. Le câble 50 ohms est généralement utilisé pour transmettre des signaux numériques en bande de base alors que le câble 75 ohms permet la transmission en large bande de signaux numériques ou analogiques. En particulier, le câble 75 ohms est utilisé depuis de nombreuses années dans l'industrie de la télévision câblée d'où son nom de câble CATV.
Caractéristiques d e s r é s e a u x l o c a u x et m é t r o p o l i t a i n s
45
Le câble 50 ohms est encore appelé câble « bande de base » (baseband) par opposition avec le câble CATV qui est dédié à des services large bande. Sa bande passante est de quelques centaines de MHz permettant des débits très élevés (plusieurs centaines de Mbit/s) en point à point et de l'ordre de 10 Mbit/s en multipoint pour former un bus passif. Il existe sous deux diamètres différents appelés "thick" (diamètres de 2,6/9,5) et "thin" (diamètres de 1,2/4,4). Le câble fin, plus souple et plus maniable, est désormais le plus utilisé. Ces propriétés en ont fait le support privilégié des réseaux locaux en bus. Le connecteur le plus répandu pour le câble épais est la prise vampire : le câble est percé avec le connecteur de manière à réaliser directement la connexion physique et électrique. La connexion sur câble fin utilise une prise en T, (appelée ainsi car elle ressemble à la lettre "T"), l'une des branches permettant de relier la station, les deux autres étant connectées au deux segments de câble.
2.3.4. La fibre
optique
La fibre optique peut être utilisée pour véhiculer des signaux de données sous forme de signaux optiques modulés. Elle est constituée d'un cylindre de verre extrêmement fin (le cœur) entouré d'une couche concentrique de verre (le revêtement) et joue le rôle d'un guide d'ondes lumineuses pour des longueurs d'ondes dans la gamme des infrarouges : 850 nm, 1 300 nm, 1 500 nm. L'index de réfraction du revêtement étant plus faible que celui du cœur, le faisceau lumineux est réfléchi vers le cœur dès qu'il heurte le revêtement. Une onde optique guidée par des réflexions successives peut être représentée par des faisceaux de rayons que l'on appelle "modes". En pratique, on réunit souvent plusieurs fibres au sein d'une même gaine protectrice pour former un câble. Outre la fibre elle-même, une liaison optique comporte une source de lumière, diode électroluminescente, diode laser ou rayon laser modulé qui convertit le signal électrique à transmettre en signal optique, et un détecteur de lumière, photodiode ou phototransistor qui restitue le signal électrique à partir du signal optique reçu (figure 2.5). La diffusion du signal sur la liaison optique n'est pas bidirectionnelle. Il n'est d'autre part pas possible de connecter de manière passive des prises sur une fibre, aussi la connexion est-elle forcément point à point. émetteur •"t—
électrique
récepteur
décodeur
Figure 2 . 5 . Connexion
codeur
à une fibre
optique
électrique
46
Architecture des réseaux haut débit
Les fibres optiques offrent des bandes passantes très importantes, de l'ordre du GHz pour un débit théorique de 2 Gbit/s (mais seulement 600 Mbit/s en pratique). Leur atténuation est très faible et, les signaux véhiculés n'étant, bien entendu, pas sujets aux interférences électriques, le taux d'erreurs est également très faible (de l'ordre de 1 0 ) . De plus, le câble optique est plus léger et moins encombrant qu'un support à base de cuivre. Néanmoins, le prix d'une liaison en fibre optique reste élevé, en raison des coupleurs optoélectroniques d'une part, et de l'installation de la fibre proprement dite d'autre part. Notons également que les raccordements restent délicats à effectuer et qu'ils posent des problèmes d'affaiblissement. 9
Il existe plusieurs types de fibre optique : - la fibre multimode à saut d'indice (diamètres : 50-125 um) dont la bande passante est de 40 MHz sur 1 km, - la fibre multimode à gradient d'indice (mêmes diamètres) dont la bande passante atteint 500 MHz sur 1 km, - la fibre monomode (diamètres : 2-8 p.m) qui est la plus fine. Elle ne transmet qu'un seul mode et présente le plus grand potentiel de bande passante, de l'ordre de 100 GHz/km. Toutefois, sa mise en œuvre délicate et son coût élevé font qu'elle n'est pratiquement employée que par les opérateurs de télécommunications pour les très grandes distances. Pour réaliser des liaisons multipoint, on relie de multiples fibres à un coupleur particulier qui est qualifié d'étoile passive ou d'étoile active. Une étoile passive permet de fusionner plusieurs fibres optiques : tout signal venant d'une fibre est divisé et retransmis sur toutes les fibres de sortie. L'étoile active en diffère par le fait que le coupleur central est un répéteur actif qui convertit donc le signal optique en signal électrique pour le diffuser en sortie ; on évite ainsi les pertes induites par la division du signal dans l'étoile passive. 2.3.5. Supports
non
guidés
Les supports présentés jusqu'ici ont la caractéristique commune d'être des supports à guide physique. Des supports immatériels, dits « non guidés », peuvent être également utilisés, notamment lorsque la pose d'un câble physique est source de problèmes. Les transmissions par ondes radio-électromagnétiques, par rayons infrarouges, par rayons lasers, par faisceaux hertziens ou par satellites évitent le creusage de canalisations — et ce parfois à travers le domaine public —, l'utilisation de répéteurs, — nécessaires dès lors que la longueur des câbles devient importante — et tout risque de rupture accidentelle des câbles. Le principal inconvénient de ces systèmes de transmission réside dans leur sensibilité aux conditions atmosphériques.
Caractéristiques des réseaux locaux et métropolitains
2.4.
47
Topologies
La topologie d'un réseau décrit la configuration selon laquelle ses stations sont interconnectées via le support de transmission. On distingue principalement trois types de topologies : l'étoile, le bus et l'anneau. 2.4.1.
L'étoile
Dans une topologie en étoile, un contrôleur central raccorde directement toutes les stations du réseau (figure 2.6). Toutes les communications entre deux stations quelconques passent par le nœud central, qui est alors chargé de les gérer et de les contrôler.
contrôleur centraT\
F i g u r e 2.6. Topologie
en
étoile
Le nœud central joue souvent le rôle d'un dispositif de commutation. Lorsqu'une station désire communiquer avec une autre station, le contrôleur établit un circuit entre elles ; les deux stations peuvent alors communiquer et les données être échangées entre elles exactement comme si elles étaient reliées par une liaison dédiée en point à point. Ce type de topologie est en fait employé depuis de nombreuses années pour les systèmes téléphoniques où les postes téléphoniques représentent les stations et le PABX (Private Auto-Branch eXchange) joue le rôle du contrôleur central. C'est une topologie simple, mais qui pose le problème de la fiabilité et de la puissance du nœud central. Il est possible d'étendre la notion d'étoile à plusieurs niveaux : on obtient alors une configuration en « flocon de neige » (figure 2.7).
F i g u r e 2 . 7 . Topologie
en flocon
de
neige
48
Architecture des réseaux haut débit
2.4.2. Le
bus
Dans une configuration en bus, chaque station est directement attachée au canal de transmission commun. Suivant le type de support utilisé, le bus peut être bidirectionnel (figure 2.8) ou unidirectionnel. La fibre optique ne permet que des bus unidirectionnels. terminateur
terminateur
Figure 2.8. Bus
bidirectionnel
Le bus bidirectionnel est utilisé principalement avec le câble coaxial et constitue une structure passive, qui présente l'avantage de ne nécessiter que des terminateurs aux extrémités du câble. Le terminateur est une résistance électrique d'impédance égale à celle du câble et qui évite les problèmes de réflexion du signal électrique qui arrive à l'extrémité du support. Les stations sont connectées via une prise (en T ou vampire) et envoient des informations grâce à une MAU (Medium Attachment Unit). Cette unité d'accès au support émet et reçoit des signaux électriques ; elle est passive et ne régénère pas le signal. Suivant le protocole d'accès, elle peut avoir d'autres fonctions. Le support unique étant partagé par l'ensemble des stations du réseau, si deux stations ou davantage se mettent à transmettre en même temps (au temps d'émission près), les signaux générés vont se superposer et se brouiller mutuellement. Ce phénomène est comparable à ce qui se passe dans une assemblée lorsque plusieurs personnes décident de prendre la parole en même temps, ce qui conduit à une cacophonie. On parle ici de collision ou encore de contention d'accès. Il est alors nécessaire de mettre en œuvre une politique de partage pour régler ces conflits : c'est la technique d'accès au support. Les stations étant connectées en multipoint à un support unique, lorsqu'une trame d'information est émise sur le support, elle est reçue par l'ensemble des stations ; il s'agit de la propriété naturelle de diffusion. Chaque station doit alors vérifier, d'après l'information d'adressage contenue dans la trame, si elle doit garder la copie de la trame et la traiter ou tout simplement l'ignorer. Le signal transmis sur le support n'étant pas régénéré au passage de la prise, son affaiblissement limite la longueur maximale d'un segment de support. Par exemple, pour un câble de 50 ohms, le segment est limité à 500 m. Cette longueur peut être augmentée en connectant plusieurs segments entre eux au moyen de répéteurs. Le répéteur amplifie et régénère les signaux qu'il reçoit sur chacun des segments de câble. En aucun cas, il ne mémorise des bits. On peut ainsi obtenir une topologie en arbre (figure 2.9). Dans ce type de configuration, le canal de communication est
Caractéristiques des réseaux locaux et métropolitains
49
constitué d'un câble à branches multiples, les stations étant attachées comme des feuilles aux branches. Là encore, toutes les stations reçoivent toutes les informations transmises. répéteur
répéteur
F i g u r e 2 . 9 . Utilisation
de répéteurs sur un bus
Dans le cas d'un bus unidirectionnel, deux supports physiques sont nécessaires, le premier pour permettre à une station d'émettre l'information vers les stations en "aval" et le second pour permettre à la même station de recevoir l'information émise par les stations en "amont". Par symétrie, chaque station est libre de communiquer avec n'importe quelle autre station, en utilisant l'un ou l'autre des deux bus. La figure 2.10 montre la topologie utilisée par le réseau métropolitain DQDB avec deux bus unidirectionnels réalisés en fibre optique.
F i g u r e 2 . 1 0 . Topologie
2.4.3. L
utilisant
deux bus
unidirectionnels
anneau
Le câble forme ici une boucle, à laquelle vient s'attacher chacune des stations par l'intermédiaire d'un répéteur. Les différents répéteurs sont reliés deux à deux par des liens en point à point de manière à former la boucle (figure 2.11). Les liens sont unidirectionnels et les répéteurs se contentent de recevoir bit à bit sur le lien d'entrée et de retransmettre sur le lien de sortie. Par conséquent, les informations circulent toujours dans le même sens. De façon similaire à ce qui se passe avec une topologie en bus, une trame envoyée par une station est reçue par l'ensemble des stations et c'est l'adresse qu'elle contient qui permet de déterminer si une station donnée doit en
50
Architecture des réseaux haut débit
tenir compte ou non. La diffusion d'information est ainsi supportée de façon naturelle. Il est également nécessaire de prévoir une politique de partage du support de transmission.
F i g u r e 2 . 1 1 . Topologie
en
anneau
Le signal étant régénéré par chaque répéteur, contrairement au bus, l'anneau est une structure active le rendant très sensible aux pannes, puisqu'une seule coupure suffit à mettre fin à son bon fonctionnement. D'autre part, cela implique le retrait explicite des informations (par l'émetteur, par le récepteur ou par une station de supervision). Le manque de fiabilité peut être pallié par un anneau doublé (figure 2.12). Les deux anneaux peuvent transmettre dans le même sens ou en sens inverse. Dans les deux cas, lorsqu'une coupure survient pour l'un des anneaux, l'autre peut prendre le relais, garantissant ainsi le bon fonctionnement de l'anneau en cas de coupure simple. boucle primaire
boucle secondaire F i g u r e 2 . 1 2 . Anneau
doublé
Les topologies de base pour les réseaux locaux présentent des propriétés identiques, telles que la diffusion et le partage du support entre toutes les stations connectées. Ce partage sera arbitré, le plus souvent de manière distribuée, par ce qu'on appelle le mécanisme ou encore le protocole d'accès au support.
Caractéristiques des réseaux locaux et métropolitains 2.5. Les familles de contrôle
51
d'accès
L'une des principales particularités des réseaux locaux et métropolitains est le partage d'un support de transmission unique entre les différents utilisateurs du réseau. La méthode de contrôle d'accès décrit comment les stations raccordées au réseau contrôlent leur accès au support de transmission, afin de prévenir ou de régler tout conflit possible [Rubin 90]. De nombreuses techniques, plus ou moins sophistiquées, ont été proposées (et continuent de l'être). Elles peuvent être centralisées, avec l'existence d'une station primaire chargée de régler les conflits d'accès, ou distribuées, avec une répartition du contrôle sur l'ensemble des stations. Elles peuvent être statiques ou dynamiques, déterministes ou non, équitables ou non (vis-à-vis des possibilités d'accès au support données à chacune des stations), avec ou sans contention d'accès. La technique d'accès retenue a des répercussions sur les caractéristiques du niveau physique. Inversement, une topologie particulière impose les composants d'accès et va donc plus ou moins bien s'adapter à une technique d'accès donnée. Un classement possible des différents mécanismes d'accès est le suivant, avec trois grandes familles : - l'accès statique, - l'accès déterministe, - l'accès aléatoire. Nous présentons par la suite les grands principes et quelques exemples pour chacune de ces familles, la liste des techniques présentées étant loin d'être exhaustive.
2.5.1. L'accès
statique
Cette famille de protocoles d'accès se caractérise par l'allocation statique de la bande passante. En d'autres termes, la bande passante est répartie de façon définitive entre les stations, soit temporellement, soit fréquentiellement. 2.5.1.1. Accès multiple
à répartition
dans le
temps
Cette méthode, appelée l'AMRT (Accès Multiple à Répartition dans le Temps) ou TDMA (Time Division Multiple Access), consiste à découper le temps en périodes 7", elles-mêmes découpées en n tranches de temps IT. Une unité spécifique est chargée de fournir la synchronisation et de générer périodiquement des trames de durée T. n étant le nombre total de stations, chaque station se voit allouer nominativement une tranche de temps à l'intérieur de chaque trame ou intervalle T. Elle obtient ainsi un droit d'accès périodique et exclusif au canal. La figure 2.13 illustre cette technique appliquée au cas d'un réseau avec quatre stations.
52
Architecture des réseaux haut débit fréquence
capacité du canal
temps
Figure 2.13. La technique
AMRT
Le terme de "multiplexage temporel" est parfois utilisé pour désigner cette méthode. Elle est surtout utilisée dans le cadre des applications téléphoniques pour le transfert de la voix numérique. 2.5.1.2. Accès multiple
avec repartition
en
fréquence
Cette méthode, appelée l'AMRF (Accès Multiple à Répartition en Fréquence) ou FDMA (Frequency Division Multiple Access), consiste à découper la bande passante en sous-bandes, chacune étant affectée à une seule station qui en possède l'usage exclusif et qui ne peut en aucun cas utiliser les autres sous-bandes. Cette technique est également connue sous le nom de "multiplexage fréquentiel". La figure 2.14 illustre le cas d'un réseau avec quatre stations. Cette technique est principalement utilisée dans les réseaux large bande, comme par exemple, pour la distribution de programmes de télévision sur câbles. fréquence capacité i du i canal
temps
F i g u r e 2.14. La technique
AMRF
Les techniques statiques de partage du support sont bien adaptées à des environnements où les ajouts/retraits de stations sont rares (comme dans les réseaux satellites) mais ne conviennent pas à des environnements aussi vivants que les réseaux locaux. En effet, les ajouts/retraits de stations y sont fréquents (parfois toutes les semaines) et nécessiteraient avec de telles techniques d'accès de redéfinir à chaque fois soit la structure de la trame soit la répartition en fréquence, opérations non aisées. Leur deuxième inconvénient est la perte de bande passante lorsqu'une station est inactive. On leur préfère donc des techniques dynamiques, qu'elles soient déterministes ou aléatoires.
Caractéristiques des réseaux locaux et métropolitains 2.5.2. L'accès
53
déterministe
Cette famille de protocoles d'accès se caractérise, entre autres, par une allocation dynamique de la bande passante. En d'autres termes, la bande passante n'est allouée à une station que si cette dernière en a réellement besoin. Une station doit donc pouvoir solliciter l'utilisation du canal chaque fois qu'elle souhaite émettre. Un mécanisme de décision permet d'élire parmi l'ensemble des stations celle qui sera invitée à émettre tout en veillant à l'équité d'accès entre les stations (à tour de rôle). A l'issue de la transmission ou si la station interrogée n'a rien à émettre, le même scénario d'élection recommence. Sur ce principe de base, deux approches sont possibles, selon la manière dont les demandes d'accès sont gérées : - le contrôle centralisé, par polling, - le contrôle décentralisé, par jeton. 2.5.2.1. Le
polling
Bien que la plupart des techniques de contrôle centralisé soient associées aux réseaux grande distance, il existe quelques réseaux locaux pour lesquels toutes les fonctions de contrôle sont centralisées à l'intérieur d'un seul et même équipement. Plus précisément, le polling constitue une méthode d'accès qui se prête particulièrement bien aux topologies en étoile ou en bus. Cette technique suppose l'existence d'une station dite "primaire" qui gère l'accès au support. Elle invite les autres stations, dites "secondaires", à émettre en leur envoyant un message de poil, selon un ordre établi dans une table de scrutation. Si la station secondaire interrogée a un message à émettre, elle l'envoie. Dans le cas d'une topologie en étoile, le message transite par la station primaire, qui se charge de le relayer vers la ou les stations destinataires, selon l'adresse véhiculée dans le message. Si la station interrogée n'a rien à envoyer, elle répond de manière négative au poil. Lorsque la station primaire en a fini avec une station secondaire, elle consulte la table de scrutation pour déterminer la prochaine station à interroger. La complexité de l'approche tient essentiellement dans la station primaire : la fiabilité et les possibilités d'extension du réseau reposent sur sa fiabilité et sa puissance. A faible charge, le temps d'accès peut s'avérer long puisqu'il faut tout de même scruter chaque station. On peut améliorer ce protocole de la façon suivante : après l'émission d'une trame ou lorsqu'elle n'a rien à émettre, une station secondaire passe la main à la station secondaire suivante. En cas de panne de la station primaire (détectable par un silence prolongé), une autre station peut prendre le relais et le réseau peut ainsi continuer à fonctionner. Cette variante est très proche des techniques à jeton. 2.5.2.2. Accès par
jeton
Selon cette technique, le contrôle d'accès s'effectue de manière répartie au moyen d'une trame particulière appelée jeton. Ce jeton matérialise le droit à la parole : à
54
Architecture des réseaux haut débit
tout instant, seul son possesseur peut émettre. Le jeton passe de station en station dans un ordre donné, distribuant ainsi le droit d'accès à toutes les stations. Le bon déroulement du protocole exige la participation de toutes les stations. La nature répartie de cette approche implique de prendre de nombreuses précautions ; en particulier, il faut pouvoir éviter qu'une station ne monopolise le jeton et être capable de détecter la perte ou la duplication du jeton. La complexité réside dans chaque station, ce qui rend cette approche plus robuste que celle centralisée du polling. On distingue deux méthodes d'accès par jeton, selon la topologie du réseau : - le jeton non adressé, - le jeton adressé. Jeton non adressé
sur
anneau
Lorsque le réseau local a une configuration en anneau, la méthode d'accès généralement employée est le passage de jeton entre les stations de proche en proche suivant le sens de transmission de l'anneau [Bux 81a]. Le fonctionnement de base est le suivant : le jeton, représenté par une configuration binaire particulière, circule en permanence sur l'anneau. Il représente le droit à émettre. Une station qui souhaite émettre doit attendre que le jeton marqué libre passe au niveau de son répéteur et s'en saisir. Une fois en possession du jeton, la station peut émettre ; elle marque le jeton occupé et l'insère dans la trame d'information. La trame circule ensuite le long de l'anneau, allant de station en station. Chaque station qui en est destinataire la recopie au vol et positionne des bits dans la trame pour indiquer le statut de réception. Lorsque la trame revient à la station qui l'avait émise, cette dernière la retire de l'anneau (le répéteur associé ne répète pas la trame) et rend le jeton en le marquant libre. Le jeton est alors émis sur l'anneau à destination de la station voisine en aval et ainsi de suite, jusqu'à ce qu'il soit de nouveau capturé par une station désirant émettre. Le jeton étant passé entre les différentes stations de l'anneau de proche en proche, il n'y a pas lieu de lui associer une adresse de destination ; c'est pourquoi on parle de jeton non adressé. Il peut se produire des erreurs qui vont, par exemple, altérer le jeton et donc provoquer sa perte ou encore altérer l'adresse source d'une trame et donc empêcher la station émettrice de la reconnaître et de la retirer de l'anneau. La gestion de ces conditions d'exception est réalisée soit de manière centralisée par une station moniteur désignée soit de manière distribuée par un protocole coopératif entre toutes les stations. Plusieurs variantes du protocole peuvent être mises en œuvre quant à l'instant de relâche du jeton et quant à la station chargée de retirer la trame d'information de l'anneau.
Caractéristiques des réseaux locaux et métropolitains
55
La station émettrice peut libérer le jeton : 1. lorsqu'elle a reçu sa trame dans son intégralité : cette solution permet de vérifier des bits d'acquittements positionnés par le récepteur mais on limite le nombre de trames en circulation sur l'anneau à une seule en même temps ; 2. dès qu'elle reçoit l'en-tête de sa trame : on obtient un gain de temps par rapport à la première solution mais introduit une limitation sur la longueur de la trame ; 3. tout de suite après avoir transmis sa trame : le gain de temps est encore plus appréciable. De plus, l'utilisation de la bande passante est optimisée puisque plusieurs trames de sources différentes, peuvent être simultanément en circulation sur l'anneau. Par ailleurs, une trame circulant sur l'anneau peut en être retirée par l'un des deux protagonistes de l'échange : a. soit l'émetteur, sur reconnaissance de sa propre adresse (soit après réception complète de la trame, soit après réception de l'en-tête de trame seulement) ; b. soit le récepteur, auquel cas les acquittements au vol ne sont bien évidemment plus possibles. Cela n'est pas possible si le récepteur est multiple. A titre d'exemple, le Token Ring utilise la combinaison 2a et FDDI la combinaison 3a. Jeton adressé sur bus
Le concept de passage de jeton peut également être utilisé sur un réseau ayant une topologie en bus ou en arbre. La différence provient du fait que le jeton ne peut plus circuler implicitement de station en station. Il faut par conséquent utiliser un jeton adressé, qui sera envoyé explicitement à une station donnée selon une relation d'ordre définie sur les adresses des stations. Bien que la topologie physique soit en bus ou en arbre, la topologie logique est un anneau en ce qui concerne le passage du jeton. L'anneau virtuel est défini indépendamment de la situation physique des stations sur le câble. Chaque station connaît les adresses de son prédécesseur et de son successeur sur l'anneau virtuel.
Figure 2.15. Bus physique
et anneau
virtuel
Sur la figure 2.15, les stations sont attachées au support de transmission selon une séquence linéaire : A, B, C, D puis E. Toutefois, le jeton est passé selon la séquence représentée par les pointillés, à savoir : A, C, D, E et B, avant de revenir à A. On a ainsi un anneau logique, implanté sur la base d'adresses de stations
56
Architecture des réseaux haut débit
décroissantes. Le jeton est toujours passé à la station dont l'adresse est celle immédiatement inférieure, jusqu'à ce que la station avec l'adresse la plus faible le reçoive. Il est alors passé à la station avec l'adresse la plus grande, et ainsi de suite. Cette technique a été retenue pour Token Bus.
2.5.3. L'accès
aléatoire
Les mécanismes d'accès aléatoire mettent en jeu des concepts très simples, issus des techniques utilisées sur les réseaux radio. Leur caractéristique commune est qu'une station désirant émettre n'a pas besoin d'autorisation pour le faire : la sollicitation est matérialisée par l'accès direct au canal. Il peut alors se produire des conflits d'accès dès lors que le nombre de stations en compétition dépasse l'unité. Différentes techniques de résolution ont été proposées pour qu'en cas de conflit, une seule des stations en compétition soit autorisée à émettre. Ce type de mécanisme est particulièrement bien adapté aux topologies en bus. 2.5.3.1. Le protocole
Aloha
A l'origine de la famille de mécanismes d'accès aléatoire se trouve le protocole Aloha, initialement développé en 1970 pour relier les îles d'Hawaï par faisceaux hertziens [Abramson 70]. Dans Aloha, une station émet dès qu'elle a de l'information à envoyer. A l'émission de la trame, un temporisateur est armé avec une durée correspondant au délai de transfert aller et retour pris entre les deux stations les plus éloignées du réseau. Si le temporisateur parvient à expiration sans qu'aucun acquittement n'ait été reçu pour la trame, cette dernière est retransmise. Au bout de n retransmissions restées sans réponse, la station abandonne. A la réception de la trame, la station destinataire effectue une vérification du champ total de contrôle afin de vérifier que la trame n'a subi ni erreurs de transmission ni collision et renvoie un acquittement à la station émettrice si la trame est correcte. Ce principe est extrêmement simple à mettre en œuvre, totalement décentralisé et ne nécessite aucune synchronisation entre les stations. L'inconvénient est qu'il se produit des collisions dès que plusieurs stations émettent en même temps. Les stations impliquées dans la collision doivent alors retransmettre après une temporisation aléatoire (figure 2.16). SI
J
temporisation collision
temps
S 2
temporisation F i g u r e 2 . 1 6 . Collision
avec
Aloha
Caractéristiques des réseaux locaux et métropolitains
57
Intuitivement, on peut voir que cette anarchie totale au niveau de l'utilisation du support ne permet pas d'obtenir de bonnes performances. En fait, des analyses mathématiques ont montré que seules 18 % des trames candidates à la transmission pouvaient être émises avec succès [Schwartz 87]. Ce manque d'efficacité s'explique en partie par le fait qu'il suffit que le dernier bit d'une trame se superpose avec le premier bit d'une autre trame pour qu'il y ait collision et donc retransmission de deux trames ; de plus, la transmission des trames en collision n'est pas interrompue. Une version améliorée, dite « Aloha en tranches », consiste à découper le temps en tranches et à n'autoriser l'émission de trame qu'en début de tranche. Une conséquence immédiate est que, s'il se produit une collision, elle se produit sur l'ensemble de la tranche et des trames impliquées (figure 2.17). SI
S3
temporisation collision i temps
temporisation
S2
F i g u r e 2.17. Collision
avec Aloha
en
tranches
Cette discrétisation du temps permet de doubler le taux de réussite en l'amenant à 36 % [Lam 75]. Cette amélioration du débit a été obtenue en réduisant le nombre de collisions en les regroupant sur une tranche, ce qui évite de perturber les transmissions proches de cette tranche. Par contre, cette technique présente l'inconvénient de nécessiter une synchronisation au niveau de toutes les stations. Il faut également noter que pour les deux versions d'Aloha, le système devient instable (on a un débit qui tend vers 0) lorsque le nombre de stations tend vers l'infini. 2.5.3.2. CSMA
(Carrier
Sense
Multiple
Access)
Au début des années 70, R. Metcalfe eut l'idée de reprendre la technique Aloha pour l'exploiter sur un réseau de micro-ordinateurs reliés par un seul câble coaxial [Metcalfe 76] [Lam 80]. Un prototype de ce qui allait devenir Ethernet fut ensuite construit au centre de recherche de Xerox de Palo Alto. Partant du constat que, pour cet environnement, le temps de transmission des trames est largement supérieur au temps de propagation et que, par conséquent, toute émission de trame peut être détectée quasi instantanément par les différentes stations du réseau, R. Metcalfe introduisit le principe d'écoute de la porteuse avant transmission : une station doit écouter le canal avant de transmettre et elle ne peut transmettre sa trame que si le canal est libre. Tout comme dans Aloha, la détection de la collision se fait par non-
58
Architecture des réseaux haut débit
retour d'acquittement. Ce principe d'écoute de la porteuse, connu sous le nom de CSMA (Carrier Sense Multiple Access), permet de réduire sensiblement le nombre de collisions de trames. Néanmoins et malgré l'écoute au préalable, des collisions peuvent encore se produire et ce, à cause du délai de propagation. Le taux d'utilisation obtenu est meilleur que pour les deux versions d'Aloha. Il dépend en fait : - du temps de propagation du signal : plus il est faible, plus c'est efficace ; - de la longueur de la trame : une station qui a réussi à transmettre une trame a tout intérêt à l'envoyer la plus longue possible car la probabilité de collision est la même pour une trame longue que pour une trame courte. Il existe plusieurs variantes de la technique CSMA, selon le type de décision prise lorsque le canal est détecté occupé par une station souhaitant émettre : - CSMA non persistant : lorsque la station détecte un signal, elle attend un délai aléatoire avant de réitérer la procédure (écoute de la porteuse, et ainsi de suite...) ; ce temps choisi au hasard permet de réduire le nombre de collisions mais il diminue aussi le taux d'utilisation du canal ; - CSMA persistant : la station "persiste" à écouter le canal jusqu'à ce que celuici devienne libre et elle émet alors (c'est la variante de base retenue au niveau de la normalisation IEEE 802.3) ; cette méthode permet un gain de temps par rapport à la précédente, mais augmente malheureusement la probabilité de collision puisque les trames qui se sont accumulées pendant cette phase d'attente active vont toutes être transmises en même temps ; - CSMA p-persistant : lorsque le canal devient libre, la station émet avec une probabilité p et diffère son émission avec une probabilité (l-p) ; ceci permet de diminuer la probabilité de collision par rapport au CSMA persistant. L'efficacité de cette variante dépend de la valeur de p : si n stations attendent pour transmettre et que np > 1, il y aura certainement des transmissions multiples et des collisions. Les stations retransmettront alors avec le risque d'entrer de nouveau en collision ; il faut donc estimer n (la charge) et faire en sorte que np < 1. Si p est petit, les stations attendent plus longtemps mais les collisions sont réduites. A faible charge, le canal est mal utilisé. Ces variantes donnent des performances plus ou moins bonne, selon l'environnement d'utilisation de la technique (nombre de stations, répartition géographique des stations, répartition de la charge soumise entre les différentes stations, valeur de p , etc.). 2.5.3.3. CSMA/CD
(CSMA
with Collision
Detection)
Il s'agit d'une amélioration de la technique CSMA persistant, où une station qui émet continue à écouter le canal pendant sa propre transmission. L'efficacité du
Caractéristiques des réseaux locaux et métropolitains
59
mécanisme est accrue grâce à une détection précoce des collisions. Dès qu'une collision est détectée par une station émettrice, elle arrête sa transmission, elle émet une séquence de bourrage qui sert à renforcer la collision et à la rendre détectable par toutes les stations du réseau puis elle attend un délai aléatoire au bout duquel elle tentera de nouveau d'émettre sa trame. Cette technique ainsi que la norme afférente sont décrites dans le chapitre 3. Les principaux inconvénients du protocole CSMA/CD résident dans son instabilité à forte charge (le débit tend vers 0) et dans son indéterminisme : un délai maximum d'accès au support ne peut être garanti, la probabilité de subir une collision n'étant jamais nulle. 2.5.3.4. CSMA/CA
(CSMA
with Collision
Avoidance)
Le principe est le suivant : tout comme dans CSMA/CD, chaque station écoute la porteuse lorsqu'une transmission est en cours. Lorsque la transmission prend fin, chaque station attend un délai spécifique qui dépend de sa position à l'intérieur d'une liste logique de stations. Si aucune autre station n'a commencé à émettre à l'expiration de ce délai, la station peut commencer à émettre. Cette technique met implicitement en place un système de priorités. Différentes méthodes peuvent être utilisées pour gérer le cas où, à la fin du délai, aucune station n'a de trame à émettre : - la station de plus haute priorité (celle qui a la plus haute position dans la liste) émet une trame non significative qui va déclencher un nouveau délai propre pour chacune des stations ; - une alternative consiste à entrer dans le mode "libre pour tous", où n'importe quelle station peut alors transmettre et où l'on utilise alors les techniques de détection de collision pour résoudre les éventuels conflits. Cette technique permet de distribuer totalement le contrôle d'accès entre les différentes stations du réseau. C'est une particularité qu'elle partage avec les techniques à jeton.
60
Architecture des réseaux haut débit
Exercices E x e r c i c e 2.1 Dressez un tableau récapitulant les principaux avantages et inconvénients de chaque type de topologie. E x e r c i c e 2.2 Dressez un tableau récapitulant les principaux avantages et inconvénients de chaque type de mécanisme d'accès. E x e r c i c e 2.3 Donnez les paramètres permettant, dans le cas du jeton sur anneau, d'évaluer le temps maximum entre deux possibilités d'accès au support pour une station donnée. Exercice 2.4 Considérons le transfert d'un fichier de 1 Mo entre deux stations. Quels sont, s'il y a lieu : -
le temps de propagation entre les deux stations (7>), le temps d'émission d'une trame (Te), le temps de transfert avec acquittement d'une trame (7), le temps total de transfert (T ), le débit utile (Du). lol
IU3Ui3]]inb3e
31UBJJ
réseau
dans les cas suivants : 1. Le réseau local est en étoile et utilise la commutation de circuits. Le temps d'établissement est négligeable et la vitesse sur le support est de 64 kbit/s. Les deux stations sont distantes de 10 km et la vitesse de propagation est de 100 000 km/s. Il n'y a pas de protocole de transfert ni d'acquittement.
Caractéristiques des réseaux locaux et métropolitains
61
2. Le réseau local est un bus et les deux stations sont éloignées d'une distance d. Le capacité du support est de C bit/s et la taille d'une trame est de L bits dont O = 80 bits d'en-tête. Chaque trame doit être acquittée par une trame d'acquittement de longueur / égale à 88 bits avant de pouvoir transférer la trame suivante. La vitesse de propagation V est de 100 000 km/s. Donnez les équations de Te, T, T
tot
et D
v
en fonction de d, C, O et L .
Tracez les courbes de T e t de D pour : v
- d variant de 1 km à 10 km avec C = 1, 5, 10, 50 Mbit/s et L = 2 000 bits ; - L variant de 500 bits à 10 000 bits (par incrément de 500 bits) avec C = 1, 5, 10, 50 Mbit/s et d = 2 km ; 3 . Le réseau local est un anneau d'une longueur totale 2*d km, les deux stations étant éloignées de d km. L'acquittement par le destinataire est réalisé en marquant un bit particulier de la trame qui retourne à l'émetteur. La taille d'une trame est de L bits dont O = 80 bits d'en-tête. Il y a N répéteurs sur l'anneau ; chacun d'eux introduit un retard de 1 temps-bit au passage d'une trame. Donnez les équations de Te, T, T , et D t0
v
en fonction de d, C, O, N et L.
Tracez les courbes de T et de D pour : v
- d variant de 1 km à 10 km avec C = 1, 5, 10, 50 Mbit/s, N = 30 stations et L = 2 000 bits ; - N variant de 10 à 100 stations (par incrément de 10) avec d = 2 km, C = 1, 5, 10, 50 Mbit/s et L = 2 000 bits ; - L variant de 500 bits à 10 000 bits (par incrément de 500 bits) avec C = 1,5, 10, 50 Mbit/s, N = 30 stations et d = 2 km ; Résolvez pour les mêmes valeurs de d, C et L que précédemment avec N = 10, 100, 1 000.
Chapitre 3
Ethernet et Ethernet 100 Mbit
3.1. 3.1.1.
Introduction Historique
Ethernet est un réseau local en bande de base développé dans les laboratoires de la société Xerox à Palo Alto à la fin des années 70 [Metcalfe 76]. Le protocole d'accès au support est inspiré du système Aloha d'Abramson, testé au début des années 70 sur un réseau radio reliant les îles d'Hawaï [Abramson 70]. En 1980, les sociétés DEC et Intel rejoignent Xerox pour promouvoir ce réseau local [DEC 80]. En 1985, le protocole est amélioré et donne naissance à Ethernet Version 2, qui servira de base à la spécification par l'IEEE [IEEE 802.3]. Le principe de fonctionnement d'Aloha consiste à émettre dès qu'une donnée est prête, ce qui présente comme inconvénient l'apparition de collision entre deux transmissions simultanées et la perte des données transmises. Une station n'ayant pas reçu d'acquittement tente alors une retransmission de sa trame au bout d'un délai aléatoire. L'absence de règles d'accès au support partagé conduit à de très mauvaises performances. Le réseau Ethernet consistait en un réseau de micro-ordinateurs reliés par un même câble coaxial passif (d'où le nom d'Ether) selon une topologie en bus. Le principe d'Aloha a été amélioré de deux manières. Tout d'abord, une station désirant émettre écoute le canal avant toute transmission, évitant ainsi de nombreuses collisions. Ensuite, la détection d'une collision est accélérée car la station émettrice
64
Architecture des réseaux haut débit
écoute aussi sa propre transmission. Ce protocole d'accès a été normalisé par l'IEEE dans le standard 802.3 sous le nom de CSMA/CD. L'abréviation C S M A / C D signifie "Carrier Sense Multiple Access with Collision Detection", traduit littéralement par "accès multiple avec détection de présence de porteuse et détection de collision". Par abus de langage, Ethernet désigne un réseau local, c'est-à-dire un ensemble {support, services, protocoles} utilisé pour la mise en place d'un réseau local. La confusion entre le protocole CSMA/CD et Ethernet est souvent faite alors que des différences, même minimes, existent.
3.1.2. Le
standard
802.3
Cette spécification concerne : - l'équivalent de la couche physique de l'OSI qui prend ici le nom de "accès au support physique" (PMA — Physical Medium Access). De par les contraintes techniques imposées par la détection des collisions, les fonctions de cette couche peuvent être réparties entre le dispositif de raccordement à la paire coaxiale et la station proprement dite ; - la partie inférieure de la couche liaison de données prenant le nom de "contrôle de l'accès physique" (MAC — Medium Access Control). Cette sous-couche permet à la station de chercher à acquérir le droit à émettre et résout par conséquent les situations de contention. De plus, elle dirige les échanges avec la couche "accès au support physique". La figure 3.1 détaille l'architecture de ce standard.
physique-
r liaison-
couches hantes LLC Logical Link Control MAC Medium Access Control
DTE DTE - DataTerminal Equipment
FLS Physical Layer Signalling
AUI - Attachmenl Unit Interface M A U - Medium Attachment Unit
AUI PMA
MAU
MDI - Medium Dependent Interface PMA - Physical Medium Attachment
MDI médium F i g u r e 3 . 1 . Situation de la couche
MAC
Ethernet et Ethernet 100 Mbit
65
La couche physique se compose d'une sous-couche PLS (Physical Layer Signalling) qui effectue l'interface entre les sous-couches MAC et physique et de deux composants, une interface d'attachement (AUI — Attachment Unit Interface) et une unité d'accès au support (MAU — Medium Attachment Unit). L'AUI définit l'interface entre la station proprement dite et la MAU. Elle consiste en un câble et des connecteurs. La MAU est un équipement destiné à relier une station à un support donné et à gérer toutes les fonctions dépendantes du support. Une station donnée peut alors être utilisée avec un autre support, en changeant uniquement de MAU. Le plan du chapitre s'articule autour des cinq points essentiels du standard IEEE 802.3 : -
le protocole MAC, les services MAC, le protocole PHY, les services PHY, les différents supports de transmission.
La dernière partie concerne les extensions d'Ethernet vers les hauts débits, souvent dénommées "Ethernet 100 Mbit/s".
3.2. Le protocole M A C 3.2.1. Principe
de fonctionnement
de
CSMA/CD
Le protocole CSMA/CD est un protocole aléatoire où les stations peuvent émettre à tout instant, ce qui donne lieu à des contentions d'accès. Pour diminuer les risques de contention, le protocole impose des règles minimales avant la transmission
d'une trame, pendant
3.2.1.1. Transmission
d'une
sa transmission
et en cas de
contention.
trame
La transmission d'une trame ne peut commencer que si le canal est libre. Avant de transmettre, une station se met à l'écoute du canal. Si elle ne détecte aucune porteuse sur le support, elle transmet (figure 3.2 (a)). Si elle détecte un signal en ligne, elle attend que le canal devienne libre pour émettre sa trame (figure 3.2 (b)). Avec cette technique, une station évite d'émettre lorsqu'une autre station est déjà en cours d'émission, ce qui réduit le nombre de collisions, sans pour cela les supprimer toutes !
66
Architecture des réseaux haut débit
S3 écoute SI émet
S2 émet
SI émet S3 émet temps
temps
S2 émet S2 écoute
S2 écoute
(a) écoute avant transmission Figure 3.2.
(b) collision de transmissions Principe
du CSMA
La figure 3.2 illustre deux scénarios de transmission. Dans les deux cas, une station SI écoute le support, le détecte libre et transmet. Une station S2 veut émettre à son tour et détecte le canal occupé. Tout au long de la transmission de S1, elle continue son écoute et transmet dès qu'elle détecte le canal libre. Dans le cas (a), S2 émet à la fin de la transmission de S I , après avoir attendu un délai inter-trame destiné à garantir un intervalle de silence minimum afin de faciliter la gestion du niveau physique. Dans le cas (b), une station S3 s'était mise à l'écoute du canal pendant la transmission de SI. A la fin de celle-ci, les stations S2 et S3 transmettent simultanément et entrent par conséquent en collision. 3.2.1.2. Détection
des
collisions
La collision se produit lorsqu'au moins deux stations constatent en même temps que le support de transmission est disponible et transmettent simultanément. Physiquement, une collision est donc un signal brouillé violant les règles du codage en bande de base. Pour pouvoir détecter une éventuelle collision, la station écoute aussi le canal pendant sa propre transmission. Si elle détecte un signal non conforme (i.e. une collision), elle stoppe immédiatement sa transmission et transmet une séquence de bourrage (Jamming Signal), pour avertir les autres stations. Cette séquence doit être suffisamment longue pour être notée par les autres stations du réseau ; le paramètre JamSize définit sa taille minimale. La figure 3.3 illustre le cas extrême où deux stations transmettent simultanément malgré l'écoute préalable. Nous définissons At le temps de propagation d'un signal entre les deux stations SI et S2, situées à chaque extrémité du support. Le scénario est le suivant : - à to, la station SI commence à émettre une trame. - à to + At - e, la station S2, à l'autre extrémité, détecte le canal libre et émet sa propre trame. - à to + At, la station S2 détecte la collision, elle stoppe sa transmission et envoie une séquence de bourrage, - à to + 2 At, S1 détecte la collision à son tour.
Ethernet et Ethernet 100 Mbit
67
On définit : - la période de vulnérabilité qui représente la durée pendant laquelle une station éloignée peut détecter le canal libre et transmettre à son tour ; elle est au maximum égale à un temps de propagation entre les deux stations les plus éloignées sur le support ; - la fenêtre de collision ou slot-time qui représente le délai maximum qui s'écoule avant qu'une station détecte une collision ou encore, le délai après lequel une station peut être certaine d'avoir réussi sa transmission ; elle est égale à deux fois le temps de propagation d'un signal sur le support. C'est l'unité de temps du protocole. tO S2
SI S1 commence sa transmission tO + At - e
S2
SI S2 commence sa transmission t 0 + At SI
S2 détecte la collision, arrête sa transmission et émet la séquence de bourrage tO + 2 At SI SI détecte la collision F i g u r e 3.3. Période de vulnérabilité
et fenêtre
de
collision
Nous nous sommes placés dans le pire cas en considérant les stations les plus éloignées. Si on considère une station émettrice quelconque, elle est assurée, au bout de la fenêtre de collision, soit de la réussite de sa transmission, soit d'une collision subie par sa trame. La durée de la fenêtre de collision a une influence sur la taille minimale d'une trame. En effet, pour que l'on puisse détecter la collision, il faut que la station écoute et donc qu'elle soit encore en train d'émettre. Il faut, par conséquent, que le temps d'émission d'une trame de longueur minimale soit supérieur au slot-time. Sur un réseau Ethernet classique, à 10 Mbit/s, le slot-time dure 51,2 us et la taille minimale d'une trame est de 64 octets.
68
Architecture des réseaux haut débit
3.2.1.3. Reprise
après
collision
Après avoir détecté la collision, la station doit retransmettre la même trame au bout d'un temps aléatoire qui dépend à la fois du slot-time et du nombre n de collisions successives déjà subies pour cette trame. L'algorithme qui calcule ce délai aléatoire, l'algorithme Binary Exponential Backoff, a été conçu de façon à minimiser le temps d'attente en cas de faible trafic et à minimiser le nombre de collisions successives en cas de trafic important. Il consiste à tirer une variable aléatoire entière M : 0 < M < 2 , où k = min (n, 10) et où n est le nombre total de collisions subies par la station pour la trame considérée. Le délai d'attente avant de tenter une nouvelle transmission est alors pris égal à M fois la fenêtre de collision. Lorsque n atteint 16, il y a abandon de la transmission. k
La technique CSMA/CD ne permet pas de garantir un délai maximum d'attente avant transmission. Ce n'est pas un protocole déterministe. Nous résumons les étapes d'une transmission de trame : 0. Le nombre de collisions est remis à zéro. 1. Si le support est libre, alors étape 3, sinon étape 2. 2. Ecouter en continu le canal jusqu'à ce qu'il se libère, puis étape 3. 3. Transmettre la trame et écouter le canal. Si une collision est détectée pendant la transmission, arrêter la transmission, diffuser une trame de signal de collision sur le réseau, puis étape 4. Sinon, étape 0. 4. Incrémenter le nombre de collisions subies, dérouler l'algorithme de backoff, attendre le temps tiré et retourner à l'étape 1. 3.2.1.4. Réception
d'une
trame
La topologie du réseau sous-jacent est équivalente à un support à diffusion où toutes les stations reçoivent tous les signaux transportés. La station est toujours à l'écoute du support ; dès qu'elle détecte un signal de porteuse, elle recopie les bits jusqu'à reconnaissance du délimiteur de fin de trame. Le champ de contrôle d'erreur est ensuite vérifié, puis l'adresse de destination comparée à celle de la station. Si la trame est correcte et qu'elle est bien destinée à la station, elle est remise au niveau supérieur (LLC normalement) ; dans le cas contraire, elle est simplement détruite.
3.2.2. Modèle
fonctionnel
de la couche
MAC
Ce modèle décrit les principales opérations de transmission et de réception entre les couches MAC et PHY ainsi qu'entre les couches MAC et LLC. Ces opérations nous donnent les idées de base pour réaliser l'implantation des fonctions du niveau MAC. Il faut considérer deux niveaux au sein de la couche MAC pour que celle-ci soit performante. Le niveau supérieur est dédié à l'encapsulation/désencapsulation des trames entre les couches M A C et LLC et le niveau inférieur à la gestion de l'accès à
Ethernet et Ethernet 100 Mbit
69
la couche PHY par le niveau MAC. A l'intérieur de chacun de ces niveaux, il faudra différencier les fonctions de transmission de trames et celles de réception de trames, qui sont indépendantes les unes des autres. L'organisation de ces opérations est décrite en figure 3.4. MA DATA.req
MA_DATA.conf
MA.DATA.ind
LLC —
4 TRANSMIT DATA ENCAPSULATION
RECEIVE DATA DECAPSULATION
la 11
2b 2c 12
TRANSMIT MEDIA ACCESS MANAGEMENT
RECEIVE MEDIA ACCESS MANAGEMENT
lb3467 8 9
2a 5 10
MAC
PLS PLS_SIGNAL.ind
+
PLS.DATA.ind
PLS_DATA.cc.nf
PLS_DATA.req
PLS_CARRIER.ind
Figure 3.4. Modèle fonctionnel
de la couche
MAC
Nous examinons maintenant les différentes fonctionnalités conduisant à la réalisation du service de cette sous-couche. 1)
Transmission d'une trame a) elle accepte les données de la sous-couche LLC b) elle présente une série de bits à la couche physique pour transmission sur le support
2)
Réception de la trame a) elle reçoit une série de bits provenant de la couche physique b) elle présente à la couche LLC les trames reçues soit avec une adresse de groupe/diffusion soit avec l'adresse de la station c) elle élimine les trames qui ne portent pas l'adresse de la station
3)
Attente avant transmission si le support est occupé
4)
Ajout du FCS aux trames sortantes
5)
Vérification des trames entrantes : FCS, longueur des différents champs de la trame et cohérence entre la valeur du champ longueur des données et la longueur effective des données au sein de la trame reçue
6)
Attente de la fin du délai inter-trame avant transmission
7)
Arrêt de la transmission dès qu'une collision est détectée
70
Architecture des réseaux haut débit
8)
Tentative de retransmission après une collision au bout du délai calculé par l'algorithme de reprise (backoff)
9)
Envoi de caractères de bourrage pour renforcer la collision et assurer sa propagation dans tout le réseau
10) Destruction des trames trop courtes 11 ) Construction de la trame 12) Extraction de la partie données des trames reçues
3.2.3. Structure
de
la
trame
Le format de la trame MAC défini dans le standard IEEE 802.3 est représenté en figure 3.5. Du fait du protocole de détection des collisions qui impose à la station de surveiller la bonne propagation de sa trame sur tout le réseau, il a été défini une taille minimale de trame égale à 6 4 octets. Cette longueur correspond pour un débit de 10 Mbits/s au temps de propagation maximum aller et retour sur un réseau de 2,5 km (spécification de base). Une taille maximale a également été définie, qui est de 1 518 octets. 7 octets
1 octet
2 ou 6 octets
amorce
marqueur de début
adresse destination
2 ou 6 octets
adresse source
2 octets
longueur
4 octets
données
octets de bourrage
FCS
Figure 3.5. Format de la trame MAC
La signification des différents champs est la suivante : - Amorce : elle est présente au début de chaque trame et comporte 7 octets initialises à 10101010. L'amorce permet de synchroniser les horloges des stations réceptrices. - Marqueur de début de trame (Start Frame Delimiter) : l'octet a la valeur 10101011 pour indiquer le début de la trame. Il permet la synchronisation par caractère. - Adresse destination (Destination Address) et Adresse source (Source Address) : ce sont des adresses physiques du réseau codées sur 2 ou 6 octets (figure 3.6). Les adresses de 16 bits ne sont administrées que localement, tandis que celles de 48 bits peuvent l'être soit localement soit globalement (adresse universelle normalisée par l'IEEE). Dans le champ destination, le bit de plus haut rang indique s'il s'agit d'une adresse individuelle ou d'une adresse de groupe :
Ethernet et Ethernet 100 Mbit 1 bit
15 bits
I/G
adresse
71
adresse sur 16 bits 1 bit
I/G
46 bits
1 bit
adresse
U/L
adresse sur 48 bits
l/G = 0 - adresse individuelle I/G = 1 - adresse de groupe U/L = 0 - adresse administrée globalement U/L = 1 - adresse administrée localement
Figure 3.6. Format des
adresses
L'utilisation d'une adresse de groupe permet à plusieurs stations de recevoir la même trame, on parle alors d'adressage multicast. Si la diffusion est faite sur tout le réseau, le champ destination ne comporte que des bits à 1, l'adressage est de type broadcast.
- Longueur du champ d'information (Length) : sur 2 octets, ce champ indique la longueur effective des données LLC en nombre d'octets, compris entre 0 et 1 500. Il permet de distinguer les données des éventuels octets de bourrage. - Données (Data) : champ de données LLC. - Bourrage (Pad) : des octets de bourrage sont ajoutés par la sous-couche MAC lorsque la taille des données est inférieure à 46 octets de données, ce afin de satisfaire la contrainte sur la taille minimale des trames. - FCS (Frame Control Sequence) : constitué d'un mot de 32 bits, ce champ contient la séquence de contrôle de redondance longitudinale, calculée sur tous les champs exceptés le préambule, le délimiteur de début de trame et le champ de contrôle lui-même. Ce contrôle permet de détecter les erreurs apparues lors de la transmission, dues généralement à des parasites. Le standard IEEE 802.3, bien qu'issu d'Ethernet, présente quelques différences ; ainsi la trame Ethernet ne comporte pas de champ Length, mais un champ Type qui sert à indiquer par quel point d'accès (SAP) passer pour que les données arrivent au niveau supérieur. Pour la trame 802.3, cette information est véhiculée dans le premier octet du champ information. D'autre part, la trame Ethernet ne propose que des adresses sur 6 octets.
3.2.4. Paramètres
du
protocole
MAC
Le paramétrage est destiné à obtenir, de toutes les stations raccordées, un comportement identique qui est indispensable au bon enchaînement du protocole résolvant les collisions inévitables par nature. Il est le même pour tous les supports
72
Architecture des réseaux haut débit
normalisés. Les paramètres recommandés par le standard IEEE 802.3 sont donnés en tableau 3 . 1 .
paramètre
signification
valeur
SLOT TIME
fenêtre de collision
512 temps-bit
INTERFRAME GAP
attente entre deux transmissions
ATTEMPT LIMIT
nombre maximal de retransmissions
9,6 fis 16
BACKOFF LIMIT
limite maximale de l'intervalle de tirage
10
JAM SIZE
taille de la séquence de bourrage
4 octets
MAX FRAME SIZE
longueur maximale de trame
1518 octets
MIN FRAME SIZE
longueur minimale de trame
64 octets
ADDRESS SIZE
longueur du champ d'adresse
48 bits
Tableau 3 . 1 . Paramètres
3.3.
Service
CSMA/CD
MAC
Le service MAC est utilisé par les entités de la couche LLC pour permettre l'échange des données entre les couches MAC et LLC. Le protocole CSMA/CD étant en mode non connecté, le service de la couche MAC ne concerne que le transfert de données. Les primitives de service de la sous-couche MAC sont au nombre de deux : - MA_DATA.request, - MAJDATA.indication. L'enchaînement de ces primitives est montré en figure 3.6. Dans cette figure, la primitive de requête est considérée comme une fonction qui retourne un status. De manière plus abstraite et moins dépendante des considérations d'implantation, on aurait pu tout aussi bien considérer l'existence d'une troisième primitive, MA_DATA.confirmation ou MA_DATA_STATUS.indication. émetteur
récepteur
MAJJATA.req
MA_DATA.ind
F i g u r e 3.7. Enchaînement des primitives
du service
MAC
Ethernet et Ethernet 100 Mbit 3.3.1. La
primitive
73
MA_DATA.request
Elle permet de transférer des données d'une entité LLC émettrice vers une ou plusieurs (en cas d'adresse de groupe) entités LLC réceptrices. Quand cette primitive arrive au niveau MAC de la station émettrice, une trame est constituée à partir des paramètres de cette primitive et des valeurs propres au niveau MAC, telles que l'adresse source, la longueur des données et la séquence de contrôle qui sont calculées. La sémantique de la primitive est la suivante : MA_DATA.request transmit_status ; où :
(dest_address, length_data, m_sdu, service_class) :
- le paramètre destination_address spécifie l'adresse de destination qui peut être une adresse individuelle ou une adresse de groupe ; - le paramètre length_data
indique la longueur des données LLC ;
- le paramètre m_sdu contient l'unité de données du service MAC, c'est-à-dire la trame LLC ; - le paramètre service_class indique la qualité de service demandée par la couche LLC ou un niveau supérieur. Il n'est pas utilisé dans la cas du protocole CSMA/CD qui ne fournit qu'une seule classe de service. La fonction retourne un compte-rendu sur le déroulement de la transmission dans transmit _status qui peut prendre deux valeurs, transmitOK pour signaler que la transmission s'est correctement déroulée et excessive jcollisionjerror pour signaler que la trame a subi un nombre excessif de collisions et que la transmission a été abandonnée.
3.3.2. La
primitive
MA _D AT
A.indication
Cette primitive indique à la couche LLC qu'une trame MAC vient d'arriver au niveau MAC. Elle n'est envoyée vers le niveau supérieur que si son format et son FCS sont corrects et qu'elle est réellement destinée à la station. Sa sémantique est : MA_DATA.indication (dest_address,source_address,m_sdu) : reception_status ; où : - destination_address définit l'adresse destination de la trame reçue, soit l'adresse individuelle de la station, soit celle d'un groupe de stations auquel elle appartient ; - le paramètre source_address
désigne la station émettrice de la trame reçue ;
- le paramètre m_sdu contient les données de la trame MAC reçue.
74
Architecture des réseaux haut débit
Le paramètre de retour Reception_status est utilisé pour communiquer au récepteur l'état de l'information après sa transmission. La valeur ReceiveOK permet d'indiquer que la trame ne comporte pas d'erreur et les données sont transmises au niveau LLC dans le paramètre m_sdu. LengthError signale que la valeur du champ longueur (Length) de la trame n'est pas cohérente avec la longueur des données réellement reçues. FrameCheckError indique qu'il n'y a pas égalité entre la valeur du champ FCS de la trame et le mot de contrôle calculé à la réception de la trame. Enfin, AlignmentError signale que la trame reçue est erronée : non seulement le champ de contrôle (FCS) n'est pas valide mais de plus, la longueur de la trame ne correspond pas à un nombre entier d'octets.
3.4.
La couche
physique
Le niveau physique est essentiellement divisé en trois parties (figure 3.1) : - la sous-couche PLS (Physical Layer Signalling) gère l'interface avec la couche MAC, permet de générer les signaux électriques pour les bits issus de la sous-couche MAC et inversement de coder les signaux physiques du support en signaux logiques pour la sous-couche MAC ; - 1'AUI (Attachment Unit Interface) n'est pas forcément physiquement présente et permet à la station d'être éloignée du support ; - la MAU (Medium Attachment Unit) réalise les principales fonctions du niveau physique et diffère selon le support de transmission utilisé. Cette configuration permet ainsi d'attribuer un minimum d'éléments électroniques au point d'accès au support physique et tous les aspects matériels et logiciels à la station (carte de contrôleur). Une station peut être alors distante du point d'accès au support. La transmission est le plus souvent en bande de base sur un câble coaxial (10BASE5, 10BASE2).
3.4.1. Sous-couche
PLS
La sous-couche PLS a pour tâche principale de transformer la suite de bits de la trame MAC en signaux électriques qui vont être véhiculés sur le support physique. En même temps, elle surveille le support et peut générer un signal de détection de collision.
Ethernet et Ethernet 100 Mbit 3.4.2. Interface
75
AUI
L'AUI définit l'interface entre la station proprement dite et la MAU. Elle consiste en un câble de 50 mètres au maximum avec un connecteur à chaque extrémité. Le câble comporte cinq paires symétriques blindées individuellement. Si la MAU se trouve physiquement sur la même carte que la fonction MAC, l'AUI n'est pas physiquement présente. L'AUI comporte deux circuits de données {Data_In et Data_Out) et deux circuits de contrôle pour commander la MAU {Control_Out) et pour donner l'état de la MAU (Control_In) ; un dernier circuit permet l'alimentation de la MAU. Le circuit Control_In - mau-available canal est libre ;
véhicule l'un de ces trois messages :
: la MAU est prête à envoyer une donnée sur le support et le
- mau-not-available sur le support ;
(optionnel) : la MAU n'est pas prête à envoyer une donnée
- signal-quality-error : il est envoyé en réponse à l'une de ces trois causes : un signal impropre, une collision ou l'achèvement d'un envoi de données pour confirmer que la signalisation de collision fonctionne correctement. Le circuit ControljOut - normal possibles ;
véhicule l'un de ces trois messages :
: met la MAU en mode normal, la transmission et la réception sont
- mau-request : demande à la MAU d'être disponible, la station souhaitant émettre des données ; - isolate : met la MAU en mode de surveillance, la MAU est isolée du support et la station peut ainsi observer le support en exécutant ses fonctions locales. Les signaux sont codés selon le procédé de codage Manchester. Le débit du câble est le même que celui du support physique utilisé, aucun tampon n'est alors nécessaire dans la MAU.
3.4.3. Fonctions
de
la
MAU
La MAU est un équipement destiné à relier une station à un support donné et à gérer toutes les fonctions dépendantes du support. Une station donnée peut alors être utilisée avec un autre support, en changeant uniquement de MAU. La MAU est une unité d'accès au support qui assure les fonctions suivantes : - transmission d'un signal sur le support, - réception d'un signal en provenance du support,
76
Architecture des réseaux haut débit
- reconnaissance de la présence d'un signal sur le support physique, - reconnaissance d'une collision, - interruption automatique d'une trame anormalement longue. Physiquement, c'est un "boîtier d'accès" rattaché au câble ou encore un circuit sur une carte en fond de panier directement connecté aux bus de la machine.
3.5.
Service
3.5.1. Les
PHY
primitives
de
service
Deux catégories de primitives sont présentes dans la couche physique : - deux primitives pour le transfert de données entre l'utilisateur MAC et le fournisseur de service PLS : • PLS_DATA.request (output_unit), • PLS_DATA.indication (input_unit) ; - deux primitives qui n'ont qu'une signification locale à l'interface MAC-PLS : • PLS_CARRIER.indication (carrier_status), • PLS_SIGNAL.indication (signal_status). Il est à noter qu'il n'y a pas de primitive de confirmation de transfert de données vers l'entité MAC émettrice. Les paramètres output_unit et input_unit représentent un seul élément binaire qui peut prendre l'une de ces valeurs : - ONE, ZERO : valeur binaire de la donnée, - DATA_COMPLETE : transmission terminée (seulement pour output_unit). Le paramètre carrier_status peut prendre les valeurs suivantes : - CARRIER_ON : signal de porteuse détecté par la MAU, - CARRIER_OFF : aucun signal de porteuse détecté par la MAU. Le paramètre signal_status peut prendre les valeurs suivantes : - SIGNAL_ERROR : la MAU a détecté une collision, - NO_SIGNAL_ERROR : la MAU n'a détecté aucune collision.
3.5.2. Génération
et
effets
La primitive PLS_DATA.request est générée par la sous-couche MAC lorsque celle-ci demande à transmettre un bit de données sur le support physique ou à arrêter la transmission. A la réception de cette primitive, l'entité de la sous-couche PLS encode et transmet un seul bit de données ou indique la fin de la transmission, selon le cas.
Ethernet et Ethernet 100 Mbit
77
La primitive PLS_DATA.indication est générée par la sous-couche PLS à destination de toutes les entités MAC du réseau après qu'une primitive de service PLS_DATA.request ait été reçue. La primitive PLS_CARRIER.indication rend compte de l'activité sur le support à la sous-couche MAC. Elle est générée par la sous-couche PLS à chaque changement de valeur du paramètre carrierjstatus. La primitive PLS_SIGNAL.indication indique l'état de la couche physique. Elle est générée par la sous-couche PLS dès qu'il y a un changement de la valeur du paramètre signal_status.
3.6. Les
supports
Ces dernières années ont vu la multiplication des supports CSMA/CD. La plupart des supports sont utilisés en respectant le protocole CSMA/CD tel qu'il est spécifié dans le standard 802.3. Cependant pour augmenter le débit j u s q u ' à 100 Mbit/s, de nouveaux protocoles d'accès ont été développés et qui sont appelés abusivement "Ethernet 100 Mbit". Nous détaillons d'abord le support de base de la spécification — le câble coaxial à 50 ohms ainsi que les répéteurs — et ensuite le support à base de paires torsadées. Nous récapitulons ensuite dans un tableau les principales caractéristiques des autres supports. Dans le paragraphe 3.7, nous présentons les propositions concurrentes pour un réseau Ethernet à 100 Mbit/s. Les différents supports adoptent une notation en trois parties : - débit du support en Mbit/s, - type de support, - longueur maximale d'un segment (unité = 100 m). Ainsi, le support noté 10BASE5 indique que le débit est de 10 Mbit/s, que le support est constitué de câble coaxial bande de base et qu'un segment de ce câble fait au maximum 500 m.
3.6.1. Supports
à base
de câble
coaxial
Trois spécifications à base de câble coaxial ont été définies : 10BASE5, 10BASE2 [IEEE 802.3a] et 10BROAD36. La spécification du support physique de type 10BASE5 (câble épais), basée sur Ethernet, fut la première spécification introduite dans le standard IEEE 802.3. Le support est donc le câble coaxial à 50 ohms blindé de bonne qualité (câble jaune de type RG11). Le support de type 10BASE2 utilise un câble coaxial fin et non blindé (câble noir RG 58), plus souple et plus simple à manipuler [IEEE 802.3a].
78
Architecture des réseaux haut débit
Le débit est de 10 Mbit/s, ce qui n'est pas sans conséquences sur les paramètres du protocole CSMA/CD (cf. 3.2.4). Chaque segment de câble est terminé par un terminateur d'impédance, communément appelé "bouchon", qui évite la réflexion du signal à son arrivée à l'extrémité du câble. Sur ce support, entre deux stations stations adjacentes stations connectées fin.
le codage des signaux se fait adjacentes est un multiple de ne sont pas en phase entre par segment est de 100 sur le
en bande de base. L'espacement 2,5 m, cela afin d'assurer que les elles. Le nombre maximum de câble blindé et de 30 sur le câble
La taille d'un segment est limitée à 500 mètres. Cependant, il est possible d'étendre la longueur du réseau en interconnectant plusieurs segments par l'intermédiaire de répéteurs (unités d'interconnexion permettant d'amplifier le signal), l'ensemble de ces interconnexions se comportant comme un support physique unique. Le standard limite à 4 le nombre de répéteurs sur un chemin de données entre 2 stations, ce qui a pour effet de limiter la longueur totale du réseau à 2,5 km. La spécification 10BROAD36 [IEEE 802.3b] concerne la transmission des services large bande (d'où son nom). Le câble utilisé est le câble CATV à 75 ohms. La transmission se fait par modulation de fréquence sur des segments de 3.6 km maximum.
3.6.2. Les
répéteurs
Nous nous intéressons ici aux répéteurs utilisés pour le réseau 10BASE5 qui est spécifié dans le standard [IEEE 802.3c]. Les répéteurs permettent d'étendre le réseau en juxtaposant deux brins (figure 3.8). Ils sont constitués de deux MAU, chaque MAU étant connectée à un segment différent. Le répéteur est transparent pour le réseau, c'est-à-dire qu'il n'y a pas de mémorisation et que les deux brins ne sont pas isolés l'un de l'autre. En conséquence : - les signaux numériques sont transmis dans les deux directions entre les deux segments ; - au passage, les signaux sont amplifiés et régénérés ; - si un répéteur détecte une collision sur un segment, il transmet des caractères de bourrage sur l'autre segment ; - si deux stations sur deux segments différents émettent en même temps, il y aura collision. Le débit maximum fournit par le réseau est de 10 Mbits/s. Un répéteur permet aussi de connecter des supports de types différents, par exemple : câble épais et câble fin ou câble coaxial et fibre optique. Cependant, les débits doivent être identiques puisqu'il n'y a aucune mémorisation dans un répéteur.
Ethernet et Ethernet 100 Mbit
79
répéteur
station câble terminateur transceiver
Figure 3 . 8 . Réseau
comportant
trois segments
de câble
Il est aussi possible de raccorder via une fibre optique deux segments de câble distants d'au plus 1 km (figure 3.9). La fibre est désignée par le terme de liaison inter-répéteur. Le répéteur contient deux MAU de types différents, d'un côté, la MAU pour câble coaxial et de l'autre, la FOMAU (Fiber Optic Medium Access Unit). Le débit sur la fibre optique sera de 10 Mbit/s.
réseau 10BASE5 ou 10BASE2
segment de fibre optique
répéteur
AUI
AUI FOMAU
Figure 3 . 9 . Raccordement
3.6.3. Supports
répéteur
à base
FOMAU
de deux câbles distants par une fibre
de paires
réseau 10BASE5 *" ou 10BASE2
optique
torsadées
L'utilisation du câble coaxial entraîne un coût non négligeable, de par le support lui-même et l'installation du câblage. L'utilisation de la paire torsadée remédie à ces inconvénients du fait de son coût et du pré-câblage téléphonique des immeubles. Deux spécifications ont vu le jour : 1BASE5 [IEEE 802.3e] et 10BASET (où T signifie Twisted Pair). Les stations sont raccordées en étoile à un équipement appelé hub qui joue le rôle de diffusion du bus passif. Le « hub » est un équipement de niveau physique comme le montre la figure 3.10. Il possède une multitude de ports, un port par connexion à une station. Son architecture comporte deux niveaux : le niveau MDI (Medium Dependent Interface) avec une entité par port d'accès et le niveau PLS pour la communication entre les ports.
80
Architecture des réseaux haut débit
HUB PLS MDI station
MDI hub
MDI station
supérieur
vers les stations
Figure 3.10. Architecture
vers un hub de niveau supérieur
simplifiée
d'un hub
Chaque station est connectée en point à point au hub grâce à deux paires torsadées, une pour chaque sens de transmission. La différence entre 1BASE5 et 10BASET vient du type de paires utilisées : 1BASE5 utilise des câbles UTP catégorie 3 (qualité téléphonique) alors que 10BASET utilise généralement des câbles UTP catégorie 5 (qualité données) et plus rarement des câbles UTP3 ou UTP4. L'utilisation de câbles STP n'est pas définie dans la spécification quoique certains produits les proposent. La longueur de ces paires est au maximum de 250 m pour 1BASE5 et de 100 m pour 10BASET (jusqu'à 150 m en fonction de l'atténuation du signal sur le support qui doit être au maximum de 11,5 dB). Le hub joue le rôle du bus passif : il retransmet les données qu'il reçoit d'une station vers toutes les autres stations. Par ailleurs, si au moins deux stations émettent simultanément vers le hub, il retransmet un signal de présence de collision à toutes les stations. Il est possible d'utiliser plus d'un hub dans un réseau de manière à former une hiérarchie de hubs (figure 3.11). Dans ce cas, un hub de niveau intermédiaire retransmet les données reçues d'une station vers le hub de niveau supérieur. Il retransmet les données reçues d'un hub supérieur à tous les hubs inférieurs et toutes les stations qui lui sont raccordées. Il est spécifié cinq niveaux de hubs au maximum pour satisfaire la contrainte de durée maximale sur le slot-time. Les hubs assurent également la fonction de répétition du signal. hub supérieur
hub intermédiaire
stations F i g u r e 3 . 1 1 . Réseau comportant
hub intermédiaire
stations une hiérarchie
de hubs
Ethernet et Ethernet 100 Mbit
3.6.4. Supports
à base
de fibre
81
optique
Trois types de supports à base de fibre optique ont été normalisés et sont regroupés sous l'appellation 10BASEF ; chaque type correspondant à une topologie différente [IS 8802-3-14]. La transmission de l'information se fait avec un débit de 10 Mbit/s en bande de base. La spécification 10BASEFP (P pour Passive Star) définit une topologie en étoile passive qui fusionne les fibres optiques s'y raccordant et permet l'éclatement du signal lumineux. Le cœur de l'étoile ne comporte aucun composant électronique et son temps de traversée est quasi nul. La distance transmetteur-étoile ne doit pas dépasser 500 m. Le support 10BASEFL (L pour Link) spécifie un type particulier de répéteurs, les répéteurs FOIRL (Fiber Optic Inter Repeater Link) qui permettent l'interconnexion de deux segments de câble ou de fibre optique à distance (figure 3.12). Cette liaison inter-répéteurs est de 1 km dans la première spécification et peut aller jusqu'à 2 km avec la nouvelle. Elle peut aussi servir à bâtir une topologie en étoile autour d'un répéteur multi-port.
réseau 10Base5
réseau 10Base5
fibre optique i répéteur \FOIRL
Figure 3.12. Interconnexion
répéteur FOIRL/
de deux câbles par une fibre
optique
Le support 10BASEFB (B pour Backbone) définit une topologie en étoile active permettant la mise en œuvre d'un réseau fédérateur. Il utilise des transmetteurs optiques FOMAU (Fiber Optic Medium Access Unit). La distance étoiletransmetteur peut aller jusqu'à 2 km.
82
Architecture des réseaux haut débit
3.6.5.
Récapitulatif
10BASET paires torsadées 10 Mbit/s 100 m
10BASEF fibre optique
3 600 m
5 hubs en cascade
—
0,5 m min
—
250 m max
—
100
30
—
—
—
Manchester
Manchester MAU intégrée sur carte contrôleur, compatible 10BASE5 bus
modulation pour les services large bande
Manchester
—
utilise un hub
utilise un hub
bus
étoile
étoile
normes support
10BASE5 coaxial 50
10BASE2 coaxial fin
10BROAD36 câble CATV
débit longueur segment
10 Mbit/s 500 m
10Mbit/s 185 m
10Mbit/s 1 800 m
taille réseau
2 500 m
925 m
interstations nb stations par segment codage remarque
2,5 m min
topologie
bus
Tableau 3.2. Récapitulatif
3.7. Ethernet
100
des différents
10 Mbit/s 1 km
supports
Mbit/s
Les nouveaux services multimédias sont gourmands en bande passante et le réseau local devient le goulot d'étranglement du système. Pour cette raison, tant les constructeurs que les utilisateurs ont la volonté de faire évoluer le réseau Ethernet vers les hauts débits, c'est-à-dire les 100 Mbit/s. Issues des travaux du comité 802.3, deux propositions d'évolution d'Ethernet s'affrontent et ont eu pour résultat la création de deux nouveaux comités : les comités 802.12 et 802.14. Ces deux propositions sont : - Fast Ethernet qui est l'évolution de la spécification 10BASET, définie par le comité 802.14 ; - lOOVGAnyLan utilise un nouveau protocole MAC, défini par le comité 802.12. Parallèlement à ces travaux, des approches totalement différentes mais toutes aussi opérationnelles voient le jour : - commutateur Ethernet, - Ethernet Isochrone.
Ethernet et Ethernet 100 Mbit 3.7.1. Fast
83
Ethernet
Cette proposition est soutenue par 3COM et a conduit à la création d'un nouveau groupe de travail à l'IEEE, le 802.14. La spécification est en cours de finition. Encore appelé 100BASET, Fast Ethernet est l'évolution naturelle de 10BASET. Le protocole reste identique à CSMA/CD et la topologie est en étoile. Fast Ethernet spécifie en fait trois supports différents : - 100BASETX utilise comme 10BASET des paires torsadées non blindées (UTP catégorie 5) mais sur des longueurs de câble réduites (100 m au maximum) pour permettre le débit de 100 Mbit/s. La couche physique est la même que celle de FDDI avec paires torsadées. - 100BASEFX utilise la fibre optique multimode sur des longueurs de plus de 200 m. La couche physique est la même que FDDI pour ce type de fibre. - 100BASET4 (anciennement 4T+) utilise des câbles comprenant 4 paires torsadées catégories 3, 4 ou 5. Trois paires sont utilisées pour les données et une paire pour détecter la collision. La longueur d'un tel câble ne devrait pas dépasser 100 m. Le codage utilisé est cette fois-ci, le codage 8B/6T qui code 8 bits dans 6 "trits" qui est un code à 3 états et permet une fréquence de transmission des symboles de seulement 25 MHz. Le point fort de ces propositions est de rendre possible la migration de 10BASET vers 100BASET en utilisant le même câblage mais avec cependant, de nouveaux composants d'accès. Le codage et le mode de transmission étant le même qu'en 10BASET. il est cependant possible de procéder à une migration progressive du réseau : équiper d'abord les serveurs en cartes 100 Mbit/s puis les stations de travail au fur et à mesure de leur renouvellement.
3.7.2.
lOOVGAnyLan
Cette proposition est supportée par Hewlett-Packard, IBM et A T & T Microelectronics. Elle est à l'étude au sein d'un nouveau groupe de travail, le groupe IEEE 802.12. Son nom « 100VG » provient de "Voice Grade" c'est-à-dire l'utilisation de paires torsadées de qualité téléphonique. Son objectif est, tout comme pour Fast Ethernet, d'augmenter le débit binaire des réseaux 10BASET sans devoir tout recâbler mais aussi d'améliorer l'accès au réseau. La compatibilité avec 10 BASET est assurée pour les points suivants : - topologie en étoile-arbre : hub et liens point à point, - hiérarchie d'au maximum 5 hubs,
84
Architecture des réseaux haut débit
- câblage identique (soit qualité données soit qualité téléphonique), spécifications de pose, de faisceaux et de connecteurs, - même format des trames Ethernet, - même fréquence de transmission (15-16 MHz). Les différences sont : - transmission et signalisation sur les 4 paires au lieu de 2 pour 10BASET, - signalisation Quartet pour la transmission sur les 4 paires à une fréquence faible (30 MHz), - codage plus efficace (5B/6B au lieu du codage Manchester), - un nouveau protocole d'accès au support, le protocole DPAM, - hub intelligent réglant les conflits d'accès grâce au protocole DPAM. Le protocole D P A M (Demand Priority Access Method) vise à améliorer l'utilisation du support qui est très faible avec CSMA/CD (moins de 50 % ) . Il appartient à la famille de protocoles de type polling [Watson 95]. Le partage d'accès au réseau est maintenant centralisé et concentré dans le hub. Une station qui désire transmettre une trame fait une requête vers le hub indiquant son niveau de service. Le niveau de service dépend du type de trafic : synchrone ou asynchrone. Si le réseau est libre, le hub acquitte la requête de la station et celle-ci peut envoyer sa trame vers le hub. Le hub retransmet directement cette trame vers la station destinataire avec une latence et un délai minimaux ; il n'y a pas diffusion. Si plus de deux requêtes arrivent simultanément au hub, il sert d'abord la requête de plus haute priorité. Si elles ont le même niveau de priorité, le hub sert ces requêtes à tour de rôle en allouant la bande passante de manière équitable. Ce protocole ne présente pas de dégradation de ses performances même lorsque la charge augmente. Simplement, le hub retransmet des trames en continu. La bande passante est donc garantie pour les applications de nature critique. Les supports préconisés sont de deux types : - le câble de 4 paires torsadées blindées (STP) avec une longueur maximale de segment limitée à 100 m, - la fibre optique multimode avec une longueur maximale de segment limitée à 1 km. Quoique utilisant un câblage identique à celui de 10BASET, la transmission sur les 4 paires ne permet pas de conserver les équipements de connexion aux paires.
Ethernet et Ethernet 100 Mbit
3.7.3. Ethernet
Full
85
Duplex
Ethernet Full Duplex est encore désigné sous les termes de "Switched Ethernet" ou de "commutateur Ethernet". Dans cette solution, le hub d'une étoile 10BASET est remplacé par un commutateur à très haut débit en vue d'améliorer l'utilisation des équipements par rapport à 10BASET. En effet, lorsqu'un nœud transmet une trame vers son hub de rattachement, ladite trame remonte la hiérarchie puis est rediffusée par le hub racine vers tous ses nœuds et tous les hubs inférieurs et ce, même si les deux nœuds sont connectés au même hub. Le commutateur évite ces transferts inutiles en agissant comme un pont multiport ; il ne retransmet une trame que sur son port de destination et effectue ainsi un routage de la trame. Il est toutefois beaucoup plus rapide qu'un pont car il utilise une technologie de commutation rapide permettant le décodage des adresses au vol sans avoir reçu l'intégralité de la trame puis sa propagation immédiate. Cette technique prend les noms de "retransmission rapide" (fast forward) ou de "routage au vol" (routing on the fly) et diffère donc de la commutation de paquets classique qui utilise le "stockage avant retransmission" (store-and-forward). L'apprentissage des adresses est comparable à celui d'un pont intelligent. Le commutateur améliore encore l'utilisation des équipements, d'une part, en évitant les collisions, chaque station étant connectée à un port différent et d'autre part, en permettant la commutation en parallèle de plusieurs communications. Cette dernière fonctionnalité est liée à l'architecture du commutateur (figure 3.13).
port 5
bulfer de sortie
buffer de sortie
interface Ethernet
interface Ethernet
buffer d'entrée
traitement lié à une interface
port 1
buffer d'entrée
butter de sortie i oiurrutUiiuiii
interface Ethernet
décodage adresse au vol apprentissage adresse source routage
port 2
buffer d'entrée
CPU buffer de sortie
port 4
interface Ethernet
buffer de sortie
table de routage adresse
port
interface Ethernet
buffer d'entrée
F i g u r e 3 . 1 3 . Architecture
buffer d'entrée
interne d'un commutateur
Ethernet
port i
86
Architecture des réseaux haut débit
Les paires torsadées raccordées au commutateur sont utilisées en full duplex (bidirectionnel simultané) avec le même débit d'accès dans chaque sens pouvant aller de 2 Mbit/s à 20 Mbit/s, voire 100 Mbit/s sur certaines implantations (figure 3.14). Par rapport à un pont, un commutateur Ethernet est moins cher mais il ne permet pour l'instant de connecter que des réseaux ou des équipements utilisant le même protocole d'accès. Tout comme les propositions d'Ethernet 100 Mbit/s, il permet de conserver le câblage 10BASET. Les performances varient d'un commutateur à l'autre et dépendent de sa puissance ; celle-ci est définie par sa rapidité de commutation et également par le nombre de communications qu'il peut traiter en parallèle. 16 ports commutés
station \— 10 Mbit/s
1 0
|
1 serveur J I
station
O-
e r v e u r 0 Mbit/s -
Mbit/s
serveur
2
Mbit/s | - 2 Mbit/s
D-
Figure 3 . 1 4 . Schéma
3.7.4. Ethernet
simplifié
d'un
commutateur
Ethernet
isochrone
Une autre proposition est actuellement à l'étude dans le groupe de travail IEEE 802.9. Elle est désignée sous le terme alléchant d"'Ethernet isochrone" bien que le protocole utilisé n'ait rien à voir avec celui d'Ethernet. En effet, le protocole d'accès est de type Slotted et se rapproche donc de celui de DQDB. La topologie est une étoile et le support physique serait compatible avec 10BASET. L'avantage de ce protocole est qu'il permet le transfert de données isochrones.
Ethernet et Ethernet 100 Mbit
87
Exercices Exercice
3.1
Soit un réseau local en bus de longueur D km. La vitesse de propagation du signal sur le support est de V km/s. La capacité de transfert du support est de C bit/s. Donnez la forme de L, longueur minimale d'une trame pour que le protocole CSMA/CD fonctionne. A. N. : C = 10 Mbit/s, D = 2,5 km, V = 100 000 km/s Exercice
3.2
Le protocole CSMA/CD spécifie une longueur minimale de trame de 512 bits. Quelle est la distance maximale d'un chemin de données entre 2 stations pour un réseau à 100 Mbit/s et une vitesse de propagation de 100 000 km/s ? Déduisez la longueur maximale d'un segment de paires torsadées sachant qu'un chemin de données est composé de 2 segments de paires torsadées. Exercice
3.3
Soit un réseau local en bus utilisant un protocole de type CSMA/CD et comportant 4 stations notées A, B, C et D. A l'instant t = 0, la station A commence à transmettre une trame dont le temps d'émission dure 6 slots. A t = 5, les stations B, C et D décident chacune de transmettre une trame de durée 6 slots. L'algorithme de reprise après collision est le suivant : PROCEDURE
backoff
(attempts VAR
{attempts
:
compteur
{maxbackoff CONST
slot_time
: =
VAR
delay
:
de
borne
sup.
51,2
;
=
10 ;
backoff_limit integer
;
:
INTEGER ;
maxbackoff
:
INTEGER)
t e n t a t i v e s de
IF
attempts
=
:=
{attente
avant
IF
attempts
••• FC[n], DA[n], MSDU[n]. classe_service|n], 0. classe jeton) PH_UNITDATA.request (ph_request(symbole)) PM_UNITDATA.request (bit) PIvLSIGNAL.indication (status_transmission) PH_UNITDATA_STATUS.indication (status_transmission) MA_UNITDATA_STATUS.indication (nb_SDU. status^transmission. classe_service) PM.UNITDATA.indication (bit) PH_UNITDATA.indication (ph_indication(symbole)) MAJJNITDATA.indication (FC. DA. SA. MSDU. statusjéceplion) F i g u r e 5 . 1 1 . Utilisation
des primitives
de
service
FDDI (Fiber Distributed Data Interface) 5.5.1 Service
13 7
MAC
L'originalité du service MAC est que la primitive d'émission de données, MA_UNITDATA.request, permet de demander le transfert de plusieurs SDU dans un même appel pour rentabiliser le haut débit du canal. Pour la transmission d'une ou plusieurs SDU d'une sous-couche LLC à une autre sous-couche LLC (voire plusieurs LLC), la sous-couche MAC construit par encapsulation la ou les trames (MPDU — MAC Protocol Data Units) à émettre, à partir de la ou des MSDU (MAC Service Data Units) passées en paramètres de la primitive MA_UNITDATA.request. Chaque sous-ensemble de paramètres {FC, adresse_destination, MSDU, classe_service, suite} caractérise une trame et est en fait traité comme une sous-requête. L'ensemble des paramètres de la primitive permet de créer les MPDU correspondantes aux différentes MSDU. A la réception et capture d'un jeton approprié, la station commence à émettre ses trames dans l'ordre précisé par la primitive et en accord avec les règles de temps de maintien du jeton (THT) et de temps de rotation du jeton (TRT). Lors de la transmission, une séquence de contrôle (FCS) est calculée pour chaque trame et est insérée en fin de trame. Si TRT ou THT expire ou qu'une trame ne peut être émise du fait de son paramètre classe_service (si TRT a expiré ou THT = 0 seules les trames synchrones peuvent être émises), alors la transmission cesse et un jeton est généré, en fonction du paramètre classejeton (restreint ou non). La primitive MA_UNITDATA_STATUS.indication fournit une réponse locale à la primitive MA_UNITDATA.request précédemment invoquée, signifiant le succès ou l'échec de cette dernière via le paramètre status_transmission. Elle est équivalente à la primitive de confirmation des protocoles IEEE. Le paramètre nb_SDU détermine le nombre de MSDU transmises. Si la requête portait sur plus d'une MSDU, status_transmission s'applique à toutes les MSDU transmises ; il indique en fait si les indicateurs A et C de la trame MAC ont été correctement positionnés par l'entité distante MAC. Le paramètre classe_service indique la classe de service qui a été fournie pour le transfert (synchrone ou asynchrone). La primitive MA_UNITDATA.indication indique le transfert de données de la sous-couche MAC à la sous-couche LLC au niveau des entités réceptrices. Il y a une indication générée pour chaque trame reçue. Ses paramètres sont FC — la valeur du champ FC de la trame MAC, DA — l'adresse du destinataire, MSDU — le champ d'information de la trame — et le paramètre status_réception qui indique si la trame reçue par la couche MAC est correcte ou non.
5.5.2 Services
PHY
et
PMD
La primitive PH_UNITDATA.request définit le transfert de données d'une souscouche MAC à l'entité physique locale. Le symbole spécifié par le paramètre ph_request (symbole) est l'un des suivants : J, K, T, R, S, I ou alors l'un des symboles de données appartenant à {0..9, A, B, C, D, E, F } .
138 Architecture des réseaux haut débit L'entité physique envoie à son entité M A C utilisatrice une primitive PH_UNITDATA.indication chaque fois que la couche physique décode un symbole. La primitive PH_UNITDATA_STATUS.indication fournit un acquittement local à la primitive PH-UNITDATA.request. Le paramètre status_transmission indique le succès ou l'échec de la requête. La primitive PM_UNIDATA.request permet à une entité PHY de transmettre un code-bit NRZI à une entité PMD. Inversement, l'indication correspondante, PM_UNITDATA.indication, est utilisée par une entité PMD pour transmettre un code-bit NRZI à une entité PHY. La primitive PM_SIGNAL.indication permet à une entité PMD d'indiquer à une entité PHY le niveau du signal optique reçu par cette même entité PMD. Le status est correct si le niveau du signal est en dessus d'une valeur seuil minimum.
5.6. Administration
de
FDDI
Toute la difficulté du protocole FDDI réside dans la gestion de l'anneau. Il faut qu'en cas de problème, la continuité de l'anneau soit préservée, que l'allocation des ressources reste équitable, que la prise du jeton soit renégociée, les erreurs détectées et corrigées, etc. Le protocole Token Ring (cf. chapitre 4) utilise une station particulière, appelée moniteur, ayant en charge la totalité de la gestion du réseau. Cependant, à la suite d'un incident, l'anneau FDDI peut être partitionné en plusieurs sous-anneaux. L'approche moniteur centralisé nécessiterait alors un gestionnaire par sous-anneau. De plus, une station à double attachement peut, le cas échéant, constituer un anneau à elle seule et elle doit par conséquent être en mesure de s'autogérer. C'est pourquoi il a été décidé qu'une entité de gestion serait présente dans chacun des nœuds FDDI — station ou concentrateur. Cette entité de gestion locale qui fait partie intégrale d'une station FDDI est appelée SMT (Station ManagemenT) [IS 10608-14]. Chaque station est gérée par un agent qui décide des actions à entreprendre. Il donne des ordres ou demande des informations à la station et reçoit des notifications d'elle. Les différents agents du réseau FDDI peuvent s'échanger des informations via des protocoles prévus à cet effet. A titre d'exemple, l'un des protocoles permet à une station d'obtenir l'adresse MAC de la station adjacente. Chaque entité SMT gère sa propre MIB (Management Information Base) qu'elle met à jour régulièrement grâce aux réponses aux requêtes qu'elle envoie et aux notifications reçues lors de changements significatifs des paramètres opérationnels. Un protocole offre la possibilité à une entité SMT de consulter, voire de modifier des objets d'une entité SMT distante. SMT contrôle le fonctionnement des couches MAC, PHY et PMD, fournit des services au système de gestion du réseau NMS (Network Management System) et
FDDI (Fiber Distributed Data Interface)
139
communique avec d'autres agents SMT. Son rôle principal est la gestion de la configuration du réseau, ce qui regroupe la gestion des connexions, du bypass, de l'initialisation, de la détection d'erreurs ou de pannes, de la reconfiguration, de la détection d'adresses dupliquées, etc. SMT doit initialiser la couche MAC en lui transmettant les paramètres dont elle a besoin et peut à tout moment effectuer des modifications selon le comportement du réseau. De façon plus générale, on a deux types de communications : - les communications inter-stations : elles utilisent des protocoles de gestion distante (cf. 5.6.2) ; - les communications intra-station qui concernent l'ensemble des informations échangées entre SMT et les différentes couches composant une station FDDI ainsi que les échanges mis en œuvre pour le fonctionnement et la synchronisation des automates constituant l'entité SMT. Le travail à effectuer par SMT est décomposé et réalisé par des sous-entités. Il n'est en effet pas concevable qu'une entité de gestion s'occupe de l'attachement au lien, de la connexion des différents ports, de la configuration et de la couche MAC. SMT est donc découpé en plusieurs entités auxquelles sont associés des automates décrivant leur fonctionnement.
5.6.1. Blocs
et
entités
SMT
SMT est composé de deux grands blocs : CMT (Connection ManagemenT) et RMT (Ring ManagemenT). 5.6.1.1. Lé- bloc CMT CMT est responsable de la gestion des composants de la couche physique et de leurs interconnexions ainsi que de la configuration des entités MAC et PHY à l'intérieur d'une station pour réaliser l'attachement logique de cette station au réseau FDDI. Un attachement physique à FDDI comprend un ou plusieurs ports, une entité PHY et une entité PMD par port ainsi qu'une ou plusieurs entités MAC. Une entité port implémente les sous-couches PHY et PMD et garantit le codage et décodage des symboles ainsi que leur transmission à travers le support optique. C M T réalise l'insertion et le retrait de port, la connexion des entités de port PHY aux entités MAC. Il contrôle et dirige l'établissement de l'attachement du média au réseau FDDI et les connexions physiques avec les ports des autres stations et concentrateurs. Les fonctions de CMT sont : - l'établissement et l'initialisation des connexions physiques : • lancement du test du chemin, • contrôle du commutateur optique de dérivation (bypass), • test de continuité de la connexion, • refus des connexions illégales ou indésirables, • signaux sur la topologie physique,
140
Architecture des réseaux haut débit
• boucle locale de configuration avec le MAC voisin ; - le contrôle de la configuration de la station : • placement des entités MAC valides ; - la détection des fautes au niveau physique : • surveillance de la continuité du lien, • reconfiguration sur faute de niveau physique ; - le support des fonctions de traçage des fautes ; - le test de fiabilité des liens ; - le contrôle de la qualité des liens ; - le support des états de maintenance de ligne ; - l'indication de disponibilité de connexion. C M T est composé de trois entités : - l'ECM (Entity Coordination Management) porte sur l'interface entre le média et le réseau FDDI (coordination de tous les ports associés avec cet attachement physique et contrôle de la fonction de dérivation de la couche PMD). Elle avertit l'entité PCM lorsque le médium est disponible et lance le test du chemin pour localiser les fautes (MAC local et MAC amont). Il n'y a qu'une seule instance d'ECM présente dans une station ou un concentrateur FDDI ; - l'entité PCM (Physical Connection Management) gère la connexion physique entre un port local et un port d'une autre station. Elle initialise la connexion des ports voisins et gère les signaux entre ces ports. Elle fournit les signaux nécessaires à l'initialisation d'une connexion, au refus d'une mauvaise connexion et à la maintenance. Il n'y à qu'une instance de PCM par port d'attachement ; - l'entité CEM (Configuration Element Management) gère la configuration des entités MAC et des ports à l'intérieur d'une station ou d'un concentrateur. Elle réalise l'interconnexion des entités PHY et MAC pour configurer les ports et les entités M A C dans un nœud. Afin de réaliser ces interconnexions, des "commutateurs", appelés CCE (Configuration Control Element), sont nécessaires. On peut les voir comme des aiguillages qui relient des ports et des entités MAC à l'intérieur d'une station. Les commutateurs réalisent donc la notion de chemin (path), un chemin étant l'interconnexion entre une entité port et une entité MAC. CEM connecte et déconnecte les ports selon les drapeaux de PCM. Il y a une instance de CEM par port. 5.6.1.2. Le bloc
RMT
RMT est responsable de la gestion de la couche MAC. Il reçoit des informations d'état en provenance de MAC et CMT et rapporte l'état de MAC. Il y a une instance de RMT par entité MAC.
F D D I (Fiber Distributed Data Interface)
141
Les fonctions de RMT sont : - la détection des fautes dans la couche MAC : • identification d'un échec de Beacon, • détection des duplications d'adresses qui empêchent l'anneau de devenir opérationnel, • résolution des duplications d'adresses pour rendre l'anneau opérationnel ; - l'initialisation des fonctions de traçage d'erreurs ; - la notification de la disponibilité de MAC pour l'envoi de données.
autres entités de gestion de station
La figure 5.12 résume l'architecture de SMT au niveau d'une station FDDI.
RMT
MAC / par MAC
E
pkrpo* CCE
CEM
C M / par nœud
/ pkrpoM PHY PCM PMD
CMT
contrôle du commutateur opt de dérivation
mm Figure 5.12. L'architecture
5.6.2. Les
services
port
de SMT
SMT
Les fonctions et services de trames SMT peuvent être utilisés par des fonctions de gestion de plus haut niveau qui rassemblent des informations et exercent un contrôle sur le réseau FDDI. En effet, SMT sert d'interface entre les stations de l'anneau FDDI et le système de gestion du réseau NMS (Network Management System). SMT transmet à NMS les informations recueillies tout au long de l'acheminement des trames, comme par exemple les taux d'erreurs ou le nombre de trames envoyées ou reçues. Des protocoles de communication inter-stations permettent d'établir des statistiques sur le réseau, de détecter, d'isoler et de résoudre les fautes survenues sur un anneau, de surveiller la configuration du réseau et les paramètres opérationnels, tout cela pour satisfaire les exigences de performance et de connectivité des applications :
1 42
Architecture des réseaux haut débit
- Neighbor
Notification
Protocol
permet :
• à MAC de déterminer l'adresse logique de la station en amont et celle de la station en aval, • de détecter les duplications d'adresses MAC SMT sur un anneau opérationnel, • de vérifier périodiquement les opérations du MAC local (chemins d'émission et de réception). Ces fonctions sont réalisées périodiquement en échangeant des trames NIF (Neighbor Information Frame) entre MAC et son voisin en aval le plus proche ; - Status Report Protocol permet à une station d'annoncer périodiquement son état. Lorsque des compteurs ont dépassé des seuils donnés, des conditions sont signalées à l'aide de trames SRF (Status Report Frame). Par exemple, une condition d'erreur de trame MAC est activée si le taux d'erreurs des trames MAC excède un seuil prédéfini ou, encore, une condition de duplication d'adresse est signalée si une entité MAC détecte qu'elle ou sa voisine en amont possède une adresse dupliquée ; - Parameter Management Protocol permet une gestion à distance des stations en agissant sur l'ensemble des attributs de la MIB FDDI d'une station par l'intermédiaire d'opérations Get, Add, Change et Remove. Les trames PMF (Parameter Management Frame) permettent de réaliser ces opérations. Bien que SMT ait défini ses propres protocoles pour la gestion à distance de stations FDDI, d'autres protocoles de gestion système peuvent être utilisés, tels que SNMP d'Internet ou CMIP de l'ISO. De plus, la communauté Internet a développé une MIB FDDI SNMP pouvant être manipulée par le protocole SNMP. Il existe entre SMT et les différentes couches de FDDI (MAC, PHY et PMD) des primitives de services permettant à SMT de contrôler et de gérer ces couches. Ces primitives sont internes à la station : - entre SMT et MAC : • SM_MA_INITIALIZE_PROTOCOL.request est utilisée pour une demande de reconfiguration de la couche MAC acquittée par une indication qui indique le succès ou l'échec de la primitive ; • SM_MA_UNITDATA.request permet le transfert de données vers une ou plusieurs entités SMT homologues acquittée par une indication qui indique le succès ou l'échec de la primitive ; • SM_MA_TOKEN.request est utilisée par SMT pour demander le jeton lorsque des données doivent être transférées alors qu'elles présentent des contraintes de temps ;
FDDI (Fiber Distributed Data Interface)
143
- entre RMT et MAC : • SM_MA_CONTROL.request permet de contrôler des opérations de l'entité MAC locale. Une indication permet alors à MAC d'informer SMT des changements d'états significatifs étant survenus ; - entre CMT et PHY : • SM_PH_LINE_STATE.request correspond à une demande d'émission pour un flot continu de symboles identiques (lors de l'insertion ou du retrait d'une station) ; • SM_PH_CONTROL.request permet le contrôle des opérations de PHY. Une indication permet ensuite à PHY d'avertir CMT des changements d'états ; - entre SMT et PMD : • SM_PM_Signal.Indication permet à PMD de renseigner SMT sur l'état du niveau du signal optique entrant ; - entre CMT et PMD : • SM_PM_CONTROL.request permet l'activation/désactivation de l'émetteur optique par SMT ; • SM_PM_BYPASS.request permet l'insertion ou le retrait de SMT de l'anneau ; - entre SMT et RMT : • SM_RM_CONTROL.request permet à SMT de contrôler RMT. Une indication permet alors à RMT d'informer une entité SMT locale de changements significatifs (machine à états, MAC_Avail, Loop_Avail, Trace_started, DA_Flag, NO_Flag) ; - entre SMT et CMT : • SM_CM_CONNECT.request : SMT, par cette primitive, demande à CMT d'entamer une séquence de connexion ou de déconnexion ; • SM_CM_CONTROL.request permet à SMT de contrôler C M T . Une indication émise par CMT notifie SMT de changements d'états significatifs (machine de ECM ou CFM, Path_test, etc.). D'un point de vue administration de réseaux (modèle organisationnel), MAC est un Agent pour RMT et RMT est un Manager pour MAC. Aussi, PHY et PMD sont des Agents pour CMT et CMT est un Manager pour PHY et PMD. De la même façon, RMT et CMT sont des Agents pour SMT et SMT est un Manager pour RMT et CMT.
144 Architecture des réseaux haut débit
5.6.3. La MIB
SMT
Dans la spécification de SMT, un certain nombre d'objets de gestion sont définis, avec leurs attributs, les actions qu'ils supportent et les notifications qu'ils émettent, dans le but de faciliter l'administration d'un réseau FDDI dans un environnement OSI. La figure 5.13 décrit le modèle de gestion de FDDI. Elle montre les relations entre les objets de gestion d'un réseau FDDI et les composants de SMT. Les objets de gestion dans S M T sont ceux de la station (ou du concentrateur), de ses entités MAC, de ses chemins et de ses ports. chemins de données en transmission
chemins de données •n réception
trames SMT >pérations _
RMT nnérntinns
agent de gestion
objet SMT
lOtifications
opérations
notifications
notifications
abjet(s) MAC
objet(s) D A TU
CMT opérations notifications
objet(s) PORT
station FDDI
Figure 5.13. Le modèle
de gestion de SMT
La classe d'objets SMT modélise l'ensemble des informations nécessaires à la gestion d'un nœud FDDI. Une seule entité SMT y est présente. La classe d'objets SMT contient des attributs (identificateur de la station, numéro de version, nombre de MAC dans la station, chemins disponibles dans la station, possibilités de configuration, états des automates ECM et CFM, etc.), des opérations (actions sur SMT) et des notifications. La classe d'objets MAC modélise l'ensemble des informations nécessaires à la gestion d'entités MAC à l'intérieur d'un nœud FDDI. Plusieurs entités MAC peuvent y être présentes (jusqu'à 255). A chaque entité MAC est associée une instance de la classe d'objets MAC. La classe d'objets MAC contient des attributs (nombre de trames reçues ou transmises, valeurs maximales pour T_MAX et TVX, état de l'automate de RMT, etc.), des opérations (actions sur MAC) et des notifications.
FDDI (Fiber Distributed Data Interface)
145
La classe d'objets PORT modélise l'ensemble des informations nécessaires à la gestion d'entités PORT à l'intérieur d'un nœud FDDI. Plusieurs entités PORT peuvent y être présentes (jusqu'à 255). A chaque entité PORT est associée une instance de la classe d'objets PORT. La classe d'objets PORT contient des attributs (type du port, état des automates de CEM et de PCM, taux d'erreurs sur le lien, raison du refus de la connexion, etc.), des opérations (actions sur PORT) et des notifications. La classe d'objets PATH modélise l'ensemble des informations nécessaires à la gestion d'entités PATH à l'intérieur d'une station — les chemins. A chaque entité PATH est associée une instance de la classe d'objets PATH. Un PATH permet d'interconnecter les PORT et les MAC. La classe d'objets PATH contient des attributs (status du chemin, configuration du chemin, allocation de la bande passante synchrone pour ce chemin, valeurs maximales de T_MAX et TVX pour le chemin, etc.), des opérations (actions sur PATH) et des notifications.
5.7. L a c o u c h e
physique
Comme nous l'avons vu en figure 5.2, la couche physique est divisée en deux sous-couches, PMD (Physical Medium Dependent) et PHY.
5.7.1. Couches
PHY
et
PMD
La sous-couche PHY a pour principal objectif d'offrir une interface identique à la sous-couche MAC quelle que soit la PMD sous-jacente c'est-à-dire quel que soit le support. Elle est responsable de la transmission de bits sur le support physique, du codage/décodage et de la synchronisation. La technique de codage adoptée, pour des raisons d'efficacité, est le codage 4B/5B NRZI qui consiste à associer à tout groupe de 4 bits un mot de code de 5 bits appelé symbole. L'intérêt de ce type de codage est d'éliminer les longues suites de 0 (qui pourraient empêcher le récepteur de se synchroniser sur l'horloge de l'émetteur) et de permettre l'introduction de symboles supplémentaires utiles au protocole. Les symboles de 5 bits sont ensuite codés selon le procédé NRZI (Non Return to Zero Inverted) qui consiste à produire une transition du signal sur la ligne chaque fois et uniquement lorsqu'un bit à 1 est transmis, afin de maintenir la synchronisation du récepteur sur l'émetteur. La figure 5.14 (a) montre un exemple de codage NRZI.
1 46
Architecture des réseaux haut débit
1
1
1
1
— p é r i o d e — 2
1
1
1
1
bits par période (62,5 Mhz)
(a) NRZI 1
1
i
i
î
i
!
i
4 bits par période (32,25 Mhz)
- période-
(b) MLT-3 Figure 5.14. Codage d'une suite de "I"
5.7.2. Couche
PMD
et supports
de
FDDI
La couche PMD spécifie toutes les caractéristiques optiques et physiques des équipements employés pour assurer une connexion entre deux stations adjacentes de l'anneau (câbles, connecteurs, commutateurs, émetteurs et récepteurs optiques). Au départ, une seule PMD a été normalisée, basée sur une fibre multi mode. Du fait du coût de son raccordement, des propositions plus économiques ont été faites utilisant soit une fibre moins chère (Low-Cost Fiber) ou la paire torsadée. Ces propositions sont conçues par l'ANSI et en cours de normalisation à l'ISO. Cependant des produits sont d'ores et déjà disponibles sur le marché. 5.7.2.1.
MMF-PMD
Initialement, PMD [IS 9314-3] spécifie les caractéristiques de la station et le câblage sur la base de fibre multimode (à gradient d'indice 62,5/125 u m de préférence) ou monomode (8-10 um). D'autres fibres multimodes peuvent être utilisées, aussi la norme spécifie les paramètres de qualité du signal à respecter de manière à assurer l'interopérabilité. Le choix de ce support a été motivé par sa qualité, tant au niveau de sa bande passante (autorisant des débits élevés) que de sa faible atténuation (autorisant des distances de transmission importantes) et que de son immunité aux bruits (limitant le taux d'erreurs de transmission). PMD spécifie un connecteur optique duplex à base de LED (cf. 2.3.4) transmettant sur une longueur d'onde nominale de 1 300 nm sur des liens d'au plus 2 km.
FDDI (Fiber Distributed Data Interface)
5.7.2.2.
147
SMF-PMD
Certains réseaux FDDI nécessitent des connexions inter-stations supérieures à 2 km c'est pourquoi il a été spécifié une couche SMF-PMD (Single Mode FiberPMD) [ANSI 184]. Sur fibre optique monomode, l'émission se fait grâce à des diodes lasers permettant l'extension de la distance inter-stations jusqu'à 60 km sur des réseaux privés. 5.7.2.3. FDDI sur
SONET
Pour fédérer des réseaux locaux relativement distants, il a été proposé une alternative au lien direct par câble privé en utilisant le système de transmission public sur fibre optique, SONET (Synchronous Optical NET work) [ANSI Tl-105]. SONET est un système de transmission optique numérique utilisé dans les réseaux publics qui définit une hiérarchie de débit ainsi qu'une structure d'enveloppe — il est décrit en détail dans le chapitre 8. FDDI sur SONET (SPM — SONET Physicallayer Mapping) utilise le niveau STS-3 à 155 Mbit/s. 5.7.2.4.
TP-PMD
Malgré ses performances, la méthode d'accès FDDI est restée marginale, avec une utilisation principalement confinée à la fédération de réseaux locaux classiques. Pour basculer de la dizaine de Mbit/s offerte par Ethernet ou Token Ring à la centaine de Mbit/s offerte par FDDI, il est nécessaire de procéder à un recâblage des locaux, d'installer des concentrateurs FDDI, d'installer des cartes à composants optiques onéreux, etc. En fait, le coût élevé des composants optiques s'est avéré être le principal obstacle à un déploiement rapide de FDDI, même s'il a diminué de plus de 50 % dans ses quatre premières années. Tout cela a amené un bon nombre de constructeurs à démarrer des développements de FDDI sur paires torsadées, avec des appellations diverses : générique avec CDDI (Copper DDI) ou plus spécifiques avec TP-DDI (Twisted Pair DDI) ou SDDI (Shielded twisted pair DDI). Parallèlement, un projet de normalisation du protocole sur câblage en cuivre était lancé à l'ANSI et devrait être validé sous le nom de TP-PMD (Twisted Pair — Physical Medium Dependent) [ANSI 201]. Les principaux problèmes engendrés par l'utilisation de supports métalliques sont liés à la puissance du signal et aux interférences électromagnétiques. En effet, l'atténuation augmente avec l'élévation de la fréquence du signal et, pour maintenir un bon rapport signal sur bruit, il faut soit augmenter le niveau de signal (davantage de puissance), soit avoir recours à des techniques de codage qui produisent des signaux à fréquence plus faible. L'augmentation de puissance entraînant une augmentation des interférences, il est alors préférable d'utiliser des techniques de codages adaptées.
1 48
Architecture des réseaux haut débit
Les supports retenus sont la paire torsadée blindée (STP) type 1 et la paire torsadée non blindée (UTP) catégorie 5. Dans le cas du premier, le blindage présente l'avantage de prévenir les interférences électromagnétiques et l'utilisation du codage 4B/5B NRZI reste possible. Dans le cas de la paire non blindée, la technique de codage qui a été retenue est le MLT-3 (MultiLevel Transmission 3). Ce codage peut être vu comme une extension du NRZI sur trois niveaux. Ces trois niveaux sont représentés par +1, 0 et - 1 . Comme dans le NRZI, un bit à 0 est codé par l'absence de transition, et un bit à 1 par la présence d'une transition. Les transitions successives vont dans le même sens (elles sont soit ascendantes, soit descendantes) mais changent de sens dès que le signal atteint le niveau +1 ou - 1 . La figure 5.14 donne l'exemple du codage d'une suite de huit bits à " 1 " dans le cas du NRZI à deux niveaux et du MLT-3 à trois niveaux. Après le codage 4B/5B, le signal FDDI a un débit binaire brut de 125 Mbit/s (100 Mbit/s utiles * 5/4). Avec le codage NRZI, chaque période de signal consistant en 2 bits, on obtient une fréquence de signal à 62,5 MHz. Avec le codage MLT-3, la période est de 4 bits et conduit à une fréquence de 32,25 MHz. Pour renforcer la protection contre les interférences électromagnétiques, l'ANSI a également adopté un mécanisme d'embrouillage chargé de répartir uniformément l'énergie du signal sur tout son spectre. Depuis la mi-93, les annonces de produits TP-PMD sont nombreuses. Malheureusement, le standard n'étant pas définitivement figé, ces offres restent plus ou moins propriétaires (attention à l'inter-opérabilité !). Par ailleurs, la baisse continuelle du prix de la fibre et des composants optiques ainsi que la limitation en distances (100 m au lieu de 2 km pour FDDI) expliquent en partie le peu d'intérêt porté à cette technologie par les constructeurs et les utilisateurs. 5.7.2.5.
LCF-PMD
Toujours dans l'optique de diminuer les coûts de FDDI, l'ANSI, parallèlement à ses travaux sur TP-PMD, a créé un comité appelé LCF-PMD (Low-Cost Fiber — Physical Medium Dependent) [ANSI 237]. Comme le nom le suggère, le comité s'était donné comme objectif de trouver une fibre moins chère que la fibre multimode 62,5/125 um spécifiée dans la norme FDDI. D'autres alternatives, telles que la fibre plastique ou la fibre 200/300 um, ont été considérées avant d'être abandonnées dès lors qu'il fut admis que le coût réel portait, non pas sur la fibre elle-même, mais sur les équipements. La suite des travaux a donc porté sur la spécification d'émetteurs et de récepteurs optiques à moindre coût. Ces derniers sont moins chers car d'une part, la distance maximale entre deux équipements a été ramenée à 500 m et d'autre part, les contraintes de qualité (puissance d'émission et de réception) ont été rendues moins strictes.
FDDI (Fiber Distributed Data Interface)
149
5.8. Les dérivés 5.8.1. FDDI
II
FDDI II est une extension de FDDI qui lui reste compatible [IS 9314-5]. II ajoute à F D D I la possibilité d'acheminer du trafic isochrone (véhiculé traditionnellement grâce à une technique de commutation de circuits) en sus des trafics asynchrone et synchrone (généralement véhiculés par commutation de paquets). En effet, FDDI ne se prête pas à la transmission de flux continus à débit constant. Même si la classe de service synchrone permet de garantir un débit minimum, elle ne permet pas de traiter et de restituer un flux de données uniforme sans aucune variation. Les services visés sont ceux qui nécessitent un accès strictement périodique, tels que la voix, le son ou encore les images numériques. La technique utilisée dans FDDI II pour rendre un service en mode circuit consiste à imposer une structure de trame toutes les 125 us. Une connexion en mode circuit repose alors sur un intervalle de temps donné dans la trame récurrente. Les canaux sont établis par SMT. 5.8.1.1. Architecture
de FDDI II
La couche physique et SMT sont semblables à ceux de FDDI. La différence porte sur la sous-couche MAC. Deux nouveaux composants y sont introduits (figure 5.15) : - HMUX (Hybrid Multiplexer) se charge de multiplexer les trames MAC et les données isochrones soumises par IMAC, - IMAC (Isochronous MAC) fournit une interface entre FDDI et le service isochrone (représenté par le multiplexeur de circuits commutés). LLC
multiplexeur de circuits commutés
MAC IMAC
HMUX
s M T
PHY
PMD
Figure 5.15. Architecture
de FDDI II
1 5 0 Architecture des réseaux haut débit
5.8.1.2. Mode de fonctionnement
hybride
Un réseau FDDI II peut fonctionner selon deux modes : - en mode de base : seul le service en mode paquet est disponible et on retrouve alors un fonctionnement strictement identique à celui de FDDI ; - en mode hybride : les services en mode paquet et en mode circuit sont simultanément offerts. Quand des stations FDDI et FDDI II coexistent sur un même réseau, seul le mode de base peut être utilisé. Lorsque le mode de fonctionnement hybride est utilisé, une station primaire est chargée de générer un cycle toutes les 125 u s . Un cycle est en fait une trame circulant sur l'anneau et dont le contenu est visible par toutes les stations du réseau. Il sera retiré de l'anneau par cette même station primaire. A 100 Mbit/s, la longueur d'un cycle est de 12 500 bits. Sa structure est donnée en figure 5.16. On y trouve un préambule de 5 symboles, soit 20 bits, servant à assurer la synchronisation, l'en-tête de cycle, codé sur 12 octets et contenant des informations sur l'utilisation du reste du cycle, 16 canaux à haut débit (WBC — Wide Band Channel) de 96 octets chacun et, enfin, le DPG (Dedicated Packet Group) constitué de 12 octets dédiés uniquement au trafic de type paquet et entrelacés avec les 16 WBC. A un instant donné, l'anneau peut contenir plusieurs cycles. en-tête de cycle
préambule
DPG 0[
DPG 11L
• 16 octets ~
F i g u r e 5 . 1 6 . Structure d'un cycle FDDI II
% rangées
WBC is
WBC 14
WBC 13
WBC 12
WBC 1 1
WBC 10
WBC 9
WBC 8
WBC 7
WBC 6
WBC 5
WBC 4
WBC 3
WBC 2
WBC 1
WBCO^
DPG 1
FDDI (Fiber Distributed Data Interface)
15 1
Chaque canal à haut débit offre une capacité de 6,144 Mbit/s et peut être utilisé en mode circuit comme en mode paquet. En regroupant tous les canaux utilisés en mode paquet avec le DPG, on obtient un canal de paquets de données, dont la capacité varie alors de 768 kbit/s à 99,072 Mbit/s par pas de 6,144 Mbit/s et dont l'accès est contrôlé par le mécanisme de jeton temporisé. La répartition des octets sur les différents canaux est réalisée par le multiplexeur hybride HMUX. La sous-couche IMAC peut diviser un canal WBC en sous-canaux. Le tableau 5.2 donne la répartition de la capacité entre les différents canaux.
nombre de bits par cycle
débit (Mbit/s)
surdébit (préambule + en-tête) N canaux en mode circuit canal de paquets de données
116 N*768 96 + ( 1 6 - N ) * 768
total
12 500
0,928 N * 6,144 0.768 + ( 1 6 - N ) * 6,144 100
Tableau 5.2. Répartition
de la capacité
entre les canaux
5.8.2. F FOL FDDI et FDDI II fonctionnent tous deux à 100 Mbit/s et il faudrait un réseau fédérateur offrant un débit encore plus élevé pour interconnecter plusieurs réseaux FDDI. Aussi a-t-il été ressenti, au sein de l'ANSI, le besoin d'une suite au réseau FDDI qui serait à FDDI ce que FDDI est aux réseaux tels que Token Ring. Le projet FFOL (FDDI Follow-On Lan) a ainsi démarré sur une nouvelle génération de réseaux à hauts débits [Ross 92], [Hamstra 92], [Fink 92]. Les objectifs visés initialement étaient de : - servir de réseau fédérateur, de la même façon que FDDI, dans un premier temps ; - servir de réseau local d'attachement de stations, dans un deuxième temps, ce pour répondre aux besoins d'interconnexion de stations de travail à très hautes performances ; - tirer profit de l'expérience acquise avec FDDI ; - anticiper le besoin (FDDI a mis 8 ans pour être complètement spécifié) ; - être prêt pour 1995 (!!!). Pour atteindre ces objectifs, la démarche qui a été choisie a été, non pas une mise à niveau de FDDI, mais plutôt une refonte complète des protocoles et des services, notamment pour des raisons de compatibilité avec les débits des transporteurs internationaux (SDH) et les systèmes de transmission de cellules.
I 52
Architecture des réseaux haut débit
Les besoins qui ont été identifiés pour FFOL sont nombreux et portent sur différents points : - les services : FFOL doit présenter bien évidemment une compatibilité ascendante avec ses prédécesseurs FDDI (services asynchrone et synchrone) et FDDI II (service isochrone des canaux à large bande). Il doit permettre aisément l'interconnexion de plusieurs réseaux FDDI, aussi bien que l'interconnexion avec SMDS ou le BISDN. Enfin, l'éventail des applications à supporter est très large et va des applications traditionnelles (transfert de fichiers, transactionnel) aux nouvelles applications multimédias, en passant par les applications temps réel. - les débits : 1,25 Gbit/s sur de la fibre optique multimode, les débits de charge utile devant être conformes à ceux définis dans la hiérarchie SDH ; - la topologie et les considérations de câblage : la topologie de câblage en anneau double est à conserver pour pouvoir utiliser des réseaux FDDI existants ou des pré-câblages d'immeubles en fibre optique ; - le codage : il est sujet à discussion, un codage de type 4B/6B ou de type 8B/10B — qui autoriserait davantage de codes de contrôle — ou un autre procédé qui permettrait d'augmenter le parallélisme sur l'interface électrique ? - les modes d'accès au support : FFOL doit supporter le mode paquet pour les services asynchrone et synchrone, le mode circuit pour le service isochrone et aussi le mode asynchrone (type ATM) pour les services avec ou sans connexion ; - les méthodes d'accès au support : les techniques envisagées sont l'anneau ou le bus avec temps discrétisé, l'anneau ou le bus à insertion de registre ou encore l'anneau ou le bus à jeton ; - la topologie logique : l'anneau et le bus permettent un point de contrôle centralisé pour générer des tranches de temps ou allouer des ressources. L'anneau permet de plus un mécanisme de reprise réparti et de son côté, le bus ne pose pas de problème de retrait de trames ; - les propriétés de l'accès au support : il s'agit principalement de mécanismes de réservations, de pré-allocations et de priorités, du mécanisme utilisé pour retirer les trames dans le cas d'un anneau et du multicast (envois multi-destinataires) ; - la reprise sur erreur et sur panne : elle est vue au travers d'un mécanisme de redondance et de temps maximum pour la reprise et la reconfiguration. Les travaux au sein de l'ANSI sont en cours mais ils ont été récemment ralentis par la mise en concurrence avec d'autres standards visant le gigabit (ATM, HIPPI (High Performance Parallel Interface), etc.) [Tolmie 92].
FDDI (Fiber Distributed Data Interface)
1 53
Exercices Exercice
5.1
Comparez les réseaux FDDI et Token Ring en termes de débit, codage, taille maximale de trame, format de trame, système de priorités, relâche du jeton, topologie, distance inter-stations et de couverture géographique. Exercice
5.2
Indiquez la signification des bits A, C et E situés dans le champ FS de la trame FDDI et précisez leur rôle. Exercice
5.3
La couche physique du protocole FDDI utilise le codage 4B/5B NRZI, chaque symbole étant codé sur 5 bits. Comme le codage Manchester, il assure suffisamment de transitions pour éviter une dérive de phase entre les horloges de la station émettrice et de la station réceptrice. Quel est donc l'avantage d'un tel codage par rapport au codage Manchester habituellement utilisé ? Exercice
5.4
Remplacez les ... par les mots manquants : Lorsque le jeton arrive et T R T o 0: THT := . . . (1) . . . ; si LATE_CT = . . . ( 2 ) . . . alors TRT := TTRT ; émission synchrone ; si LATE_CT = 0 et THT > 0 alors émission asynchrone pendant THT ; LATE_CT : =
. . . (3) . . . ;
Lorsque le jeton arrive et TRT = 0 : LATE_CT : = . . . ( 4 ) . . . ; TRT : = . . . (5) . . . ;
Exercice
5.5
Quels types d'erreurs peuvent entraîner la circulation de plusieurs jetons sur l'anneau ? Exercice
5.6
Des données isochrones peuvent-elles être transmises grâce à la classe de service synchrone de FDDI ?
1 54 Architecture des réseaux haut débit Exercice
5.7
On considère une station connectée à un réseau FDDI de débit 100 Mbit/s. Le temps de rotation du jeton sur l'anneau est de 2 ms. Dans l'implantation considérée, seuls trois niveaux de priorités sont possibles pour les données asynchrones, notés 0. 2 et 4, où 4 représente la priorité la plus élevée. La station génère plusieurs types de trafic, répartis comme suit : - t r a f i c synchrone : 10 connexions synchrones transférant 25 octets à chaque passage de jeton ; - trafic asynchrone de priorité 4 : 1 3 Mo de données temps réel ; - trafic asynchrone de priorité 2 : transfert d'une image de 1 Mo ; - pas de trafic de niveau 0. Sachant que le surdébit d'une trame FDDI (préfixe et suffixe) est de 28 octets et que le temps de possession du jeton (THT) est toujours de 50 us : 1. Quelles sont les valeurs respectives des temps de transmission pour chaque type de trafic ? 2. Combien d'octets de l'image seront envoyés à chaque passage du jeton ? 3. Quel sera le temps total de transfert de l'image ? 4. Combien de stations au maximum peuvent être actives simultanément ? Exercice 5.8 [Walrand 93] Montrez qu'en l'absence de trafic synchrone à transmettre, la durée entre deux passages du jeton est inférieure à TTRT + THT. On considérera pour cela deux stations A et B sur un anneau FDDI, où A est le prédécesseur de B et on notera t le temps de propagation de A à B. En supposant que l'assertion est vraie pour A, on montrera qu'elle est vraie pour B. p
Exercice
5.9
On considère un réseau FDDI à 100 Mbit/s et comportant 300 nœuds. Chaque nœud introduit un délai d de 16 temps-bit lors du passage d'une trame. Le jeton a une longueur de 100 bits. Le temps de propagation sur la fibre est de t = 3 , 9 . 1 0 s. L'efficacité du réseau est définie comme étant le temps utile sur le temps d'un cycle lorsque toutes les stations transmettent. En d'autres termes, c'est le ratio entre le temps passé par les stations à transmettre des trames et le temps de rotation du jeton. Exprimez l'efficacité du réseau en fonction de TTRT. 4
p
A.N. : TTRT
= 10 ms.
FDDI (Fiber Distributed Data Interface)
Exercice
1 55
5.10
On désire comparer deux mécanismes de priorités entre plusieurs types de trafic d'une même station utilisant un protocole de jeton temporisé. On considère 4 niveaux de priorité : 1 > 2 > 3 > 4. Les deux algorithmes sont : Algorithme 1 : TTRT : durée cible de rotation du jeton TRT : temporisateur réarmé à chaque relâche de jeton et initialise à la valeur de TTRT
THT : temporisateur armé à l'arrivée du jeton et initialise avec le reliquat de TRT SA : durée de la transmission des données de haute priorité 1) à l'arrivée du jeton, THT = TRT 2) transmission du trafic de priorité 1 pendant SA 3) pour les niveaux de priorité /, i = 2, 3, 4, transmission des données de niveau i jusqu'à épuisement des données à transmettre ou expiration de THT
4) armer TRT 5) rendre le jeton Algorithme 2 : TTRT : durée cible de rotation du jeton (la même pour toutes les stations) Chaque station définit 3 durées et utilise 4 temporisateurs : TTRTj : durée limite de rotation du jeton pour la classe de priorité /, i = 2, 3, 4 TRT : temporisateur réarmé à chaque relâche de jeton et initialise à la valeur de TTRT
TRTj : temporisateur de la classe de priorité i, i = 2, 3, 4, réarmé à chaque relâche du jeton et initialise avec la valeur de TTRTj 1) arrivée du jeton 2) émission des trames de niveau des données à transmettre 3) émission des trames de niveau 4) émission des trames de niveau 5) émission des trames de niveau
1 jusqu'à expiration de TRT ou épuisement 2 jusqu'à expiration de TRT 3 jusqu'à expiration de TRT 4 jusqu'à expiration de TRT
2
3
4
6) armer les temporisateurs 77? 7\ TRT , TRT 2
3
et
TRT
4
7) rendre le jeton 1. Dans l'algorithme 2, on désire garantir un temps de cycle d'au plus TTRT. Quelle relation existe-t-il entre les durées TTRT, TTRT , TTRT, et TTRT ? 2
4
2. Sur un diagramme des temps, montrez le fonctionnement des deux algorithmes, en expliquant les conditions de votre exemple. 3. Ces deux mécanismes sont-ils équivalents ? Si oui, pourquoi ? Si non, donnez les conditions pour avoir une équivalence.
Chapitre 6
DQDB (Distributed Queue Dual Bus)
6.1.
Introduction
DQDB (Distributed Queue Dual Bus) [IEEE 802.6] a été adopté par 1TEEE sous le nom de protocole MAN (Metropolitan Area Network) dans le standard 802.6. Rappelons que les caractéristiques des réseaux métropolitains sont proches de celles des réseaux locaux, puisqu'ils permettent multi-accès et diffusion. Cependant, ils couvrent des distances plus importantes, de plusieurs dizaines de kilomètres, et ont pour objectif principal l'interconnexion à haut débit (de l'ordre de 100 Mbit/s) de réseaux locaux. Le protocole DQDB est issu des travaux menés par Telecom Australia dans le projet QPSX (Queued Packet and Synchronous Switch) [Newman 88]. Il a été retenu comme standard MAN car il présente une bonne stabilité de ses performances sous forte charge et fournit un service isochrone orienté connexion tout en permettant le transfert de trafic asynchrone en mode connecté ou non. Le service isochrone s'appuie sur une trame de cellules répétée toutes les 125 us dans laquelle certaines cellules sont réservées au transfert isochrone en fonction du débit de la connexion. Le mode asynchrone utilise la bande passante restante. FDDI est le principal concurrent de DQDB même si FDDI est de plus en plus utilisé comme réseau local haut débit sur paires torsadées plutôt que comme réseau fédérateur. DQDB en conjonction avec le service SMDS (cf. chapitre 9) s'est développé principalement aux Etats-Unis mais n'a pas vraiment réussi à s'implanter en Europe où le choix du réseau support pour l'interconnexion de réseaux locaux s'est davantage orienté vers des liaisons haut débit et le relais de trames, puis à moyen terme, vers le réseau large bande.
1 58
Architecture des réseaux haut débit
Les débits retenus pour DQDB sont de 45 Mbit/s, 155 Mbit/s et pourront évoluer ultérieurement jusqu'à 600 Mbit/s. La topologie du réseau DQDB est constituée d'une paire de bus unidirectionnels de sens inverse. Pour pouvoir émettre et recevoir vers/de l'ensemble des stations du réseau, chaque station est connectée en émission et en réception sur chaque bus. La figure 6.1 montre la configuration logique d'une telle topologie. Par convention, le bus supérieur est noté bus A et le bus inférieur est noté bus B. bus A i
nœud
±1
nœud
nœud
±1
bus B
Figure 6.1. Topologie
T
±1 J
générateur de trames
^
terminateur de trames
du réseau
DQDB
Sur chaque bus, le temps est discrétisé en tranches de temps appelées slots ou cellules. A l'extrémité amont de chacun des bus, un générateur émet une suite finie de cellules contenue dans une trame ; cette trame est répétée toutes les 125 LIS pour permettre le transfert de trafic isochrone. Le nombre de cellules dans la trame dépend du débit physique sur le bus. Le partage entre les stations se fait au moyen d'un tour de rôle réalisé de manière distribuée et garantissant une équité d'accès entre les stations, un temps d'accès déterministe et une bonne utilisation de la ressource de transmission. Les performances du protocole de la file distribuée sont stables quelle que soit la charge. Sous faible charge, le temps d'accès est négligeable. Sous forte charge, le taux d'utilisation est proche de 100 % car toute la bande passante est utilisée et le surplus de gestion du protocole est faible. N'utilisant pas de mécanisme de type jeton, le protocole n'est pas sensible aux erreurs et nécessite peu de gestion des fautes. Pour peu qu'un générateur de cellules puisse émettre périodiquement une trame de cellules, le protocole fonctionne sur tous types de supports. Enfin, la structure de la cellule DQDB est compatible avec celle du protocole ATM définie pour le réseau large bande. On verra aussi que les mécanismes de fragmentation/réassemblage des entités asynchrones ainsi que les mécanismes de stockage de l'entité isochrone sont comparables avec les mécanismes fournis par les AAL (ATM Adaptation Layer) pour ces mêmes services.
DQDB (Distributed Queue Dual Bus)
159
6.2. Architecture d'un nœud D Q D B Comme les autres standards IEEE, le standard DQDB spécifie deux couches de protocoles. Il s'agit ici de la couche physique et de la couche DQDB. L'architecture fonctionnelle d'un nœud DQDB est présentée en figure 6.2. La couche physique possède les fonctionnalités de la couche physique OSI et spécifie la manière d'utiliser différents supports de transmission. L'entité PLCF (Physical Layer Convergence Function) permet de présenter un service uniforme à la couche DQDB et ce quel que soit le support utilisé. Contrairement à FDDI, la couche physique n'est pas divisée en deux sous-couches. LLC Logical Link Control
M
LME Layer Management Entity
MCF MAC Convergence Function
COCF Connection Oriented Convergence Function
I
ICF Isochronous Convergence Function
-5 o PAF Pre-Arbitrated Functions
QAF Queue Arbitrated Functions
o
U
CF Common Functions LME Layer Management Entity
PLCF Physical Layer Convergence Function
medium
medium
1
Figure 6.2. Architecture
3 S2 O
fonctionnelle
d'un nœud
DQDB
La couche DQDB assure les différents modes d'accès au support et correspond à la sous-couche MAC définie dans les autres standards de réseaux locaux. Contrairement à ces derniers, elle fournit en plus du service sans connexion habituel, deux services supplémentaires à la sous-couche LLC, soit les trois services suivants : - un service asynchrone sans connexion qui permet le transfert de données n'ayant pas de contraintes temporelles,
16 0
A r c h i t e c t u r e d e sr é s e a u x h a u t d é b i t
- un service asynchrone orienté connexion qui permet le transfert de données sporadiques, - un service isochrone orienté connexion qui permet le transfert de trafic ayant de fortes contraintes temporelles. Les entités MCF (MAC Convergence Function), COCF (Connection Oriented Convergence Function) et ICF (Isochronous Convergence Function) permettent de présenter le service attendu par les couches supérieures indépendamment de la méthode d'accès utilisée. Pour les services asynchrones, DQDB met en œuvre la méthode de la "file d'attente distribuée", réalisée dans l'entité fonctionnelle QAF (Queued Arbitrated Functions). Pour le service isochrone, DQDB emploie une méthode d'accès avec réservation préalable, réalisée par l'entité fonctionnelle PAF (Pre-Arbitrated Functions)(cf. 6.3). Enfin, les entités LME (Layer Management Entity) fournissent les fonctions de gestion propres à chaque couche.
6.3. Accès au support 6.3.1. Accès
temporel
synchrone
L'accès à la transmission se fait par l'intermédiaire d'un train continu de cellules ou slots de taille fixe qui circule sur chaque bus. En réception, les stations lisent et copient les données depuis les cellules. En émission, les stations écrivent dans les cellules sous le contrôle du protocole d'accès, la SDU étant fragmentée puis transmise dans autant de cellules que nécessaire. Comme les bus A et B sont unidirectionnels et fonctionnent en sens inverse, les stations du réseau effectuent un routage en fonction de la destination de leur émission ; par exemple, dans la configuration de la figure 6.3, la station j écrit dans une cellule du bus A pour transmettre vers la station k et inversement, dans une cellule du bus B pour transmettre vers la station i. Pour diffuser de l'information, la station émet sur les deux bus simultanément. bus A
station
station
station
bus B
Figure 6.3. Train
de
cellules
DQDB (Distributed Queue Dual Bus)
161
Les générateurs placés à l'extrémité de chacun des bus émettent le train de cellules (encore appelé trame de synchronisation) toutes les 125 u s ce qui correspond à une trame de 2 430 octets maximum pour un débit normalisé de 155 Mbit/s. De la longueur de la trame de synchronisation dépend le nombre de cellules transportées.
6.3.2. La
cellule
DQDB
La cellule DQDB a une taille fixe de 53 octets. Notons que la longueur et la structure des cellules DQDB sont compatibles avec celles des cellules utilisées dans la technique ATM. La figure 6.4 donne le format général de la cellule DQDB. Le premier octet véhicule le champ de contrôle d'accès à la cellule (AC — Access Control) ; celui-ci se décompose en cinq sous-champs : - le bit BB (Busy Bit) indique l'état d'occupation de la cellule ; une valeur à 1 signifie que la cellule est occupée par un transfert de données, une valeur à 0 signifie qu'elle est libre ; - le bit Type indique le type de la cellule et par conséquent le type de service autorisé à l'utiliser : il est positionné à 0 pour les cellules QA (Queued Arbitrated) utilisables par le service asynchrone et à 1 pour les cellules PA (Pre-Arbitrated) utilisables par le service isochrone ; - le bit PSR (Previous Slot Reserved) vise à permettre la réutilisation de la même cellule grâce au retrait du segment par le précédent récepteur. Il n'est pas encore utilisé pour le moment ; - les deux bits Res (Reserved) sont inutilisés et réservés pour un usage ultérieur. Ils sont positionnés à 00 par défaut ; - les trois bits RQ, de requête, servent à mettre en œuvre le protocole de la file d'attente distribuée. Ce dernier utilise trois niveaux de priorité possibles pour le trafic asynchrone. A chaque niveau de priorité est associé un bit de requête (request bit) de poids compris entre 0 (basse priorité) et 2 (haute priorité).
1 octet
52 octets
AC (Access Control)
segment
1 bit
1 bit
BI
type
1 bi
mm
2 bits
3 bit:
Res
RO
BB • Busy Bit PSR - Previous Slot Reserved Res - Reserved RQ - Request Bits
Figure 6.4. Format de la cellule
DQDB
1 6 2 Architecture des réseaux haut débit
6.3.3. Les t r o i s classes de s e r v i c e s La trame de synchronisation contient différents types de cellules (PA ou QA) utilisables par l'un ou l'autre des services offerts par la couche DQDB. Dans la suite, nous décrivons l'utilisation des cellules par les trois classes de service, à savoir isochrone, asynchrone avec ou sans connexion. 6.3.3.1. Le mode
isochrone
Le mode isochrone est orienté connexion. Préalablement à tout transfert de données, un protocole de signalisation permet d'établir une connexion isochrone ou circuit. La connexion peut être point à point ou point à multipoint. La demande d'établissement de la station définit le débit moyen désiré, ce qui est traduit par l'entité de gestion par une périodicité de transfert associée à un nombre d'octets isochrones transférés à chaque période. La connexion isochrone est identifiée par un identificateur appelé VCI (Virtual Channel Identifier) transporté dans l'en-tête du segment de la cellule. Le générateur de cellules a la charge de réserver suffisamment de cellules pour satisfaire aux contraintes de la connexion (période) ; elles sont forcément de type PA (Pre-Arbitrated) et le champ VCI de leur segment est initialise avec celui de la connexion isochrone. Une cellule PA contient 48 octets de charge utile (cf. 6.4.4) qui peuvent être partagés par des stations différentes. Lors de l'établissement d'une connexion isochrone, une station se voit donc attribuer par la gestion du réseau une quantité d'octets dans la cellule PA d'un certain VCI ainsi que la position de ces octets à l'intérieur de la cellule (position relative par rapport au début du champ de données du segment PA). La station mémorise alors VCI, position des octets et l'identificateur (CEP — Connection End Point) de la connexion isochrone correspondante dans une table. Pour accéder à une cellule PA, la station examine tout d'abord son VCI puis écrit ou lit les octets à partir de la position indiquée dans sa table. Ce multiplexage des connexions isochrones dans une même cellule évite la gaspillage de bande passante ; en effet, une communication téléphonique ne nécessite qu'un octet toutes les 125 u.s, il est alors possible de multiplexer 48 communications téléphoniques dans une même cellule. Une cellule PA dont le VCI n'est pas défini dans la table de la station est ignorée par la station. 6.3.3.2. Le mode asynchrone
sans
connexion
Le mode asynchrone sans connexion utilise les cellules de type QA (Queued Arbitrated). Etant sans connexion, le champ VCI n'est pas utilisé et tous ses bits sont positionnés à 1. Sur réception d'une requête de transmission LLC, l'entité MCF encapsule la SDU dans une IM-PDU (Initial MAC PDU). Ensuite, elle la fragmente en blocs de 44 octets pour l'adapter à la taille réduite de la cellule. Elle ajoute un préfixe et un suffixe aux fragments qui deviennent ainsi des segments. Le préfixe permet notamment d'associer un segment à une IM-PDU au moyen du champ MID (Message IDentifier). Le MID est unique sur le réseau et se retrouve
DQDB (Distributed Queue Dual Bus)
16 3
dans tous les segments constituant un même message évitant ainsi le transport de l'adresse destinataire dans chaque segment. Le préfixe sert aussi à indiquer la position du fragment dans la PDU (début, milieu, fin) ainsi que son numéro de séquence. Enfin, la station place dans l'ordre d'arrivée des SDU et dans l'ordre de fragmentation, les segments dans une file d'attente locale des segments à transmettre. La station qui a au moins un segment à transmettre prend alors part au protocole de la file distribuée où toutes les stations désirant transmettre concourent pour l'accès aux cellules QA vides. Ce protocole ne concerne que l'envoi du segment placé en tête de la file d'attente de la station. Ce qui signifie que la station ne peut émettre qu'un segment à la fois. Elle entrera de nouveau en compétition pour l'envoi du segment suivant. En réception, chaque station examine toutes les cellules QA qui passent. Si le segment reçu est un segment de début de message, elle examine aussi l'adresse de destination : si le segment lui est destiné, la station enregistre alors la valeur de MID. Elle continue alors à scruter les cellules QA et copie tous les segments contenant le MID enregistré jusqu'à réception d'un segment de fin de message. 6.3.3.3. Le mode asynchrone
avec
connexion
Le mode asynchrone avec connexion utilise, à l'instar du mode précédent, les cellules de type QA. Ce mode orienté connexion permet de transférer des données sur des canaux virtuels. La procédure de segmentation et réassemblage est la même que celle utilisée par le mode asynchrone sans connexion. Les connexions établies après une procédure de signalisation sont caractérisées par leurs valeurs de VCI contenues dans l'en-tête de segment. L'accès aux cellules vides se fait aussi grâce au protocole de la file distribuée que nous décrivons dans le paragraphe suivant. A la différence du mode isochrone, c'est la station qui initialise le VCI dans la cellule au moment où elle écrit le segment dans une cellule QA. Le VCI est donc utilisé comme identificateur d'une communication entre stations alors que le MID identifie un message particulier de cette communication.
6.3.4. Protocole
de
la file
distribuée
L'accès aux cellules QA est contrôlé par deux bits du champ AC, le bit d'occupation (busy bit) qui indique si la cellule est vide ou occupée et le bit RQ du niveau de priorité considéré qui sert à signaler aux autres stations une requête de transmission d'un segment et à prendre position dans la file distribuée. La file distribuée est une fonction qui permet la formation et le fonctionnement d'une file de segments QA distribuée à travers le réseau. La file distribuée détermine l'instant d'émission d'une station en fonction de l'instant de sa requête et des requêtes des autres stations ; elle évite le phénomène de famine où une station en
164
Architecture des réseaux haut débit
amont du bus utiliserait tous les slots disponibles. Ce protocole donne des performances analogues à celles d'une file centralisée, avec la garantie d'un temps d'accès borné. La file distribuée est contrôlée par des compteurs dans chaque nœud. Une file distribuée séparée fonctionne pour chacun des bus avec des compteurs propres à l'intérieur du sous-système MAC de chaque nœud. Ces compteurs sont contrôlés même si la station n'a aucun segment à envoyer. Voyons maintenant le fonctionnement de la file distribuée. Dans un souci de simplicité, nous ne considérerons qu'un seul niveau de priorité. Lorsqu'elle a un segment à transmettre, une station doit d'abord le signaler aux autres stations en envoyant une requête aux stations placées en amont du bus sur lequel elle désire transmettre. Si la station veut émettre sur le bus A, elle prévient alors les stations en amont d'elle-même (sur le bus A) grâce à une requête sur le bus B. Elle modifie alors le bit RQ du premier slot qui passe sur le bus B si celui-ci était initialement à 0. Pour gérer la formation d'une file sur le bus A, il faudra alors gérer d'une part, le bit d'occupation BB sur le bus A et d'autre part, le bit de requête RQ sur le bus B. Dans le même temps, toutes les stations gèrent une file des segments à transmettre pour le bus A. Cette file est matérialisée par deux compteurs internes à chaque station : - le compteur de requêtes RC (Request Counter) est incrémenté à chaque nouvelle demande d'émission d'une station située en aval sur le bus A, c'est-à-dire à chaque passage d'un bit RQ positionné à 1 sur le bus B. Il est décrémenté à chaque passage d'une cellule vide (bit d'occupation à 0) sur le bus A car cela signifie qu'une requête pour un nœud en aval va être satisfaite (figure 6.5 (a)) ; - le compteur d'émission CD (CountDown counter) indique le nombre de requêtes d'émission faites par les stations en aval à satisfaire avant que la station puisse transmettre ses propres informations. Il est décrémenté à chaque passage d'une bus A.
bus A
. slot vide
slot vide
compteur de requêtes RC
compteur de requêtes RC
requête
compteur à rebours CD
requête busB
(a) comptage des requêtes Figure 6.5. Gestion des compteurs
bus B (b) attente avant transmission de la file
distribuée
DQDB (Distributed Queue Dual Bus)
165
cellule vide (bit d'occupation à 0) sur le bus A (figure 6.5 (b)). Lorsqu'il atteint zéro, le tour de la station est arrivé et elle peut transmettre dans le prochain slot vide qui passe sur A. Le compteur RC est géré en continu, que la station ait ou non un segment à transmettre. Le compteur CD n'est utilisé que lorsque la station a un segment à transmettre. Récapitulons les opérations exécutées par un nœud qui désire envoyer un segment sur le bus A : - envoyer une requête sur le bus B ; - transférer la valeur courante du compteur de requêtes RC dans le compteur à rebours CD et remettre le compteur RC à 0. Le compteur CD contient donc le nombre de requêtes à satisfaire avant que le nœud puisse transmettre ; - décrémenter de 1 le compteur CD chaque fois qu'un slot vide passe sur le bus A ; - incrémenter de 1 le compteur RC chaque fois qu'une requête pour le bus A passe sur le bus B. Le compteur RC contient donc le nombre de nouvelles requêtes c'est-à-dire transmises après que le nœud ait fait la sienne ; - si le compteur CD est égal à zéro, écrire le segment dans le prochain slot vide qui passe sur A. A noter qu'un nœud ne peut pas enregistrer une requête venant d'un nœud en amont sur le bus A. La file distribuée garantit que les nœuds en amont auront accès au moment approprié du fait de leur position sur le bus. Considérons l'exemple de la figure 6.6 où un sous-réseau contient 4 nœuds en attente de transmission. Les compteurs de requête (RQ) et à rebours (CD) sont initialement à zéro et tous les slots passant sur le bus A sont occupés (par des segments PA, par exemple). Les nœuds S4, S2 et S3 effectuent chacun une requête dans cet ordre. Les figures (a), (b) et (c) montrent le déroulement de chaque requête et la mise à jour des compteurs. Sur la figure (d), un slot vide passe sur le bus A entraînant la décrémentation des compteurs et la transmission du nœud S4 dont le compteur était déjà à zéro. Les prochains slots vides seront affectés au nœud S2 puis au nœud S3, ce qui respecte l'ordre de leurs requêtes. En outre, DQDB gère en option trois niveaux de priorité différents, chacun d'eux étant associé à l'un des trois bits du sous-champ RQ du champ AC de la cellule. Le mécanisme de priorité permet à un segment de priorité haute d'être émis avant un segment de priorité plus faible. La station effectue donc une requête en fonction du niveau de priorité de son segment dans le bit RQ adéquat. Chaque station ne gère
66
Architecture des réseaux haut débit
bus A
bus B (a) le nœud S4 effectue une requête
bus A -
bus B (b) le nœud S2 effectue une requête
bus A
bus B (c) le nœud S3 effectue une requête
bus A •
bus B (d) le nœud S4 transmet son segment F i g u r e 6 . 6 . Fonctionnement
de la file
distribuée
donc plus deux compteurs par bus, mais deux compteurs par niveau de priorité et par bus soit trois files distribuées par bus et six files en tout. Le passage d'un slot vide consistera à décrémenter d'abord le compteur de plus haute priorité. La priorité est
DQDB (Distributed Queue Dual Bus)
167
absolue en ce sens qu'un segment de priorité faible ne peut être transmis que s'il n'y a pas de segment de priorité supérieure à transmettre par une station du réseau, même si la requête pour le segment de haute priorité a été faite après celle du segment de faible priorité.
6.3.5. Equilibrage
de la charge
(BandWidth
Balancing)
De nombreuses études ont montré que cette méthode induit un partage de la bande passante qui n'est pas équitable sous des conditions de forte charge et pour un réseau très étendu. Le protocole n'est plus équitable car les nœuds situés près du générateur de tranches ont accès plus facilement au canal de transmission. En effet, lorsque le réseau est étendu, le temps de propagation sur le bus n'est plus négligeable et la requête d'un nœud aval arrive après un délai au nœud le plus en amont. Ce délai laisse à ce dernier le temps d'utiliser la première cellule QA vide puisqu'il ne fait jamais de requête. Cette inéquité s'accentue avec la distance et le débit du réseau. Proposé par AT&T et adopté par 1TEEE, le mécanisme de Bandwidth Balancing permet de contourner ce problème [Hahne 90], [Sumita 92). Il consiste, pour chaque station qui a transmis successivement n segments, à laisser passer une cellule vide bien que son compteur CD soit à zéro. Un compteur supplémentaire (BWB_CNT) est alors nécessaire pour compter le nombre de cellules vides successives utilisées par la station. Dès que ce compteur atteint un seuil, la station laisse passer la cellule vide suivante et remet ce compteur à zéro. Une station n'utilisera donc qu'un pourcentage de la bande passante qu'elle aurait pu utiliser (90 % pour n = 9). De nombreuses autres variantes ont été proposées pour pallier le problème de I'inéquité de DQDB [Sadiku 94].
6.4. Les unités de données du protocole 6.4.1. Fragmentation
et
encapsulations
DQDB successives
Dans les entités des services asynchrones (MCF et COCF), la SDU transmise à la couche MAC subit des adaptations qui consistent tout d'abord à ajouter les informations nécessaires à la gestion du protocole, puis à ajuster sa taille à celle de la cellule (figure 6.7). Ainsi, la SDU est d'abord encapsulée dans une IM-PDU (Initial MAC PDU) qui est ensuite fragmentée, chaque fragment étant encapsulé dans une DM-PDU (Derived MAC PDU). Chaque DM-PDU est à son tour encapsulée dans un segment qui correspond à la zone de données de la cellule.
1 6 8
A r c h i t e c t u r e d e sr é s e a u x h a u t d é b i t
SDU IM-PDU fragment 1
fragment 2
fragment 3
fragment 4
--•
V"—
DM-PDU
DM-PDU
BOM
DM-PDU
COM
segment
DM-PDU
; COM
segment
EOM
segment
segment
BOM - Beginning Of Message COM - Continuation Of Message EOM - End Of Message
Figure 6.7.
6.4.2. L'IM-PDU
Fragmentation
(Initial
MAC
et
encapsulations
Protocol
de
Data
la
SDU
Unit)
L'IM-PDU est utilisée par le mode de transfert asynchrone. Elle peut être assimilée à une trame de niveau MAC. Une IM-PDU comprend un en-tête, une zone de données, des octets de bourrage pour amener F IM-PDU à un multiple de 4 octets, un champ de contrôle d'erreur ainsi qu'un suffixe (figure 6.8). 24 octets
Oà 9188 octets
IM-PDU Header
Data
4 octets
20 octets
Common PDU Header
MCP Header
1 octet
Res
1 octet
0 à 3 octets 0 ou 4 octets
2 octets
PAD
Common PDU Trailer
CRC32
" 0 à 20 octets
1 octet
Header Extension 8 octets
BEtag BAsize
4 octets
DA
8 octets
1 octet
2 octets
Res BEtag
Length
6 bits 2 bits
SA
f octet
- - • 2 octets
PI
PL QoS/HEL
(60 - N) bits
ATbits-
3 bits
Padding
MSAP Address
Delay
Bridging
-,.--'4 bits
Address Type
Figure 6.8.
Format
de
1 bit
1 bit 3 bits
Loss CIB HEL
l'IM-PDU
L'en-tête de l'IM-PDU comprend un champ de 4 octets, commun aux deux services asynchrones, et un champ de 20 octets, spécifique au service sans connexion, le champ MCP (MAC Convergence Protocol) ainsi qu'un champ Header Extension qui n'est pas encore défini à ce jour.
D Q D B (Distributed Queue Dual B u s )
16 y
Le champ commun contient un octet réservé à une utilisation future et positionné à zéro. Le champ BEtag (Beginning-End Tag) est un numéro de séquence de IM-PDU incrémenté de 1 à chaque émission, modulo 256, qui permet de contrôler les opérations de segmentation et de réassemblage effectuées sur la SDU. Le champ BAsize (Buffer Allocation size) indique la taille minimale du tampon nécessaire à la réception de la SDU. Le champ MCP Header ne concerne que le mode sans connexion et fournit donc tous les renseignements nécessaires à la transmission d'une telle PDU. Ainsi, on trouve les adresses de destination (DA — Destination Address) et de source (SA — Source Address) ainsi que des indications concernant le service de transfert désiré. Le format des adresses est différent de celui utilisé par les réseaux locaux car la longueur de l'adresse peut aller jusqu'à 60 bits, permettant ainsi d'adresser un plus grand nombre de stations. Les champs adresses peuvent contenir trois types d'adresse de MSAP (MAC Service Access Point) qui diffèrent de par leur longueur ( 16, 48 ou 60 bits). Sur 60 bits, il est permis des adresses au format E.164 qui définit le plan d'adressage RNIS sur 15 digits. Si l'adresse est gérée par une administration publique, les trois premiers chiffres désignent le pays (défini par l'UIT) et les deux champs suivants, de longueur variable, désignent respectivement le réseau public et le numéro d'abonné à ce réseau. Les quatre premiers bits précisent le type et la longueur d'adresse. Les différents codes du champ Address Type sont donnés dans le tableau 6.1. code
signification
0100
adresse sur 16 bits
1000
adresse sur 48 bits
1100
adresse sur 60 bits, individuelle, publique
1101
adresse sur 60 bits, individuelle, privée
1110
adresse sur 60 bits, de groupe, publique
1111
adresse sur 60 bits, de groupe, privée
autre
réservée
T a b l e a u 6 . 1 . Le champ Address
type
Tous les bits du champ Padding sont positionnés à 0. Prenons comme exemple le cas d'une adresse de MSAP codée sur 48 bits. Le champ Padding est alors constitué de 60 - 48 = 12 bits, tous égaux à 0. Le champ MSAP Address se décompose, selon un schéma similaire à celui utilisé par les réseaux locaux, en un bit I/G (égal à 0 lorsque l'adresse est individuelle et à 1 lorsqu'elle est de groupe), un bit U/L (égal à 0 lorsque l'adresse est gérée globalement et à 1 lorsqu'elle l'est localement), suivis des 46 bits proprement dits d'adresse.
1 70
Architecture des réseaux haut débit
Le champ PI (Protocol Identifier) identifie l'utilisateur du service MAC (LLC ou entités de gestion). Le champ PL (Pad Length) indique la longueur du champ de bourrage de l'IM-PDU qui est de 0,1,2 ou 3 octets, de telle sorte que la longueur totale des champs données et bourrage soit un multiple de 4 octets. Le champ QoS/HEL de MCP Header est divisé en quatre sous-champs dont la sémantique est la suivante : - Delay (délai) permet d'activer le service de transfert avec priorité au délai court ; - Loss (perte) est actuellement inutilisé et est positionné à 0. Son rôle vise à définir une priorité à la perte des trames en cas de congestion ; - CIB (CRC32 Indicator Bit) indique la présence (CIB = 1 ) ou l'absence (CIB = 0) du champ CRC32 dans l'IM-PDU ; - HEL (Header Extension Length) indique la longueur en unité de 32 bits du futur champ Header Extension. Le dernier champ du MCP Header, Bridging, est réservé pour une utilisation future dans le cadre de l'interconnexion au niveau de la couche MAC. Il définirait alors le nombre maximum de ponts que l'IM-PDU aurait le droit de traverser ; décrémenté à chaque pont traversé, une valeur nulle provoquerait la destruction de l'IM-PDU. Le champ de données (Data) contient l'unité de données MAC, la SDU. Sa longueur est comprise entre 0 et 9 188 octets inclus. Le champ PAD possède une longueur égale à 0, 1, 2 ou 3 octets. Sa longueur exacte est telle que : nb_octets(PAD) = 3 - modulo (3 + nb_octets(Data) + nb_octets(MCP Header) + nb_octets(Header Extension), 4). La longueur d'une IMPDU doit être multiple de 4. Le champ PAD permet donc de rajouter des octets de b o u r r a g e afin d'obtenir cette condition nécessaire à la fonction de fragmentation/réassemblage de l'IM-PDU en DM-PDU. Le champ CRC32 permet de détecter les éventuelles erreurs de transmission. Il est optionnel. Le champ de suffixe, Common PDU Trailer, répète le champ BEtag d'en-tête afin de fournir une sécurité supplémentaire. Une condition nécessaire mais non suffisante de validité de l'IM-PDU est que les deux champs BEtag présentent la même valeur. Le champ Length contient la longueur totale en octets des champs Data, MCP Header, Header Extension et CRC32. La valeur de ce champ permettra de contrôler la longueur de L'IM-PDU après fragmentation et réassemblage.
DQDB (Distributed Queue Dual Bus)
6.4.3. La DM-PDU
(Derived
MAC Protocol
Data
171
Unit)
La taille de l'IM-PDU pouvant être trop longue pour être directement insérée dans un slot pour sa transmission, elle est fragmentée en un ou plusieurs fragments d'au plus 44 octets. Un préfixe (DM-PDU Header) et un suffixe (DM-PDU Trailer) de 2 octets chacun sont ajoutés à chaque fragment pour former une DM-PDU (figure 6.9). 44 octets
2 octets
Segmentation Unit
DM-PDU Trailer
2 octets
DM-PDU Header 2 bits
4 bits
1 Obits
- - 6 bits
10 bits
Segment Type
Sequence Number
MID
Length
CRC
Figure 6.9. Format de la DM-PDU
L'en-tête contient l'information nécessaire au réassemblage dune IM-PDU et représentée dans trois champs : le type de segment (Segment_Type), le numéro de séquence (Sequence Number) et l'identificateur de message (MID) : - le champ SegmentJType est codé en fonction de la longueur de l'IM-PDU et de la position du fragment dans celle-ci (tableau 6.2) ; longueur de l'IM-PDU
position du fragment
Segment Type
< 44 octets
un fragment unique
SSM (Single Segment Message)
premier fragment
BOM (Beginning Of Message)
fragment intermédiaire
COM (Continuation Of Message)
dernier fragment
EOM (End Of Message)
> 44 octets
Tableau 6.2. Type de
DM-PDU
- le champ Sequence Number contient un numéro de séquence incrémenté modulo 16 qui permet au moment du réassemblage de l'IM-PDU de vérifier l'ordre et la réception effective de toutes les DM-PDU ; - le champ MID permet au récepteur de reconnaître à quelle IM-PDU appartient chaque DM-PDU reçue. Le suffixe de la DM-PDU (DM-PDU Trailer) contient les informations nécessaires à la détection d'erreurs au niveau de cette DM-PDU : - le champ Length indique le nombre d'octets qui occupent le champ Segmentation Unit de la DM-PDU. Ce nombre est un multiple de 4 et inférieur ou
1 72
Architecture des réseaux haut débit
égal à 44. Pour les DM-PDU de type BOM et COM, la valeur de ce champ est toujours égale à 44. Les DM-PDU de type SSM ont une longueur comprise entre 28 et 44 octets, et les DM-PDU de type EOM, une longueur comprise entre 4 et 44 octets ; - le champ CRC permet de détecter les erreurs apparues lors de la transmission.
6.4.4. Le
segment
Le segment constitue la charge utile (payload) de la cellule DQDB. Un segment QA inséré dans un slot QA transporte des données QA, alors qu'un segment PA encapsulé dans un slot PA, transporte des données PA. Chaque segment est composé d'un en-tête de 4 octets et d'un champ de données de 48 octets (figure 6.10). 4 octets
48 octets
Segment Header
Data
20 bits
2 bits
VCI
Payload Type
~ '2 bits - - - - 8 bits
Segment Priority
F i g u r e 6 . 1 0 . Format d'un
HCS
segment
L'en-tête du segment est composé des champs suivants : - l'identificateur de canal virtuel (VCI) auquel appartient la cellule, utilisé uniquement en mode connecté ; - le type des données transportées (Payload Type) : pour les données utilisateur, ce champ est positionné à 00, les autres valeurs étant réservées ; - le champ de priorité (Segment Priority) n'est pas utilisé pour l'instant et est positionné à 00 ; - le champ HCS (Header Check Sequence) permet de détecter les erreurs sur l'entête de segment.
6.5. Le protocole
DQDB
La couche DQDB comprend un ensemble de blocs fonctionnels (cf. figure 6.2). Il s'agit de la fonction de convergence MAC (MCF), de la fonction de convergence orientée connexion (COCF) et de la fonction de convergence isochrone (ICF) qui fournissent les différents types de service DQDB. Nous allons détailler le fonctionnement de ces différentes entités.
DQDB (Distributed Queue Dual Bus)
6.5.1. Fonction
de
convergence
MAC
17 3
(MLh)
Ce bloc fonctionnel fournit à la couche LLC le service MAC DQDB pour les services asynchrones. 6.5.1.1. Processus
d'émission
Le processus d'émission du bloc M C F est responsable de la création d'une IMPDU à partir des paramètres de la primitive MA-UNITDATA.request reçue de la couche LLC. Il assure ensuite la fragmentation de cette IM-PDU ainsi que 1'encapsulation des fragments obtenus dans des DM-PDU. Chaque DM-PDU est ensuite passée à l'entité Q A F (Queue Arbitrated Function) qui effectue la transmission des DM-PDU dans des segments QA, à la priorité demandée (figure 6.11). LLC - Logical Link Control M A_UN1TD ATA.request MCF - MAC Convergence Function création d'une IM-PDU IM-PDU
segmentation de l'IM-PDU unité de segmentation création d une DM-FDL DM-PDU, VCI, type de charge utile, priorité de segment OAF - Queue Arbitrated Functions F i g u r e 6 . 1 1 . Le processus
6.5.1.2. Processus
de
d'émission
du bloc de convergence
MAC
réception
Ce processus de réception a pour but de réassembler une IM-PDU à partir des fragments contenus dans les DM-PDU reçues par le bloc MCF. Le réassemblage est réalisé à partir des DM-PDU effectivement adressées à la station et sous les conditions suivantes : Segment_Type de type QA, VCI identiques dans l'en-tête de segment (en mode connecté), DM-PDU reçues sans erreur, MID identiques dans l'entête de la DM-PDU. Le processus de réception initialise une nouvelle IM-PDU à chaque fois qu'il reçoit une DM-PDU de type BOM (Beginning Of Message) destinée à la station. Il enregistre alors VCI et MID, puis il concatène les DM-PDU
1 74
Architecture des réseaux haut débit
correctes correspondantes et de type COM (Continuation Of Message) dans l'ordre de leur numéro de séquence ; le réassemblage est terminé lors de la réception de la DMPDU de type EOM (End Of Message).
LLC - Logical Link Control MAJJN1TDATA. indication MCF - MAC Convergence Function extraction de MSDU
DM-PDU (SSM;
validation de 1'IM-PDl
IM-PDU réassemblage de l'IM-PDl DM-PDU (BOM, COM, EOM) sélection du processus de réassemblage D M - P D U , VUl,
type de charge utile, priorité de segment QAF - Queue Arbitrated Functions
Figure 6.12. Le processus de réception du bloc de convergence MAC
Chaque IM-PDU reconstituée est validée si elle vérifie les quatre critères suivants : - la valeur du sous-champ Length est égale au nombre d'octets reçus pour l'IMPDU moins 8 octets (ces derniers correspondent à la longueur des champs Common PDU Header et Common PDU Trailer qui ne sont pas comptabilisés dans le champ Length) ; - la valeur du champ BEtag de l'en-tête est égale à celle du suffixe ; - le total de contrôle (s'il existe) est correct ; - la valeur du champ HEL de l'en-tête MCP est comprise entre 0 et 5.
D Q D B (Distributed Q u e u e Dual B u s )
175
Si l'un des critères n'est pas vérifié, 1TM-PDU est rejetée. Si ces quatre conditions sont vérifiées, la fonction d'extraction extrait le champ de données de l'IM-PDU correspondant à la MSDU et initialise les paramètres de la primitive MA_UNITDATA.indication à partir des autres champs de l'IM-PDU (adresses et priorité). Ensuite, une primitive MA_UNITDATA.indication est transmise avec ses paramètres vers la sous-couche LLC (figure 6.12).
6.5.2. Fonction de fonctionnelle PAF
convergence
isochrone
(ICF)
et
entité
L'entité fonctionnelle PAF (Pre-Arbitrated Functions) de la couche DQDB assure le contrôle d'accès aux canaux isochrones. Les canaux isochrones sont préalablement établis par un processus de signalisation qui ne fait pas partie de la couche DQDB. L'établissement définit, entre autres, la valeur de l'identificateur de la connexion, le VCI, qui permet à l'entité fonctionnelle PAF de reconnaître les segments utilisés pour cette connexion. A l'établissement, est aussi défini pour cette connexion, le déplacement des octets dans le segment pour lire ou écrire ses données. Chaque station enregistre ces paramètres (VCI et déplacement des octets) associés au point d'extrémité de connexion (CEP) dans une table des connexions isochrones établies. Les blocs de fonctions PAF reçoivent et transmettent des octets du service isochrone, à débit moyen garanti, mais ces octets ne sont pas forcément distribués régulièrement. L'irrégularité de leurs arrivées dépend de la distribution des slots PA générés par la fonction de marquage de slots de la station d'extrémité, ainsi que du nombre d'octets portés par chaque slot PA pour chaque connexion isochrone. Le rôle de l'ICF (Isochronous Convergence Function) est, si nécessaire, de fournir une temporisation afin de lisser toute irrégularité d'arrivée des octets de service isochrone, de façon à obtenir le taux d'arrivée souhaité par l'utilisateur du service isochrone. Un bloc ICF maintient deux tampons séparés (un d'arrivée, l'autre de transmission). Il existe différents types d'ICF définis pour différents types de service isochrones, suivant les exigences de temporisation d'un utilisateur particulier de service isochrone.
6.5.3. Fonction
de
convergence
orientée
connexion
(COCF)
Comme les connexions isochrones, les connexions asynchrones sont établies par une procédure de signalisation qui retourne la valeur du VCI allouée à la connexion. L'entité COCF (Connection Oriented Convergence Function) mémorise pour chaque connexion établie son point d'extrémité de connexion (CEP) qui identifie l'utilisateur, son VCI et le bus sur lequel elle émet ou reçoit des segments. Lors d'une demande de transfert de données, les procédures de fragmentation et de réassemblage sont les mêmes que pour le bloc MCF. Toute donnée émise par le
1 76
Architecture des réseaux haut débit
bloc COCF est une IM-PDU, avec quelques différences cependant, par rapport à l'IM-PDU transférée par le bloc MCF : - les champs réservés (Res) de l'en-tête d'IM-PDU (Common PDU Header) et du délimiteur de fin de PDU (Common PDU Trailer) peuvent contenir des valeurs non nulles ; - le champ BAsize de l'en-tête d'IM-PDU peut contenir une valeur supérieure ou égale à celle du champ Length du délimiteur de fin de PDU pour la même donnée à transférer, pour des raisons d'allocation de tampons à la réception. Autre différence, le champ de données des DM-PDU issues d'une telle IM-PDU, de type BOM ou COM, peut être partiellement rempli. Comme l'accès aux cellules vides est dynamique, c'est la station qui initialise le VCI dans la cellule au moment où elle écrit le segment dans une cellule QA. Le VCI est donc utilisé comme identificateur d'une communication entre stations alors que le MID identifie un message particulier de cette communication.
6.5.4. Fonctions
communes
(CF)
Le bloc de fonctions communes (CF — Common Functions) utilisé par les entités fonctionnelles QAF et PAF définit un protocole entre ces entités et la couche physique. Il réalise le relais des slots et des octets de gestion entre les deux SAP physiques.
6.6. Les services
DQDB
La couche DQDB fournit trois types de services : le service MAC (ou service asynchrone sans connexion), le service isochrone et le service asynchrone orienté connexion. Il est donc défini différents ensembles de primitives de service correspondant à chacun de ces services.
6.6.1. Primitives
du
service
MAC
Trois primitives de services sont définies pour le service MAC fourni à la couche LLC, Rappelons que la couche LLC est responsable de l'établissement de la connexion logique entre stations. Ces primitives sont : - MA_UNITDATA.request (adresse_source, adresse_destination, priorité, données, classe_de_service) permet le transfert d'une unité de données MAC depuis une entité LLC à une autre entité LLC ou plusieurs entités LLC dans le cas d'une adresse de destination de groupe. Les paramètres adresse_source et adresse_destination indiquent les adresses d'émission et de destination des données. Le paramètre priorité
DQDB (Distributed Queue Dual Bus)
177
indique la priorité souhaitée pour le transfert de données et peut prendre une valeur parmi 8 possibles. Le paramètre données correspond à la SDU à transférer. Enfin, le paramètre classe _de ^service indique la classe de service à utiliser pour le transfert de données : synchrone, asynchrone avec connexion ou isochrone ; - MA_UNITDATA.indication (adresse_source, adresse_destination, priorité, données, classe_de_service) indique la réception de l'unité de données MAC à une entité LLC. Si aucune erreur ne s'est produite, alors le contenu de cette primitive est identique à celui de la primitive MA_UNITDATA.request de l'émetteur ; - MA_STATUS.indication (status) indique à l'entité LLC un changement d'état dans le fonctionnement du service MAC DQDB. Elle n'a qu'une portée locale. Les différents états de fonctionnement de la couche DQDB sont : - fonctionnement normal, - données non transmises car le nœud est isolé du réseau, - données non transmises car le réseau est en cours d'initialisation ou de reconfiguration, - autre raison de non-fonctionnement.
6.6.2. Primitives
du
service
isochrone
DQDB
Le service DQDB isochrone permet le transfert de données entre deux utilisateurs de ce service à travers une connexion isochrone préalablement établie. Ce service fournit une période moyenne d'envoi des données ainsi qu'une bande passante garantie sur le support. Les primitives définies pour ce service sont : - ISU_DATA.request (ISDU) qui permet le transfert d'un octet du service isochrone à travers une connexion préalablement établie. Le paramètre ISDU transporte un seul octet de service isochrone ; - ISU_DATA.indication (ISDU) qui indique l'arrivée d'un octet isochrone sur une connexion. La table des connexions isochrones établies pour ce nœud permet de déduire le VCI à partir du CEP de la primitive de requête et inversement, pour la primitive d'indication.
6 . 6 . 3 . Primitives connexion
du
service
de
données
asynchrones
orienté
Ce service supporte le transfert de données à travers des canaux virtuels. Il est asynchrone car il ne garantit aucune périodicité de transfert des données. Les détails de ce service et des primitives utilisées sont en cours d'étude au sein du groupe de
1 78
Architecture des réseaux haut débit
normalisation IEEE 802.6. La figure 6.13 résume l'ensemble des primitives utilisées par la couche DQDB. MA_UNITDATA.request LLC
MAJJNITD ATA. indicatior M A _ J 1A1 U à . indication
couche DQDB
ISU DATA.reauest
service isochrone
ISILDATA.indication
F i g u r e 6 . 1 3 . Primitives de service de la couche DQDB
fi.!.
T. a
r n n r h p nhvKÏnne
6 . 7 . 1 . Les
différents
supports
La couche DQDB est indépendante de la couche physique, aussi peut-on mettre en œuvre différents supports et différents débits tout en conservant le même protocole d'accès. Trois systèmes de transmission ont été retenus dans le standard 802.6 : - le système ANSI DS-3, à un débit de 44,736 Mbit/s sur câble coaxial ou fibre optique ; - le système de transmission SONET/SDH, à des débits de 155,52 Mbit/s et plus sur fibre optique monomode ; - le système de transmission G.703, à des débits de 34,368 Mbit/s et 139,264 Mbit/s sur des supports métalliques. Pour chaque système de transmission, une sous-couche de convergence est définie pour fournir le même service à la couche D Q D B . A l'heure actuelle, seule la fonction de convergence correspondant au système de transmission DS3 est définie.
6 . 7 . 2 . Le
service
physique
Chaque station appartenant au réseau DQDB qui n'est pas en tête de bus (c'est-àdire générateur de slots) est reliée physiquement aux deux bus, A et B. Deux points d'accès au service physique (PH-SAP) sont donc définis : PH-SAP_A permet de recevoir sur le bus A et d'émettre sur le bus B, PH-SAP_B permet de recevoir sur le bus B et d'émettre sur le bus A (figure 6.14).
DQDB (Distributed Queue Dual Bus)
179
couche DQDB PH-SAP_A
PH-SAP.B
couche physique bus A busB
bus A busB F i g u r e 6 . 1 4 . Les services
de la couche
physique
Les primitives fournies par la couche physique et utilisées par la couche DQDB sont : - PH_DATA.request (octet, type) demande le transfert d'un octet depuis la couche DQDB locale à la couche DQDB distante. Le paramètre type indique le type de l'octet, SLOT_START pour le premier octet d'une cellule, SLOT_DATA pour un octet suivant dans la cellule et DQDB JvlANAGEMENT pour des données de gestion ; - PH_DATA.indication (octet, [status]) est générée par la couche physique afin d'indiquer la réception d'un octet. Le paramètre status, facultatif, indique à la couche physique que l'octet proposé pour le transfert est soit valide, soit invalide ; - PH_STATUS.indication (status) est générée par la couche physique afin d'indiquer l'état opérationnel du lien de transmission bidirectionnel associé avec l'un des SAP ; - PH_TIMING_SOURCE.request (source) fournit l'origine de la fréquence d'horloge à la couche physique. L'horloge est fournie soit de manière externe ou interne au nœud ou encore reçue de l'un des bus ; dans ce dernier cas, une autre station fournit l'horloge au bus, par exemple, le générateur de cellules ; - PH_TIMING_MARK.indication synchronisation toutes les 125 us.
signale l'arrivée d'une information
de
1 80
Architecture des réseaux haut débit
Exercices
Exercice
6.1
Un réseau métropolitain utilisant le protocole DQDB comporte cinq stations désignées par A, B, C, D et E. bus A A
B
C
D
E
bus B
On suppose que le temps de propagation de A à E est égal au temps de transmission d'un slot. On suppose aussi qu'une station incrémente son compteur avant de le décrémenter et avant d'effectuer une requête de transmission (positionnement du bit RQ sur l'autre bus). Rappelons enfin qu'une nouvelle requête ne peut être effectuée que lorsque la précédente est satisfaite et qu'une requête ne permet la transmission que d'un seul segment. Le scénario étudié est le suivant : - les stations ne désirent transmettre des données que sur le bus A ; - les slots 0, 1,2, 3, 5, 10 et 15 sont occupés par des transmissions isochrones (slots PA) ; - à t = 1, D veut émettre 3 segments ; - à t = 2, B et C veulent émettre chacune 2 segments ; - à t = 5, E veut émettre 3 segments ; - à t = 9, A veut émettre 3 segments. 1. Sur un tableau, où chaque ligne représente un slot du bus A, montrez l'évolution dans le temps des compteurs RQ et CD pour chacune des stations. On utilisera les conventions suivantes : - un slot occupé par la transmission du premier segment de la station 1 sera noté A l ; - un slot occupé par une transmission isochrone est représenté par X (une croix). bus B bus A temps émission requêtes 0
X
—
A
c
B
RQ
CD
RQ
0
0
0
CD 0
D
commentaires
RQ
CD
RQ
CD
0
0
0
0
Remarque — Il est inutile de faire figurer les compteurs de la station E car ils restent à zéro.
DQDB (Distributed Queue Dual Bus)
1 81
2. Pour chacune des stations, calculez le débit effectif (ou débit utile) de transmission des slots. Commentez. Exercice
6.2
débit maximum (Mbit/s)
Commentez les courbes ci-dessous qui représentent le débit maximum obtenu pour les réseaux FDDI et DQDB pour différentes tailles de trames et longueurs de réseaux [Ahmad 92].
160 200 taille réseau (km) technologie
taille trame I
»1«
64 octets
1 518 octets
4 000 octets
= FDDI = DQDB
1 82
Architecture des réseaux haut débit
Exercice
6.3
délai d'accès (us)
Commentez les courbes ci-dessous qui représentent le comportement de DQDB pour différentes stations situées à différentes positions sur le bus [Ahmad 92].
position de l'utilisateur
10 km
50 km
100 km
200 km
j
Chapitre 7
LLC (Logical Link Control)
7.1.
Introduction
Dans l'architecture IEEE, la couche liaison de données est divisée en deux souscouches, MAC pour le niveau inférieur et LLC pour le niveau supérieur. Nous avons pu voir à plusieurs reprises que les réseaux locaux et métropolitains se singularisent par le partage du support de transmission. C'est le rôle de la sous-couche MAC que de gérer et de contrôler l'accès des stations du réseau à ce support unique. Ses fonctions ne vont pas au-delà. La sous-couche LLC intervient alors, au-dessus de MAC, afin de rendre un service comparable à un service de liaison OSI. En particulier, LLC est chargé de gérer les communications entre stations et d'assurer l'interface avec les couches supérieures (couche réseau). Ses spécifications sont données dans le standard IEEE 802.2 et sont reprises dans la norme internationale IS 8802-2 de l'ISO. Le standard 802.2 définit : - le protocole de la sous-couche LLC commune aux standards IEEE de niveau MAC (802.3, 802.4, etc.), - l'interface de service fournie à la couche réseau, - l'interface de service fournie par la sous-couche MAC.
1 84
Architecture des réseaux haut débit
7.2. Services fournis à la couche
réseau
LLC offre un certain nombre de services à la couche réseau. Conformément aux principes de structuration en couches du modèle OSI, une entité de réseau désirant accéder aux services de LLC doit le faire à travers un mécanisme d'identification de service, appelé "point d'accès au service" (SAP — Service Access Point). Trois types de services sont fournis à la couche réseau : - service sans connexion, - service avec connexion, - service sans connexion avec acquittement.
7.2.1. Service
sans
connexion
:
LLC1
Le service LLC1 est un service en mode datagramme. Le transfert de données peut se faire en point à point, en point à multipoint ou en diffusion. LLC1 n'offre donc que l'émission et la réception de trames sans : - aucun séquencement ; - aucune forme d'acquittement de la part du destinataire (par conséquent, pas de garantie de livraison, ni de notification en cas d'échec) ; - aucun contrôle d'erreur. Le service LLC 1 repose donc sur un protocole peu complexe et trouve son utilité dans les contextes suivants : - lorsque les couches supérieures fournissent déjà un service de détection et de traitement d'erreur ainsi qu'un service de séquencement. Dans de nombreux réseaux locaux, les systèmes d'extrémité implantent les couches 3 à 7 et utilisent un service datagramme au niveau réseau et un service en mode connecté au niveau transport, par exemple TCP/IP ou TP4/CLNP. Il est donc inutile de dupliquer ce service, avec toute la lourdeur qui en découle, au niveau LLC ; - lorsque l'application n'exige pas une garantie de transmission de chacune de ses unités de données. En particulier, il existe des applications pour lesquelles le mode connecté est injustifié voire même pénalisant. Citons, entre autres : • la collecte de données : c'est le cas d'applications qui recueillent des données provenant de différents capteurs permettant de contrôler l'exécution d'une tâche. La perte occasionnelle d'une donnée ne compromet pas le contrôle si l'on sait que les données suivantes devraient arriver rapidement ; • la diffusion de données : comme, par exemple, la diffusion de messages d'intérêt commun à tous les utilisateurs d'un réseau (changement de l'adresse d'un service, distribution des tops d'une horloge, etc.) ; • le transactionnel : l'interrogation d'un serveur se limite souvent à une seule séquence de type question-réponse. L'établissement d'une connexion n'est
LLC (Logical Link Control)
185
généralement pas nécessaire, l'utilisation du service étant contrôlée au niveau applicatif ; • le temps réel : pour les applications qui présentent des contraintes temporelles strictes, l'utilisation du mode connecté introduirait des délais trop longs ou trop variables. Les primitives qui permettent d'utiliser ce service sont au nombre de deux et portent, bien sûr, sur le transfert de données. La figure 7.1 montre l'enchaînement de la primitive de requête et de la primitive d'indication. utilisateur DL.UNITDATA.req ( adresse source, adresse destination^ données, priorité )
utilisateur
fournisseur , du service
Figure 7.1. Les primitives
DL.UNITDATA.ind ( adresse source, adresse destination, ^ .données, priorité ) de service
LLC1
Les paramètres ont la signification suivante : - l'adresse source spécifie l'utilisateur local de LLC ; - l'adresse destination spécifie l'utilisateur distant de LLC. Elle peut représenter une adresse individuelle ou de groupe (puisque LLC1 permet de fonctionner en point à point, en multipoint ou en diffusion) ; - la priorité indique le niveau de priorité désiré pour le transfert de la donnée. Ce paramètre est directement passé à l'entité MAC qui a la responsabilité d'implanter ou non un mécanisme de priorité (CSMA/CD, par exemple, ne supporte pas de système de priorités). Le standard ne spécifie pas l'intervalle de valeurs possibles : cela est dicté par la sous-couche MAC et les valeurs possibles doivent être connues de l'utilisateur de LLC.
7.2.2. Service
avec
connexion
:
LLC2
Le service LLC2 utilise les trois phases de fonctionnement du mode connecté, à savoir, la phase d'établissement de la connexion, la phase de transfert de l'information ainsi que la phase de libération de la connexion. Par essence, l'existence d'une connexion logique implique que le fournisseur du service LLC, à chaque extrémité de la connexion, garde une trace des données en cours d'émission et de réception. Pendant le transfert de données, LLC2 garantit que toutes les unités de données sont correctement délivrées à leur destinataire (sans erreur, ni perte, ni duplication, ni déséquencement). S'il y a échec, LLC2 le notifie à son utilisateur.
1 86 Architecture des réseaux haut débit
Le mode LLC2 est donc bien adapté aux applications qui nécessitent des échanges de longue durée (transfert de fichiers, accès distant à un système fonctionnant en temps partagé). La couche réseau accède aux services LLC2 au moyen de primitives réparties en cinq groupes. 7.2.2.1. Etablissement
de
connexion
Pour l'établissement de connexion, les quatre primitives utilisées sont : - DL_CONNECT.request (adresse source, adresse destination, priorité), - DL_CONNECT.indication (adresse source, adresse destination, priorité), - DL_CONNECT.response (adresse source, adresse destination, priorité), - DL_CONNECT.confirmation (adresse source, adresse destination, priorité). Dans le cas de l'établissement réussi (figure 7.2), la priorité de l'indication est la même que celle de la requête. Par contre, celle de la réponse peut lui être inférieure. La priorité de la confirmation est égale à la priorité de la réponse. La priorité est associée à l'ensemble de la connexion et peut être utilisée pour déterminer les ressources que l'entité LLC va allouer à la connexion. Elle est passée à l'entité MAC pour chaque unité de données transférée sur la connexion logique. utilisateur DL_CONNECT.req ( adresse source, adresse destinatiolïr priorité )
fournisseur du service
DL_CONNECT.conf ( adresse source, adresse destination, priorité ) Figure 7.2. Etablissement
utilisateur DL_CONNECT.ind ( adresse source, adresse destination, priorité )
DL_CONNECT.resp ( adresse source, adresse destination, priorité )
de connexion
réussi
Dans le cas d'un croisement de requêtes de connexion (figure 7.3), une seule connexion est établie, les entités LLC fournissant une confirmation à chacun des utilisateurs. La priorité la plus faible est la priorité reconnue.
LLC (Logical Link Control) fournisseur du service
utilisateur
DL_CONNECT.req ( adresse source, adresse destination, priorité )
utilisateur
DL_CONNECT.req ( adresse source, adresse destination, priorité )
DL_CONNECT.conf ( adresse source, adresse destination, priorité )
DL_CONNECT.conf ( adresse source, adresse destination, priorité )
F i g u r e 7 . 3 . Croisement
7.2.2.2. Libération
187
et refus de
de requêtes
de
connexion
connexion
La libération de connexion est un service non confirmé. Les primitives utilisées sont donc au nombre de deux : - DL_DISCONNECT.request (adresse source, adresse destination), - DL_DISCCONNECT.indication (adresse source, adresse destination, raison). Le paramètre raison indique la raison de la déconnexion et si la libération provient du fournisseur (figure 7.4 (a)) ou de l'un des deux utilisateurs (figure 7.4 (b)). utilisateur
fournisseur du service
utilisateur DL_DISCONNECT.ind ( adresse source, adresse destination, raison )
DL.DISCONNECT.ind ( adresse source, adresse destination, raison ) ^-^^ (a) par le fournisseur utilisateur DL_DISCONNECT.req ( adresse source, adresse destination )
fournisseur du service
utilisateur
DL_DISCONNECT.ind ( adresse source, adresse destination, raison ) (b) par un utilisateur
F i g u r e 7 . 4 . Libération
de
connexion
1 8 8 Architecture des réseaux haut débit
Le fournisseur peut refuser d'établir une connexion (figure 7.5 (a)). Cela arrive par exemple, lorsque : - l'entité LLC locale n'est pas capable d'établir la connexion (manque de ressources, mauvais fonctionnement local, etc.), - l'entité LLC distante ne répond pas à la requête de connexion, malgré N tentatives successives. De même, l'utilisateur appelé a la possibilité de refuser l'appel entrant en répondant par une demande de déconnexion (figure 7.5 (b)). utilisateur
fournisseur du service
utilisateur DL_CONNECT.req ( adresse source, adresse destination, priorité ) DL.CONNECT.conf ( adresse source, adresse destination, raison)
(a) par le fournisseur utilisateur
fournisseur du service
utilisateur DL_CONNECT.req ( adresse source, adresse destination, priorité )
DL_CONNECT.ind ( adresse source, adresse destination, priorité )
DL_CONNECT.conf ( adresse source, adresse destination, priorité )
DL_CONNECT.resp ( adresse source, adresse destination,) (b) par l'utilisateur distant Figure 7.5. Refus
7.2.2.3. Transfert
de
d'établissement
données
En mode connecté, le transfert de données se fait en point à point, soit d'un utilisateur de LLC vers un autre utilisateur. Les primitives invoquées sont (figure 7.6) : - DL_DATA.request (adresse source, adresse destination, données), - DL_DATA.indication (adresse source, adresse destination, données).
LLC (Logical Link Control)
utilisateur
189
utilisateur
fournisseur du service
DL_DATA.req ( adresse source, adresse destination, données)
DL_DATA.ind ( adresse source, adresse destination, données )
Figure 7.6. Transfert
de
données
Une confirmation à l'utilisateur émetteur n'est pas nécessaire, puisque le service en mode connecté garantit la remise correcte de ses données. En cas de problème, l'utilisateur est averti par des fonctions de déconnexion ou de réinitialisation. 7.2.2.4. Réinitialisation
de
utilisateur DLJŒSET.ind ( adresse source, adresse destination, raison ) DL_RESET.resp ( adresse source, adresse destination )
connexion utilisateur
fournisseur du service
DL_RESET.ind ( adresse source, adresse destination, raison ) k. DL_RESET.resp ( adresse source, adresse destination )
(a) par le fournisseur utilisateur
utilisateur
fournisseur du service
DL.RESET.req ( adresse source, adresse destination T DLJRESET.conf ( adresse source, adresse destination )
DL_RESET.ind ( adresse source, adresse destination, raison ) DL_RESET.resp ( adresse source, adresse destination ) (b) par un utilisateur
Figure 7.7. Réinitialisation
de connexion
réussie
A tout moment, le fournisseur ou l'un des utilisateurs peut réinitialiser la connexion logique sur détection d'une erreur grave ; il y a éventuellement perte de données (existence de données envoyées par une entité LLC mais non encore acquittées par l'autre entité) puisque la connexion retrouve son état initial et que tous
1 90 Architecture des réseaux haut débit
les numéros de séquence utilisés par le protocole sont remis à 0. La réinitialisation constitue un service confirmé, avec les quatre primitives suivantes : - DL_RESET.request (adresse source, adresse destination), - DL_RESET.indication (adresse source, adresse destination, raison), - DL_RESET.response (adresse source, adresse destination), - DL_RESET.confirmation (adresse source, adresse destination). Le paramètre raison indique qui est à l'initiative de la réinitialisation, le fournisseur (figure 7.7 (a)) ou l'un des utilisateurs du service LLC (figure 7.7 (b)). 7.2.2.5. Contrôle
de flux
Le contrôle de flux dans le service LLC2 intervient à l'interface réseau/LLC et repose sur deux primitives : - L_CONNECTION_FLOWCONTROL.request (adresse source, adresse destination, valeur), - L_CONNECTION_FLOWCONTROL indication (adresse source, adresse destination, valeur). Elles servent à réguler le flot de données entre la couche réseau et la sous-couche LLC. Chaque fois que cela s'avère nécessaire, la couche réseau utilise une primitive de requête L_CONNECTION_FLOWCONTROL pour indiquer à la couche LLC la quantité de données qu'elle est prête à recevoir (figure 7.8 (b)). De même, la souscouche LLC utilisera l'indication pour signifier à la couche réseau combien de données elle peut accepter sans risque d'en perdre (figure 7.8 (a)). Si le paramètre valeur est nul, le flot de données associé à la connexion est suspendu. utilisateur DL_CONNECTION_ FLOWCONTROL.ind ( adresse source, adresse destination, valeur )
utilisateur
fournisseur du service
(a) par le fournisseur utilisateur
utilisateur
fournisseur du service
DL_CONNECTION_ FLOWCONTROL.req ( adresse source, adresse destination, valeur ) (b) par un utilisateur Figure 7.8. Contrôle
de flux à
l'interface
LLC (Logical Link Control) 7.2.3. Service
sans
connexion
avec
acquittement
:
191
LLC3
On peut se demander quelle peut être l'utilité d'un tel type de service. Considérons le fait que le mode connecté oblige l'entité LLC à gérer une table pour chaque connexion active. Si un utilisateur émet vers un grand nombre de destinataires et qu'il souhaite une garantie sur la remise de ses données, le service en mode connecté devient très difficilement gérable à cause du nombre de tables nécessaires. Un exemple de ce type d'application est le contrôle de processus pour lequel un site central doit communiquer avec de nombreux processeurs ou contrôleurs programmables. Un autre intérêt du service LLC3 est de fournir un système de polling avec garantie de réponse. Ici encore, dans le cas d'un contrôle de processus, il peut être nécessaire d'acquérir des données de la part d'un capteur possédant une faible capacité de calcul. Dans ce cas, l'implantation de ce service est plus simple et mieux approprié que le service en mode connecté. Un dernier exemple concerne aussi l'environnement industriel pour lequel certains signaux d'alarme ou de contrôle sont très importants et possèdent des contraintes de temps. Un acquittement est alors nécessaire pour garantir à l'expéditeur que son signal a été reçu mais le caractère urgent du signal oblige l'expéditeur à ne pas perdre de temps avec l'établissement préalable d'une connexion. LLC3 est un service qui s'utilise en point à point uniquement. On peut le voir comme étant constitué de deux services indépendants : - DL_DATA_ACK : service avec remise garantie ; - DL_REPLY : service de polling avec réponse garantie, qui permet à un utilisateur de demander des données préalablement préparées par un autre utilisateur ou d'échanger des données avec un autre utilisateur. 7.2.3.1. Service avec remise
garantie
Ce service repose sur l'utilisation de trois primitives : - DL_DATA_ACK.request (adresse source, adresse destination, données, priorité, classe_de_service), - DL_DATA_ACK.indication (adresse source, adresse destination, données, priorité, classe_de_service), - DL_DATA_ACK_STATUS.indication (adresse source, adresse destination, priorité, classe_de_service, status). Ce service permet à un utilisateur : - d'envoyer des données à un utilisateur distant, - de recevoir une confirmation immédiate de la remise de ses données (figure 7.9 (a)) ou de l'échec de la remise (figure 7.9 (b)).
1 9 2 Architecture des réseaux haut débit
utilisateur DL_DATA_ACK.req ( adresse source, adresse destination, données, priorité, classe de service )
fournisseur du service
utilisateur DL_DATA_ACK.ind ( adresse source, adresse destination, données, priorité, classe de service )
DL.DATA.ACKJ*-""""^ STATUS, ind ( adresse source, adresse destination, priorité, classe de service, status ) (a) réussite utilisateur DL_DATA_ACK.req ( adresse source, adresse destination, données, priorité, classe de service )
fournisseur du service
utilisateur
DL_DATA_ACK_ STATUS.ind ( adresse source, adresse destination, priorité, classe de service, status ) (b) échec F i g u r e 7.9. Service avec remise
garantie
Le paramètre classe_de_service indique si un service d'acquittement doit être mis en œuvre dans la sous-couche MAC pour le transfert de la donnée. Cette option est notamment possible avec le standard IEEE 802.4. Token Bus. Le paramètre status indique si l'unité de données transmise a été reçue correctement par l'entité LLC distante ou sinon la cause de l'échec. Un échec peut avoir une cause locale ou distante telle que l'impossibilité de transmettre ou l'absence de réponse de l'entité distante. 7.2.3.2. Service
de polling
avec réponse
garantie
Ce service permet à un utilisateur de solliciter une donnée d'un utilisateur distant et, optionnellement, de transmettre une unité de données en même temps.
LLC (Logical Link Control)
193
II utilise les primitives suivantes : - DL_REPLY.request (adresse source, adresse destination, données, priorité, classe_de_service), - DL_REPLY.indication (adresse source, adresse destination, données, priorité, classe_de_service), - DL_PvEPLY_STATUS.indication (adresse source, adresse destination, données, priorité, classe_de_service, status), - DL_REPLY_UPDATE.request (adresse source, données), - DL_REPLY_UPDATE_STATUS.indication (adresse source, status). Considérons le cas d'un système à polling avec un utilisateur primaire et plusieurs utilisateurs secondaires. Si un utilisateur secondaire a une unité de données à transmettre, il doit attendre d'être sollicité pour le faire. Les primitives DL_REPLY_UPDATE permettent d'éviter cette attente. Un utilisateur peut, par la primitive de requête, délivrer une unité de données à son entité LLC locale qui la conserve en l'associant au SAP de son utilisateur, et qui l'enverra à un utilisateur distant chaque fois que cela lui sera demandé. Chaque fois que l'utilisateur local voudra faire une mise à jour sur la donnée qu'il met à la disposition des autres utilisateurs, il pourra le faire en invoquant à nouveau la primitive D L _ R E P L Y _ U P D A T E . r e q u e s t . L'entité LLC répond à une D L _ R E P L Y _ UPDATE.request par une DL_REPLY_UPDATE-STATUS.indication (figure 7.10). Le paramètre status indique un succès si l'unité de données a bien été associée au SAP de l'utilisateur, ou un incident si cette association n'a pu être réalisée (pour cause d'insuffisance de tampons par exemple). fournisseur du service
utilisateur
utilisateur
DL_REPLY_UPDATE. req ( adresse source, données ) \
DL_REPLY_UPDATE_ STATUS.ind ( adresse source, status ) Figure 7.10. Preparation
de données pour une réponse à un polling
Du côté de l'utilisateur demandeur de données, le service peut être invoqué grâce à la primitive DL_REPLY.request. Cette primitive permet, outre le fait de solliciter des données associées au paramètre adresse destination, de transférer optionnellement de l'information (paramètre données). Si l'entité locale ne peut pas traiter la requête, elle retourne immédiatement une primitive DL_REPLY_STATUS.indication avec le
1 94
Architecture des réseaux haut débit
paramètre status indiquant la nature de l'incident (figure 7.11 (b)). Sinon (figure 7.11 (a)), la requête est transmise à l'entité destinataire avec les résultats suivants : - l'entité LLC destinataire génère une DL_REPLY.indication vers l'utilisateur distant. Si la requête de l'utilisateur local était accompagnée d'une unité de données, cette dernière est délivrée à l'utilisateur destinataire par la primitive d'indication ; - si une unité de données est associée au SAP du destinataire (suite à une invocation par ce dernier de la primitive DL_REPLY_UPDATE.request), elle est transmise en retour à l'entité LLC source. Si aucune unité de données n'est associée, l'entité LLC destinataire envoie un message à l'entité LLC source pour l'informer de cette absence de données. Quand le message est reçu par l'entité LLC source, elle génère une DL_REPLY_ STATUS.indication. Si tout s'est bien passé, l'entité source délivre l'unité de données provenant de l'entité LLC distante. Sinon, le paramètre status indique la nature de l'incident comme par exemple, l'absence de réponse de l'entité destinataire ou l'absence d'unité de données associée au SAP distant. utilisateur DL_REPLY.req ( adresse source, adresse destination, données, priorité, classe de service )~~
fournisseur du service
utilisateur DL_REPLY.ind ( adresse source, adresse destination, données, priorité, classe de service )
D L R E P L Y STATUS.ind ( adresse source, adresse destination, données priorité, classe de service, status ) (a) réussite utilisateur DL_REPLY.req ( adresse source, adresse destination, données, priorité,^ classe de service )
fournisseur du service
utilisateur
\
DL_DATA_ACK STATUS.ind ( adresse source, adresse destination, données priorité, classe de service, status ) (b) échec F i g u r e 7 . 1 1 . Service
de
polling
LLC (Logical Link Control) 7.3.
Interface
195
MAC/LLC
Cette interface, spécifiée dans le standard 802.2, est totalement sans connexion. Elle contient les primitives qui permettent à la sous-couche LLC d'accéder aux services de la sous-couche MAC : - MA_UNITDATA.request (adresse source, adresse destination, données, priorité, classe_de_service), - MA_UNITDATA.indication (adresse source, adresse destination, données, status_réception, priorité, classe_de_service), - MA_UNITDATA_STATUS.indication (adresse source, adresse destination, status_transmission, priorité_utilisée, classe_service_utilisée). Les paramètres ont la signification suivante : - les adresses source et destination spécifient des adresses MAC. Une adresse destination peut être individuelle ou de groupe ; - le paramètre données
contient la PDU LLC ;
- la priorité spécifie la priorité désirée pour le transfert de l'unité de données ; - la classe_de_service spécifie si un mécanisme d'acquittement doit être utilisé pour la transmission de l'unité de données ; - le paramètre status_réception indique le succès ou l'échec de la transmission de la trame entrante : par exemple, si une erreur est détectée dans une trame entrante, cette information est reportée à la sous-couche LLC qui peut l'utiliser dans le cadre de son propre contrôle d'erreur ; - la primitive MA_UNITDATA_STATUS.indication est passée de l'entité MAC à l'entité LLC pour confirmer le succès ou l'échec du service demandé par une requête antérieure. Si la classe_de_service indique une non-utilisation de l'acquittement (ce qui est le cas général), la primitive d'indication est générée immédiatement après la tentative de transmission et indique seulement si l'entité MAC locale a ou n'a pas réussi à transmettre la trame. Dans le cas contraire, la primitive d'indication n'est passée que lorsqu'un acquittement est reçu de l'entité MAC destinataire ou lorsque le nombre maximum de transmissions pour une trame a été atteint ou encore lorsqu'une panne locale se produit. Remarquons que cette primitive d'indication de compte rendu sert de confirmation pour l'entité émettrice ; on la retrouve ainsi dans d'autres spécifications sous le nom de MA_UNITDATA.confirmation ; - le paramètre status transmission est utilisé pour retourner de l'information d'état à l'entité locale LLC demandante. Les types de status qui peuvent être associés avec cette primitive sont dépendants de ('implementation et du type de protocole MAC utilisé (par exemple, un nombre excessif de collisions peut constituer une information de compte rendu retourné par une entité MAC CSMA/CD).
1 96 Architecture des réseaux haut débit
7.4.
Protocoles LLC
Le protocole LLC défini dans le standard IEEE 808.2 s'apparente au protocole HDLC [IS 3309] utilisé par les réseaux grande distance : ils ont des formats et des fonctions similaires. Cela est surtout vrai dans le cas du mode connecté. Il y a en fait trois protocoles LLC, selon le type de service offert. Il est possible, pour une station donnée, de supporter plus d'un type de service et donc d'implémenter plus d'un protocole.
7.4.1. Unités
de
données
Les trois protocoles LLC utilisent le même format de trames, similaire au format des trames HDLC (cf. figure 7.12). 1 octet
1 octet
adresse
adresse
DSAP
SSAP
1 ou 2 octets
n octets (n > 0 )
information
contrôle
Figure 7.12 Format des trames LLC
Les deux champs d'adresse comportent chacun une adresse de 7 bits et un bit de contrôle : dans le cas du DSAP, il indique s'il s'agit d'une adresse individuelle ou d'une adresse de groupe (autorisée uniquement en LLC1) (bit I/G) ; dans le cas du SSAP, il indique si la trame est une commande ou une réponse (bit C/R). Le champ de contrôle identifie le type de PDU — trame d'information, trame de supervision ou trame non numérotée — et spécifie plusieurs fonctions de contrôle ; sa longueur est de 1 ou 2 octets, selon son type (figure 7.13). Les trames qui sont numérotées (champs N(S) et N(R)) le sont modulo 128. Le bit P/F (Poil/Final) permet à une trame de commande de demander une réponse et à une trame de réponse d'être associée à la commande l'ayant suscitée. trame d'information (I)
0
trame de supervision (S)
1 0
trame non numérotée (U)
1
N(S) S
S
0
0
0
P/F
N(R)
0 P/F
N(R)
1 M M P/F M M M
N(S) - numéro de séquence en émission N(R) - numéro de séquence en réception S - bit de fonction de supervision M - bit de fonction de modification P/F - bit Poil/Final
Figure 7.13. Champ de contrôle des PDU LLC
LLC (Logical Link Control)
197
Le tableau 7.1 donne l'ensemble des trames employées par la sous-couche LLC. code service en mode non connecté information non numérotée échange d'identification
UI XID TEST
test service en mode connecté information prêt à recevoir non prêt à recevoir
I RR RNR REJ SABME
rejet fonctionnement en mode équilibré libération ou déconnexion acquittement non numéroté mode déconnecté rejet de trame service en mode non connecté acquitté information acquittée sans connexion séquence 0 information acquittée sans connexion séquence 1
DISC UA DM FRMR
commande réponse code binaire
X X X X X X X X
LLC
de
type
110OP0O0 1111 P/F 101 1100P/F111
X X X X
OxxxP/Fxxx 10000000
X X X
10100000 10010000 1111P110 1100P010 1100F110 111F000 1110F001
ACO
X
X
1110P/F110
AC1
X
X
1U0P/F111
Tableau 7.1. Trames utilisées par le protocole
7.4.2. Protocole
X X X
LLC
1
Le service LLC de type 1 se réduisant au minimum, le protocole qui lui est associé est extrêmement simple, avec seulement trois PDU. La trame UI est utilisée pour transférer des données utilisateur, qui sont fournies et délivrées via les primitives DL_UNITDATA. Il n'y a ni acquittement, ni contrôle de flux, ni contrôle d'erreur (toutefois, il y a détection d'erreur et rejet éventuel au niveau de la sous-couche MAC). Les deux autres trames, XID et TEST, servent aux fonctions d'administration associées aux trois types de LLC. Elles sont toutes deux utilisées de la façon suivante : chaque entité LLC peut émettre une commande (bit C/R = 0) XID ou TEST. L'entité LLC destinataire doit alors envoyer en retour une réponse XID ou TEST. Le champ d'information contient de l'information d'administration.
1 98
Architecture des réseaux haut débit
Le standard n'impose pas une utilisation précise de la trame XID, mais suggère plusieurs cas d'utilisation possibles, par exemple : - une commande XID avec un LSAP nul peut être utilisé pour solliciter une réponse d'une station quelconque ("Etes-vous là ?") ; - une commande XID avec une adresse de DSAP de groupe peut servir à déterminer l'appartenance à un groupe. En particulier, une adresse globale (diffusion) peut servir à identifier toutes les stations actives ; - un échange de XID avec des LSAP nuls peut servir à identifier les types de protocoles LLC implémentés ; - un échange de XID avec des LSAP différents peut servir à identifier les types de service offerts à ces LSAP ; - une entité LLC peut annoncer sa présence avec une adresse globale. La commande TEST est utilisée pour forcer l'entité LLC distante à répondre par une autre réponse TEST, afin de réaliser un test de base du chemin de transmission entre deux entités LLC.
7.4.3. Protocole
LLC
de type
2
Le principe est très similaire à celui de HDLC avec un fonctionnement en mode équilibré (ABM — Asynchronous Balanced Mode). Il utilise les trois types de trames I, S et U (figure 7.13 et tableau 7.1) : - les trames d'information (I) permettent de transférer les données utilisateur. Les champs N(S) et N(R) servant au contrôle d'erreur et au contrôle de flux et véhiculent respectivement un numéro de séquence en émission et un numéro de séquence en réception (numéro d'acquittement) ; - les trames de supervision (S : RR, REJ, RNR) mettent en œuvre les mécanismes d'acquittement, de contrôle d'erreur et de contrôle de flux ; - les trames non numérotées (U : SABME, DISC, UA, DM, FRMR) réalisent principalement les fonctions d'établissement, de libération de connexion, ainsi que d'autres fonctions de contrôle.
7.4.4. Protocole
LLC
de type
3
Chaque PDU transmise est acquittée. Le protocole utilise deux nouvelles PDU (inexistantes dans HDLC) non numérotées : ACO (Acknowledged Connectionless, Seq. 0) et AC1, leur codage ne différant que par un seul bit. Les données utilisateur sont encapsulées dans une trame de commande AC et doivent être acquittées par une
LLC (Logical Link Control)
199
trame de réponse AC. Le contrôle de flux est de type send-and-wait (utilisation d'une fenêtre d'émission de taille égale à 1 ) et le contrôle d'erreur de type ARQ (utilisation d'acquittements positifs et de retransmissions sur temporisateur). Pour se prémunir contre les pertes de PDU, un émetteur alternera l'utilisation de ACO et de AC1 dans ses trames de commande ; le destinataire répondra avec une PDU ACn de numéro opposé à celui contenu dans la commande. Il est à noter qu'un protocole LLC de type 4 fut un moment candidat à la normalisation des protocoles LLC mais qu'il n'a finalement pas été adopté.
200 Architecture des réseaux haut débit
Exercices Exercice
7.1
Pour les différents types d'application énumérés ci-après, quelle est la classe de procédure LLC qui convient le mieux ? Justifiez brièvement votre réponse. Les types d'application sont : -
application messagerie télécopie, transfert de contrôle de
Exercice
transactionnelle, X.400, fichiers, processus.
7.2
Sur un réseau local Ethernet, une station effectue la diffusion d'une trame à toutes les autres stations. Au niveau LLC, indiquez comment est réalisée la reprise sur erreur, le cas échéant, de cette trame si le protocole est de type : - LLC1, - LLC2, - LLC 3. Exercice
7.3
Pourquoi n'y a-t-il pas de PDU de commande associée au service de contrôle de flux de LLC2 ? Exercice
7.4
On considère une architecture utilisant LLC3 au-dessus de Token Ring. La primitive MA_DATA.confirmation est-elle d'une réelle utilité dans le cadre du service avec remise garantie offert par LLC3 ? Que se passe-t-il lorsque des erreurs de transmission se produisent sur une trame ? Exercice
7.5
On considère une architecture de communication en environnement manufacturier utilisant LLC3 au-dessus de Token Bus. Dans cet environnement, une console de supervision A vient scruter une variable d'état mise à jour périodiquement par un automate programmable industriel B. Montrez sur un diagramme l'enchaînement des primitives aux interfaces LLC et MAC et les échanges de PDU dans les couches LLC et MAC lors de l'activation du service de polling avec réponse garantie par l'utilisateur UA de LLC situé sur la console A.
LLC (Logical Link Control) Exercice
201
7.6
Deux stations A et B sont connectées à un réseau local 802.3. L'échange se fait avec le protocole LLC2. La station A souhaite transférer deux trames d'information à la station B. Montrez sur un diagramme l'enchaînement des primitives aux interfaces LLC et MAC ainsi que les LLC-PDU et MAC-PDU transmises, pendant les phases d'établissement et de transfert.
Chapitre 8
ATM (Asynchronous Transfer Mode)
8.1.
Introduction
Actuellement, les services du téléphone, de transfert de données et d'image sont supportés par des réseaux distincts. Du fait du coût de ces différents réseaux et de leur partitionnement, le réseau large bande doit offrir sur un réseau unique l'ensemble de ces services avec comme objectif l'optimisation des coûts de câblage, de maintenance et de gestion pour l'opérateur. Les moyens de réaliser cette intégration sont d'une part, la fibre optique qui offre les débits nécessaires aux services d'images numérisées et d'autre part, la technique de commutation ATM qui permet une grande souplesse dans l'allocation des débits aux connexions réseau.
8.2. Nouveaux 8.2.1. Les
services et
services
large
multimédia bande
Aux applications classiques d'interconnexion de réseaux locaux ou de supercalculateurs qui demandent de plus en plus de bande passante viennent s'ajouter de nouveaux services dits services large bande. Les récents développements dans les technologies de traitement de l'information ont permis le développement d'applications innovantes (vidéoconférence, visiophone, bases de données géographiques, vidéodiffusion, télédiffusion haute définition, etc.) alliant informatique et télécommunications et concernant de nombreux domaines : médecine, édition, tourisme, journalisme, administration, information [Szuprowicz 95]. Les particuliers sont également visés avec le
204
Architecture des réseaux haut débit
développement de nouveaux services de loisirs, tels la vidéo à la demande ou les jeux interactifs. Toutes ces nouvelles applications nécessitent des traitements complexes et variés : des systèmes d'archivage d'images fixes associés à des bases de données, des serveurs vidéo haute performance, des transmissions haut débit et des moyens d'impression de documents couleur ainsi que l'accès multiple et à distance aux banques d'informations. Dans le même temps, il a été défini de nouvelles méthodes de travail coopératif, comme l'élaboration de documents communs par des utilisateurs distants ou la mise en place de conférences où les conférenciers sont situés dans des sites différents. Au fur et à mesure que les stations de travail gagnent en puissance et en possibilités, la demande pour ces nouvelles applications croît rapidement pour s'étendre des milieux professionnels aux particuliers. Pour s'imposer sur le marché, le réseau large bande devra proposer un vaste éventail de services. Ces derniers sont classés dans la recommandation 1.211 en deux grandes catégories : - les services dits interactifs représentant les services de conversation, de messagerie et de consultation, - les services de distribution comprenant les services liés à la diffusion d'information ou d'images. Le tableau 8.1 donne des exemples d'applications associées à chacune des catégories de services. La plupart des services large bande mettent en jeu plusieurs types d'information et sont donc appelés services multimédias. Les services multimédias sont des services numérisés par un processus spécifique ; ils manipulent des données sonores, des données informatiques ainsi que des images, qu'elles soient fixes ou animées. catégorie
services
applications
services interactifs
conversation
téléphonie, visiophonie, télécopie, données interactives courrier vidéo, courrier électronique avec transfert de documents vidéotext large bande, télévente, consultation de journaux, d'images fixes
messagerie
consultation
services de distribution
sans commande de présentation à l'usager avec commande de présentation à l'usager
Tableau 8.1. Services
vidéo (TV, TVHD), journal électronique, canaux TV multilangues enseignement à distance, téléenseignement
large bande et
applications
ATM (Asynchronous Transfer Mode) 8.2.2. Caractéristiques
des
trafics
205
multimédias
La difficulté du transfert de toutes ces informations sur le même réseau réside dans le fait qu'aucune application ne demande le même débit et n'obéit aux mêmes contraintes. On distingue deux types de contraintes : les contraintes temporelles et les contraintes de qualité de service (QoS — Quality of Service). Les contraintes temporelles concernent le caractère temps réel, asynchrone ou isochrone de l'application. Les services de distribution avec commande de présentation à l'usager ont un caractère temps réel, comme par exemple la distribution de programmes de télévision. Les services interactifs ont aussi un caractère temps réel (cas du téléphone). De par la technique de codage MIC — Modulation par Impulsion et Codage, la voix téléphonique génère un trafic isochrone (un octet toutes les 125 us) en plus de son caractère temps réel. De leur côté, les applications informatiques de transfert de données sont qualifiées d'asynchrones car elles ne présentent aucune contrainte temporelle forte (toute proportion gardée, de l'ordre de la seconde à la minute). Les contraintes de QoS des services du réseau large bande sont définies dans la recommandation 1.356 par trois paramètres qui sont le taux de perte de cellules, le délai de transfert de la cellule et la variation du délai de transfert (également appelée gigue cellule ou encore CDV — Cell Delay Variation). Le tableau 8.2 donne pour quelques exemples d'applications multimédias, des valeurs indicatives pour les paramètres de QoS qui leur sont associés. MPEG1 et M P E G 2 (Moving Picture Expert Group) sont des normes définissant la numérisation du son et des images animées [IS 11172]. application
débit
données
2 Mbit/s
taux d'erreur bit
gigue
—
io
6
3.10 "
10
8
300 ms
130 ms
m-"
10
8
300 ms
130 ms
lu"
distribution TV MPEG1
1,5 Mbit/s
4.10"
M PEG 2
10 Mbit/s
6.10
vidéoconférence
délai de transfert 1 ms
7
64 kbit/s 2 Mbit/s 64 kbit/s 5 Mbit/s 20-50 Mbit/s
videophone
taux de perte des cellules
3.10
Tableau 8.2. Contraintes
13
12
de quelques
4.10 "
0,8 ms
1 ms
io-'°
5 ms 7
6,5 ms 7
2.10
9
applications
multimédias
Dans ce tableau, on constate que les applications citées sont plus ou moins sensibles aux pertes, les informations ayant subi une compression étant les plus sensibles. Certaines sont aussi très sensibles au délai de transfert, telle la distribution de programmes de télévision haute définition qui présente un caractère temps réel excluant toute reprise sur erreur par retransmission.
206
Architecture des réseaux haut débit
(a) trafic CBR
(b) trafic VBR F i g u r e 8 . 1 . Trafics CBR et VBR
Les trafics issus des services multimédias sont très différents. Ils se divisent en deux familles : les trafics à débit constant ou continu (CBR — Constant Bit Rate) et les trafics à débit variable (VBR — Variable Bit Rate) (figure 8.1). Le trafic CBR peut être caractérisé simplement par son débit maximal encore appelé débit crête ; par exemple le débit crête d'un transfert de voix numérisée est de 64 kbit/s [G.711]. Le tableau 8 . 3 donne des exemples de débit crête pour les principaux services CBR. La gestion du trafic CBR est aisée pour le réseau. En général, elle consiste à allouer la bande passante correspondante au débit crête de la source pendant toute la durée de la communication, que celle-ci soit active ou pas. Services
Débit crête
Téléphone
64 kbit/s
Son HI-FI stéréo Télécopie Groupe III
1,4 kbit/s 14.4 kbit/s
Télécopie Groupe IV
64 kbit/s
Tableau 8 . 3 . Débits crêtes de certains services
CBR
Le trafic VBR est qualifié de trafic sporadique. Typiquement, il alterne des périodes d'activité pendant lesquelles des données sont générées à un débit très élevé (on parle de rafale ou de burst en anglais) avec des périodes de silence où très peu de données sont générées voire aucune ; la durée de chacune de ces périodes est aléatoire ainsi que le débit de la période d'activité. Dans certains cas, le trafic VBR peut varier de manière continue sans distinction de périodes. On est amené ainsi à définir le débit crête comme étant le débit maximum pendant la période d'activité et le débit moyen comme le débit calculé sur les deux périodes (activité et silence). Compte tenu des spécificités du processus de numérisation utilisé, les différents services à débits variables ne présentent pas les mêmes caractéristiques en termes de débit crête, de périodes d'activité et de silence ; ces paramètres dépendent pour beaucoup de l'information elle-même et sont difficilement prédictibles.
ATM (Asynchronous Transfer Mode)
207
8.3. Le réseau large bande 8.3.1.
Normalisation
Dès 1990, l'UIT-T a établi un ensemble de recommandations qui définissent le cadre général et les principes de base du réseau large bande ou RNIS-LB (Réseau Numérique à Intégration de Services-Large Bande ou B-ISDN pour BroadbandIntegrated Service Digital Network) (celles-ci sont notées en gras dans le tableau 8.4). D'autres recommandations concernent des points spécifiques du RNIS-LB. Description
Recommandations UIT-T
Aspects large bande du RNIS
1.121
Aspects service
1.211
Architecture fonctionnelle
1.327
Modèle de référence
1.321
Aspects réseau généraux
1.311
Couche ATM
1.150, 1.361
Couche AAL
1.362,1363
Interface Usager-Réseau (UNI)
1.413,1.432
Principes OAM
1.610
Contrôle de congestion
1.371
Performance du transfert de cellule ATM
I.35B
Services de données sans connexion
1.364
Relais de trames au-dessus d'ATM
1.555,1.365
Signalisation Usager-Réseau (en cours)
Q.2931
Signalisation AAL
Q.2100, Q.2110. Q.2130. Q.2140
Vocabulaire
1.113
T a b l e a u 8 . 4 . Recommandations
8.3.2. Modes
de transfert
dans
un réseau
RNIS-LB
commuté
Le mode de transfert dans un réseau vise à partager la ressource réseau entre plusieurs communications simultanées en combinant deux techniques : le multiplexage et la commutation. Le multiplexage consiste à mélanger plusieurs canaux basse vitesse sur un même canal haute vitesse. La commutation aiguille une communication provenant d'un lien en entrée vers un lien en sortie. Conceptuellement, le multiplexage prend place à l'entrée du réseau tandis que la commutation est au cœur du réseau.
208
Architecture des réseaux haut débit
Le mode de transfert utilisé sur un réseau à commutation dépend étroitement du service offert. Sur le réseau téléphonique, c'est le mode synchrone (STM — Synchronous Transfer Mode) encore appelé mode circuit. Sur les réseaux de transmission de données, c'est le mode asynchrone (ATM — Asynchronous Transfer Mode) encore appelé mode paquet. 8 . 3 . 2 . 1 . Le mode de transfert
synchrone
Dans le réseau téléphonique, l'information transportée est la voix numérisée. Du fait de la numérisation par le procédé MIC, elle se présente sous la forme d'un octet émis périodiquement, toutes les 125 us. Le multiplexage temporel synchrone est alors bien adapté. Dans cette technique, le temps est découpé en cycles, eux-mêmes découpés en tranches de temps de taille fixe. Chaque tranche de temps contient exactement un octet de voix numérisée. Le cycle est appelé multiplex. Lors de l'établissement d'une communication, il y a réservation d'une tranche de temps nominale à l'intérieur du cycle et ce pendant toute la durée de la communication ; l'allocation de bande passante est donc statique. Le cycle est strictement synchronisé avec la voie basse vitesse, il est donc répété toutes les 125 u s de manière à respecter la contrainte d'isochronisme (figure 8.2). - multiplex—
AB C D
lignes basse vitesse
M U X
A
B
C
D
E : A
B
ligne haute vitesse
E Figure 8.2. Le multiplexage
synchrone
La reconnaissance d'un canal particulier au sein d'un multiplex se fait par la position de sa tranche de temps à l'intérieur du cycle ; elle est fixe pour la durée de la communication. La fonction de commutation est réalisée grâce à une table de translation mise à jour lors de l'établissement d'une communication. Elle indique pour chaque tranche de temps la nouvelle position qu'elle occupera dans le prochain multiplex. Du fait que les multiplex arrivent et repartent à la même vitesse au niveau d'un commutateur, il n'y a pas de stockage de l'information (seulement un stockage transitoire de durée très brève). 8.3.2.2. Le mode de transfert
asynchrone
Le trafic de données informatiques ne suit quant à lui aucune régularité, alternant l'envoi de grandes quantités de données avec des périodes de silence ; il est qualifié
ATM (Asynchronous Transfer Mode) 209 d'asynchrone. Dans ce contexte, l'allocation statique de la bande passante n'est pas très efficace, aussi a-t-on préféré une allocation dynamique en fonction des besoins instantanés de chaque communication [Doll 72]. Les unités de données sont structurées dans des paquets. L'en-tête du paquet permet d'identifier à quelle communication le paquet appartient, soit grâce aux adresses source et destination soit par un identificateur de communication délivré lors de l'établissement de cette d e r n i è r e . A la différence du mode de transfert synchrone, il n'y a aucune synchronisation entre voies basse vitesse et voie haute vitesse et par conséquent, pas de structure de cycle. L'arrivée des paquets se produisant de manière asynchrone et le débit de la voie haute vitesse pouvant être inférieur à la somme des débits des voies basse vitesse, les paquets peuvent être stockés temporairement dans des tampons avant d'être retransmis. tp
tl
t2
bande passante perdue
t3
A
Al Bl
B2 C2 ^
premier cycle
B
deuxième cycle
(a) multiplexage synchrone en-tête
~C~
|
bande passante gagnée \
5 Al ~D~
Bl î B2 C2
- < - à t l - » - •—à t;
b) multiplexage asynchrone Figure 8.3. Multiplexages
synchrone
et
asynchrone
La figure 8.3 montre la différence en termes d'utilisation de la bande passante entre les techniques synchrone et asynchrone. La commutation asynchrone consiste à recevoir un paquet, à examiner son en-tête puis à le retransmettre vers un lien de sortie. Les paquets sont là aussi stockés dans des tampons avant leur commutation et également avant la retransmission en sortie. Ce mode utilise des files d'attente qui introduisent une part plus ou moins importante d'indéterminisme. Les voies basse vitesse n'étant pas toutes actives en même temps, on peut accepter davantage de voies basse vitesse en entrée du multiplexeur, on qualifie alors le multiplexage asynchrone de multiplexage statistique. Les tampons sont là pour absorber un surplus temporaire de trafic. Si toutes les voies sont actives en même temps, il peut y avoir perte de paquets par suite d'une saturation des tampons. 8.3.2.3. Choix de
l'ATM
En mode synchrone, les mécanismes du réseau déterminent le débit d'une communication et le terminal doit adapter son débit à celui-ci. Si le terminal n'a rien à envoyer, il y a gaspillage de bande passante. De plus, le débit disponible sur le réseau est toujours multiple d'un débit de base. En mode asynchrone, le terminal
2 10 Architecture des réseaux haut débit
dicte le débit d'émission et peut envoyer des débits qui varient de quelques kbit/s à plusieurs dizaines de Mbit/s. Le mode asynchrone possède donc la propriété de multidébit nécessaire aux services décrits en 8.2. Il assure donc l'indépendance entre les terminaux et les équipements de multiplexage et de commutation ; on parle d'anisochronisme à l'accès. La deuxième motivation provient du fait que les applications multimédias demandent, outre des débits élevés, des délais de transfert courts. Cette deuxième contrainte a conduit à simplifier au maximum le protocole de transfert. Nous présentons ses caractéristiques dans le paragraphe suivant.
8.3.3. Principes
fondamentaux
du
mode
ATM
La technique ATM spécifiée pour le réseau large bande se caractérise par : - l'absence de contrôle de flux à l'intérieur du réseau à partir du moment où la communication a été acceptée ; - l'absence de contrôle d'erreur car d'une part, la transmission sur fibre optique présente une bonne qualité de transmission et d'autre part, détection et reprise diminuent le débit utile ; - un mode orienté connexion pour faciliter la réservation des ressources et assurer le séquencement des PDU ; - l'absence de contrôle de perte au niveau du réseau car des ressources suffisantes ont été allouées aux connexions lors de leurs établissements ; - une unité de transfert appelée cellule, de taille réduite pour faciliter l'allocation mémoire dans les commutateurs et permettre un meilleur entrelacement des flux et une commutation rapide ; - un en-tête de cellule de taille limitée et aux fonctions réduites pour assurer une commutation rapide. La cellule ATM de 53 octets contient 48 octets d'information (encore appelés champ payload) et 5 octets d'en-tête (figure 8.4). La longueur de la cellule est le résultat d'un consensus technologique entre les Américains (64 octets) et les Européens (32 octets). 8
7
6
5
4
3
2
1
1 2
en-tête 5 octets
3 4 5 6
information 48 octets
53
F i g u r e 8 . 4 . Format général de la cellule ATM
ATM (Asynchronous Transfer Mode)
8.3.4. Connexions 8.3.4.1. Principe
2 11
ATM
de la connexion
virtuelle
L'acheminement des cellules dans le réseau large bande se fait par établissement préalable d'une connexion de voie virtuelle (VCC — Virtual Channel Connection) de bout en bout entre les intervenants de la communication (source et destinataire). Par abus de langage, nous appelons simplement connexion virtuelle, la connexion de voie virtuelle. Une connexion virtuelle ATM est une concaténation de tronçons de voie virtuelle (VCL — Virtual Channel Link) juxtaposés. Un tronçon de voie virtuelle est défini sur un lien entre deux nœuds. Le protocole d'établissement consiste à choisir le chemin que doit emprunter la connexion virtuelle dans le réseau en fonction de ses besoins en bande passante, de sa destination finale et des ressources disponibles. Une fois la connexion établie, les cellules transmises sont transférées en séquence sur le chemin tracé. Le protocole d'établissement d'une connexion ATM fait partie du plan de signalisation (qui sera défini en 8.3.6). Les connexions sont de bout en bout et peuvent être point à point ou point à multipoint (d'ores et déjà pour les spécifications de l'ATM Forum et à partir de la phase 2, selon le planning établi par l'UIT-T), unidirectionnelles ou bidirectionnelles (dans ce dernier cas, symétriques ou asymétriques en termes de bande passante). 8.3.4.2. Translation
des valeurs
de VCI
La connexion virtuelle est identifiée sur chaque tronçon de voie virtuelle par un identificateur de voie virtuelle appelé VCI (Virtual Channel Identifier). Cet identificateur ainsi que le lien emprunté sont enregistrés au moment de l'établissement, dans chaque nœud traversé par la connexion, dans une table de translation. Prenons comme exemple une connexion virtuelle unidirectionnelle de bout en bout établie entre deux terminaux utilisateur A et B. Quand A demande la connexion à B, le réseau initialise le VCI à la valeur a. Les cellules transmises par A seront donc étiquetées avec un VCI égal à a. D'autre part, le réseau affecte la valeur z à la connexion arrivant en B (figure 8.5).
A
VCI = a ^
VC
Ll
VCI = b
VC
L2
VCI = x
L3
VCI = y
VC
f c
VC
connexion de voie virtuelle (VCC) Figure 8.5. Exemple
de connexion
virtuelle
L4
VCI = z 1
• VC
B
2 1 2
A r c h i t e c t u r e d e s r é s e a u x h a u td é b i t
Les valeurs des VCI en entrée et en sortie du commutateur sont enregistrées avec les informations de routage dans une table de translation. Lors de la commutation d'une cellule, le commutateur effectue la translation des valeurs de VCI en même temps qu'il route la cellule sur le lien adéquat en sortie. En reprenant l'exemple de la figure 8 . 5 , une connexion virtuelle provenant du lien de A et identifiée a sera commutée vers le nœud L 2 et portera le VCI b sur ce lien (figure 8 . 6 ) . Le nouveau VCI servira à la prochaine unité de commutation rencontrée par la cellule. A l'entrée du nœud L l , la cellule arrive sur le port A avec le VCI a et sort sur le port L 2 avec le VCI b. e n t r é e a
a
V C I
A
L 2
b
A
p o r t
nœud Ll
sortie
L 2
b j
F i g u r e 8.6. Translation des valeurs de VCI au nœud Ll
Comme plusieurs dizaines de milliers de connexions virtuelles peuvent traverser un commutateur, la table de translation peut occuper un espace mémoire considérable et le temps de recherche à l'intérieur de la table devenir important. Pour pallier cet inconvénient, les connexions virtuelles de l'utilisateur sont multiplexées dans des connexions de conduit virtuel (VPC — Virtual Path Connection) que nous appelons par abus de langage, conduit virtuel. 8 . 3 . 4 . 3 . Le conduit
virtuel
Une connexion de conduit virtuel (VPC — Virtual Path Connection) contient des faisceaux de voie virtuelle qui sont commutés ensemble comme une seule unité (figure 8 . 7 ) . De la même manière que pour la voie virtuelle, la connexion de conduit virtuel est composée d'une concaténation de tronçons de conduit virtuel (VPL — Virtual Path Link) juxtaposés. La connexion de conduit virtuel est établie par l'opérateur du réseau de manière permanente. La notion de conduit virtuel est transparente à l'utilisateur.
VC
v r
VP
VP
couche physique
vr VP
F i g u r e 8.7. Multiplexage
VC VP
des VC et des VP
ATM (Asynchronous Transfer Mode) 2 1 3 L'identification d'une connexion virtuelle se fait donc par deux champs de l'entête de la cellule : - VCI (Virtual Channel Identifier) : l'identificateur de voie virtuelle identifie les connexions allouées dynamiquement. Avec 16 bits, le champ VCI autorise jusqu'à 64 000 connexions de voie virtuelle pour chaque conduit ; - VPI (Virtual Path Identifier) : l'identificateur de conduit virtuel identifie les connexions statiques (semi-permanentes). Le champ VPI est codé sur 8 ou 12 bits et permet ainsi 256 ou 4 096 conduits virtuels. 8.3.4.4. Commutation
à deux
niveaux
Le réseau ATM s'organise en deux sous-couches comme le montre la figure 8.8.
VCI VPI
transmission brasseur F i g u r e 8 . 8 . Brasseur
commutateur et
commutateur
A chacune de ces sous-couches correspond un équipement de commutation particulier. Les commutateurs de VP (niveau inférieur) n'examinent que la partie VPI. A ce niveau, toutes les connexions de VC de même VPI sont commutées ensemble. Un tel commutateur est appelé brasseur de conduits. Seule la valeur de VPI y est translatée. Les commutateurs de VC (niveau supérieur) examinent la partie VPI + VCI. La commutation de la cellule est alors réalisée sur la base de la concaténation du VCI et du VPI. Ce type de commutateur termine un tronçon de voie virtuelle et nécessairement une connexion de conduit virtuel. 8.3.4.5. Exemple
d'allocation
de VCI/VP1 dans un réseau
ATM
On considère le réseau RNIS-LB de la figure 8.9 :
F i g u r e 8 . 9 . Exemple
de RNIS-LB
2 1 4 Architecture des réseaux haut débit Dans ce réseau, on suppose que : - les usagers F et H accèdent par des accès distincts sur le nœud 2 et communiquent avec l'usager X, - le serveur X a un tronçon de VP avec le nœud 3, - une connexion de VP ne comporte, dans la mesure du possible, qu'un seul tronçon de VC. On distingue deux cas : a. Les deux VCC sont multiplexées sur la même VPC. b. Chaque VCC passe dans une VPC différent. La figure 8.10 donne un exemple de tables de routage où les nœuds 1, 2, 3 et 4 sont des brasseurs de VP et les autres nœuds des commutateurs de VC. Les contraintes pour les valeurs de VPI et VCI des deux connexions entre elles sont : - VPI différents entre 2-4 et 4-6, - mêmes VPI, VCI différents entre 6-1, 1-3 et 3-X (hypothèse 2).
Figure 8.10. Exemple d'allocation
de VC1/VP1 dans un résea,
La figure 8.11 donne un exemple de tables de routage où les nœuds 2 et 3 sont les commutateurs de VP, les autres nœuds étant des commutateurs de VC. Les :ontraintes pour les valeurs de VPI et VCI des deux connexions entre elles : - VPI différents entre 6-7 (hypothèse 3), - VPI identiques, VCI différents entre 7-3 et 3-X (hypothèse 2).
ATM (Asynchronous Transfer Mode) 2 1 5
Figure 8.11. Exemple d'allocation
de VCIA^PI dans un réseau
La configuration (a) est la plus intéressante car elle comporte le moins de commutations de VC. Les VC sont commutées en faisceaux par les brasseurs.
8.3.5. Architecture
du réseau
large
bande
Le réseau large bande est constitué de trois parties, le réseau de distribution qui permet de relier les utilisateurs, le réseau de commutation qui réalise la commutation à haut débit et le réseau de transmission qui a la charge du transport physique de l'information. 8.3.5.1. Interfaces
du
RNIS-LB
Comme pour le RNIS-BE (Bande Etroite), la normalisation s'est dotée d'une configuration de référence de l'installation privée. La frontière avec le réseau public est définie par des interfaces normalisées à des points de référence (figure 8.12). L'accès au réseau par un utilisateur se fait par deux points de référence, Tg et SR. Au point de référence TR, est définie l'interface usager-réseau (UNI — User-Network Interface). L'UNI fournit un service de réseau. Dans le modèle de référence du RNISLB, ce service est découpé horizontalement en deux couches, PHY et ATM. Au point de référence SR, l'interface de raccordement terminale est à l'étude. La connexion de deux réseaux ATM est décrite quant à elle par la NNI (NetworkNode Interface). L'interface SNI (Subscriber-Network Interface) est définie pour un réseau SMDS (Switched Multimegabit Data Service) (cf. chapitre 9).
216
Architecture des réseaux haut débit
UNI I
NNI
NT2 réseau privé
réseau public 1
réseau public 2
SNI
»SB
SMDS V
F i g u r e 8 . 1 2 . Les différentes
8.3.5.2. Configuration
de référence
interfaces
d'accès
à l'UNI
L'utilisateur peut désigner comme terminal un ensemble de terminaux raccordés entre eux par un réseau local. L'accès au RNIS-LB est alors soit direct soit via une installation privée d'abonné c'est-à-dire un réseau local (figure 8.13).
TE2
R —•
B-TASB
•
ou B-TE2
B-NT2
TB
c
B-NTl
B-TE1 -opérateur-
installation d'abonné toint de reterence
groupement tonctionnel
F i g u r e 8 . 1 3 . Configuration
de référence
de
l'utilisateur
Les groupements fonctionnels sont : - B - N T 1 (Broadband Network Termination), terminaison de la liaison de raccordement, se trouve chez l'usager mais appartient à l'opérateur et comporte les équipements pour le raccordement de l'installation privée au point de référence T 3 . Ce point de référence est la limite légale du domaine privé. B - N T 1 effectue la terminaison de la ligne de transmission et les fonctions OAM (Operation And Maintenance) associées ; - B - N T 2 constitue l'ossature de l'installation privée (réseau privé) avec des topologies possibles en étoile, bus ou anneau. Ce groupement exécute la commutation et le multiplexage des cellules ATM et comporte les fonctions de raccordement multiple de terminaux au point S B et de mise en communication interne ;
ATM (Asynchronous Transfer Mode)
2 17
- B-TA (Broadband Terminal Adaptor) est un module d'adaptation lorsque le terminal ne présente pas d'interface compatible à l'interface définie au point de référence S B - Il comporte en particulier les couches ATM et AAL (définies en 8.3.6) nécessaires au terminal considéré ; - B-TE1 (Broadband Terminal Equipment), le terminal RNIS-LB lui-même. L'installation privée a d'abord été construite autour d'un PABX. Puis, avec l'apparition de l'informatique décentralisée, les concepts de réseaux locaux et récemment de réseaux métropolitains ont émergé et se sont imposés. Pour jouer son rôle fédérateur, il est probable que l'installation privée devra s'orienter vers un mode de transfert ATM. Ainsi, elle pourrait tirer profit de tous les avantages de l'ATM (flexibilité, simplicité, rapidité, indépendance aux applications). De plus, la compatibilité avec le RNIS-LB serait assurée. Si les souhaits des opérateurs coïncident avec ceux des utilisateurs, la technique retenue doit alors être la même. On parle dans ce cas de réseau local ATM ; ce dernier est organisé en un réseau de VP. 8.3.5.3. Réseau de
distribution
Le réseau de distribution est lui-même divisé en un réseau d'accès et un réseau de collecte (figure 8.14). -réseau de distributioi
MUX
réseau
usager
vers le mmutatei
eseau de collecte TLO
1KCJ
-réseau d'accès-
TRC
veis ie brasseur r
ï -
\MUXI/E
TRO
EE
5 c: z
/
F i g u r e 8 . 1 4 . Le réseau de
M U X I/E
distribution
2 1 8 Architecture des réseaux haut débit
Les équipements du réseau de distribution sont les suivants : - T R O : la Terminaison de Réseau Optique est placée soit chez l'usager soit dans le réseau, au point de concentration situé à quelques centaines de mètres de l'usager ; - T L O : le Terminal de Ligne Optique regroupe toutes les fonctions de contrôle et de maintenance du réseau d'accès ; - M U X I/E : le Multiplexeur d'Insertion-Extraction est capable d'insérer et d'extraire les données d'un ou de quelques usagers particuliers dans un flux de données. Il s'agit en réalité d'un brasseur dériveur ; - MUX : le multiplexeur de collecte a le même rôle que le multiplexeur précédent mis à part qu'il ne comporte pas de fonction d'insertion/extraction ; - brasseur de collecte : son rôle est d'aiguiller les différents flux ATM du réseau de collecte, essentiellement vers les nœuds du réseau de commutation. Le multiplexeur peut être de type STM ou de type ATM. Le multiplexeur STM retransmet les cellules telles qu'elles arrivent. Le multiplexeur ATM extrait les cellules ATM de la trame de transmission (dans le cas d'une trame SDH (cf. 8.2.5.7)), supprime les cellules vides (et les cellules non valides) et multiplexe les cellules valides pour les mettre dans un conteneur virtuel. Le réseau d'accès permet le raccordement des usagers au réseau de collecte. Bien que le coût des équipements optiques soit en baisse (TRO, TLO), un raccordement par câblage optique pour les particuliers reste actuellement relativement onéreux. Ce type de raccordement reste économiquement viable pour les usagers professionnels. Deux topologies du réseau d'accès sont possibles : - en point à multipoint (anneau, bus, arbre-étoile) : le câblage optique est partagé entre plusieurs usagers (entreprises à débits d'accès faibles ou particuliers) pour diminuer le coût du câblage ; - en point à point : pour les grands utilisateurs professionnels. Le réseau de collecte vise à faciliter la gestion des conduits du réseau de distribution. Par son dimensionnement, il garantit à l'opérateur la souplesse d'exploitation et la possibilité d'évolution. La figure 8.15 montre la topologie maillée d'un réseau de collecte.
ATM (Asynchronous Transfer Mode)
2 19
reseau d'accès brasseui ^ers le réseau de
réseau de collecte 7
| T | multiplexeur I/E
|M | multiplexeur
F i g u r e 8 . 1 5 . Topologie
8.3.5.4. Réseau
transport ATM
de commutation
maillée du réseau de
collecte
ATM
Du fait de ses deux niveaux de commutation, le réseau de commutation du RNISLB est hiérarchisé en deux sous-réseaux : le réseau commuté qui traite les appels des utilisateurs en temps réel et le réseau brassé qui s'occupe de la commutation des conduits virtuels (figure 8.16). La couche de réseau brassé permet de constituer une infrastructure de conduits servant de support à un réseau superposé de commutateurs publics ou privés.
' reseau commuté
.commutateur/
voie virtuelh reseau brasse
brasseur
F i g u r e 8 . 1 6 . Le réseau de
commutation
Le réseau de commutation utilise comme équipements d'une part, des brasseurs numériques — qui ne commutent que des VP — et d'autre part, des commutateurs ATM — qui commutent à la fois des VP et des VC.
2 2 0 Architecture des réseaux haut débit
La figure 8.17 illustre le fonctionnement d'un commutateur ATM. L e commutateur reçoit une cellule ATM, analyse son en-tête, effectue la translation des VCI/VPI. Grâce au routage enregistré dans la table de translation, il commute immédiatement la cellule vers le lien prédéfini de sortie. La commutation des cellules étant en fait effectuée par plusieurs modules en parallèle, il est nécessaire de veiller à ce que deux cellules n'arrivent pas au même instant en entrée du tampon de sortie (contrôle de collision). La cellule devra éventuellement avoir à attendre avant d'être multiplexée et retransmise sur le lien de sortie. Il n'y a donc aucune relation temporelle entre les instants d'arrivée et de sortie de la cellule ; on parle d'anisochronisme à la commutation. analyse de l'en-tête traduction de l'en-tête
commande de commutation file d'attente multiplexage de sortie
cellule reçue|
cellule émise
m commutation de cellules
Figure
8.17.
Fonctionnement
d'un
contrôle ue collision
commutateur
ATM
Le développement du réseau ATM se fait en deux temps, tout d'abord le déploiement du réseau brassé, puis celui du réseau commuté, ce dernier offrant les services commutés. 8.3.5.5. Réseau
de
transmission
L'ATM peut être utilisé sur n'importe quel système de transmission. L'UIT-T propose trois systèmes de transmission du flux de cellules (figure 8.18) : - un système reposant sur le système hiérarchique numérique plésiochrone (PDH — Plesiochronous Digital Hierarchy), - un système reposant sur le système hiérarchique numérique synchrone (SDH — Synchronous Digital Hierarchy), - un système reposant sur une structure équivalente à la cellule. Les deux premiers sont des systèmes hiérarchiques issus de systèmes existants ; le mode de transmission y est synchrone. PDH est le système de transmission numérique actuellement en vigueur. SDH provient du système SONET proposé antérieurement par Bellcore.
ATM (Asynchronous Transfer Mode) 2 21 système de transmission et support physique hiérarchie numérique
basé sur la cellule
f
SDH
PDH
Synchronous Digital Hierarchy
Plesiochronous Digital Hierarchy
Figure 8.18. Les trois systèmes
8.3.5.6. Le système
de transmission
de
transmission
PDH
Le système PDH est le système de transmission numérique actuel fondé sur le débit d'une voie téléphonique du RNIS à 64 kbit/s (un octet de voix transféré toutes les 125 us). Le multiplexage de voies téléphoniques consiste par conséquent en un multiplexage temporel synchrone par caractères de 8 bits chacun, avec un octet par canal transporté. PDH repose sur deux hiérarchies différentes définies dans des recommandations de l'UIT-T : - en Amérique du Nord et au Japon, la hiérarchie utilise un multiplex de 24 canaux (soit 24 octets auxquels est ajouté un bit de synchronisation), soit un débit de 1,544 Mbit/s (recommandation G.733) (figure 8.19 (a)) ; - en Europe, elle utilise un multiplex de 32 canaux (soit 32 octets), soit un débit de 2,048 Mbit/s (recommandation G.732) (figure 8.19 (b)). ^
193 bits =125 us
^
«4—canal 1—^*—canal 2—»-> 12
3 4 5 6 7 8 1 2 3 4 5 6 7 8
|-4-canal 24—fc» \ ^
1 2 3 4 5 6 7 g'|'
(a) Multiplex G.733 (USA et Japon)
bit 193
-256 bits = 125 us- canal 1
- canal 2-
-canal 321 2 3 4 5 6 7
1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8
(b) Multiplex G.732 (Europe) Figure 8.19. Format du
multiplex
222
Architecture des réseaux haut débit
La hiérarchie du système plésiochrone comprend cinq niveaux appelés ordres (figure 8.20). 64 kbit/s er
1 ordre
2 Mbit/s e
2 ordre
30
8 Mbit/s e
3 ordre
34 Mbit/s
4 ordre 140 e
Mbit/s
5 ordre 1565 e
Figure 8.20. Les cinq niveaux de la hiérarchie
Mbit/s
plésiochrone
A partir du deuxième ordre, les équipements sont des multiplexeurs numériques. Ils multiplexent les trames des systèmes d'ordre précédent reçues en entrée en une nouvelle trame appelée affluent. 8.3.5.7. Le système
de transmission
SONET
SONET (Synchronous Optical NETwork) a été initialement développé au sein de la société Bellcore (Bell Communication Research) avant d'être adopté par l'UIT-T dans les recommandations G.707, G.708 et G.709. Sa motivation provient du remplacement des supports électriques utilisés en téléphonie par de la fibre optique permettant des débits plus élevés. C'est l'un des protocoles les plus répandus pour la transmission sur fibre optique. Son objectif est de permettre la flexibilité du multiplex (c'est-à-dire la possibilité de le réorganiser simplement), la facilité d'exploitation, la prise en compte des évolutions futures vers les hauts débits et le raccordement par des interfaces optiques. SONET fournit une hiérarchie des débits. Le premier niveau de la hiérarchie est désigné par STS-1 (Synchronous Transport Signal level 1) en notation numérique ou OC-1 (Optical Carrier level 1) en notation optique et fournit un débit de 51,84 Mbit/s. Les autres niveaux, notés STS-« ou OC-n, sont des multiples de n fois STS-1 ou OC-1 (tableau 8.5). Le système de transmission est synchrone.
débit (Mbit/s) 51,84 155.52 622,08 1244,16 2488,32
désignation SONET - STS/OC 1 3 12 24 48
Tableau 8.5. Hiérarchie
de débits
désignation ITU-T - STM —
1 4 8 16 SONET-SDH
ATM (Asynchronous Transfer Mode)
223
Les données sont transmises dans des trames, chaque trame étant vue comme un tableau d'octets de 90 colonnes et 9 lignes d'octets (figure 8.21). SONET est un système synchrone qui répète une trame toutes les 125 us, ce qui conduit au débit de 51,84 Mbit/s. L'en-tête SOH (Section OverHead) occupe les trois premières colonnes et comprend les informations liées au transport et nécessaires aux fonctions de contrôle et de gestion du réseau. La section de régénération est prise en compte à chaque répéteur SONET. La section de multiplexage est prise en compte par les multiplexeurs SONET. La quatrième ligne comporte des pointeurs. 1
î 2 3 •
4
™
•
1 S
O
STS-l
N
2
3
Regenerator Section Overhead pointers
5
Multiplexor Section Overhead
6 7 8 u
en-tête (SOH)
trame SONET
F i g u r e 8 . 2 . La trame SONET et son en-tête
La règle est qu'une trame STS-H est construite avec n trames S T S - 1 , ce groupe de n trames devenant ainsi l'unité de transmission du niveau n. Avec S T S - 1 , les trames de données sont émises une à une. Avec S T S - 3 , elles sont émises par groupes de trois. S O N E T définit également une hiérarchie logique en termes de couches de fonctionnalités et une hiérarchie physique en termes d'équipements utilisés. La figure 8.22 montre les quatre couches utilisées dans la hiérarchie logique : - la couche photonique ou couche physique proprement dite qui transfère le signal optique modulé, - la couche section qui convertit les signaux électriques en signaux lumineux, - la couche ligne, responsable de la synchronisation et du multiplexage et qui comporte les fonctions de maintenance et de protection, - la couche conduit qui prend en charge le transport de bout en bout des données. services]
|services
X
+ T - tn
269
cellule n+3
la cellule #n est rejetée le gabarit de gigue et/ou la période d'émission ne sont pas respectés et
+
si T R T n
+ Ttn
1 octet
Token Ring -
1 octet (NNONN00)
1 octet (JK0JK000) 1 octet 3 bits 1 bit 1 bit 3 bits
FDDI 16 symboles (Idle) 2 symboles (JK)
DQDB 1 octet -
4 octets 1 octet 1 octet 2 octets
Corrigés
FC type de trame bits de ctrl.
-
1 octet 2 bits 6 bits
DA, SA type padding I/G U/L ringN° station @ H2 Proto. Ident. PAD length QoS delay loss CIB HEL bridging header extens. length information PAD FCS
2 ou 6 octets 2 ou 6 octets
ED
-
FS @ reconnue trame copiée réservé erreur detect.
-
1 bit 0, 1 15, 46
1 bit 0, 1 15, 46
1 octet 2 bits 6 bits
2 ou 6 octets 1 bit 0, 1 0, 7, 14 8,15,32,46
-
2 < si 4
8 bits 1 : trame (a)sync. 1 : lg. @ 2 : type de trame 4 : contrôle MAC 2 ou 6 octets 1 bit 0, 1 7, 14 8, 32 -
octets 1500 besoin octets
< 8191
< 5000 4 octets
< 4500 4 octets
1 octet
1 octet (JK1JK1IE)
-
1 octet 1 bit * 2 1 bit * 2 2 bits * 2
1 ou 2 symb. (T ou TT) 3 symboles 1 1
4 octets
349
8 octets 4 bits 60 - N bits 1 bit 0, 1 15, 46, 60 4..24 octets 6 bits 2 bits 8 bits 3 bits 1 bit 1 bit 3 bits 2 octets 0..20 oct. < 9188 0..3 octets 0 ou 4 octets idem Hl
1
I
3. Dans les deux sens : - reconnaissance d'adresses et filtrage, - adaptation du format des trames, - calcul du FCS, - inversion du sens d'émission des bits (particularité du Token Ring). Dans le sens CSMA/CD-Token Ring : - génération de pseudo-priorités (utilisateur et accès), significatives ou non, - mémorisation des trames lors de l'attente du jeton, - problème de congestion si le Token Ring est à 4 Mbit/s.
350
Architecture des réseaux haut débit
Dans le sens - destruction - affectation - destruction
Token Ring-CSMA/CD : des trames trop longues, des bits A et C, de la priorité utilisateur.
4. Opérations spécifiques source \ dest. CSMA/CD Token Bus Token Ring FDDI DODR (1) (2) (3) (4) (5) (6) (7)
CSMA/CD -
Token Bus 2, 4, 5
1, 2, 3 1, 2, 3 1, 2, 3 1. 2. 3
1, 2, 6, 7 2, 7 1. 2. 1
Token Ring FDDI 2, 4, 5 2, 4, 5 1, 2, 6, 7 1, 2, 6, 7 2, 6, 7 1, 2, 7 1. 2. 7 1. 2. 6
DQDB 2, 4, 5 2, 6 , 7 2, 6, 7 2, 6 _
détruire les trames trop longues calculer le FCS annuler la priorité utilisateur positionner le champ priorité utilisateur à une valeur par défaut utiliser une priorité d'accès par défaut utiliser la priorité utilisateur de la trame entrante utiliser la priorité utilisateur ou une priorité d'accès par défaut pour l'accès
Il faut également noter : - le problème du jeton de transfert lorsque le réseau source est un Token Bus, - le problème des bits A et C lorsque le réseau source est un Token Ring, - le problème de congestion lorsque le réseau source est plus rapide que le réseau destinataire, - l'inversion du sens d'émission des bits lofsque l'un des réseaux est un Token Ring. Réponse
9.3
1. Architectures d'interconnexion
couches sup.
couches sup. pont LLC1 MAC
^^^transfert^.^ MACT^l " MAC
physique
physique physique
couches sup.
routeur
couches sup.
IP
IP
IP
LLC1
LLC1
LLC1
LLC1
LLC1
MAC
MAC
MAC
MAC
MAC
physique
réseau 1 réseau 2 au niveau MAC
physique
physique physique
réseau 1
physique
reseau 2
au niveau reseau
Corrigés
351
2. a. Le protocole IP pouvant se charger de la fragmentation et du réassemblage, la longueur des paquets émis à la source n'est pas limitée en théorie (sauf s'il y a un champ de longueur codé) avec une interconnexion par routeurs. Par contre, le pont ne peut faire transiter une trame de longueur supérieure au maximum autorisé par le réseau destinataire ; des destructions de trame sont donc possibles dans le sens Token Ring-CSMA/CD. b. Il peut y avoir fragmentation et réassemblage des paquets dans un routeur, mais pas des trames dans un pont. c. Le temps de réassemblage d'une PDU ne concerne que le routeur. d. Le routeur doit surveiller la durée de vie des paquets qu'il fait transiter et détruire ceux dont la durée de vie est dépassée. Le pont doit, de son côté, surveiller le temps passé par une trame dans une file d'émission et détruire cette dernière si le délai subi dépasse un certain seuil. e. Le pont et le routeur gèrent la priorité des trames et paquets qu'ils ont à traiter. Il s'agit donc pour eux de prendre en compte la priorité d'une PDU entrante et de retransmettre la PDU en fonction de cette priorité. f. Ni le pont ni le routeur ne tiennent compte des PDU déséquencées. g. Ni le pont ni le routeur ne tiennent compte des PDU dupliquées. h. Le pont et le routeur recalculent la séquence de contrôle de chaque PDU qu'ils font transiter. i. L'adresse destination est nécessaire dans les deux cas puisqu'elle permet, pour le routeur, de déterminer le prochain nœud par lequel le paquet doit transiter et, pour le pont, de déterminer si la trame est à retransmettre ou non. j . La connaissance de l'adresse source n'est pas nécessaire au fonctionnement du routeur. Néanmoins, le routeur peut en avoir besoin dans des conditions d'exception, telles que la congestion, pour demander à un émetteur de réduire son débit d'émission. Dans le cas du pont, l'adresse source est traitée pour permettre la mise à jour éventuelle de la table de filtrage. Réponse
9.4
La couche liaison fonctionnant en mode connecté, il faut commencer par établir une liaison avant de pouvoir transférer des données. En considérant qu'il y a 2 800 octets de données de l'utilisateur du service de réseau à transférer, que les entêtes IP, LLC2 et MAC CSMA/CD sont respectivement de 22, 4 et 18 octets et que la trame CSMA/CD a une longueur maximale de 1 518 octets, il y a fragmentation par IP, avec deux datagrammes à envoyer. Pour simplifier le schéma, on supposera que les deux trames I ne donnent lieu qu'à une seule trame RR. La phase de libération de la liaison est similaire à la phase d'établissement, en remplaçant les primitives DL-CONNECT par les primitives DL-DISCONNECT et la trame SABME par une trame DISC.
1 110
f
100 j MA-UD.req UD
ité
MA
S
I
Iri
(
>
1
DL-CON.resp
^ f jôn DliDATA.ind
UA |
* 1 MAC-PDUl MÀjJD.ind * 1 I I P | PL -DATA.ind MA-Up.recji RR2 | ' MA^UD.incIMAC-PDU]^-
MA-tJDTeq
"
LLC(B)
| j SABME| DLjCON.ind MA-Ub.recl
s
~^[MAC-PDU| Nd-UD.ind MA£D.ind
_
J MA-UD.ind MA-UD.ind MAC-PDUl ^
PDU
- 1
MAC
| 1
1 M^^req
MA
MA-UDindj MAC-PPU) ^— UA |
DL-DAJA ™ ~*1 MAC-PDUj M^UD.ind
DL-CON.con^
1
ent
lïffe interface interface interface LLG(A) enute MAC(A . , MAC(P) MAOP) MAC(B) I JPMÂ, , i entité entité l LLC(A) MAC (A) relais S MAC(B) LLC(B) DL-C(|Nreq f SABME| MA-UD.req | j * | MAC-PDÛI MA-UD.ind . I —• MA-1 JD.req j **j MAC-PDÙ] MAJuDind
ÏT£A?
352 Architecture des réseaux haut débit
Réponse 9.5
1. On choisit une architecture d'interconnexion par pont au niveau MAC, les sous-réseaux ayant chacun une fonction d'adressage à ce niveau.
Corrigés
machine A
machine B
couches sup.
couches sup.
relais
relais
LLC
IP
poni
ponl
IP
LLC
\
MAC
MAC
MAC
physique )hysiqu
pnysiqi
hysiqi
MAC
MAC physiqi
Token Ring A
DQDB
353
MAC physique
Token Ring B
2. Tout dépend du type de trafic sur le Token Ring ; à défaut de le savoir, on utilise des slots arbitrés QA. 3. La segmentation et le réassemblage car les slots QA ne comportent que 48 octets de données. 4. Le principal risque réside dans la saturation des tampons de la passerelle dans le sens DQDB vers Token Ring. Pour y remédier : - l'UIF possède la priorité la plus élevée sur l'anneau ; - le contrôle de flux est assuré avec le protocole LLC2 entre les deux anneaux. Réponse
9.6
1. Le pont possède une seule table de filtrage pour l'ensemble des ports (version proposée par le standard 802.1D). La table comporte trois champs : - un champ adresse source correspondant à l'adresse source véhiculée par chaque trame, - un champ numéro de port correspondant au port par lequel une trame doit transiter pour atteindre l'adresse source associée, - un champ temporisateur initialise à une valeur T fixée par l'administrateur. adresse source
port de sortie
temporisateur
Lorsqu'une trame est reçue sur un port, le pont vérifie si l'adresse source contenue dans la trame existe déjà dans sa table de filtrage. Si tel est le cas, il met à jour le port de sortie de l'enregistrement correspondant — si le port courant est différent du port de réception de la trame — et il réinitialise la valeur du temporisateur à T. Si ce n'est pas le cas, une nouvelle entrée est créée avec le triplet (adresse_source Jrame\ port_réceptionjrame, T). En procédant ainsi, le pont saura que toute trame adressée à adresse_source jrame devra être retransmise sur le port portjréception
Jrame.
Une fois ce traitement sur l'adresse source de la trame effectué, le pont vérifie si l'adresse destination de la trame figure dans sa table. Si tel est le cas, il vérifie si le
354
Architecture des réseaux haut débit
port de sortie correspondant coïncide avec le port de réception de la trame, auquel cas la trame est rejetée — car appartenant à un trafic local ; si les ports sont différents, la trame est retransmise sur le port de sortie indiqué après conversion. Dans le cas où l'adresse destination de la trame ne se trouve pas dans la table, le pont retransmet la trame sur l'ensemble de ses ports — sauf le port de réception — après la conversion nécessaire pour chaque port. Une scrutation périodique de la table permet de mettre à jour la valeur des temporisateurs et de supprimer tous les enregistrements pour lequel le temporisateur a expiré. 2. Dans le cadre d'une table de filtrage par port, aucune information de routage n'est nécessaire : soit la trame est rejetée par le port sur lequel elle est arrivée, soit elle est diffusée sur l'ensemble des autres ports du pont. Chaque port gère sa propre table, cette dernière comportant deux champs : - un champ adresse
- un champ
source,
temporisateur. adresse source
temporisateur
Lorsqu'une trame est reçue sur un port, celui-ci vérifie si l'adresse source est contenue dans sa table. Dans le cas positif, le port réarme le temporisateur associé et sinon un nouvelle entrée est créée dans la table avec (adresse_sourceJrame, T). Une fois ce traitement sur l'adresse source de la trame effectué, le port vérifie si l'adresse destination appartient à sa table. Si tel est le cas, la trame est rejetée, sinon, elle est diffusée à tous les autres ports après conversions. De même que précédemment, les temporisateurs sont périodiquement mis à jour et ceux ayant expiré voient leur entrée détruite. Réponse
9.7
Temps de
transit
Pont et routeur traitent l'information reçue d'un premier réseau et la réémettent sur un autre réseau après traitement. Le temps de transit dépend donc principalement des traitements qui sont effectués au niveau de l'information reçue par l'élément d'interconnexion : - pont : le délai de transit d'une trame correspond au temps de filtrage augmenté du temps de conversion ; - routeur : les opérations sont plus nombreuses et plus complexes car correspondant à des protocoles de niveau supérieur. Le délai de transit d'un routeur est donc généralement supérieur à celui d'un pont.
Corrigés
Taille de
355
l'information
- pont : lorsque les réseaux interconnectés sont de types différents, un pont peut être amené à détruire des trames si leur longueur excède le maximum autorisé par le réseau de sortie - routeur : la plupart des protocoles de niveau réseau intègrent un mécanisme de fragmentation et de réassemblage des paquets en fonction des contraintes de la couche liaison. Cela évite d'avoir à négocier la taille maximum des paquets et à supprimer un grand nombre de paquets. On peut également noter que, ce faisant, la couche réseau simplifie la mise en œuvre des protocoles des niveaux supérieurs et que certaines applications fonctionnent plus efficacement avec des paquets de grande taille. Taux de
pertes
- pont : le niveau MAC ne permet pas de garantir la remise des trames à destination. Même dans le cas du Token Ring avec les bits A et C, l'acquittement d'une trame étant produit par le pont, l'émetteur ne sera jamais assuré que sa trame a bien été reçue par son destinataire. - routeur : le niveau réseau permet de détecter les paquets dupliqués ou perdus. Dans tous les cas, une retransmission s'impose (par exemple, au niveau transport). Taux d'erreurs
- pont : le FCS de chaque trame reçue est vérifié. Les trames dont le FCS est incorrect sont rejetées. Si le réseau destination n'est pas du même type que celui du réseau émetteur, la trame est traitée et le FCS recalculé. - routeur : deux contrôles d'erreur sont réalisés, l'un au niveau liaison (s'il fonctionne en mode connecté) et l'autre au niveau réseau. Le taux d'erreurs résiduelles est donc généralement plus faible avec un routeur. Durée de vie de
l'information
- pont : la destruction des trames dont le temps de transit serait trop long n'est pas prévue sauf si le pont introduit une temporisation au niveau de ses files d'attente. - routeur : la durée de vie est indiquée dans chaque paquet et mise à jour dans chaque nœud traversé. Les paquets dont la durée de vie a expiré sont détruits. Priorités
- pont : certains protocoles MAC utilisent des priorités. - routeur : la distribution urgente est fournie par certains protocoles de niveau réseau. Les informations de contrôle de routage sont un exemple de trafic à haute priorité. Sécurité
- pont : étant transparent aux protocoles de niveau 3 OSI, il transfère informations d'un réseau sur l'autre. On peut toutefois effectuer certaines de filtrage en fonction des types de protocoles ou isoler certaines stations. - routeur : au niveau 3 OSI, on peut gérer les accès des stations aux domaines d'adresses. Les capacités de filtrage d'un routeur peuvent
toutes les fonctions différents être très
356
Architecture des réseaux haut débit
sophistiquées, ce qui permet d'obtenir un degré de sécurité plus satisfaisant qu'avec les ponts. Réaction
après mise hors service d'une
route
Lorsqu'une route n'est plus en service, le routage de l'information doit être modifié en conséquence aussi rapidement que possible. - pont : des Bridge-PDU sont échangées de façon régulière entre les ponts. Si la topologie est complexe et le nombre de ponts important, il peut s'écouler un temps suffisamment long, entre la détection du problème et la réception d'information par tous les ponts, pour que des trames soient perdues. - routeur : la gestion des perturbations est plus efficace grâce au routage dynamique. Les routes de remplacement sont trouvées naturellement par l'algorithme de routage (sauf s'il est par nature statique). Cependant, comme un routeur diffuse des messages d'information en cas de changement de configuration, la mise à jour des tables de routage peut provoquer momentanément des augmentations de trafic importantes. Réponse
9.8
On rappelle que l'élément d'interconnexion doit répondre à plusieurs critères : - les fonctions de l'élément doivent être transparentes aux stations des réseaux interconnectés ; - le délai passé dans l'élément d'interconnexion doit être le plus court possible ; - les réseaux doivent être interconnectés au niveau le plus bas possible pour minimiser les temps de traitements induits par les protocoles. 1. Il n'est pas nécessaire ni raisonnable d'avoir des connexions isochrones permanentes entre l'élément d'interconnexion et l'ensemble des stations DQDB, puisque dans ce cas, le débit alloué à une connexion isochrone est réservé en permanence et serait mal utilisé. De même, le mode asynchrone connecté ne convient pas. En effet, il demande à l'unité d'interconnexion d'avoir la connaissance des adresses des stations destinataires, l'obligeant ainsi à traiter des informations de niveau supérieur (IM, Initial MAC), ce qui va à rencontre du troisième critère cité plus haut. On retient donc le mode asynchrone non connecté avec l'utilisation des slots QA. Cela se traduit, sur le réseau DQDB, par une diffusion de l'information à l'ensemble des stations du réseau ; seules les stations concernées par le message (reconnaissance à l'aide du champ MID) recopieront l'information à l'intention des couches supérieures. 2. Pour dialoguer avec le mode asynchrone non connecté de DQDB, on retiendra soit l'AAL 3/4, soit l'AAL 5 (transfert en mode non connecté).
Corrigés
357
3. Pour réaliser une interconnexion au niveau s/of/cellule entre les réseaux DQDB et ATM, plusieurs problèmes sont à résoudre : L'adressage : l'acheminement au sein du réseau large bande repose sur le schéma d'adressage E.164 avec des adresses de 60 bits (15 digits représentés sur 4 bits chacun). Ce type d'adresse peut parfaitement être transporté dans une IM-PDU DQDB dans l'en-tête MCP à condition que les champs d'adresse soient préfixés par " 1100". Dans ce cas, l'adresse de destination utilisée par DQDB doit faire directement référence à la station d'extrémité destinataire. Les similitudes
entre format
de slot et format
de cellule
: la principale réside
dans leur longueur commune de 53 octets, dont 5 octets d'en-tête (champ AC et entête de segment) et 48 octets pour la charge utile du segment. La compatibilité' des couches d'adaptation : la figure ci-dessous montre le découpage en couches pour chaque réseau : - pour DQDB, DM (Derived MAC) et IM (Initial MAC), - pour le réseau large bande, AAL (composée de SAR et CS) et C L C P (Connectionless Convergence Protocol).
Initial MAC
CS Convergence Sublayer
DM Derived MAC
SAR Segmentation And Reassembly
SM SegMent Layer
ATM
STL SloT Layer physical DQDB
AAL-
-MAC-
IM
CLCP ConnectionLess Convergence Protocol
Physical ATM
La couche CLCP assurant la compatibilité avec le standard IEEE 802.6 pour le mode sans connexion, les formats des différentes PDU sont compatibles. Ainsi, un segment côté DQDB (DM-PDU) devient la charge utile d'une cellule côté ATM (SAR-PDU) et vice-versa sans modification aucune. Cet échange présente un autre avantage ; aucune action de segmentation/réassemblage des messages n'est à pourvoir dans le protocole. L'adaptation des en-têtes de PDU : malgré cette compatibilité apparente, des différences apparaissent au niveau des en-têtes des différentes PDU. Toutes les informations primordiales contenues dans les en-têtes des cellules/s/ofs ainsi que dans les champs suivants sont transmises dans la première cellule/premier slot.
35 8 Architecture des réseaux haut débit
Cette première cellule/.v/o/ est de type BOM (Begining Of Message), les suivantes de type C O M (Continuation Of Message) et la dernière de type EOM (End Of Message). Ainsi, à la réception d'une cellule/s/of de type BOM, toutes les actions permettant de réaliser l'interconnexion selon les souhaits de l'utilisateur pourront être accomplies une fois pour toutes. - En-tête ATM versus champ AC et en-tête de segment QA de DQDB : - le GFC (Generic Flow Control) d'ATM et le champ AC (Access Control) de DQDB diffèrent par leur taille et leur utilisation : le GFC ne fait que 4 bits et son objectif n'est pas encore complètement déterminé. Le champ AC de 8 bits supporte le mécanisme d'accès à une ressource partagée entre plusieurs terminaux (bits BB et RQ) et supporte également trois niveaux de priorité pour le trafic asynchrone ; - la génération et la vérification des codes correcteurs d'erreur de l'en-tête : le HEC (Header Error Control) d'ATM est calculé au niveau physique car il couvre tout l'en-tête de la cellule ; le champ AC de DQDB n'est pas protégé par le HCS (Header Check Sequence) qui est calculé au niveau SM (SegMent layer) ; - le champ VPI (Virtual Path Identifier) n'apparaît pas dans l'en-tête du segment DQDB. - En-têtes des PDU de niveaux supérieurs pour le trafic évoluant d'ATM vers DQDB : - aux cellules ATM d'une connexion donnée est associée une valeur de MID (Message IDentifier). Bien que cette valeur soit unique sur cette connexion, rien ne garantit son unicité au niveau du réseau DQDB. La passerelle doit donc tenir à jour une liste des valeurs de MID disponibles sur le réseau. Elle effectue ainsi une modification des valeurs de MID des cellules ATM en une valeur de MID DQDB. Cette modification est réalisée à la réception de la première cellule ATM (BOM) et enregistrée dans une table d'échange ; - la qualité de service inhérente au délai de transit du message est aussi examinée ; en effet, il est nécessaire de choisir un niveau de priorité d'accès au réseau DQDB. Ce niveau sera ensuite assigné à toutes les cellules du même message ; - les CRC10 de la DM-PDU et de la SAR-PDU n'étant pas les mêmes, un nouveau calcul est nécessaire ; - étant donné qu'il n'y a pas examen de l'information d'adressage, la passerelle doit diffuser l'information sur les deux bus, modifiant en cela la valeur du VCI (Virtual Channel Identifier) qui devient la valeur par défaut associée aux slots QA en mode asynchrone non connecté. - En-têtes des PDU de niveaux supérieurs pour le trafic évoluant de DQDB vers ATM : - le champ VCI du segment DQDB est modifié de façon à obtenir l'en-tête ATM adéquat ;
Corrigés
359
- le CRC 10 est également recalculé ; - il n'est pas nécessaire de recalculer le MID. En effet, son unicité est garantie par le mécanisme d'allocation du MID sur DQDB. 4. La figure suivante montre l'architecture de la passerelle ATM/DQDB. interface STM STL
ATM
physique
physique
bus A
bus B
ATM
Elle est composée des couches SM, STL et physique pour le réseau DQDB et des couches ATM et physique pour le réseau ATM. L'interface réalise la conversion de protocole indispensable à la transformation des cellules en slots et vice-versa. Les fonctions que doit remplir la passerelle pour permettre l'interconnexion ATM/DQDB sont les suivantes : - conversions de protocole (CRC, qualité de service, etc.) présentées précédemment à réaliser au niveau de l'interface ; - actions dépendant du type des données (BOM, COM, EOM) : gestion du temps de vie des PDU, insertion d'une nouvelle correspondance MID/VCI dans la table d'échange (unité de données de type BOM), recherche d'une correspondance dans la table (unité de données de type COM) ou encore effacement d'une entrée dans la table (unité de données de type EOM). Grâce à la similitude des champs des cellules ATM et des slots DQDB, les fonctions de la passerelle sont simplifiées, notamment, cette dernière n'a pas à effectuer de segmentation ou de réassemblage des données. L'ajout d'un serveur sans connexion (CLS - ConnectionLess Server) du côté ATM permet de lui déléguer une partie des tâches de la passerelle et plus particulièrement celles concernant l'adressage des données. La passerelle ne connaissant pas les adresses des stations destinataires, elle dirige tout son trafic provenant du réseau DQDB vers le CLS. Une connexion permanente ou semipermanente est établie entre la passerelle et le CLS (cf. figure ci-dessous). Le CLS permet ainsi d'offrir un service sans connexion dans un réseau qui fonctionne par essence en mode connecté. passerelle CLS
DQDB iceud
PHY
ATM
PHY
AAL AT
commutateur /
ATM\^
M
3 6 0 Architecture des réseaux haut débit
Le CLS fonctionne dans les deux sens de l'interconnexion : un trafic issu d'ATM en direction de DQDB est d'abord dirigé vers le CLS (chaque station dispose de la correspondance adresse MAC de destination/VPI). Le trafic issu de DQDB vers ATM est d'abord envoyé à la passerelle (les stations DQDB spécifient une valeur particulière de VCI) qui le dirige à son tour vers le CLS. Le CLS reconstitue et traite les informations d'adressage qui, pour chaque SDU (Service Data Unit), déterminent l'acheminement à adopter. La passerelle, dans le sens DQDB vers ATM, conserve la valeur de MID du réseau DQDB. Puisque ce numéro est unique sur le réseau DQDB, il l'est également sur la connexion qui relie la passerelle au CLS. Néanmoins, il n'est pas garanti que toutes les stations sur le réseau ATM utilisent des valeurs de MID distinctes. Le CLS effectue donc une modification des valeurs de MID ; la nouvelle valeur attribuée dépend de l'ancienne et du couple VCI/VPI. Une table d'échange est, là aussi, utilisée. Réponse
9.9
Ces informations figurent dans la MIB II spécifié dans le RFC 1213. Il s'agit de compteurs à valeur entière : - ipInReceives : nombre total de paquets ou fragments reçus depuis les interfaces, incluant ceux en erreur ; - ipInHdrErrors : nombre de paquets ou fragments rejetés car leur en-tête est erroné (mauvaise séquence de contrôle, numéro de version incorrect, autres erreurs de format, durée de vie dépassée, erreurs rencontrées lors de l'exécution des options) ; - ipInAddrErrors : nombre de paquets ou fragments rejetés car l'adresse destination IP spécifiée au niveau de leur en-tête est erronée ; - ipForwDatagrams : nombre de paquets ou fragments reçus et routés ; - iplnUnknownProtos : nombre de paquets reçus et détruits suite à une nonidentification du protocole de niveau supérieur ; - ipInDiscards : nombre de paquets reçus et détruits par manque de mémoire ; - ipInDelivers : nombre de paquets reçus et délivrés aux protocoles utilisant IP (y compris ICMP) ; - ipOuiRequests : nombre de paquets envoyés par les protocoles utilisant IP pour être transmis (y compris ICMP) ; - ipOutdiscards : nombre de paquets en émission, détruits faute de mémoire ; - ipOutNoRoutes : nombre de paquets ou fragments rejetés car aucune route n'a été trouvée pour les transmettre vers leur destination. Cela inclut le nombre de paquets ou fragments qu'un hôte n'a pu router car tous les routeurs auxquels il est directement connecté sont hors service ; - ipReasmReqds : nombre de fragments reçus et nécessitant un réassemblage ; - ipReasmOKs : nombre de paquets réassemblés avec succès ; - ipReasmFails : nombre d'anomalies détectées au niveau de l'algorithme de réassemblage (expirations du temporisateur de réassemblage, erreurs, etc.) ; - ipFragOKs : nombre de paquets fragmentés avec succès ;
Corrigés
361
- ipFragFails : nombre de paquets rejetés car nécessitant une fragmentation pour être retransmis alors que le drapeau DF est positionné ; - ipFragCreates
: nombre de fragments générés par fragmentation au niveau de
cette interface. UDP
TCP tcpOutMsgs
interface TCP/IP jcmpInMsgs
egpInMsgs
ICMP
EGP
icmpOutMsgs
! '.
udpOutDatagrams
tcpInMsg
k
udpInDatagrams
j
interface l'DP/lP iplnDelivers
ipFragOKs
I
egpQutMsgs ipFragFails
ipOutDiscards,
ipReasmOKs ipReasmFails
ii
ipReas n R e q d s
IF
ipInUnknownProtos ipOutNoRoutes i p F o r w Datagrams ipInAddrErrors inlnHdrErTors ipInDiscards
interface IP/sous-réseau
pOutRequests
plnReceives
Bibliographie
Chapitre 1 [Cerf 83] V.G. Cerf, E.A. Cain, "The DOD Internet architecture model". Networks and ISDN Systems. 7(10), pp. 307-318, octobre 1983.
Computer
[DEC 80] DEC, Intel, Xerox, The Ethernet — A Local Area Network ; Data Link Layer and Physical Layer Specifications — Version 1.0, septembre 1980. [IS 7498-1] ISO IS 7498-1, Basic Reference Model, 1993. [IS 7498-2] ISO IS 7498-2, Security Architecture,
1989.
[IS 7498-3] ISO IS 7498-3. Naming and Addressing, [IS 7498-4] ISO IS 7498-4, Management
Framework,
[IS 8509] ISO TR 8509, 0 5 / Service Conventions, [IS 8824] ISO IS 8824, Specification
1989.
of Abstract
[IS 9595] ISO IS 9595, Common Management
1989.
1987. Syntax Notation
Information
One (ASN.l),
Service
1987.
(CMIS)
Definition,
Protocol
(CMIP)
1991. [IS 9596] ISO IS 9596, Common Specification,
Management
1991.
[IS 10040] ISO IS 10040. Systems Management [IS 10164-1] ISO IS 10164-1, Systems Function.
Overview.
Management.
I : Object
Management
Management,
Part
2:
State
Management
1993.
[IS 10164-3] ISO IS 10164-3, Systems Management, Relationships,
Part 3 : Attributes for
Representing
1993.
[IS 10164-4] ISO IS 10164-4, Systems Management, 1992.
1992. Part
1993.
[IS 10164-2] ISO IS 10164-2, Systems Function,
Information
Part 4 : Alarm Reporting
Function,
364
Architecture des réseaux haut débit
[IS 10164-5] ISO IS 10164-5. Systems Management, Function. 1993. [IS 10164-6] ISO IS 10164-6, Systems 1994.
Part 5 : Event Report
Management.
[IS 10164-7] ISO IS 10164-7, Systems Management Function, 1992. [IS 10165-1] ISO IS 10165-1, Structure Management Information Model, 93.
Management
Part 6 : Log Control
Management,
Part
of Management
Function.
I : Security Information,
Alarm Part
I :
[IS 10165-2] ISO IS 10165-2. Structure of Management of Management Information, 1994.
Information,
Part 2 : Definition
[IS 10165-4] ISO IS 10165-4, Structure of Management for the Definition of Managed Objects, 1994.
Information,
Part 4 :
[Klessig 86] R. Klessig, "Overview of Metropolitan Communications Magazine, 24( 1), janvier 1986.
Guidelines
Area Networks",
[Lepage 89] F. Lepage, F. Afila, P. Antoine, E. Bajic. J. Brun, T. Divoux, Les locaux industriels, Hermès, 1989. [M.3010] UIT-T M.3010, Principes pour un Réseau de Gestion des 1993.
IEEE réseaux
Télécommunications,
[M.3100] UIT-T M.3010, Modèle Générique d'Information de Réseau, 1993. [Nussbaumer 87] H. Nussbaumer. Téléinformatique, Romandes, 1987.
Tome 1, Presses Polytechniques
[RFC 768] J. Postel. "User Datagram Protocol", RFC 768, août 1980. [RFC 791] J. Postel, "Internet Protocol", RFC 791, septembre 1981. [RFC 792] J. Postel, "Internet Control Message Protocol", RFC 792, septembre 1981. |RFC 793] J. Postel, "Transmission Control Protocol", RFC 793, septembre 1981. [RFC 821] J. Postel, "Simple Mail Transfer Protocol", RFC 821, août 1982. [RFC 826] D. Plummer, "Ethernet Address Resolution Protocol", RFC 826, novembre 1982. [RFC 854] J. Postel, "Telnet Protocol Specification", RFC 854, mai 1983. [RFC 903] R. Finlayson, T. Mann, J. Mogul, M. Theimer, "A Reverse Address Resolution Protocol", RFC 903, juin 1984. [RFC 904] D. Mills, "Exterior Gateway Protocol Formal Specification". RFC 904, avril 1984. (RFC 959] J. Postel, "File Transfer Protocol", RFC 959, octobre 1985. [RFC 1028] J. Davin, J. Case, M. Fedor. M. Schoffstall, "Simple Gateway Monitoring Protocol", RFC 1028, novembre 1987. [RFC 1157] J. Case, M. Fedor, M. Schoffstall, J. Davin, "A Simple Network Management Protocol". RFC 1157, mai 1990. [RFC 1158] M. Rose, "Management Information Base for Network Management of TCP/IP-based internets" RFC 1 158. mai 1990. [RFC 1213] K. McCloghrie, M. Rose. "Management Information Base for Network Management of TCP/IP-based internets : MIB-II". RFC 1213. mars 1991.
Bibliographie
365
[RFC 1271] S. Waldbusser. "Remote Network MONitoring Management Information Base", RFC 1271, novembre 1991. [RFC 1371] P. Gross, "Choosing a "Common IGP" for the IP Internet", RFC 1371, octobre 1992. [RFC 1441] J. Case, K. Mc Cloghrie, M.Rose, S.Waldbusser. "Introduction to Version 2 of the Internet-Standard Network Management Framework", RFC 1441, avril 1993. [Schatt 87] S. Schatt, Understanding 1987.
Local Area Networks,
Sams Understanding Series,
Ouvrages de synthèse S. Feit, TCP/IP : Architecture,
Protocols
and Implementation.
Mac Graw Hill, 1993.
C. Lecerf, D. Chomel, Les normes de gestion à l'ISO, Collection Technique et Scientifique des Télécommunications, Masson, 1993. H. Nussbaumer, Téléinformatique,
Tomes I, 2, 3 et 4. Presses Polytechniques Romandes.
G. Pujolle, Les réseaux. Eyrolles, 1995. M. Rose, Gestion des réseaux ouverts — SNMPv2. InterEditions, 1995. W. Stallings, Local and Metropolitan
Area Networks,
e
Mac Millan, 4 édition, 1990.
W. Stallings, SNMP, SNMPv2, and CMIP : the Practical Standards.
Guide to
Network-Management
Addison-Wesley, 1993
A. Tanenbaum, Réseaux : architectures, J. Walrand, Communications
Networks
protocoles,
applications.
InterEditions, 1995.
: a first course, Aksen Editors, 1993.
Chapitre 2 [Abramson 70] N. Abramson, "The ALOHA System — Another Alternative for Computer Communications", Fall Joint Computer Conference,
1970.
[Bux 81a] W. Bux et al., "A Reliable Token-Ring System for Local Area Communication", National Telecommunications Conference, New Orleans, 1981. [Bux 81b] W. Bux, "Local Area Subnetworks : A Performance Comparison", Transactions on Communications, 29(10). octobre 1981. [IEEE 802.IB] Institute of Electrical and Electronics Engineers, L A N / M A N service and protocol,
IEEE
management,
IEEE/ANSI Std 802.IB, 1995.
[IEEE 802.ID] Institute of Electrical and Electronics Engineers, Media Access (MAC) bridges, IEEE/ANSI Std 802.ID, 1993. [IEEE 802.IE] Institute of Electrical and Electronics Engineers, System load IEEE/ANSI Std 802.1E, 1994.
Control protocols,
[IEEE 802.IF] Institute of Electrical and Electronics Engineers, Common Definitions and Procedures for IEEE 802 Management Information, IEEE/ANSI Std 802. IF, 1993. [IEEE 802.2] Institute of Electrical and Electronics Engineers, Logical (LLC), ANSI/IEEE Std 802.2. 1994.
Link
Control
[IEEE 802.3] Institute of Electrical and Electronics Engineers, Carrier Sense Multiple Access (CSMA/CD) and Physical Layer Specification, ANSI/IEEE Std 802.3, 1993.
366
Architecture des réseaux haut débit
[IEEE 802.4] Institute of Electrical and Electronics Engineers, Token-passing method and physical layer specifications, ANSI/IEEE Std 802.4, 1990.
bus
access
[IEEE 802.5] Institute of Electrical and Electronics Engineers, Token Ring access and physical layer specifications, ANSI/IEEE Std 802.5, 1992.
method
[IEEE 802.6] Institute of Electrical and Electronics Engineers, Distributed Queue Dual Bus {DQDB) access method and physical layer specifications, ANSI/IEEE Std 802.6, 1994. [IEEE 802.7] Institute of Electrical and Electronics Engineers, IEEE Practices for Broadband Local Area Networks, IEEE Std 802.7, 1989.
Recommanded
[IEEE 802.9] Institute of Electrical and Electronics Engineers, Integrated Services {IS) LAN Interface at the Medium Access Control {MAC) and Physical {PHY) Layers. IEEE Std 802.9. décembre 1994. [IEEE 802.10] Institute of Electrical and Electronics Engineers, Interoperable Security (SILS), ANSI/IEEE Std 802.10, 1992. [IS 8802-1] ISO IS 8802-1, Local Area Networks, Networks, non publié. [IS 8802-2] ISO IS 8802-2, Local Area Networks, [IS 8802-3] ISO IS 8802-3, Local Area Networks, and Physical Layer Specifications, 1993.
Part I : Overview
LAN/MAN
of Local
Part 2 : Logical Link Control, Part 3 : CSMA/CD — Access
[IS 8802-4] ISO IS 8802-4, Local Area Networks. Part 4 : Token passing Method and Physical Layer Specification, 1990.
Bus
Area
1990. Method Access
[IS 8802-5] ISO IS 8802-5, Local Area Networks, Part 5 : Token Ring Access Method and Physical Layer Specification. 1994. [IS 8802-6] ISO IS 8802-6, Local Area Networks, Part 6 : Distributed (DQDB) Access Method and Physical Layer Specification, 1993.
Queue Dual Bus
[IS 8802-7] ISO IS 8802-1. Local Area Netn'orks, and Physical Layer Specification. 1993.
Part 7 : Slotted Ring Access
[IS 10039] ISO IS 10039, MAC Service Definition,
1991.
Method
[Lam 75] S.S. Lam and L. Kleinrock, "Packet Switching in a Multi-access Broadcast Channel : Dynamic Control Procedures", IEEE Transactions on Communications, COM-23(9). pp. 891-904, septembre 1975. [Lam 80] S.S. Lam, "A Carrier Sense Multiple Access Protocol for Local Networks", Computer Networks, 4, pp. 21-32, avril 1980. [MAN 93] Networks on the Metropolitan Area, Numéro spécial IEEE Journal on Selected Areas in Communications, 11(8). octobre 1993. [Metcalfe 76] R.M. Metcalfe. DR. Boggs. "Ethernet: Distributed Packet Switching for Local Computer Networks", Communications of the ACM, 19(7), juillet 1976. [Rubin 90] I. Rubin. J. Baker. "Media Access Control for High-Speed Local Area and Metropolitan Area Communication Networks", Proceedings of the IEEE, 78(1), Janvier 1990.
Bibliographie Ouvrages
de
367
synthèse
G. Pujolle et M. Schwartz, Réseaux locaux informatiques, P. Rolin, Réseaux locaux : normes et protocoles, P. Rolin, Réseaux haut débit, Hermès, 1995. M. Schwartz, Telecommunication Networks Addison Wesley Publishing, 1987.
Eyrolles, 1994.
Hermès, 1993.
— Protocoles,
Modeling
and
Analysis,
Chapitre 3 [Abramson 70] N. Abramson, "The ALOHA System — Another Alternative for Computer Communications", Fall Joint Computer Conference, 1970. [DEC 80] DEC, Intel, Xerox, The Ethernet — A Local Area Network ; Data Link Layer and Physical Layer Specifications — Version 1.0, septembre 80. [IEEE 802.3] Institute of Electrical and Electronics Engineers. Carrier Sense Multiple Access (CSMA/CD) and Physical Layer Specification, ANSI/IEEE Std 802.3, 1993. [IEEE 802.3a] Institute of Electrical and Electronics Engineers, Medium Attachment and Baseband Medium Specifications, Type 10BASE2, Std 802.3a, 1988.
Unit
[IEEE 802.3b] Institute of Electrical and Electronics Engineers, Broadband Medium Attachment Unit and Broadband Medium Specifications, Type 10BROAD36, ANSI/IEEE Std 802.3b, 1985. [IEEE 802.3c] Institute of Electrical and Electronics Engineers, Repeater Unit for 10 Mb/s Baseband Networks, ANSI/IEEE Std 802.3c, 1985. [IEEE 802.3d] Institute of Electrical and Electronics Engineers, Medium Attachment and Baseband Medium Specification for a Vendor Independent Fiber Optic Repeater Link. ANSI/IEEE Std 802.3d, 1987.
Unit Inter
[IEEE 802.3e] Institute of Electrical and Electronics Engineers, Physical Signaling, Medium Attachment, and Baseband Medium Specifications, Type IBASE5, ANSI/IEEE Std 802.3e, 1987. [IS 8802-3] ISO IS 8802-3, Local Area Networks, and Physical Layer Specifications, 1993.
Part 3 : CSMA/CD — Access
Method
[IS 8802-3-14] ISO IS 8802-3-Amendment 14, Fiber Optics Media I0BASEF, 1993. [Metcalfe 76] R.M. Metcalfe, D.R. Boggs, "Ethernet : Distributed Packet Switching for Local Computer Networks", Communications of the ACM, 19(7), juillet 1976. [Watson 95] G. Watson et al., "The Demand Priority Access Method", IEEE Networks, 9(1), Janvier 1995. Ouvrages
de
synthèse
A. Ferrero, Ethernet et ses évolutions, G. Held, Ethernet Networks,
Addison-Wesley, 1995.
Wiley. 1994.
N. Turin, L'univers des réseaux Ethernet : concepts, produits, 1993.
mise en pratique.
Masson,
368
Architecture des réseaux haut débit
Chapitre 4 [Bux 83] W. Bux. F. Closs. H. Kummerle. H. Mueller. "Architecture and Design of a Reliable Token-Ring Network". IEEE Journal on Selected Areas in Communications, novembre 1983. [IS 8802-4] ISO IS 8802-4, Local Area Networks, Part 4 : Token passing Method and Physical Layer Specification, 1990.
Bus
Access
[IS 8802-5] ISO IS 8802-5, Local Area Networks, Part 5 : Token Ring Access Method and Physical Layer Specification, 1 9 9 4 . [IS 10039] ISO IS 10039, MAC Service Definition,
1991.
[Minet 89] P. Minet, P. Rolin, S. Sédillot, Le réseau MAP, Hermès, 1989. Ouvrages
de
synthèse
David Bird. Token Ring Network Design : a Guide. Addison-Wesley. 1994. J. Nilausen. Token Ring Networks,
Prentice-Hall. 1992.
G.C. Sackett. IBM's Token Ring Networking
Handbook,
Mac Graw Hill. 1993.
Chapitre 5 [ANSI 1841 ANSI X3.184-199x, Fiber Distributed Data Interface Single-Mode Fiber PMD (SMF-PMD), décembre 1992.
(FDDI) — Part 4 :
[ANSI T l - 1 0 5 ] ANSI Tl-105-1991, "Digital Hierarchy — Optical Interface Rates and Formats Specifications (SONET) (FDDI and STS path signal level)". Supplement to ANSI T l - 1 0 5 , 1991. [ANSI 237] ANSI X3.237-199x. Fiber Distributed Data Interface Low-cost Fiber Medium Dependent (LCF-PMD), septembre 1992.
Physical
[ANSI 201] ANSI X3.201-1992, Fiber Distributed Medium Dependent (TP-PMD), février 1993.
Physical
Data Interface Twisted Pair
[Fink 92] R. Fink, F. Ross. "FFOL and its relationship to the MAN/WAN environment". Computer Communications. 15(9). novembre 1992. [Hamstra 92] J. Hamstra, R. Fink, "FFOL transmission services — Issues for a PHY physical layer protocol", Computer
Communications.
15(5), juin 1992.
[IS 9314-1] ISO IS 9314-1, Fiber Distributed Layer Protocol (PHY), 1989.
Data Interface (FDDI) — Part I : Physical
[IS 9314-2] ISO IS 9314-2, Fiber Distributed Access Control (MAC), 1989.
Data Interface (FDDI) — Part 2 : Medium
[IS 9314-31 ISO IS 9314-3, Fiber Distributed Data Interface (FDDI) — Part 3 : Physical Laver Medium Dependent Protocol (PMD), 1990. [IS 9314-5] ISO IS 9314-5. Fiber Distributed Ring Control (FDDI II), 1995.
Data Interface (FDDI) — Part 5 : Hybrid-
[IS 10608-14] ISO ISP 10608-14. Fiber Distributed Station Management, 1995.
Data Interface
(FDDI) — Part 6 :
Bibliographie
369
[Jain 90] R. Jain, "Performance and Analysis of the FDDI Token Ring Protocol Networks : Effects of Parameters and Guidelines for setting TTRT". Proceedings ACM SIGCOMM, 1990. [Ross 89] F. Ross, "Overview of FDDI : the Fiber Distributed Data Interface", Journal on Selected Areas in Communications, 7(7), juillet 1989.
IEEE
[Ross 90] F. Ross, J. Hamstra, R. Fink, "FDDI - A LAN Among MANs", Communication Review, 20(3), juillet 1990.
Computer
[Ross 92] F. Ross, R. Fink, "Overview of FFOL — FDDI Follow-On LAN". Communications, 15( 1 ), janvier 1992.
Computer
[Stallings 93] W. Stallings, Local and Metropolitan Macmillan Publishing Company. 1993.
Area
Networks,
[Tolmie 92] D. Tolmie, "Gigabit Networking", IEEE Lighwave Systems, 3(2), mai 1992. [Walrand 93] J. Walrand, Communications 1993. Ouvrages
de
Networks
: a first
4
e
édition.
Telecommunication
course,
Aksen Editors,
synthèse
B. Albert, A.P. Jayasumana, FDDI and FDDI II : Architecture, Artech House, 1994. R. Jain. FDDI Handbook : High-Speed Addison-Wesley, 1993.
Networking
Protocols and
Using Fiber
Performance,
and Other
Media,
A. Shah, G. Ramakrishnan, FDDI - Réseau haut débit, Masson, 1995.
Chapitre 6 [Ahmad 92] R. Ahmad, F. Halshall. "A Comparison of DQDB and FDDI for the interconnection of LANs", Proceedings EFOC/LAN'92, pp .43-47, 1992. [Hahne 90] E. Hahne, A. Choudhury, N. Maxemchuck, "Improving the fairness of Distributed-Queue-Dual-Bus Networks", Proceedings IEEE INFOCOM'90, juin 1990. [IEEE 802.6] Institute of Electrical and Electronics Engineers, Distributed Queue Dual Bus (DQDB) access method and physical layer specifications, ANSI/IEEE Standard 802.6, 1994. [Newman 88] R. Newman, Z. Budrikis, J. Hullett. "The QPSX Communications Magazine, pp. 20-28, 26(4), avril 1988.
MAN",
IEEE
[Sadiku 94] M. Sadiku, A. Arvind, "Annotated Bibliography on Distributed Queue Dual Bus (DQDB)", Computer Communications Review, 24 (1), ACM, Janvier 1994. [Sumita 92] M. Sumita, P.-C. Fetterolf. "Effect of Bandwidth Balancing Mechanism on fairness and performance of DQDB MANs". Proceedings IEEE INFOCOM'92, mai 1992.
370
Architecture des réseaux haut débit
Ouvrages
de
synthèse
D. Spohn, Data Network Graw Hill, 1993.
Design : Packet
Switching,
Frame Relay, 802.6/DQDB,
Mac
M. Sadiku, A. Arvind, "Annotated Bibliography on Distributed Queue Dual Bus (DQDB)", Computer Communications Review, 24 (1), ACM, janvier 1994.
Chapitre 7 [IEEE 802.2] Institute of Electrical and Electronics Engineers, Logical
link
control,
ANSI/IEEE Standard 802.2, 1994. [IS 3309] ISO IS 3309, High-level Data Link Control (HDLC), juin 1991. [IS 8802-2] ISO IS 8802-2, Local Area Networks,
Part 2 : Logical Link Control,
1990.
Chapitre 8 [ATM Forum 94] ATM Forum, ATM User-Network 3.1. juillet 1994.
Interface (UNI) Specification
Version
[ATM Forum 95] ATM Forum. LAN Emulation SWG Drafting Group, LAN Emulation over ATM Specification
- Version 1.0, janvier 1995.
[Bae 91] J. Bae, T. Suda, "Survey of traffic control schemes and protocols in ATM networks", Proceedings
of the IEEE, 79 (2), février 1991.
[Bala 90] K. Bala, I. Cidon, K. Sohraby, "Congestion control for high speed packet switched networks", Proceedings IEEE INFOCOM'90, 1990. [Boyer 92] P. Boyer, D. Tranchier. "A reservation principle with applications to the ATM traffic control". Computer Networks and ISDN Systems, 24, 1992. [Doll 72] D.R. Doll, "Multiplexing and concentration", Proceedings pp. 1313-1321. novembre 1972. [G.707] UIT-T G.707. Synchronous Digital Hierarchy [G.708] UIT-T G.708, Network novembre 1993.
[G.731] UIT-T G.731, Primary
bit rates, août 1993.
node interface for the Synchronous
[G.709] UIT-T G.709, Synchronous multiplexing PCM
structure,
multiplex
of the IEEE, vol. 60,
Digital
Hierarchy,
décembre 1993.
équipement
for
voice
frequencies,
Bluebook III.4, juin 1990. [G.732] UIT-T G.732, Characteristics of primary PCM multiplex équipement operating 2048 kbit/s. Bluebook III.4. juin 1990.
at
[G.733] UIT-T G.733, Characteristics of primary PCM multiplex équipement operating 1544 kbit/s, Bluebook III.4, juin 1990.
at
[Guillemin 92] F. Guillemin. Contrôle de congestion dans les réseaux asynchrones. Thèse de doctorat de l'université de Rennes I, juillet 1992.
temporels
[Gravey 91] A. Gravey, G. Hébuterne. "Mixing time and loss priorities in a single server queue". Proceedings Workshop on ATM. 13th International Teletraffic Congress, 1991.
Bibliographie
371
[Hong 91] D. Hong, T. Suda. "On congestion control and prevention in an ATM network", IEEE Network Magazine, juillet 1991. [1.1 13] UIT-T 1.113, Vocabulary 1994.
of Terms for Broadband
Aspects
of ISDN, novembre
[1.121] UIT-T 1.121, Broadband aspects of ISDN, juillet 1991. [1.150] UIT-T 1.150, B-ISDN Asynchronous novembre 1993.
Transfer Mode Functional
Characteristics,
[1.211] UIT-T 1.211, B-ISDN Service Aspects, novembre 1993. [1.311] UIT-T 1.311, B-ISDN General Network Aspects, novembre 1993. [1.320] UIT-T 1.320, ISDN Protocol Reference Model, novembre 1994. [1.321] UIT-T 1.321, B-ISDN Protocol
Reference Model and its Application,
[1.327] UIT-T 1.327, B-ISDN Functional Architecture,
[1.356] UIT-T 1.356, B-ISDN ATM Layer Cell Transfer Performance, [1.361] UIT-T 1.361, B-ISDN ATM Layer Specification, [1.362] UIT-T 1.362, B-ISDN ATM Adaptation octobre 1993.
février 1995.
novembre 1993.
Layer
(AAL) Functional
[1.363] UIT-T 1.363, B-ISDN ATM Adaptation
Layer (AAL) Specification,
[1.364] UIT-T 1.361, Support octobre 1993.
Connectionless
of Broadband
[1.365] UIT-T 1.365.1, Frame Relaying SSCS), novembre 1994.
Service
Specific
[1.371] UIT-T 1.371, Traffic Control and Congestion [1.413] UIT-T 1.413, B-ISDN User-Network [1.432] UIT 1.432, B-ISDN Janvier 1994.
février 1994.
Convergence
on
B-ISDN,
Sublayer
(FR-
Control in B-ISDN, novembre 1993.
Interface, décembre 1993.
User-Network
Operation
Description,
Data Service
Interface
— Physical
[1.555] UIT-T 1.555, Frame Relaying Bearer Service Interworking, [1.610] UIT-T 1.610. B-ISDN Janvier 1994.
juillet 1991.
novembre 1993.
And Maintenance
Layer
Specification,
novembre 1994.
Principles
and
Functions,
[IS 11172] ISO DIS 11172, Coding of Moving Pictures and Associated Audio (MPEG), novembre 1992. [Kroner 90] H. Kroner, "Comparative performance study of space priority mechanisms for ATM networks", Proceedings IEEE INFOCOM90, juin 1990. [Newman 94] P. Newman, "ATM Local Area Networks", IEEE Communications 32(3), mars 1994. [Q.2010] UIT-T Q.2010, Broadband integrated services signalling capabilities set I, release I, juillet 1995. [Q.2100] UIT-T Q.2100, B-ISDN signalling description, février 1995.
digital
ATM adaptation
[Q.2110] UIT-T Q.2110, B-ISDN ATM adaptation oriented protocol (SSCOP), avril 1995.
networks
layer (SAAL)
layer - Service
specific
Magazine, overview overviewconnection
372
Architecture des réseaux haut débit
[Q.2130] UIT-T Q.2130, B-ISDN signalling ATM adaptation layer - Service specific coordination function for support of signalling at the user-network interface (SSCF at UNI), avril 1995. [Q.2140] UIT-T Q.2140. B-ISDN signalling ATM adaptation layer - Service specific coordination function for support of signalling at the network node interface (SSCF at NNI), juillet 1995. [Q.2931] UIT-T Q.2931, Broadband integrated services digital networks - Digital subscriber signalling system N° 2 (SS 2) UNI layer 3 specification for basic call/connection
control,
à paraître fin 1995.
[Rathgeb 91] E. Rathgeb, "Modeling and performance comparison of policing mechanisms for ATM networks", IEEE Journal on Selected Areas in Communications, 9 (3), avril 1991. [X.200] UIT-T X.200, Open novembre 1994.
Systems
Interconnection
[Szuprowicz 95] B.O. Szuprowicz. Multimedia
— Basic
Networking,
Reference
Model.
Mac Graw Hill, 1995.
[Truong 95] H.L.T. Truong, W.W. Ellington, J.Y. Le Boudec, A. Meier. J.W. Pace, "LAN Emulation on an ATM Network", IEEE Communications Magazine, 33 (5), mai 1995. Ouvrages
de
synthèse e
L'Echo des Recherches,
Numéro spécial sur ATM (I), 144, 2 trimestre 1991.
L'Echo des Recherches,
Numéro spécial sur ATM (II), 145, 3 trimestre 1991.
e
M. Boisseau, M.Démange, J.-M.Munier, Réseaux ATM, Eyrolles, 1992. M. DePrycker. Asynchronous
e
Transfer Mode, 2 édition, Ellis Horwood Ltd, 1994.
R. Hândel, M. Huber, S. Schroder, ATM Networks
: concepts,
protocols,
applications,
e
2 édition, Addison-Wesley, 1994. D.E. McDysan, D.L. Spohn, ATM: Theory and Applications, D. Minoli. Broadband
Mac Graw Hill, 1994.
Network Analysis and Design, Artech House, 1993.
R.O. Onvural. Asynchronous
Transfer Mode Networks,
M.J. Sexton, A.B.D. Reid, Transmission House, 1992. W. Stallings. ISDN and Broadband Millan, 1995.
Artech House, 1994.
and the Synchronous
Digital
Hierarchy,
Artech
e
ISDN with Frame Relay and ATM, 3 édition, Mac
Chapitre 9 [ANSI 90] ANSI T1.606, Frame Relaying Bearer Senice Service
Description.
— Architecture
Framework
and
1990.
[Bellcore 92] Bellcore, Generic Requirements for SMDS Networking.
Bellcore Technical
Reference, Issue 2, TA-TSV-001059. août 1992. [Deering 95] S. Deering, R. Hinden. "Internet Protocol, Version 6 (IPv6) Specification", draft-ietf-ipngwg-ipv6-spec02, 19 juin 1995.
Bibliographie
373
[IEEE 802.Id] Institute of Electrical and Electronics Engineers, Local MAC Contribution P802.1d/D9, 1989.
Bridging,
[IEEE 802.Ig] Institute of Electrical and Electronics Engineers, Remote MAC Contribution P802.1g, novembre 90.
Bridging,
[IS 3309] ISO IS 3309, High-level Data Link Control (HDLC), juin 1991. [IS 8648] ISO IS 8648. Interconnexion couche réseau, septembre 1990.
des systèmes ouverts - Organisation
interne de la
[Q.931] ITU-T Q.931, Rev-1, Digital subscriber Signalling System No.l (DSS I) — ISDN user-network interface layer 3 specification for basic call control, octobre 1994. [RFC 768] J. Postel, "User Datagram Protocol", RFC 768, août 1980. [RFC 791] J. Postel, "Internet Protocol", RFC 791, septembre 1981. [RFC 792] J. Postel, "Internet Control Message Protocol", RFC 792, septembre 1981. [RFC 793] J. Postel, "Transmission Control Protocol", RFC 793, septembre 1981. [RFC 904] D. Mills, "Exterior Gateway Protocol Formal Specification", RFC 904, avril 1984. [RFC 1371] P. Gross, "Choosing a "Common IGP" for the IP Internet", RFC 1371, octobre 1992. [RFC 1710] R. Hinden, "Simple Internet Protocol Plus White Paper", RFC 1710, octobre 1994. [RFC 1752] S. Bradner, A. Mankin, "The Recommendation for the IP Next Generation Protocol", RFC 1752, janvier 1995. [Sunshine 90] C. Sunshine, "Network interconnection and gateways", IEEE Journal Selected Areas in Communications, 8 (1), janvier 1990. [X.200] UIT-T X.200. Information Technology - Open Systems Interconnection Reference Model : the basic model, novembre 1994. Ouvrages
de
on
- Basic
synthèse
U. Black, Frame Relay Networks 1994. D. Comer, Internetworking
: Specifications
and Implementations,
Mac Graw Hill,
with TCP/IP, Prentice Hall, 1988.
R.P. Davidson, N.J. Muller, Internetworking R. Klessig, SMDS -Wide-Area Data Service, Prentice-Hall, 1994.
LANs, Artech House, 1992.
Networking
with Switched
Multimegabit
Radia Perlman, Interconnexions, ponts et routeurs, Addison-Wesley, 1995. D. Spohn, Data Network Design : Packet Switching, Frame Relay, 802.6/DQDB, Graw Hill, 1993.
Data
Mac
Liste des acronymes
AAL ABM ADM AFNOR AMP AMRF AMRT ANSI ARP ASN.l ATM AUI BECN BOM B-ISDN B-NT B-TA B-TE BUS CAC CBDS CBR CCE CCITT CD
ATM Adaptation Layer Asynchronous Balanced Mode Add and Drop Multiplexor Association Française de Normalisation Active Monitor Present Accès Multiple à Répartition en Fréquence Accès Multiple à Répartition dans le Temps American National Standards Institute Address Resolution Protocol Abstract Syntax Notation 1 Asynchronous Transfer Mode Attachment Unit Interface Backward Explicit Congestion Notification Beginning Of Message Broadband-Integrated Service Digital Network Broadband-Network Termination Broadband-Terminal Adaptor Broadband-Terminal Equipment Broadcast/Unknown server Connection Admission Control Connectionless Broadband Data Services Constant Bit Rate Configuration Control Element Comité Consultatif International Télégraphique et Téléphonique Committee Draft
376
Architecture des réseaux haut débit
CDD1 CDV CEI CEM CEN CENELE( CEP CEPT CF CLCP CLP CLS CMIP CMIS CMP CMT CNET COCF COM COS CPCS CPE CRC CS CSMA CSMA/C. CSMA/C1 CV DAC DAS DE DIS DoD DPAM DPG DQDB ECM ECMA EFCI EFS EGP
Copper Distributed Data Interface Cell Delay Variation Comité Electrotechnique International Configuration Element Management Comité Européen de Normalisation Comité Européen de Normalisation Electrotechnique Connection End Point Conférence Européenne des Postes et des Télécommunications Common Functions ConnectionLess Convergence Protocol Cell Loss Priority ConnectionLess Server Common Management Information Protocol Common Management Information Service Congestion Management Protocol Connection ManagemenT Centre National d'Etudes de Télécommunications Connection Oriented Convergence Function Continuation Of Message Corporation for Open Systems Common Part Convergence Sublayer Customer Premises Equipment Cyclic Redundancy Control (Check) Convergence Sublayer Carrier Sense Multiple Access Carrier Sense Multiple Access with Collision Avoidance Carrier Sense Multiple Access with Collision Detection Circuit Virtuel Dual Attachment Concentrator Dual Attachment Station Discard Eligibility Draft International Standard Department of Defense Demand Priority Access Method Dedicated Packet Group Distributed Queue Dual Bus Entity Coordination Management European Computer Manufacturer Association Explicit Forward Congestion Indication End of Frame Sequence Exterior Gateway Protocol
Liste des acronymes
EIA ELAN EOM ETSI FC FCS FDDI FDMA FECN FFOL FOIRL FOMAU FTP GFC HDLC HEC HIPPI HMUX IC ICF ICI ICIM ICIP ICMP IDU IEEE IETF IGP IMAC IP IS ISDN ISO ISSI ISSIM ISSIP IVD
rwu JTC LAN LCF-PMD
Electronic Industries Association Extended Local Area Network End Of Message European Telecommunications Standard Institute Feedback Control Frame Control (Check) Sequence Fiber Distributed Data Interface Frequency Division Multiple Access Forward Explicit Congestion Notification FDDI Follow-On LAN Fiber Optic Inter Repeater Link Fiber Optic Medium Access Unit File Transfer Protocol Generic Flow Control High-level Data Link Control Header Error Control High Performance Parallel Interface Hybrid Multiplexer Inter-exchange Carrier Isochronous Convergence Function Inter-exchange Carrier Interface Inter-exchange Carrier Interface Module Inter-exchange Carrier Interface Protocol Internet Control Message Protocol Interface Data Unit Institute of Electrical and Electronic Engineers Internet Engineering Task Force Interior Gateway Protocol Isochronous MAC Internet Protocol International Standard Integrated Service Digital Network International Standardization Organization Inter-Switching System Interface Inter-Switching System Interface Module Inter-Switching System Interface Protocol Integrated Voice/Data Inter-Working Unit Joint Technical Committee Local Area Network Low Cost Fiber-Physical Medium Dependent
377
378
Architecture des réseaux haut débit
LEC LEC LES LLC LME LMI L3-DTP MAC MAN MAP MAU MCF MCP MDI MIJ3
MIC MIC MID MID MLT-3 MMF MMF-PMD MO MPEG MUX I/E NAC NIF NMS NNI NRM NRZI OAM OC OSI PABX PA PAF PC PCI PCM PDH
Local Exchange Carrier LAN Emulation client LAN Emulation Serveur Logical Link Control Layer Management Entity Local Management Interface Level 3 Data Transport Protocol Medium Access Control Metropolitan Area Network Manufacturing Automation Protocol Medium Attachment Unit MAC Convergence Function MAC Convergence Protocol Medium Dependent Interface Management Information Base Medium Interface Connector Modulation par Impulsions et Codagf Message IDentifier Multiplexing IDentifier MultiLevel Transmission 3 Multi-Mode Fiber Multi-Mode Fiber PMD Managed Object Moving Picture Expert Group Multiplexeur d'Insertion/Extraction Null Attachment Concentrator Neighbor Information Frame Network Management System Network-Node Interface Network Resource Management Non Return to Zero Inverted Operation And Maintenance Optical Carrier Open Systems Interconnection Private Auto-Branch eXchange Pre-Arbitrated Pre-Arbitrated Functions Priority Control Protocol Control Information Physical Connection Management Plesiochronous Digital Hierarchy
Liste des a c r o n y m e s
PDU PHY PIM PLCF PL-OAM PLS PM PMA PMD PMF POH PT PTI QA QAF QoS QPSX RARP RGT RM RMON-MIB RMP RMT RNIS RNIS-BE RNIS-LB SAAL SAC SAS SAP SAR SC SDH SDU SEAL SG SGMP SIP SMAE SMAP SMDS
Protocol Data Unit Physical Proprietary Intra-SS Interface Module Physical Layer Convergence Function Physical Layer-Operation And Maintenance Physical Layer Signalling Physical Medium Physical Medium Access Physical Medium Dependent Parameter Management Frame Path OverHead Payload Type Payload Type Identifier Queued Arbitrated Queued Arbitrated Functions Quality of Service Queue Packet and Synchronous Switch Reverse Address Resolution Protocol Réseau de Gestion des Télécommunications Resource Management Remote Monitoring-MIB Routing Management Protocol Ring ManagemenT Réseau Numérique à Intégration de Services RNIS-Bande Etroite RNIS-Large Bande Signalling AAL Single Attachment Concentrator Single Attachment Station Service Access Point Segmentation And Reassembly Sub Committee Synchronous Digital Hierarchy Service Data Unit Simple and Efficient Adaptation Layer Study Group Simple Gateway Monitoring Protocol SMDS Interface Protocol System Management Application Entity System Management Application Process Switched Multimegabit Data Service
379
380
Architecture des réseaux haut débit
S MF A S MF-PMD SMI SMP SMT SMTP SNI SNIM SNMP SOH SONET S PAG SPM SRF SS SS-NE SSCS SSM ST STM STM STS STP TAG TAM TBR TBT TC TC TCP TCU TDMA TER THT TIA TLO TMN TNT TPDU TP-DDI TP-PMD
Specific Management Functional Area Single Mode Fiber - PMD Structure of Managed Information Standby Monitor Present Station ManagemenT Simple Mail Transfer Message Subscriber-Network Interface Subscriber-Network Interface Module Simple Network Management Protocol Section OverHead Synchronous Optical NETwork Standards Promotion and Application Group SONET Physical-layer Mapping Status Report Frame Switching System Switching System-Network Element Service Specific Convergence Sublayer Single Segment Message Segment Type Synchronous Transfer Mode Synchronous Transport Module Synchronous Transport Signal Shielded Twisted Pair Technical Advisory Group Timer Active Monitor Timer Beacon Receive Timer Beacon Transmit Technical Committee Transmission Convergence Transmission Control Protocol Trunk Cable Unit Time Division Multiple Access Timer Error Report Timer Holding Token Telephony Industries Association Terminal de Ligne Optique Telecommunications Management Network Timer No Token Transport Protocol Data Unit Twisted Pair-Distributed Data Interface Twisted Pair-Physical Medium Dependent
Liste des acronymes
TOP TQP TRO TRR TRT TSM TTL TTRT TVX UD UDP UIF un urr-T UNI UPC/NPC UTP VBR VCC VCI VCL VPC VPI VPL WAN WBC WD WG
Technical and Office Protocol Timer Queue PDU Terminaison de Réseau Optique Timer Return to Repeat Token Rotation Timer Timer Standby Monitor Time To Live Target Token Rotation Time Timer Valid Transmission User Data User Datagram Protocol Unité d'Inter-Fonctionnement Union Internationale des Télécommunications U1T - secteur Télécommunications User-Network Interface User Parameter Control/Network Parameter Control Unshielded Twisted Pair Variable Bit Rate Virtual Channel Connection Virtual Channel Identifier Virtual Channel Link Virtual Path Connection Virtual Path Identifier Virtual Path Link Wide Area Network Wide Band Channel Working Document Working Group
381
Index
AAL 240, 254 CS 242 mécanismes 242 SAR 242 type 254, 1 246, 2 247, 5 252 type 3/4 248, 254 types de protocole 245 accès 51 -59 aléatoire 56-59 centralisé 53, 84 contrôle d'accès 51 déterministe 53, 106 jeton 53, 89-116, 127-130 polling 53 statique 51 adaptateur 40 administration 26-34 définition 26 normes 27 SNMP 32 système de gestion 32 adressage 169 adresse MAC 280 Aloha 56, 57, 63 amplificateurs 42 AMRF 52 AMRT 51 anneau 54, 89, 124 doublé 50, 124
logique 89, 106 virtuel 55, 106 ANSI 124, 146 arbre couvrant 282, 299 architecture 15 couches 16, 22 DoD 24 mode connecté 18 mode non connecté 19 OSI 15-24 services 21 ARP 25 ATM 203-270, 301 adresse 256 cellule 236 cellules OAM 227 commutation 236 fonctions 236 Forum, 14, 211 marquage des cellules 265 priorités 238 réseau local émulé 256 service 239, 240 AUI 65, 74-75 Bande passante 4 1 , 46, 209 Binary Exponential Backoff 68 by-pass 90 Câble coaxial 44, 48, 77, 279
384
Architecture des réseaux haut débit
câble coaxial « bande de base » 45 câble épais 45, 77 câble fin 45, 78 CATV 44, 78 CBDS 295 CDDI 147 cellule ATM 210 DQDB 161 OAM 227 codage 4B/5B 145 5B/6B 84 8B/6T 83 bande de base 41 biphase 41 Manchester 4 1 , 75, 103 MLT-3 148 modulation 41 collision 48, 56, 59, 63, 66 commutateur 220 Ethernet 85 commutation 213 aiguille 207 asynchrone 209 congestion 299 contrat de trafic 265 contrôle d'entrée 265 contrôle de priorité 269 fonctions génériques 263 gestion des ressources 264 gestion rapide des ressources 270 lissage 266 méthodes préventives 262 méthodes réactives 262 notification 270 connecteur 103 prise en T 45 prise vampire 45 RJ-45 44 connectionless server 257 contrôle de flux 236 contrôleur-espaceur 267 couche application 24 physique 22 présentation 24
réseau 23 session 23 transport 23 CSMA58 CSMA/CA 59 CSMA/CD 39, 58, 83, 279 « hub » 79 architecture 64 collision 76 couche physique 74 détection des collisions 66 écoute 65 fenêtre de collision 67 format de la trame 70 modèle fonctionnel de la couche MAC 69 paramètres 72 période de vulnérabilité 67 reprise après collision 68 service MAC 72 slot-time 67 supports 77
Datagramme 19, 25, 184, 288, 290 débit 41 crête 264 DP AM. 84 DQDB 39, 49. 157-179, 295, 301 adresses 169 architecture 159 Bandwidth Balancing 167 cellule 161. 172 compteurs 165 couche DQDB 159 couche physique 159, 178 file distribuée 163, 166 isochrone 160 mode asynchrone avec connexion 163 mode asynchrone sans connexion 162 mode isochrone 162 protocole 172 segment 172 services 176 unités de données 167 VCI 162-163, 172. 175
Index
E G P 25, 290 Ethernet 40, 44. 57. 63-83 100 Mbit/s 82 100BASET 83 lOOVGAnyLan 82, 83 10BASET 79 Full Duplex 85 isochrone 86 Fast Ethernet 82 FDDI 124-152 architecture 125 classes de transmission 128 concentrateur 126 couche MAC 125 couche physique 125, 145 FDDI II 149 FFOL 151 gestion 126, 138 initialisation 134 jeton 133 jeton temporisé 129 nœud 126-127 paire torsadée 148 panne 135 priorités 129 protocole 127 services 136 support 146 temporisateurs 129 trame 131 fibre optique 45-46, 48, 79, 81, 84, 124, 147, 222, 229, 279 monomode 147 multimode 146 FOMAU 79 FTP 26 Gigue 104, 205, 240, 243 HDLC 196, 301 hub 79-83 ICMP 25 IEEE 14, 280 802.1 39 802.12 39, 83 802.14 39, 83
385
802.2 39, 183 802.3 39, 58, 64 802.4 39, 90, 110, 192 802.5 39, 89, 123 802.6 39, 157 802.7 39 802.8 39 802.9 39 architecture 38 comité 802 38, 39 couche physique 38 liaison 39 LLC 39 MAC 38, 39 normes 40 standard 38-40 TAG 39 IGP 25, 290 interconnexion 277-303 adressage Internet 288 adressage relais de trames 303 apprentissage 285 architecture 283 conversion de protocoles 278, 280 conversion de services 278, 280, 283 datagramme IP 291 encapsulation 278, 283, 289 filtrage 285 Internet 288, 293 IWU 278 méthodologie 278 pont 280-286 pont intelligent 280 ponts MAC 282 relais de trames 301 répéteurs 279 routage 281, 287 routage Internet 290 routeur 286-288 SMDS 295-301 terminologie 279 Internet 25, 288, 293 IP 25 ISO 12,38, 124 isochrone 162 Jeton 53-55, 127
386
Architecture des réseaux haut débit adressé 106
jeton temporisé 113, 129 Largeur de bande 41 Leaky Bucket 266 liaison 280 LLC 183-198, 279 protocoles 196-199 service LLC 1 184 service LLC2 185, 190 service LLC3 191 services 184 trames 196 lobe 104 MAC 279 MAU 48, 65. 74-75, 79 mode connecté 185 mode de transfert 207 asynchrone 209 ATM 208 circuit 208 paquet 208 synchrone 208 modèle OSI 15 multimédia 203 multiplex 208 multiplexage 207. 223 asynchrone 209 statistique 209 synchrone 208, 221 temporel 208 multiplexeur 151, 224 Nœud 47 normalisation 11 AFNOR 12 ANSI 12 autres organismes 14 ECMA 12 ISO 12 M A P 14 modèle OSI 15 organismes européens 13 T O P 14 UIT-T 13 notification 299
Organismes de normalisation 10 OSI 24, 38, 225, 278, 280 PABX 47 paires torsadées 42-43, 80, 83, 104 S T P 4 3 , 80, 84, 105, 148 UTP 43, 44, 80, 148 PDH 220, 232 plésiochrone 220 polling 53, 84, 191, 193 pont 280-286 port 280, 285 Qualité de service 205, 248, 263, 286, 291 Rafale 265 RARP 25 relais de trames 285, 301 répéteur 42, 4 8 , 4 9 , 78, 103 FOIRL81 répéteurs 279 réseau fédérateur 124, 151, 157 réseau grande distance 38 réseau large bande 204, 207 réseau large bande AAL 240-254 architecture 215 ATM 210 brasseur 219 cellule 210 commutation 213, 219 conduit virtuel 212 connexion ATM 211 connexion virtuelle 212 contrôle de congestion 261, 263270 couche physique 229 délimitation de cellules 233 flux de maintenance 227 interface 215 modèle de référence 225 OAM 227 points de référence 215 recommandations 207 services 204, 241 système de transmission 220, 231 trafics 206
Index
translation des valeurs de VCI 212 VCI 211,237 réseau local ATM 255 réseau local étendu 283 réseaux grande distance 6 réseaux locaux 6, 8 réseaux métropolitains 6, 157 RNIS 9,40, 169, 221,225 RNIS-BE (Réseau Numérique à Intégration de Services-Bande Etroite) 303 RNIS-LB 207, 295 routage 287, 298 routeur 286-288 SDH 220, 224, 231 service MAC 258 services large bande 203, 241 Shannon 41 slot 160 slot-time 67 SMDS 295-301 SMTP 26 SNMP 26, 32 SONET 147,220-224, 301 SONET/SDH 178 support 40-46 Tampons 209 taux d'erreurs 37 TCP 26, 288, 290 TCP/IP 288 technique de transmission 41 Telnet 26 Token Bus 39, 56, 106, 192 anneau virtuel 106 arbitrage réparti 109 architecture 110 fenêtre de réponse 108 gestion 114 Initialisation 110 Principe 106
priorité 113 procédure de réveil 107 réception 110 services MAC 115 slot-time 108, 115 supports 118 temporisateur 106 trame 111 Token Ring 39, 44, 89-105, 123 architecture 92 automate 96 câblage 104 couche physique 103 gestion 99 moniteur actif 100, 104 moniteurs en veille 100 principe 90 priorité 97, 100 réception 97 services MAC 100 tampon de latence 104 TCU 103 temporisateur 95, 96, 98 trame 92 transmission 95 topologie 47-50 anneau 49, 89 arbre 48 boucle 49 bus 48, 90, 158 étoile 47, 81, 86, 104 trafic isochrone 205 trafic sporadique 206 transport ISO 26 UDP 26 UIT 13 unité d'inter-fonctionnement 278 VPC 264 X.21 25 X.25 25, 301
387
CET O U V R A G E A ÉTÉ COMPOSÉ PAR LES ÉDITIONS HERMÈS REPRODUIT ET ACHEVÉ D'IMPRIMER PAR L'IMPRIMERIE FLOCH À MAYENNE EN OCTOBRE 1 9 9 5 .
DÉPÔT LÉGAL : OCTOBRE 1 9 9 5 . N° D'IMPRIMEUR : 3 8 3 0 1 .
Conçu avec un grand souci de clarté, Architecture des réseaux haut débit constitue un outil pédagogique de premier ordre. La partie « cours » traite des techniques de base utilisées dans les réseaux locaux et dans les réseaux haut débit : supports, raccordement, topologie du réseau et protocole d'accès au support. Après un rappel des protocoles IEEE, CSMA/CD, Token Ring et Token Bus sont présentés en détail, jusque dans leur évolution vers les 100 Mbit. Ces protocoles introduisent aux réseaux haut débit FDDI et DQDB, ainsi qu au futur réseau large bande. Pour ce dernier, sont expliquées en détail : la technique ATM, la topologie du réseau B-ISDN et la nouvelle architecture en couches s'y rapportant. Enfin, la problématique de l'interconnexion de tous ces réseaux est étudiée. La partie « exercices et corrigés » s'adresse aux enseignants et étudiants en informatique de 2 et 3 cycles qui y trouveront une illustration de chaque problème abordé par des exercices corrigés, une progression maîtrisée de la technicité au fur et à mesure des chapitres, une bibliographie richement documentée et une liste complète des acronymes et abréviations si souvent rencontrés dans ce domaine. e
e