Contribution au cigref réseaux hauts débits et multimédia

1,922 views
1,839 views

Published on

Contribution au groupe de travail CIGREF « Réseaux hauts débits et Multimédia »

Published in: Career
1 Comment
1 Like
Statistics
Notes
  • bonjour je besoin de la documentation sur la technologie sdh
    pour le partage des equipement de transmission par les operateurs de
    telecom
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here
No Downloads
Views
Total views
1,922
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
0
Comments
1
Likes
1
Embeds 0
No embeds

No notes for slide

Contribution au cigref réseaux hauts débits et multimédia

  1. 1. R ESEAUX HAUTS D EBITS ET M ULTIMEDIA Septembre 1997
  2. 2. 2
  3. 3. PARTICIPANTS Ce rapport fait suite aux travaux du groupe « Réseaux hauts débits et multimédia » du Cigref auquel ont participé : Yves Fouquet - Animateur du groupe (EDF) Jean-Luc Lemosquet (PMU) Hadj Amrani (Unedic) Robert Louge (Aérospatiale) Philippe Balin (Air France) Michel Lussignol (CNCA) Daniel Beaupoil (Cogema) Pierre Martin (RATP) Jean-Pierre Blouet (CNAM) Alain Mugnier (Société Générale) Eric Bonnenfant (Radio France) Chantal Neu (Air France) Emmanuel Bougeard (Axa) Bernard Papet (MACIF) Pierre Bourgeot (CNAF) Denis Poiret (AP-HP) Jacques Bourlier (GEC Alsthom) Patrice Pouyet (Informatique CDC) Jean-Lou Bouvard (Hoffmann Laroche) Bernard Querard (Saint-Gobain) Franck Bugnot (L’Oréal) Philippe Quesney (Axa) André Chamot (FNCA) James Rebotier (PSA Peugeot Citroën) Joëlle Chatelain (FNCA) Jean-Jacques Richard (AGF) Martine Chicault (Radio France) Yves Sallard (Mutuelles du Mans) Patrick Denimal (Total) Gérard Sampic (Crédit Lyonnais) Olivier-Pascal Fagot (TF1) Pierre Siri (Usinor Sacilor) Michel Fernandez (Air France) Fabien Soula (Air France) Serge Gauffeny (Michelin) Nabil Souli (RATP) Jean-David Geyl (Groupama) Walter T’Joen (La Redoute) Christophe Gobert (Rhône-Poulenc) Huong Tan (Mairie de Paris) Stéphane Gobin (Agirc) Florence Théodore (Bolloré) Philippe Goron (Renault) Olivier Porte (Cigref) Daniel Le Floch (CCMSA) Marc Leblond (Radio France) 3
  4. 4. 4
  5. 5. SOMMAIRE 1. CHRONIQUE D'UN AVENEMENT ANNONCE............................................................................7 1.1. RETOUR SUR LES TRAVAUX DU CIGREF EN 1994 ..................................................................................7 1.2. OBJECTIFS POURSUIVIS EN 1997..............................................................................................................8 1.3. UN EXEMPLE A MEDITER.........................................................................................................................10 1.4. LES AVANCEES TECHNOLOGIQUES DE L 'ATM.....................................................................................13 1.4.1. Les accords d'Anchorage : la victoire du pragmatisme .......................................................... 13 1.4.2. Le recentrage d'ATM sur les réseaux fédérateurs.................................................................... 16 1.5. DES BESOINS DESORMAIS BIEN REELS...................................................................................................17 1.5.1. Le workgroup et l'abolition des distances.................................................................................. 17 1.5.2. Les réseaux fédérateurs de bureautique et de messagerie...................................................... 18 1.5.3. L’impact du client / serveur.......................................................................................................... 18 1.5.4. Le phénomène Internet / Intranet................................................................................................ 18 1.5.5. L'émergence d'applications multimédia..................................................................................... 19 2. LA BATAILLE DES STANDARDS N’AURA PAS LIEU.......................................................... 21 2.1. IP, LA LAME DE FOND ..............................................................................................................................21 2.2. LES BIENFAITS D’IP POUR LES UTILISATEURS......................................................................................23 2.3. L’INTEGRATION D’IP DANS LES RESEAUX DES OPERATEURS ............................................................25 2.4. L’INTEGRATION D’IP DANS LES RESEAUX D’ENTREPRISE ..................................................................27 2.4.1. Frame Relay, le provisoire qui dure........................................................................................... 27 2.4.2. Ethernet, le protocole qui repousse ses limites......................................................................... 29 2.4.3. ATM et IP, le meilleur des mondes ? .......................................................................................... 30 3. COMMENT ALLER VERS LES HAUTS DEBITS ? .................................................................. 35 3.1. DES GRANDES ENTREPRISES FRANÇAISES QUI AVANCENT .................................................................35 3.1.1. EDF................................................................................................................................................... 36 3.1.2. RATP................................................................................................................................................. 38 3.1.3. Bibliothèque nationale de France............................................................................................... 40 3.2. PRINCIPES DE GESTION DES PROJETS HAUTS DEBITS...........................................................................43 3.2.1. La définition du périmètre ............................................................................................................ 43 3.2.2. Les processus de décision et les aspects financiers.................................................................. 44 3.3. LE RECOURS AUX OPERATEURS..............................................................................................................45 3.4. LES FACTEURS DE REUSSITE...................................................................................................................48 3.4.1. Le rôle clé de l'intégrateur............................................................................................................ 48 3.4.2. L'évolution des compétences........................................................................................................ 50 3.4.3. L'administration de réseau........................................................................................................... 51 4. QUELLES INFRASTRUCTURES RESEAU DEMAIN ? .......................................................... 53 5
  6. 6. 6
  7. 7. 1. CHRONIQUE D'UN AVENEMENT ANNONCE 1.1. Retour sur les travaux du Cigref en 1994 La montée en puissance de l’interconnexion des réseaux locaux informatiques du début des années 1990, qui succédait elle- même à la forte poussée des architectures LAN de la fin des années 1980, avait déjà conduit le Cigref à s’interroger sur les réseaux hauts débits : c’était en 1994. Il s’agissait alors de réfléchir à l’évolution des techniques et des architectures d’interconnexion de réseaux locaux et, dans ce cadre, d’évaluer la maturité des technologies émergentes, principalement de l’ATM. Ces travaux avaient fait ressortir que l’ATM présentait un indéniable potentiel pour l’interconnexion de réseaux locaux, mais des questions majeures restaient en suspens : • La bonne interface (du point de vue de l’utilisateur) pour l’accès au réseau d’interconnexion était-elle de type ATM ? • A partir de quand une infrastructure de communication longue distance adaptée à l’utilisation d’ATM serait-elle disponible ? • Y avait-il un marché viable pour l’ATM dans les réseaux d’entreprise ? Face à ces interrogations, le groupe était convenu que seul le temps permettrait d’y répondre, et que ce temps pourrait également être mis à profit pour évaluer les avancées des travaux de normalisation, les standards ayant à l’époque été considérés comme loin d’être stabilisés et de ce fait susceptibles de remettre en cause la pérennité de certains investissements. 7
  8. 8. 1.2. Objectifs poursuivis en 1997 Suivant la formule consacrée, de l’eau a coulé sous les ponts au cours des trois dernières années et la situation a notablement évolué depuis 1994 : + Les responsables télécoms et réseaux des grandes entreprises françaises ont assuré la mise en oeuvre d’infrastructures évoluées dans des domaines qui ont profondément changé l’organisation du travail. On citera notamment : • Le « workgroup » et l'abolition des distances • Les réseaux fédérateurs de bureautique et de messagerie • Les architectures client / serveur • Le phénomène Internet et Intranet • Les premières applications multimédia + Parallèlement à cette évolution des besoins, de nombreuses avancées ont été enregis trées dans le domaine de la normalisation des différentes technologies hauts débits, à travers les travaux menés au Frame Relay Forum, à l’ATM Forum et à l’Internet Engineering Task Force (IETF). De façon générale, chaque nouveau standard s’appuie maintenant sur un consortium qui joue le rôle de force d’appui marketing et technologique. + Enfin, les premières offres commerciales des opérateurs ont vu le jour, mais le phénomène de rattrapage par rapport à la satisfaction de la demande n’en est encore qu’à ses premiers balbutiements. La meilleure preuve en est l’évolution de la taille de marché du segment « matériels » et du segment « services », évaluée tous les ans par Data Communications : Vente de matériels ATM / Frame Relay Vente de services ATM / Frame Relay (millions de $) (millions de $) 1500 3000 1000 ATM 2000 ATM 500 Frame Relay 1000 Frame Relay 0 0 1995 1996 1997 1995 1996 1997 + En d’autres termes, si ATM soutient la comparaison avec Frame Relay dans la construction de réseaux privés, comme en témoignent des ventes de matériels dans un rapport de 1 à 2, il reste beaucoup à faire au niveau des offres des opérateurs pour atteindre un rapport similaire sur les services. 8
  9. 9. Compte tenu de toutes ces évolutions, les membres du Cigref ont donc décidé de réactiver le dossier des hauts débits en 1997, considérant en particulier que des premiers retours d’expérience étaient maintenant disponibles. L’agenda s’est dès lors organisé autour des objectifs suivants : • Dresser la typologie des besoins (hier/aujourd’hui/demain, sur le réseau fédérateur / sur le poste de travail / sur le WAN / sur le LAN...) + voir la section 1.5 du rapport. • Positionner les services-support dans le temps et par type de besoins (ex: Frame Relay sur l’interconnexion de réseaux locaux à l’international, IP switching ou ATM pour l’Intranet, Fast Ethernet sur les LANs...). + voir la section 2 du rapport. • Profiter des retours d’expérience sur les hauts débits dans des grandes entreprises françaises qui avancent. + voir la section 3.1 du rapport. • Définir les grands principes de mise en oeuvre des projets hauts débits : impact organisationnel, choix du périmètre et des technologies utilisées, processus de décision, prise en compte des aspects financiers... + voir la section 3.2 du rapport. • Evaluer les principaux freins et obstacles vis-à-vis de l’offre des opérateurs + voir la section 3.3 du rapport. Mais avant cela, il nous a semblé essentiel, pour que le lecteur comprenne bien pourquoi les membres du Cigref ont décidé de travailler sur un sujet déjà traité trois ans auparavant, de revenir sur deux phénomènes qui feront date : • L’explosion d’Internet • Le changement d’image de l’ATM 9
  10. 10. 1.3. Un exemple à méditer L’histoire des télécommunications est riche de concepts qui semblaient bien formés et bien partis et qui ne sont jamais arrivés. Mais lorqu’il existe une demande solvable, il est rare qu’elle reste longtemps orpheline de tout concept capable de la satisfaire. Et par chance, il y a généralement suffisamment de concepts en sommeil qui peuvent être ré-utilisés pour l’occasion. Que dire des « autoroutes de l’information » dans un tel contexte, elles qui furent portées sur les fonds baptismaux par Bill Clinton et Al Gore en 1993, si ce n’est que le monde se divise en 1997 en deux catégories : • Ceux qui cherchent encore les financements pour construire ces pharaoniques autoroutes de fibre optique, • Ceux qui proposent des services Internet. Nous ne rentrerons pas ici dans le débat consistant à savoir si Internet usurpe l’appellation d’autoroute de l’information, mais Internet a en trois ans puissamment contribué à augmenter la solvabilité (et donc la crédibilité) de la demande en hauts débits. Les hauts débits sont ainsi en train de laisser à d’autres concepts le privilège des batailles d’experts, et se conforment dorénavant à un principe de réalité où chaque avancée technologique est jugée sur pièces. Et à ce titre, l’exemple du NSF Net (National Science Foundation Network) aux Etats Unis nous semble devoir être mis en exergue, car ce réseau qui a interconnecté à partir de 1986 l’ensemble des sites de recherche nord-américains puis mondiaux a dû plus que tout autre faire face à l’explosion du trafic de l’Internet. Quelques chiffres pour fixer les idées : 1988 : 195 millions de paquets/mois 1992 : 24 000 millions de paquets/mois 1995 : 86 000 millions de paquets/mois En 1995, pour la première fois le trafic web y dépassa tous les autres types de trafic (SMTP, FTP, gopher...). La tendance n’a fait que s’accentuer depuis. Compte tenu du nombre sans cesse croissant de sites raccordés, l’idéologie a toujours tenu très peu de place dans les évolutions de NSF Net et ce sont bien les technologies les plus opérationnelles du moment qui ont été à chaque fois retenues. Et aujourd’hui, c’est l’ATM qui est au coeur du réseau vBNS qui a succédé à NSF Net. Le temps de l’ATM semble enfin venu... 10
  11. 11. + 1986/88 : 56 kb/s, La préhistoire de NSFNet + 1989/92 : T1 (1,5 Mb/s), les premiers pas 11
  12. 12. + 1992/95 : T3 (45 Mb/s), la crise de croissance + depuis 1996 : ATM (155 Mb/s), la croissance maîtrisée very High Speed Backbone Network Services (vBNS, opéré par MCI) 12
  13. 13. 1.4. Les avancées technologiques de l'ATM Après avoir entrevu l’ampleur de la vague Internet à travers l’exemple NSFNet, et avant de poursuivre dans la chronique de ce qui a changé chez les utilisateurs, il nous semble également important de revenir sur le changement d’image intervenu dans le monde de l’ATM, car cela a joué un rôle indéniable dans le décollage d’un marché où nombre de projets étaient auto-censurés faute d’une solution de communication jugée crédible et abordable. Tout se passe comme si après avoir longtemps rêvé d’un réseau et d’une technologie universels, les uns et les autres avaient enfin réalisé que de plus en plus de besoins applicatifs ne pouvaient plus attendre pour être satisfaits la sortie d’un hypothétique nirvana de la télécommunication, et qu’il était plus que temps de proposer une démarche réaliste de migration vers les hauts débits sur les réseaux d’entreprise. 1.4.1. Les accords d'Anchorage : la victoire du pragmatisme Introduction En avril 96 le comité technique de l’ATM Forum s’est réuni pour définir ce qu’on a appelé les accords d’Anchorage. Ces accords ont ensuite été mis à jour lors de la réunion du comité technique en juin 96. Malgré le fait que ces accords avaient pour but d’expliquer les directions prises par le comité technique de l’ATM Forum, une formulation malheureuse des premiers drafts et une presse mal informée ont entraîné une confusion et une opportunité pour des détracteurs proclamant la mort de l’ATM. Le tir a heureusement été corrigé depuis... Antécédents menant aux accords d’Anchorage L’ATM Forum a longtemps fait la promotion de l’ATM en tant que technologie révolutionnaire de l’avenir. Si ATM doit un jour atteindre ce but, un ensemble important de standards doit être développé. Aussi, sans remettre en cause leurs propres programmes de travail internes, de nombreux constructeurs de produits ATM ont investi de façon conséquente dans le développement d’un large éventail de standards ATM. Contrairement à d’autres organismes de standardisation, très peu de choses sont nécessaires pour obtenir l’approbation de l’ATM Forum pour la création d’une nouvelle activité. Globalement la seule chose nécessaire au développement d’un nouveau standard est la démonstration d’un intérêt parmi les membres principaux de l’ATM Forum. 13
  14. 14. Ces deux facteurs ont eu pour résultat la mise en place d’un grand nombre d’activités au sein du comité technique. Ceci a cependant rendu difficile pour un observateur non- initié (utilisateur potentiel des équipements et services ATM) la compréhension de ce qui se passe dans ces standards, quels sont ceux qui vont répondre à son besoin, et quels sont ceux qui sont terminés et ratifiés. Ce manque de compréhension, tout particulièrement dans la presse spécialisée, a mené à la perception d’un comité technique désorganisé et de progrès ralentis voire stoppés. + En d’autres termes, l’ATM Forum avait un problème de marketing. Le conseil des directeurs et le responsable du comité technique ont décidé de répondre à ce problème avec les accords d’Anchorage, afin d’expliquer comment les activités du comité technique sont complémentaires entre elles et forment un tout. Malheureusement, les premiers drafts ont véhiculé un message différent. La presse spécialisée a décrit ces accords comme une volonté de la part des constructeurs de ralentir la standardisation afin de leur permettre de rattraper les standards en terme d’implémentation. Le mot « gel » a été associé aux accords, et certains observateurs de l’industrie ont conclu que la standardisation de l’ATM était devenue moribonde, ce qui a eu pour effet d’encourager les acheteurs potentiels à stopper l’achat d’équipements ou de services ATM. Comme il est décrit dans la section suivante, les véritables accords d’Anchorage tels qu’ils ont été modifiés en Juin 96 véhiculent un message bien différent. Détail des accords Voici le texte de l’introduction des accords d’Anchorage : « Le comité technique de l’ATM Forum a identifié un ensemble cohérent de spécifications qui permet d’offrir une base de travail ATM fiable. Cet ensemble inclut des spécifications de base nécessaires à la construction d’une infrastructure ATM, et des spécifications concernant des fonctions étendues, nécessaires pour permettre une migration vers des réseaux ATM multiservices. Dans le futur, les spécifications de base seront revues si des problèmes d’intéropérabilité sont rencontrés. L’ATM Forum continuera de définir aussi rapidement que possible des nouvelles spécifications permettant de mettre en évidence l’utilité de l’ATM et ayant une compatibilité ascendante avec ce plan de travail. Dans cette orientation, l’ATM Forum peut maintenir son approche dynamique et orientée marché, tout en assurant aux utilisateurs une base solide pour un déploiement. » 14
  15. 15. On peut remarquer que nulle part il n’est question de « geler » ou de « ralentir » les efforts, mais plutôt d’agir « aussi vite que possible ». L’accent est mis en revanche sur la stabilité et l’utilité des spécifications existantes. Les accords d’Anchorage contiennent aussi trois listes de spécifications : des spécifications de base qui sont les standards permettant le déploiement des réseaux ATM aujourd’hui, des spécifications de fonctionnalités étendues basées sur les spécifications de base et permettant de nouvelles utilisations d’ATM ou une migration d’une ancienne technologie vers ATM, et enfin une liste de spécifications pour le futur. Spécifications de base 1. User Network Interface (UNI) v3.1 2. Broadband ISDN Inter-Carrier Interface (B-ICI) v2.0 3. Integrated Local Management Interface (ILMI) v4.0 4. Network Management specifications 5. Physical Layer Specifications at the UNI 6. Interim Inter-switch Signaling Protocol (IISP) 7. Private Network Node Interface (PNNI) v1.0 8. Signaling v4.0 9. Traffic Management v4.0 Spécifications de fonctionnalités étendues 1. Audio/visual Multimedia Service (AMS) v1.0 2. LAN Emulation (LANE) v1.0 with addendum and LANE Client Management 3. Native ATM Services : Semantic Description (API) v1.0 4. Frame-based UNI (FUNI) 5. Circuit Emulation Services (CES) 6. Frame Relay (FR)/ATM Service Interworking, and FR/ATM Network Interworking 7. SMDS/ATM Service Interworking 8. Data eXchange Interface (DXI) 9. All of the Test Suite Specifications and PICS Proforma Spécifications futures 1. Voice and Telephony over ATM (VTOA) 2. Multi Protocol Over ATM (MPOA) 3. Directory Services effort developping ATM Name System (ANS) 4. ATM level Security specifications 5. LAN Emulation v2.0 6. Residential Broadband (RBB) 7. Additional Physical layer specifications as appropriate 8. PNNI v2.0 9. B-ICI v3.0 10. Network Management specifications (M3 & M4) 11. Native ATM Services : Semantic Description (API) v2.0 12. More testing specifications 13. Public/Private Interworking 14. Wireless ATM 15
  16. 16. 1.4.2. Le recentrage d'ATM sur les réseaux fédérateurs Après une analyse attentive, la plupart des grands utilisateurs ont été réconfortés par les accords d’Anchorage, aussi bien en France qu’au Royaume-Uni ou dans d’autres pays européens. Concrètement, on l’a vu, ces accords se sont traduits par un jeu de spécifications de base nécessaire à la mise en oeuvre de backbones ATM, ainsi qu’en un deuxième jeu de spécifications étendues pour la migration de réseaux existants vers l’ATM et la mise en oeuvre de plateformes multimédia. Par ailleurs, les travaux en cours ont été recentrés de façon prioritaire sur les réseaux ATM multiservices et la mise en oeuvre de réseaux de plus grande taille, à travers la finalisation de trois standards : • LAN Emulation v2.0 • MPOA (Multi Protocol Over ATM), • PNNI (Private Network to Network Interface) Aujourd’hui, on peut donc considérer que trois architectures de sous-réseaux ATM sont envisageables chez les clients. La tendance est clairement de réserver la première d’entre elles à des niches, et c’est plutôt dans les deux dernières que se trouve le futur d’ATM dans les réseaux d’entreprise: • Classical IP, que l’on retrouvera essentiellement pour les réseaux interconnectant des stations de travail, • Lan Emulation (version 1 aujourd’hui), qui permet par des techniques de pontage de niveau 2 et des conversions d’adresses MAC, de faire passer des applications existantes sur une infrastructure ATM. Cette technique est bien adaptée jusqu’à 200-300 postes, mais il faut attendre la version 2.0 de LAN Emulation pour pouvoir envisager plus sereinement de passer à des configurations de plusieurs milliers de postes. • MPOA, qui à la différence de LAN Emulation opère au niveau 3, et qui associé à PNNI doit permettre à la fois de s’affranchir des limitations de taille des réseaux et de mettre en oeuvre progressivement des réseaux multimédia. MPOA, par les fonctionnalités qu’il devrait offrir en termes de gestion de VLAN et de garantie de performances aussi bien sur le LAN que sur le WAN, semble aujourd’hui particulièrement adapté à des topologies de type campus ou des réseaux métropolitains (qui pourraient eux- mêmes constituer des moyens d’accès à des artères hauts débits de transporteurs longue distance). 16
  17. 17. 1.5. Des besoins désormais bien réels 1.5.1. Le workgroup et l'abolition des distances C’est un lieu commun que de dire que les entreprises cherchent en permanence des gisements de productivité et une optimisation de leur cycle de production. Le fait nouveau, c’est l’ampleur prise par le phénomène dans un contexte de mondialisation. De nouveaux modes d’organisation du travail ont été définis en conséquence. L’un des plus importants est celui de l’entreprise étendue, dans lequel les réseaux hauts débits ont un rôle-clé à jouer. Le cas de Renault est particulièrement illustratif de cette tendance : • Renault est placé, et pour longtemps, dans une situation de concurrence forte. Pour survivre, il lui est impératif de réduire de façon continue le temps de conception et de mise en production des nouveaux modèles. • Dans ce contexte, Renault s’est fixé comme objectif de faire passer le temps de développement d’un nouveau véhicule de 52 mois aujourd’hui à 38 mois en l’an 2000. • Pour atteindre cet objectif, il faut que les centaines de problèmes qui surviennent dans la phase de conception et sont traitées au cours de réunions de projet mensuelles réunissant tous les intervenants puissent être résolus au fur et à mesure de leur apparition, par la personne la plus compétente, où que se trouve cette personne. + Le moyen identifié par Renault, c’est le développement d’une plate- forme d’applications d’ingénierie simultanée s’appuyant sur une infrastructure hauts débits, ATM en l’occurrence, et l’équipement en stations multimédia de l’ensemble des participants au projet. Dans cette approche, on voit que c’est l’organisation du travail qui a créé le besoin de déploiement d’une nouvelle infrastructure réseau; mais il ne fait guère de doute qu’une fois un tel processus amorcé, de nouvelles itérations suivront : • ou bien le réseau devra être remis à niveau parce que les besoins de communication entre les équipes augmentent, • ou bien l’organisation devra être encore optimisée pour tirer la quintessence de la puissance intrinsèque de l’infrastructure réseau. On le verra plus loin, dérouler ces itérations successives suppose aussi qu’à aucun moment la tarification du réseau ne devienne un obstacle à la recherche de l’optimum productif. 17
  18. 18. 1.5.2. Les réseaux fédérateurs de bureautique et de messagerie Dans de nombreuses entreprises, la « bureautique communicante » est devenue la principale consommatrice de bande passante, et aucun point d’inflexion n’a jusqu’à présent été enregistré dans la croissance du trafic : la messagerie électronique est entrée dans une phase d’accumulation comparable à celle du trafic téléphonique il y a quelques décennies : chaque nouveau connecté arrive avec ses besoins de trafic, mais constitue aussi un destinataire potentiel supplémentaire pour l’ensemble des personnes déjà connectées. Le phénomène est accentué par la généralisation progressive des listes de diffusion, qui ne sont encore que très imparfaitement gérées par les différents protocoles de transport, et par la taille sans cesse croissante des pièces jointes. Ceci explique qu’après avoir contribué au succès de Frame Relay dans la première moitié des années 1990, la bureautique communicante soit en train de favoriser l’introduction d’infrastructures encore plus performantes entre les principaux établissements des grandes entreprises. 1.5.3. L’impact du client / serveur Il ne s’agit pas là de refaire la genèse de cette technologie, mais plutôt de mettre l’accent sur une tendance observée depuis peu : la recentralisation. La généralisation du client/serveur sur les réseaux locaux a dans un premier temps permis de rapprocher les applications et les données du client final et de lui procurer un confort d’utilisation bien meilleur que celui obtenu précédemment à travers des transactions distantes entre des sites centraux et des grappes de terminaux. Mais des effets pervers sont apparus, le principal d’entre eux étant la difficulté de synchroniser des serveurs et des bases de données répartis. On voit donc un retour de balancier s’engager : non pas un retour vers les sites centraux, mais une recentralisation des serveurs. Faut- il préciser que dans ce cas, l’utilisateur ne s’attend pas à un moindre confort d’utilisation ? Le début de la solution réside alors dans une infrastructure réseau puissante, capable d’assurer des temps de réponse comparables à une connexion locale. 1.5.4. Le phénomène Internet / Intranet L’explosion du trafic Internet a rendu critique la migration de l’infrastructure des fournisseurs d’accès vers les hauts débits. Tous n’y vont pas à la même vitesse et tous n’y vont pas par le même chemin, mais le mouvement est inéluctable. 18
  19. 19. D’ores et déjà les liens à 45 Mb/s et au delà sont courants chez les principaux fournisseurs d’accès nord-américains ainsi que sur les liaisons entre les noeuds de l’Internet (Network Access Points). A ces vitesses, peu de protocoles de transport peuvent rivaliser. Les principales tendances observées sont les suivantes : • Les solutions les plus accessibles consistent à rester en IP de bout en bout et à muscler le réseau de routeurs jusqu’aux limites de l’engorgement, ou bien à passer une infrastructure Frame Relay pour le transport longue distance, ce qui fonctionne relativement bien jusqu’à 45 Mb/s comme le réseau NSF Net l’a montré dans le passé. • Lorsque ces limites sont atteintes, ce qui est de plus en plus le cas, il faut migrer vers des technologies de nouvelle génération qui permettent de gérer des bandes passantes plus importantes et une qualité de service personnalisée pour les flux très différents que sont les données, la voix et l’image. Les technologies en compétition, qui sont décrites plus loin dans le document, sont dès lors ATM, IP nouvelle génération (Ipv6) ou IP switching, qui combine IP et ATM. Les solutions mises en oeuvre consistent en un dosage subtil entre ces trois techniques, qui peuvent varier en fonction des convictions propres de chaque fournisseur d’accès. Ce qu’on observe aujourd’hui sur Internet, on le verra demain sur les Intranet des plus grandes entreprises, américaines d’abord, européennes ensuite. 1.5.5. L'émergence d'applications multimédia Il est communément admis que le cerveau humain est plus réceptif aux images qu’à des textes. Pourtant, pour des raisons d’étroitesse de la bande passante, ce sont bien les applications de transmissions de données qui ont régné en maître jusqu’ici dans les communications d’entreprise. Sans assister à un retournement de tendance, on peut dire aujourd’hui qu’on assiste à l’émergence d’applications multimédia, l’Internet ayant d’ailleurs joué un rôle important de popularisation du concept au cours des dernières années. Là encore, le fait que des avancées technologiques aient été enregistrées récemment peut changer la perspective économique d’une famille d’applications qui restait coincée entre la transmission sur des réseaux de multiplexeurs, très coûteuse pour des communications occasionnelles, et la diffusion sur des réseaux de télévision, à l’interactivité très limitée. La finalisation d’un ensemble de standards ATM véritablement adaptés à la transmission vidéo rendra désormais possible la mise en oeuvre de services vidéo commutés. 19
  20. 20. 20
  21. 21. 2. LA BATAILLE DES STANDARDS N’AURA PAS LIEU 2.1. IP, la lame de fond Si des technologies comme Frame Relay ont décollé, IP a véritablement explosé au cours des trois dernières années, au point que le protocole lui- même doit être sérieusement revisité pour faire face aux besoins : C’est la raison d’être d’IP nouvelle génération, ou IP v6. L’organisme cette fois-ci en charge de produire les standards est l’IETF (Internet Engineering Task Force). Cisco, leader mondial de ce marché, a fait le point lors d’une réunion du Cigref sur les principaux travaux de l’IETF sur IP v6. La littérature sur le sujet étant extrêmement abondante et sans cesse remise à jour sur le worldwide web, on retiendra simplement les quatre mutations incontournables auxquelles les travaux de normalisation d’IPv6 tentent d’apporter des réponses satisfaisantes : + optimisation d’IP v4, • Augmentation du nombre d’adresses disponibles par quadruplement du champ adresse porté à 16 octets, • Longueur fixe, • Pas de checksum (fait au niveau 2), • Label de flux permettant de gérer les priorités (voir plus loin) + renforcement des techniques de sécurité et encryptage, 21
  22. 22. + définition de qualité de service différenciée par classes de flux, • utilisation des champs « label de flux » et « priorité » • permet d’envisager des services multimédia ou temps réel • adapté aux technologies Tag Switching et MPLS (voir plus loin) • peut être combiné avec les options de l’en-tête de Source Routing + migration depuis IP v4 et cohabitation des deux normes. IPv6 Transition Strategy • Goal - facilitate partial/incremental upgrades (Hosts, Servers, DNS, Routers) • Host approach - Dual Stack (IPv6 API defined) IPv IPv 6 Driver 4 IPv4 Backbone IPv IPv 6 Driver 4 IPv IPv6 IPv6 6 • Network approach - Tunneling De façon générale, les constructeurs les plus actifs sur IP v6 sont ceux qui avaient déjà un savoir-faire dans le domaine de l’OSI, notamment Cisco, DEC, IBM et Bay Networks. 22
  23. 23. 2.2. Les bienfaits d’IP pour les utilisateurs Il y a bien longtemps, au début des années 1980, la fine fleur des experts des PTT des principaux pays industriels se rassemblèrent pour annoncer au monde entier l’avènement d’une technologie qui allait à brève échéance remplacer tout ce qui existait jusqu’alors et envoyer les modems au cimetière : le RNIS (Réseau Numérique à Intégration de Services), ou dans sa version anglaise ISDN (Integrated Service Digital Network). Les américains eurent tôt fait de lui trouver une autre signification : Innovation Subscribers Don’t Need...et il fallut presque quinze ans pour que les possibilités techniques offertes par le RNIS commencent réellement à être exploitées. Ce petit exemple parmi d’autres illustre une des tares les plus fréquentes dans la profession : les dérives d’experts loin, très loin du marché. A contrario, cela explique les raisons du succès du protocole IP à travers le monde. Le processus de normalisation d’IP et des protocoles associés (TCP, UDP, SMTP, SNMP...) n’est pourtant pas intrinsèquement plus vertueux que les autres et résulte lui aussi de rapport de forces. Mais la grande différence provient du fait que ce sont les « fournisseurs du bout de chaîne » qui sont les plus influents dans ce processus. Par construction, l’activité d’élaboration d’un nouveau standard IP ne commence donc que lorsqu’il y a une demande avérée chez les développeurs d’applications, ce qui a plusieurs effets : • Chaque nouveau standard IP est toujours supporté par au moins un leader de l’industrie informatique, • Le « time-to-market » des standards IP est beaucoup plus rapide que n’est celui des autres standards en moyenne, • Les drivers peuvent être préparés en parallèle par les développeurs d’applications, ce qui évite aux nouveaux standards de rester orphelins trop longtemps. Ces trois points constituent évidemment des atouts majeurs pour les utilisateurs. A cela s’ajoutent deux effets induits : • L’activité de standardisation d’IP a toujours été tellement foisonnante que jusqu’à présent aucun fournisseur ne s’est jamais retrouvé en position dominante. • La masse critique est désormais atteinte, et IP peut être considéré comme un passeport pour les réseaux d’aujourd’hui et de demain. Toutes ces raisons expliquent le succès grandissant rencontré par IP à partir de la fin des années 1980. 23
  24. 24. La situation a en quelque sorte atteint un point de non-retour depuis 1995, sous les coups de boutoir de trois « killer applications » qui s’appuient toutes sur IP : + Le décollage du worldwide web (même si formellement le protocole http pourrait fonctionner avec d’autres protocoles comme IPX), + L’explosion de la messagerie internet (qui repose elle sur une combinaison SMTP/TCP/IP) pour interconnecter des messageries privées, + Le remplacement de Windows 3.11 par Windows 95, qui incorpore de façon native un driver IP. D’ailleurs, l’usage des protocoles issus de la démarche de normalisation OSI, comme X25 ou X400, s’il s’était maintenu jusqu’au milieu des anénes 1990, a brutalement fléchi depuis. Il reste maintenant à voir comment les standards évolueront au fur et à mesure des tentatives de fédérer de nouveaux flux, notamment les applications temps réel comme la voix ou l’image qui ne pourront se satisfaire d’une qualité de service approximative. 24
  25. 25. 2.3. L’intégration d’IP dans les réseaux des opérateurs Les réseaux des opérateurs historiques ont été construits autour d’une technologie, la commutation de circuits, et d’un produit, le téléphone, qui bien que tous les deux centenaires, contribuent encore à plus de 70% du chiffre d’affaires et à la quasi- totalité des profits. Autant dire que l’introduction d’une infrastructure adaptée à IP ne se fera pas sans vagues, surtout si les utilisateurs voient en elle un cheval de Troie pour acheminer leur cher trafic téléphonique à moindre coût. Nolens volens, l’idée commence cependant à faire son chemin selon laquelle tous les acteurs auraient dorénavant intérêt à rentrer dans une logique de développement des usages, car les économies réalisées sur le trafic téléphonique pourraient être plus que compensées par le déploiement d’applications multimédia. Petit à petit, les centres de recherche des grands opérateurs comme les Bell Labs aux Etats-Unis, les BT Labs de Martlesham au Royaume Uni ou le CNET en France, ont donc lancé des travaux pour étudier comment proposer des services IP de qualité. Les solutions qui sont en train d’être élaborées tournent pour la plupart autour d’une combinaison entre ATM et IP. Si l’on raisonne en terme de service, ces deux technologies ont en effet de bonnes raisons de cohabiter : • ATM apporte une réponse à la coexistence sur un seul backbone de réseaux IP différents • ATM apporte une réponse au support de la qualité de service par un réseau de routeurs • Les requêtes RSVP peuvent être converties en signalisation ATM Bien évidemment, les deux standards étant d’inspiration différente, des points de friction demeurent, et il importe de rester vigilant sur les aspects suivants : • Garder un compromis entre les performances de commutation du niveau ATM et la performance et la souplesse du routage IP pour le trafic sporadique, • Harmoniser les modèles de trafic pour construire un réseau cohérent, • Simplifier l’administration 25
  26. 26. Sur ces trois derniers points, les solutions seront en grande partie empiriques, au fil de la montée en charge des réseaux opérateurs. Mais il en a été de même au milieu des années 80 lorsque le trafic Minitel est venu se mêler au trafic X25 professionnel au point de nécessiter un reengineering complet du réseau Transpac ou au début des années 90 lorsque les premiers opérateurs Frame Relay ont tâtonné pour fixer les règles de design de leurs backbone en fonction des demandes et de CIR de leurs clients. Pour l’heure, l’ouverture des premiers services commerciaux comme celui de Telecom Finland donne des résultats encourageants. + Le vrai test viendra lorsque le trafic téléphonique en provenance de centaines de milliers d’abonnés équipés d’un téléphone (et pas seulement de quelques internautes isolés équipés du dernier logiciel audio ou vidéo à la mode) commencera à emprunter cette infrastructure. Mais il faut que les opérateurs historiques finissent de se persuader que si ce ne sont pas eux qui le proposent rapidement, ce seront leurs concurrents moins encombrés par leur base installée... 26
  27. 27. 2.4. L’intégration d’IP dans les réseaux d’entreprise 2.4.1. Frame Relay, le provisoire qui dure De même que pour l’ATM, une instance réunit également tous les fournisseurs : le Frame Relay Forum. Les travaux du Frame Relay Forum sont cependant très différents de ceux menés au sein de l’ATM Forum, pour une raison simple : la maturité du marché. En effet, le Frame Relay est aujourd’hui parfaitement stable en termes d’environnement normatif (c’est bien le moins que l’on pouvait attendre d’une technologie appelée parfois « de transition »). Aussi, plutôt que s’attarder sur les spécifications du Frame Relay Forum, le Cigref a cherché à mieux comprendre la pénétration et les usages du Frame Relay chez les clients, à travers les résultats d’une enquête menée au printemps 1996 pour le compte du Frame Relay Forum auprès d’une vingtaine d’opérateurs : Le décollage du marché Le nombre de clients est passé de 1,000 à 15,000 de janvier 1994 à janvier 1996. Quant au nombre de ports, il est passé au cours de la même période de 11,000 à 135,000 ports dans le monde. On peut noter que la tendance au ralentissement est très progressive, puisque la revue Data Communicaitons a calculé une augmentation de 105% en 1996 et prévoit une croissance d’environ 120% en 1997, à comparer avec une stagnation du marché X25 sur ces deux années, soit un marché multiplié par 50 en quatre ans. A l’inverse de l’explosion du nombre de ports, certaines valeurs restent quant à elles constantes au cours du temps : • le nombre de ports par client reste compris entre 8 et 10 • le nombre de PVC par port est toujours autour de 1.5 (mais les PVC sans aucun CIR sont passés de 50% à 20% du total entre 1994 et 1996, preuve d’une meilleure connaissance des flux). Enfin, concernant la distribution des vitesses d’accès, le Frame Relay se positionne clairement sur la gamme 64kb/s - 2 Mb/s : 98% des accès sont dans ces gammes d’accès, dont les 2/3 à 64kb/s. Les usages du Frame Relay La topologie des réseaux Frame Relay est assez explicite : seuls un quart d’entre eux sont maillés, les autres étant soit point à point, soit en étoile. La raison en est simple : Frame Relay est fréquemment vu aujourd’hui comme un substitut moins onéreux aux liaisons spécialisées. C’est ce premier phénomène, purement tarifaire, qui explique pourquoi Frame Relay a rencontré autant de succès. 27
  28. 28. Concernant les usages proprement dits, c’est du côté des équipements raccordés qu’il faut regarder : • 75% des équipements d’accès sont des routeurs • 15% des équipements d’accès sont des passerelles (3745 / FRAD) vers SNA • 10% des équipements d’accès sont des passerelles (FRAD) vers X25 Ces trois catégories correspondent à autant d’usages : 1. L’interconnexion de réseaux locaux, avec deux applications phares : l’Intranet et la messagerie électronique. 2. La migration de réseaux SNA vers TCP/IP, pour l’ accès aux applications critiques et aux bases de données de l’entreprise 3. Le remplacement des réseaux X25 par des techniques tirant mieux parti de la qualité des liaisons numériques On peut donc dire que Frame Relay a trouvé son marché dans la transmission de données sur les réseaux étendus, et sera relativement difficile à détrôner tant qu’une dimension supplémentaire (multimédia par exemple) ne sera pas apportée par une autre technologie. + En tout état de cause, un tour de table effectué auprès des représentants des grandes entreprises dans le groupe du Cigref a permis de constater que ceux-ci n’avaient aucune réticence à recourir de plus en plus souvent à cette technologie opérationnelle et économique. 28
  29. 29. 2.4.2. Ethernet, le protocole qui repousse ses limites A l’autre bout du spectre par rapport à Frame Relay (qui a le quasi- monopole des accès longue distance dans la tranche allant de 64kb/s à 2 Mb/s), Ethernet règne en maître sur le marché des courtes distances. Le nombre de réseaux locaux utilisant cette technologie se compte désormais en dizaines de millions à travers le monde, ce qui a plusieurs impacts : • la profusion de fournisseurs, • une bonne compétence des responsables réseau, • des prix très compétitifs. Il résulte de ce cocktail que beaucoup de gens ont eu intérêt à faire évoluer Ethernet pour coller à l’évolution des besoins en général, et à l’augmentation des débits en particulier. C’est ainsi qu’est né Fast Ethernet, qui a permis de désengorger certains réseaux saturés et de doter les stations de travail les plus puissantes d’accès plus performants. Fast Ethernet a ainsi autorisé le passage de 10 Mb/s à 100 Mb/s. Aujourd’hui, les mêmes acteurs qui s’étaient rassemblé s au sein de « l’alliance Fast Ethernet» voudraient bien reproduire le même schéma au sein de « l’alliance Gigabit Ethernet», faisant cette fois miroiter le passage de 100 Mb/s à 1 Gb/s. Il serait très risqué à ce stade de dire quel sera le futur de Gigabit Ethernet, et il ne faut jamais désespérer de la créativité et de la pugnacité des fournisseurs. Mais on peut quand même citer trois obstacles que cette technologie devra surmonter si elle veut trouver son marché : + Définition et mise en oeuvre de procédures de gestion de la qualité de service afin de pouvoir supporter les applications multimédia. + Préservation d’un débit utile proche de 1 Gb/s une fois retirées les collisions de trames inhérentes à la technologie CSMA/CD. + Adaptation aux réseaux métropolitains (la portée en fibre monomode reste limitée à 2 km) et surtout meilleure prise en compte du câblage existant, puisque la portée en câblage UTP5 reste limitée à 100 mètres. 29
  30. 30. 2.4.3. ATM et IP, le meilleur des mondes ? Outre les travaux de normalisation sur IP v6 entamés depuis 1994/1995, et qui ont pour la plupart abouti au développement de nouvelles piles de protocoles (notamment RSVP utilisé pour la gestion de la qualité de service), on notera que l’effort porte aussi beaucoup depuis quelques mois sur l’ intégration d’IP dans des réseaux étendus à hauts débits, au premier rang desquels figurent les réseaux ATM. En effet, à la suite de travaux préliminaires sur le TAG Switching et de la sortie au printemps 1996 de produits Ipsilon Networks proposant une nouvelle technique baptisée IP Switching combinant les protocoles IP et la commutation de cellules ATM, la plupart des fournisseurs ont rejoint un groupe de l’IETF baptisé MPLS (Multi Protocol Label Switching) lancé par Cisco. L’idée de base du groupe MPLS est de produire un standard permettant de gérer de façon plus fine la qualité de service et la consommation de bande passante sur un réseau étendu, en indiquant dans un champ spécifique d’IP v6 (Flow Label) le niveau de priorité affecté au flux considéré, et en traduisant ensuite cette valeur dans un champ spécifique du protocole utilisé pour le transport sur le réseau étendu (par exemple le champ VCI en ATM). Cette technique semble assez prometteuse puisqu’elle permettrait de marier les avantages d’IP et ATM, comme l’indiquent les schémas suivants : Encapsulations ATM Cell Header GFC VPI VCI PTI CLP HEC DATA Tag Tag IPv6 Flow Label Field Ver Prio Flow Label ••• Tag Tag PPP Header PPP Header Tag Layer 3 Header LAN MAC Tag Header 30
  31. 31. MPLS and ATM Services Co-Existing on Same Platform! (Ships in Night) • ATM services for real-time services IP IP PNNI/UNI signaling Voice trunking ATM Circuit Emulation (CES) ATM FR • MPLS for data traffic FR IP Offloads signaling-intensive traffic Reduces call set-up dependencies MPLS Benefits Router Backbones Switched Router Backbones • Multiprotocol support • Improves scalability • Enables traffic management • Eliminates router peering issues • Provides load balancing • Multiprotocol support • Enhanced QOS • Minimizes signaling issues A ce stade, il est cependant impossible de dire si les produits qui sortiront prochainement avec la fonction MPLS auront un rapport prix/performance compétitif. 31
  32. 32. Mais dans une approche plus radicale, une telle évolution des besoins peut justifier aussi l’arrivée de standards complètement nouveaux : Ipsilon, start-up américaine, a ainsi fait un triple constat : + IP a gagné la bataille des protocoles + La règle du 80/20 pour la répartition des flux locaux et distants est de moins en moins respectée + La course à la puissance des routeurs est une solution très coûteuse pour faire face à la montée en charge des communications « any-to-any », et ATM n’est pas à lui seul une alternative totalement crédible, notamment en raison de son manque de capacité à faire du routage au niveau 3, ce qui est très pénalisant pour les communications entre sous-réseaux. La réponse Ipsilon a été de concilier le routage IP avec la commutation hardware ATM , à travers un nouvel ensemble de standards : IP switching. IP switching s’appuie principalement sur deux protocoles qui ont été présentés à l’IETF et y ont recueilli un accueil favorable : • GSMP (General Switch Management Protocol), décrit dans le RFC 1987, • IFMP (Ipsilon Flow Management Protocol), décrit dans le RFC 1953. Ipsilon, pour assurer le succès de ces protocoles, a mis les RFC en ligne sur son serveur web. Des compagnies comme 3Com, IBM et Cascade ont déjà affirmé leur support à IFMP. On peut également souligner que ces protocoles représentent beaucoup moins de lignes de code que Q2931 et LAN Emulation utilisés généralement au dessus d’ATM, ce qui augmente les performances. Les avantages et inconvénients d’IP switching Au rayon des avantages, Ipsilon a insisté sur les atouts suivants : • La modularité, • L’utilisation de matériels standards ATM et du processeur Pentium pro, • L’optimisation du code en fonction d’IP, • La classification dynamique des flux, • La performance globale de routage, qui se compte en millions de paquets/s, • La possibilité de continuer à utiliser les outils d’adminitration de réseau existant dans l’entreprise pour gérer les réseaux IP. Au rayon des inconvénients potent iels, les participants du Cigref ont soulevé les questions suivantes : 32
  33. 33. • support de protocoles autres qu’IP : Ipsilon a une démarche très « market- oriented » et, comme telle, privilégie clairement IP. Néanmoins, des développements sont en cours pour intégrer IPX et le bridging. • gestion de la qualité de service : voir la section suivante. • compatibilité avec les VLAN : d’après Ipsilon, cela peut être géré à travers le concept très proche d’IP subnet. La gestion de la qualité de service IP switching se distingue à la fois de RSVP et des dispositifs type CBR de l’ATM, en ce sens que le niveau de priorité d’un flux donné est décidé par l’administrateur. Ipsilon plaide qu’à la différence d’ATM, qui met en oeuvre une qualité de service basée sur la reconnaissance des adresses MAC (niveau 2), IP switching, en se basant sur l’adresse IP (niveau 3), permet de mettre en oeuvre une qualité de service par application. Certains membres du groupe du Cigref ont néanmoins émis des réserves sur la capacité à déployer une telle l gique dynamique à grande échelle, en préservant o une cohérence d’ensemble. Au final, il est donc vraisemblable que l’intégration se fera autour du Tag switching (MPLS) ou de l’IP switching, qui peuvent paraître assez similaires dans leur approche, mais ne sont pas soutenus par les mêmes industriels. Gageons que le marché, dans sa grande sagesse, retiendra le meilleur, c’est-à-dire (entre autres), le plus robuste, le plus souple et le plus économique...Faites vos jeux. Le cabinet Dataquest a fait les siens et estime quant à lui qu’IP switching est le plus prometteur, car les premiers produits sont disponibles, des alliances et des accords de licence ont été ratifiés, et des développements sont en cours pour intégrer les autres protocoles requis dans les réseaux d’entreprise hétérogènes (IPX et le bridging essentiellement). De l’autre côté, Dataquest estime que MPLS reste à l’état de concept et c’est à Cisco, promoteur du projet, qu’il reviendra de convaincre le marché qu’il peut innover et apporter des économies significatives sur une niche de marché (les routeurs haut de gamme) où il détient une position dominante et réalise la plus grand part de ses profits. 33
  34. 34. Et en attendant, y-a-t-il d’autres compromis possibles ? Comme nous l’avons déjà précisé toutes les technologies citées dans ce rapport sont chacune sponsorisées par une instance rassemblant tous les fournisseurs. Ces instances sont parfois amenées à dialoguer les unes avec les autres, dans le but de rendre les technologies interopérables. Parmi les travaux récents, il faut citer ici la cohabitation entre Frame Relay et ATM sur les réseaux longue distance. Frame Relay et ATM sont d’une certaine façon issus de la même école de pensée : le Fast Packet. Moins ambitieux au départ qu’ATM, Frame Relay est sorti plus rapidement sur le marché, et des aménagements ultérieurs lui ont permis de gérer les circuits virtuels commutés, et de transporter des flux aussi différents que la voix ou le trafic SNA. Le mouvement naturel consiste aujourd’hui à préserver les béné fices apportés par Frame Relay sur le réseau d’accès et à l’interfacer avec un réseau de transit plus puissant, reposant lui sur ATM. Le Frame Relay Forum et l’ATM Forum ont d’ailleurs pris acte de cette demande des grands utilisateurs et ont formalisé le mode d’interopérabilité à travers un « Frame Relay-to-ATM Service PCV Interworking Agreement ». Chacun pourra ainsi, à son rythme et en fonction de ses flux, combiner Frame Relay et ATM sur son réseau de transport dans les proportions les plus adaptées. 34
  35. 35. 3. COMMENT ALLER VERS LES HAUTS DEBITS ? 3.1. Des grandes entreprises françaises qui avancent Comme cela a été dit en introduction, ce groupe n’aurait certainement pas vu le jour s’il n’y avait eu chez nos membres le sentiment que les réalisations étaient dorénavant suffisamment nombreuses pour en tirer les premières leçons. Cette section n’a d’autre ambition que de restituer la teneur des projets présentés cette année au cours des réunions du groupe de travail du Cigref...et de donner à ceux qui n’ont pas encore sauté le pas quelques bonnes raisons de ne pas attendre trop longtemps pour le faire. 35
  36. 36. 3.1.1. EDF EDF Electricité de France Projets Haut-Débit à l'EDF u Solution ATM LAN – LANE dans 2 centrales (3COM, Bay Networks) – Validation des solution LANE avec les tests de l'association ARISTOTE (performance et intéropérabilité) u Solution ATM WAN – interconnexion de deux sites de la Direction des Etudes et Recherches avec FT Yves Fouquet - Direction des Etudes et Recherches ED F Ele c tric i té d e Fran c e Projets ATM-WAN u Interconnexion des sites de la Direction des Etudes et Recherches – tests d'ATM sur une LS 34Mbps – tests de l'offre multiservice ATM de FT Yves Fouquet - Direction des Etudes et Recherches 36
  37. 37. ED F Ele c t ri c it é d e Fr a n c e 2 Solutions de Test avec FT P U A B Cas n°1 R A X D E1 E1 vidéoconf. FT RS449 switch switch E1 RS449 vidéoconf. 1,920Mb/s E1 34Mb/s TNLO TNLO 1,920Mb/s ASM ASM 40 ATM ATM 40 FDDI R Clamart R UNI UNI FDDI Chatou P Cas n°2 U A R B A X FT D E1 14 (10+2+2) Mbps E1 vidéoconf. RS449 vidéoconf. RS449 E1 switch switch E1 1,920Mb/s 1,920Mb/s E3 ASM E3 ASM 40 ATM switch ATM 40 FDDI R Clamart R UNI ATM UNI FDDI Chatou Yves Fouquet - Direction des Etudes et Recherches ED F Ele c tr i c i t é d e Fra n c e Conclusion •2 solutions qui fonctionnent •Cas n°1 doit être administré par l'utilisateur •Cas n°2 : solution moins fiable qu'une LS (mais plus chère) • quel futur à l'offre ATM multiservice de FT??? •Solution n°1 plus rentable mais plus difficile à mettre en place Yves Fouquet - Direction des Etudes et Recherches 37
  38. 38. 3.1.2. RATP La genèse du projet La topologie du réseau RATP s’articule autour de deux sites informatiques majeurs : Noisy le Grand (500 pers.) et Lyon-Bercy (1500 pers.), et de 350 gares et 100 bâtiments divers. Ce réseau s’est construit en plusieurs étapes, dont on peut fixer les principales bornes comme suit : • 1990 : LAN 10 Mb/s et Hub Cabletron. Routeurs Cisco AGS+ • 1993 : Introduction de LAN Switch. Six mois après le déploiement, constat que le ratio 90/10 sur communications locales et distantes n’est déjà plus respecté, en raison des déménagements. • 1996 : Définition d’une nouvelle architecture compatible avec trois objectifs : l’augmentation des débits, la télé-administration, et l’indépendance de l’adressage des réseaux par rapport à la localisation géographique. Après un processus d’appel d’offres (où les écarts de prix enregistrés furent considérables), le choix de la RATP s’est porté sur une solution combinant Ethernet et ATM et comportant les éléments suivants : • Commutateurs Ethernet / ATM Cellplex de 3Com, • Réseau maillé de commutateurs ATM sur fibre optique • Liens ATM à 155 Mb/s, • Routeurs Cisco 4700, • Utilisation du backbone FDDI de l’entreprise (réseau Rameau). Le câblage (catégorie 5) n’a pas été modifié, les réseaux Ethernet ont été répartis en Ethernet partagé pour la bureautique et la messagerie, et Ethernet commuté pour les postes de travail CAO & DAO, et les VLAN’s ont été affectés à raison de trois par étage (catia, autocad, bureautique), pour tenir compte de cette typologie des usages. Cette architecture hybride, en place depuis plusieurs mois, fonctionne de façon très satisfaisante, aussi bien au niveau des Cellplex, tantôt en ATM, tantôt en 100 base T, qu’au niveau du backbone ATM qui n’a jamais constitué un goulot d’étranglement. Ce bon fonctionnement n’est pas uniquement l’impression des techniciens réseau, mais correspond à une remontée d’informations en provenance des informaticiens et des utilisateurs. Les aspects technico-économiques 38
  39. 39. Le processus d’appel d’offres pour la mise en place de la nouvelle architecture avait conduit à l’établissement d’une short list comprenant les leaders du marché (dont Cisco, Bay networks et 3 Com). Le choix définitif n’est intervenu qu’après un maquettage de plusieurs semaines. + Par ailleurs, la branche de l’alternative « tout en 100 base T commuté » n’a pas été retenue , car elle n’offrait pas d’avantage financier particulier, et l’expérience menée avec cette technologie sur un des principaux sites de la RATP a plaidé en défaveur de cette solution. + On peut aussi noter que les accès directs sur ATM n’ont pas été probants, car difficiles à installer et d’une performance plafonnant à 10 Mb/s. Enfin, l’administration de réseau, qui fait l’objet d’un VLAN hors-bande à 10 Mb/s, n’offre encore que des fonctions assez rudimentaires. Le passage à la prochaine version du système utilisé (Transcend) devrait permettre une remontée vers HP Openview. Les leçons à tirer + L’architecture mise en oeuvre correspond bien en termes de service aux attentes actuelles des utilisateurs . Les principales craintes qui n’avaient pu être levées avant la phase de généralisation se sont révélées sans fondement : il n’y a pas eu d’avalanches de broadcast (en cas de coupure électrique et rétablissement), et lors des coupures de liens, le re-routage s’est effectué en 90 secondes maximum. + Le passage en ATM peut être considéré à l’arrivée comme relativement indolore . D’une certaine façon, il s’agit du remplacement d’un protocole de niveau 2, et cette évolution a été plutôt moins lourde que la précédente. + Les prochaines évolutions devraient concerner l’intégration de la voix, de la donnée et de l’image. ATM devrait donc prendre de plus en plus de place, mais il restera quand même une couche de routage, surtout parce qu’il y aura toujours d’autres protocoles qu’IP qui continueront à être utilisés. 39
  40. 40. 3.1.3. Bibliothèque nationale de France Le Cigref a eu le plaisir de rencontrer les responsables de l’architecture de communication du Système d’information de la Bibliothèque Nationale de France (BNF) lors d’une visite du site Francois Mitterrand organisée pour l’occasion, et d’engager un débat sur ce que certains ont parfois qualifié à juste titre de « joyau ATM français ». Les orientations stratégiques du réseau de la BNF L’objectif principal était de rester parfaitement cohérent avec les objectifs techniques et économiques du Système d’information dans son ensemble : • Permettre aux usagers d’accéder aux applications et aux fonds numérisés de manière performante, • Fournir une architecture de communication à plus de 3000 utilisateurs simultanés (chercheurs et public), • Demeurer apte à suivre les évolutions de l’informatique et du multimédia, • Disposer d’une infrastructure prête à supporter de nouveaux services, • Assurer à la BNF la pérennité de son investissement • Permettre à la BNF de maîtriser ses coûts de fonctionnement • Assurer la fédération des systèmes connexes au Système d’info rmation • Conforter la BNF dans son ouverture vers l’extérieur Vue d'ensemble du projet informatique Le découpage technique des services offerts par le SI Services au public Accréditation Consultation des usagers du catalogue Gestion des demandes Contrôle des des lecteurs circulations Encaissements Billeteries Gestion des Information Consultation automatisée Prêts et aux publics Emprunts Logistique administrative Services internes Traitements des documents Ressources et Services communs Moyens de transport Production du Bâtiments et catalogue Magasinage Manifestations et colloques équipements Gestion des ateliers du Gestion document opérationnelle Ressources Ressources financières humaines des ressources Conservation Gestion des Accroissements 40
  41. 41. Vue d'ensemble du projet informatique Les interfaces du SI Sites de SI Système de sûreté Province Services au public GMAO Bibliothèques Maintenance municipales classées traitement des Ressources et Gestion des documents services communs lampes Bibliothèques d'appel universitaires Système Internet audiovisuel Système Bases de transitique données FAX Signalétique externes dynamique Système de GIE gestion des Autocommutateur cartes bancaires casiers de salle Pourquoi ATM ? • ATM est un mode de transfert transparent : - pour les informations (voix, données, images, vidéo) gérées par la BNF - selon un multiplexage asynchrone - proposant une large gamme de débits - sur des réseaux maillés (publics et privés) - offrant des mécanismes de LAN virtuel et de qualité de service - apte à suivre les évolutions du multimédia • L’information numérique prend une place de plus en plus importante • Banalisation de l’accès : application de gestion ou multimédia 41
  42. 42. Les caractéristiques du réseau • Technologie ATM de bout en bout (postes de travail et serveurs) : - mode LAN Emulation et protocole IP - UNI 3.1, évolution vers UNI 4.0 • Débit unique 155 Mb/s - utilisation d’une bande passante importante - satisfaction des utilisateurs - pérennité assurée • Support de groupes virtuels de travail - Projection logique des aspects organisationnels de la BNF • Allocation dynamique d’adresses IP - Liée au protocole DHCP (Dynamic Host Configuration Protocol) - Banalisation des postes de travail • Evolution programmée vers MPOA Présentation de la V1 et des spécifications V2 Marché d'équipement : Réseaux et services logistiques 3 coupe feux Serveur d’administration ZWG 120Mz 2 Escala M220 AIX 3*32Mo 2*256Mo é*4,4Go 2Vdat 3*2Go ISM Routeurs NT Contrôleur secondaire de domaine NT Anté-serveur Anté-serveur serveur de distribution SMS logistique local logistique local serveur DHCP Serveur RTC PC ZDS NT PC ZDS NT Profils du groupe PC ZDS NT 32Mo 2Go n LANs virtuels Serveur sauvegarde ATM 155 Mb/s Bi proc Escala AIX Passerelle 128Mo 6Go Vdat ATM EPOCH X400 et SMPT Zserver MX 133 32Mo 2Go PC ZDS NT 155 Mb/s Anté-serveurs de routage 4 Zserver MX Anté-serveur Sequent SE40 ATM passerelles fax logistique local 6 CPU 1Go 10Go 133Mz PC ZDS NT 4*32Mo 4*2Go 155 Mb/s doublé LAN virtuel MLV Serveur de connexions ATM 155 Mb/s Internet et Minitel Sequent SE30 Routeurs PC ZDS NT Contrôleur primaire domaine NT Anté-serveur serveur primaire SMS logistique central serveur SQL PC ZDS NT 100Mz Profils obligatoires 64Mo 4Go Anté-serveur logistique central Secours PC ZDS NT 100Mz 64Mo 4Go 42
  43. 43. 3.2. Principes de gestion des projets hauts débits 3.2.1. La définition du périmètre C’est la première étape et comme telle elle est essentielle pour bien cadrer le projet. Les principaux points à identifier sont : L’impact de l’organisation • Est- il possible de fédérer les flux voix et données sur les mêmes artères ? • Plusieurs pays ou branches peuvent-ils être impliqués dans le projet ? • Et dans ce cas, quels seront les principes d’allocation des coûts ? Modes de travail • Quelles sont les évolutions attendues dans le comportement des utilisateurs et leur impact sur l’infrastructure du réseau ? • En particulier, le fonctionnement en groupes de travail virtuels et la mobilité du personnel sont- ils en haussse significative ? Technologie • Le projet doit il porter sur : - le réseau local, - une fédération de réseaux locaux au niveau d’un campus, - un réseau métropolitain, - un réseau longue distance - une combinaison de ces différents types de réseaux ? • Le câblage existant reste-t-il adapté ? Architecture • Quels sont les niveaux ou couches impactés ? Niveaux 1, 2 , 3, 4 ? • Cela sera-t- il transparent pour les utilisateurs ? • Et pour les développeurs d’applications ? On pourrait rallonger la liste presque à l’infini. L’important est de comprendre que le passage aux hauts débits, s’il doit chaque fois que possible être transparent fonctionnellement pour les utilisateurs et les développeurs, ne pré-suppose pas un statu quo de l’organisation et peut voir son intérêt démultiplié par une fédération intelligente de besoins traités jusqu’alors séparément. 43
  44. 44. 3.2.2. Les processus de décision et les aspects financiers Il est indéniable qu’à partir d’une certaine taille (notamment dans les sièges des grandes entreprises), les réseaux locaux sont menacés d’engorgement, et qu’il faut décongestionner l’ensemble au moyen d’un réseau fédérateur. ATM tient d’autant plus sa place dans ses réseaux fédérateurs que le multimédia y occupe une place importante et qu’il n’y pas trop d’autres protocoles qu’IP à gérer en bout de chaîne. Et pourtant, si on peut dire aujourd’hui que les solutions ATM sont de plus en plus souvent considérées, le circuit de décision les concernant reste complexe. Un responsable réseau n’a concrètement jamais l’autorité de décider seul d’une solution ATM (alors qu’il peut souvent le faire pour de l’Ethernet), et doit systématiquement obtenir l’accord de son DSI, et souvent d’un représentant de la DG (Finance ou Achats). Dans beaucoup d’organisations, construire un plan de financement pour les hauts débits reste problématique. De fait, dans bien des cas, les bénéfices apparaissent plus difficilement quantifiables que les coûts. Dans le cas d’ATM en particulier, où les coûts unitaires des composants sont en moyenne plus élevés, il faut encore démontrer des bénéfices supplémentaires par rapport à des technologies plus traditionnelles. Une enquête réalisée aux Etats Unis a montré que sur le marché de la longue distance, la majorité des utilisateurs n’attendaient pas de bénéfices financiers immédiats de l’introduction d’ATM, mais qu’à terme, cela pourrait contribuer à réduire leur facture de liaisons louées de 20 à 40%. Plusieurs raisons à celà : • Une meilleure gestion de la bande passante, • Un maillage du réseau à moindre coût, • Une administration de réseau plus efficace. Hormis les cas où la performance d’ATM est la seule à pouvoir répondre au besoin fonctionnel (imagerie médicale par exemple) et où le facteur coût passe dans une certaine mesure au second plan, on peut dire que le défi à relever pour une technologie universelle comme l’ATM est d’être le plus économique globalement tout en étant compétitive avec les technologies concurrentes sur chacun des segments : • Ethernet et ses dérivés sur les réseaux locaux, • FDDI sur les réseaux métropolitains, • Les liaisons louées entre multiplexeurs sur les réseaux longue distance. 44
  45. 45. 3.3. Le recours aux opérateurs Le moins que l’on puisse dire est que les offres ATM ne sont pas encore légion et restent généralement réservées dans chaque pays à l’opérateur historique, les nouveaux entrants ayant jusqu’à présent préféré concentrer leurs investissements sur des créneaux rémunérateurs à plus court terme. En attendant d’être éventuellement démenti par les nouveaux entrants, le Cigref a donc examiné les caractéristiques de l’offre de France Telecom dans le domaine : OmA (Offre multi- services ATM). Les points à retenir sont les suivants : Couverture géographique Comme le montre le schéma ci-dessous, la couverture du service OmA prévue pour 1997 est encore loin de celle d’un service banalisé. Concrètement, cela signifie que pour une durée encore indéterminée, il va falloir que les utilisateurs fassent preuve de « créativité » dans le design de leurs réseaux d’entreprise, afin de panacher ATM avec d’autres services. OmA : couverture géographique - En France : progressive, notamment pour le déploiement de plaques - Vers USA dès aujourd’hui comme support IP - 3 à 4 nouvelles destinations prévues avant 1998 Lille Rouen Lannio Paris n Brest Strasbourg Rennes Nantes Lyon Grenoble Bordeaux Montpellier Toulouse Sophia-Antipolis Nice Marseille En effet, compte tenu de l’ouverture à la concurrence, il est très peu probable que France Telecom se lance dans une expansion effrénée de la couverture d’OmA dans des agglomérations où la masse critique n’est pas atteinte. Les solutions possibles consistent à obtenir : 45
  46. 46. • Un couplage à tarif attractif des offres OmA et SMHD (services multisites hauts débits, c’est-à-dire une offre de réseaux métropolitains) pour constituer des plaques régionales • Des liaisons numériques Transfix sur la tranche 2 Mb/s - 34 Mb/s à des prix beaucoup plus bas que ceux d’aujourd’hui pour rapatrier le trafic des établissements isolés vers le noeud OmA le plus proche. A moyen terme, les utilisateurs attendent que l’offre OmA puisse être intégrée en tout ou partie dans le portefeuille de Transpac, ce qui présenterait deux avantages: d’une part une couverture géographique digne de ce nom si un accès OmA est ajouté à chaque point de présence Transpac, et d’autre part la possibilité de migrer de Frame Relay vers ATM comme les utilisateurs l’ont fait au début des années 1990 en passant de X25 à Frame Relay. Caractéristiques et fonctionnalités proposées Les principaux services sont : • Accès ATM natif • Emulation de circuit • Interconnexion de PABX numériques • Interconnexion de terminaux de données en Frame Relay ou HDLC • Interconnexion de réseaux locaux • Circuits Vidéo En dehors de la couverture géographique insuffisante, on peut considérer que les points faibles sont principalement au nombre de deux : • La limitation du service à des circuits à débits constants, reconfigurables par France Telecom (et pas par le client) sur préavis • L’obligation de passer par une offre sur mesure pour les réseaux de plaques régionales évoqués précédemment Si l’on compare à une offre traditionnelle en liaisons louées, il faut néanmoins reconnaître que le service OmA présente déjà dans sa configuration actuelle plusieurs avantages, à savoir : • Une granularité plus fine dans les débits des liaisons • Une plus grande souplesse pour des réseaux multi-sites • Une meilleure supervision des flux et des possibilités de reconfiguration 46
  47. 47. Tarification et zone de compétitivité Les principes retenus à ce jour par France Telecom sont les suivants • Des frais de racordement forfaitaires dans la zone de proximité autour des points de présence, avec une surcharge fonction de la distance au delà d’un certain seuil. • Des tarifs de connexion mensuels en fonction de la distance et du débit entre les points de présence, avec des surcharges éventuelles en fonction de la classe de service désirée. • Des locations d’équipements et d’interfaces. • Des frais d’usage variant suivant le mode (permanent ou réservé, à terme commuté). De façon générale, les principes de tarification sont très similaires à ceux pratiqués aujourd’hui par les principaux opérateurs Frame Relay. La principale différence n’est pas sur les principes, mais sur le positionnement du curseur des tarifs, car il est relativement fréquent que deux accès Frame Relay soient compétitifs par rapport à un liaison louée entre les deux sites, ce qui ne sera pas le cas, selon les dires de France Telecom, pour l’offre OmA. La zone de compétitivité d’OmA se situera donc plus particulièrement dans es réseaux en étoile comme le montre le schéma ci-dessous : R éseau étoile Site C Site A "POP" points de présence Site B Site D L'économie par rapport au réseau de Liaisons Louées provient : - d'un tarif plat (hors frais multiplexeur) sur le tronçon final - entre POP : on ne paie qu'à l'usage Elle dépend des distances 47
  48. 48. 3.4. Les facteurs de réussite 3.4.1. Le rôle clé de l'intégrateur Le Cigref a eu l’occasion de s’en entretenir avec Experdata, l’un des leaders du marché de l’intégration de réseaux. Au cours de ces discussions, les membres se sont accordés à reconnaître que pour des raisons aussi bien techniques (a-t’on choisi le bon produit ?), qu’économiques (le projet sera-t’il viable ?) ou organisationnelles (le périmètre adressé est- il le meilleur ou aurais je intérêt à l’élargir à d’autres secteurs de l’entreprise ?), il pouvait être très utile de faire appel à un intégrateur qui a l’obligation de se maintenir à l’état de l’art. Les différentes solutions préconisées par Experdata au cours de ces deux dernières années montrent en effet combien le contexte reste mouvant et qu’il n’existe pas de solutions toutes faites dans ce domaine. Air France (1995/996) Pour ce projet concernant plus de 1000 postes de travail, c’est Fast Ethernet qui a été retenu, autour de matériels Bay Networks. Principales raisons: • Fin 1994, au moment de l’appel d’offres, ATM était dans les limbes. • Le trafic était essentiellement bureautique ou de terminal vers site central (IBM, Unisys) et le besoin multimédia inexistant. • Il y avait un fort besoin d’IPX. Nestlé France (1996) Pour ce projet de la fin de l’année 1996 concernant 1800 postes de travail, il s’agissait de mettre en place un réseau fédérateur tirant le meilleur parti de l’infratsructure existante, à savoir un campus tout en Fibre optique et de la paire torsadée à 100 Mb/s dans des bâtiments équipés de façon homogène en réseaux Ethernet à 10 ou 100 Mb/s. Pour une des premières fois, c’est un réseau fédérateur ATM qui a été retenu, Experdata a choisi de travailler avec Cisco, qui offrait le meilleur compromis compte tenu des fonctionnalités demandées (LANE 1.0, PNNI phase 1, pas de redondance des LES/BUS, phase intermédiaire en 100 base T). 12 ELAN’s ont été installés, et le projet s’est étalé sur 18-24 mois entre le lancement de l’appel d’offres et la recette définitive. 48
  49. 49. Unilever France (1996/1997) Les principales caractéristiques de ce projet récent étaient les suivantes : • Emménagement de quatre sièges de sociétés du groupe Unilever dans un seul batîment neuf (150m x 8 étages), avec un partage des moyens techniques mais une étanchéité complète entre les quatre réseaux logiques. • Une informatique très hétérogène, avec une centaine de serveurs d’architectures très diverses (SAP, IBM, Unix, HP). • De nombreux réseaux Ethernet à fédérer, mais également des réseaux Token Ring à migrer en Ethernet. • Un partage de charge à réaliser et une redondance complète entre la salle informatique et la salle de back- up. La solution mise en oeuvre par Experdata a consisté en un backbone ATM pour fédérer l’ensemble des réseaux Ethernet, autour de matériels Bay Networks. Cette mise en oeuvre est passée par plusieurs étapes : • Réalisation de maquettes sur les bancs d’essais d’Experdata afin de valider la configuration à installer. • Migration en Ethernet avant le déménagement des deux sociétés fonctionnant jusque- là en Token Ring. • Mise en place des réseaux Ethernet, à raison d’environ 100 utilisateurs pour 3 segments. • Mise en place de 8 ELAN’s (dont 1 pour l’administration). Conclusion On le voit, les solutions sont évolutives et dépendent notamment des rapports de force technologiques au moment du choix. Mais dans bien des cas, le choix de produits hauts débits n’est pas une finalité en soi, mais juste une étape dans la constitution d’un service. Et c’est à l’aune de la qualité du service que la réussite d’un projet sera jugée. Il est donc primordial d’évaluer au moment du choix et de la technologie sous-jacente l’impact qu’ils auront sur deux composantes-clés du service à l’utilisateur : • les compétences en support technique • l’intégration dans l’administration de réseau 49
  50. 50. 3.4.2. L'évolution des compétences Les ressources télécoms et réseaux demeurent des ressources rares, donc relativement chères. Compte tenu des coûts d’appropriation des nouvelles technologies, il n’est pas rare de voir certaines entreprises, même de taille conséquente, faire plus ou moins l’impasse sur une technologie émergente et prometteuse sur le papier, mais à la durée de vie incertaine. Certains protocoles de l’OSI sont mort-nés en partie à cause de cet état de fait, car la courbe d’apprentissage etait tout simplement beaucoup trop ardue pour la majorité des clients visés. A ce titre, tous les standards ne sont pas égaux entre eux, et il est clair qu’atteindre une masse critique de techniciens familiers d’un standard est vital pour la survie du dit standard. Aujourd’hui, deux technologies se détachent très nettement : • IP • Ethernet Il est à peu près acquis que dans les prochaines années, aucun standard ne pourra rivaliser avec ces deux technologies sur les réseaux d’accès. En revanche, le jeu reste ouvert sur les réseaux fédérateurs, et le changement d’image intervenu dans la perception de l’ATM rend plus probable son adoption dans un nombre croissant de réseaux de grande envergure : réseaux d’opérateurs, puis réseaux de fournisseurs d’accès Internet, et enfin grands réseaux d’entreprise. Mais cette mutation sera très progressive, et cela reste objectivement un des obstacles à une pénétration plus rapide de l’ATM. 50
  51. 51. 3.4.3. L'administration de réseau SNMP a profité de la vague IP pour devenir le standard de facto de l’administration de réseau. Des travaux considérables ont été réalisés tant par les instances de normalisation que par les constructeurs pour mettre en place des modules SNMP dans les matériels ATM. En tout état de cause, ATM supporte très largement la comparaison en ce domaine avec des nouvelles technologies comme le Gigabit Ethernet. Mais la principale force d’ATM dans l’administration de réseau et ce qui le différencie de ses concurrents, c’est la gamme d’outils qu’il offre pour fournir une qualité de service personnalisée par type de flux. Et au moment du choix d’une technologie haut débit appelée à véhiculer des flux critiques pour l’entreprise, cet argument de choc contrebalance très largement la relative pénurie de spécialistes de l’ATM évoquée dans la section précédente. 51
  52. 52. 52

×