Hacia un Internet de Nueva Generación

1,614 views

Published on

Hacia un Internet de Nueva
Generación, D. Juan Quemada (DIT-UPM). Enero de 2004

Published in: Technology
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
1,614
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
19
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Hacia un Internet de Nueva Generación

  1. 1. Cátedra Telefónica en la UPM Internet de Nueva Generación Hacia una Internet de Nueva Generación (Versión 6, 2 de Enero de 2004) Juan Quemada Catedrático de la ETSI Telecomunicación - UPM y Director de la Cátedra Telefónica en la UPM para Internet de Nueva Generación 1
  2. 2. 2
  3. 3. PRESENTACION INTERNET DE NUEVA GENERACION, UNA CÁTEDRA PIONERA Este libro ve la luz en un momento crucial para el desarrollo de la Sociedad de la Información en España. Si en años anteriores la crisis con la que comenzó el siglo XXI amenazaba el crecimiento de las Tecnologías de la Información y las Telecomunicaciones (TIC), en este momento los indicadores de referencia dejan ver la luz al final del túnel. El número de internautas, lejos de estancarse, sorprende con un fuerte tirón al alza gracias a la irrupción de la banda ancha, lo que convierte a España en uno de los países punteros de Europa en penetración de ADSL. La conjunción de la tecnología de Internet y la de las comunicaciones móviles augura un cambio trascendental tanto en los medios de producción como en los de ocio en cualquier entorno, sentando las bases de una nueva revolución tecnológica que cambia nuestra forma de relacionarnos, de trabajar, adquirir conocimientos y tratar con las Administraciones Públicas. De igual forma que el desarrollo del ferrocarril o el automóvil han supuesto hitos mesurables en la evolución de las naciones en el pasado siglo, así la inversión en TIC supone una vía segura y eficiente para aumentar el potencial de crecimiento de la economía. El ejemplo más cercano lo tenemos en EE.UU. en donde la apuesta por las TIC guarda un inseparable efecto multiplicador sobre el crecimiento de su economía y el bienestar de sus ciudadanos. En el hogar, la empresa o los centros educativos los usuarios pueden acceder al potencial de información que ponen a su disposición las nuevas tecnologías de la comunicación. La banda ancha no sólo permite navegar por Internet en un ejercicio que era hasta ahora casi privativo del ámbito científico o del mero entretenimiento. La irrupción de la oferta de servicios como la teleasistencia, domótica, educación virtual, vídeo bajo demanda, teleseguridad, telemedicina, etc., señalan ya el futuro del hogar, la escuela o el hospital digital. En un ámbito universitario como en el que nace este libro huelga comentar las ventajas que ofrece Internet para docentes y estudiantes, desde el acceso prácticamente universal a las fuentes del conocimiento a la revolución en los métodos de estudio tanto presenciales como on-line, cambiando el concepto de aulas de informática por el de informática en todas las aulas. Sin embargo, a pesar de que Internet ha irrumpido en las vidas cotidianas de cientos de millones de usuarios, es todavía un arcano para muchos, y lo es aún más la Internet del futuro, la Internet de Nueva Generación. En este libro, el profesor Juan Quemada contribuye a despejar este misterio que rodea a Internet con rigor técnico y claridad expositiva. Se trata de una obra muy útil tanto para el profano que tenga interés por conocer mejor el origen y el funcionamiento de Internet como para los ingenieros y científicos, presentes y futuros, que necesiten un libro de referencia sobre las últimas novedades en IPv6. A través del programa de Cátedras Telefónica del que es pionera la Cátedra de Estudios de Internet de Nueva Generación de la Universidad Politécnica de Madrid, bajo la dirección del profesor Juan Quemada, se fomenta el efecto palanca de la innovación tecnológica apoyando la generación y difusión del conocimiento mediante cursos de postgrado, convocatoria de becas y premios, participación en foros, edición de publicaciones, etc., potenciando en definitiva las relaciones entre la Universidad y la Empresa. La génesis de este libro en el ámbito del programa de Cátedras Telefónica refuerza el compromiso del líder español en telecomunicaciones apoyando la difusión del conocimiento, incentivando la investigación, el desarrollo y la innovación (I+D+I). En el marco de este esfuerzo, este año Telefónica ha favorecido la concesión de mil cien becas, al tiempo que incrementó su actividad como vehículo catalizador del conocimiento en el ámbito universitario a través del portal de la Fundación Telefónica CampusRed.net con más de un millón de visitas y doce millones de páginas vistas. José Maria Sanz-Magallón Subdirector General Relaciones Institucionales y Gestión de Conocimiento de Telefónica S.A. 3
  4. 4. 4
  5. 5. PRÓLOGO Con gusto escribo unas líneas para prologar este libro, que bajo el título de Hacia una Internet de Nueva Generación recoge los antecedentes históricos de la creación de la red de redes, su evolución y las tendencias futuras. Aunque en la segunda mitad del siglo XX, se han producido numerosas innovaciones científicas y tecnológicas que han transformado nuestra sociedad, incidiendo directamente en la vida de las personas, entre ellas el desarrollo y despliegue de Internet, la multiplicación de sus aplicaciones, la generalización de su uso, al menos en los países del primer mundo, es, sin duda alguna, causa de una de las transformaciones mas importantes que ha permitido el desarrollo de la denominada Sociedad de la Información. Se ha escrito mucho sobre este fenómeno, sobre sus bases tecnológicas, sobre los servicios construidos sobre la red, sobre el ascenso y caída de las .com y el periodo de recuperación, que estamos viviendo en estos momentos, de algunas de las empresas supervivientes de la crisis de finales del siglo pasado. Sin embargo, nos encontramos con una tecnología y unos modelos de negocio en su explotación que están cambiando continuamente, en una fase en que no resulta fácil anticipar el futuro, ni si quiera a corto plazo. Por todas las razones apuntadas, este libro es oportuno y contribuye a clarificar la situación actual y algunas de las previsibles tendencias de futuro. El libro aborda los problemas y soluciones técnicas pasadas, presentes y futuras, y combina de forma equilibrada una visión profesional profunda y detallada con un lenguaje sencillo que permite su lectura a los no especialistas. Esta acertada orientación, unida al hecho de estar escrito en castellano hace de él una referencia obligada. Por otra parte, debo resaltar que el libro es el resultado del trabajo desarrollado por el Prof. Juan Quemada en el marco de la Cátedra Telefónica en la Universidad Politécnica de Madrid sobre Internet de Nueva Generación que tiene la vocación y así viene desarrollándose desde su creación, de convertirse en un foro donde se contribuya con diferentes iniciativas a la discusión promoción y desarrollo de la tecnología y aplicaciones de las versiones más avanzadas de Internet. Desde la universidad estamos muy satisfechos de esta fórmula de colaboración con la empresa en general y, de forma muy especial, con Telefónica. Para concluir, unirme a las palabras del autor, en el sentido de que Internet como red se comporta como un organismo en constante evolución y lo que en estos momentos recibe adecuadamente el calificativo de Nueva Generación, no será sino un escalón más en esa dinámica de cambio, en la que el éxito y la aceptación de los servicios desplegados, así como la seguridad en su uso, serán sin duda, elementos de referencia para poder explorar su futuro. Enhorabuena a su autor por la obra y sea bienvenida. Javier Uceda Antolín Vicerrector de Investigación y Relaciones Institucionales de la UPM 5
  6. 6. 6
  7. 7. Hacia una Internet de Nueva Generación Índice: 1. Introducción.....................................................................................................................................9 2. Las Redes de Comunicación............................................................................................................9 3. Las Redes de Datos........................................................................................................................11 3.1 Conmutación de circuitos y de paquetes .................................................................................12 4. La Primera Internet ........................................................................................................................14 4.1 La primera arquitectura de Internet: aplicaciones “extremo a extremo” sobre TCP/IP .........15 4.1.1 Creación de aplicaciones en la primera Internet...............................................................16 4.1.1.1 Las primeras aplicaciones y servicios: el modelo cliente-servidor............................17 4.1.2 La evolución de las tecnologías de red .............................................................................19 4.1.3 ISOC, IETF y las reglas que sirvieron para crear Internet ...............................................20 5. Los Noventa: Internet entra en la Encrucijada ..............................................................................22 5.1 La escasez de direcciones: NAT cambia la arquitectura de Internet .......................................23 5.2 La explosión de las aplicaciones..............................................................................................26 5.2.1 Colaboración, grupos y comunidades en la red: “Groupware”, P2P, GRID, etc. ............26 5.2.2 El primer Web: publicación de documentos en la red......................................................28 5.2.3 Servicios Web interactivos: acceso remoto a aplicaciones...............................................29 5.2.4 Búsqueda de información y conocimiento: la enciclopedia en la red ..............................31 5.2.5 Voz y Vídeo sobre IP........................................................................................................32 5.3 El difícil control de la seguridad: Los cortafuegos compartimentan la red.............................33 5.4 Los modelos de negocio de Internet. .......................................................................................35 6. El nuevo Milenio: Hacia una Internet de Nueva Generación ........................................................36 6.1 Los nuevos terminales y el acceso a Internet...........................................................................38 6.1.1 Banda Ancha.....................................................................................................................39 6.1.2 WIFI (IEEE 802.11): acceso móvil inalámbrico a red local ............................................40 6.1.3 Servicios de acceso a Internet a través de Teléfono Móvil ..............................................40 6.1.4 El crecimiento de Internet.................................................................................................42 6.2 Aplicaciones y servicios ..........................................................................................................42 6.2.1 La nueva arquitectura del Web .........................................................................................43 6.2.1.1 Web Services y el Web Semántico ............................................................................45 6.2.2 Completando la arquitectura de servicios multimedia: la señalización............................46 6.2.3 Otras aplicaciones.............................................................................................................47 6.3 Un nuevo marco de seguridad .................................................................................................48 6.3.1 La identidad digital ...........................................................................................................49 6.3.2 Los protocolos de seguridad .............................................................................................50 6.4 La evolución de la red y de la arquitectura TCP/IP.................................................................51 6.4.1 La transición de IPv4 a IPv6.............................................................................................52 6.4.2 La calidad del servicio TCP/IP .........................................................................................54 6.4.3 Difusión y comunicación de grupo: multi-envío (multicast)............................................55 7
  8. 8. 6.4.4 Redes móviles...................................................................................................................56 6.4.4.1 Acceso inalámbrico en redes 2G y 3G: GPRS, UMTS, etc.......................................57 6.4.5 Movilidad personal y de terminal .....................................................................................57 6.4.6 La evolución de la conmutación y la transmisión ............................................................59 7. Concluyendo ..................................................................................................................................59 8. Agradecimientos ............................................................................................................................62 9. Bibliografía y Referencias .............................................................................................................62 8
  9. 9. 1. Introducción La información tiene un papel tan esencial en la sociedad actual, que hemos pasado a denominarla “La Sociedad de la Información”. Todas las áreas relacionadas con la creación, almacenamiento, control, transporte y difusión de la información tienen una enorme importancia estratégica y son uno de los sectores económicos clave en los países más desarrollados. Un transporte rápido, seguro y fiable de información es vital en una sociedad basada en la información y por ello durante las últimas décadas ha habido un intenso proceso de mejora de las redes de telecomunicación, que parece haberse acelerado últimamente con el desarrollo espectacular de la telefonía móvil y de Internet. La evolución de las tecnologías de telecomunicación de las redes de datos y de Internet en particular, ha seguido unas pautas difícilmente predecibles, que vamos a tratar de analizar aquí desde diversas perspectivas, que tratan de abstraer las tendencias, decisiones y hechos más significativos de la historia de Internet. El libro trata de anticipar a partir de estas pautas cómo será la evolución de una Internet en los próximos años. El objetivo de este libro es tratar de ayudar a entender a las personas interesadas en el fenómeno Internet, los factores técnicos que han marcado su historia y que pueden condicionar su futuro. Para ello se da una panorámica que cubre desde los comienzos de la conmutación de paquetes hasta hoy, tratando siempre de simplificar las descripciones lo suficiente como para hacerlas comprensibles sin necesidad de conocimientos técnicos especializados. El primer capítulo sitúa las redes de datos en el contexto del conjunto de redes de telecomunicación, para entrar en el segundo capítulo en una breve descripción de las redes de datos y su evolución histórica. El tercer capítulo describe la primera Internet, su relación con otras propuestas que competían con ella y trata de identificar los factores que permitieron que Internet desbancara al resto de las redes de datos existentes en aquel momento. En el capítulo cuarto se describe la transformación que Internet sufrió durante los años noventa, que permitió satisfacer la enorme demanda de uso y servicios a que se vio sometida. El quinto capítulo describe las transformaciones y tendencias que está sufriendo la Internet actual. Además intenta definir y acotar la Internet de Nueva Generación que se está gestando en estos momentos. El libro termina con las conclusiones y los agradecimientos a todos los que han contribuido a su realización de una u otra forma. 2. Las Redes de Comunicación Los servicios ofrecidos por las redes actuales son mucho más avanzados que en el pasado. Además se encuentran en un proceso continuo de innovación. Sin embargo, actualmente seguimos teniendo los tres tipos de redes troncales en que se ha basado el transporte de información durante las últimas décadas: ♦ Las redes telefónicas ♦ Las redes de difusión de radio y televisión ♦ Las redes de datos También existen otras redes más especializadas o de menor tamaño que ocupan nichos de mercado específicos. 9
  10. 10. La red telefónica, especializada en el transporte de voz, ha sido tradicionalmente una de las redes de mayor peso. Esta red está formada por la red fija y la red de telefonía móvil, que ha crecido espectacularmente en los últimos años, debido al avance que supone disponer del servicio telefónico móvil. Las redes de difusión de audio o de vídeo, es decir la radio y la televisión, forman otra de las grandes troncales de comunicación. Estas redes de difusión utilizan normalmente comunicaciones radio, ya sea a través de antenas terrestres o satélites. En algunos países un porcentaje alto de la difusión se realiza también a través de cable. La tercera troncal son las redes de datos, especializadas en transportar paquetes de datos entre ordenadores. Las redes de datos han tenido un desarrollo vertiginoso desde la aparición de Internet [1]. La gran expansión de Internet nunca hubiera sido posible sin la enorme convulsión tecnológica que supuso el desarrollo de la electrónica de estado sólido, que a su vez hizo posible el microprocesador y luego el ordenador personal. Después, la aparición de Internet permitió interconectar los ordenadores en red, convirtiendo el ordenador personal en un eficaz instrumento de ocio, de trabajo y de comunicación interpersonal. Desde hace bastantes años los procesadores permiten digitalizar señales de voz, vídeo o gráficos a un coste muy bajo. Esto hace tecnológicamente viable la unificación tanto de la representación de la información, como de las redes que transportan dicha información. Esta unificación se conoce por el nombre de multimedia. La unificación de la representación de la información multimedia en formato digital ha tenido un fuerte impacto, habiendo provocado la convergencia entre diversos sectores de la economía tales como el sector de los medios de comunicación, la industria cinematográfica, el sector de las telecomunicaciones o el sector informático. La aparición de la información multimedia también permite la unificación del transporte de información a través de una Internet de gran capacidad, aunque este proceso no se ha producido de momento. Es difícil asegurar si en algún momento llegaremos a tener una gran red unificada o no, pero lo que sí parece claro es que Internet ofrece cada vez más y mejores servicios multimedia, que el tráfico de voz y vídeo crece en Internet a medida que pasa el tiempo, y que es muy probable que este tráfico supere al que se cursa por la red telefónica en un futuro no muy lejano. Por otro lado, Internet se basa en un diseño arquitectónico realizado en los años 70 y posee algunas limitaciones que parece necesario eliminar antes de poder extraer todo el potencial que posee. La IETF (Internet Engineering Task Force) [5] y el W3C [12], las organizaciones con mayor influencia en Internet, así como el mundo investigador están trabajando intensamente en el desarrollo de una nueva arquitectura para Internet conocida como Internet de Nueva Generación. Estos desarrollos afectan tanto a la arquitectura de la red, como a las aplicaciones, y una vez desarrollada es muy probable que permita crear una red que mejore muy substancialmente tanto la capacidad de transporte de información de la actual Internet, como los servicios que conocemos. La Internet de Nueva Generación quizá permita crear también la gran red unificada. La nueva Internet aparecerá como evolución de la actual, por lo que es difícil entender el futuro de Internet sin conocer su pasado. Por lo tanto, vamos a revisar la historia de las redes de datos y de Internet para tratar de extrapolar a continuación su evolución futura. 10
  11. 11. 3. Las Redes de Datos Las redes de datos pueden considerarse desde el punto de vista técnico como una evolución de las redes telegráficas. En un primer momento los protocolos telegráficos se adaptaron para la transmisión de bloques de información digital, desde los terminales hasta los grandes ordenadores de las primeras generaciones, para pasar a comunicar posteriormente ordenadores entre sí, tal y como ocurre actualmente. En el mundo de las comunicaciones se denomina protocolo al algoritmo que guía y ordena la comunicación entre dispositivos remotos. El nombre de protocolo se debe a que poseen una función similar a la de los protocolos sociales, ordenar las interacciones entre partes. En la sociedad ordenan la interacción entre personas y en las redes de datos ordenan la interacción entre ordenadores. Cuando se diseña una red de datos el primer paso consiste en definir los protocolos que deben seguir los ordenadores para comunicarse entre si, denominándose arquitectura de la red al conjunto de protocolos que utiliza. La comunicación de datos utilizaba inicialmente las redes existentes, fundamentalmente la red telefónica, hasta que durante los sesenta se propone una nueva técnica, denominada “Conmutación de Paquetes” [6] [10]. La conmutación de paquetes es significativamente más eficiente que la conmutación de circuitos para la mayoría de los servicios de telecomunicación actuales, por lo que su aparición inicia un proceso que ha cambiado profundamente el mundo de las telecomunicaciones. A finales de los sesenta y durante los setenta aparecen diferentes propuestas de arquitecturas de redes basadas en conmutación de paquetes, que aunque se utilizaban en entornos muy diferentes, también competían entre sí. Por ejemplo: ♦ Aparece ARPANET en 1968, promovida por el Departamento de Defensa de EEUU. En 1983 ARPANET cambia su arquitectura y se transforma en Internet al incorporar la arquitectura TCP/IP, empezando la expansión imparable que todos conocemos. ♦ Los operadores de telecomunicación empiezan a ofrecer servicios de conmutación de paquetes que venden a las grandes empresas, por ejemplo las del mundo financiero en España. Telefónica ofrece en 1972 uno de los primeros servicios de conmutación de paquetes comerciales a nivel mundial, denominado RSAN, que posteriormente pasó a llamarse IBERPAC al adoptar la norma X.25. ♦ En 1979 se crea USENET, la red de usuarios del sistema operativo UNIX basada en el programa UUCP (UNIX to UNIX Copy Program). En el marco de esta red se desarrollan también ideas y servicios de gran interés, como el servicio de news. En Europa USENET se denominó EUNET. USENET converge hacia Internet de forma natural, debido a que compartían muchos objetivos comunes con el grupo que desarrolló Internet, además de compartir el sistema operativo UNIX en sus desarrollos. ♦ Las operadoras de telecomunicación, especialmente las europeas, empiezan a ofrecer servicios de conmutación de paquetes basados en la norma X.25 publicada por el CCITT en 1976. X.25 evoluciona posteriormente hacia SMDS, FRAME-RELAY, ATM, etc. ♦ Los grandes fabricantes de ordenadores proponen arquitecturas de red que incluyen servicios de usuarios, tales como IBM (red SNA para aplicaciones corporativas o red BITNET para el mundo investigador), Digital Equipment (red DECNET), etc. ♦ El servicio MINITEL que fue enormemente exitoso en Francia. 11
  12. 12. Además, hay muchas otras iniciativas que no vamos a comentar aquí. Durante los 80 y principios de los 90 la industria realiza un enorme esfuerzo para definir un modelo de referencia que unifique la arquitectura de las redes de datos. Este modelo es conocido como el modelo OSI (Open Systems Interconnection) de la Organización ISO (International Organization for Stardardization). Casi nadie dudaba entonces sobre el éxito de dicha norma, que de haber triunfado hubiese ocupado el puesto de la Internet actual. Tanto es así que la mayoría de las organizaciones y empresas, incluido el DOD que había financiado el desarrollo de Internet, realizaron planes de implantación del modelo ISO – OSI a finales de la década de los ochenta. Durante ese periodo, Internet, que ya está operativa, se va introduciendo en el mundo universitario e investigador. A principios de los noventa la definición del modelo ISO - OSI está incompleta e Internet en cambio crece vertiginosamente, por lo que las empresas y organizaciones más innovadoras empiezan a introducir Internet. A finales de los años ochenta en algunos países, fundamentalmente europeos, existen ya servicios comerciales de redes de datos basados en la norma X.25, que se utilizaban fundamentalmente en el ámbito corporativo y financiero. Pero el éxito de Internet lleva a la creación de servicios comerciales basados en TCP/IP, conocidos como ISPs (Internet Service Providers). A partir de entonces Internet empieza a introducirse a un ritmo imparable tanto en las empresas como en los hogares. El DOD vuelve a alinear sus redes y desarrollos con Internet a principios de los 90. 3.1 Conmutación de circuitos y de paquetes Antes de la conmutación de paquetes, la mayoría de las redes se basaban en la “Conmutación de Circuitos”. En estas redes el intercambio de información sólo se puede realizar cuando se ha establecido el circuito. El funcionamiento del teléfono ilustra muy bien como funciona la conmutación de circuitos. Primero hay que establecer el circuito con una llamada. Sólo se puede intercambiar información, es decir hablar con nuestro interlocutor, cuando el circuito está establecido y nuestro interlocutor está en el otro extremo. Figura 2.1. Conmutación de Circuitos En cambio, la conmutación de paquetes funciona de un modo similar al correo postal. En este tipo de comunicación la información puede enviarse en cualquier momento sin necesidad de esperar a que el destinatario esté preparado para recibirla, tal y como se hace con el correo postal. Para enviar un bloque de información digital simplemente hay que introducirlo en un “Paquete” y enviarlo. Un “Paquete” es similar a una carta. Lleva una cabecera con información sobre el destinatario y el remitente. El paquete envuelve y delimita el bloque de información, como si fuese el sobre en un envío postal. Un paquete se denomina 12
  13. 13. también “Datagrama”, probablemente porque sus diseñadores lo consideraron una variante del telegrama, debido a la velocidad con que se transmiten los paquetes de datos. El paquete, la carta electrónica, también hay que enviarlo a una estafeta de correos digital, que en el caso de Internet es el “Router” o “Encaminador de Paquetes”. El router tiene como función clasificar los paquetes recibidos y enviar cada uno a la siguiente estafeta digital del camino hacia su destino, exactamente igual que en el servicio postal. Por lo tanto para enviar un mensaje de un ordenador a otro simplemente se empaqueta en uno o varios paquetes, que se envían al router más próximo para que este lo reenvíe hacia su destino. Figura 2.2. Conmutación de Paquetes La función básica de un router es almacenar y reenviar paquetes. Los paquetes llegan por las conexiones entrantes, para ser almacenados en la lista de espera de la conexión de salida por la que debe continuar. El paquete continúa cuando le llega su turno de reenvío, después de que los paquetes anteriores de la lista de espera hayan sido enviados. Por eso, la “conmutación de paquetes” recibe también el nombre de “almacenamiento y envío”. Figura 2.3. Router o Conmutador de Paquetes La conmutación de paquetes es mucho mas eficiente que la conmutación de circuitos en el envío de datos esporádicos dispersos en el tiempo, tal y como requieren la mayoría de los servicios de datos. Permite incluso un aprovechamiento más eficaz del ancho de banda en comunicaciones de voz utilizando técnicas de detección de silencios y codificadores de gran eficiencia. El modelo de conmutación de paquetes descrito anteriormente es el utilizado por el protocolo IP de Internet y corresponde a un servicio de conmutación de paquetes de tipo datagrama (sin conexión). También existe otro servicio de conmutación de paquetes, denominado orientado a conexión, que permite crear circuitos virtuales, combinando elementos de la conmutación de circuitos y de paquetes. El servicio orientado a conexión es más complejo, por lo que no vamos a describirlo aquí, aunque es utilizado por muchos otros protocolos como por ejemplo, X.25, FRAME RELAY, ATM, MPLS, en conmutación óptica, TCP, etc. 13
  14. 14. 4. La Primera Internet Internet nace, financiada por DARPA (Defense Advanced Research Project Agency), durante la guerra fría. DARPA fue creada por el ejército norteamericano en 1957, a raíz del lanzamiento ruso del Sputnik, para asegurar la supremacía de EEUU en tecnologías de uso militar. Los gestores de DARPA trataron de involucrar a la comunidad investigadora de EEUU de forma abierta, en contraposición al secretismo imperante en la mayoría de los proyectos militares de la Unión Soviética y lo consiguieron plenamente. El modelo de gestión de proyectos utilizado por DARPA y por otros programas del DoD (Department of Defense) de EEUU ha tenido un enorme éxito a largo plazo, porque no sólo lleva al desarrollo de ARPAnet o de Internet, sino de muchas otras tecnologías clave para la sociedad de la información, tales como gran parte de la tecnología electrónica de estado sólido, del sistema operativo BSD UNIX (que tanta influencia ha ejercido en el mundo de la informática), etc. Todos estos proyectos han tenido una enorme influencia en el mundo de la tecnología y es muy probable que sin ellos el panorama actual fuese muy diferente. Los gestores de los programas y fondos de investigación deberían estudiar el modelo de financiación y gestión utilizado por DARPA, porque la eficacia de aquellos proyectos, así como el impacto conseguido, no han sido igualados por ningún otro programa de desarrollo tecnológico. El proyecto inicial [6] tuvo como objetivo el desarrollo de una red tolerante a fallos de sus nodos, que se denominó ARPAnet. Para conseguir este objetivo la red debía tener un control descentralizado y redundancia en rutas y nodos. En términos militares la nueva red debía ser capaz de sobrevivir a un ataque nuclear, un objetivo de capital importancia durante la guerra fría. Es curioso constatar como un requisito de carácter militar, la tolerancia a fallos en sus nodos, ha sido probablemente la principal razón de su éxito a largo plazo. Este requisito llevó a sus diseñadores a desarrollar técnicas de conmutación de paquetes con encaminamiento adaptativo, de forma que las redes resultantes fuesen capaces de reconfigurarse si algún nodo dejaba de operar. La arquitectura resultante, además de ser adaptativa, reduce el coste del transporte de información porque utiliza los recursos de la red más eficientemente que la conmutación de circuitos tradicional, especialmente cuando se envían bloques sueltos de información. En la década de los 70, estando ARPAnet y otras redes ya en uso, surgió la necesidad de interconectar las redes existentes entre sí. Es en este momento cuando comienza el desarrollo, de lo que hoy conocemos como Internet, por un grupo de investigadores liderados por Vinton Cerf y Robert Kahn [3, 10]. Su objetivo fue desarrollar una arquitectura y unos protocolos que permitiesen interconectar varias redes heterogéneas, transformándolas en una única red. Este proyecto lleva la desarrollo de la arquitectura TCP/IP en la que se basa Internet. En la base de esta arquitectura está el protocolo IP, abreviatura de “Internet Protocol”, que en castellano significa “protocolo entre redes”. La nueva red pasa a denominarse Internet debido al papel fundamental que este protocolo tiene en la nueva arquitectura. Los routers son los dispositivos encargados de encaminar paquetes entre redes y su comportamiento se rige por las reglas que marca el protocolo IP. Aunque la gestación de Internet empieza en los setenta, el nacimiento real de Internet se produce el 1 de Enero de 1983. Ese día muchas de las redes relacionadas fundamentalmente con ARPANET instalan en sus routers y ordenadores la arquitectura TCP/IP y “La Red” comienza a funcionar. A partir de entonces, Internet crece imparablemente. 14
  15. 15. Durante una década su crecimiento se centra en el mundo investigador, hasta que a finales de la década de los 80 Tim Berners-Lee propone un nuevo servicio: “The World Wide Web” [4]. La facilidad de uso del nuevo servicio dispara la introducción masiva de Internet en empresas y hogares, desbancando del mercado a las demás redes. 4.1 La primera arquitectura de Internet: aplicaciones “extremo a extremo” sobre TCP/IP La arquitectura IP tiene tres protocolos como componentes fundamentales: IP, TCP y UDP (figura 3.1). El protocolo IP da un servicio de datagramas y tiene como función principal encaminar paquetes desde su origen hasta su destino, a través de todas las redes que componen Internet. Para poder realizar esta función cada ordenador conectado a la red se identifica por una dirección única en la red, conocida como dirección IP. La dirección IP del destinatario va en todos los paquetes y sirve para que los routers puedan encaminar el paquete correctamente hasta su destino. Todo paquete incluye también la dirección del remitente que es utilizada para el envío de paquetes de respuesta. El protocolo IP se diseñó utilizando direcciones de 32 bits, que permiten identificar hasta unos 4.000.000.000 ordenadores diferentes. En los 70 parecía imposible que el mundo llegase a tener tal cantidad de ordenadores. La asignación de direcciones únicas es una tarea administrativa de vital importancia para el funcionamiento de Internet. Esta tarea fue realizada en un principio por ICCB (Internet Configuration Control Board), creada en 1979. A medida que crecía su importancia se fueron creando estructuras más representativas para su administración como IANA (Internet Assignment Number Authority) y finalmente ICANN (Internet Corporation for Assigned Names and Numbers)[18] que delega la asignación de direcciones IP en organizaciones de tipo regional y local. Las organizaciones que solicitaban direcciones recibían bloques de direcciones IP. Se asignaban 3 tipos de bloques de direcciones dependiendo del tamaño de la organización solicitante: 1. Asignación de Clase A: Bloque de unas 16.000.000 direcciones para grandes organizaciones. 2. Asignación de Clase B: Bloque de unas 65.000 direcciones para organizaciones medianas. 3. Asignación de Clase C: Bloque de 256 direcciones para organizaciones pequeñas. Los usuarios que recibían un bloque de direcciones se comprometían a seguir unas normas de buen comportamiento en el uso de Internet, denominadas “Internet Code of Conduct” [30]. En caso de no seguir dichas normas, la asignación de direcciones podía ser retirada por el organismo administrador. Muchos de los males de la Internet actual se deben a la forma en que se asignaron las primeras direcciones. No se utilizó un plan jerárquico y además las asignaciones fueron muy generosas hasta principios de los noventa. Una gran cantidad de direcciones asignadas entonces nunca se han utilizado. En este momento se ha asignado aproximadamente la mitad del espacio de direcciones de IP y se están utilizando menos del 10% de las direcciones asignadas. Los diseñadores de Internet añadieron sobre el protocolo IP, el protocolo TCP (Transmission Control Protocol) encargado de garantizar la entrega íntegra de los mensajes en su destino. Además de TCP, también se añadió el protocolo UDP (User Datagram Protocol) para comunicaciones no fiables. Sobre estos dos protocolos se instalan las aplicaciones. 15
  16. 16. Internet necesita para su funcionamiento y gestión otros protocolos tales como ICMP (Internet Control Message Protocol), ARP (Address Resolution Protocol), etc. Pero son TCP e IP los que realmente la caracterizan, por lo que la arquitectura de Internet se conoce también como arquitectura TCP/IP [2]. Los protocolos TCP, UDP e IP forman la capa intermedia de la red tal y como se muestra en la Figura 3.1. Estos protocolos fueron diseñados para poder conectar, tanto con una gran variedad de tecnologías de red, como con una gran variedad de aplicaciones. Es decir, normalizan sólo lo estrictamente necesario para desacoplar las tecnologías de red, de las aplicaciones. IP hace de interfaz con las redes que se interconectan a Internet y se especializa en encaminar paquetes entre redes. TCP y UDP hacen de interfaz con las aplicaciones dando un interfaz de acceso normalizado. Figura 3.1. Arquitectura “extremo a extremo” de las aplicaciones sobre TCP/IP Las claves del éxito de Internet parecen ser tres: ♦ La facilidad de diseño y programación de nuevas aplicaciones que utilizan los protocolos TCP y UDP a través del interfaz de “socket”. ♦ La enorme capacidad de los órganos de gestión de Internet para innovar, adaptarse a situaciones cambiantes o de reaccionar frente a problemas. ♦ La capacidad de IP para incorporar nuevas tecnologías de red de forma incremental, sin afectar el funcionamiento de sus aplicaciones. Pasemos a analizar los factores que han dado a Internet su gran capacidad para incorporar nuevas tecnologías de red, para soportar eficazmente el diseño de aplicaciones, así como para innovar y adaptarse a nuevas situaciones. 4.1.1 Creación de aplicaciones en la primera Internet Una de las razones principales del éxito de Internet fue su capacidad para soportar eficazmente el diseño de aplicaciones. La existencia del interfaz de “socket”, que permite programar aplicaciones con gran facilidad, es uno de los factores que facilitó el desarrollo de nuevas aplicaciones. El interfaz de “socket” TCP es muy similar al interfaz de comunicación entre procesos de UNIX basado en tuberías (pipes en inglés), por lo que el porte o la adaptación de aplicaciones UNIX a Internet fue bastante sencilla, al estar la mayoría de los programas en código abierto. Esto permitió que Internet dispusiese de aplicaciones operativas casi desde el primer momento, dándole una ventaja muy significativa sobre otras redes que tardaron mucho más en disponer de aplicaciones. 16
  17. 17. Otro factor factor importante fue la decisión de diseñar IP para ofrecer un servicio de datagrama y de añadir un nivel de transporte que ofrece a las aplicaciones tanto un servicio de datagramas, como un servicio orientado a conexión: ♦ El protocolo TCP ofrece un servicio orientado a conexión ♦ El protocolo UDP ofrece un servicio de datagramas La utilización de un protocolo de red orientado a conexión, tal y como proponía X.25, no hubiese permitido ofrecer un servicio de datagramas eficaz a nivel de transporte. Su implementación hubiese sido muy ineficaz, porque obliga a establecer un circuito por cada datagrama a enviar. También contribuyó al éxito de Internet la naturaleza extremo a extremo de las aplicaciones de Internet, que residen solamente en los ordenadores de los extremos. Esto facilita y abarata el desarrollo y la puesta a punto de nuevas aplicaciones. La mayoría de las aplicaciones se pudieron desarrollar y probar con uno o dos ordenadores conectados a la red. Internet difiere radicalmente de la red telefónica en lo que a despliegue de nuevas aplicaciones se refiere. Las aplicaciones de la red telefónica se instalan normalmente dentro de la red, necesitando un costoso proceso de puesta a punto e instalación que involucra fundamentalmente a los operadores de la red. Esto facilita el despliegue de nuevos servicios y aplicaciones, porque evita que los usuarios deban realizar las instalaciones, ahorrándoles una gran cantidad de trabajo. Los primeros usuarios de Internet eran en su mayoría expertos informáticos que instalaban las nuevas aplicaciones y servicios sin problemas porque era parte de su actividad investigadora. El crecimiento de Internet ha incorporado una mayoría de usuarios que no tienen conocimientos informáticos, por lo que la facilidad de instalación de una aplicación ha pasado a ser hoy un factor crítico, habiendo aparecido el concepto de “conectar y usar” (Plug & Play en ingles). Todos estos factores convirtieron a Internet en un entorno excelente para experimentar con nuevas aplicaciones y servicios desde el primer momento. Cuando alguna aplicación se hacía popular, se desplegaba rápidamente a toda la red, debido a la facilidad con que los usuarios podían instalarlas. 4.1.1.1 Las primeras aplicaciones y servicios: el modelo cliente-servidor Las aplicaciones de Internet utilizan los protocolos TCP, UDP e IP a través de un interfaz de programación de aplicaciones que recibe el nombre de interfaz de “socket”. “Socket” significa enchufe en inglés y probablemente fue escogido por la similitud con la función que tiene un enchufe para la conexión de aparatos eléctricos a la red. El “socket” normaliza el acceso de las aplicaciones a la red, simplificando enormemente la realización de aplicaciones. TCP y UDP proporcionan servicios de transporte de datos radicalmente diferentes, teniendo cada uno su interfaz de “socket” propio. El protocolo TCP proporciona a la aplicación un servicio de transporte de datos orientado a conexión y fiable. Es un servicio que permite crear circuitos virtuales a través de los cuales dos aplicaciones en dos ordenadores diferentes pueden intercambiar datos entre sí. Los sockets TCP son el mecanismo de comunicación básico del modelo cliente-servidor, utilizado en la mayoría de las aplicaciones de Internet: 1. El cliente permite al usuario acceder a servicios de Internet. Los clientes acceden a los servicios estableciendo un circuito virtual con el 17
  18. 18. servidor que provee dicho servicio. A través de dicha conexión solicitan páginas Web, ficheros, ejecución de aplicaciones en otras maquinas, envío de mensajes, etc. 2. El servidor suministra el servicio a los clientes. Los servidores de aplicaciones poseen una dirección IP y un puerto conocidos a través de los cuales pueden dar servicio a muchos clientes simultáneamente. Un último factor a resaltar de TCP, es su diseño como un protocolo capaz de adaptarse a situaciones de congestión de forma que tratase de evitar el colapso de la red. TCP introduce algoritmos de colaboración grupal, de forma que cuando detecta situaciones de congestión reduce progresivamente su cadencia de transferencia para ayudar a descongestionar la situación. Este algoritmo consigue que las aplicaciones basadas en TCP sigan funcionando en situaciones de congestión, aunque su tiempo de respuesta se ralentice. Esta característica ha permitido que Internet pudiese dar un servicio lento pero aceptable durante los primeros años en que la red estuvo muy congestionada. El protocolo UDP proporciona a una aplicación un servicio no fiable de envío de datagramas o bloques de datos. Es un servicio que inicialmente se utilizó menos en las aplicaciones debido a que no garantiza la entrega de los datos enviados. Su uso está aumentando actualmente, porque es más adecuado para el envío de señales de audio y vídeo. Como ya hemos comentado, las primeras aplicaciones fueron en muchos casos versiones adaptadas de aplicaciones o servicios que ya existían en los sistemas operativos UNIX, tales como, enviar correos electrónicos de un usuario a otro, copiar ficheros de un directorio a otro, acceso remoto desde terminales, etc. También se desarrollaron algunas aplicaciones que utilizaban las nuevas posibilidades que permitía la red. Así aparecieron servicios tales como: ♦ El servicio DNS (Domain Name System), que permite asignar nombres simbólicos a los ordenadores conectados a Internet y crear los identificadores/localizadores uniformes de servicios o URI/URL (Uniform Resource Identifiers/Locators). ♦ El correo electrónico, conocido como e-mail, soportado por múltiples protocolos tales como, SMTP, POP, IMAP, etc. ♦ La transferencia remota de ficheros, conocida por el nombre del protocolo (FTP - File Transfer Protocol), que se normalizó a tal efecto. ♦ El acceso remoto a un ordenador, que permitía trabajar como un usuario local desde otro ordenador situado en cualquier parte del mundo, conocido también por el nombre del protocolo (TELNET). ♦ El servicio de News que soportaba foros y grupos de discusión abiertos a todas las personas conectadas a la red. El motor de la expansión de la primera Internet fue fundamentalmente el correo electrónico y también en menor grado la transferencia de ficheros. El correo electrónico facilitó enormemente la comunicación y la colaboración entre personas conectadas a la red. Aunque los primeros correos electrónicos sólo permitían enviar mensajes de texto, pronto se generalizaron para poder adjuntar ficheros, con lo que su utilidad aumentó muy significativamente. El desarrollo de nuevos servicios fue una prioridad desde el primer momento en Internet. La arquitectura extremo a extremo posibilitó la experimentación con nuevas ideas y servicios que maduraron en la década de los noventa. Los nuevos servicios abordaban temas tales como: ♦ Publicación electrónica de información en la red. ♦ Creación de comunidades y grupos de interés en la red. ♦ Automatización de procesos y flujos de trabajo. ♦ Realización de transacciones comerciales a través de la red. 18
  19. 19. ♦ Búsqueda y localización de información en la red. ♦ Comunicación síncrona, tal como Chats, IRCs o voz y vídeo sobre IP. ♦ ... 4.1.2 La evolución de las tecnologías de red Otra clave del éxito de Internet parece estar en la capacidad de IP para incorporar nuevas tecnologías de red de forma incremental, permitiendo al mismo tiempo que las aplicaciones existentes sigan funcionando. Esta capacidad de evolución incremental ha permitido la convivencia en un único marco operativo de todo tipo de tecnologías de red. Así Internet empezó utilizando modems punto a punto de entre 1200 b/s y 19200 b/s. Luego incorporó modems más rápidos, diversas redes locales (Ethernet, token bus, Fast Ethernet, Gigabit Ethernet, etc.), enlaces SDH, redes ATM, acceso ADSL o xDSL, etc. IP permite ir añadiendo todas estas nuevas tecnologías de red. Los diseñadores de la arquitectura TCP-UDP/IP tomaron la decisión de diseñar IP para un servicio de datagramas con la misión exclusiva de encaminar paquetes entre los extremos, dejando el control de la comunicación extremo a extremo a los protocolos TCP y UDP. Esta decisión de diseño libera al router de tener que controlar elementos de las aplicaciones. El router sólo debe conmutar paquetes en función de sus tablas de direccionamiento, cuyo tamaño no depende de las aplicaciones de usuario, sino de parámetros dependientes de la topología de la red y de la asignación de direcciones realizada. Las conexiones de usuario se controlan sólo en los extremos, liberando a la red de esta función. Por lo tanto la capacidad de conmutación de un router no depende del número de aplicaciones o comunicaciones de usuario que soporta, sino de su capacidad genérica de conmutación de paquetes. Otras redes, tales como la red telefónica o la red X.25, están o estaban basadas en protocolos orientados a conexión y necesitan controlar el estado de cada conexión en cada uno de los nodos por donde pasa la conexión. Un servicio orientado a conexión necesita establecer la conexión antes de intercambiar datos, pudiendo realizar una reserva previa de recursos que permite una gestión más eficaz, pero que consume recursos en los nodos o conmutadores, haciéndolos más complejos y costosos. Por ejemplo, la central telefónica necesita controlar individualmente el estado de cada una de las conexiones de voz establecidas, además de controlar la conmutación de la voz. Muchas tecnologías de red usadas actualmente en Internet son orientadas a conexión y no de tipo datagrama. Por ejemplo, la conmutación óptica se hace con técnicas de conmutación de circuitos, asimismo ATM (Asynchronous Transfer Mode) o MPLS (Multi Protocol Label Switching), utilizan protocolos orientados a conexión. La reserva de recursos realizada permite optimizar algunas funciones de los protocolos en un entorno donde no existen los problemas de escalabilidad que aparecen en el nivel de red IP. Durante mucho tiempo los expertos estuvieron fuertemente divididos sobre la conveniencia de utilizar servicios de datagrama (sin conexión) o servicios orientados a conexión. La evolución tecnológica parece haber dado la razón a ambos, habiendo seleccionado en cada parte de la red el protocolo que mejor se adapta a las condiciones específicas de cada función. Un protocolo orientado a conexión parece más eficaz para grandes capacidades de conmutación entre grupos de usuarios de tamaño limitado, donde los circuitos virtuales quedan establecidos durante largos periodos de tiempo. En cambio, un protocolo de datagramas parece escalar mejor a grandes poblaciones de usuarios y aplicaciones, debido a que los nodos (routers) no deben controlar el estado de cada una de las conexiones establecidas, siendo su única función enrutar la información de acuerdo a la tabla de encaminamiento. 19
  20. 20. El protocolo IP y la arquitectura de Internet también fueron capaces de crear una estructura jerárquica cuando la red creció y hubo que dar cabida a todas las subredes que iban apareciendo. La nueva estructura jerárquica se basa en la partición de Internet en Sistemas Autónomos (AS – Autonomous Systems) a los que se asigna una nueva dirección de AS. El encaminamiento de paquetes entre sistemas autónomos se realiza con un protocolo de encaminamiento, BGP (Border Gateway Protocol), diferente del utilizado para encaminar paquetes dentro de un sistema autónomo. La Figura 3.2 describe la arquitectura actual de Internet compuesta por sistemas autónomos (AS) y puntos neutros (NAP – Network Access Point). En el primer nivel (Tier 1) están los proveedores de larga distancia, en el segundo nivel (Tier 2) los proveedores nacionales, etc. La asignación de direcciones inicial no tuvo en cuenta esta jerarquía porque todavía no existía. Los routers del núcleo de la red necesitan unas tablas de direccionamiento de gran tamaño para encaminar paquetes IP, debido a que las tablas deben contener todos los rangos de direcciones IP existentes dentro de cada sistema autónomo, que suelen ser muchos y estar dispersos. Si hubiese existido una asignación jerárquica, cada sistema autónomo tendría asignado un único prefijo y el tamaño de las tablas de encaminamiento se reduciría muy significativamente. Figura 3.2. Jerarquía de Sistemas Autónomos 4.1.3 ISOC, IETF y las reglas que sirvieron para crear Internet El desarrollo de Internet nos permite obtener enseñanzas de gran interés sobre la forma en que se desarrollan actualmente las tecnologías de la información y de las comunicaciones. Probablemente su éxito se deba en gran medida a los métodos de trabajo utilizados por sus desarrolladores, que difieren muy significativamente de los métodos utilizados por los organismos de normalización tradicionales, como por ejemplo, ISO (International Standards Organisation), ITU (Internacional Telecomunication Union), IEEE, etc. El desarrollo de Internet siguió desde sus comienzos unos métodos de trabajo muy participativos, que se recogen en las reglas de funcionamiento de ISOC (Internet Society) [18] cuando se crea en 1986 para coordinar el desarrollo de Internet. 20
  21. 21. ISOC se gobierna por dos comités, IAB e IESG, cuyos miembros son elegidos por las personas afiliadas a ISOC. La asignación de direcciones IP adquiere una importancia muy grande y se delega en otras organizaciones, como ya hemos comentado anteriormente. El trabajo técnico lo realiza la IETF (Internet Engineering Task Force) [5] bajo la supervisión de IAB y IESG. IETF se estructura en grupos de trabajo (WGs), que se rigen por las siguientes normas de funcionamiento: ♦ Libertad de proponer soluciones: los grupos (WGs) se pueden proponer libremente por cualquier miembro. El trabajo de un WG debe abordar problemas técnicos pendientes de solución. La creación de nuevos grupos necesita el visto bueno del IESG. ♦ Funcionamiento abierto y democrático: cualquiera puede participar en los WGs y toda la información manejada por un WG es pública. Los miembros de la todos los comités, IAB, IESG, …, son elegidos por los miembros de ISOC. ♦ Soluciones consensuadas y validadas: las propuestas consensuadas por un WG se publican en RFCs (Requests for Comments). Un RFC debe ser validado en implementaciones reales antes de progresar como norma. Sólo se puede hacer una propuesta de norma (DS – Draft Standard) con un mínimo de dos implementaciones de referencia, realizadas por grupos diferentes y que interoperen. ♦ Competencia y necesidad: las RFCs pueden competir entre sí, dejando a los usuarios la labor de decidir entre propuestas competitivas. ♦ Uso de la red: aunque los grupos de trabajo se reúnen varias veces al año, utilizan la red como herramienta de comunicación permanente. Cada grupo tiene al menos una lista de distribución por donde deben circulan todos los mensajes relacionados con el trabajo del grupo y un repositorio de ficheros donde deben estar todos los documentos que maneja el grupo de trabajo. Los desarrolladores de Internet también utilizaron algunas prácticas menos explícitas, pero que también contribuyeron significativamente a su éxito: ♦ Software libre: El uso de “software libre”, que aunque no fue un requisito, fue muy utilizado en los desarrollos de software relacionados con Internet. El uso de software libre permitió aglutinar rápidamente grandes grupos de usuarios que realizaban pruebas exhaustivas y proponían mejoras, acelerando los desarrollos. ♦ Uso del formato ASCII: El uso intensivo de texto ASCII, tanto en RFCs, como en las cabeceras y mensajes de la mayoría de los protocolos. Esto facilitaba la portabilidad entre máquinas, así como la depuración y el análisis de protocolos y aplicaciones, evitando costosos equipos de prueba. ♦ Uso del TELNET: El uso de texto ASCII en la mayoría de los formatos de mensaje de los protocolos de Internet permite probar y analizar estos protocolos y aplicaciones utilizando TELNET, el protocolo de emulación de terminal remoto. Los costosos analizadores y emuladores de protocolos que utilizan otras redes no fueron necesarios, abaratándose el desarrollo de nuevos servicios y aplicaciones. ♦ Conectividad extremo a extremo: La naturaleza “extremo a extremo” de las aplicaciones también es otro factor que contribuyó a abaratar el desarrollo y la puesta a punto de aplicaciones, sobre todo desde la aparición del PC. Uno o dos PCs conectados a Internet son suficientes para desarrollar y probar la mayoría de las aplicaciones. Estas normas de funcionamiento hacen de Internet un sistema en evolución cuyas reglas crearon desde el principio una gran comunidad de usuarios que no sólo se benefició del uso de la red, sino que participó en la selección y prueba de los mejores protocolos y aplicaciones. Esta capacidad de evolución, adaptación e 21
  22. 22. innovación ha sido probablemente decisiva en el éxito de Internet frente a otras propuestas de redes de datos. Hoy en día los intereses comerciales ejercen una enorme presión sobre Internet y han transformado muy significativamente el espíritu inicial. Pero Internet es todavía uno de los entornos más abiertos, manteniendo una enorme vitalidad y capacidad de innovación. IETF sigue siendo un foro abierto donde cualquier investigador puede acudir, aunque le sea difícil competir con los enormes recursos que las grandes empresas de Internet dedican a IETF, mientras que el resto de organizaciones de normalización siguen restringiendo el acceso a representantes de países o empresas que deben desembolsar grandes cantidades de dinero para poder participar. No parece previsible que las reglas que han permitido evolucionar a Internet de una forma tan exitosa vayan a cambiar significativamente en un futuro próximo, por lo que es muy probable que la gran comunidad de empresas, usuarios e investigadores que han creado Internet siga haciendo evolucionar la red en los años futuros y desarrolle el potencial que todavía queda por desarrollar. Estas reglas de funcionamiento también se han utilizado en otros desarrollos de software libre, como por ejemplo en el sistema operativo Linux, que también ha entrado últimamente en una fase similar a Internet debido al interés que ha despertado en los últimos años como alternativa a Windows. 5. Los Noventa: Internet entra en la Encrucijada La década de los noventa se caracteriza por la enorme demanda de conexión de nuevos sistemas, que obligan a Internet a crecer muy por encima del tamaño para el que la red había sido diseñada. Durante esta década Internet deja de ser un servicio para el mundo investigador, transformándose en un servicio comercial para el que tampoco había sido diseñada. Los usuarios de Internet no solo crecen en número, sino también en diversidad, conectándose muchos usuarios sin conocimientos informáticos que demandan una instalación y un uso más sencillo de los nuevos servicios y aplicaciones. Internet se gestó en los años 70 cuando sólo existían ordenadores grandes (Mainframes) y medianos (Minis). Nadie pudo imaginar entonces, la enorme proliferación de ordenadores que iba a provocar la aparición del ordenador personal. Internet pudo crecer por encima de los límites para los que había sido diseñada y salir de esta encrucijada, pero a costa de romper uno de sus principios básicos, la arquitectura extremo a extremo de las aplicaciones. A principios de los noventa se empieza a detectar el agotamiento de las clases A y B, llevando a IANA a introducir un nuevo procedimiento de asignación de direcciones jerárquico y mucho más restrictivo. IETF trabaja en paralelo en la búsqueda de soluciones. La propuesta que realmente ahorra direcciones IP y se impone mayoritariamente, está basada en un nuevo tipo de dispositivo, denominado NAT (Network Address Translators). NAT permite conectar redes enteras a Internet a través de una única dirección IP, utilizando direcciones privadas en el interior. Esta solución permite satisfacer la enorme demanda de conectividad, pero rompe la conectividad extremo a extremo de las aplicaciones. La gran contribución de esta década son las múltiples aplicaciones que aparecen, que no solo crean nuevos servicios, sino que simplifican enormemente el uso de la red. Las nuevas aplicaciones dan un enorme valor añadido y son el auténtico motor del crecimiento. La estrella indiscutible es “The World Wide Web” [4] (abreviadamente Web o WWW), propuesto en 1989 por el investigador británico Tim Berners Lee y considerado el motor principal de la expansión de Internet en los 22
  23. 23. 90. De hecho, los tres elementos que componen el Web, URLs, el protocolo HTTP y el lenguaje HTML, se consideran parte integrante de la arquitectura de Internet. Durante este periodo aparecen también otras aplicaciones muy significativas como las aplicaciones multimedia que permiten enviar voz y vídeo sobre IP, aplicaciones de mensajería instantánea, los buscadores de información o incluso aplicaciones que se basan en nuevos paradigmas como el paradigma de comunicación “igual a igual” (P2P - Peer to Peer) o la computación en malla (GRID computing). Son todas estas aplicaciones las que dan a la red su enorme potencial y atractivo. El fuerte crecimiento de Internet, así como la demanda de nuevos servicios y aplicaciones también ha creado nuevos retos y tensiones, por ejemplo: ♦ El control de la seguridad en la arquitectura TCP/IP con conectividad extremo a extremo entre todos los ordenadores de la red, donde cada usuario debe gestionar su propia seguridad. ♦ La dificultad en el cobro del acceso a Internet y sus contenidos por parte de los proveedores de acceso a la red. ♦ La dificultad de conseguir un acceso eficaz al enorme repositorio de información distribuida que empieza a estar accesible en la red, cuya catalogación es imposible por métodos tradicionales. ♦ La escasez de ancho de banda y el control de la congestión que no permiten un acceso ágil a Internet debido a la congestión que produce el enorme crecimiento de la demanda de transferencia de información. La naturaleza del protocolo IP (best-effort) no permite al usuario el control de la calidad del servicio, limitando las prestaciones de ciertas aplicaciones de tiempo real. Pasemos a analizar todos estos factores, así como su impacto en la evolución de Internet. 5.1 La escasez de direcciones: NAT cambia la arquitectura de Internet El protocolo IP se diseñó imponiendo un límite, que entonces parecía inalcanzable, de aproximadamente 4000 millones de ordenadores en la red. A finales de los ochenta se dispararon las alarmas, porque el tamaño de la red se duplicaba cada año. Las direcciones IP se hubiesen agotado antes de acabar la década si no se hubiesen tomado medidas. La perspectiva de una escasez de direcciones IP que colapsase Internet, creó una gran preocupación y provocó la modificación de los procedimientos de asignación de direcciones, basada hasta entonces en la asignación de bloques de clase A, B y C. La asignación de bloques A, B o C era muy ineficaz. En los comienzos de Internet muchas organizaciones recibieron bloques de clase A o B, que han tenido una utilización real muy baja, en algunos casos menor del 1%. A partir de entonces se introduce CIDR (Classless Inter Domain Routing), también conocido como supernetting. En CIDR se puede asignar un bloque de cualquier tamaño. La asignación de direcciones empieza a realizarse de forma jerárquica, asignándose direcciones solamente a los proveedores de servicios Internet (ISPs), que a su vez deben reasignarlas a los niveles inferiores. La creciente escasez de direcciones provoca fuertes restricciones en las asignaciones de los usuarios finales que no pueden disponer de direcciones IP. También se controla el uso real de las direcciones asignadas, retirando la asignación en caso de no ser usadas en un plazo de tiempo razonable. Además aparecen nuevas técnicas de asignación de direcciones que se extienden rápidamente y que han distorsionado muy significativamente la arquitectura de Internet. 23
  24. 24. La primera técnica es el ya mencionado NAT (Network Address Translator). NAT sólo utiliza una dirección pública IP para conectar una red que puede tener miles de ordenadores y por eso consigue un enorme ahorro de direcciones IP. Un dispositivo NAT recibe las conexiones TCP o los paquetes IP que vienen de la red privada y los reencamina hacia la Internet pública como si fuesen suyos. Los paquetes de respuesta los recibe el dispositivo NAT, que los reencamina hacia el otro extremo de la comunicación dentro la red privada utilizando una tabla de encaminamiento donde figuran todas las comunicaciones en curso. La introducción de NAT obliga a renunciar al paradigma extremo a extremo de las aplicaciones de Internet, que pasan a tener un dispositivo intermediador entre los extremos. Desde dentro de una red privada, es decir desde detrás de un NAT, sólo se puede acceder como cliente a algunos servicios de la Internet pública, como Web o correo electrónico. Los servidores dan servicio a través de una dirección IP y de un puerto, que deben ser públicos. La instalación de servidores detrás de un NAT no es posible, salvo que el dispositivo NAT permita hacer traducciones permanentes de direcciones y puertos públicos a las que realmente posee el servidor en el dominio privado. Muchas de las aplicaciones que se desarrollan durante esta década no pueden desplegarse de forma generalizada debido a las dificultades que crean los dispositivos NAT. Figura 4.1. Dispositivos NAT crean dominios de direccionamiento privado Además de NAT, aparecen protocolos de asignación dinámica de direcciones, que aunque en menor medida que NAT, también han permitido ahorrar direcciones. Los dos protocolos de asignación dinámica de direcciones más utilizados son: el protocolo DHCP (Dynamic Host Configuration Protocol) que asigna direcciones temporales a un ordenador en entornos de red de área local y el protocolo PPP (Point to Point Protocol) muy utilizado en el acceso a Internet a través de MODEM telefónico que también realiza asignación dinámica de direcciones. En paralelo con la introducción de las soluciones anteriores, que sólo paliaban el problema, se formaron grupos de trabajo en la IETF con el objetivo de buscar soluciones más duraderas, basadas en buscar alternativas al protocolo IP. Estos grupos convergieron en una única propuesta publicada en 1998, que se conoce como IPv6 (IP versión 6) [14], para diferenciarla de la versión de IP actual, conocida como IPv4 (IP versión 4). La aplicación de todas estas técnicas, especialmente de CIDR y de NAT, ha reducido muy significativamente las necesidades de direcciones IP. El coste 24
  25. 25. pagado ha sido la introducción masiva de dispositivos NAT en Internet, tal y como se muestra en la Figura 4.2. La Internet actual se compone de muchas redes con direcciones privadas, desde donde es posible acceder a los servicios internos de la red privada y a los servidores de la Internet pública. Los dispositivos NAT realizan una función de intermediación que rompe el principio “extremo a extremo” (Figura 4.2) con el que surgió Internet, por lo que los ordenadores que están dentro de la una red privada no son accesibles desde el exterior. Esta rotura del principio “extremo a extremo” está dificultando el despliegue de nuevas aplicaciones y servicios, tales como IPsec, Voz sobre IP, P2P o GRID que no pueden operar a través de NAT o necesitan una mayor complejidad arquitectónica para poder hacerlo. Figura 4.2. Impacto de un dispositivo NAT en la conectividad “extremo a extremo” Solo las organizaciones que recibieron asignaciones antes de la introducción de CIDR tienen direcciones públicas en abundancia y las utilizan profusamente. Las demás organizaciones tienen escasez de direcciones públicas y suelen utilizar direcciones privadas a través de dispositivos NAT. Un problema significativo de la Internet actual es la enorme dispersión del espacio de direcciones que provoca un crecimiento constante del tamaño de las tablas de encaminamiento de los routers troncales de Internet. En el año 2000 estos routers necesitaron aumentar su capacidad de proceso en más de un 50%. Los nuevos servicios también pueden ser un motor importante para el despliegue de IPv6. Por ejemplo, los servicios multimedia en UMTS que deben usar IPv6 de acuerdo a las actuales recomendaciones. Por último, debemos resaltar que las reglas de asignación actuales imposibilitan el despliegue de Internet en el tercer mundo. Actualmente hay muchos países que tienen muy pocas direcciones públicas asignadas y nunca van a conseguir las suficientes. Países como China o la India tienen menos direcciones asignadas que algunas universidades norteamericanas. Un caso muy ilustrativo de la situación actual es la iniciativa de la Universidad de Stanford [25] en California para liberar las direcciones no utilizadas. Stanford decidió devolver su bloque de direcciones “Clase A” hacia finales de los noventa para ayudar a solucionar el problema de la escasez de direcciones. Un bloque “Clase A” tiene 16 millones de direcciones, de las cuales la universidad sólo utilizaba unas 56000, es decir, el 0,4% de las direcciones asignadas. La universidad tardó 2 años de trabajo intensivo en reconfigurar toda su red. Otras universidades norteamericanas también poseen asignaciones de “Clase A”, pero después de ver el enorme esfuerzo que supuso la reconfiguración en Stanford decidieron esperar a que se realice la transición a IPv6 para reorganizar sus direcciones. 25
  26. 26. Los datos facilitados por Brian Carpenter, presidente de IAB (Internet Architectural Board de ISOC) y responsable del programa de IBM sobre normas y tecnología de red, también son muy ilustrativos. Según sus palabras [25] actualmente hay 2000 millones de direcciones asignadas (la mitad del espacio disponible), pero sólo se están utilizando realmente unos 69 millones. Carpenter estima que IPv4 sólo permitirá llegar a un máximo de unos 160 millones de interfaces IP realmente conectados a Internet. Racionalizar el uso del espacio de direcciones es muy costoso y cada vez más organizaciones están analizando las implicaciones de migrar a IPv6. IPv6 está considerado actualmente de forma prácticamente unánime como la única forma de solucionar los problemas de crecimiento a largo plazo de Internet y la discusión se centra actualmente en cuándo se debe hacer la transición. Desde el punto de vista de productos, IPv6 es ya una realidad comercial. Prácticamente todos los fabricantes de routers, así como los de sistemas operativos, soportan IPv6. Incluso los proveedores de Internet (ISPs), que han sido los más reticentes, están empezando a dar servicios precomerciales. 5.2 La explosión de las aplicaciones Las aplicaciones son las grandes protagonistas de la década de los noventa. Las nuevas aplicaciones simplifican enormemente el uso de los servicios y facilitan el acceso a Internet de usuarios sin conocimientos informáticos. La gran estrella de las aplicaciones debido a su simplicidad de uso es el Web. Pero existen muchas otras que no alcanzan el mismo impacto, pero que también juegan un papel importante. Tratar de catalogar todas las aplicaciones existentes es prácticamente imposible, por lo que se ha optado por incluir sólo las aplicaciones o grupos de aplicaciones más representativas. Por ejemplo, no se han incluido las aplicaciones de uso restringido en entornos corporativos o privados. En primer lugar se han incluido las aplicaciones de soporte a la colaboración, grupos y comunidades porque fueron las primeras que aparecieron y soportan uno de los objetivos fundamentales de Internet: facilitar la colaboración de grupos dispersos geográficamente. Después se analiza el Web, diferenciándose el primer Web que permite publicar información en la red, del Web interactivo que permite acceso remoto a aplicaciones y bases de datos. También se analiza el problema que plantea la gestión de toda la información y el conocimiento que se está acumulando en la red. Por último se incluye la arquitectura de servicios multimedia de Internet, diseñada para soportar una nueva generación de servicios de audio y video. 5.2.1 Colaboración, grupos y comunidades en la red: “Groupware”, P2P, GRID, etc. Internet es una herramienta de comunicación muy eficaz, que se utilizó desde el primer momento para soportar la comunicación en grupos de personas dispersas geográficamente. La primera Internet fue ya una formidable herramienta de colaboración que aceleró muy notablemente el trabajo en equipo. El desarrollo de los protocolos de Internet a través de los grupos de trabajo de IETF es uno de los mejores ejemplos de colaboración a través de la red. La coordinación de los comités y de los grupos de trabajo se ha soportado desde los primeros momentos con dos herramientas de gran eficacia, que todavía se utilizan hoy profusamente: • La lista de distribución de correo electrónico de un grupo, que permite distribuir correos electrónicos a todos los miembros del grupo. 26
  27. 27. • El repositorio de documentos del grupo, donde se almacenan todos los documentos de trabajo. Este repositorio ha sido tradicionalmente un servidor FTP donde los miembros pueden cargar y descargar documentos electrónicos a través de la red. Hoy en día los servidores FTP tienden a ser sustituidos por aplicaciones interactivas Web que dan soporte integrado a las necesidades de colaboración y comunicación. Otro servicio que tuvo un enorme auge en los primeros años de Internet fue un servicio de foros y grupos de discusión denominado News. Las News eran un servicio global donde cualquiera podía participar, que funcionó muy bien mientras los grupos de usuarios eran pequeños y homogéneos. Cuando Internet creció el servicio se hizo inmanejable y cayó en desuso. En su lugar aparecieron servicios de creación de comunidades más cerrados que permiten comunicarse a grupos de personas con un interés común. Hoy en día se han incluido funciones similares en muchos portales de Internet, pero donde los gestores de los grupos pueden decidir quién puede acceder y quién no. Por ejemplo, está el servicio de grupos de YAHOO o los servicios que ofrece el Messenger de Microsoft asociados a MSN. El trabajo y la colaboración a través de la red ha creado un nuevo tipo de tecnologías destinadas a soportar la colaboración que reciben el nombre de “groupware”. Estas tecnologías automatizan de forma eficaz actividades tales como: uso de repositorios de documentos compartidos, gestión de flujos de trabajo e información, notificaciones al grupo, foros de discusión diferidos e interactivos, votaciones electrónicas, reuniones a través de la red con videoconferencia, gestión de agendas compartidas, etc. Hoy en día la mayoría de los portales, tanto corporativos como públicos, soportan la creación de servicios para grupos y comunidades. También debemos mencionar los servicios interactivos o síncronos, que permiten colaborar a un grupo de personas en tiempo real a través de la red. El servicio más antiguo de este tipo es el chat, que permite intercambiar mensajes de texto de forma interactiva a un grupo de personas. Una variante más actual es la mensajería instantánea, que enriquece el chat con detección de presencia que indica cuando un usuario está accesible en la red. La mensajería instantánea ofrece habitualmente la posibilidad de intercambio de gráficos y ficheros en tiempo real. También podemos incluir dentro de este apartado las aplicaciones de colaboración multipunto, que como la aplicación Isabel [37], permiten que los usuarios conectados interaccionen como si estuviesen reunidos, pudiendo hablar entre sí, verse, además de compartir aplicaciones, presentaciones u otras informaciones. La transmisión de audio y vídeo utiliza la arquitectura de servicios multimedia de Internet que veremos más adelante [23]. Últimamente han surgido dos modelos de aplicación alternativos a la estructura cliente-servidor tradicional, que despiertan un gran interés. Son el modelo de “igual a igual” (P2P - Peer to Peer) y la computación en red, también conocida como GRID. Ambos modelos son de reciente aparición y tienen gran parte de su potencial por desarrollar. Se han incluido en este apartado por su enorme capacidad para crear grupos y comunidades. Las aplicaciones P2P han surgido para dar soporte a comunidades de usuarios que comparten ficheros a través de la red. El primero fue NAPSTER [29]. NAPSTER mostró el potencial del modelo P2P, aglutinando rápidamente una gran comunidad de usuarios que intercambiaban libremente música y canciones en formato MP3. La dudosa legalidad de los intercambios ha llevado a NAPSTER a juicio con las casas discográficas. Su éxito ha llevado al desarrollo de nuevos servicios y aplicaciones [28] tales como Freenet, Gnutella, Kazaa, Groove, eDonkey, etc. P2P explota las ventajas económicas del almacenamiento distribuido. Hoy en día los discos duros de los PCs son muy baratos y tienen una gran capacidad de almacenamiento. Crear un gran repositorio distribuido utilizando P2P es mucho 27
  28. 28. más barato y fácil de gestionar, que centralizar todo el almacenamiento en un gran servidor. En el modelo P2P todos los componentes de una aplicación pasan a ser “iguales”. Los “iguales” (peers) pueden actuar como clientes o como servidores, según requiera la aplicación. Los servicios P2P existentes suelen incluir algún tipo de servidor central, que actúa como punto de acceso al servicio y pone en contacto entre sí a los “iguales”, debido a la falta de conectividad “extremo a extremo”. “GRID computing” [35], que podríamos traducir como computación en malla, es también otro paradigma grupal. Las aplicaciones GRID utilizan la red como el bus de un gran multi-computador de ámbito planetario donde ordenadores conectados a través de Internet se distribuyan tareas de gran complejidad de cálculo. GRID ha explotado hasta ahora las ventajas económicas del cálculo distribuido. Un gran supercomputador es mucho más caro que un grupo de PCs de potencia equivalente. Hoy en día los microprocesadores son muy baratos y tienen una enorme potencia, además están la mayor parte de su tiempo en estado de espera. GRID utiliza la potencia de cálculo no aprovechada de los PCs existentes para resolver problemas de gran complejidad. SETI@home [26] es quizá el ejemplo más exitoso y conocido, habiendo conseguido unir 3,3 millones de PCs, con una capacidad de cálculo equivalente a 31 Teraflops/s, que tratan de descifrar señales extraterrestres. La computación GRID está considerada como uno de los grandes retos para el futuro de la red y la comunidad investigadora se ha integrado actualmente en torno al Global GRID Forum [27]. Estos son ejemplos de algunos de los servicios de comunidades y grupos que se han desarrollado en Internet durante los últimos años. Este tipo de aplicaciones tienen un enorme potencial y su desarrollo parece que no ha hecho más que comenzar. 5.2.2 El primer Web: publicación de documentos en la red La propuesta en 1989 del Web [4] por el investigador británico Tim Berners-Lee tiene un enorme impacto en la evolución de Internet. Tim Berners-Lee propone el Web durante su estancia en el CERN, el gran laboratorio europeo de física de altas energías, para coordinar experimentos científicos en el mundo de la física de altas energías, aunque su autor era consciente del potencial de su propuesta en muchos otros ámbitos de Internet. Tim Berners-Lee concibió el Web como un vehículo de comunicación universal a través de Internet. La propuesta inicial de Web define un interfaz abierto muy eficaz para la publicación de documentos en la red, de forma que estén accesibles instantáneamente para cualquier otro usuario. Cada documento puede además enlazar otros documentos en la red utilizando hiperenlaces. El Web es el mejor ejemplo del enorme potencial de los interfaces abiertos, porque las ideas en que se basa ya se habían desarrollado en entornos cerrados o propietarios, pero es sólo cuando estos servicios se trasladan a un entorno abierto cuando se despliegan de forma masiva. Su creador, Tim Berners-Lee define el Web como un universo de mundos de información interconectados, donde cada página Web es el centro de uno de esos mundos. El autor de una página es el dueño y gestor del mundo que describe, decidiendo qué información quiere compartir con el resto de la red y con qué páginas quiere enlazar. El Web permite crear a cada usuario de la red el mismo modelo de relaciones que existe en la vida real, donde existe información privada, información compartida sólo con ciertos grupos e información pública, y donde los hiperenlaces definen las relaciones de cada uno de estos ámbitos de información con el resto del mundo. Web significa en inglés telaraña, 28
  29. 29. probablemente porque fue el mejor símil que Tim Berners-Lee encontró para representar esta enorme malla de enlaces entre páginas de información. Las características a las que el Web debe probablemente su éxito son: 1. Es un interfaz abierto que permite interconectar a todos los usuarios de la red. 2. La simplicidad de uso que permite navegar por toda la red haciendo uso sólo del ratón y ocasionalmente de un teclado. 3. La facilidad de instalación de servidores Web que pueden ser gestionados incluso por personas sin grandes conocimientos técnicos. 4. La naturaleza descentralizada, donde el autor de cada página decide qué información publicar y con quién enlazarla. Desde el punto de vista técnico, el servicio Web tiene la estructura cliente- servidor típica de los servicios de Internet. El cliente que permite a un usuario solicitar un documento Web se denomina visor o navegador Web (“browser” en inglés) y envía peticiones de documentos Web al servidor con el protocolo HTTP. El servidor contesta enviando el documento Web solicitado en formato HTML, que el visor presenta al usuario correctamente formateado. La arquitectura de una aplicación Web se basa en estos tres elementos: ♦ El protocolo HTTP (Hyper Text Transfer Protocol) para transferir documentos Web del servidor al cliente. ♦ El lenguaje HTML (Hyper Text Mark-up Language) de representación de documentos Web, que incluye además del texto las reglas de formato y presentación visual. ♦ El URL (Uniform, Resource Locator) para referenciar unívocamente documentos Web en la red. El elemento de mayor complejidad del servicio Web es el cliente, que debe interpretar y presentar al usuario de forma legible la información que recibe de los servidores. Pero como el cliente es el mismo para todos los usuarios, el diseño de un nuevo servicio sólo necesita crear nuevos servidores. Esto convierte el visor Web en el elemento de mayor importancia estratégica para controlar el acceso de los usuarios a Internet. Los servidores Web son de mayor simplicidad que los clientes ya que su función consiste en devolver páginas Web (ficheros) a los clientes que las solicitan. El gran interés despertado por el Web en el mundo empresarial y la rápida popularidad alcanzada, llevó en octubre de 1994 a la creación del WWW Consortium [12], conocido abreviadamente como W3C. Su objetivo fue, y sigue siendo, garantizar el desarrollo del Web como un vehículo de comunicación universal. Tanto Tim Berners-Lee, como una gran comunidad de miembros, velan por el mantenimiento del W3C como una organización neutra e independiente de los fabricantes, que trata de producir las normas que rigen el Web al ritmo que demanda la evolución de la tecnología actual. La estructura y forma de funcionamiento es diferente de ISOC, porque sólo pueden acceder organizaciones que deben afiliarse y pagar una cuota, pero su funcionamiento es muy abierto y ágil. El enorme impacto del Web ha hecho del W3C un foro de gran importancia, siendo junto con IETF, las asociaciones que mayor influencia ejercen en la evolución de Internet. 5.2.3 Servicios Web interactivos: acceso remoto a aplicaciones El servicio Web ha evolucionado desde sus comienzos, habiéndose transformado en un servicio de acceso remoto a aplicaciones que se ejecutan en servidores accesibles a través de Internet. Esta forma de acceso se popularizó muy rápidamente, porque permitió dar acceso a través de una Intranet corporativa o a 29
  30. 30. través de la Internet pública a las aplicaciones corporativas propietarias que existían antes de la popularización de Internet. El acceso a documentos Web es sólo uno de los usos posibles del Web actual. Los nuevos servicios Web se denominan interactivos y permiten crear tiendas electrónicas, servicios de acceso a bases de datos y repositorios de información, buscadores de información, de soporte a la educación, de administración electrónica, etc. La simplicidad de uso del Web unido a su capacidad de interacción con aplicaciones remotas ha llevado a utilizarlo para unificar el acceso a muchos otros servicios, utilizando pasarelas de Web a correo electrónico, a grupos de discusión y de noticias, a soporte a flujos de trabajo, transferencia de ficheros, etc. Hoy en día el acceso Web se ha convertido en parte de la arquitectura de Internet, debido a que es utilizado por la mayoría de las aplicaciones, aunque sólo sea como interfaz de acceso. Gran parte de los desarrollos de nuevos lenguajes de programación o de nuevos entornos de desarrollo de aplicaciones aparecidos durante los noventa han tenido como objetivo facilitar la programación de servicios Web interactivos, por ejemplo Java, Javascript, PHP, Perl, Pyton, Exchange, .COM, .NET, C#, etc. Como el navegador es el punto de acceso a la mayoría de los servicios de Internet, su control se convirtió desde el principio en uno de los objetivos más codiciados por las empresas de Internet. La primera gran batalla por el control del acceso a Internet se centró en el control del navegador de acceso a Web. Netscape fue la primera empresa que vislumbró la importancia del Web y desarrolló a principios de los noventa el primer visor de calidad, a partir del navegador "Mosaic", que fue el primero en incorporar gráficos. El nuevo navegador pasó a denominarse Netscape Navigator, luego Netscape Communicator, diseminándose masivamente entre los usuarios de Internet. Alcanzó cifras de penetración del 80 y 90 por ciento. El control del visor aseguraba a Netscape el control del acceso a Internet, convirtiéndose en una de las empresas que mayor interés despertó a mediados de los noventa. Durante algunos años se pensó que nadie sería capaz de desplazar a Netscape de su posición de dominio. Microsoft tardó bastante en descubrir la importancia que Internet, y especialmente el Web, iban a tener en el mundo de las aplicaciones. Pero cuando comprendió la importancia estratégica que suponía controlar el acceso a Web, concentró grandes recursos en el desarrollo de su navegador "Explorer", entablándose una fortísima batalla entre ambas empresas [11]. Finalmente Microsoft consiguió imponer "Explorer" a la mayoría de los usuarios de Internet hacia finales de los noventa, gracias a su distribución gratuita junto con el sistema operativo Windows. En este momento, el Web se halla en proceso de redefinición dentro del W3C. HTML es un lenguaje que ha cumplido muy bien su función como lenguaje de publicación de documentos en la red, pero no sirve como formato unificado de representación de datos en Internet, ni soporta adecuadamente la creación de los nuevos servicios que la red esta demandando. El proceso de redefinición empezó a finales de los noventa y se va realizando de forma incremental en el marco del W3C. La nueva arquitectura Web se construye sobre XML (eXtensible Markup Language) [12], que gracias a su extensibilidad permite ir creando paso a paso todos los componentes de la nueva arquitectura. El objetivo perseguido por el nuevo Web es seguir soportando la publicación de documentos y aplicaciones, pero permitiendo también la cooperación entre aplicaciones a través de Internet, que ahora no es posible. Además deberá incorporar capacidades multimedia y calidad tipográfica en la información publicada, junto con meta-datos semánticos que permitan buscar y clasificar la información en la red de una forma mucho más efectiva, tal y como se describe en el próximo capitulo. 30
  31. 31. 5.2.4 Búsqueda de información y conocimiento: la enciclopedia en la red La sencillez de instalación de los servidores Web, así como la naturaleza descentralizada del servicio, produjo desde el primer momento un crecimiento enorme de la información disponible en la red, cuya catalogación es imposible siguiendo métodos tradicionales. La búsqueda de información y datos, o incluso el aprovechamiento de todo el conocimiento que existe en la red se ha convertido en uno de los objetivos principales de los desarrolladores de nuevas aplicaciones, que tratan de adaptar a Internet técnicas de minería de datos, búsqueda de información o gestión del conocimiento. El máximo avance en este área se ha dado con los robots buscadores de información encargados de catalogar toda la información disponible en la red. Los buscadores recorren continuamente la red catalogando en una base de datos todas las páginas encontradas. La base de datos puede ser consultada por cualquier usuario, permitiéndole encontrar en pocos segundos informaciones imposibles de encontrar por otros procedimientos. Yahoo [19] fue el primer buscador. Rápidamente fue seguido por otros tales como, Altavista, Lycos, Excite, etc. Pero ha sido “Google” [13], el último en aparecer, el que ha revolucionado la búsqueda de información en Internet debido a su extraordinaria eficacia. Google ha desplazado a los demás buscadores y se ha convertido en el buscador preferido de los usuarios. La eficacia de Google es tal que está creando una auténtica revolución en la gestión y almacenamiento de la información. Hay expertos que empiezan a considerar que la información sólo hay que producirla y ponerla disponible públicamente en el Web o en alguna red privada. Un buscador de la eficacia de Google localizará casi de forma instantánea cualquier información que necesitemos. Las enciclopedias tradicionales no pueden competir con la información en la red debido a la lentitud que su actualización conlleva. La búsqueda y producción de información y conocimiento es una tarea de capital importancia en la sociedad de la información, por lo que la publicación en la red y la búsqueda automatizada sustituyen cada vez más a los métodos tradicionales. El éxito de Google se debe en gran medida a su política de centrarse en la eficacia del proceso de búsqueda sin ningún tipo de condicionamiento basado en acuerdos económicos con los potenciales beneficiarios. Pero, este éxito ha situado a Google en una situación enormemente delicada porque sus algoritmos de búsqueda deciden el éxito o el fracaso de muchas empresas, que dependen de la forma en que Google ordene las informaciones que presenta a los usuarios. La mayor parte de la información que existe en la red sólo está accesible en formato HTML, siendo su análisis y catalogación muy difícil. Google sólo permite encontrar la información, pero el análisis o la integración automática de la información HTML encontrada no es posible. El uso eficiente de toda la información y el conocimiento que existe en la red, probablemente no sea posible hasta que el Web semántico se desarrolle y sea posible procesar la información existente en la red utilizando algoritmos que puedan analizar la información encontrada. También empieza a despuntar otra tendencia, denominada “open content” (contenido libre o abierto), que pretende dar una alternativa a la producción de contenidos tradicional basada en los derechos de autor. La producción de información, contenidos y conocimientos podría acelerarse mucho si se hiciese de forma libre y en colaboración a través de la red. El proceso sería muy similar al ocurrido en el mundo del software, donde la producción basada en derechos de propiedad con licencias de uso no ha podido competir en muchos casos con desarrollos basados en grupos de desarrolladores que colaboran a través de Internet en un proyecto de producción de software libre. 31
  32. 32. 5.2.5 Voz y Vídeo sobre IP. Durante la década de los noventa maduran también las tecnologías de codificación digital. Primero la codificación de audio y hacia el final de la década la codificación de vídeo, integrándose los codificadores digitales de audio y video como periféricos habituales, incluso en PCs de bajo coste. En paralelo IETF desarrolla la arquitectura de servicios multimedia de Internet, que utiliza los protocolos RTP/RTCP [2] para enviar flujos de audio y de vídeo a través de Internet utilizando el protocolo de transporte UDP. Esto lleva al desarrollo de aplicaciones de telefonía y de videoconferencia IP que permiten realizar llamadas a un coste inferior al de la red telefónica, aunque con una calidad que depende del estado de congestión de la red. Por ejemplo aplicaciones como NetMeeting de Microsoft u otros videotelefónos permiten realizar llamadas de larga distancia, que tienen una calidad excelente cuando la red no está congestionada. Aunque la tecnología básica para envío de voz y vídeo en formato digital a través de Internet ha alcanzado una madurez notable, a finales de los noventa todavía hay carencias y factores que frenan el uso de Internet para la transmisión de voz y vídeo. Los mas importantes son: ♦ La incapacidad de garantizar una calidad de servicio en la transmisión, de forma que la voz y el vídeo lleguen sin cortes ni interrupciones en condiciones de congestión de la red. ♦ La dificultad de aplicar los modelos de negocio de telefonía de voz, al no ser fácil diferenciar las llamadas locales de las interurbanas o de larga distancia. ♦ La falta de mecanismos de señalización que permitan reproducir en Internet los servicios actuales de la red telefónica, tales como: red inteligente, Centrex, PABX, etc. ♦ La falta de conectividad extremo a extremo debida a la falta de direcciones IP. ♦ El mayor coste de los terminales telefónicos con conexión directa a Internet. ♦ La incapacidad de realizar una difusión eficaz de señales de audio y video a grandes audiencias, debido a la falta de protocolos de multicast en las redes comerciales. La desviación del tráfico de voz de la red telefónica actual hacia Internet reduciría la facturación de los operadores de telefonía muy significativamente, desincentivando el desarrollo de servicios de voz a través de Internet en dichas operadoras. Por ejemplo un acceso ADSL o cable con tarifa plana permitiría hacer llamadas de duración ilimitada a cualquier parte del mundo, sin coste adicional para el usuario. Hoy en día sólo se han desarrollado de forma significativa, aunque no masiva, los servicios de “streaming” (flujos), que permiten difundir audio y vídeo a través de Internet. La radio por Internet es hoy una realidad existiendo bastantes emisoras que realizan emisiones de radio a través de la red. También se realizan de forma más esporádica emisiones de vídeo, aunque necesitan un mayor ancho de banda, especialmente para vídeos de buena calidad. También han aparecido servidores de video “streaming” que permiten servir a múltiples usuarios video bajo demanda. Las técnicas de “streaming” sirven para la difusión de señales porque los protocolos utilizados para garantizar calidad de audio y vídeo recibido introducen retardos muy altos. Los fuertes retardos introducidos no permiten conversaciones telefónicas o videoconferencias interactivas. 32

×